基于行为-内容融合模型的用户画像研究
2018-07-05分类号:TP391.1
【部门】中南财经政法大学信息与安全工程学院 武汉大学信息管理学院
【摘要】[目的/意义]为识别并去除非理性投资者的网络评论,提升评论的专业程度与质量,促进理性投资,本文以识别股吧中的用户是否属于噪声投资者为研究任务,进行用户画像。[方法/过程]对股吧的用户发文内容进行深度用户表示学习(deep user representation learning),结合股吧用户的粉丝数量、影响力、关注量、自选股、吧龄、发帖量、评论量、访问量等行为特征,提出一种行为-内容融合模型(behaviour and content combined model,BCCM),并在标注数据集上进行实证与对比研究。[结果/结论]实验结果显示,该模型对噪声投资者识别的F1值为79. 47%,优于决策树方法(69. 90%)、SVM方法(75. 61%)、KNN方法(73. 21%)和ANN方法(74. 83%)。在噪声投资者识别这一特定用户画像研究任务中,通过利用深度用户表示学习引入文本内容特征,能够显著提升用户画像的各种评价指标。
【关键词】用户画像 情感分析 用户表示学习 特征融合
【基金】国家自然科学基金面上项目“大数据环境下基于领域知识获取与对齐的观点检索研究”(项目编号:71373286);; 教育部哲学社会科学研究重大课题攻关项目“提高反恐怖主义情报信息工作能力对策研究”(项目编号:17JZD034)研究成果之一
【所属期刊栏目】图书情报工作
文献传递