专稿 已发表论文 版本 1 Vol 4 (5) 2019
下载
网络谣言敏感词库的构建研究——以新浪微博谣言为例
Construction of Sensitive Thesaurus for Network Rumors——Taking the Microblog Rumors as an Example
: 2019 - 06 - 18
: 2019 - 09 - 11
33 0 0
摘要&关键词
摘要:[目的/意义]网络谣言严重影响网络正常信息的传播,对网络谣言进行识别有着重要的现实意义。笔者构建一个基于微博的网络谣言敏感词库,以提高网络谣言的识别精度。[方法/过程]针对微博类社交平台短文本的特点,首先舍弃传统的分词算法,设计LBCP抽词算法,并结合位置信息和改进的TF-IDF权重来提取敏感词库的种子词集,然后通过聚类算法将种子词的近义词补充到词库中,再将常用的替代词也加入到词库中,从而得到最终的敏感词库。[结果/结论]利用敏感词特征对谣言进行判断,在提取微博的内容特征、用户特征、传播特征以及情感分析特征的基础上,新增敏感词特征以后谣言识别率有明显提升,得到较好的识别效果。
关键词:敏感词库;词向量;特征空间;网络谣言
Abstract & Keywords
Abstract: [Purpose /significance] The network rumors seriously influent the spread of normal information on the internet. The purpose of this paper is to construct a sensitive lexicon on microblog rumors and to improve the recognition accuracy of the network rumors. [Method/process]According to the characteristics of microblog’s short text on social networking platforms, this paper focuses on construction of the microblog sensitive thesaurus, which is built up through LBCP algorithm and extension of multiple level words. At first, the method directly extracts words through LBCP algorithm, which considers the cohesion and polymerization of rumor words. And then, based on the core words, multiple level words are expanded to get sensitive thesaurus. [Result/conclusion] In addition to the features of the text, user characteristics, propagation characteristics, emotional analysis, and rumor features based on sensitive thesaurus are exploited. Experimental results show that the accuracy of microblog’s rumor recognition can be improved greatly based on sensitive thesaurus.
Keywords: sensitive thesaurus; word embedding; feature space; network rumors
1   引言
对网络谣言进行深入分析有助于及时判断真实或虚假的信息,创造一个健康的网络环境。目前网络谣言的识别多是从用户特征、传播特征的角度进行分析,而事实上,谣言敏感词是识别网络谣言的一个重要特征,谣言敏感词分析有助于提高对谣言的判别,遏制谣言的蔓延和传播。
词库是词汇的集合体,通常包括基本词库以及专业词库,应用较广的专业词库包括流行词库、专业本体词库、敏感词库,情感词库等。其中,现有的敏感词库主要有反动敏感词库、暴恐敏感词库、色情敏感词库、垃圾广告敏感词库等,被广泛地应用在各类贴吧、论坛以及垃圾邮件检测中。
但目前还没有一个完备的网络谣言敏感词库。本文的谣言敏感词库是应用于微博微信这类平台的,专门用于谣言的识别,包括:①失实的事件,比如某地发生地震、骚乱等子虚乌有的事件;②夸大事实真相,比如厂商对自身产品的过度或虚假宣传、对同行产品的诋毁;③过期信息的使用及诈骗,比如将小女孩走失的消息更改时间地点或者电话号码之后再次发送,诱导人们拨打有诈骗嫌疑的电话等。这些谣言会在一定时期一定程度上引发了社会各领域人们的关注甚至成为焦点,如果不及时处理,其潜在的安全威胁也是不可估量的,而对于这些谣言涉及的敏感词,传统的词库并不能很好地识别。因此,笔者所构建的敏感词库是基于微博谣言而建立的,有较强的实用价值,为社交平台的谣言识别提供速度和质量的保证。
2   相关工作
敏感词库的构建主要在于敏感词汇信息的识别、敏感词汇的提取以及扩展。其中,敏感信息的提取目前大多通过人工标记与挑选或者基于传统权重计算方法[1]去衡量与选择,再基于参考词林,去迭代地识别敏感信息,最后通过相关算法进行敏感词的扩充[2],如刘耕等[3]采用基于广义的jaccard系数方法来计算得到敏感词的相关联词汇。
针对敏感事件和热点话题的很多研究从敏感词库和热点词集入手,取得了较好的效果。词库的构建类似于提取文本中的关键字,多以已有的专业词汇为基础,采用计算特征词权重的方法。徐琳宏[4]根据情感分类现状,确定分类的体系,再综合各种情感词汇的资源来构造情感词汇的本体,采用了手工分类以及自动获取结合的方法获取词汇本体;侯丽[5]采用N-Gram及各种过滤规则结合的术语识别公众日志数据,能较好地识别发现健康类词集;C. Quan等[6]从情感类别符号、情绪强度、情感词、程度词、否定词、连词、修辞等识别情感种子词,从而完成情感词典的构建;F. Peng等[7]利用线性链条件随机场(CRFs)来进行基于字、词、多词等形式的领域集成的中文分词,并通过基于概率的新词检测方法进行新词识别;周强[8]提出一种多资源融合自动构建汉语谓词组合范畴语法(CCG)词库的方法,不同句法语义分布特征,融合形成CCG原型范畴表示,将它们指派给各资源信息完全重合的谓词形成核心词库;K. J. Chen等[9]实现了通过一个未知词提取系统来在线识别新词,主要通过统计信息以及语法语义上下文等信息进行新词识别;彭云等[10]在商品情感词的提取过程中,基于商品评论文本,从词义理解、句法分析等角度获得词语间语义关系,并将其嵌入到主题模型,提出基于语义关系约束的主题模型SRC-LDA,从而实现主题词的提取。
在构造词库时,只是确定了基本词集往往是不够的,需要对其进行扩充从而得到较为完整的词库。词汇扩展与关键字扩展相似,通过词义近似或语义近似展开。H. Chen等[11]从词典中提取了近似语义信息的词作为扩展。S. Yu等[12]利用VIPS(VIsion-based Page Segmentation)算法进行查询扩展,该算法主要是通过调用嵌入在Web浏览器中的分析器来获取DOM结构以及视觉相关信息(所有视觉信息都来自HTML元素和属性)进行查询扩展。J. M. Pnote和W. B. Croft[13]提出了将统计语言模型和信息检索相结合,使用词频和文档频率按综合频率对词信息进行排序;T. Pedersen和A. Kulkarni[14]通过聚类实现类似的词的识别,然后将它们应用到语义扩展;P. D. Turney和M. L. Litham[15]通过计算倾向性基准词与目标词汇间相似度的方法识别词汇语义倾向性;A. Neviarouskaya等[16]通过同义词和反义词的关系、上下文语义关系、推导关系以及与已知的词汇单位复合来进行情感词典的扩展。
但是上述敏感词库的构建方法应用于网络谣言语料库建设并不完全合适,首先目前谣言并没有可参考的词林。而且传谣变化形式多样,扩展和传播方式多种多样。某些词汇出现在网络谣言中的频率高,同时存在于正常微博中的频率也高,不能单独用来判定谣言。针对以上谣言敏感词的特点,笔者设计了一个抽词算法提取敏感词并进行多级扩充,旨在建立一个实用的网络谣言敏感词库。
3   谣言敏感词库设计
3.1   谣言敏感词库构建的困难
针对谣言特征所构建的微博谣言敏感词库是一个专业性偏向性较强的专业词库,需要有大量的微博谣言语料,同时在构建敏感词库的过程中会遇到下述困难:
(1)人工干扰。谣言发布者常常会采取多种方法来逃避关键词的匹配过滤。例如在敏感组合词汇间夹杂了一些无意义的数字与符号,如“抵@制!共&$产&0党”。然而这类复杂多变的形式,却并不影响人们正常的阅读,这种情况直接进行敏感词库匹配是无法解决的。
(2)准确性。部分在谣言微博中出现的敏感词,很多时候也会出现在正常微博的文本中致使对文本敏感得分的判定很容易出现偏差。即大多词汇只有在特定的语境中才会显示出其谣言的特性。
(3)分词问题。网络用语越来越随意,新词、未登录词等层出不穷以及谣言具有时效性等使得传统的分词工具不适用于此类文本,从而对谣言识别带来影响。
对于第一类人工干扰的谣言文本,即夹杂符号的敏感词的检测与识别,笔者将通过扩充停用词解决,对待测文本分词之后进行去停用词等预处理方法来解决;对于第二类准确性的问题,笔者引入位置权重以及敏感度权重来抽取敏感词,将词汇在谣言与正常微博中的词频比以及位置权重(词汇是否处于标题中)作为衡量的因素,同时对种子词集进行相似词、关联词扩展;对于第三类分词问题,笔者提出基于敏感热度的L-CPBL抽词算法摒弃了传统的分词工具,基于内聚度以及外聚度来提取文本片段,以更加适用于网络社交文本。
3.2   总体设计
本研究中网络谣言敏感词库构建的基本思路是:首先收集网络谣言语料,然后利用抽词算法构建种子词集,进而对种子词集进行扩展得到完备的谣言敏感词库,其总体流程如图1所示:


图1   敏感词库构建流程
因为目前的分词软件大多具有普适性,用来针对某一领域发现特定词、敏感词、新词效果不佳,因此种子词采集没有直接分词,而是设计了LBCP(Location- Based Cohesion and Polymerization)算法进行抽词,通过计算词的内聚度和外聚度,结合词权重和位置权重得到种子词集;然后对种子词集从近似词、关联词和替代词等方面进行扩展,最终合并成为谣言敏感词库。
3.3   LBCP抽词算法
LBCP抽词算法是考虑了词语位置和上下文信息的抽词过程,其提取谣言种子词集的流程如图2所示:


图2   种子词集提取的流程
LBCP抽词算法首先设置一个滑动窗口,从中提取候选词汇,计算候选词汇的内聚度(表示该词的聚合程度)、外聚度(描述该词与上下文的关联),再考虑该词在文中的位置(标题中取2,正文中取1),利用改进的TF-IDF权重计算出该候选词的综合得分并进行排序,再提取排在前面的候选词形成种子词集。
网络谣言文本短小随意,新词、流行词汇众多,依赖传统词库容易带来较大误差,笔者采用的方法有效规避了传统分词方法过度依赖词库的问题。利用改进的TF-IDF权重计算较好地体现了谣言词汇的信息完整性、词汇的领域相关性,其中的位置权重较好地体现了词汇位置的重要性(词汇是否处于标题中)。
3.3.1   内聚度
内聚度主要用来分词,一般取某一固定长度的窗口,依次滑动窗口找到其中的分词。比如图3中的文本,设窗口长度为6(即每个词不超过5个字),则滑动窗口会包含“央视已经报道”6个字,从中计算出“央视”内聚度最高,因此按前2个字做划分,提取“央视”这个词。然后滑动窗口右移,取出“已经报道此事”6个字,进而提取“已经”这个词。依此类推,依次取到文本中的其它词。
具体计算内聚度时,需要先按滑动窗口中的每一个字划分,得到左右两部分,计算两部分在语料库中的出现概率乘积(即p(左)*p(右)),取最大作为分词的内聚度。例如图3“央视已经报道”6个字,依次计算:p(央)*p(视已经报道)、p(央视)*p(已经报道)、p(央视已)*p(经报道)......p(央视已经报)*p(道),最终p(央视)*p(已经报道)的乘积最大,因此提取“央视”这个词,并将该乘积作为“央视”的内聚度。
图3   计算内聚度使用的滑动窗口
......
c1c2c3c4c5c6c7c8......
设滑动窗口中的文本X由n个汉字C1C2...Cn 构成(见图3),内聚度h(x)的计算首先由公式(1)找到应该划分的候选词位置i,从而划分出候选词x=C1C2...Ci
公式(1)
进而利用公式(2)记录词x和在本窗口的内聚度pi(x) ,最后利用公式(3)计算该词在所有窗口中的内聚度之和,作为最终的内聚度h(x),公式(3)中k代表词x在整篇文档中出现的次数。
公式(2)
公式(3)
3.3.2   外聚度
单看一个候选词汇的内聚度,可能会出现诸如“的...”组合被认为成独立的词。所以笔者还考虑了词的上下文联系,这里用外聚度表示。如果某个词能够被认为是一个独立的词,那么它应该能和各种词搭配出现在不同的语言环境中,即具有丰富的“左集合”和“右集合”。外聚度用左右信息熵来进行衡量。假设词x与左边相邻的词汇组成的短语为xlx ,与右边相邻的词汇组成的短语为xxr ,则词x的外聚度g(x)的计算公式如公式(4)所示:
公式(4)
因为熵表示不确定性,所以熵越大,不确定越大,也就是这对词左右搭配越丰富,选择越多。计算一个文本片段的左信息熵和右信息熵,如果该文本片段的信息熵偏大,就可以把它看作一个独立的、可以抽取出来的高频谣言词汇。
3.3.3   改进的TF-IDF权重
通过内聚度和外聚度得到基于谣言语料的大量新旧词汇,然后可以利用这些词的权重进行筛选。本文权重基于TF-IDF计算,但是做了如下改进:①由于旧新闻重复散播或者同一条谣言仅仅修改了人名、地名、手机号码等张冠李戴型的谣言比较多,因此对文档频率要求较高,而对于逆文档频率要求并不高,不要求词语对文档有独特的标识性,因此对于TF-IDF公式中TF和IDF给予不同的权重(公式(5)中增加,使得TF的权重值大于IDF的权重值);②消除了文档长度的不同对词权重的影响(公式(5)中增加分母,进行余弦归一化处理),同时通过对词频取对数来消除词频大小差异对权重计算的影响。词x改进的TF-IDF权重计算如公式(5)所示:
公式(5)
其中,N为微博总条数,是词频TF的权重,tfidf分别表示词x的TF值和IDF值,公式(5)右边的分母利用谣言微博中出现的每个词x的TF值tfi 和IDF值idfi 进行余弦归一化处理。
3.3.4   位置权重
针对微博谣言来说,微博标题或者话题中的词汇比内容词汇更具有代表性,更能反映出微博的主题,也就更能反映出微博主题的谣言敏感度。对微博文本中词x的单个位置权重值定义如公式(6)所示:
公式(6)
对微博内容进行扫描,如果有“【】”或者“[]”或者#,则将其视为微博的标题或者话题,将其单个位置权重值为2,否则为1。词x位置权重为公式(7)所示:
公式(7)
其中,w2(x) 为词汇的位置权重。Li 表示某条微博i中词x的位置权重值,D表示包含词x的微博总条数。
3.3.5   抽词算法流程
LBCP抽词算法的步骤如下:
Step 1:利用公式(1)、公式(2)、公式(3)进行分词(词的长度不大于某个阈值t),并计算各分词x的内聚度h(x)
Step 2:利用公式(4)计算各分词x的外聚度g(x),求得每个词的内聚度和外聚度之和,筛选出其和大于某阈值θ的词汇;
Step 3:对筛选出的词计算其改进的TF-IDF权重w1(x) 和位置权重w2(x) ,根据公式(8)计算综合得分值;
公式(8)
Step 4:按综合得分LBCP(x)进行排序,取前M个词汇作为种子词集。
3.4   扩展词集
为了实现对谣言敏感词的有效扩展,笔者主要从种子词集的近似词、关联词以及替代词3个方面进行词库的扩展。
(1)近似词集
Word2Vec方法计算的词向量能反映词的上下文和语义关系,因而近似词集的扩展主要通过词向量Word2Vec进行计算,再通过聚类找种子词的相似词,从而得到基于上下文和语义关系的近似词,其流程如图4所示:


图4   种子词集的近似词集扩展流程
(2)关联词集
单个敏感种子词可能出现在谣言中,也可能出现在正常微博中,比如“免费”这个词,它既可能出现在不良厂商的微博谣言中,也可能出现在正规商家的微博宣传中,但当“免费”和“转发”共现时,它就极大可能是谣言。因此,对于每个种子词计算其高频率共现的词汇,即与之相关度高的词汇,这些词汇有助于提高谣言的识别率。
笔者采用互信息的方法来寻找种子词关联词集。种子词的关联词集的构造流程如图5所示:


图5   种子词的关联词集的构造流程
但是谣言中这样产生的成对词互信息较高,词频却较低,这样对于谣言的识别作用不大,因此在互信息计算上加入了词频信息,计算如公式(9)所示:
公式(9)
其中,p(x,y)为词xy的词频。
(3)替代词集
谣言信息发布者通常会采取多种方式来逃避敏感词匹配过滤,比如把谣言敏感词进行中英文的转换或者缩写等,因此也需要找出种子词的替代词集。这样的词处理量并不多,本研究通过人工来完成,比如:
(1)拼音:拼音代替汉字,如“拐走”——“guai走”。
(2)英文:英文代替汉字,为种子词的英文翻译。
(3)缩写或简写:种子词的常用缩写形式,如“神州六号”——“神6”。
经过以上3种扩展,最终将种子词集与各扩展词集合并构建了网络谣言的敏感词库。
4   实验
4.1   数据集
实验爬取了新浪微博社区管理中心、“谣言粉碎机”以及各地区辟谣平台上发布的30 034条谣言。同时爬取了包括中国新闻网、央视新闻等35 000余条正常微博作为正类数据。这些数据都经过了包括去噪声、去停用词等处理过程。去噪主要是删除了总长度不足5个字的微博,这类微博多携带信息较少,处理的意义不大,删除后可提高处理效率。
4.2   提取种子词集
利用第3.2节中种子词的抽取思路,将微博谣言文本中长度不超过阈值t(本文取值为9)的文本都当作潜在的词,通过样例数据实验确定内聚度和外聚度的阈值,最后提取出所有不大于阈值t的候选词。在处理过程中,把全部微博谣言语料作为一个整体,利用LBCP抽词算法提取候选词43 363个。候选词的内聚度、外聚度及其在谣言微博和正常微博中的词频如图6所示:


图6   候选词汇的内聚度、外聚度及词频
在上述结果的基础上,结合位置权重因子,根据LBCP综合值进行排序,取前300个作为谣言种子词集。通过LBCP抽词算法挑选出来的部分种子词集如表1所示:
表1   谣言种子词集
类型词集示例
种子词集孩子、拐走、扩散、酬金、紧急、严重、知情、女孩、帮忙、转发、求、找、联系、死、爆炸、死亡、转转、钱、伤、黑、白血病、救、去世、农药、丢、癌症、偷、救援、专家、卖、滋、食品、导致、真相、死了、批捕、感染、必须、提醒、杀、禁用、失踪、抢救、证实、罪、打死......
4.3   种子词集的扩展
(1)近似词集扩展。利用Word2Vec工具计算得到300个种子词集的词向量,再分别计算各个词向量维度上的均值,计算得到种子词集的均值向量。用词集的平均向量利用KNN模型聚类,得到300个种子词最相近的词。实验中共取到与种子词集同属一类的1 785个词作为扩展的近似词,形成的近似词集如表2所示:
表2   近似词集部分示例
类型词集示例
近似词集朋友、监控、附近、万分、抱、留意、兄弟、男人、告、姐妹、联系人、双重、关心、婴儿、达、恒天、教授、主、逸、场合、伤亡、死伤、电视、中伤、保、记、妇女、鬼子、保健、院、日本、含、果断、刷、毒素、局、发现、天地、血压、此次、余香、喝、引发、插头、真的、兰、版、海域、七、警、接力、唯一、轻、人数、新闻、消防、天津、牺牲、杭州......
(2)关联词集扩展和替代词集。计算种子词集与语料库中其他词的互信息的大小,并降序排列,得到最终有175个词汇的关联词集。如“拐走”的扩展词包括:找到、造谣、逝去、倒霉、最近、诅咒、资助、真相、折磨等。
种子词替代词集包含了300个种子词的拼音、英文以及缩写简写形式,如帮忙的替代词有:Help、bangmang、bm等,酬金的替代词有:Remuneration、fee、pay、choujin、cj等。
至此,整个谣言敏感词库构建完成,敏感词库包含种子词集300个,近似词集1 785个,关联词集175个,替代词集300个,共计2 260个。
4.4   微博谣言识别
实验另外爬取了2018年1月到2018年3月期间,新浪微博“谣言粉碎机”以及各地区辟谣平台上发布的5 000条谣言数据,同时爬取了包括中国新闻网、今日头条、央视新闻在内的微博大V账号的正常微博5 000条。将这10 000条微博作为测试数据,以验证敏感词库对谣言识别的提升作用。
从混合的10 000条微博数据中提取传统特征和敏感词特征,将其作为输入数据。传统特征包括发布该微博的用户信息(用户粉丝数、关注数、注册事件、已发布微博数量、是否验证用户)、微博的结构特征(转发数量、微博的长度、是否包含”@”、是否包含标签、是否包含URL、是否含有表情符号、标点符号的使用情况、是否含有第一人称等)以及每条微博所有词的词向量加和平均值。敏感词特征包括敏感词的个数和敏感词得分总和。
利用以上提取的微博特征,通过随机森林、SVM、GBRT、CNN、BiLSTM、TextCNN等分类模型构建微博谣言分类器。由于重点在谣言的识别,因此,本文要求谣言的召回率(本身是谣言且被正确识别出来的比例)尽量大,准确率尽量高。实验中采用十折交叉验证,多种算法的准确率和召回率在加入敏感词库特征前后的对比结果如表3所示:
表3   敏感词库特征对谣言判别的效果
判别模型传统特征传统特征+敏感词特征
准确率召回率准确率召回率
随机森林79.82%62.98%89.29 %85.10%
GBRT81.44 %65.65%92.65%86.71%
SVM80.71 %66.09%85.94 %83.22%
CNN80.38%72.66%91.12 %83.54%
BiLSTM82.68 %73.54%95.26%88.67%
TextCNN81.25 %77.12%93.48 %86.09%
通过实验可知,当敏感词特征和传统特征融合之后,各种分类方法的准确率和召回率都有大幅的提升,其中BiLSTM的准确率超过95%,召回率也接近90%。可以看出,谣言敏感词库的构建在提升微博谣言的识别率方面达到了预期的效果。
5   结语
网络谣言敏感词库是谣言识别的重要基础,笔者旨在构建敏感词库并用辅助实验证明对谣言微博识别的有效性。利用大量语料库,笔者构建了一个基于敏感热度L-CPBL抽词算法及其相似词和扩展词的谣言敏感词库。第一步是种子词集的提取,L-CPBL抽词算法是一种无词典参考的快速抽词算法,同时结合改进的LTC权重以及位置权重因子,对谣言敏感词库的种子词集的提取更准确;然后基于词向量模型空间优化以及聚类算法对种子词集进行扩展,综合得到适用于谣言的敏感词库。笔者构建的敏感词库适用于微博类社交短文本,并且构建过程不依赖于人工专家的识别挑选,可基于语料库同步更新,因此节省了时间与费用,提高了效率。
笔者创建的谣言敏感词库具有时效性,需要不断收集大量谣言语料,而谣言语料需依赖官方公布的谣言信息作为标注语料,使得敏感词库的更新需要消耗较多的时间和资源,可对敏感词库的更新进行进一步研究,引入时序算法或者从传播的方面进行研究,以便更好地解决时效性问题。
[1]
徐建民,王金花,马伟瑜.利用本体关联度改进的TF-IDF特征词提取方法[J].情报科学,2011, 29(2): 279-283.
[2]
周晓. 基于互联网的情感词库扩展与优化研究[D]. 沈阳: 东北大学, 2011.
[3]
刘耕,方勇,刘嘉勇.基于关联词和扩展规则的敏感词库设计[J].四川大学学报(自然科学版), 2009, 46(3): 667-671.
[4]
徐琳宏,林鸿飞,潘宇,等.情感词汇本体的构造[J]. 情报学报, 2008,27(2): 180-185
[5]
侯丽,李姣,侯震,等.基于混合策略的公众健康领域新词识别方法研究[J].图书情报工作, 2015,59(23):115-123.
[6]
QUAN C, REN F. Construction of a blog emotion corpus for Chinese emotional expression analysis[C]//Proceedings of conference on empirical methods in natural language processing. Stroudsburg:Association for Computational Linguistics,2009:1446-1454.
[7]
PENG F, FENG F, MCCALLUM A. Chinese segmentation and new word detection using conditional random fields[C]//Proceedings of international conference on computational linguistics. Stroudsburg: Association for Computational Linguistics,2004:562-569.
[8]
周强.汉语谓词组合范畴语法词库的自动构建研究[J].中文信息学报, 2016,30(3): 196-203.
[9]
CHEN K J, MA W Y. Unknown word extraction for Chinese documents[C]// Proceedings of international conference on DBLP. Taipei: Morgan Kaufmann Publishers, 2002:169-175.
[10]
彭云,万常选,江腾蛟,等.基于语义约束LDA的商品特征和情感词提取[J].软件学报, 2017,28(3):676-693.
[11]
CHEN H, LYNCH K, BASU K, et al. Generating, integrating and activating thesauri for concept-based document retrieval[J]. IEEE intelligent systems and their applications, 1993,8(2):25-34.
[12]
YU S,CAI D,WEN J,et al. Improving pseudo-relevance feedback in web information retrieval using Web page segmentation[C]//Proceedings of the 12th international conference on World Wide Web. New York: ACM, 2003:11-18.
[13]
PNOTE J M,CROFT W B. A language modeling approach to information retrieval[C]//Proceeding of the 21st International ACM SIGIR conference on research and development in information retrieval. New York: ACM, 1998:275-281.
[14]
PEDERSEN T, KULKARNI A. Identifying similar words and contexts in natural language with sense clusters[C]// Proceedings of the 20th national conference on artificial intelligence. Pittsburgh: AAAI Press, 2010:1694-1695.
[15]
TURNEY P D, LITTMAN M L. Measuring praise and criticism: inference of semantic orientation from association[J]. ACM transactions on information systems, 2003, 21(4):315-346.
[16]
NEVIAROUSKAYA A,PRENDINGER H,ISHIZUKA M. SentiFul: a lexicon for sentiment analysis[J].IEEE transactions on affective computing,2011,2(1):22-36.
稿件与作者信息
夏松
Xia Song
设计模型, 完成实验,修改论文
讲师,博士
0000-0001-7700-6185
林荣蓉
Lin Rongrong
采集数据,进行实验,撰写论文初稿
硕士研究生
0000-0002-5141-6503
刘勘
Liu Kan
提出研究思路,设计研究方案,修改论文与定稿
liukan@znufe.edu.cn
教授,博士
0000-0002-9686-9768
本文系国家社会科学基金资助项目“基于文本挖掘的网络谣言预判研究”(项目编号:14BXW033)研究成果之一。
出版历史
出版时间: 2019年9月11日 (版本1
参考文献列表中查看
知识管理论坛
Knowledge Management Forum