CN114625842A - 一种基于结构注意力增强机制的虚假评论识别模型 - Google Patents

一种基于结构注意力增强机制的虚假评论识别模型 Download PDF

Info

Publication number
CN114625842A
CN114625842A CN202210304001.XA CN202210304001A CN114625842A CN 114625842 A CN114625842 A CN 114625842A CN 202210304001 A CN202210304001 A CN 202210304001A CN 114625842 A CN114625842 A CN 114625842A
Authority
CN
China
Prior art keywords
word
sentence
layer
learning
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210304001.XA
Other languages
English (en)
Inventor
吴磊
钟朝泽
刘明
吴少智
龚海刚
王晓敏
陈鹏
单文煜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quzhou Haiyi Technology Co ltd
Yangtze River Delta Research Institute of UESTC Huzhou
Original Assignee
Quzhou Haiyi Technology Co ltd
Yangtze River Delta Research Institute of UESTC Huzhou
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quzhou Haiyi Technology Co ltd, Yangtze River Delta Research Institute of UESTC Huzhou filed Critical Quzhou Haiyi Technology Co ltd
Priority to CN202210304001.XA priority Critical patent/CN114625842A/zh
Publication of CN114625842A publication Critical patent/CN114625842A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/374Thesaurus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于结构注意力增强机制的虚假评论识别模型,它包括层次化语义网络和结构注意力增强机制网络;所述层次化语义网络以预训练的词向量为输入层,通过层次化神经网络学习评论文本词‑句‑段的文本表示,词‑句层利用词嵌入特征学习评论文本的句子表示,完成词语级别的建模,句‑段层通过词‑句层的句子向量生成评论文本的整体段落表示,完成语篇级别的建模;所述结构注意力增强机制网络用于学习上下文的连贯性矩阵和对文本结构单元做非前后文关系的自由语序的增强表示。本发明着重对评论文本的词‑句‑段的层次化结构进行了特征提取,并在层次表示中嵌入结构注意力增强机制,以增强弱结构单元的非线性语义表达。

Description

一种基于结构注意力增强机制的虚假评论识别模型
技术领域
本发明涉及虚假评论检测识别技术领域,尤其涉及一种基于结构注意力增强机制的虚假评论识别模型。
背景技术
虚假评论识别对肃清互联网黑灰产,营造安全可靠的购物环境,给科学研究提供纯净可靠的数据来源等均有着重大意义;互联网和移动终端的蓬勃发展,使得电商平台的便捷性和舒适性改变着人们的消费方式,不同于传统的线下实体购物,线上浏览中选择商品时,消费者不能身临其境地观察产品的外观或者切身体验产品的整体功能,只能从详情页中获取由卖方主导的产品介绍。然而,企业商户在商品详情展示页中,会夸大产品优点,掩盖缺点,使得消费者无法有效获得真实信息,因此,在这种非平衡的购物天平下,其他消费者在商品购物行为后的评论就成为了消费者获取真实信息和做出购买决策的重要信息来源。根据调查,约81%的用户会在购买前阅读评论,其中80%的用户认为评论对他们的购买决策产生了影响,因此,商品的评论内容已逐渐成为人们判断线上产品质量的重要参考因素之一。
由于平台上的评论信息成为消费者购物的指南,人们也越来越依赖于评论的真实性和可靠性。但随之而来的是,故意引导性的失真评论、为了获取积分凑字数的无效评论和部分商家利用刷单冒充用户发表夸张评论或者在竞争商品下发布诋毁评论,即虚假评论;从整个交易流程来看,买方由于误导性购物导致体验下降;卖方无法获取准确的市场反馈影响营销策略和徒增退换工作;平台降低了用户粘性和市场竞争力;由于数据失真给科学研究也带来了数据真实性和清洗工作的困扰。因此,判断和识别虚假评论对诸多视角中都成了亟待解决的任务。
发明内容
本发明的目的在于克服现有技术的缺点,提供了一种基于结构注意力增强机制的虚假评论识别模型,能够判断和识别虚假评论。
本发明的目的通过以下技术方案来实现:一种基于结构注意力增强机制的虚假评论识别模型,它包括用于层次化分阶段文本表示学习的层次化语义网络,以及嵌入层次化语义网络中到对文本结构下的词和句子进行增强表示学习的结构注意力增强机制网络;
所述层次化语义网络以预训练的词向量为输入层,通过层次化神经网络学习评论文本词-句-段的文本表示,词-句层利用词嵌入特征学习评论文本的句子表示,完成词语级别的建模,句-段层通过词-句层的句子向量生成评论文本的整体段落表示,完成语篇级别的建模;
所述结构注意力增强机制网络用于学习上下文的连贯性矩阵和对文本结构单元做非前后文关系的自由语序的增强表示。
所述层次化语义网络包括Embedding层、GRU层和Pooling层;所述Embedding层用于将句子里的每个单词表示成固定且维度相同的词向量;所述GRU层用于对对前向输入序列的词学习向量和后向输入序列的词学习向量进行向量拼接得到词的编码向量;所述Pooling层通过平均值池化对结构注意力增强机制网络语义增强后的所有词进行平均值操作。
所述结构注意力增强机制网络嵌入到所述GRU层和Pooling层之间,用于学习上下文的连贯性矩阵和对文本结构单元做非前后文关系的自由语序的增强表示。
所述层次化语义网络具体实现的步骤包括:
给定一个由n个句子的文档d=[d1,d2,…,dn],每个句子si都由m个单词[wi1,wi2,…,wim]构成;
Embedding层通过Word2vec模型通过训练未标注的评论文本语料得到单词的向量化词典库,获取单词wij表示为wij=WE·I[wij],其中,WE为经过预训练得到的词向量矩阵,I[·]表示通过词典库查询到词wij的索引;
GRU层通过
Figure BDA0003564082940000021
得到前向输入序列的词学习向量和
Figure BDA0003564082940000022
得到后向输入序列的词学习向量,并通过
Figure BDA0003564082940000023
进行向量拼接得到词的编码向量wij,其中,
Figure BDA0003564082940000024
表示前向输入序列的词学习向量,
Figure BDA0003564082940000025
表示后向输入序列的词学习向量;
Pooling层通过
Figure BDA0003564082940000026
对语义增强后的所有词进行平均值操作。
所述结构注意力增强机制网络包括单元依赖学习模块和单元语义增强模块;所述单元依赖学习模块用于对词级和句子级的依赖关系矩阵进行计算,通过长距离或非前后文下的自由词序下构建文本不连续结构;所述单元语义增强模块用于通过构建语法树的方式对词之间的量化矩阵进行学习分配,为具有弱结构信息的文本生成层次化的上下文信息。
所述单元依赖学习模块实现的具体步骤包括:
将词的语义提取层获取的GRU层每一步输出的句子si=[wi1,wi2,…,wij,…wim]作为词的语义表达
Figure BDA0003564082940000027
k表示GRU隐层维度;
通过结构注意力机制学习词间注意力矩阵A∈Rm×m获取词之间的依赖关系,并通过uip=φ(Wp·wim+bp)、uiq=φ(Wc·win+bq)和
Figure BDA0003564082940000031
对矩阵A进行学习,其中,Apq表示wip和wiq的父节点概率(1≤p,q≤m,p≠q),φ为非线性激活函数,Wp∈Rm×m和Wc∈Rm×m分别为父子节点变换映射矩阵,bf和bc为对应的偏置值;
通过uj=φ(wr·wij+br)和
Figure BDA0003564082940000032
计算根节点的概率,其中,Wr∈R1×k为根节点映射矩阵,对句子中所有的词计算其作为根节点的概率为
Figure BDA0003564082940000033
所述单元语义增强模块实现的具体步骤包括:
将由GRU层输出的语义向量划分为两个部分
Figure BDA0003564082940000034
其中
Figure BDA0003564082940000035
表示文本依赖学习,
Figure BDA0003564082940000036
表示词更新语义;
通过
Figure BDA0003564082940000037
Figure BDA0003564082940000038
计算得到结构中词
Figure BDA0003564082940000039
在句子中所有父子词的非线性上下文表示向量,
Figure BDA00035640829400000310
表示文档树结构中作为根节点的词嵌入向量。
本发明具有以下优点:一种基于结构注意力增强机制的虚假评论识别模型,着重对评论文本的词-句-段的层次化结构进行了特征提取,并在层次表示中嵌入结构注意力增强机制,以增强弱结构单元的非线性语义表达;与以往的方法相比,不仅能够获取到文本的深层结构性语义表达以提高模型的识别性能,还能够获取到文本单元的相关性量化矩阵,不借助第三方分析平台和额外的辅助语料库,用于文本的结构诱导生成,可实现跨平台的迁移使用能力。
附图说明
图1为嵌入结构注意力增强层次网络模型图;
图2为层次语义网络提取特征流程图;
图3为词语级注意力机制示意图;
图4为句子级注意力机制示意图;
图5为词增强更新流程图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下结合附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的保护范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本发明做进一步的描述。
本发明工作主要围绕评论文本的‘词-句-段’的文本表示学习,以及针对文本结构单元分别在句子级和文档级的表示中嵌入结构注意力增强机制,用于对上下文做非线性关系的增强表示学习。
如图1所示,本发明主要包括用于层次化分阶段文本表示学习的层次化语义网络和对文本结构下的词和句子进行增强表示学习的结构注意力增强机制。左侧网络层,以预训练的词向量为输入层,通过层次化神经网络(Hierarchical Neural Network,HNN)学习到评论文本词-句-段的文本表示,词-句层主要利用词嵌入特征学习评论文本的句子表示,完成词语级别的建模;句-段层通过前一层的句子向量生成评论文本的整体段落表示,完成语篇级别的建模。嵌入结构注意力机制(StructureAttention Enpower Mechanism),用于学习上下文的连贯性矩阵和对文本结构单元(词语和句子)做非前后文关系的自由语序的增强表示。。
如图2所示,给定一个由n个句子的文档d=[d1,d2,…,dn],对于每个句子si,由m个单词[wi1,wi2,…,wim]构成。层次化语义网络正是为了刻画文档‘词-句-段’的分层信息。主要由Embedding层、GRU层、Structure-Attention层(结构注意力增强机制层)和Pooling层组成。
首先是Embedding层,将句子里的每个单词表示成固定且维度相同的词向量。首先使用Word2vec模型通过训练未标注的评论文本语料得到单词的向量化词典库。获取单词wij的表示为:
wij=WE·I[wij]
其中,i,j表示文档中第i个句子第j个词,WE为经过预训练得到的词向量矩阵,I[·]表示通过词典库查询到词wij的索引。
然后是GRU层,由于传统的RNN在处理长文本输入序列会产生梯度弥散和梯度爆炸的问题,而LSTM和GRU能够通过‘门’控结构来选择上一时间步的历史信息,缓解反向传播中梯度由近距离主导等问题,与LSTM相比,GRU在‘门’结构设计上更为简单,训练的计算速度更快。
Figure BDA0003564082940000041
Figure BDA0003564082940000042
Figure BDA0003564082940000051
其中,
Figure BDA0003564082940000052
表示前向输入序列的词学习向量,
Figure BDA0003564082940000053
表示后向输入序列的词学习向量,通过向量拼接得到词的编码向量wij
最后,对于Pooling层,为获取整句话的语义表示,选择平均值池化对Structure-Attention语义增强后的所有词做操作:
Figure BDA0003564082940000054
其中,文档级建模的过程与句子层大致相同。
不同于全局注意力机制去选择对分类结果贡献度的词语或句子。本发明立足于虚假评论领域提出了能够学习上下文丰富的结构依赖关系的结构注意力机制,主要有以下三点原因:其一,从研究现状不难发现组成文档的基本结构单元词语和句子之间的连接关系可以反映出文档的写作真实性;其二,虚假评论者通过浏览真实评论而剪辑杜撰出的文本缺乏前后文一致性,因此通过学习前后文的相关性,可以研究评论文本的前后一致性;其三,使用层次结构可以学习到深层的文档语义表达,通过捕获文档单元结构的交互信息,从而为对分类贡献度高但缺乏上下文信息的词语或句子生成上下文表示,增强其语义表达。
在文本单元的依赖性分析上,主要是识别一个单元对另外一个单元的依赖性。如图3所示,本发明捕获句子中词之间的交互作用,为每个具有弱结构信息的单词生成上下文表示,以学习更深层次的结构语义表示。在词的语义提取层获取的GRU每一步输出si=[wi1,wi2,...,wij,...wim]作为词的语义表达,
Figure BDA0003564082940000055
k表示GRU隐层维度,R表示实数空间。
为了获取词之间的依赖关系,本发明利用结构注意力机制学习词间注意力矩阵A∈Rm×m,Apq表示wip和wiq的父节点概率(1≤p,q≤m,p≠q)。矩阵A的学习表示过程如下所示:
uip=φ(Wp·wim+bp)
uiq=φ(Wc·win+bq)
Figure BDA0003564082940000056
其中,φ为非线性激活函数,Wp∈Rm×m和Wc∈Rm×m分别为父子节点变换映射矩阵,bf和bc为对应的偏置值。
由于后序语义增强表示需要对树结构的根节点做计算,通过以下式子对根节点的概率进行定义:
uj=φ(wr·wij+br)
Figure BDA0003564082940000061
其中,Wr∈R1×k,作为根节点映射矩阵。对句子中所有的词计算其作为根节点的概率为
Figure BDA0003564082940000062
由依赖关系表示的文本其主要优点在于可以通过长距离或非前后文下的自由词序下构建文本不连续结构。通过构建语法树的方式对词之间的量化矩阵进行学习分配,从而为具有弱结构信息的文本生成层次化的上下文信息。
如图4所示,将由GRU输出的语义向量划分为两个部分:
Figure BDA0003564082940000063
其中
Figure BDA0003564082940000064
用于文本依赖学习,用于获取上下文非线性依赖矩阵A和根概率向量
Figure BDA0003564082940000065
Figure BDA0003564082940000066
用于词更新语义表示。
Figure BDA0003564082940000067
Figure BDA0003564082940000068
Figure BDA0003564082940000069
其中
Figure BDA00035640829400000610
Figure BDA00035640829400000611
分别是结构中词
Figure BDA00035640829400000612
在句子中所有可能的父子词的非线性上下文表示向量,
Figure BDA00035640829400000613
表示文档树结构中作为根节点的词嵌入向量。
Figure BDA00035640829400000614
通过上下文非线性依赖矩阵A和根概率向量r,对当前词的语义进行上下文非前后自由语序的补充语义。用于增强对分类结果重要性高,但语义表达弱的词。
本发明同时自动学习更丰富的结构依赖关系。其关键思想是捕获词语和句子之间的交互作用,为每个具有弱结构信息的单词和句子成非上下文语序的增强表示。依托于GRU处理文本语序的每一个时间步的输出,建立出l×l的结构注意力矩阵A和文本结构树根节点概率向量r,为每一个时间步的输出,通过A和r的值,补充其非线性自由语序的语义补充,共同融合成当前步的语义表示。这样,对于那些对最后分类层有识别显著性的词语或句子,能够在网络语义欠学习的情况下,增强其语义表示,使得其能够参与最后文本分类层的特征向量构建中。在以准确率(Accuracy)、精确率(Precision)、召回率(Recall)和F1综合评价指标(F1-Score)为评价指标的对比实验中,针对数据集和已有方法的对照实验结果来看,在多个指标中均有2%的效果提升。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本发明所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本发明所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (7)

1.一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:它包括用于层次化分阶段文本表示学习的层次化语义网络,以及嵌入层次化语义网络中到对文本结构下的词和句子进行增强表示学习的结构注意力增强机制网络;
所述层次化语义网络以预训练的词向量为输入层,通过层次化神经网络学习评论文本词-句-段的文本表示,词-句层利用词嵌入特征学习评论文本的句子表示,完成词语级别的建模,句-段层通过词-句层的句子向量生成评论文本的整体段落表示,完成语篇级别的建模;
所述结构注意力增强机制网络用于学习上下文的连贯性矩阵和对文本结构单元做非前后文关系的自由语序的增强表示。
2.根据权利要求1所述的一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:所述层次化语义网络包括Embedding层、GRU层和Pooling层;所述Embedding层用于将句子里的每个单词表示成固定且维度相同的词向量;所述GRU层用于对对前向输入序列的词学习向量和后向输入序列的词学习向量进行向量拼接得到词的编码向量;所述Pooling层通过平均值池化对结构注意力增强机制网络语义增强后的所有词进行平均值操作。
3.根据权利要求2所述的一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:所述结构注意力增强机制网络嵌入到所述GRU层和Pooling层之间,用于学习上下文的连贯性矩阵和对文本结构单元做非前后文关系的自由语序的增强表示。
4.根据权利要求1所述的一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:所述层次化语义网络具体实现的步骤包括:
给定一个由n个句子的文档d=[d1,d2,...,dn],每个句子si都由m个单词[wi1,wi2,...,wim]构成;
Embedding层通过Word2vec模型通过训练未标注的评论文本语料得到单词的向量化词典库,获取单词wij表示为wij=WE·I[wij],其中,WE为经过预训练得到的词向量矩阵,I[·]表示通过词典库查询到词wij的索引;
GRU层通过
Figure FDA0003564082930000011
得到前向输入序列的词学习向量和
Figure FDA0003564082930000012
得到后向输入序列的词学习向量,并通过
Figure FDA0003564082930000013
进行向量拼接得到词的编码向量wij,其中,
Figure FDA0003564082930000014
表示前向输入序列的词学习向量,
Figure FDA0003564082930000015
表示后向输入序列的词学习向量;
Pooling层通过
Figure FDA0003564082930000021
对语义增强后的所有词进行平均值操作。
5.根据权利要求3所述的一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:所述结构注意力增强机制网络包括单元依赖学习模块和单元语义增强模块;所述单元依赖学习模块用于对词级和句子级的依赖关系矩阵进行计算,通过长距离或非前后文下的自由词序下构建文本不连续结构;所述单元语义增强模块用于通过构建语法树的方式对词之间的量化矩阵进行学习分配,为具有弱结构信息的文本生成层次化的上下文信息。
6.根据权利要求5所述的一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:所述单元依赖学习模块实现的具体步骤包括:
将词的语义提取层获取的GRU层每一步输出的句子si=[wi1,wi2,…,wij,…wim]作为词的语义表达
Figure FDA0003564082930000022
k表示GRU隐层维度;
通过结构注意力机制学习词间注意力矩阵A∈Rm×m获取词之间的依赖关系,并通过uip=φ(Wp·wim+bp)、uiq=φ(Wc·win+bq)和
Figure FDA0003564082930000023
对矩阵A进行学习,其中,Apq表示wip和wiq的父节点概率(1≤p,q≤m,p≠q),φ为非线性激活函数,Wp∈Rm×m和Wc∈Rm×m分别为父子节点变换映射矩阵,bf和bc为对应的偏置值;
通过uj=φ(wr·wij+br)和
Figure FDA0003564082930000024
计算根节点的概率,其中,Wr∈R1×k为根节点映射矩阵,对句子中所有的词计算其作为根节点的概率为
Figure FDA0003564082930000025
7.根据权利要求5所述的一种基于结构注意力增强机制的虚假评论识别模型,其特征在于:所述单元语义增强模块实现的具体步骤包括:
将由GRU层输出的语义向量划分为两个部分
Figure FDA0003564082930000026
其中
Figure FDA0003564082930000027
表示文本依赖学习,
Figure FDA0003564082930000028
表示词更新语义;
通过
Figure FDA0003564082930000029
Figure FDA00035640829300000210
计算得到结构中词
Figure FDA00035640829300000211
在句子中所有父子词的非线性上下文表示向量,
Figure FDA00035640829300000212
表示文档树结构中作为根节点的词嵌入向量。
CN202210304001.XA 2022-03-25 2022-03-25 一种基于结构注意力增强机制的虚假评论识别模型 Pending CN114625842A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210304001.XA CN114625842A (zh) 2022-03-25 2022-03-25 一种基于结构注意力增强机制的虚假评论识别模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210304001.XA CN114625842A (zh) 2022-03-25 2022-03-25 一种基于结构注意力增强机制的虚假评论识别模型

Publications (1)

Publication Number Publication Date
CN114625842A true CN114625842A (zh) 2022-06-14

Family

ID=81903469

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210304001.XA Pending CN114625842A (zh) 2022-03-25 2022-03-25 一种基于结构注意力增强机制的虚假评论识别模型

Country Status (1)

Country Link
CN (1) CN114625842A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116108185A (zh) * 2023-03-09 2023-05-12 中关村科学城城市大脑股份有限公司 一种用于文本分类的注意力增强预训练方法和装置
CN116401339A (zh) * 2023-06-07 2023-07-07 北京百度网讯科技有限公司 数据处理方法、装置、电子设备、介质以及程序产品
CN117786092A (zh) * 2024-02-27 2024-03-29 成都晓多科技有限公司 一种商品评论关键短语提取方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116108185A (zh) * 2023-03-09 2023-05-12 中关村科学城城市大脑股份有限公司 一种用于文本分类的注意力增强预训练方法和装置
CN116401339A (zh) * 2023-06-07 2023-07-07 北京百度网讯科技有限公司 数据处理方法、装置、电子设备、介质以及程序产品
CN117786092A (zh) * 2024-02-27 2024-03-29 成都晓多科技有限公司 一种商品评论关键短语提取方法及系统
CN117786092B (zh) * 2024-02-27 2024-05-14 成都晓多科技有限公司 一种商品评论关键短语提取方法及系统

Similar Documents

Publication Publication Date Title
CN110457480B (zh) 基于交互式注意力机制的细粒度情感分类模型的构建方法
CN109062893B (zh) 一种基于全文注意力机制的商品名称识别方法
CN109376222B (zh) 问答匹配度计算方法、问答自动匹配方法及装置
CN111914096A (zh) 基于舆情知识图谱的公共交通乘客满意度评价方法及系统
CN110162749A (zh) 信息提取方法、装置、计算机设备及计算机可读存储介质
CN114625842A (zh) 一种基于结构注意力增强机制的虚假评论识别模型
CN113051916B (zh) 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法
CN111797196A (zh) 一种结合注意力机制lstm和神经主题模型的服务发现方法
CN111325571A (zh) 一种多任务学习的商品评论标签自动生成方法、装置及系统
CN112100401B (zh) 面向科技服务的知识图谱构建方法、装置、设备及存储介质
CN112016002A (zh) 融合评论文本层级注意力和时间因素的混合推荐方法
CN110442872A (zh) 一种文本要素完整性审核方法及装置
Gridach et al. Arabic named entity recognition: A bidirectional GRU-CRF approach
CN115310551A (zh) 文本分析模型训练方法、装置、电子设备和存储介质
CN113128196A (zh) 文本信息处理方法及其装置、存储介质
Liu et al. Cross-domain slot filling as machine reading comprehension: A new perspective
CN111241410A (zh) 一种行业新闻推荐方法及终端
CN113821588A (zh) 文本处理方法、装置、电子设备及存储介质
Wang et al. A Deep‐Learning‐Inspired Person‐Job Matching Model Based on Sentence Vectors and Subject‐Term Graphs
CN113569578B (zh) 一种用户意图识别方法、装置和计算机设备
Verma et al. Automatic image caption generation using deep learning
Zhang et al. Description-enhanced label embedding contrastive learning for text classification
CN117807482A (zh) 海关报关单的分类方法、装置、设备及存储介质
CN117668199A (zh) 一种智能客服问答预测及推荐对话生成方法及装置
CN117609612A (zh) 资源推荐方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination