CN114117060A - 评论数据的质量分析方法、装置、电子设备及存储介质 - Google Patents
评论数据的质量分析方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114117060A CN114117060A CN202111250248.XA CN202111250248A CN114117060A CN 114117060 A CN114117060 A CN 114117060A CN 202111250248 A CN202111250248 A CN 202111250248A CN 114117060 A CN114117060 A CN 114117060A
- Authority
- CN
- China
- Prior art keywords
- comment
- target
- phrases
- content
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims description 120
- 238000004891 communication Methods 0.000 claims description 19
- 230000003993 interaction Effects 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 238000012552 review Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000011161 development Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010587 phase diagram Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种评论数据的质量分析方法、装置、电子设备及存储介质。方法包括:获取待进行质量分析的目标评论数据;分析评论内容以及评论词组,得到目标评论数据对应的评论主题,以及得到评论主题、评论内容与评论词组之间的关联关系集合;基于评论内容、评论词组、评论主题以及关联关系集合生成初始图结构,并将初始图结构中的评论内容、评论主题以及评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;将目标图结构输入预先训练的图注意力模型,得到目标评论数据的质量分析结果。本申请通过建立主题、内容和词组之间的关系生成图结构,以实现对评论的完全覆盖,同时基于图注意力模型对图结构进行特征分析,提高了评论质量分析的准确性。
Description
技术领域
本申请涉及数据处理领域,尤其涉及一种评论数据的质量分析方法、装置、电子设备及存储介质。
背景技术
随着互联网的高速发展,网络上用户评论数据大量增加,分析评论质量对于用户倾向、舆情控制、精准营销等方面有着越来越重要的意义。近年来,图神经网络(GraphNeural Network,GNN)开始发展起来。GNN的出现,实现了图数据的端对端学习方式,使得学习过程直接架构于图数据之上。它能较好的捕获网络的整体结构特征,与传统的深度学习框架相比有更好的表示和推理能力。
在近几年对于文本分类的研究中,例如分析评论数据的质量,通常把词组节点和文档节点分别表示为图结构中两种类型的节点。通过不同的方法构建节点表示节点之间的连接关系构建异构图,再输入到简单的两层GCN模型,通过神经网络的反向传播训练完成分类。基于此,发明人发现单词节点和文档节点分别表示为图中两种类型的节点,并不能实现对评论数据的完全覆盖,最终导致评论质量的分析结果不准确。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本申请提供了一种评论数据的质量分析方法、装置、电子设备及存储介质。
根据本申请实施例的一个方面,提供了一种评论数据的质量分析方法,包括:
获取待进行质量分析的目标评论数据,其中,所述目标评论数据中携带评论内容以及评论词组;
分析所述评论内容以及所述评论词组,得到所述目标评论数据对应的评论主题,以及得到所述评论主题、所述评论内容与所述评论词组之间的关联关系集合;
基于所述评论内容、所述评论词组、所述评论主题以及所述关联关系集合生成初始图结构,并将所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;
将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到所述目标评论数据的质量分析结果。
进一步地,所述分析所述评论内容以及所述评论词组,得到所述目标评论数据对应的评论主题,以及得到所述评论主题、所述评论内容与所述评论词组之间的关联关系集合,包括:
将所述评论内容以及所述评论词组输入文档主题生成模型,得到所述评论主题,并得到所述评论内容在所述评论主题上的第一概率分布,以及所述评论主题在所述评论词组上的第二概率分布;
基于所述第一概率分布生成第一概率矩阵,并将所述第一概率矩阵确定为评论内容与所述评论主题之间的第一关联关系;
基于所述第二概率分布生成第二概率矩阵,并将所述第二概率矩阵确定为评论主题与所述评论词组之间的第二关联关系;
根据所述第一关联关系和所述第二关联关系生成所述关联关系集合。
进一步地,所述根据所述第一关联关系和所述第二关联关系生成所述关联关系集合,还包括:
基于词频-逆文档频率模型,计算所述评论内容与所述评论词组之间的权重,并将所述权重确定为所述评论内容与所述评论词组之间的第三关联关系;
获取各个所述评论词组之间的第四关联关系;
根据所述第一关联关系、所述第二关联关系、所述第三关联关系以及所述第四关联关系生成所述关联关系集合。
进一步地,所述获取各个所述评论词组之间的第四关联关系,包括:
按照滑动窗口从所述评论内容中提取多个预设滑动步长的内容文本,其中,所述预设滑动步长为所述滑动窗口的长度;
将所述内容文本与预设语料库进行匹配,确定所述滑动窗口内的评论词组;
确定所述评论词组在所述滑动窗口内的词频,将所述词频大于预设词频的评论词组确定为目标评论词组;
计算所述目标评论词组之间的相关度,并将所述相关度确定所述第四关联关系。
进一步地,所述将所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构,包括:
将所述初始图结构输入目标模型,以使所述目标模型对所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组对应的嵌入向量进行初始化,得到所述评论内容、所述评论主题以及所述评论词组分别对应的初始嵌入矩阵;
基于所述初始嵌入矩阵生成所述目标图结构。
进一步地,所述将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到所述目标评论数据的质量分析结果,包括:
将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于关联关系对所述初始嵌入矩阵进行交互,得到整体嵌入矩阵以及评论质量矩阵,其中,所述关联关系为所述关联关系集合中的关联关系;
对所述整体嵌入矩阵进行线性变化得到线性变换矩阵,并基于所述线性变换矩阵计算目标概率分布;
在所述目标概率分布满足预设分布条件时,将所述评论质量矩阵确定为所述质量分析结果。
进一步地,在所述目标概率分布不满足预设分布条件时,所述方法还包括:
根据所述目标概率分布对所述评论质量矩阵进行更新,得到更新后的评论质量矩阵;
将所述更新后的平均质量矩阵确定为所述质量分析结果。
根据本申请实施例的另一个方面,还提供了一种评论数据的质量分析装置,包括:
获取模块,用于获取待进行质量分析的目标评论数据,其中,所述目标评论数据中携带评论内容以及评论词组;
分析模块,用于分析所述评论内容以及所述评论词组,得到所述目标评论数据对应的评论主题,以及得到所述评论主题、所述评论内容与所述评论词组之间的关联关系集合;
生成模块,用于基于所述评论内容、所述评论词组、所述评论主题以及所述关联关系集合生成初始图结构,并将所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;
处理模块,用于将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到所述目标评论数据的质量分析结果。
根据本申请实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,程序运行时执行上述的步骤。
根据本申请实施例的另一方面,还提供了一种电子装置,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;其中:存储器,用于存放计算机程序;处理器,用于通过运行存储器上所存放的程序来执行上述方法中的步骤。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述方法中的步骤。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:本申请通过建立主题、内容和词组之间的关系生成图结构,实现了对评论的完全覆盖,解决了现有技术中仅仅通过内容和词组无法实现对评论的完全覆盖的问题。同时本申请还基于图注意力模型对图结构进行特征分析以及特征拼接,能够提高评论质量分析结果的准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种评论数据的质量分析方法的流程图;
图2为本申请另一实施例提供的一种评论数据的质量分析方法的流程图;
图3为本申请另一实施例提供的一种评论数据的质量分析方法的流程图;
图4为本申请另一实施例提供的一种评论数据的质量分析方法的流程图;
图5为本申请实施例提供的一种评论数据的质量分析装置的框图;
图6为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个类似的实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本申请实施例提供了一种评论数据的质量分析方法、装置、电子设备及存储介质。本发明实施例所提供的方法可以应用于任意需要的电子设备,例如,可以为服务器、终端等电子设备,在此不做具体限定,为描述方便,后续简称为电子设备。
根据本申请实施例的一方面,提供了一种评论数据的质量分析方法的方法实施例。图1为本申请实施例提供的一种评论数据的质量分析方法的流程图,如图1所示,该方法包括:
步骤S11,获取待进行质量分析的目标评论数据,其中,目标评论数据中携带评论内容以及评论词组。
在本申请实施例中,待进行质量分析的目标评论数据可以是从新闻报道中获取的评论,也可以是从电影、综艺节目中获取的评论,也可以是从电子商务平台中获取的评论。
在得到原始的评论后,获取每个评论对应的互动数据,例如评论的点赞量、转发量等等,根据互动数据从原始的评论中确定有效评论,例如:将点赞量大于或等于预设点赞量,和/或,转发量大于或等于预设转发量的评论确定为有效评论。
在本申请实施例中,通过对原始的评论的互动数据进行过滤,能够初步筛选出有效评论,在保证不影响质量分析结果的同时,降低了后续质量分析的工作量。
在本申请实施例中,首先提取有效评论的评论内容,然后对评论内容进行预处理,例如分词、去除停用词等处理,移除标签链接,提及用户名称和表情符号,删除只转载无评论的数据,移除URL链接,非ASCII、无意义的中文字符以及中文停用词,最终得到评论词组,然后将评论内容和评论词组确定为目标评论数据。
步骤S12,分析评论内容以及评论词组,得到目标评论数据对应的评论主题,以及得到评论主题、评论内容与评论词组之间的关联关系集合。
在本申请实施例中,步骤S12,分析评论内容以及评论词组,得到目标评论数据对应的评论主题,以及得到评论主题、评论内容与评论词组之间的关联关系集合,如图2所示,包括以下步骤A1-A4:
步骤A1,将评论内容以及评论词组输入文档主题生成模型,得到评论主题,并得到评论内容在评论主题上的第一概率分布,以及评论主题在评论词组上的第二概率分布。
在本申请实施例中,文档主题生成模型可以是LDA模型,首先获取评论内容—评论主题的狄利克雷分布参数(先验概率),基于该参数计算评论内容在评论主题上的第一概率分布。获取评论主题—评论词组的狄利克雷分布参数(先验概率),基于该参数计算评论主题在评论词组上的第二概率分布。对于某条评论内容中的第i个词,先从该评论内容中包含的每个评论主题的多项式分布中抽取一个评论主题,再在这个主题对应的词的多项式分布中抽取一个词组,直至抽取完成,得到所有评论内容中包含的评论主题。
需要说明的是,LDA(Latent Dirichlet Allocation)是一种文档主题生成模型,也称为一个三层贝叶斯概率模型,包含词、主题和文档三层结构。所谓生成模型,就是说,每一篇评论的每个词都是通过“以一定概率选择了某个主题,并从这个主题中以一定概率选择某个词语”这样一个过程得到。文档到主题服从多项式分布,主题到词服从多项式分布。LDA是一种非监督机器学习技术,可以用来识别大规模文档集(document collection)或语料库(corpus)中潜藏的主题信息。它采用了词袋(bag of words)的方法,这种方法将每一篇文档视为一个词频向量,从而将文本信息转化为了易于建模的数字信息。但是词袋方法没有考虑词与词之间的顺序,这简化了问题的复杂性,同时也为模型的改进提供了契机。每一篇文档代表了一些主题所构成的一个概率分布,而每一个主题又代表了很多单词所构成的一个概率分布。
步骤A2,基于第一概率分布生成第一概率矩阵,并将第一概率矩阵确定为评论内容与评论主题之间的第一关联关系。
步骤A3,基于第二概率分布生成第二概率矩阵,并将第二概率矩阵确定为评论主题与评论词组之间的第二关联关系。
在本申请实施例中,通过Gibbs采样算法求解,得到第一概率矩阵和第二概率矩阵。第一概率矩阵为评论内容—评论词组矩阵,用于表示评论内容与评论主题之间的第一关联关系,第二概率矩阵为评论主题—评论词组矩阵,用于表示评论主题与评论词组之间的第二关联关系。
步骤A4,根据第一关联关系和第二关联关系生成关联关系集合。
在本申请实施例中,步骤A4,根据第一关联关系和第二关联关系生成关联关系集合,还包括以下步骤A401-A403:
步骤A401,基于词频-逆文档频率模型,计算评论内容与评论词组之间的权重,并将权重确定为评论内容与评论词组之间的第三关联关系。
在本申请实施例中,计算评论内容与评论词组之间权重的公式如下:
上述式中,μ为评论内容与评论词组之间的权重,F为评论词组在评论中出现的次数,M为评论中的词组总数,N为评论总数,I为包含评论词组的评论数。
步骤A402,获取各个评论词组之间的第四关联关系。
在本申请实施例中,第四关联关系主要通过以下方式得到,按照滑动窗口从评论内容中提取多个预设滑动步长的内容文本,其中,预设滑动步长为滑动窗口的长度;将内容文本与预设语料库进行匹配,确定滑动窗口内的评论词组;确定评论词组在滑动窗口内的词频,将词频大于预设词频的评论词组确定为目标评论词组;计算目标评论词组之间的相关度,并将相关度确定第四关联关系。
在本申请实施例中,计算目标评论词组之间的相关度的计算公式如下:
式中,PMI(x;y)为第一目标评论词组x与第二目标评论词组y之间的相关度,p(x)是第一目标评论词组x的条件概率,p(y)是第二目标评论词组的条件概率,p(x,y)是第一目标评论词组x与第二目标评论词组y的联合分布概率。p(x|y)是在已知第二目标评论词组y的条件下,第一目标评论词组x发生的概率。
步骤A403,根据第一关联关系、第二关联关系、第三关联关系以及第四关联关系生成关联关系集合。
在本申请实施例中,在确定评论内容与评论主题之间的第一关联关系,以及评论主题与评论词组之间的第二关联关系之后,还通过获取评论内容与评论词组之间的第三关联关系,以及各个评论词组之间的第四关联关系,能够提高后续生成的图结构的准确性。
步骤S13,基于评论内容、评论词组、评论主题以及关联关系集合生成初始图结构,并将初始图结构中的评论内容、评论主题以及评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构。
在本申请实施例中,初始图结构中评论内容、评论词组、评论主题分别作为不同类型的节点,第一关联关系作为评论内容节点与评论主题节点之间的连线,第二关联关系作为评论主题节点与评论词组节点之间的连线,第三关联关系作为评论内容节点与评论词组节点之间的连线,第四关联关系作为评论词组节点之间的连线。
在本申请实施例中,步骤S13,将初始图结构中的评论内容、评论主题以及评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构,如图3所示,包括以下步骤B1-B2:
步骤B1,将初始图结构输入目标模型,以使目标模型对初始图结构中的评论内容、评论主题以及评论词组对应的嵌入向量进行初始化,得到评论内容、评论主题以及评论词组分别对应的初始嵌入矩阵。
步骤B2,基于初始嵌入矩阵生成目标图结构。
在本申请实施例中,使用预训练的模型对初始图结构中各个节点进行嵌入向量表示,分别得到评论内容节点、评论词组节点、评论主题节点的初始嵌入矩阵。然后基于各个节点的初始嵌入矩阵得到目标图结构。
步骤S14,将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系集合对初始嵌入矩阵进行信息交互,得到目标评论数据的质量分析结果。
在本申请实施例中,将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系集合对初始嵌入矩阵进行信息交互,得到目标评论数据的质量分析结果,如图4所示,包括以下步骤C1-C3:
步骤C1,将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系对初始嵌入矩阵进行交互,得到整体嵌入矩阵以及评论质量矩阵,其中,关联关系为关联关系集合中的关联关系。
在本申请实施例中,将评论内容节点的初始嵌入矩阵记为评论词组节点的初始嵌入矩阵记为以及评论主题节点的初始嵌入矩阵记为将目标图结构输入预先训练的图注意力模型,通过图注意力模型中的多头自注意力机制不断更新目标图结构中各节点的嵌入矩阵,使得各节点间不断进行信息交互,从而得到t+1步时,各节点的嵌入矩阵,评论内容节点在t+1步时的嵌入矩阵记为评论词组节点在t+1步时的嵌入矩阵记为以及评论主题节点在t+1步时的嵌入矩阵记为
作为一个示例,本申请实施例采用图注意力模型的计算过程如下:
上述式中,为对图结构中的一个节点进行向量化得到的嵌入矩阵,Ni与相连的邻居节点,为图注意力模型采用多头注意力机制获得给定节点新的嵌入矩阵,为节点i和节点j在第n个注意力头的注意力分数,σ为激活函数,Wn为可学习参数,||表示向量的拼接操作,表示将多个注意力头学习到的特征进行拼接。
步骤C2,对整体嵌入矩阵进行线性变化得到线性变换矩阵,并基于线性变换矩阵计算目标概率分布。
步骤C3,在目标概率分布满足预设分布条件时,将评论质量矩阵确定为质量分析结果。
在本申请实施例中,在目标概率分布不满足预设分布条件时,方法还包括:根据目标概率分布对评论质量矩阵进行更新,得到更新后的评论质量矩阵;将更新后的评论质量矩阵确定为质量分析结果。
步骤S15,根据质量分析结果对目标评论数据,以及目标评论数据对应的评论对象进行处理。
在本申请实施例中,由于质量分析结果中携带评论质量矩阵,因此直接根据评论质量矩阵中大于第一预设值的概率值的第一数量,以及小于第二预设值的概率值的第二数量,确定目标评论数据的目标等级。根据目标等级确定目标评论数据的展示参数,其中,展示参数包括:展示时长以及展示位置。
作为一个示例,第一数量与第二数量的比值大于或等于第一预设比值的情况下,目标等级最高为一级;第一数量与第二数量的比值小于第一预设比值,且大于或等于第二预设比值的情况下,目标等级为二级;第一数量与第二数量的比值小于第二预设比值的情况下,目标等级最低为三级。
另外,本申请实施例还可以根据目标等级对目标评论数据对应的评论对象进行分析,快速定位确定评论对象的舆论发展方向,评论对象可以是新闻、视频、商品等等。在得到评论对象的舆论发展方向之后,本申请实施例根据舆论发展方向确定评论对象的推广力度。
作为一个示例,在目标等级为一级的情况下,评论对象的舆论发展方向为良好,此时根据评论对象的对象类型确定相应的推广力度,推广力度可以是:线上、线下同时推广等等。在目标等级为二级的情况下,将比值发送至预设终端,接收预设终端根据比值反馈的舆论发展方向,如果舆论发展方向为良好或者一般的情况下,根据评论对象的对象类型确定相应的推广力度。
本申请通过建立主题、内容和词组之间的关系生成图结构,实现了对评论的完全覆盖,解决了现有技术中仅仅通过内容和词组无法实现对评论的完全覆盖的问题。同时本申请还基于图注意力模型对图结构进行特征分析以及特征拼接,能够提高评论质量分析结果的准确性。
本申请实施例中的图注意力模型的组成包括:输入层、注意力图卷积层、池化层和输出层。图注意力模型的训练过程包括:获取训练样本,训练样本可以是样本图结构,样本图结构的特征包括:多个样本节点以及各个样本节点之间的关联关系。将样本图结构输入到图注意力模型中的输入层,输入层将样本图结构传输至注意力卷积层,注意力卷积层对样本图结构进行特征提取,然后对提取的特征进行卷积计算,得到图卷积数据。注意力卷积层将图卷积数据传输至池化层,通过池化层对图卷积数据进行融合,将融合后的数据穿书之输出层进行输出。
注意力机制源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类往往根据需求忽略部分可见信息,只关注信息特定的一部分。为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它,从而筛选出有价值的信息,视觉注意力机制极大的提高了人类处理视觉信息的效率。深度学习中的注意力机制借鉴了人类视觉注意力机制的思维方式,以期从大量数据中快速筛选出高价值的信息。
本申请实施例中的注意力卷积层是在不同阶段的卷积层都引入注意力机制。其中,引入注意力机制是指利用一系列的注意力分数a1,a2,…,ak来调整不同阶段图卷积的权重;引入新的自连接是指将任一阶数的图的正则化相邻矩阵都加上同维数的单位矩阵作为新的图的正则化相邻矩阵输入模型。自连接例如:评论词组节点内部之间关联关系,需要注意的是,考虑到自身节点不存在自连接的相邻矩阵的对角线位置的元素值为0,将该相邻矩阵输入模型训练时可能会因忽略掉自身节点信息而影响模型的分类效果的情况,本申请实施例中原有的图的正则化相邻矩阵就是含自连接的,而本申请是在原有的自连接正则化相邻矩阵基础上再次引入自连接,以提升模型的学习能力和分类精度。
图5为本申请实施例提供的一种评论数据的质量分析装置的框图,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。如图5所示,该装置包括:
获取模块51,用于获取待进行质量分析的目标评论数据,其中,目标评论数据中携带评论内容以及评论词组;
分析模块52,用于分析评论内容以及评论词组,得到目标评论数据对应的评论主题,以及得到评论主题、评论内容与评论词组之间的关联关系集合;
生成模块53,用于基于评论内容、评论词组、评论主题以及关联关系集合生成初始图结构,并将初始图结构中的评论内容、评论主题以及评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;
处理模块54,用于将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到目标评论数据的质量分析结果。
执行模块55,用于根据所述质量分析结果对所述目标评论数据,以及所述目标评论数据对应的评论对象进行处理
在本申请实施例中,分析模块52,包括:
输入子模块,用于将评论内容以及评论词组输入文档主题生成模型,得到评论主题,并得到评论内容在评论主题上的第一概率分布,以及评论主题在评论词组上的第二概率分布。
第一生成子模块,用于基于第一概率分布生成第一概率矩阵,并将第一概率矩阵确定为评论内容与评论主题之间的第一关联关系。
第二生成子模块,用于基于第二概率分布生成第二概率矩阵,并将第二概率矩阵确定为评论主题与评论词组之间的第二关联关系。
第三生成子模块,用于根据第一关联关系和第二关联关系生成关联关系集合。
在本申请实施例中,第三生成子模块,用于基于词频-逆文档频率模型,计算评论内容与评论词组之间的权重,并将权重确定为评论内容与评论词组之间的第三关联关系;获取各个评论词组之间的第四关联关系;根据第一关联关系、第二关联关系、第三关联关系以及第四关联关系生成关联关系集合。
在本申请实施例中,第三生成子模块,用于按照滑动窗口从评论内容中提取多个预设滑动步长的内容文本,其中,预设滑动步长为滑动窗口的长度;将内容文本与预设语料库进行匹配,确定滑动窗口内的评论词组;确定评论词组在滑动窗口内的词频,将词频大于预设词频的评论词组确定为目标评论词组;计算目标评论词组之间的相关度,并将相关度确定第四关联关系。
在本申请实施例中,生成模块53,用于将初始图结构输入目标模型,以使目标模型对初始图结构中的评论内容、评论主题以及评论词组对应的嵌入向量进行初始化,得到评论内容、评论主题以及评论词组分别对应的初始嵌入矩阵;基于初始嵌入矩阵生成目标图结构。
在本申请实施例中,处理模块54,用于将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系对初始嵌入矩阵进行交互,得到整体嵌入矩阵以及评论质量矩阵;对整体嵌入矩阵进行线性变化得到线性变换矩阵,并基于线性变换矩阵计算目标概率分布;在目标概率分布满足预设分布条件时,将评论质量矩阵确定为质量分析结果。
在本申请实施例中,处理模块54,用于根据目标概率分布对评论质量矩阵进行更新,得到更新后的评论质量矩阵;将更新后的平均质量矩阵确定为质量分析结果。
本申请实施例还提供一种电子设备,如图6所示,电子设备可以包括:处理器1501、通信接口1502、存储器1503和通信总线1504,其中,处理器1501,通信接口1502,存储器1503通过通信总线1504完成相互间的通信。
存储器1503,用于存放计算机程序;
处理器1501,用于执行存储器1503上所存放的计算机程序时,实现上述实施例的步骤。
上述终端提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一的评论数据的质量分析方法,该方法具体包括:
获取待进行质量分析的目标评论数据,其中,目标评论数据中携带评论内容以及评论词组;
分析评论内容以及评论词组,得到目标评论数据对应的评论主题,以及得到评论主题、评论内容与评论词组之间的关联关系集合;
基于评论内容、评论词组、评论主题以及关联关系集合生成初始图结构,并将初始图结构中的评论内容、评论主题以及评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;
将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系集合对初始嵌入矩阵进行信息交互,得到目标评论数据的质量分析结果。
进一步地,分析评论内容以及评论词组,得到目标评论数据对应的评论主题,以及得到评论主题、评论内容与评论词组之间的关联关系集合,包括:
将评论内容以及评论词组输入文档主题生成模型,得到评论主题,并得到评论内容在评论主题上的第一概率分布,以及评论主题在评论词组上的第二概率分布;
基于第一概率分布生成第一概率矩阵,并将第一概率矩阵确定为评论内容与评论主题之间的第一关联关系;
基于第二概率分布生成第二概率矩阵,并将第二概率矩阵确定为评论主题与评论词组之间的第二关联关系;
根据第一关联关系和第二关联关系生成关联关系集合。
进一步地,根据第一关联关系和第二关联关系生成关联关系集合,还包括:
基于词频-逆文档频率模型,计算评论内容与评论词组之间的权重,并将权重确定为评论内容与评论词组之间的第三关联关系;
获取各个评论词组之间的第四关联关系;
根据第一关联关系、第二关联关系、第三关联关系以及第四关联关系生成关联关系集合。
进一步地,获取各个评论词组之间的第四关联关系,包括:
按照滑动窗口从评论内容中提取多个预设滑动步长的内容文本,其中,预设滑动步长为滑动窗口的长度;
将内容文本与预设语料库进行匹配,确定滑动窗口内的评论词组;
确定评论词组在滑动窗口内的词频,将词频大于预设词频的评论词组确定为目标评论词组;
计算目标评论词组之间的相关度,并将相关度确定第四关联关系。
进一步地,将初始图结构中的评论内容、评论主题以及评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构,包括:
将初始图结构输入目标模型,以使目标模型对初始图结构中的评论内容、评论主题以及评论词组对应的嵌入向量进行初始化,得到评论内容、评论主题以及评论词组分别对应的初始嵌入矩阵;
基于初始嵌入矩阵生成目标图结构。
进一步地,将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系集合对初始嵌入矩阵进行信息交互,得到目标评论数据的质量分析结果,包括:
将目标图结构输入预先训练的图注意力模型,以使图注意力模型基于关联关系对初始嵌入矩阵进行交互,得到整体嵌入矩阵以及评论质量矩阵;
对整体嵌入矩阵进行线性变化得到线性变换矩阵,并基于线性变换矩阵计算目标概率分布;
在目标概率分布满足预设分布条件时,将评论质量矩阵确定为质量分析结果。
进一步地,在目标概率分布不满足预设分布条件时,方法还包括:
根据目标概率分布对评论质量矩阵进行更新,得到更新后的评论质量矩阵;
将更新后的平均质量矩阵确定为质量分析结果。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的评论数据的质量分析方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk)等。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种评论数据的质量分析方法,其特征在于,包括:
获取待进行质量分析的目标评论数据,其中,所述目标评论数据中携带评论内容以及评论词组;
分析所述评论内容以及所述评论词组,得到所述目标评论数据对应的评论主题,以及得到所述评论主题、所述评论内容与所述评论词组之间的关联关系集合;
基于所述评论内容、所述评论词组、所述评论主题以及所述关联关系集合生成初始图结构,并将所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;
将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到所述目标评论数据的质量分析结果;
根据所述质量分析结果对所述目标评论数据,以及所述目标评论数据对应的评论对象进行处理。
2.根据权利要求1所述的方法,其特征在于,所述分析所述评论内容以及所述评论词组,得到所述目标评论数据对应的评论主题,以及得到所述评论主题、所述评论内容与所述评论词组之间的关联关系集合,包括:
将所述评论内容以及所述评论词组输入文档主题生成模型,得到所述评论主题,并得到所述评论内容在所述评论主题上的第一概率分布,以及所述评论主题在所述评论词组上的第二概率分布;
基于所述第一概率分布生成第一概率矩阵,并将所述第一概率矩阵确定为评论内容与所述评论主题之间的第一关联关系;
基于所述第二概率分布生成第二概率矩阵,并将所述第二概率矩阵确定为评论主题与所述评论词组之间的第二关联关系;
根据所述第一关联关系和所述第二关联关系生成所述关联关系集合。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一关联关系和所述第二关联关系生成所述关联关系集合,还包括:
基于词频-逆文档频率模型,计算所述评论内容与所述评论词组之间的权重,并将所述权重确定为所述评论内容与所述评论词组之间的第三关联关系;
获取各个所述评论词组之间的第四关联关系;
根据所述第一关联关系、所述第二关联关系、所述第三关联关系以及所述第四关联关系生成所述关联关系集合。
4.根据权利要求3所述的方法,其特征在于,所述获取各个所述评论词组之间的第四关联关系,包括:
按照滑动窗口从所述评论内容中提取多个预设滑动步长的内容文本,其中,所述预设滑动步长为所述滑动窗口的长度;
将所述内容文本与预设语料库进行匹配,确定所述滑动窗口内的评论词组;
确定所述评论词组在所述滑动窗口内的词频,将所述词频大于预设词频的评论词组确定为目标评论词组;
计算所述目标评论词组之间的相关度,并将所述相关度确定所述第四关联关系。
5.根据权利要求1所述的方法,其特征在于,所述将所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构,包括:
将所述初始图结构输入目标模型,以使所述目标模型对所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组对应的嵌入向量进行初始化,得到所述评论内容、所述评论主题以及所述评论词组分别对应的初始嵌入矩阵;
基于所述初始嵌入矩阵生成所述目标图结构。
6.根据权利要求1所述的方法,其特征在于,所述将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到所述目标评论数据的质量分析结果,包括:
将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于关联关系对所述初始嵌入矩阵进行交互,得到整体嵌入矩阵以及评论质量矩阵,其中,所述关联关系为所述关联关系集合中的关联关系;
对所述整体嵌入矩阵进行线性变化得到线性变换矩阵,并基于所述线性变换矩阵计算目标概率分布;
在所述目标概率分布满足预设分布条件时,将所述评论质量矩阵确定为所述质量分析结果。
7.根据权利要求6所述的方法,其特征在于,在所述目标概率分布不满足预设分布条件时,所述方法还包括:
根据所述目标概率分布对所述评论质量矩阵进行更新,得到更新后的评论质量矩阵;
将所述更新后的平均质量矩阵确定为所述质量分析结果。
8.一种评论数据的质量分析装置,其特征在于,包括:
获取模块,用于获取待进行质量分析的目标评论数据,其中,所述目标评论数据中携带评论内容以及评论词组;
分析模块,用于分析所述评论内容以及所述评论词组,得到所述目标评论数据对应的评论主题,以及得到所述评论主题、所述评论内容与所述评论词组之间的关联关系集合;
生成模块,用于基于所述评论内容、所述评论词组、所述评论主题以及所述关联关系集合生成初始图结构,并将所述初始图结构中的所述评论内容、所述评论主题以及所述评论词组分别转换为相应的初始嵌入矩阵,得到目标图结构;
处理模块,用于将所述目标图结构输入预先训练的图注意力模型,以使所述图注意力模型基于所述关联关系集合对所述初始嵌入矩阵进行信息交互,得到所述目标评论数据的质量分析结果;
执行模块,用于根据所述质量分析结果对所述目标评论数据,以及所述目标评论数据对应的评论对象进行处理。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行上述权利要求1至7中任一项所述的方法步骤。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;其中:
存储器,用于存放计算机程序;
处理器,用于通过运行存储器上所存放的程序来执行权利要求1-7中任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111250248.XA CN114117060B (zh) | 2021-10-26 | 2021-10-26 | 评论数据的质量分析方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111250248.XA CN114117060B (zh) | 2021-10-26 | 2021-10-26 | 评论数据的质量分析方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114117060A true CN114117060A (zh) | 2022-03-01 |
CN114117060B CN114117060B (zh) | 2023-11-17 |
Family
ID=80376916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111250248.XA Active CN114117060B (zh) | 2021-10-26 | 2021-10-26 | 评论数据的质量分析方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114117060B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114584841A (zh) * | 2022-03-02 | 2022-06-03 | 湖南快乐阳光互动娱乐传媒有限公司 | 评论内容生成方法及装置、存储介质及电子设备 |
CN114881020A (zh) * | 2022-07-12 | 2022-08-09 | 成都晓多科技有限公司 | 基于交叉注意力和门机制的评论质量识别模型及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108932637A (zh) * | 2018-07-10 | 2018-12-04 | 北京邮电大学 | 一种方面挖掘模型的训练方法、装置及电子设备 |
CN110688832A (zh) * | 2019-10-10 | 2020-01-14 | 河北省讯飞人工智能研究院 | 一种评论生成方法、装置、设备及存储介质 |
CN112908429A (zh) * | 2021-04-06 | 2021-06-04 | 北京百度网讯科技有限公司 | 一种药物与靶点间的相关性确定方法、装置及电子设备 |
CN113094484A (zh) * | 2021-04-07 | 2021-07-09 | 西北工业大学 | 基于异质图神经网络的文本视觉问答实现方法 |
-
2021
- 2021-10-26 CN CN202111250248.XA patent/CN114117060B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108932637A (zh) * | 2018-07-10 | 2018-12-04 | 北京邮电大学 | 一种方面挖掘模型的训练方法、装置及电子设备 |
CN110688832A (zh) * | 2019-10-10 | 2020-01-14 | 河北省讯飞人工智能研究院 | 一种评论生成方法、装置、设备及存储介质 |
CN112908429A (zh) * | 2021-04-06 | 2021-06-04 | 北京百度网讯科技有限公司 | 一种药物与靶点间的相关性确定方法、装置及电子设备 |
CN113094484A (zh) * | 2021-04-07 | 2021-07-09 | 西北工业大学 | 基于异质图神经网络的文本视觉问答实现方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114584841A (zh) * | 2022-03-02 | 2022-06-03 | 湖南快乐阳光互动娱乐传媒有限公司 | 评论内容生成方法及装置、存储介质及电子设备 |
CN114881020A (zh) * | 2022-07-12 | 2022-08-09 | 成都晓多科技有限公司 | 基于交叉注意力和门机制的评论质量识别模型及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114117060B (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210334625A1 (en) | Webinterface generation and testing using artificial neural networks | |
CN111382309B (zh) | 一种基于图模型的短视频推荐方法、和智能终端和存储介质 | |
Xi et al. | Towards open-world recommendation with knowledge augmentation from large language models | |
CN110717098B (zh) | 基于元路径的上下文感知用户建模方法、序列推荐方法 | |
CN112990972A (zh) | 一种基于异构图神经网络的推荐方法 | |
CN114117060B (zh) | 评论数据的质量分析方法、装置、电子设备及存储介质 | |
CN116720004B (zh) | 推荐理由生成方法、装置、设备及存储介质 | |
CN111625645B (zh) | 文本生成模型的训练方法、装置和电子设备 | |
US20230049817A1 (en) | Performance-adaptive sampling strategy towards fast and accurate graph neural networks | |
CN111143705A (zh) | 一种基于图卷积网络的推荐方法 | |
CN113761219A (zh) | 基于知识图谱的检索方法、装置、电子设备及存储介质 | |
CN111738807B (zh) | 用于推荐目标对象的方法、计算设备和计算机存储介质 | |
CN112149604A (zh) | 视频特征提取模型的训练方法、视频推荐方法及装置 | |
Khan et al. | Comparative analysis on Facebook post interaction using DNN, ELM and LSTM | |
Ge et al. | Helpfulness-aware review based neural recommendation | |
CN117216281A (zh) | 一种基于知识图谱的用户兴趣扩散推荐方法及系统 | |
CN115114526A (zh) | 一种多行为增强信息的加权图卷积网络评分预测推荐方法 | |
CN114741599A (zh) | 基于知识增强和注意力机制的新闻推荐方法及系统 | |
Li et al. | From edge data to recommendation: A double attention-based deformable convolutional network | |
CN117391824A (zh) | 基于大语言模型和搜索引擎推荐物品的方法及装置 | |
CN116628346A (zh) | 搜索词推荐模型的训练方法及装置 | |
US11914657B2 (en) | Machine learning aided automatic taxonomy for web data | |
CN112200602B (zh) | 用于广告推荐的神经网络模型训练方法及装置 | |
CN112417290A (zh) | 书籍排序推送模型的训练方法、电子设备及存储介质 | |
Motte | Mathematical models for large populations, behavioral economics, and targeted advertising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |