CN111861546A - 一种评论质量的判断方法、装置、设备及存储介质 - Google Patents
一种评论质量的判断方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111861546A CN111861546A CN202010598285.9A CN202010598285A CN111861546A CN 111861546 A CN111861546 A CN 111861546A CN 202010598285 A CN202010598285 A CN 202010598285A CN 111861546 A CN111861546 A CN 111861546A
- Authority
- CN
- China
- Prior art keywords
- comment
- sample
- network
- data
- judgment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000010586 diagram Methods 0.000 claims abstract description 58
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 238000012552 review Methods 0.000 claims description 6
- 230000001960 triggered effect Effects 0.000 claims description 6
- 230000015654 memory Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013106 supervised machine learning method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Artificial Intelligence (AREA)
- Entrepreneurship & Innovation (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种评论质量的判断方法,通过先根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和样本评论网络图训练出评论判断模型;然后在获取待测评论数据后,根据待测评论数据设置出对应的待测评论网络图;再将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果。本方法中的评论判断模型能够考虑待测评论数据中用户信息、评论词以及评论信息之间的关联关系,并且避免了训练出的评论判断模型的主观性,从而能够提高对待测评论数据进行质量判断的准确度。本申请还公开了一种评论质量的判断装置、设备及计算机可读存储介质,均具有上述有益效果。
Description
技术领域
本发明涉及质量判断领域,特别涉及一种评论质量的判断方法、装置、设备及计算机可读存储介质。
背景技术
目前,用户在选择某个商品或者某项服务时,可以通过查看其它用户对该商品/服务的评价作为选择的参考信息。例如,通过快速浏览图书网站的用户评论,读者可以直观获取图书阅读建议,确定书籍是否满足自己的阅读需求。但由于网站用户量和评论量不断增加,评论数据呈指数型增长,人们很难在海量评论中快速发现有用信息。
因此,现有技术提供了一种对评论数据进行质量判断的方法,通过提取出用于判断评论质量的特征指标,特征指标包括用户特征、评论内容、对图书的数值打分等信息;再根据特征指标对应的信息获取样本评论数据中的样本信息,再通过有监督的机器学习方法如SVM、逻辑回归方法等对样本信息进行学习训练,得出评论判断模型,以便根据评论判断模型对所述待测评论数据进行评论质量的分类及预测。但是,现有技术的方法,一方面仅仅根据特征指标对应的信息进行判断,使得判断的依据比较片面,从而导致对待测评论数据进行质量判断的判断结果不够准确;另一方面,特征指标是用户根据自己的主观意识设置的,即评论判断模型具有很大的主观性,同样使得判断结果不够准确。
因此,如何提高对评论数据的质量判断的准确度,是本领域技术人员目前需要解决的技术问题。
发明内容
有鉴于此,本发明的目的在于提供一种评论质量的判断方法,能够提高对评论数据的质量判断的准确度;本发明的另一目的是提供一种评论质量的判断装置、设备及计算机可读存储介质,均具有上述有益效果。
为解决上述技术问题,本发明提供一种评论质量的判断方法,包括:
根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和所述样本评论网络图训练出评论判断模型;
获取待测评论数据,并根据所述待测评论数据设置出对应的待测评论网络图;
将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果。
优选地,所述根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和所述样本评论网络图训练出评论判断模型的过程,具体包括:
根据所述样本评论数据的所述用户信息、所述评论词和所述评论信息设置出所述样本评论网络图;
将所述样本评论网络图输入至所述图神经网络中,获取与所述样本评论网络图对应的样本网络特征;
将所述样本网络特征输入至全连接层和softmax网络中进行训练,得出所述评论判断模型。
优选地,进一步包括:
当所述样本评论网络图的节点为与所述评论信息对应的评论节点和与所述评论词对应的词节点时,计算出所述评论节点和所述词节点之间的权重;
根据所述权重设置所述评论节点和所述词节点之间的边。
优选地,进一步包括:
在对同一目标商品的多个待测评论数据进行质量判断时,若确定出的质量差的待测评论数据的数量大于预设数量阈值,触发提示装置发出第一提示信息。
优选地,在所述将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果之后,进一步包括:
触发提示装置发出第二提示信息。
优选地,在所述将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果之后,进一步包括:
显示与所述待测评论数据对应的所述判断结果。
优选地,在所述将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果之后,进一步包括:
记录各所述待测评论数据和对应的判断结果。
为解决上述技术问题,本发明还提供一种评论质量的判断装置,包括:
训练模块,用于根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和所述样本评论网络图训练出评论判断模型;
设置模块,用于获取待测评论数据,并根据所述待测评论数据设置出对应的待测评论网络图;
判断模块,用于将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果。
为解决上述技术问题,本发明还提供一种评论质量的判断设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述任一种评论质量的判断方法的步骤。
为解决上述技术问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种评论质量的判断方法的步骤。
本发明提供的一种评论质量的判断方法,通过先根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和样本评论网络图训练出评论判断模型;然后在获取待测评论数据后,根据待测评论数据设置出对应的待测评论网络图;再将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果。可见,由于本方法中的评论判断模型是根据样本评论网络图和图神经网络训练出的,评论判断模型能够考虑待测评论数据中用户信息、评论词以及评论信息之间的关联关系,从而能够提高对待测评论数据进行质量判断的准确度;并且本方法避免了现有技术中通过人为设置用于训练评论判断模型的特征指标,因此避免了训练出的评论判断模型的主观性,从而进一步提高对待测评论数据进行质量判断的准确度。
为解决上述技术问题,本发明还提供了一种评论质量的判断装置、设备及计算机可读存储介质,均具有上述有益效果。
附图说明
为了更清楚地说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种评论质量的判断方法的流程图;
图2为本发明实施例提供的一种评论质量的判断装置的结构图;
图3为本发明实施例提供的一种评论质量的判断设备的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例的核心是提供一种评论质量的判断方法,能够提高对评论数据的质量判断的准确度;本发明的另一核心是提供一种评论质量的判断装置、设备及计算机可读存储介质,均具有上述有益效果。
为了使本领域技术人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。
图1为本发明实施例提供的一种评论质量的判断方法的流程图。如图1所示,一种评论质量的判断方法包括:
S10:根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和样本评论网络图训练出评论判断模型。
具体的,在本实施例中,首先通过图神经网络和样本评论网络图训练出评论判断模型,以便于后续利用训练出的评论判断模型对待测评论数据进行评论质量的判断。
其中,样本评论网络图指的是根据样本评论数据的用户信息、评论词和评论信息设置出来的网络图,即样本评论网络图中的各节点为各用户信息、各评论词和各评论信息,各节点之间的边表示对应的节点之间的关联关系,即用户信息、评论词以及评论信息相互之间的特征关联关系和信息交互关系。图神经网络(Graph Neural Network,GNN)是一种实现了图数据的端对端学习方式,使得学习过程直接架构于图数据之上的神经网络。
S20:获取待测评论数据,并根据待测评论数据设置出对应的待测评论网络图;
S30:将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果。
具体的,在需要对待测评论数据进行评论质量的判断时,首先根据待测评论数据设置出对应的待测评论网络图,然后将待测评论网络图输入至评论判断模型中,利用评论判断模型对待测评论网络图进行质量判断,并且得出对应的判断结果,即利用评论判断模型输出对待测评论数据的判断结果。
本发明实施例提供的一种评论质量的判断方法,通过先根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和样本评论网络图训练出评论判断模型;然后在获取待测评论数据后,根据待测评论数据设置出对应的待测评论网络图;再将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果。可见,由于本方法中的评论判断模型是根据样本评论网络图和图神经网络训练出的,评论判断模型能够考虑待测评论数据中用户信息、评论词以及评论信息之间的关联关系,从而能够提高对待测评论数据进行质量判断的准确度;并且本方法避免了现有技术中通过人为设置用于训练评论判断模型的特征指标,因此避免了训练出的评论判断模型的主观性,从而进一步提高对待测评论数据进行质量判断的准确度。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例中,根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经时网络和训练出评论判断模型的过程,具体包括:
根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图;
将样本评论网络图输入至图神经网络中,获取与样本评论网络图对应的样本网络特征;
将样本网络特征输入至全连接层和softmax网络中进行训练,得出评论判断模型。
具体的,在本实施例中,具体先根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图;其中,样本评论数据为设置有评价质量标签的评论信息;具体的,将用户每次发表的评论作为一个评论节点;用户的用户信息作为用户节点;对评论信息进行切割,得出评论词,将评论信息中出现频率达到设定次数的每个评论词作为一个词节点。
然后,根据用户节点、词节点以及评论节点之间的特征关联关系和信息交互关系设置各节点之间的边。
具体的,确定词节点之间是否存在边的过程为:首先利用长短期记忆网络(LongShort-Term Memory,LSTM)提取各个评论词的包含上下文语义信息的语义特征,并以特征向量的形式表示出来;然后计算各个评论词语义特征之间的相似度,当语义特征之间的相似度大于设定的阈值时,表示二者为具有语义关联关系的关键词对,则在两个词节点之间建立边。更具体的,可以使用余弦相似度作为评论词语义特征的相似度度量:
其中,A和B分别表示两个不同的评论词的语义特征向量,θ代表语义特征向量之间的夹角。
具体的,确定用户节点之间是否存在边的过程为:通过判断用户之间是否互相关注确定用户节点之间是否有边。
具体的,在本实施例中,用户节点与评论节点有两方面的关系:一是用户发表评论信息,即该用户信息对应的用户节点与该用户发表的评论信息对应的评论节点存在关联关系;二是其他用户对某用户发表的评论信息进行点赞评论,点赞评论代表赞同评论信息对应的观点,近似地可以认为其他用户与其点赞评论的评论信息的观点相似,从而当其他用户对某用户的评论信息进行点赞或评论时,其他用户对应的用户节点与其评论点赞的评论信息对应的评论节点之间存在边。
具体的,根据确定出的各节点以及各节点之间的边确定出样本评论网络图;然后,将样本评论网络图输入至图神经网络中,获取与样本评论网络图对应的样本网络特征。
具体的,假设样本评论网络图G中的每个节点v的特征Xv都与一个ground-truth标签tv相关联。在图神经网络模型中,用包含邻居节点的特征信息的d维向量hv表示每个节点;即对于每个节点,它的隐藏状态包含了来自邻居节点的信息;图神经网络(GNN)通过迭代式更新所有节点的隐藏状态,节点v的隐藏状态按照如下方式更新:
映射到d维空间上的过渡函数,也称为局部转移函数(local transactionfunction);通过不断地利用当前时刻邻居节点的隐藏状态作为部分输入来生成下一时刻中心节点的隐藏状态,直到每个节点的隐藏状态变化幅度很小,整个图的信息流动趋于平稳。为了寻找的唯一解,可以应用巴拿赫不动点定理(Banach's Fixed PointTheorem),将上面的方程重写为一个迭代更新过程:
Ht+1=F(Ht,X);
Ov=g(hv,Xv);
其中,g(·)又被称为局部输出函数(local output function);f(·)和g(·)都可以理解为前馈全连接神经网络,具体可以是根据需要设置卷积神经网络或循环神经网络等,本实施例对此不做限定。
最后,将样本网络特征输入至全连接层和softmax网络中进行训练,实现最终评论质量的评估预测,得出评论判断模型。需要说明的是,在实际操作中,在训练出评论判断模型的过程中,将不断利用损失函数对模型参数进行优化,以得出判断准确度满足预设要求的评论判断模型;其中,损失函数可以采用交叉熵损失函数,本实施例对此不做限定。
可见,按照本实施例的方式训练得出评论判断模型,训练过程便捷且训练出的评论判断模型能够达到预设准确度要求。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例中,进一步包括:
当样本评论网络图的节点为与评论信息对应的评论节点和与评论词对应的词节点时,计算出评论节点和词节点之间的权重;
根据权重设置评论节点和词节点之间的边。
在本实施例中,首先根据词频-逆文档频率(TF-IDF)方法计算出评论节点与词节点之间的权重;该权重即为二者之间的边的权重,因此利用该权重设置二者之间的边。具体的,TFIDF=TF*IDF;其中,
需要说明的是,在本实施例中,通过进一步根据评论信息与评论词之间的权重设置评论节点和词节点之间的权重,在考虑权重的情况下,能够更全面地获取节点之间的关联关系,从而能够更准确地对待测评论数据进行评论质量的判断。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例进一步包括:
在对同一目标商品的多个待测评论数据进行质量判断时,若确定出的质量差的待测评论数据的数量大于预设数量阈值,触发提示装置发出第一提示信息。
本实施例中是进一步考虑到对同一目标商品的评论情况进行评论质量判断的情况。具体的,通过获取对同一目标商品的多个待测评论数据,并分别确定出与各待测评论数据对应的评论质量,评论质量包括质量好和质量差;然后分别统计评论质量好和评论质量差的待测评论数据的数量;再判断确定出的质量差的待测评论数据的数量是否大于预设数量阈值;若是,则触发提示装置发出对应的提示信息。
具体的,提示装置可以具体是蜂鸣器和/或指示灯和/或显示器,通过触发蜂鸣器/指示灯/显示器等提示装置发出对应的第一提示信息,如蜂鸣音/闪烁灯/显示文字或图像等,以直观地提示用户目标商品的整体评价状况不佳,从而能够进一步提升用户的使用体验。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,进一步包括:
触发提示装置发出第二提示信息。
具体的,在本实施例中,是在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,进一步触发提示装置发出对应的第二提示信息。需要说明的是,本实施例中的提示装置也可以具体是蜂鸣器和/或指示灯和/或显示器,通过触发蜂鸣器/指示灯/显示器等提示装置发出对应的第二提示信息,如蜂鸣音/闪烁灯/显示文字或图像等,第一提示信息与第二提示信息一般设置为不同情况,以直观地提示用户当前对完成对待测评论数据进行评论质量的判断,从而能够进一步提升用户的使用体验。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,进一步包括:
显示与待测评论数据对应的判断结果。
具体的,在本实施例中,是在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,利用预设的显示装置显示对待测评论数据进行评论质量判断的判断结果。本实施例中,对显示判断结果的具体形式不做限定,并且对用于显示判断结果的显示装置的具体类型也不做限定,例如可以是液晶显示屏或者触摸屏等。
可见,本实施例通过进一步显示与待测评论数据对应的判断结果,因此能够便于用户更直观地查看待测评论数据的评论质量,从而进一步提升用户的使用体验。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,进一步包括:
记录各待测评论数据和对应的判断结果。
具体的,在本实施例中,是完成对待测评论数据的评论质量的判断,得出判断结果之后,进一步将各待测评论数据以及对应的判断结果进行记录存储。需要说明的是,在实际操作中,具体的记录方式可以是以文本或以excel表格或者以数据库表的形式记录,本实施例对此不做限定,根据实际需求进行选择。
可见,在本实施例中,通过进一步记录记录各待测评论数据和对应的判断结果,能够便于用户查看对各待测评论数据的判断情况,也能够便于用户基于记录的信息进行进一步的统计分析,从而进一步提升用户的使用体验。
上文对于本发明提供的一种评论质量的判断方法的实施例进行了详细的描述,本发明还提供了一种与该方法对应的评论质量的判断装置、设备及计算机可读存储介质,由于装置、设备及计算机可读存储介质部分的实施例与方法部分的实施例相互照应,因此装置、设备及计算机可读存储介质部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
图2为本发明实施例提供的一种评论质量的判断装置的结构图,如图2所示,一种评论质量的判断装置包括:
训练模块21,用于根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和样本评论网络图训练出评论判断模型;
设置模块22,用于获取待测评论数据,并根据待测评论数据设置出对应的待测评论网络图;
判断模块23,用于将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果。
本发明实施例提供的评论质量的判断装置,具有上述评论质量的判断方法的有益效果。
作为优选的实施方式,一种评论质量的判断装置进一步包括:
权重计算模块,用于当样本评论网络图的节点为与评论信息对应的评论节点和与评论词对应的词节点时,计算出评论节点和词节点之间的权重;
权重设置模块,用于根据权重设置评论节点和词节点之间的边。
作为优选的实施方式,一种评论质量的判断装置进一步包括:
第一提示模块,用于在对同一目标商品的多个待测评论数据进行质量判断时,若确定出的质量差的待测评论数据的数量大于预设数量阈值,触发提示装置发出第一提示信息。
作为优选的实施方式,一种评论质量的判断装置进一步包括:
第二提示模块,用于在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,触发提示装置发出第二提示信息。
作为优选的实施方式,一种评论质量的判断装置进一步包括:
显示模块,用于在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,显示与待测评论数据对应的判断结果。
作为优选的实施方式,一种评论质量的判断装置进一步包括:
记录模块,用于在将待测评论网络图输入至评论判断模型中,利用评论判断模型输出对待测评论数据的判断结果之后,记录各待测评论数据和对应的判断结果。
图3为本发明实施例提供的一种评论质量的判断设备的结构图,如图3所示,一种评论质量的判断设备包括:
存储器31,用于存储计算机程序;
处理器32,用于执行计算机程序时实现如上述评论质量的判断方法的步骤。
本发明实施例提供的评论质量的判断设备,具有上述评论质量的判断方法的有益效果。
为解决上述技术问题,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上述评论质量的判断方法的步骤。
本发明实施例提供的计算机可读存储介质,具有上述评论质量的判断方法的有益效果。
以上对本发明所提供的评论质量的判断方法、装置、设备及计算机可读存储介质进行了详细介绍。本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
Claims (10)
1.一种评论质量的判断方法,其特征在于,包括:
根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和所述样本评论网络图训练出评论判断模型;
获取待测评论数据,并根据所述待测评论数据设置出对应的待测评论网络图;
将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果。
2.根据权利要求1所述的方法,其特征在于,所述根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和所述样本评论网络图训练出评论判断模型的过程,具体包括:
根据所述样本评论数据的所述用户信息、所述评论词和所述评论信息设置出所述样本评论网络图;
将所述样本评论网络图输入至所述图神经网络中,获取与所述样本评论网络图对应的样本网络特征;
将所述样本网络特征输入至全连接层和softmax网络中进行训练,得出所述评论判断模型。
3.根据权利要求2所述的方法,其特征在于,进一步包括:
当所述样本评论网络图的节点为与所述评论信息对应的评论节点和与所述评论词对应的词节点时,计算出所述评论节点和所述词节点之间的权重;
根据所述权重设置所述评论节点和所述词节点之间的边。
4.根据权利要求1所述的方法,其特征在于,进一步包括:
在对同一目标商品的多个待测评论数据进行质量判断时,若确定出的质量差的待测评论数据的数量大于预设数量阈值,触发提示装置发出第一提示信息。
5.根据权利要求1所述的方法,其特征在于,在所述将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果之后,进一步包括:
触发提示装置发出第二提示信息。
6.根据权利要求1所述的方法,其特征在于,在所述将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果之后,进一步包括:
显示与所述待测评论数据对应的所述判断结果。
7.根据权利要求1至6任一项所述的方法,其特征在于,在所述将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果之后,进一步包括:
记录各所述待测评论数据和对应的判断结果。
8.一种评论质量的判断装置,其特征在于,包括:
训练模块,用于根据样本评论数据的用户信息、评论词和评论信息设置出样本评论网络图,并利用图神经网络和所述样本评论网络图训练出评论判断模型;
设置模块,用于获取待测评论数据,并根据所述待测评论数据设置出对应的待测评论网络图;
判断模块,用于将所述待测评论网络图输入至所述评论判断模型中,利用所述评论判断模型输出对所述待测评论数据的判断结果。
9.一种评论质量的判断设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述的评论质量的判断方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的评论质量的判断方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598285.9A CN111861546A (zh) | 2020-06-28 | 2020-06-28 | 一种评论质量的判断方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598285.9A CN111861546A (zh) | 2020-06-28 | 2020-06-28 | 一种评论质量的判断方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111861546A true CN111861546A (zh) | 2020-10-30 |
Family
ID=72988593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010598285.9A Withdrawn CN111861546A (zh) | 2020-06-28 | 2020-06-28 | 一种评论质量的判断方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111861546A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113282704A (zh) * | 2021-05-07 | 2021-08-20 | 天津科技大学 | 一种对评论有用性进行判断和筛选的方法与装置 |
CN113779276A (zh) * | 2021-01-13 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 用于检测评论的方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929528A (zh) * | 2019-11-21 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 对语句情感分析的方法、装置、服务器及存储介质 |
CN111159395A (zh) * | 2019-11-22 | 2020-05-15 | 国家计算机网络与信息安全管理中心 | 基于图神经网络的谣言立场检测方法、装置和电子设备 |
CN111191099A (zh) * | 2019-12-30 | 2020-05-22 | 中国地质大学(武汉) | 一种基于社交媒体的用户活动类型识别方法 |
-
2020
- 2020-06-28 CN CN202010598285.9A patent/CN111861546A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929528A (zh) * | 2019-11-21 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 对语句情感分析的方法、装置、服务器及存储介质 |
CN111159395A (zh) * | 2019-11-22 | 2020-05-15 | 国家计算机网络与信息安全管理中心 | 基于图神经网络的谣言立场检测方法、装置和电子设备 |
CN111191099A (zh) * | 2019-12-30 | 2020-05-22 | 中国地质大学(武汉) | 一种基于社交媒体的用户活动类型识别方法 |
Non-Patent Citations (1)
Title |
---|
杨顺成等: "基于GCN和Bi-LSTM的微博立场检测方法", 《重庆理工大学学报(自然科学)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113779276A (zh) * | 2021-01-13 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 用于检测评论的方法和装置 |
CN113282704A (zh) * | 2021-05-07 | 2021-08-20 | 天津科技大学 | 一种对评论有用性进行判断和筛选的方法与装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11645319B1 (en) | Systems and methods for identifying issues in electronic documents | |
Kayser et al. | Extending the knowledge base of foresight: The contribution of text mining | |
CN110533974B (zh) | 一种智能组卷方法、系统和计算机可读存储介质 | |
CN109492229B (zh) | 一种跨领域情感分类方法和相关装置 | |
US9299028B2 (en) | Identifying suggestive intent in social posts | |
CN111242729A (zh) | 一种基于长短期兴趣的序列化推荐方法 | |
US20140172415A1 (en) | Apparatus, system, and method of providing sentiment analysis result based on text | |
Rhyn et al. | A machine learning approach for classifying textual data in crowdsourcing | |
CN111861546A (zh) | 一种评论质量的判断方法、装置、设备及存储介质 | |
CN111460101A (zh) | 知识点类型的识别方法、装置及处理器 | |
Jonathan et al. | Sentiment analysis of customer reviews in zomato bangalore restaurants using random forest classifier | |
Zhang et al. | Joint monitoring of post-sales online review processes based on a distribution-free EWMA scheme | |
Amirhajlou et al. | Application of data mining techniques for predicting residents' performance on pre-board examinations: A case study | |
CN112580896A (zh) | 知识点预测方法、装置、设备及存储介质 | |
Leopairote et al. | Software quality in use characteristic mining from customer reviews | |
US11269896B2 (en) | System and method for automatic difficulty level estimation | |
Yechuri et al. | Classification of Image and Text Data Using Deep Learning-Based LSTM Model. | |
CN113704459A (zh) | 一种基于神经网络的在线文本情感分析方法 | |
CN111159400B (zh) | 一种产品评论情感分类方法和系统 | |
CN110020195B (zh) | 文章推荐方法及装置、存储介质、电子设备 | |
Zhang et al. | Less is more: Rejecting unreliable reviews for product question answering | |
CN111062449A (zh) | 预测模型的训练方法、兴趣度预测方法、装置和存储介质 | |
CN110069783B (zh) | 一种答题内容评测方法及装置 | |
Nuritha et al. | Analysis of Public Perception on Organic Coffee through Text Mining Approach using Naïve Bayes Classifier | |
Darshan et al. | NLP-Powered Sentiment Analysis on the Twitter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201030 |