CN109189921A - 评论评估模型的训练方法和装置 - Google Patents

评论评估模型的训练方法和装置 Download PDF

Info

Publication number
CN109189921A
CN109189921A CN201810891419.9A CN201810891419A CN109189921A CN 109189921 A CN109189921 A CN 109189921A CN 201810891419 A CN201810891419 A CN 201810891419A CN 109189921 A CN109189921 A CN 109189921A
Authority
CN
China
Prior art keywords
sample
neural network
comment
domain
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810891419.9A
Other languages
English (en)
Other versions
CN109189921B (zh
Inventor
陈岑
周俊
李小龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201810891419.9A priority Critical patent/CN109189921B/zh
Publication of CN109189921A publication Critical patent/CN109189921A/zh
Application granted granted Critical
Publication of CN109189921B publication Critical patent/CN109189921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供一种训练评论评估模型的方法和装置以及对评论进行排序的方法和装置,所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络,所述训练方法包括:获取至少一个样本,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本;将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值;以及使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小。

Description

评论评估模型的训练方法和装置
技术领域
本说明书实施例涉及文本处理技术领域,更具体地,涉及评论评估模型的训练方法和装置、以及对评论文本进行排序的方法和装置。
背景技术
伴随着网络电商的高速发展,现有网上消费者已经形成根据产品评论来判断产品好坏、服务优劣的习惯。网络电商不像传统购物,用户可以看到摸到实物。网上购物却是虚无的,用户能看到的是商家的修饰过的文字图片。因此,用户基本上基于评论来决定是否选择商品或者商家。随着越来越多的用户分享产品评论,大量商家水军的介入,这些评论质量的好坏也越来越难以判断。很多对于消费者有用(即,有信息量)的评论被埋在了大量无用的评论中。如何更好对用户评论进行排序对电商平台来说非常重要。
目前,大量的评论排序都是基于时间,点赞次数等。而基于受众面(多少比例的用户会觉得有用,有信息量)对评论的排序,越来越受到关注。然而,在训练用于某个领域的商品评论的模型时,该领域的样本数量可能很少,从而难于训练出较准确的模型。
因此,需要一种更有效的评论评估方案。
发明内容
本说明书实施例旨在提供一种更有效的评论评估方案,以解决现有技术中的不足。
为实现上述目的,本说明书一个方面提供一种训练评论评估模型的方法,所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络,所述方法包括:
获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本;
将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测;以及
使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
在一个实施例中,在所述训练评论评估模型的方法,其中所述损失函数还包括第一损失函数,所述第一损失函数对应于通过所述共享神经网络预测所述至少一个样本各自的所属域的总体准确度。
在一个实施例中,在所述训练评论评估模型的方法中,所述第一损失函数表示为与预测所述至少一个样本各自的所属域相关的信息熵的负值。
在一个实施例中,在所述训练评论评估模型的方法中,所述损失函数还包括第二损失函数,所述第二损失函数对应于通过所述目标域神经网络预测所述至少一个目标域样本各自的所属域的总体准确度的负值。
在一个实施例中,在所述训练评论评估模型的方法中,所述第二损失函数表示为与预测所述至少一个目标域样本各自的所属域相关的交叉熵。
在一个实施例中,在所述训练评论评估模型的方法中,所述损失函数还包括第三损失函数,所述第三损失函数对应于通过所述源域神经网络预测所述至少一个源域样本各自的所属域的总体准确度的负值。
在一个实施例中,在所述训练评论评估模型的方法中,所述至少一个样本中包括第一样本,其中,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值包括:
基于第一样本中包括的评论文本获取顺序排列的多个词;
基于所述多个词,获取顺序排列的多个字符;
获取输入矩阵,其中,所述输入矩阵包括与所述多个字符对应的顺序排列的多个字符向量;以及
基于所述第一样本包括的域标签值,将所述输入矩阵输入所述神经网络,以预测与所述第一样本对应的有用性评估值。
在一个实施例中,在所述训练评论评估模型的方法中,所述有用性评估值为受众面的评估值。
在一个实施例中,在所述训练评论评估模型的方法中,所述神经网络包括卷积神经网络。
本说明书另一方面提供一种对评论文本进行排序的方法,所述方法中使用通过上述模型训练方法训练的评论评估模型,所述方法包括:
获取属于所述模型的目标域的商品的多个评论文本;
将所述多个评论文本输入通过上述训练方法训练的评论评估模型,以预测所述多个评论文本各自的有用性评估值;
基于所述多个评论文本各自的有用性评估值,对所述多个评论文本进行排序。
本说明书另一方面提供一种训练评论评估模型的装置,所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络,所述装置包括:
获取单元,配置为,获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本;
预测单元,配置为,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测;以及
训练单元,配置为,使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
在一个实施例中,在所述训练评论评估模型的装置中,所述至少一个样本中包括第一样本,所述预测单元包括:
词获取子单元,配置为,基于第一样本中包括的评论文本获取顺序排列的多个词;
字符获取子单元,配置为,基于所述多个词,获取顺序排列的多个字符;
矩阵获取子单元,配置为,获取输入矩阵,其中,所述输入矩阵包括与所述多个字符对应的顺序排列的多个字符向量;以及
预测子单元,配置为,基于所述第一样本包括的域标签值,将所述输入矩阵输入所述神经网络,以预测与所述第一样本对应的有用性评估值。
本说明书另一方面提供一种对评论文本进行排序的装置,所述装置使用通过上述模型训练装置训练的评论评估模型,所述装置包括:
获取单元,配置为,获取属于所述模型的目标域的商品的多个评论文本;
预测单元,配置为,将所述多个评论文本和所述目标域对应的域标签值输入通过上述模型训练方法训练的评论评估模型,以预测所述多个评论文本各自的有用性评估值;以及
排序单元,配置为,基于所述多个评论文本各自的有用性评估值,对所述多个评论文本进行排序。
本说明书另一方面提供一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现上述训练评论评估模型的方法或对评论文本进行排序的方法。
通过根据本说明书实施例的评论评估方案和排序方案,通过迁移学习基于神经网络训练模型,节省了标注成本,并实现了模型的端到端预测。另外,基于textCNN,本说明书实施例还提出了对文本的字符粒度的向量嵌入,从而可以更好地处理新词。
附图说明
通过结合附图描述本说明书实施例,可以使得本说明书实施例更加清楚:
图1示出根据本说明书实施例的评论评估系统100的示意图;
图2示出了根据本说明书实施例的一种训练评论评估模型的方法的流程图;
图3示意示出了根据本说明书实施例的输入矩阵的示意图;
图4示出根据本说明书实施例的一种对评论文本进行排序的方法的流程图;
图5示出根据本说明书实施例的一种训练评论评估模型的装置500;
图6示出根据本说明书实施例的一种对评论文本进行排序的装置600。
具体实施方式
下面将结合附图描述本说明书实施例。
图1示出根据本说明书实施例的评论评估系统100的示意图。如图1所示,系统100中包括三个神经网络结构:源域神经网络11、共享神经网络12和目标域神经网络13。如图中所示,Xs表示源域输入,Xt表示目标域输入。其中,共享神经网络12用于学习源领域和目标领域的共有的表征,以及源域神经网络11和目标域神经网络13分别用于学习源领域和目标领域各自的独有表征,从而通过源领域较多的数据帮助训练共享神经网络12,以用于更准确地预测目标领域的输入。其中,在模型训练中,通过在损失函数中引入对抗性损失函数、源领域和目标领域各自的领域鉴别损失函数,从而进行更有效的模型训练。如图中所示,当输入Xs时,通过源域神经网络11的参数Ws和隐藏层特征hs、共享神经网络12的参数Wsc和隐藏层特征hc获取对应的有用性评估值当输入Xt时,通过共享神经网络12的参数Wtc和隐藏层特征hc、目标域神经网络13的参数Wt和隐藏层特征ht获取对应的有用性评估值另外,在共享神经网络12中,通过参数Wc和隐藏层特征hc预测各个Xs和Xt属于各个域(d=0或1)的概率。
另外,在本说明书实施例中,Xs和Xt可以包括评论文本的词嵌入和与词对应的字符嵌入,在词向量的基础上同时学习字符向量,从而可以更好地处理新词。
图2示出了根据本说明书实施例的一种训练评论评估模型的方法的流程图。所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络,所述方法包括:
在步骤S202,获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本;
在步骤S204,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测;以及
在步骤S206,使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
首先,在步骤S202,获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本。
在该实施例中,例如采用小批量梯度下降法(MBGD)进行模型的训练,也即,获取多个样本用于模型的一次训练。可以理解,对模型的训练方法不限于小批量梯度下降法,例如,当获取一个样本进行训练时,可采用随机梯度下降法进行训练,另外,还可以采用批量梯度下降法(BGD)、适应性动量估计法(Adam)、RMSprop法等本领域公知的优化算法进行模型训练。
在上述多个样本中,可包括较多的(例如ns个)源域样本,包括较少的(例如nt个)目标域样本,其中,ns≥nt,例如,ns为几十个,nt为十几个,从而可将源域的已有资源迁移到目标域中。所述源域样本包括针对源域商品(例如电子类的商品)的评论文本、对应的有用性标签值和对应的域标签值。所述目标域样本包括针对目标域商品(例如图书类的商品)的评论文本、对应的有用性标签值和对应的域标签值。这里,所述有用性标签值例如为评论文本的实际受众面,其中通过如下公式(1)计算特定商品的评论的受众面:
受众面=N0/(N0+N1) (1)
其中,N0表示认为该评论有用的用户数量,例如,其可以为评论的“点赞”数。N1表示认为该评论无用的用户数量,例如,其可以为评论的“点踩”数。可以理解,评论的有用性不限于通过上述公式(1)获得,例如,可以以N0表示评论的有用性、以-N1表示评论的有用性,等等。
域标签值即评论文本实际所属的域,在这里,以数值0或1表示,例如,当评论文本属于源域时,可将其域标签值设定为0,当评论文本属于目标域时,可将其域标签值设定为1。
在步骤S204,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测。
在一个实施例中,在将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述评论评估模型之后,对于所述至少一个样本中的每个样本,在所述模型中,首先基于样本中包括的评论文本获取顺序排列的多个词。例如,可获取评论文本中包括的顺序排列的多个词。在另一个实施例中,基于评论文本中包括的多个词,通过去除评论文本中的背景词、停用词等,从而获取顺序排列的多个词。然后,基于所述多个词,获取顺序排列的多个字符。例如,对于英文评论“very good(非常好)”,可以获取顺序排列的两个词“very”和“good”,而基于“very”和“good”,可以获取顺序排列的字符“v”、“e”、“r”、“y”、“g”、“o”、“o”和“d”。这里以英文评论为例进行说明,可以理解,该实施例方法同样适用于其他各种语言,例如,对于中文的情况,可通过预定词典对评论文本进行分词,从而获取多个词,而通过该多个词,可获取顺序排列的多个中文字符。然后,基于所述多个词和所述多个字符,可获取输入矩阵。在所述输入矩阵中可包括第一部分和第二部分,其中第一部分包括与所述多个词对应的顺序排列的多个词向量,即词嵌入,第二部分包括与所述多个字符对应的顺序排列的多个字符向量,即字符嵌入。在获取输入矩阵之后,可将其作为输入数据(如图1中的Xs或Xt)输入神经网络进行计算。词向量的获取可通过将相应的词输入现有模型获得,在此不再详细说明。字符向量可基于词向量获取,例如,通过将大量词及其对应的词向量输入神经网络进行训练,以获取各个字符的字符向量。
图3示意示出了根据本说明书实施例的输入矩阵的示意图。如图中所示,输入矩阵中包括词嵌入部分和字符嵌入部分,其中,词嵌入部分包括顺序排列的多个词向量,字符嵌入部分包括顺序排列的多个字符向量。在本说明书实施例中,以卷积神经网络(CNN)作为神经网络的示例,可以理解,所述神经网络还可以采用其它形式的神经网络,例如DNN、RNN等。在卷积神经网络中,类似于图像的卷积计算,通过使用与特定特征对应的卷积核对所述输入矩阵进行卷积,并进行最大池化,从而获取隐藏层特征,并通过全连接层的计算,获取最终输出值。上文虽然示出了在输入矩阵中包括词嵌入和字符嵌入,但是本说明书实施例不限于此,例如,输入矩阵中可以仅包括词嵌入或字符嵌入,或者还可以包括主题词嵌入等等。
当对神经网络输入Xs或Xt时,模型基于样本包括的域标签值进行处理。当域标签值为0时,该输入对应于源域,即,输入为Xs。因此,使用图1中所示的源域神经网络11和共享神经网络12对Xs进行处理。当域标签值为1时,该输入对应于目标域,即,输入为Xt。因此,使用图1中所示的共享神经网络12和目标域神经网络13对Xt进行处理。
其中,通过如下公式(2)计算与各个评论文本对应的有用性评估值:
其中,σ表示sigmoid函数,k表示样本的域标签值。如图1中所示,Wsc为共享神经网络针对Xs的参数,hc为共享神经网络的隐藏层特征,Ws为源域神经网络的参数,hs为源域神经网络的隐藏层特征,Wtc为共享神经网络针对Xt的参数,Wt为目标域神经网络的参数,ht为目标域神经网络的隐藏层特征。另外,bs和bt分别为源域和目标域的偏移参数。其中,hs=G1(Xs),hc=G2(Xk)(k=s或t),以及ht=G3(Xt)。
从上述公式(2)可见,当样本为源域样本时,即k=0,输入为Xs时,通过源域神经网络(Ws、hs、bs)和共享神经网络(Wsc、hc)对输入Xs进行计算,获得当样本为目标域样本时,即k=1,输入为Xt时,通过目标域神经网络(Wt、ht、bt)和共享神经网络(Wtc、hc)对输入Xt进行计算,获得
在步骤S206,使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
本说明书实施例中用于训练评论评估模型的损失函数可以如下面的公式(3)所示:
如公式(3)所示,其中的第一项如本领域所知表示全部样本(ns+nt)各自的有用性标签值与有用性评估值之差的平方和的平均值,其为关于对所述至少一个样本的有用性预测的损失函数。可以理解,该第一项损失函数不限于上述形式,例如,其可以为上述差的绝对值之和的形式等等。通过将公式(2)中的计算公式代入该第一项损失函数中,可通过较多(ns)的源域样本训练共享神经网络中的hc=G2(Xk),通过相对较少(nt)的目标域样本训练目标域神经网络,并微调共享神经网络中的hc和Wtc,从而达到源域样本进行迁移学习的目的。
在公式(3)中,第二项为对抗损失函数(adversarial loss),其具体如下面的公式(4)所示。
其中,
p(d|hc)=softmax(Wchc+bc) (5)
从公式(4)可见,Ladv为通过模型预测样本的所属域的信息熵的负值。根据信息熵的概念,信息熵可以描述信源的不确定性,信息熵越大,信息熵的负值越小,即不确定性越大。从而,信息熵的负值可用于表示样本预测的总体准确度,即,信息熵的负值越大,不确定性越小,也即,总体准确度越大。在公式(4)中,关于共享神经网络的隐藏层特征hc和参数Wc进行计算,即,计算通过共享神经网络预测样本的域的总体准确度。在这里,希望该总体准确度越小越好,也即,在通过使用共享神经网络对分别来自源领域和目标领域的评论文本进行计算时,当对其域的预测的总体准确度越小,说明共享神经网络越体现出对源领域样本和目标领域样本的共有表征的提取。从而,通过该对抗损失函数,可更好地训练共享神经网络中的隐藏层参数hc=G2(Xk),以用于目标域评论文本的评估。
在公式(3)中,第三项和第四项损失函数分别为源域和目标域的领域鉴别损失函数,其可通过下面的公式(6)和(7)表示。
其中,为指示函数,其在di=k为真时取1,否则取0。如公式(6)和(7)所示,Ls和Lt为对样本所属域的预测的交叉熵,并且通过的作用,使得Ls只针对源域数据(ns)和源域神经网络(hs),Lt只针对目标域数据(nt)和目标域神经网络(ht)。根据交叉熵的概念,交叉熵可衡量对样本域的预测与域标签值的相似性,交叉熵越大,相似性越小,从而,对样本域的预测的准确度越小。即,交叉熵可表示对样本域的预测的准确度的负值,交叉熵越小,准确度的负值越小,准确度越大。由于公式(6)对应于通过域神经网络对源域样本所属域的预测,公式(7)对应于通过目标域神经网络对目标域样本所述域的预测,因此,希望所述预测的准确度越大越好,也即,准确度的负值越小越好。从而通过该第三项和第四项损失函数,可更好地训练源域神经网络和目标域神经网络。
公式(3)中的第五项损失函数为对共享神经网络中的共享特征的正交约束,第六项为模型参数,其为本领域技术人员所公知的,在此不再赘述。可以理解,公式(3)只是对根据本说明书实施例的损失函数的示例表示,本说明书实施例的损失函数不限于此,例如,公式(3)中的第三项至第六项中任一项都不是必须的,可以根据具体的业务场景进行调整。另外,对抗损失函数所对应的总体准确度不一定表示为信息熵的形式,例如其也可以为交叉熵的形式。领域鉴别损失函数所对应的总体准确度也不一定表示为交叉熵的形式,例如,其也可以为信息熵的形式。
如上文所述,使用例如公式(3)所示的损失函数,可通过小批量梯度下降法对上述模型进行训练,从而优化模型参数。在实际训练中,可通过几万个源域样本、几千或一万多个目标域样本,通过多次小批量梯度下降法对上述模型进行多次训练,从而使得模型预测更加准确。另外,如上文所述,本说明书实施例中的训练方法不限于小批量梯度下降法,也可以采用例如随机梯度下降法、批量梯度下降法等优化算法,可通过参照公式(3)相应地构造损失函数,来进行通过其他算法的训练。
图4示出根据本说明书实施例的一种对评论文本进行排序的方法的流程图。所述方法中使用通过上述模型训练方法训练的评论评估模型。所述方法包括以下步骤S402-S406。
在步骤S402,获取属于所述模型的目标域的商品的多个评论文本。这里,所述商品可以是电商网站中的实物商品,也可以是电商提供的服务型商品。所述获取可以是从电商网站实时获取,也可以是定期获取。
在步骤S404,将所述多个评论文本和所述目标域对应的域标签值输入所述模型,以预测所述多个评论文本各自的有用性评估值。该步骤的具体实施可参考上文对图2的步骤S204的具体描述,在此不再赘述。
在步骤S406,基于所述多个评论文本各自的有用性评估值,对所述多个评论文本进行排序。如上文所述,所述有用性评估值可以是受众面评估值,通过将受众面更广的评论排在前面,使得用户通过浏览评论,可看到更有用的信息,有助于用户对商品的真实了解。
图5示出根据本说明书实施例的一种训练评论评估模型的装置500。所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络。所述装置包括:
获取单元51,配置为,获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本;
预测单元52,配置为,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测;以及
训练单元53,配置为,使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
在一个实施例中,在所述训练评论评估模型的装置中,所述至少一个样本中包括第一样本,所述预测单元52包括:
词获取子单元521,配置为,基于所述第一样本中包括的评论文本获取顺序排列的多个词;
字符获取子单元522,配置为,基于所述多个词,获取顺序排列的多个字符;
矩阵获取子单元523,配置为,获取输入矩阵,其中,所述输入矩阵包括与所述多个字符对应的顺序排列的多个字符向量;以及
预测子单元524,配置为,基于所述第一样本包括的域标签值,将所述输入矩阵输入所述神经网络,以预测与所述第一样本对应的有用性评估值。
图6示出根据本说明书实施例的一种对评论文本进行排序的装置600。所述装置中使用通过图5所示装置训练的评论评估模型。所述装置600包括:
获取单元61,配置为,获取属于所述模型的目标域的商品的多个评论文本;
预测单元62,配置为,将所述多个评论文本和所述目标域对应的域标签值输入所述模型,以预测所述多个评论文本各自的有用性评估值;以及
排序单元63,配置为,基于所述多个评论文本各自的有用性评估值,对所述多个评论文本进行排序。
本说明书另一方面提供一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现上述训练评论评估模型的方法或对评论文本进行排序的方法。
通过根据本说明书实施例的评论评估方案和排序方案,通过迁移学习基于神经网络训练模型,并且通过引入对抗损失函数和域鉴别损失函数,从而可以通过源域的评论数据帮助目标域神经网络学习,实现了以目标域的少量样本数据训练模型,从而进行对目标域的评论进行受众面排序,节省了标注成本,并实现了模型的端到端预测。另外,基于textCNN,本说明书实施例还提出了对文本的字符粒度的向量嵌入,从而可以更好地处理新词。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本领域普通技术人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执轨道,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执轨道的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (21)

1.一种训练评论评估模型的方法,所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络,所述方法包括:
获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本;
将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测;以及
使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
2.根据权利要求1所述的训练评论评估模型的方法,其中所述损失函数还包括第一损失函数,所述第一损失函数对应于通过所述共享神经网络预测所述至少一个样本各自的所属域的总体准确度。
3.根据权利要求2所述的训练评论评估模型的方法,其中所述第一损失函数表示为与通过所述共享神经网络预测所述至少一个样本各自的所属域相关的信息熵的负值。
4.根据权利要求1所述的训练评论评估模型的方法,其中,所述损失函数还包括第二损失函数,所述第二损失函数对应于通过所述目标域神经网络预测所述至少一个目标域样本各自的所属域的总体准确度的负值。
5.根据权利要求4所述的训练评论评估模型的方法,其中,所述第二损失函数表示为与通过所述目标域神经网络预测所述至少一个目标域样本各自的所属域相关的交叉熵。
6.根据权利要求1所述的训练评论评估模型的方法,其中,所述损失函数还包括第三损失函数,所述第三损失函数对应于通过所述源域神经网络预测所述至少一个源域样本各自的所属域的总体准确度的负值。
7.根据权利要求1所述的训练评论评估模型的方法,其中,所述至少一个样本中包括第一样本,其中,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值包括:
基于所述第一样本中包括的评论文本获取顺序排列的多个词;
基于所述多个词,获取顺序排列的多个字符;
获取输入矩阵,其中,所述输入矩阵包括与所述多个字符对应的顺序排列的多个字符向量;以及
基于所述第一样本包括的域标签值,将所述输入矩阵输入所述神经网络,以预测与所述第一样本对应的有用性评估值。
8.根据权利要求1所述的训练评论评估模型的方法,其中,所述有用性评估值为受众面的评估值。
9.根据权利要求1所述的训练评论评估模型的方法,其中,所述神经网络包括卷积神经网络。
10.一种对评论文本进行排序的方法,所述方法使用通过权利要求1-9任一项所述的方法训练的评论评估模型,所述方法包括:
获取属于所述模型的目标域的商品的多个评论文本;
将所述多个评论文本和所述目标域对应的域标签值输入所述模型,以预测所述多个评论文本各自的有用性评估值;以及
基于所述多个评论文本各自的有用性评估值,对所述多个评论文本进行排序。
11.一种训练评论评估模型的装置,所述评论评估模型包括神经网络,所述神经网络包括源域神经网络、目标域神经网络和共享神经网络,所述装置包括:
获取单元,配置为,获取至少一个样本,所述样本包括评论文本、有用性标签值和域标签值,所述至少一个样本包括至少一个源域样本和/或至少一个目标域样本,其中,所述源域样本包括针对源域商品的评论文本,所述目标域样本包括针对目标域商品的评论文本;
预测单元,配置为,将所述至少一个样本各自包括的评论文本和域标签值输入当前的所述模型,以预测与所述至少一个样本分别对应的至少一个有用性评估值,其中,与所述至少一个源域样本分别对应的至少一个有用性评估值通过所述源域神经网络和所述共享神经网络预测,与所述至少一个目标域样本分别对应的至少一个有用性评估值通过所述目标域神经网络和所述共享神经网络预测;以及
训练单元,配置为,使用所述至少一个样本、和与所述至少一个样本分别对应的所述至少一个有用性评估值训练所述模型,以使得,相比于训练前,训练后的所述模型的损失函数减小,其中,所述损失函数包括关于对所述至少一个样本的有用性预测的损失函数。
12.根据权利要求11所述的训练评论评估模型的装置,其中所述损失函数还包括第一损失函数,所述第一损失函数对应于通过所述共享神经网络预测所述至少一个样本各自的所属域的总体准确度。
13.根据权利要求12所述的训练评论评估模型的装置,其中所述第一损失函数表示为与通过所述共享神经网络预测所述至少一个样本各自的所属域相关的信息熵的负值。
14.根据权利要求11所述的训练评论评估模型的装置,其中,所述损失函数还包括第二损失函数,所述第二损失函数对应于通过所述目标域神经网络预测所述至少一个目标域样本各自的所属域的总体准确度的负值。
15.根据权利要求14所述的训练评论评估模型的装置,其中,所述第二损失函数表示为与通过所述目标域神经网络预测所述至少一个目标域样本各自的所属域相关的交叉熵。
16.根据权利要求11所述的训练评论评估模型的装置,其中,所述损失函数还包括第三损失函数,所述第三损失函数对应于通过所述源域神经网络预测所述至少一个源域样本各自的所属域的总体准确度的负值。
17.根据权利要求11所述的训练评论评估模型的装置,其中,所述至少一个样本中包括第一样本,所述预测单元包括:
词获取子单元,配置为,基于所述第一样本中包括的评论文本获取顺序排列的多个词;
字符获取子单元,配置为,基于所述多个词,获取顺序排列的多个字符;
矩阵获取子单元,配置为,获取输入矩阵,其中,所述输入矩阵包括与所述多个字符对应的顺序排列的多个字符向量;以及
预测子单元,配置为,基于所述第一样本包括的域标签值,将所述输入矩阵输入所述神经网络,以预测与所述第一样本对应的有用性评估值。
18.根据权利要求11所述的训练评论评估模型的装置,其中,所述有用性评估值为受众面的评估值。
19.根据权利要求11所述的训练评论评估模型的装置,其中,所述神经网络包括卷积神经网络。
20.一种对评论文本进行排序的装置,所述装置使用通过权利要求11-19任一项所述的装置训练的评论评估模型,所述装置包括:
获取单元,配置为,获取属于所述模型的目标域的商品的多个评论文本;
预测单元,配置为,将所述多个评论文本和所述目标域对应的域标签值输入所述模型,以预测所述多个评论文本各自的有用性评估值;以及
排序单元,配置为,基于所述多个评论文本各自的有用性评估值,对所述多个评论文本进行排序。
21.一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-10中任一项所述的方法。
CN201810891419.9A 2018-08-07 2018-08-07 评论评估模型的训练方法和装置 Active CN109189921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810891419.9A CN109189921B (zh) 2018-08-07 2018-08-07 评论评估模型的训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810891419.9A CN109189921B (zh) 2018-08-07 2018-08-07 评论评估模型的训练方法和装置

Publications (2)

Publication Number Publication Date
CN109189921A true CN109189921A (zh) 2019-01-11
CN109189921B CN109189921B (zh) 2021-09-07

Family

ID=64920943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810891419.9A Active CN109189921B (zh) 2018-08-07 2018-08-07 评论评估模型的训练方法和装置

Country Status (1)

Country Link
CN (1) CN109189921B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110162995A (zh) * 2019-04-22 2019-08-23 阿里巴巴集团控股有限公司 评估数据贡献程度的方法及其装置
CN110414631A (zh) * 2019-01-29 2019-11-05 腾讯科技(深圳)有限公司 基于医学图像的病灶检测方法、模型训练的方法及装置
CN110414845A (zh) * 2019-07-31 2019-11-05 阿里巴巴集团控股有限公司 针对目标交易的风险评估方法及装置
CN110659744A (zh) * 2019-09-26 2020-01-07 支付宝(杭州)信息技术有限公司 训练事件预测模型、评估操作事件的方法及装置
CN112115257A (zh) * 2019-06-20 2020-12-22 百度在线网络技术(北京)有限公司 用于生成信息评估模型的方法和装置
CN113762501A (zh) * 2021-04-20 2021-12-07 京东城市(北京)数字科技有限公司 预测模型的训练方法、装置、设备和存储介质
CN115019061A (zh) * 2022-08-03 2022-09-06 清华大学 一种基于深度神经网络信息熵估计的熵优化方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090141969A1 (en) * 2007-11-29 2009-06-04 Nec Laboratories America, Inc. Transfer Learning Methods and systems for Feed-Forward Visual Recognition Systems
CN101710338A (zh) * 2009-11-24 2010-05-19 清华大学 一种基于公共隐空间的异构网络排序方法
US20130013539A1 (en) * 2011-01-13 2013-01-10 International Business Machines Corporation System and method for domain adaption with partial observation
US20140101081A1 (en) * 2008-12-16 2014-04-10 Microsoft Corporation Sentiment classification using out of domain data
CN104239554A (zh) * 2014-09-24 2014-12-24 南开大学 跨领域跨类别的新闻评论情绪预测方法
US20170024641A1 (en) * 2015-07-22 2017-01-26 Qualcomm Incorporated Transfer learning in neural networks
CN107341146A (zh) * 2017-06-23 2017-11-10 上海交通大学 基于语义槽内部结构的可迁移口语语义解析系统及其实现方法
CN107704926A (zh) * 2017-11-23 2018-02-16 清华大学 一种大数据跨领域分析的深度迁移学习方法
CN108229658A (zh) * 2017-12-27 2018-06-29 深圳先进技术研究院 基于有限样本的物体检测器的实现方法及装置
CN108304876A (zh) * 2018-01-31 2018-07-20 国信优易数据有限公司 分类模型训练方法、装置及分类方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090141969A1 (en) * 2007-11-29 2009-06-04 Nec Laboratories America, Inc. Transfer Learning Methods and systems for Feed-Forward Visual Recognition Systems
US20140101081A1 (en) * 2008-12-16 2014-04-10 Microsoft Corporation Sentiment classification using out of domain data
CN101710338A (zh) * 2009-11-24 2010-05-19 清华大学 一种基于公共隐空间的异构网络排序方法
US20130013539A1 (en) * 2011-01-13 2013-01-10 International Business Machines Corporation System and method for domain adaption with partial observation
CN104239554A (zh) * 2014-09-24 2014-12-24 南开大学 跨领域跨类别的新闻评论情绪预测方法
US20170024641A1 (en) * 2015-07-22 2017-01-26 Qualcomm Incorporated Transfer learning in neural networks
CN107341146A (zh) * 2017-06-23 2017-11-10 上海交通大学 基于语义槽内部结构的可迁移口语语义解析系统及其实现方法
CN107704926A (zh) * 2017-11-23 2018-02-16 清华大学 一种大数据跨领域分析的深度迁移学习方法
CN108229658A (zh) * 2017-12-27 2018-06-29 深圳先进技术研究院 基于有限样本的物体检测器的实现方法及装置
CN108304876A (zh) * 2018-01-31 2018-07-20 国信优易数据有限公司 分类模型训练方法、装置及分类方法及装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JUN DENG ET.AL: "Linked Source and Target Domain Subspace Feature Transfer Learning -- Exemplified by Speech Emotion Recognition", 《2014 22ND INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 *
ZHONGLING HUANG ET.AL: "Transfer Learning with Deep Convolutional Neural Network for SAR Target Classification with Limited Labeled Data", 《REMOTE SENSING》 *
余传明等: "基于深度表示学习的跨领域情感分析", 《数据分析与知识发现》 *
庄福振 等: "基于混合正则化的无标签领域的归纳迁移学习", 《科学通报》 *
曲昭伟等: "基于迁移学习的分层注意力网络情感分析算法", 《计算机应用》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414631A (zh) * 2019-01-29 2019-11-05 腾讯科技(深圳)有限公司 基于医学图像的病灶检测方法、模型训练的方法及装置
CN110414631B (zh) * 2019-01-29 2022-02-01 腾讯科技(深圳)有限公司 基于医学图像的病灶检测方法、模型训练的方法及装置
CN110162995A (zh) * 2019-04-22 2019-08-23 阿里巴巴集团控股有限公司 评估数据贡献程度的方法及其装置
CN110162995B (zh) * 2019-04-22 2023-01-10 创新先进技术有限公司 评估数据贡献程度的方法及其装置
CN112115257A (zh) * 2019-06-20 2020-12-22 百度在线网络技术(北京)有限公司 用于生成信息评估模型的方法和装置
CN112115257B (zh) * 2019-06-20 2023-07-14 百度在线网络技术(北京)有限公司 用于生成信息评估模型的方法和装置
CN110414845A (zh) * 2019-07-31 2019-11-05 阿里巴巴集团控股有限公司 针对目标交易的风险评估方法及装置
CN110414845B (zh) * 2019-07-31 2023-09-19 创新先进技术有限公司 针对目标交易的风险评估方法及装置
CN110659744A (zh) * 2019-09-26 2020-01-07 支付宝(杭州)信息技术有限公司 训练事件预测模型、评估操作事件的方法及装置
CN110659744B (zh) * 2019-09-26 2021-06-04 支付宝(杭州)信息技术有限公司 训练事件预测模型、评估操作事件的方法及装置
CN113762501A (zh) * 2021-04-20 2021-12-07 京东城市(北京)数字科技有限公司 预测模型的训练方法、装置、设备和存储介质
CN115019061A (zh) * 2022-08-03 2022-09-06 清华大学 一种基于深度神经网络信息熵估计的熵优化方法

Also Published As

Publication number Publication date
CN109189921B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN109189921A (zh) 评论评估模型的训练方法和装置
Shazeer et al. Swivel: Improving embeddings by noticing what's missing
Li et al. Discourse parsing with attention-based hierarchical neural networks
Iturbide et al. A framework for species distribution modelling with improved pseudo-absence generation
Bucak et al. Incremental subspace learning via non-negative matrix factorization
CN107515855B (zh) 一种结合表情符的微博情感分析方法和系统
Ewers et al. Using landscape history to predict biodiversity patterns in fragmented landscapes
JP2020523699A (ja) 関心点コピーの生成
CN103325061B (zh) 一种社区发现方法和系统
CN109933780A (zh) 使用深度学习技术确定文档中的上下文阅读顺序
CN109829775A (zh) 一种物品推荐方法、装置、设备及可读存储介质
CN109816438B (zh) 信息推送方法及装置
CN103886047A (zh) 面向流式数据的分布式在线推荐方法
CN109189922A (zh) 评论评估模型的训练方法和装置
CN111581966A (zh) 一种融合上下文特征方面级情感分类方法和装置
CN110134885A (zh) 一种兴趣点推荐方法、装置、设备以及计算机存储介质
CN108268439A (zh) 文本情感的处理方法及装置
CN110489574A (zh) 一种多媒体信息推荐方法、装置和相关设备
CN105335375B (zh) 主题挖掘方法和装置
CN110472062A (zh) 识别命名实体的方法及装置
JP2020140673A (ja) 学習装置、情報出力装置、及びプログラム
Andreassen et al. Parameter estimation using neural networks in the presence of detector effects
CN108805291B (zh) 一种网络表示学习模型的训练方法及服务器
Li et al. Is Synthetic Data From Diffusion Models Ready for Knowledge Distillation?
Tao TSP Problem solution based on improved Genetic Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40002640

Country of ref document: HK

TA01 Transfer of patent application right

Effective date of registration: 20201009

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201009

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant