CN110795944A - 推荐内容处理方法及装置、情感属性确定方法及装置 - Google Patents
推荐内容处理方法及装置、情感属性确定方法及装置 Download PDFInfo
- Publication number
- CN110795944A CN110795944A CN201910964533.4A CN201910964533A CN110795944A CN 110795944 A CN110795944 A CN 110795944A CN 201910964533 A CN201910964533 A CN 201910964533A CN 110795944 A CN110795944 A CN 110795944A
- Authority
- CN
- China
- Prior art keywords
- comment information
- emotion
- attribute
- recommended content
- emotional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供一种基于人工智能的推荐内容处理方法及装置、推荐内容情感属性确定方法及装置、电子设备以及计算机可读存储介质;涉及人工智能技术领域,并涉及机器学习技术。所述推荐内容处理方法包括:获取推荐内容的多条评论信息,将评论信息转换为语义向量;分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取语义向量中的时序特征和局部特征;利用时序特征和局部特征,确定评论信息的情感属性;根据评论信息的情感属性,确定推荐内容的情感属性;根据推荐内容的情感属性,对推荐内容进行对应的处理。本公开可以提高推荐内容情感属性确定的准确性,并提高推荐系统中推荐内容的质量。
Description
技术领域
本公开涉及人工智能技术领域,具体而言,涉及一种基于人工智能的推荐内容处理方法及装置、推荐内容情感属性确定方法及装置、电子设备以及计算机可读存储介质。
背景技术
在推荐系统中,可以通过后验数据(例如转发,点赞,有效阅读/播放率等)判断推荐内容质量的高低。但是该方法对推荐内容质量的判断准确性较低,导致低质量的推荐内容不能及时处理,推荐系统中推荐内容的整体质量较低,用户体验较差。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种基于人工智能的推荐内容处理方法及装置、推荐内容情感属性确定方法及装置、电子设备以及计算机可读存储介质,进而在一定程度上克服由于相关技术的限制和缺陷而导致的推荐系统中推荐内容质量较低,用户体验较差的问题。
根据本公开的一个方面,提供一种基于人工智能的推荐内容处理方法,所述方法包括:
获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
根据所述评论信息的情感属性,确定所述推荐内容的情感属性;
根据所述推荐内容的情感属性,对所述推荐内容进行对应的处理。
在本公开的一种示例性实施例中,所述利用所述时序特征和所述局部特征,确定所述评论信息的情感属性,包括:
将所述时序特征和所述局部特征拼接后进行全连接及归一化运算,得到情感向量;
根据所述情感向量,确定所述评论信息的情感属性。
在本公开的一种示例性实施例中,所述根据所述评论信息的情感属性,确定所述推荐内容的情感属性,包括:
在预设情感属性对应的评论信息的数量满足预设条件时,确定所述推荐内容的情感属性为所述预设情感属性;
在所述预设情感属性对应的评论信息的数量不满足所述预设条件时,确定所述推荐内容的情感属性为除所述预设情感属性之外的其他情感属性。
在本公开的一种示例性实施例中,所述根据所述推荐内容的情感属性,对所述推荐内容进行对应的处理,包括:
在所述推荐内容的情感属性为所述预设情感属性时,删除所述推荐内容;
在所述推荐内容的情感属性为所述其他情感属性时,保留所述推荐内容。
在本公开的一种示例性实施例中,所述根据所述情感向量,确定所述评论信息的情感属性,包括:
将所述情感向量中最大值元素对应的情感属性,作为所述评论信息的情感属性。
在本公开的一种示例性实施例中,基于预训练模型迁移学习得到多层目标双向长短期记忆网络和多层目标卷积神经网络,包括:
将从所述预训练模型的多层双向长短期记忆网络中提取的网络参数值,迁移至初始情感属性确定模型的多层双向长短期记忆网络中;
将从所述预训练模型的多层卷积神经网络中提取的网络参数值,迁移至所述初始情感属性确定模型的多层卷积神经网络中;
获取符合预设分类规则的多条历史评论信息,并确定所述历史评论信息的情感属性;
根据所述多条历史评论信息及对应的情感属性,对所述初始情感属性确定模型进行训练,得到所述多层目标双向长短期记忆网络和所述多层目标卷积神经网络。
在本公开的一种示例性实施例中,所述根据所述多条历史评论信息及对应的情感属性,对所述初始情感属性确定模型进行训练,包括:
针对每条历史评论信息,将该历史评论信息转换为历史语义向量;
分别通过所述多层双向长短期记忆网络和所述多层卷积神经网络提取所述历史语义向量中的历史时序特征和历史局部特征;
将所述历史时序特征和所述历史局部特征拼接后进行全连接及归一化运算,得到该历史评论信息对应的预测情感向量;
根据所述预测情感向量和该历史评论信息对应的实际情感向量计算损失函数,根据所述损失函数更新所述初始情感属性确定模型,该历史评论信息对应的实际情感向量根据该历史评论信息对应的情感属性确定。
在本公开的一种示例性实施例中,所述方法还包括:
获取多条样本评论信息,确定所述样本评论信息的情感值;
根据所述多条样本评论信息及对应的情感值进行神经网络训练,得到所述预训练模型。
在本公开的一种示例性实施例中,所述根据所述多条样本评论信息及对应的情感值进行神经网络训练,得到所述预训练模型,包括:
针对每条样本评论信息,将该样本评论信息转换为样本语义向量;
分别通过所述多层双向长短期记忆网络和所述多层卷积神经网络提取所述样本语义向量中的样本时序特征和样本局部特征;
对所述样本时序特征进行全连接处理,得到第一情感预测值,对所述样本局部特征进行全连接处理,得到第二情感预测值;
对所述第一情感预测值和所述第二情感预测值进行全连接处理,得到情感预测值;
根据所述情感预测值和该样本评论信息对应的情感值计算损失函数,根据所述损失函数更新神经网络。
根据本公开的一个方面,提供一种基于人工智能的推荐内容情感属性确定方法,所述方法包括:
获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
根据所述评论信息的情感属性,确定所述推荐内容的情感属性。
根据本公开的一个方面,提供一种基于人工智能的推荐内容处理装置,所述装置包括:
评论信息语义转换模块,用于获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
时序特征和局部特征提取模块,用于分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
评论信息情感属性确定模块,用于利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
推荐内容情感属性确定模块,用于根据所述评论信息的情感属性,确定所述推荐内容的情感属性;
推荐内容处理模块,用于根据所述推荐内容的情感属性,对所述推荐内容进行对应的处理。
在本公开的一种示例性实施例中,评论信息情感属性确定模块,包括:
情感向量确定单元,用于将所述时序特征和所述局部特征拼接后进行全连接及归一化运算,得到情感向量;
情感属性确定单元,用于根据所述情感向量,确定该评论信息的情感属性。
在本公开的一种示例性实施例中,所述推荐内容情感属性确定模块,包括:
预设情感属性确定单元,用于在预设情感属性对应的评论信息的数量满足预设条件时,确定所述推荐内容的情感属性为所述预设情感属性;
其他情感属性确定单元,用于在所述预设情感属性对应的评论信息的数量不满足所述预设条件时,确定所述推荐内容的情感属性为除所述预设情感属性之外的其他情感属性。
在本公开的一种示例性实施例中,所述推荐内容处理模块,包括:
删除单元,用于在所述推荐内容的情感属性为所述预设情感属性时,删除所述推荐内容;
保留单元,用于在所述推荐内容的情感属性为所述其他情感属性时,保留所述推荐内容。
在本公开的一种示例性实施例中,所述情感属性确定单元,具体用于将所述情感向量中最大值元素对应的情感属性,作为所述评论信息的情感属性。
在本公开的一种示例性实施例中,所述装置还包括:
网络参数值迁移模块,用于将从所述预训练模型的多层双向长短期记忆网络中提取的网络参数值,迁移至初始情感属性确定模型的多层双向长短期记忆网络中;将从所述预训练模型的多层卷积神经网络中提取的网络参数值,迁移至所述初始情感属性确定模型的多层卷积神经网络中;
训练数据获取模块,用于获取符合预设分类规则的多条历史评论信息,并确定所述历史评论信息的情感属性;
网络训练模块,用于根据所述多条历史评论信息及对应的情感属性,对所述初始情感属性确定模型进行训练,得到所述多层目标双向长短期记忆网络和所述多层目标卷积神经网络。
在本公开的一种示例性实施例中,所述网络训练模块,包括:
历史语义向量确定单元,用于针对每条历史评论信息,将该历史评论信息转换为历史语义向量;
历史特征提取单元,用于分别通过所述多层双向长短期记忆网络和所述多层卷积神经网络提取所述历史语义向量中的历史时序特征和历史局部特征;
情感向量预测单元,用于将所述历史时序特征和所述历史局部特征拼接后进行全连接及归一化运算,得到该历史评论信息对应的预测情感向量;
模型更新单元,用于根据所述预测情感向量和该历史评论信息对应的实际情感向量计算损失函数,根据所述损失函数更新所述初始情感属性确定模型,该历史评论信息对应的实际情感向量根据该历史评论信息对应的情感属性确定。
在本公开的一种示例性实施例中,所述装置还包括:
样本获取模块,用于获取多条样本评论信息,确定所述样本评论信息的情感值;
预训练模型确定模块,用于根据所述多条样本评论信息及对应的情感值进行神经网络训练,得到所述预训练模型。
在本公开的一种示例性实施例中,所述预训练模型确定模块,包括:
样本语义向量确定单元,用于针对每条样本评论信息,将该样本评论信息转换为样本语义向量;
样本特征提取单元,用于分别通过所述多层双向长短期记忆网络和所述多层卷积神经网络提取所述样本语义向量中的样本时序特征和样本局部特征;
第一情感预测值确定单元,用于对所述样本时序特征进行全连接处理,得到第一情感预测值;
第二情感预测值确定单元,用于对所述样本局部特征进行全连接处理,得到第二情感预测值;
情感值预测单元,用于对所述第一情感预测值和所述第二情感预测值进行全连接处理,得到情感预测值;
网络更新单元,用于根据所述情感预测值和该样本评论信息对应的情感值计算损失函数,根据所述损失函数更新神经网络。
根据本公开的一个方面,提供一种基于人工智能的推荐内容情感属性确定装置,所述装置包括:
语义转换模块,用于获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
特征提取模块,用于分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
信息情感属性确定模块,用于利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
内容情感属性确定模块,用于根据所述评论信息的情感属性,确定所述推荐内容的情感属性。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的推荐内容处理方法中,基于预训练模型迁移学习得到多层目标双向长短期记忆网络和多层目标卷积神经网络,可以在训练数据量较少的情况下,使多层目标双向长短期记忆网络和多层目标卷积神经网络得到很好的训练。这样,通过多层目标双向长短期记忆网络和多层目标卷积神经网络可以准确提取评论信息的时序特征和局部特征,从而可以根据时序特征和局部特征提高评论信息情感属性确定的准确性,进而提高推荐内容情感属性的准确性。之后,可以根据推荐内容的情感属性,对推荐内容进行对应的处理,例如,可以将负面消极的推荐内容删除等,提高推荐系统中推荐内容的整体质量,提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了一推荐内容的负反馈选项示意图;
图2示出了一推荐内容的评论信息的示意图;
图3示意性示出了本公开实施例的基于人工智能的推荐内容处理方法的流程图;
图4示出了循环神经网络的结构示意图;
图5示出了长短期记忆网络的结构示意图;
图6示出了卷积神经网络的处理流程图;
图7示意性示出了本公开实施例的预训练模型的一种训练流程图;
图8示意性示出了本公开实施例的预训练模型的又一种训练流程图;
图9示出了本公开实施例的预训练模型的网络结构示意图;
图10示意性示出了本公开实施例的目标情感属性确定模型的一种训练流程图;
图11示出了本公开实施例的目标情感属性确定模型的网络结构示意图;
图12示意性示出了本公开实施例的目标情感属性确定模型的又一种训练流程图;
图13示意性示出了本公开实施例中确定评论信息的情感属性的流程图;
图14示出了推荐漏斗的结构示意图;
图15示出了本公开实施例中通过目标情感属性确定模型对推荐内容的处理流程图;
图16示意性示出了本公开实施例的基于人工智能的推荐内容情感属性确定方法的流程图;
图17示出了本公开实施例的基于人工智能的推荐内容处理装置的结构示意图;
图18示出了本公开实施例的基于人工智能的推荐内容情感属性确定装置的结构示意图;
图19示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在互联网应用中包括多种推荐系统,例如视频推荐系统、新闻推荐系统、浏览器首页推荐系统等,视频推荐系统可以向用户展示视频内容,新闻推荐系统可以向用户展示新闻内容,浏览器首页推荐系统可以向用户推荐浏览器首页等。目前,各种推荐系统为了对推荐内容的质量进行分析,可以对展示的推荐内容提供正反馈选项或负反馈选项,以根据用户的反馈分析推荐内容的情感属性,情感属性可以用于表示推荐内容属于高质量内容或低质量内容的原因。其中,正反馈选项表示积极的反馈,例如点赞、转发等;负反馈选项表示消极的反馈,例如,屏蔽相关视频标签/视频来源,内容质量问题,对推荐内容不敢兴趣等,负反馈选项可参见图1。但是由于操作比较繁琐,很多用户并不会选择负反馈选项或正反馈选项。例如,针对负反馈选项,负反馈率大约为0.04%,负反馈率较低。因此,通过正反馈或负反馈判断推荐内容的情感属性时,准确性较低。
通常情况下,推荐内容的评论信息往往映射出很多用户的情感属性,例如,如果推荐内容的某个方向存在质量问题(例如,视频内容不完整,封面图诱惑等等),那么,评论信息中将会有大量的或者优质评论信息反应出这个情况。参见图2,图2为一推荐内容的评论信息的示意图,可以看出,评论信息中的负面属性都偏向于:小编欺骗我们,视频中的专家言论是杜撰出来的。因此,本公开提供了一种基于人工智能的推荐内容处理方法及装置、推荐内容情感属性确定方法及装置、电子设备以及计算机可读存储介质,可以从评论信息的维度挖掘推荐内容的情感属性,根据推荐内容的情感属性对推荐内容做相应的处理。
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
参见图3,图3示意性示出了本公开实施例的基于人工智能的推荐内容处理方法的流程图,包括以下步骤:
步骤S310,获取推荐内容的多条评论信息,将评论信息转换为语义向量。
步骤S320,分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取语义向量中的时序特征和局部特征。
步骤S330,利用时序特征和局部特征,确定评论信息的情感属性。
步骤S340,根据评论信息的情感属性,确定推荐内容的情感属性。
步骤S350,根据推荐内容的情感属性,对推荐内容进行对应的处理。
本公开实施例的推荐内容处理方法中,基于预训练模型迁移学习得到多层目标双向长短期记忆网络和多层目标卷积神经网络,可以在训练数据量较少的情况下,使多层目标双向长短期记忆网络和多层目标卷积神经网络得到很好的训练。这样,通过多层目标双向长短期记忆网络和多层目标卷积神经网络可以准确提取评论信息的时序特征和局部特征,从而可以根据时序特征和局部特征提高评论信息情感属性确定的准确性,进而提高推荐内容情感属性的准确性。之后,可以根据推荐内容的情感属性,对推荐内容进行对应的处理,例如,可以将负面消极的推荐内容删除等,提高推荐系统中推荐内容的整体质量,提升用户体验。
以下对本公开实施例的技术方案进行详细阐述:
在步骤S310中,获取推荐内容的多条评论信息,将评论信息转换为语义向量。
其中,推荐内容是推荐系统向用户展示的内容,可以是视频内容、新闻内容等。而评论信息是浏览该推荐内容的用户对该推荐内容的评论,例如针对视频内容,用户可以写留言,或者发弹幕等等。评论信息包括积极的评论信息和消极的评论信息,例如,积极的评论信息可以为:干得漂亮;要点个赞;消极的评论信息可以为:被封面图片骗进来的;后面的几分钟呢,差流量呀等等。
由于评论信息是用户对推荐内容的反馈,因此可以获取该推荐内容的评论信息,根据评论信息确定推荐内容的情感属性。当然,评论信息的数量越多,确定的推荐内容的情感属性越准确,但是计算量越大,因此,评论信息的数量可以根据经验进行设置,在此不做限定。另外,评论信息可以是预先选定的时间段内的评论信息,时间段越近,越能准确反映推荐内容的情感属性。因此,预先选定的时间段可以是最近的时间段,例如,可以是当前时刻之前的一个星期或两个星期等。
需要说明的是,评论信息是由一个一个字符组成的,为了提取评论信息中的特征,可以首先将评论信息输入已经学习好的词向量词表中,转换为对应的语义向量。例如,可以通过word2vec将评论信息转换为对应的样本语义向量,其中,word2vec是可以用来产生词向量的相关模型,或者还可以通过独热编码对样本评论信息进行编码,得到语义向量等等。
步骤S320,分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取语义向量中的时序特征和局部特征。
其中,迁移学习是一种机器学习方法,通过从已学习的相关任务中转移知识来改进学习的新任务,就是把为任务A开发的模型作为初始点,重新使用在为任务B开发模型的过程中。在此,任务A对应的模型为预训练模型,在预训练模型中存在各种特征数据与权重信息,包括:与分类识别的对象本身关联比较紧密的特征数据与权重信息,以及比较共性的特征数据与权重信息,而比较共性的特征数据与信息是可以被不同的任务或者对象之间共享的,迁移学习就是要迁移共性特征数据与权重信息,从而避免再次学习这些知识,实现快速学习。这样,可以不用再重头开始设计与训练一个全新的网络,而是基于已经训练好的网络模型,在其基础上进行参数与知识迁移,只需要很少量的计算资源开销与训练时间就可以实现对新任务的支持。
对于迁移学习,任务A和任务B可以具有相似的任务场景,例如,本公开实施例的任务B为根据评论信息确定视频内容的情感属性,任务A可以是根据评论信息确定浏览器内容属于积极情感或消极情感等。目前任务A已经很好的捕捉了评论信息属于积极情感或消极情感,只是对于积极情感或消极情感的具体原因还没能把握。另外任务A对应的预训练模型在开发神经网络的时候已经消耗了较多的时间资源和计算资源,迁移学习可以将已习得的技能迁移到任务B上。
本公开实施例中,假设任务B对应的模型为目标情感属性确定模型,针对目标情感属性确定模型与预训练模型,低层网络往往抓取出推荐内容的低层特征,低层特征可以反应出评论信息的语义、文本逻辑结构等,因此,目标情感属性确定模型与预训练模型可以抓取出类似的信息,层数越高抓取的特征越高级,越能表征任务的问题,也就是在高层中两模型抓取的特征会有所区别。目标情感属性确定模型与预训练模型的低层网络中可以包含相同的网络结构,例如,两者均可以包含长短期记忆网络LSTM和卷积神经网络CNN。
本公开实施例的多层目标双向长短期记忆网络和多层目标卷积神经网络指的是目标情感属性确定模型中的网络,目标情感属性确定模型中的多层目标双向长短期记忆网络和多层目标卷积神经网络,是基于预训练模型中的多层双向长短期记忆网络和多层卷积神经网络迁移学习得到的。在确定目标情感属性确定模型时,可以将从预训练模型的多层双向长短期记忆网络中提取的网络参数值,迁移至初始情感属性确定模型的多层双向长短期记忆网络中;将从预训练模型的多层卷积神经网络中提取的网络参数值,迁移至初始情感属性确定模型的多层卷积神经网络中。之后,对初始情感属性确定模型进行训练后,得到目标情感属性确定模型,其中,初始情感属性确定模型指未经过训练的模型。
其中,长短期记忆网络是一种特殊的递归神经网络,对循环神经网络进行了改变并创造了三个门:“遗忘门”、“更新门”和“输出门”。序列性的计算使长短期记忆极度适合处理含有时间和排序信息的数据,长短期记忆也成为自然语言处理中深度学习部分的一个非常重要的模块。
图4为循环神经网络的结构示意图,节点在隐藏层传递的过程中,不仅仅考虑输入和输出的函数,其左边以及右边的传递值也会被计算进去,共同决定输出数据的值为多少。可以看出,隐藏层有一个箭头表示数据的循环更新,用于实现时间记忆功能。图5为长短期记忆网络的结构示意图,长短期记忆由三个门计算共同级联组成,其中,遗忘门决定着每个单元其前序序列的内容需要被保留多少,更新门保证着该单元下自己本身所占有的比重,输出门则决定该单元中最终输出给下一个单元的值应该如何权衡。
卷积神经网络是一个经典的前馈神经网络,它的卷积计算机理能让模型抓取出输入数据的局部相关信息,可以促进网络的拟合能力。如图6所示,图6为卷积神经网络的处理流程图,以机器人为例,卷积计算通过卷积核的乘积,传递到后一层卷积层中,抓取到了机器人“手”部的线条、纹路等低级图形特征,然后该卷积层也同样用卷积的计算来提取出其上面的局部特征,对这些线条、纹路进行局部的特征组合,抓取出更高级的空间特征,使网络学习到机器人的特点和纹路。
为了更好地抓取时序特征,本公开可以通过多层(例如,可以是两层、三层等)双向长短期记忆网络抓取语义向量中的时序特征,学习出评论信息的语序安排、逻辑结构等。为了更好地抓取局部特征,通过多层(例如,可以是两层、三层等)卷积神经网络抓取评论信息的局部特征,可以使网络挖掘出评论信息中距离、局部结构的相互依赖等。
下面对预训练模型进行详细介绍。
预训练模型与任务A相对应,即预训练模型是根据任务A训练得到的模型,预训练模型的训练过程可参见图7,包括以下步骤:
步骤S710,获取多条样本评论信息,确定样本评论信息的情感值。
本公开实施例中,样本评论信息可以是基于任务A的评论信息,例如,可以是前述的浏览器内容的评论信息。在获取样本评论信息后,可以根据样本评论信息,确定样本评论信息的情感值。其中,情感可以包括但不限于:消极情感和积极情感,如果样本评论信息反应的是存在质量问题,则该样本评论信息为消极情感样本;否则为积极情感样本。情感值是可以表示积极情感或消极情感的值,当评论信息的消极情感越大,取值可以越接近0;当评论信息的积极情感越大,取值可以越接近1。本公开实施例中,可以将积极情感对应的情感值设置为1,将消极情感对应的情感值设置为0,样本评论信息和对应的情感类别及情感值可参见表一。当然,积极情感和消极情感对应的情感值的取值也可以是其他值,本公开对此并做不限定。
表一
步骤S720,根据多条样本评论信息及对应的情感值进行神经网络训练,得到预训练模型。
在确定样本评论信息的情感值之后,即可进行神经网络训练,训练过程可参见图8,针对每条样本评论信息,包括以下步骤:
步骤S810,将该样本评论信息转换为样本语义向量。
步骤S820,分别通过多层双向长短期记忆网络和多层卷积神经网络提取样本语义向量中的样本时序特征和样本局部特征。
步骤S810、步骤S820分别与步骤S310、步骤S320中的处理过程相同,在此不再赘述。
步骤S830,对样本时序特征进行全连接处理,得到第一情感预测值,对样本局部特征进行全连接处理,得到第二情感预测值。
本公开实施例中,可以将样本时序特征通过一个单神经元的全连接层输出第一情感预测值,第一情感预测值即长短期记忆网络的权值,可以将样本局部特征通过最大池化层来输出最显著局部特征。之后,通过一个神经元的全连接曾输出第二情感预测值,第二情感预测值即卷积神经网络的权值。
步骤S840,对第一情感预测值和第二情感预测值进行全连接处理,得到情感预测值。
在得到第一情感预测值和第二情感预测值之后,对第一情感预测值和第二情感预测值进行全连接处理,可以得到综合考虑时序特征和局部特征的情感预测值,提高了情感预测值的准确性。
预训练模型的网络结构可参见图9,两层双向长短期记忆网络和两层卷积神经网络是独立运行的,在分别得到对应权重之后,再进行全连接,共同决定输出的情感预测值。
步骤S850,根据情感预测值和该样本评论信息对应的情感值计算损失函数,根据损失函数更新神经网络。
在训练的过程中,可以通过梯度下降法,根据反向传播原理,不断计算损失函数,并根据损失函数更新网络参数值,其中,损失函数可以用来估量预测值与真实值的不一致程度。在训练完成之后,损失函数的值符合要求,例如,小于预设阈值等,从而得到预训练模型。其中,预设阈值可以根据实际应用进行设置,在此不做限定。
实验表明,在样本评论信息中积极情感的数据大约为87000条,消极情感的数据为71000条时,提取10%的数据作为测试数据,另外90%作为训练数据,预测准确率为91.25%,表明预训练模型可以很好的做到情感分析的任务。
在得到预训练模型后,可以通过迁移学习确定目标情感属性确定模型,参见图10,包括以下步骤:
步骤S1010,将从预训练模型的多层双向长短期记忆网络中提取的网络参数值,迁移至初始情感属性确定模型的多层双向长短期记忆网络中;将从预训练模型的多层卷积神经网络中提取的网络参数值,迁移至初始情感属性确定模型的多层卷积神经网络中。
如前所述,预训练模型是预先学习好的模型,通过迁移学习,可以将预训练模型中的网络参数值迁移至初始情感属性确定模型。这样,可以得到初始情感属性确定模型中的部分网络参数值,对于初始情感属性确定模型中的其他网络参数值可以进行初始化。然后,在下述步骤中通过网络训练更新初始情感属性确定模型中的网络参数值。
步骤S1020,获取符合预设分类规则的多条历史评论信息,并确定历史评论信息的情感属性。
本公开实施例中,历史评论信息指的是推荐系统中各推荐内容的评论信息。获取符合预设分类规则的历史评论信息,指的是首先确定多种情感属性,多种情感属性即预设情感属性,然后获取符合上述任一情感属性的历史评论信息,对于不符合上述任一情感属性的历史评论信息,可以忽略。例如,对于低质量的推荐内容,用户的评论信息的类别通常可以包括:内容不全、封面图诱惑和封面/标题党等。对于高质量的推荐内容,用户的评论信息的类别通常可以包括:内容完整、实用性强等,在此以低质量推荐内容的评论信息为例进行说明。
对于低质量的推荐内容,各情感属性对应的评论信息可参见表二,
表二
在确定历史评论信息是否属于上述多种情感属性中的一种时,其判断方法可参见表三。
表三
需要说明的是,上述各情感属性的判断方法仅仅是示例性的,本公开并不以此为限,相关技术中的其他判断方法都属于本公开的保护范围。
步骤S1030,根据多条历史评论信息及对应的情感属性,对初始情感属性确定模型进行训练,得到目标情感属性确定模型。
本公开实施例所获取的历史评论信息中,情感属性为封面/标题党的大约有4000条,情感属性为内容不全的有6000条,情感属性为封面图诱惑的有12000条。数据量偏小,如果仅仅根据该数据量进行神经网络训练,难以让网络得到很好的训练。而通过迁移学习,即使数据量偏小的情况下,也可以使得网络具有较好的拟合能力。
下面对目标情感属性确定模型的训练过程进行详细介绍。
其中,目标情感属性确定模型的网络结构可参见图11,将目标情感属性确定模型与预训练模型进行比较,可以看出,较低层网络结构相同,较高层网络结构不同。
训练过程可参见图12,针对每条历史评论信息,包括以下步骤:
步骤S1210,将该历史评论信息转换为历史语义向量。
步骤S1220,分别通过多层双向长短期记忆网络和多层卷积神经网络提取历史语义向量中的历史时序特征和历史局部特征。
需要说明的是,步骤S1210和步骤S1220分别与上述步骤S310和步骤S320中的处理过程相同,在此不再赘述。
步骤S1230,将历史时序特征和历史局部特征拼接后进行全连接及归一化运算,得到该历史评论信息对应的预测情感向量。
本步骤中,将历史时序特征和历史局部特征进行拼接得到混合特征,之后,可以将该混合特征经过多层全连接层,学习到各自特征之间的交叉关系,最终输出预测情感向量。由于混合特征中包含了时序特征和局部特征,这样,得到的预测情感向量更加准确。
其中,预测情感向量中各元素的值表示属于各情感属性的概率,输出函数可以是Softmax函数,其公式为:
其中,fi表示情感属性i对应的权重,Si表示评论信息属于情感属性i的概率,i为1、2、3…,n表示情感属性的总类别,各情感属性对应的概率之和等于1。
步骤S1240,根据预测情感向量和该历史评论信息对应的实际情感向量计算损失函数,根据损失函数更新初始情感属性确定模型。
本公开实施例中,该历史评论信息对应的实际情感向量可以根据该历史评论信息对应的情感属性确定。具体的,首先可以添加除预设情感属性之外的其他情感属性,该其他情感属性表示不属于上述多种情感属性中的任意一种。并在此基础上设定上述预设情感属性及其他情感属性的排序,例如,设定好的排序可以为:其他情感属性、封面图诱惑、内容不全、封面/标题党。如果历史评论信息对应的情感属性为内容不全,其对应的实际情感向量即为(0,0,1,0);如果历史评论信息对应的情感属性为封面图诱惑,其对应的实际情感向量即为(0,1,0,0),以此类推,可以确定各历史评论信息对应的实际情感向量。
可以理解的是,上述预测情感向量中各元素分别表示属于其他情感属性的概率、属于封面图诱惑的概率、属于内容不全的概率和属于封面/标题党的概率。
之后,根据预测情感向量和实际情感向量计算损失函数,损失函数可以用来估量模型的预测值与实际值的不一致程度。损失函数值越小,一般表示模型的鲁棒性越好,正是损失函数指导了模型的学习。在损失函数达到目标值时,训练结束,得到目标情感属性确定模型。
其中,损失函数可以是交叉熵等,交叉熵的具体公式如下:
其中,Li表示情感属性i的损失函数值。
本公开在得到目标情感属性确定模型之后,还可以对目标情感属性确定模型的准确性进行验证。可以随机抽取视频内容的5万条评论信息作为测试数据集,同时通过人工对评论信息进行标注。分别按照内容不全、封面/标题党、封面图诱惑和其他情感属性四个维度进行判断。按照该标准得到的判断结果参见表四。
表四
内容不全 | 封面/标题党 | 封面图诱惑 | 其他情感属性 |
764 | 1287 | 632 | 47317 |
其中,包含预设情感属性的数据(表4中的前三列)所占比例较少,大约为总量的5.4%,其他情感属性的数据占了大多数,表明大部分视频内容符合标准,且评论信息大部分围绕着视频内容本身展开。利用目标情感属性确定模型对上述5万条评论信息进行预测,与表四中的数据进行准确率判断,得到的结果可参见表五。
表五
内容不全 | 封面/标题党 | 封面图诱惑 | 其他情感属性 |
93.2% | 87.8% | 84.9% | 81.6% |
可见,对于视频内容而言,目标情感属性确定模型整体预测准确率为81.98%,可以很好地确定评论信息的情感属性。
步骤S330,利用时序特征和局部特征,确定评论信息的情感属性。
在步骤S320中,可以通过目标情感属性确定模型中的低层网络(多层目标双向长短期记忆网络和多层目标卷积神经网络等)提取时序特征和局部特征。本步骤中,通过目标情感属性确定模型中的高层网络(拼接层、全连接层等)进行处理之后,即可确定评论信息的情感属性。高层网络的处理过程可参见图13,可以包括以下步骤:
步骤S1310,将时序特征和局部特征拼接后进行全连接及归一化运算,得到情感向量。
本公开实施例中,通过将时序特征和局部特征进行拼接以及全连接处理,可以学习到各自特征之间的交叉关系,从而可以提高情感向量的准确性。
步骤S1320,根据情感向量,确定该评论信息的情感属性。
本公开实施例中,在得到情感向量后,可以将情感向量中最大值元素对应的情感属性,作为该评论信息的情感属性。例如,若情感向量为(0.8,0,0.2,0),对应的情感属性即为0.8对应的情感属性,即其他情感属性。
步骤S340,根据评论信息的情感属性,确定推荐内容的情感属性。
评论信息的情感属性可以反应推荐内容的情感属性,例如,如果较多的评论信息的情感属性为某一预设情感属性,例如内容不全,可以说明该推荐内容存在内容不全的问题。因此,在预设情感属性对应的评论信息的数量满足预设条件时,确定推荐内容的情感属性为预设情感属性;在预设情感属性对应的评论信息的数量不满足预设条件时,确定推荐内容的情感属性为除预设情感属性之外的其他情感属性。
其中,预设条件可以是达到数量阈值(例如10条或20条等),还可以是在所有评论信息中的比例达到比例阈值(例如1/4000或1/2000等),在此不做限定。
步骤S350,根据推荐内容的情感属性,对推荐内容进行对应的处理。
本公开实施例中,针对低质量的推荐内容,预设情感属性是消极的情感属性,那么,在推荐内容的情感属性为预设情感属性时,可以删除推荐内容;在推荐内容的情感属性为其他情感属性时,可以保留推荐内容。这样,在发现推荐内容存在问题时,及时回溯给推荐系统以及内容侧。可以对存在问题的推荐内容进行相应的干预,例如,可以进行打压、下架等,从而提高推荐系统内容整体的质量。参见图14,图14为推荐漏斗的结构示意图,最上层的索引表示推荐系统中所有的推荐内容,下层的展控表示为用户展示的推荐内容,在将推荐内容展示后,将评论信息经过目标情感属性确定模型,将推荐内容的情感属性重新反馈于索引层进行相关内容的打压和调整。参见图15,图15为推荐漏斗中通过目标情感属性确定模型对推荐内容的处理流程图,包括以下步骤:
步骤S1510,推荐漏斗的展控层向用户展示推荐内容。
步骤S1520,针对展示的任一推荐内容,提取该推荐内容的多条评论信息。
步骤S1530,将评论信息输入目标情感属性确定模型,得到评论信息的情感属性。
步骤S1540,判断评论信息的情感属性是否满足预设条件。如果命中预设情感属性且满足预设条件(例如,预设情感属性对应的评论信息的数量达到数量阈值等),则执行步骤S1550,将该推荐内容的信息(例如行键Rowkey、内容源等)反馈给推荐漏斗的索引层,然后对该推荐内容进行打压、监控等。
如果没有命中预设情感属性,或者命中预设情感属性但是不满足预设条件,则执行步骤S1560,可以对该推荐内容不做处理。
可见,本公开可以不断发现内容侧存在负反馈方面的推荐内容,对整体的推荐漏斗进行重新审核、把关,发现内容侧的优化路线,并最终推动整个推荐系统进行改进。
需要说明的是,如前所述,推荐内容的评论信息包括积极的评论信息和消极的评论信息,通常质量较高的推荐内容的评论信息为积极的评论信息,质量较低的推荐内容的评论信息为消极的评论信息。上述评论信息以消极的评论为例进行说明,而对于高质量的推荐内容,预设情感属性是积极的情感属性,那么,在推荐内容的情感属性为预设情感属性时,可以将推荐内容排在较前的位置进行推荐;在推荐内容的情感属性为其他情感属性时,可以不做处理。
本公开实施例的推荐内容处理方法,通过迁移学习,在获取的训练数据的数量较少的情况下,也可以使得目标情感属性确定模型具有较好的拟合能力,提高预测的准确性。通过对推荐内容进行处理,可以不断优化推荐系统中的推荐内容,提高推荐内容的质量,提升用户体验。
本公开实施例还提供了一种基于人工智能的推荐内容情感属性确定方法,参见图16,包括以下步骤:
步骤S1610,获取推荐内容的多条评论信息,将评论信息转换为语义向量。
步骤S1620,分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取语义向量中的时序特征和局部特征。
步骤S1630,利用时序特征和局部特征,确定评论信息的情感属性。
步骤S1640,根据评论信息的情感属性,确定推荐内容的情感属性。
需要说明的是,上述步骤与推荐内容处理方法中的相关步骤相同,具体可参见其中的描述即可,在此不再赘述。
本公开实施例的推荐内容情感属性确定方法,通过迁移学习,在获取的训练数据的数量较少的情况下,也可以使得目标情感属性确定模型具有较好的拟合能力,提高预测的准确性。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中,还提供了一种基于人工智能的推荐内容处理装置1700,参考图17所示,包括:
评论信息语义转换模块1710,用于获取推荐内容的多条评论信息,将评论信息转换为语义向量;
时序特征和局部特征提取模块1720,用于分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取语义向量中的时序特征和局部特征;
评论信息情感属性确定模块1730,用于利用时序特征和局部特征,确定评论信息的情感属性;
推荐内容情感属性确定模块1740,用于根据评论信息的情感属性,确定推荐内容的情感属性;
推荐内容处理模块1750,用于根据推荐内容的情感属性,对推荐内容进行对应的处理。
在本公开的一种示例性实施例中,评论信息情感属性确定模块,包括:
情感向量确定单元,用于将时序特征和局部特征拼接后进行全连接及归一化运算,得到情感向量;
情感属性确定单元,用于根据情感向量,确定该评论信息的情感属性。
在本公开的一种示例性实施例中,推荐内容情感属性确定模块,包括:
预设情感属性确定单元,用于在预设情感属性对应的评论信息的数量满足预设条件时,确定推荐内容的情感属性为预设情感属性;
其他情感属性确定单元,用于在预设情感属性对应的评论信息的数量不满足预设条件时,确定推荐内容的情感属性为除预设情感属性之外的其他情感属性。
在本公开的一种示例性实施例中,推荐内容处理模块,包括:
删除单元,用于在推荐内容的情感属性为预设情感属性时,删除推荐内容;
保留单元,用于在推荐内容的情感属性为其他情感属性时,保留推荐内容。
在本公开的一种示例性实施例中,情感属性确定单元,具体用于将情感向量中最大值元素对应的情感属性,作为评论信息的情感属性。
在本公开的一种示例性实施例中,推荐内容处理装置还包括:
网络参数值迁移模块,用于将从预训练模型的多层双向长短期记忆网络中提取的网络参数值,迁移至初始情感属性确定模型的多层双向长短期记忆网络中;将从预训练模型的多层卷积神经网络中提取的网络参数值,迁移至初始情感属性确定模型的多层卷积神经网络中;
训练数据获取模块,用于获取符合预设分类规则的多条历史评论信息,并确定历史评论信息的情感属性;
网络训练模块,用于根据多条历史评论信息及对应的情感属性,对初始情感属性确定模型进行训练,得到多层目标双向长短期记忆网络和多层目标卷积神经网络。
在本公开的一种示例性实施例中,网络训练模块,包括:
历史语义向量确定单元,用于针对每条历史评论信息,将该历史评论信息转换为历史语义向量;
历史特征提取单元,用于分别通过多层双向长短期记忆网络和多层卷积神经网络提取历史语义向量中的历史时序特征和历史局部特征;
情感向量预测单元,用于将历史时序特征和历史局部特征拼接后进行全连接及归一化运算,得到该历史评论信息对应的预测情感向量;
模型更新单元,用于根据预测情感向量和该历史评论信息对应的实际情感向量计算损失函数,根据损失函数更新初始情感属性确定模型,该历史评论信息对应的实际情感向量根据该历史评论信息对应的情感属性确定。
在本公开的一种示例性实施例中,推荐内容处理装置还包括:
样本获取模块,用于获取多条样本评论信息,确定样本评论信息的情感值;
预训练模型确定模块,用于根据多条样本评论信息及对应的情感值进行神经网络训练,得到预训练模型。
在本公开的一种示例性实施例中,预训练模型确定模块,包括:
样本语义向量确定单元,用于针对每条样本评论信息,将该样本评论信息转换为样本语义向量;
样本特征提取单元,用于分别通过多层双向长短期记忆网络和多层卷积神经网络提取样本语义向量中的样本时序特征和样本局部特征;
第一情感预测值确定单元,用于对样本时序特征进行全连接处理,得到第一情感预测值;
第二情感预测值确定单元,用于对样本局部特征进行全连接处理,得到第二情感预测值;
情感值预测单元,用于对第一情感预测值和第二情感预测值进行全连接处理,得到情感预测值;
网络更新单元,用于根据情感预测值和该样本评论信息对应的情感值计算损失函数,根据损失函数更新神经网络。
本公开实施例还提供一种基于人工智能的推荐内容情感属性确定装置1800,参考图18所示,包括:
语义转换模块1810,用于获取推荐内容的多条评论信息,将评论信息转换为语义向量;
特征提取模块1820,用于分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取语义向量中的时序特征和局部特征;
信息情感属性确定模块1830,用于利用时序特征和局部特征,确定评论信息的情感属性;
内容情感属性确定模块1840,用于根据评论信息的情感属性,确定推荐内容的情感属性。
上述装置中各模块或单元的具体细节已经在对应的方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,还提供一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行本示例实施方式中上述任意一项所述的方法。
图19示出了用于实现本公开实施例的电子设备的计算机系统的结构示意图。需要说明的是,图19示出的电子设备的计算机系统1900仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图19所示,计算机系统1900包括中央处理单元(CPU)1901,其可以根据存储在只读存储器(ROM)1902中的程序或者从存储部分1908加载到随机访问存储器(RAM)1903中的程序而执行各种适当的动作和处理。在RAM 1903中,还存储有系统操作所需的各种程序和数据。CPU 1901、ROM 1902以及RAM 1903通过总线1904彼此相连。输入/输出(I/O)接口1905也连接至总线1904。
以下部件连接至I/O接口1905:包括键盘、鼠标等的输入部分1906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1907;包括硬盘等的存储部分1908;以及包括诸如局域网(LAN)卡、调制解调器等的网络接口卡的通信部分1909。通信部分1909经由诸如因特网的网络执行通信处理。驱动器1910也根据需要连接至I/O接口1905。可拆卸介质1911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1910上,以便于从其上读出的计算机程序根据需要被安装入存储部分1908。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1909从网络上被下载和安装,和/或从可拆卸介质1911被安装。在该计算机程序被中央处理单元(CPU)1901执行时,执行本申请的装置中限定的各种功能。在一些实施例中,计算机系统1900还可以包括人工智能处理器,该人工智能处理器用于处理有关机器学习的计算操作。
在本公开的示例性实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
需要说明的是,本公开所示的计算机可读存储介质例如可以是—但不限于—电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、射频等等,或者上述的任意合适的组合。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种基于人工智能的推荐内容处理方法,其特征在于,所述方法包括:
获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
根据所述评论信息的情感属性,确定所述推荐内容的情感属性;
根据所述推荐内容的情感属性,对所述推荐内容进行对应的处理。
2.根据权利要求1所述的方法,其特征在于,所述利用所述时序特征和所述局部特征,确定所述评论信息的情感属性,包括:
将所述时序特征和所述局部特征拼接后进行全连接及归一化运算,得到情感向量;
根据所述情感向量,确定所述评论信息的情感属性。
3.根据权利要求1所述的方法,其特征在于,所述根据所述评论信息的情感属性,确定所述推荐内容的情感属性,包括:
在预设情感属性对应的评论信息的数量满足预设条件时,确定所述推荐内容的情感属性为所述预设情感属性;
在所述预设情感属性对应的评论信息的数量不满足所述预设条件时,确定所述推荐内容的情感属性为除所述预设情感属性之外的其他情感属性。
4.根据权利要求3所述的方法,其特征在于,所述根据所述推荐内容的情感属性,对所述推荐内容进行对应的处理,包括:
在所述推荐内容的情感属性为所述预设情感属性时,删除所述推荐内容;
在所述推荐内容的情感属性为所述其他情感属性时,保留所述推荐内容。
5.根据权利要求2所述的方法,其特征在于,所述根据所述情感向量,确定所述评论信息的情感属性,包括:
将所述情感向量中最大值元素对应的情感属性,作为所述评论信息的情感属性。
6.根据权利要求1所述的方法,其特征在于,基于预训练模型迁移学习得到多层目标双向长短期记忆网络和多层目标卷积神经网络,包括:
将从所述预训练模型的多层双向长短期记忆网络中提取的网络参数值,迁移至初始情感属性确定模型的多层双向长短期记忆网络中;
将从所述预训练模型的多层卷积神经网络中提取的网络参数值,迁移至所述初始情感属性确定模型的多层卷积神经网络中;
获取符合预设分类规则的多条历史评论信息,并确定所述历史评论信息的情感属性;
根据所述多条历史评论信息及对应的情感属性,对所述初始情感属性确定模型进行训练,得到所述多层目标双向长短期记忆网络和所述多层目标卷积神经网络。
7.根据权利要求6所述的方法,其特征在于,所述根据所述多条历史评论信息及对应的情感属性,对所述初始情感属性确定模型进行训练,包括:
针对每条历史评论信息,将该历史评论信息转换为历史语义向量;
分别通过所述多层双向长短期记忆网络和所述多层卷积神经网络提取所述历史语义向量中的历史时序特征和历史局部特征;
将所述历史时序特征和所述历史局部特征拼接后进行全连接及归一化运算,得到该历史评论信息对应的预测情感向量;
根据所述预测情感向量和该历史评论信息对应的实际情感向量计算损失函数,根据所述损失函数更新所述初始情感属性确定模型,该历史评论信息对应的实际情感向量根据该历史评论信息对应的情感属性确定。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取多条样本评论信息,确定所述样本评论信息的情感值;
根据所述多条样本评论信息及对应的情感值进行神经网络训练,得到所述预训练模型。
9.根据权利要求8所述的方法,其特征在于,所述根据所述多条样本评论信息及对应的情感值进行神经网络训练,得到所述预训练模型,包括:
针对每条样本评论信息,将该样本评论信息转换为样本语义向量;
分别通过所述多层双向长短期记忆网络和所述多层卷积神经网络提取所述样本语义向量中的样本时序特征和样本局部特征;
对所述样本时序特征进行全连接处理,得到第一情感预测值,对所述样本局部特征进行全连接处理,得到第二情感预测值;
对所述第一情感预测值和所述第二情感预测值进行全连接处理,得到情感预测值;
根据所述情感预测值和该样本评论信息对应的情感值计算损失函数,根据所述损失函数更新神经网络。
10.一种基于人工智能的推荐内容情感属性确定方法,其特征在于,所述方法包括:
获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
根据所述评论信息的情感属性,确定所述推荐内容的情感属性。
11.一种基于人工智能的推荐内容处理装置,其特征在于,所述装置包括:
评论信息语义转换模块,用于获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
时序特征和局部特征提取模块,用于分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
评论信息情感属性确定模块,用于利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
推荐内容情感属性确定模块,用于根据所述评论信息的情感属性,确定所述推荐内容的情感属性;
推荐内容处理模块,用于根据所述推荐内容的情感属性,对所述推荐内容进行对应的处理。
12.一种基于人工智能的推荐内容情感属性确定装置,其特征在于,所述装置包括:
语义转换模块,用于获取推荐内容的多条评论信息,将所述评论信息转换为语义向量;
特征提取模块,用于分别通过基于预训练模型迁移学习得到的多层目标双向长短期记忆网络和多层目标卷积神经网络,以提取所述语义向量中的时序特征和局部特征;
信息情感属性确定模块,用于利用所述时序特征和所述局部特征,确定所述评论信息的情感属性;
内容情感属性确定模块,用于根据所述评论信息的情感属性,确定所述推荐内容的情感属性。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~10任一项所述的方法。
14.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~10任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910964533.4A CN110795944A (zh) | 2019-10-11 | 2019-10-11 | 推荐内容处理方法及装置、情感属性确定方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910964533.4A CN110795944A (zh) | 2019-10-11 | 2019-10-11 | 推荐内容处理方法及装置、情感属性确定方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110795944A true CN110795944A (zh) | 2020-02-14 |
Family
ID=69438958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910964533.4A Pending CN110795944A (zh) | 2019-10-11 | 2019-10-11 | 推荐内容处理方法及装置、情感属性确定方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110795944A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553171A (zh) * | 2020-04-09 | 2020-08-18 | 北京小米松果电子有限公司 | 语料处理方法、装置及存储介质 |
CN112069402A (zh) * | 2020-08-28 | 2020-12-11 | 山东省人工智能研究院 | 一种基于情感和图卷积神经网络的个性化评论推荐方法 |
CN112131469A (zh) * | 2020-09-22 | 2020-12-25 | 安徽农业大学 | 一种基于评论文本的深度学习推荐方法 |
CN112752133A (zh) * | 2020-03-20 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 视频播放方法、装置、电子设备以及存储介质 |
CN113468431A (zh) * | 2021-07-22 | 2021-10-01 | 咪咕数字传媒有限公司 | 基于用户行为的内容推荐方法及装置 |
CN113792588A (zh) * | 2021-08-05 | 2021-12-14 | 深兰科技(上海)有限公司 | 一种脑电波处理装置、方法、计算机设备及存储介质 |
CN114547435A (zh) * | 2020-11-24 | 2022-05-27 | 腾讯科技(深圳)有限公司 | 内容质量的识别方法、装置、设备及可读存储介质 |
WO2023035757A1 (zh) * | 2021-09-09 | 2023-03-16 | 成都齐碳科技有限公司 | 生物聚合物的表征方法、装置、设备及计算机存储介质 |
EP4111448A4 (en) * | 2020-02-24 | 2023-12-13 | Lucid Inc. | METHOD, SYSTEM AND MEDIUM FOR AFFECTIVE MUSIC RECOMMENDATION AND COMPOSITION |
CN113468431B (zh) * | 2021-07-22 | 2024-06-04 | 咪咕数字传媒有限公司 | 基于用户行为的内容推荐方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140351079A1 (en) * | 2013-05-24 | 2014-11-27 | University College Dublin | Method for recommending a commodity |
CN109241255A (zh) * | 2018-08-20 | 2019-01-18 | 华中师范大学 | 一种基于深度学习的意图识别方法 |
CN109314660A (zh) * | 2017-03-31 | 2019-02-05 | 微软技术许可有限责任公司 | 在自动聊天中提供新闻推荐 |
-
2019
- 2019-10-11 CN CN201910964533.4A patent/CN110795944A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140351079A1 (en) * | 2013-05-24 | 2014-11-27 | University College Dublin | Method for recommending a commodity |
CN109314660A (zh) * | 2017-03-31 | 2019-02-05 | 微软技术许可有限责任公司 | 在自动聊天中提供新闻推荐 |
CN109241255A (zh) * | 2018-08-20 | 2019-01-18 | 华中师范大学 | 一种基于深度学习的意图识别方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4111448A4 (en) * | 2020-02-24 | 2023-12-13 | Lucid Inc. | METHOD, SYSTEM AND MEDIUM FOR AFFECTIVE MUSIC RECOMMENDATION AND COMPOSITION |
CN112752133B (zh) * | 2020-03-20 | 2024-05-10 | 深圳市雅阅科技有限公司 | 视频播放方法、装置、电子设备以及存储介质 |
CN112752133A (zh) * | 2020-03-20 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 视频播放方法、装置、电子设备以及存储介质 |
CN111553171B (zh) * | 2020-04-09 | 2024-02-06 | 北京小米松果电子有限公司 | 语料处理方法、装置及存储介质 |
CN111553171A (zh) * | 2020-04-09 | 2020-08-18 | 北京小米松果电子有限公司 | 语料处理方法、装置及存储介质 |
CN112069402B (zh) * | 2020-08-28 | 2021-04-20 | 山东省人工智能研究院 | 一种基于情感和图卷积神经网络的个性化评论推荐方法 |
CN112069402A (zh) * | 2020-08-28 | 2020-12-11 | 山东省人工智能研究院 | 一种基于情感和图卷积神经网络的个性化评论推荐方法 |
CN112131469A (zh) * | 2020-09-22 | 2020-12-25 | 安徽农业大学 | 一种基于评论文本的深度学习推荐方法 |
CN114547435A (zh) * | 2020-11-24 | 2022-05-27 | 腾讯科技(深圳)有限公司 | 内容质量的识别方法、装置、设备及可读存储介质 |
CN113468431A (zh) * | 2021-07-22 | 2021-10-01 | 咪咕数字传媒有限公司 | 基于用户行为的内容推荐方法及装置 |
CN113468431B (zh) * | 2021-07-22 | 2024-06-04 | 咪咕数字传媒有限公司 | 基于用户行为的内容推荐方法及装置 |
CN113792588A (zh) * | 2021-08-05 | 2021-12-14 | 深兰科技(上海)有限公司 | 一种脑电波处理装置、方法、计算机设备及存储介质 |
CN113792588B (zh) * | 2021-08-05 | 2024-04-09 | 深兰科技(上海)有限公司 | 一种脑电波处理装置、方法、计算机设备及存储介质 |
WO2023035757A1 (zh) * | 2021-09-09 | 2023-03-16 | 成都齐碳科技有限公司 | 生物聚合物的表征方法、装置、设备及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN110795944A (zh) | 推荐内容处理方法及装置、情感属性确定方法及装置 | |
CN111783474B (zh) | 一种评论文本观点信息处理方法、装置及存储介质 | |
CN113627447B (zh) | 标签识别方法、装置、计算机设备、存储介质及程序产品 | |
CN113761153B (zh) | 基于图片的问答处理方法、装置、可读介质及电子设备 | |
CN116720004B (zh) | 推荐理由生成方法、装置、设备及存储介质 | |
CN113704460B (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
CN111259647A (zh) | 基于人工智能的问答文本匹配方法、装置、介质及电子设备 | |
CN111046275A (zh) | 基于人工智能的用户标签确定方法及装置、存储介质 | |
CN114969316B (zh) | 一种文本数据处理方法、装置、设备以及介质 | |
WO2023137911A1 (zh) | 基于小样本语料的意图分类方法、装置及计算机设备 | |
CN111339765A (zh) | 文本质量评估方法、文本推荐方法及装置、介质及设备 | |
CN113392651A (zh) | 训练词权重模型及提取核心词的方法、装置、设备和介质 | |
CN112257841A (zh) | 图神经网络中的数据处理方法、装置、设备及存储介质 | |
CN113761868B (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN111783903A (zh) | 文本处理方法、文本模型的处理方法及装置、计算机设备 | |
CN110532372A (zh) | 一种基于神经协同过滤挖掘深层特征的文本对象精准推送方法 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN114357204B (zh) | 媒体信息的处理方法及相关设备 | |
CN116975199A (zh) | 一种文本预测方法、装置、设备和存储介质 | |
CN116383517A (zh) | 动态传播特征增强的多模态谣言检测方法及系统 | |
CN116977885A (zh) | 视频文本任务处理方法、装置、电子设备及可读存储介质 | |
CN112036546B (zh) | 序列处理方法及相关设备 | |
CN115129930A (zh) | 一种视频的信息处理方法、装置、计算机设备和存储介质 | |
CN117711001B (zh) | 图像处理方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40022092 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |