CN114201516A - 一种用户画像构建的方法、信息推荐的方法以及相关装置 - Google Patents
一种用户画像构建的方法、信息推荐的方法以及相关装置 Download PDFInfo
- Publication number
- CN114201516A CN114201516A CN202010915739.0A CN202010915739A CN114201516A CN 114201516 A CN114201516 A CN 114201516A CN 202010915739 A CN202010915739 A CN 202010915739A CN 114201516 A CN114201516 A CN 114201516A
- Authority
- CN
- China
- Prior art keywords
- emotion
- target
- label
- feature vector
- emotion classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 107
- 238000010276 construction Methods 0.000 title claims abstract description 34
- 230000008451 emotion Effects 0.000 claims abstract description 663
- 239000013598 vector Substances 0.000 claims description 454
- 238000003860 storage Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 16
- 238000002372 labelling Methods 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 abstract description 33
- 230000000694 effects Effects 0.000 abstract description 16
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 38
- 241000251468 Actinopterygii Species 0.000 description 30
- 230000007246 mechanism Effects 0.000 description 26
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000013461 design Methods 0.000 description 10
- 230000007935 neutral effect Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000002996 emotional effect Effects 0.000 description 8
- 239000002775 capsule Substances 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000005065 mining Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000002354 daily effect Effects 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种基于人工智能技术实现的用户画像构建方法,该方法可基于大数据实现如下方法,具体包括:获取目标用户的目标属性标签;根据目标属性标签获取M个信息类别所对应的关联信息;基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签;根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。本申请实施例还提供了一种信息推荐的方法以及相关装置。本申请可以在构建用户画像的过程中加入了情感分类标签,由此,更加深入地刻画了用户对于属性标签的情感倾向程度,从而增强对于用户的全面理解,进而能够提升信息推荐效果。
Description
技术领域
本申请涉及人工智能领域以及大数据领域,尤其涉及一种用户画像构建的方法、信息推荐的方法以及相关装置。
背景技术
用户画像包括用户相关的属性标签,利用这些属性标签能够对用户进行多方面的特征描述。基于用户画像可以针对性地为用户提供服务,例如,基于用户画像推送商品信息,基于用户画像推送音乐,或者基于用户画像推送好友信息等,基于此,用户画像在各领域得到了广泛的应用。
目前,在用户画像的构建主要依赖于打标签的方式,例如,用户在手机应用或者购物网站留下了浏览信息,这些浏览信息可作为挖掘属性标签的依据,经过挖掘后,将挖掘到的属性标签作为该用户的用户画像。
然而,通过数据挖掘方式得到的用户画像是片面的,例如,对于某个用户而言,虽然会经常搜索与“电脑”相关的信息,但并不意味着该用户对“电脑”感兴趣,如果基于该用户的用户画像为其推荐“电脑”相关的信息,会导致推荐效果较差。
发明内容
本申请实施例提供了一种用户画像构建的方法、信息推荐的方法以及相关装置,可以在构建用户画像的过程中加入了情感分类标签,由此,更加深入地刻画了用户对于属性标签的情感倾向程度,从而增强对于用户的全面理解,进而能够提升信息推荐效果。
有鉴于此,本申请一方面提供一种用户画像构建的方法,包括:
获取目标用户的目标属性标签,其中,目标用户对应于目标用户标识;
根据目标属性标签获取M个信息类别所对应的关联信息,其中,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,其中,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度;
根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。
本申请另一方面提供一种信息推荐的方法,包括:
获取目标用户所对应的用户画像,其中,用户画像包括目标属性标签、目标用户标识以及目标情感分类标签之间的对应关系,目标情感分类标签为情感预测模型基于M个信息类别所对应的关联信息以及目标属性标签获取的,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
若用户画像所包括的目标情感分类标签满足信息推荐条件,则根据目标属性标签确定推荐信息;
向目标用户标识所对应的终端设备发送推荐信息,以使终端设备展示推荐信息。
本申请另一方面提供一种用户画像构建装置,包括:
获取模块,用于获取目标用户的目标属性标签,其中,目标用户对应于目标用户标识;
获取模块,还用于根据目标属性标签获取M个信息类别所对应的关联信息,其中,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
获取模块,还用于基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,其中,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度;
构建模块,用于根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。
在一种可能的设计中,在本申请实施例的另一方面的一种实现方式中,
获取模块,具体用于根据目标属性标签获取文本类别所对应的文本信息,其中,文本类别属于M个信息类别中的一个信息类别;
基于文本信息,通过情感预测模型所包括的文本编码器获取文本特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于文本特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于基于文本特征向量以及标签特征向量,通过情感预测模型所包括的文本注意力网络获取第一特征向量;
基于第一特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于根据目标属性标签获取图像类别所对应的图像信息,其中,图像类别属于M个信息类别中的一个信息类别;
基于图像信息,通过情感预测模型所包括的图像编码器获取图像特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于基于图像特征向量以及标签特征向量,通过情感预测模型所包括的图像注意力网络获取第二特征向量;
基于是第二特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于根据目标属性标签获取视频类别所对应的视频信息,其中,视频类别属于M个信息类别中的一个信息类别;
基于视频信息,通过情感预测模型所包括的视频编码器获取视频特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于基于视频特征向量以及标签特征向量,通过情感预测模型所包括的视频注意力网络获取第三特征向量;
基于是第三特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于根据目标属性标签获取文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息,其中,文本类别、图像类别以及视频类别均属于M个信息类别中的信息类别;
基于文本信息,通过情感预测模型所包括的文本编码器获取文本特征向量;
基于图像信息,通过情感预测模型所包括的图像编码器获取图像特征向量;
基于视频信息,通过情感预测模型所包括的视频编码器获取视频特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于文本特征向量、图像特征向量、视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于基于文本特征向量以及标签特征向量,通过情感预测模型所包括的文本注意力网络获取第一特征向量;
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的图像注意力网络获取第二特征向量;
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的视频注意力网络获取第三特征向量;
基于第一特征向量、第二特征向量以及第三特征向量,通过情感预测模型所包括的目标注意力网络获取目标特征向量;
基于目标特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,用户画像构建装置还包括训练模块;
获取模块,还用于获取K个待训练数据,其中,每个待训练数据对应于属性标注标签以及情感分类标注标签,且每个待训练数据包括M个信息类别所对应的待训练关联信息,K为大于或等于1的整数;
获取模块,还用于针对于每个待训练数据以及每个待训练数据所对应的属性标注标签,通过待训练情感预测模型获取情感分类预测标签;
训练模块,用于根据每个待训练数据所对应的情感分类预测标签以及情感分类标注标签,采用损失函数对待训练情感预测模型进行训练,直至满足模型训练条件,得到情感预测模型。
本申请另一方面提供一种信息推荐装置,包括:
获取模块,用于获取目标用户所对应的用户画像,其中,用户画像包括目标属性标签、目标用户标识以及目标情感分类标签之间的对应关系,目标情感分类标签为情感预测模型基于M个信息类别所对应的关联信息以及目标属性标签获取的,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
确定模块,用于若用户画像所包括的目标情感分类标签满足信息推荐条件,则根据目标属性标签确定推荐信息;
发送模块,用于向目标用户标识所对应的终端设备发送推荐信息,以使终端设备展示推荐信息。
本申请另一方面提供一种计算机设备,包括:存储器、收发器、处理器以及总线系统;
其中,存储器用于存储程序;
处理器用于执行存储器中的程序,处理器用于根据程序代码中的指令执行上述各方面所提供的方法;
总线系统用于连接存储器以及处理器,以使存储器以及处理器进行通信。
本申请的另一方面提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述各方面的方法。
本申请的另一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方面所提供的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,提供了一种用户画像构建的方法,首先获取目标用户的目标属性标签,然后可以根据目标属性标签获取M个信息类别所对应的关联信息,再基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,最后根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。通过上述方式,在构建用户画像的过程中加入了情感分类标签,由此,更加深入地刻画了用户对于属性标签的情感倾向程度,从而增强对于用户的全面理解,进而能够提升信息推荐效果。
附图说明
图1为本申请实施例中信息推荐系统的一个架构示意图;
图2为本申请实施例中用户画像构建方法的一个流程示意图;
图3为本申请实施例中用户画像构建方法的一个实施例示意图;
图4为本申请实施例中采集文本信息的一个界面示意图;
图5为本申请实施例中单模态情感预测模型的一个结构示意图;
图6为本申请实施例中基于注意力机制的单模态情感预测模型的一个结构示意图;
图7为本申请实施例中采集图像信息的一个界面示意图;
图8为本申请实施例中单模态情感预测模型的一个结构示意图;
图9为本申请实施例中基于注意力机制的单模态情感预测模型的另一个结构示意图;
图10为本申请实施例中采集视频信息的一个界面示意图;
图11为本申请实施例中单模态情感预测模型的一个结构示意图;
图12为本申请实施例中基于注意力机制的单模态情感预测模型的另一个结构示意图;
图13为本申请实施例中多模态情感预测模型的一个结构示意图;
图14为本申请实施例中基于注意力机制的多模态情感预测模型的一个结构示意图;
图15为本申请实施例中多模态情感预测模型的另一个结构示意图;
图16为本申请实施例中多模态情感预测模型的另一个结构示意图;
图17为本申请实施例中多模态情感预测模型的另一个结构示意图;
图18为本申请实施例中信息推荐方法的一个实施例示意图;
图19为本申请实施例中基于用户画像实现信息推荐的一个示意图;
图20为本申请实施例中用户画像构建装置的一个实施例示意图;
图21为本申请实施例中信息推荐装置的一个实施例示意图;
图22为本申请实施例中计算机设备的一个结构示意图。
具体实施方式
本申请实施例提供了一种用户画像构建的方法、信息推荐的方法以及相关装置,可以在构建用户画像的过程中加入了情感分类标签,由此,更加深入地刻画了用户对于属性标签的情感倾向程度,从而增强对于用户的全面理解,进而能够提升信息推荐效果。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在数据越来越重要的年代,基于云技术(cloud technology)得到的大数据(bigdata)成为了非常重要的资源。基于大数据刻画不同用户的用户画像已经成为了信息化的基础,用户画像是通过分析和挖掘用户尽可能多的数据得到的。用户画像的应用方式有多种。
下面将分别介绍几种用户画像的应用方式。
第一种为广告推荐,例如,用户在搜索引擎、信息流产品、视频网站以及电视上看到的广告,可能都是经过对用户画像进行分析后定向推送的。对于企业而言,通过用户画像中不同的属性标签组合,可以圈定一批目标用户进行精准营销。
第二种为日常取数,支撑业务部门的日常取数的需求,也可作为其他系统的数据支撑来源,便于跟进业务情况,及时调整或改进现有业务。
第三种为业务分析,属性标签可以更好地连接数据和业务人员,降低数据获取和操作的难度,使得业务人员能够参与到数据分析中,并且便于业务人员维度和开发业务。
下面将结合云技术再对大数据进行介绍。
云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
大数据是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。随着云时代的来临,大数据也吸引了越来越多的关注,大数据需要特殊的技术,以有效地处理大量的容忍经过时间内的数据。适用于大数据的技术,包括大规模并行处理数据库、数据挖掘、分布式文件系统、分布式数据库、云计算平台、互联网和可扩展的存储系统。
为了更好地理解本申请提供的方法,下面将介绍一些术语和概念。
1、属性标签,表示某个类目下的具体分类,例如,类目为“游戏”,其对应的属性标签可以包括“三国杀”、“爱跑酷”以及“射击游戏”等。又例如,类目为“教育”,其对应的属性标签可以包括“本科”、“研究生”以及“留学”等。
2、情感分类标签,表示用户针对于属性标签的情感倾向程度,例如,情感分类标签为“正向(positive)”,即表示用户对某个属性标签是感兴趣的。又例如,情感分类标签为“负向(negative)”,即表示用户对某个属性标签是讨厌的。又例如,情感分类标签为“中性(neutral)”,即表示用户对某个属性标签既不讨厌也不喜欢。实际情况下,还可以对情感分类标签做更细致的划分。
3、情感分类语料,例如,文本信息为“我很喜欢这家餐厅的烤鱼,非常好吃。”,其中,“烤鱼”为属性标签,属性标签“烤鱼”对应的情感分类标签为“正向”。“价格”也为属性标签,属性标签“价格”对应的情感分类标签为“负向”。
4、用户标识,用于识别用户身份的标识,同一个用户具有相同的用户标识。用户标识的类型有多种,包含但不仅限于序列号、用户名、邮箱地址、手机号码、固定电话、社交账号、媒体访问控制(Media Access Control,MAC)地址以及国际移动设备识别码(International Mobile Equipment Identity,IMEI)等。
5、情感分析(Sentiment Analysis),也称为观点(意见)挖掘(Opinion Mining),是指用自然语言处理(Nature Language processing,NLP)、文本挖掘以及计算机语言学等方法来识别和提取原素材中的主观信息。
自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
通常来说,情感分析的目的是为了找出用户在某些话题上或者针对一个文本的观点和态度。这个态度或许是个人判断或评估,也许是当时的情感状态,就是说用户在做出这个言论时的情绪状态,或是用户有意向的情感交流,即用户想要读者体验的情绪。
6、分词系统,用于对文本进行分词处理。文本的粒度一般包含单字、词语、句子、段落以及篇章等级别,例如,文本为“今天天气真好”,其中,单字级别为“今”、“天”、“天”、“气”、“真”和“好”。词语级别为“今天”,“天气”,“真”,“好”。句子级别为“今天天气真好”。段落和篇章级别均是针对更广泛的定义。分词系统则可以将输入文本切分为词语级别的表示形式。
7、人工智能,是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请提出了一种信息推荐的方法,该方法应用于图1所示的信息推荐系统,如图所示,信息推荐系统包括服务器和终端设备,且客户端部署于终端设备上,客户端包含但不仅限于社交类客户端、游戏客户端、网购客户端、视频客户端、音乐客户端以及浏览器客户端等,用户通过客户端输入文本信息,或者通过客户端查看图像信息以及视频信息等,这些信息均可上报至服务器,由服务器按照用户标识进行信息分析,提取同一个用户标识下的属性标签。服务器通过情感预测模型输出每个属性标签所对应的情感分类标签,并将属性标签及其对应的情感分类标签添加至该用户标识对应的用户画像中。由此,在向用户推荐信息时,不但需要考虑用户的属性标签,还需要进一步考虑该属性标签对应的情感分类标签,从而达到更好的推荐效果。
本申请涉及的服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端设备可以是智能手机、平板电脑、笔记本电脑、掌上电脑、个人电脑、智能电视、智能手表等,但并不局限于此。终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。服务器和终端设备的数量也不做限制。
基于此,下面将结合图2介绍构建用户画像的过程,请参阅图2,图2为本申请实施例中用户画像构建方法的一个流程示意图,如图所示,具体地:
在步骤S1中,首先需要构建属性标签以及情感分类标签的数据集。具体地,数据集包括训练集、验证集和测试集,且数据集包括M个类型的数据输入,其中,数据集中的数据都是经过标注的。
在步骤S2中,利用步骤S1中得到的数据集训练情感预测模型,其中,情感预测模型可以是单模态的情感预测模型,也可以是多模态的情感预测模型。
在步骤S3中,抽取验证集上表现最好的模型作为最终的情感预测模型。
在步骤S4中,使用训练好的情感预测模型构建用户画像,并更新用户画像系统,从而实现对用户的每个属性标签进行情感分析。
结合上述介绍,下面将对本申请中用户画像构建的方法进行介绍,请参阅图3,本申请实施例中用户画像构建方法的一个实施例包括:
101、获取目标用户的目标属性标签,其中,目标用户对应于目标用户标识;
本实施例中,用户画像构建装置可通过目标用户标识,从数据源中提取目标用户的某个属性标签,即得到目标属性标签。目标属性标签可以为某个类目下的标签内容,例如,类目为“游戏”,目标属性标签为“三国杀”。其中,数据源可来源于大数据,也可来源于其他渠道,例如企业网站、社区论坛、移动应用以及第三方数据等。
需要说明的是,本申请中的用户画像构建装置部署于计算机设备,该计算机设备可以是服务器,也可以是终端设备,本申请以用户画像构建装置部署于服务器为例进行介绍,然而这不应理解为对本申请的限定。
102、根据目标属性标签获取M个信息类别所对应的关联信息,其中,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
本实施例中,用户画像构建装置可基于目标属性标签,获取M个信息类别所对应的关联信息。可以理解的是,M个信息类别包含但不仅限于文本类别、图像类别、视频类别以及语音类别。而关联信息即为对应信息类别下的数据内容,例如,信息类别为文本类别,则关联信息可以为一条或多条文本信息。例如,信息类别为图像类别,则关联信息可以为一张或多张图像信息。例如,信息类别为视频类别,则关联信息可以为一个或多个视频信息。例如,信息类别为语音类别,则关联信息可以为一条或多条语音信息。
其中,语音类别的关联信息在识别的过程中可采用自动语音识别技术(AutomaticSpeech Recognition,ASR)和语音合成技术(Text To Speech,TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来被看好的人机交互方式之一。
103、基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,其中,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度;
本实施例中,用户画像构建装置将每个信息类别下的关联信息以及目标属性标签,输入至已训练好的情感预测模型中,由情感预测模型输出一个目标情感分类标签,该目标情感分类标签表示目标用户对于目标属性标签的情感倾向程度。其中,目标情感分类标签为情感分类标签集合中的某一个情感分类标签,可以理解的是,情感分类标签集合中包括至少两类情感分类标签,例如,情感分类标签集合包括“正向”的情感分类标签以及“负向”的情感分类标签。又例如,情感分类标签集合包括“正向”的情感分类标签、“中性”的情感分类标签以及“负向”的情感分类标签。又例如,情感分类标签集合包括“非常正向”的情感分类标签、“正向”的情感分类标签、“中性”的情感分类标签、“负向”的情感分类标签以及“非常负向”的情感分类标签,本申请不做限定。
104、根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。
本实施例中,用户画像构建装置根据目标属性标签和目标情感分类标签,将其加入至目标用户标识对应的用户画像。假设目标属性标签为“三国杀”,目标情感分类标签为“正向”的情感分类标签,目标用户标识为“42837597843547896”,基于此,以表1为例,表1为目标用户标识对应的用户画像的一个示意。
表1
其中,“42837597843547896”为目标用户的目标用户标识,目标属性标签为“三国杀”,目标情感分类标签为“正向”,其他的属性标签及其对应的情感分类标签也属于该目标用户的用户画像。由于用户在不同时间段内对同一个属性标签可能会有不同的情感,因此,用户画像中的情感分类标签也可以做周期性更新,例如,每间隔1个月对全量的情感分类标签进行一次更新,或,在检测到某个情感分类标签发生变化时进行更新,此处不做限定。
需要说明的是,在本申请中,以获取目标用户在目标属性标签所对应的目标情感分类标签为例进行说明,在实际情况下,用户画像构建装置可以获取大量用户的属性标签集合,并基于属性标签集合分别获取每个属性标签对应的情感分类标签。
本申请实施例中,提供了一种用户画像构建的方法,首先获取目标用户的目标属性标签,然后可以根据目标属性标签获取M个信息类别所对应的关联信息,再基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,最后根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。通过上述方式,在构建用户画像的过程中加入了情感分类标签,由此,更加深入地刻画了用户对于属性标签的情感倾向程度,从而增强对于用户的全面理解,进而能够提升信息推荐效果。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据目标属性标签获取M个信息类别所对应的关联信息,具体包括如下步骤:
根据目标属性标签获取文本类别所对应的文本信息,其中,文本类别属于M个信息类别中的一个信息类别;
基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,具体包括如下步骤:
基于文本信息,通过情感预测模型所包括的文本编码器获取文本特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于文本特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本实施例中,介绍了一种针对文本信息预测情感分类标签的方法。以信息类别为文本类别为例,首先,可基于目标用户标识获取目标用户发表的文本内容,基于这些文本内容可提取目标属性标签,进而获取与目标属性标签相关的文本信息。其中,文本信息可以包括一个或多个文本,如果包括多个文本,即可将多个文本拼接起来,得到一个长文本,可以理解的是,本实施例以文本信息中包括一条文本为例进行说明,然而这不应理解为对本申请的限定。
具体地,为了便于理解,请参阅图4,图4为本申请实施例中采集文本信息的一个界面示意图,如图所示,以微博评论场景为例,目标用户可在评论区发表评论,例如,“上周跟哥们去吃烤鱼,真的是太赞了,推荐大家团建的时候一起去吃呀”,基于此,该评论即作为文本信息,目标属性标签为“烤鱼”,目标用户标识为“42837597843547896”。
基于此,请参阅图5,图5为本申请实施例中单模态情感预测模型的一个结构示意图,如图所示,将文本信息(例如,“上周跟哥们去吃烤鱼,真的是太赞了,推荐大家团建的时候一起去吃呀”)输入至情感预测模型所包括的文本编码器(encoder-text),由该文本编码器输出文本特征向量。类似地,将目标属性标签(例如,“烤鱼”)输入至情感预测模型所包括的标签编码器(encoder-tag),由该标签编码器输出标签特征向量。
再对文本特征向量以及标签特征向量进行拼接,得到合并特征向量,或者,对文本特征向量以及标签特征向量进行求平均处理,得到合并特征向量。将合并特征向量输入至情感预测模型所包括的全连接网络,由全连接网络输出情感分类向量。假设情感分类标签集合包括3类情感分类标签,则情感分类向量包括3个概率值,即N等于情感分类标签的类别数量,基于此,得到的情感分类向量可以表示为(a,b,c),且a+b+c=1。其中,概率值a对应于“正向”的情感分类标签,概率值b对应于“中性”的情感分类标签,概率值c对应于“负向”的情感分类标签。假设情感分类向量为(0.7,0.1,0.2),则概率值0.7对应的“正向”情感分类标签即为目标情感分类标签。即得到目标用户对目标属性标签“烤鱼”的情感态度是正向的。
需要说明的是,文本特征向量和标签特征向量可以为128维或者256维,还可以是其他的维度,合并特征向量可以为128维或者256维,此处不做限定。
其次,本申请实施例中,提供了一种针对文本信息预测情感分类标签的方法,通过上述方式,利用单模态的情感预测模型对文本信息进行分析,能够有效地将目标属性标签和文本信息结合起来,输出所需的目标情感分类标签。基于此,可以结合实际情况,选择针对文本信息进行分析的单模态情感预测模型,从而提升方案的灵活性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于文本特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,具体包括如下步骤:
基于文本特征向量以及标签特征向量,通过情感预测模型所包括的文本注意力网络获取第一特征向量;
基于第一特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本实施例中,介绍了一种基于注意力机制输出情感分类向量的方法,下面将结合前述实施例进行介绍。
具体地,请参阅图6,图6为本申请实施例中基于注意力机制的单模态情感预测模型的一个结构示意图,如图所示,结合上述实施例可知,将文本编码器输出的文本特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的文本注意力网络(attention-text),由文本注意力网络输出第一特征向量。即利用标签特征向量对每个词语的特征向量采用注意力机制的运算,即得到文本信息和目标属性标签同时作用的向量表示,最后,通过全连接层输出对应的情感分类向量,根据情感分类向量确定目标情感分类标签。
需要说明的是,文本编码器包含分词以及对分词后的文本信息进行编码操作,而标签编码器可以直接对目标属性标签进行编码。需要说明的是,编码方式可以采用transformer的变种双向编码器表示(Bidirectional Encoder Representation fromTransformers,BERT)、长短期记忆(Long Short-Term Memory,LSTM)网络、门控循环单元(Gated Recurrent Unit,GRU)网络或者卷积神经网络(Convolutional Neural Networks,CNN)等,此处不做限定。
其中,BERT是一种先进的文本表示方法,可以将输入的文本表示为一个低维密集的向量,低维密集向量通常不超过一千维,向量中每个元素均不是0,而是一个小数。对应的高维稀疏向量一般超过一千维,向量中绝大部分元素是0。
LSTM网络是一种时间循环神经网络,是为了解决一般的循环神经网络(RecurrentNeural Network,RNN)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。
GRU网络是LSTM网络的一种效果很好的变体,相较于LSTM网络的结构更加简单,而且效果也很好,因此也是当前非常流形的一种网络。GRU网络也是可以解决RNN网络中的长依赖问题。在LSTM网络中引入了三个门函数,即输入门、遗忘门和输出门来分别控制输入值、记忆值和输出值。而在GRU网络中只有两个门,分别是更新门和重置门。
CNN中的卷积操作可以集中于某个视野域进行局部运算,以窗口的形式进行立体滑动,即可得到输入整体的一种高阶表示。多层卷机和视野分层很相似。
再次,本申请实施例中,提供了一种基于注意力机制输出情感分类向量的方法,通过上述方式,由于不同的文本信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的一些文本内容,从而提高情感预测模型的性能。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据目标属性标签获取M个信息类别所对应的关联信息,具体包括如下步骤:
根据目标属性标签获取图像类别所对应的图像信息,其中,图像类别属于M个信息类别中的一个信息类别;
基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,具体包括如下步骤:
基于图像信息,通过情感预测模型所包括的图像编码器获取图像特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本实施例中,介绍了一种针对图像信息预测情感分类标签的方法。以信息类别为图像类别为例,首先,可基于目标用户标识获取目标用户浏览的图像内容,基于这些图像内容可提取目标属性标签,进而获取与目标属性标签相关的图像信息。其中,图像信息可以包括一个或多个图像,如果包括多个图像,即可对多个图像求平均,得到一个图像,可以理解的是,本实施例以图像信息中包括一个图像为例进行说明,然而这不应理解为对本申请的限定。
具体地,为了便于理解,请参阅图7,图7为本申请实施例中采集图像信息的一个界面示意图,如图所示,以搜索引擎场景为例,目标用户可在搜索栏中输入词语,例如,“烤鱼”,搜索引擎反馈至少一张与“烤鱼”相关的图像信息,目标用户可以查看这些图像,也可以点赞图像。其中,目标属性标签为“烤鱼”,目标用户标识为“42837597843547896”。
基于此,请参阅图8,图8为本申请实施例中单模态情感预测模型的一个结构示意图,如图所示,将图像信息(例如,包括“烤鱼”的图像)输入至情感预测模型所包括的图像编码器(encoder-figure),由该图像编码器输出图像特征向量。类似地,将目标属性标签(例如,“烤鱼”)输入至情感预测模型所包括的标签编码器,由该标签编码器输出标签特征向量。
再对图像特征向量以及标签特征向量进行拼接,得到合并特征向量,或者,对图像特征向量以及标签特征向量进行求平均处理,得到合并特征向量。将合并特征向量输入至情感预测模型所包括的全连接网络,由全连接网络输出情感分类向量。假设情感分类标签集合包括3类情感分类标签,则情感分类向量包括3个概率值,即N等于情感分类标签的类别数量,基于此,得到的情感分类向量可以表示为(a,b,c),且a+b+c=1。其中,概率值a对应于“正向”的情感分类标签,概率值b对应于“中性”的情感分类标签,概率值c对应于“负向”的情感分类标签。假设情感分类向量为(0.7,0.1,0.2),则概率值0.7对应的“正向”情感分类标签即为目标情感分类标签。即得到目标用户对目标属性标签“烤鱼”的情感态度是正向的。
需要说明的是,图像特征向量和标签特征向量可以为128维或者256维,还可以是其他的维度,合并特征向量可以为128维或者256维,此处不做限定。
其次,本申请实施例中,提供了一种针对图像信息预测情感分类标签的方法,通过上述方式,利用单模态的情感预测模型对图像信息进行分析,能够有效地将目标属性标签和图像信息结合起来,输出所需的目标情感分类标签。基于此,可以结合实际情况,选择针对图像信息进行分析的单模态情感预测模型,从而提升方案的灵活性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于图像特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,具体包括如下步骤:
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的图像注意力网络获取第二特征向量;
基于是第二特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本实施例中,介绍了一种基于注意力机制输出情感分类向量的方法,下面将结合前述实施例进行介绍。
具体地,请参阅图9,图9为本申请实施例中基于注意力机制的单模态情感预测模型的另一个结构示意图,如图所示,结合上述实施例可知,将图像编码器输出的图像特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的图像注意力网络(attention-figure),由图像注意力网络输出第二特征向量。即利用标签特征向量对图像区域的特征向量采用注意力机制的运算,即得到图像信息和目标属性标签同时作用的向量表示,最后,通过全连接层输出对应的情感分类向量,根据情感分类向量确定目标情感分类标签。
需要说明的是,图像编码器包含对图像信息进行编码操作,而标签编码器可以直接对目标属性标签进行编码。需要说明的是,对图像信息进行编码的方式可以采用胶囊(Capsule)网络或者CNN等。对目标属性标签进行编码的方式可以采用BERT、LSTM网络、GRU网络或者CNN等,此处不做限定。
其中,Capsule网络是一组神经元,它们在其输入上执行一些非常复杂的内部计算,可以对客观世界进行更好的描述(如加入概率值、形状以及大小等),可以避免只使用一个向量刻画客观世界的局限性。遵循这一概念,可以为每个要素设计一个单独的胶囊,以此可以更好的进行建模。
本申请中,对图像信息进行识别的技术即为计算机视觉技术(Computer Vision,CV),计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别(OpticalCharacter Recognition,OCR)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
再次,本申请实施例中,提供了一种基于注意力机制输出情感分类向量的方法,通过上述方式,由于不同的图像信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的一些图像内容,从而提高情感预测模型的性能。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据目标属性标签获取M个信息类别所对应的关联信息,具体包括如下步骤:
根据目标属性标签获取视频类别所对应的视频信息,其中,视频类别属于M个信息类别中的一个信息类别;
基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,具体包括如下步骤:
基于视频信息,通过情感预测模型所包括的视频编码器获取视频特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本实施例中,介绍了一种针对视频信息预测情感分类标签的方法。以信息类别为视频类别为例,首先,可基于目标用户标识获取目标用户浏览的视频内容,基于这些视频内容可提取目标属性标签,进而获取与目标属性标签相关的视频信息。其中,视频信息可以包括一个或多个视频,如果包括多个视频,即可将多个视频连接在一起,得到一个视频,可以理解的是,本实施例以视频信息中包括一个视频为例进行说明,然而这不应理解为对本申请的限定。
具体地,为了便于理解,请参阅图10,图10为本申请实施例中采集视频信息的一个界面示意图,如图所示,以视频平台场景为例,目标用户可在搜索栏中输入视频相关的名称,例如,“烤鱼”,视频平台反馈与“烤鱼”相关的视频信息,目标用户可以播放这些视频。其中,目标属性标签为“烤鱼”,目标用户标识为“42837597843547896”。
基于此,请参阅图11,图11为本申请实施例中单模态情感预测模型的一个结构示意图,如图所示,将视频信息(例如,包括“烤鱼”的视频)输入至情感预测模型所包括的视频编码器(encoder-video),由该视频编码器输出视频特征向量。类似地,将目标属性标签(例如,“烤鱼”)输入至情感预测模型所包括的标签编码器,由该标签编码器输出标签特征向量。
再对视频特征向量以及标签特征向量进行拼接,得到合并特征向量,或者,对视频特征向量以及标签特征向量进行求平均处理,得到合并特征向量。将合并特征向量输入至情感预测模型所包括的全连接网络,由全连接网络输出情感分类向量。假设情感分类标签集合包括3类情感分类标签,则情感分类向量包括3个概率值,即N等于情感分类标签的类别数量,基于此,得到的情感分类向量可以表示为(a,b,c),且a+b+c=1。其中,概率值a对应于“正向”的情感分类标签,概率值b对应于“中性”的情感分类标签,概率值c对应于“负向”的情感分类标签。假设情感分类向量为(0.7,0.1,0.2),则概率值0.7对应的“正向”情感分类标签即为目标情感分类标签。即得到目标用户对目标属性标签“烤鱼”的情感态度是正向的。
需要说明的是,视频特征向量和标签特征向量可以为128维或者256维,还可以是其他的维度,合并特征向量可以为128维或者256维,此处不做限定。
其次,本申请实施例中,提供了一种针对视频信息预测情感分类标签的方法,通过上述方式,利用单模态的情感预测模型对视频信息进行分析,能够有效地将目标属性标签和视频信息结合起来,输出所需的目标情感分类标签。基于此,可以结合实际情况,选择针对视频信息进行分析的单模态情感预测模型,从而提升方案的灵活性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,具体包括如下步骤:
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的视频注意力网络获取第三特征向量;
基于是第三特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本实施例中,介绍了一种基于注意力机制输出情感分类向量的方法,下面将结合前述实施例进行介绍。
具体地,请参阅图12,图12为本申请实施例中基于注意力机制的单模态情感预测模型的另一个结构示意图,如图所示,结合上述实施例可知,将视频编码器输出的视频特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的视频注意力网络(attention-video),由视频注意力网络输出第三特征向量。即利用标签特征向量对视频中每帧图像的特征向量采用注意力机制的运算,即得到视频信息和目标属性标签同时作用的向量表示,最后,通过全连接层输出对应的情感分类向量,根据情感分类向量确定目标情感分类标签。
需要说明的是,视频编码器包含对视频信息进行编码操作,而标签编码器可以直接对目标属性标签进行编码。需要说明的是,对视频信息进行编码的方式可以采用Capsule网络或CNN网络,结合LSTM网络或GRU网络等。对目标属性标签进行编码的方式可以采用BERT、LSTM网络、GRU网络或者CNN等,此处不做限定。
再次,本申请实施例中,提供了一种基于注意力机制输出情感分类向量的方法,通过上述方式,由于不同的视频信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的一些视频内容,从而提高情感预测模型的性能。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据目标属性标签获取M个信息类别所对应的关联信息,具体包括如下步骤:
根据目标属性标签获取文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息,其中,文本类别、图像类别以及视频类别均属于M个信息类别中的信息类别;
基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,具体包括如下步骤:
基于文本信息,通过情感预测模型所包括的文本编码器获取文本特征向量;
基于图像信息,通过情感预测模型所包括的图像编码器获取图像特征向量;
基于视频信息,通过情感预测模型所包括的视频编码器获取视频特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于文本特征向量、图像特征向量、视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本实施例中,介绍了一种针对文本信息、图像信息以及视频信息共同预测情感分类标签的方法。以M个信息类别包括文本类别、图像类别和视频类别为例,可基于目标用户标识获取目标用户发表的文本内容,基于这些文本内容可提取目标属性标签,进而获取与目标属性标签相关的文本信息。基于目标用户标识获取目标用户浏览的图像内容,基于这些图像内容可提取目标属性标签,进而获取与目标属性标签相关的图像信息。基于目标用户标识获取目标用户浏览的视频内容,基于这些视频内容可提取目标属性标签,进而获取与目标属性标签相关的视频信息。其中,文本信息可以包括一个或多个文本,图像信息可以包括一个或多个图像,视频信息可以包括一个或多个视频。
具体地,请参阅图13,图13为本申请实施例中多模态情感预测模型的一个结构示意图,如图所示,将文本信息(例如,“上周跟哥们去吃烤鱼,真的是太赞了,推荐大家团建的时候一起去吃呀”)输入至情感预测模型所包括的文本编码器,由该文本编码器输出文本特征向量。类似地,将图像信息(例如,包括“烤鱼”的图像)输入至情感预测模型所包括的图像编码器,由该图像编码器输出图像特征向量。类似地,将视频信息(例如,包括“烤鱼”的视频)输入至情感预测模型所包括的视频编码器,由该视频编码器输出视频特征向量。类似地,将目标属性标签(例如,“烤鱼”)输入至情感预测模型所包括的标签编码器,由该标签编码器输出标签特征向量。
再对文本特征向量、图像特征向量、视频特征向量以及标签特征向量进行拼接,得到合并特征向量,或者,对文本特征向量、图像特征向量、视频特征向量以及标签特征向量进行求平均处理,得到合并特征向量。将合并特征向量输入至情感预测模型所包括的全连接网络,由全连接网络输出情感分类向量。假设情感分类标签集合包括3类情感分类标签,则情感分类向量包括3个概率值,即N等于情感分类标签的类别数量,基于此,得到的情感分类向量可以表示为(a,b,c),且a+b+c=1。其中,概率值a对应于“正向”的情感分类标签,概率值b对应于“中性”的情感分类标签,概率值c对应于“负向”的情感分类标签。假设情感分类向量为(0.7,0.1,0.2),则概率值0.7对应的“正向”情感分类标签即为目标情感分类标签。即得到目标用户对目标属性标签“烤鱼”的情感态度是正向的。
需要说明的是,文本特征向量、图像特征向量、视频特征向量以及标签特征向量可以为128维或者256维,还可以是其他的维度,合并特征向量可以为128维或者256维,此处不做限定。
可以理解的是,文本编码器和标签编码器可以采用BERT、LSTM网络、GRU网络或者CNN等。图像编码器可以采用Capsule网络或者CNN等。视频编码器可以采用Capsule网络或CNN网络,结合LSTM网络或GRU网络等,此处不做限定。
其次,本申请实施例中,提供了一种针对文本信息、图像信息以及视频信息共同预测情感分类标签的方法,通过上述方式,利用多模态的情感预测模型对多个维度的信息进行分析,能够有效地将目标属性标签与不同类型的信息结合起来,输出所需的目标情感分类标签。基于此,能够从多个角度分析用户对属性标签的情感,从而提升情感分类标签的准确性,有利于更好地分析用户的喜好。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于文本特征向量、图像特征向量、视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,具体包括如下步骤:
基于文本特征向量以及标签特征向量,通过情感预测模型所包括的文本注意力网络获取第一特征向量;
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的图像注意力网络获取第二特征向量;
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的视频注意力网络获取第三特征向量;
基于第一特征向量、第二特征向量以及第三特征向量,通过情感预测模型所包括的目标注意力网络获取目标特征向量;
基于目标特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本实施例中,介绍了一种基于注意力机制输出情感分类向量的方法,下面将结合前述实施例进行介绍。
具体地,请参阅图14,图14为本申请实施例中基于注意力机制的多模态情感预测模型的一个结构示意图,如图所示,结合上述实施例可知,将文本编码器输出的文本特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的文本注意力网络,由文本注意力网络输出第一特征向量。并且,将图像编码器输出的图像特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的图像注意力网络,由图像注意力网络输出第二特征向量。并且,将视频编码器输出的视频特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的视频注意力网络,由视频注意力网络输出第三特征向量。最后,将第一特征向量、第二特征向量和第三特征向量输入至全连接层,由此输出对应的情感分类向量,根据情感分类向量确定目标情感分类标签。
基于上述介绍可知,多模态的情感预测模型还可以有如下几种变形,在实际应用中,还可以增加更多维度的信息类别作为衡量情感分类标签的依据,例如,使用语音信息分析等,此处不做详述。下面将介绍三种多模态情感预测模型的变形。
第一种,结合文本信息与图像信息输出目标情感分类标签;
为了便于说明,请参阅图15,图15为本申请实施例中多模态情感预测模型的另一个结构示意图,如图15中的(A)图所示,将文本信息输入至文本编码器,由该文本编码器输出文本特征向量。类似地,将图像信息输入至图像编码器,由该图像编码器输出图像特征向量。类似地,将目标属性标签输入至情感预测模型所包括的标签编码器,由该标签编码器输出标签特征向量。再根据文本特征向量、图像特征向量以及标签特征向量得到合并特征向量。将合并特征向量输入至全连接网络,由全连接网络输出情感分类向量,进而预测得到目标情感分类标签。
如图15中的(B)图所示,将文本编码器输出的文本特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的文本注意力网络,由文本注意力网络输出第一特征向量。并且,将图像编码器输出的图像特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的图像注意力网络,由图像注意力网络输出第二特征向量。最后,将第一特征向量和第二特征向量输入至全连接层,由此输出对应的情感分类向量,进而预测得到目标情感分类标签。
第二种,结合文本信息与视频信息输出目标情感分类标签;
为了便于说明,请参阅图16,图16为本申请实施例中多模态情感预测模型的另一个结构示意图,如图16中的(A)图所示,将文本信息输入至文本编码器,由该文本编码器输出文本特征向量。类似地,将视频信息输入至视频编码器,由该视频编码器输出视频特征向量。类似地,将目标属性标签输入至情感预测模型所包括的标签编码器,由该标签编码器输出标签特征向量。再根据文本特征向量、视频特征向量以及标签特征向量得到合并特征向量。将合并特征向量输入至全连接网络,由全连接网络输出情感分类向量,进而预测得到目标情感分类标签。
如图16中的(B)图所示,将文本编码器输出的文本特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的文本注意力网络,由文本注意力网络输出第一特征向量。并且,将视频编码器输出的视频特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的视频注意力网络,由视频注意力网络输出第三特征向量。最后,将第一特征向量和第三特征向量输入至全连接层,由此输出对应的情感分类向量,进而预测得到目标情感分类标签。
第三种,结合图像信息与视频信息输出目标情感分类标签;
为了便于说明,请参阅图17,图17为本申请实施例中多模态情感预测模型的另一个结构示意图,如图17中的(A)图所示,将图像信息输入至图像编码器,由该图像编码器输出图像特征向量。类似地,将视频信息输入至视频编码器,由该视频编码器输出视频特征向量。类似地,将目标属性标签输入至情感预测模型所包括的标签编码器,由该标签编码器输出标签特征向量。再根据图像特征向量、视频特征向量以及标签特征向量得到合并特征向量。将合并特征向量输入至全连接网络,由全连接网络输出情感分类向量,进而预测得到目标情感分类标签。
如图17中的(B)图所示,将图像编码器输出的图像特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的图像注意力网络,由图像注意力网络输出第二特征向量。并且,将视频编码器输出的视频特征向量与标签编码器输出的标签特征向量,共同输入至情感预测模型所包括的视频注意力网络,由视频注意力网络输出第三特征向量。最后,将第二特征向量和第三特征向量输入至全连接层,由此输出对应的情感分类向量,进而预测得到目标情感分类标签。
再次,本申请实施例中,提供了一种基于注意力机制输出情感分类向量的方法,通过上述方式,由于不同的文本信息、图像信息和视频信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的内容,从而提高情感预测模型的性能。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还包括如下步骤:
获取K个待训练数据,其中,每个待训练数据对应于属性标注标签以及情感分类标注标签,且每个待训练数据包括M个信息类别所对应的待训练关联信息,K为大于或等于1的整数;
针对于每个待训练数据以及每个待训练数据所对应的属性标注标签,通过待训练情感预测模型获取情感分类预测标签;
根据每个待训练数据所对应的情感分类预测标签以及情感分类标注标签,采用损失函数对待训练情感预测模型进行训练,直至满足模型训练条件,得到情感预测模型。
本实施例中,介绍了一种训练情感预测模型的方法。在训练情感预测模型之前,需要构建数据集,数据集包括三个部分,分别为训练集、验证集和测试集。为了便于说明,本实施例以数据集中取出的K个待训练数据为例进行介绍,在实际训练中,还可以结合更多的待训练数据进行训练,此处不做赘述。
具体地,K个待训练数据的每个待训练数据包括M个信息类别所对应的待训练关联信息,待训练关联信息可以是待训练的文本信息、待训练的图像信息、待训练的视频信息以及待训练的语音信息中的至少一种。其中,M个信息类别与实际预测的信息类别一致,即训练和预测具有一致性,K个待训练数据中的每个待训练数据均对应于已标注的属性标注标签以及已标注的情感分类标注标签,情感分类标注标签即为真实值。
由此,将每个待训练数据及其对应的属性标注标签输入至训练情感预测模型,由该训练情感预测模型输出预测得到的情感分类预测标签,其中,情感分类预测标签即为预测值。基于K个情感分类预测标签以及K个已标注的情感分类标注标签,采用交叉熵损失函数可计算得到损失值,可以理解的是,还可以采用其他类型的损失函数进行计算,此处不做限定。
假设情感预测模型预测的情感分类标签包括“正向”情感分类标签以及“负向”情感分类标签,则采用如下的二分类交叉熵损失函数即可计算损失值:
其中,L表示损失值,i表示第i个待训练数据,T表示待训练数据的总数,Li表示第i个损失值,yi表示第i个待训练数据对应的情感分类标注标签,pi表示第i个待训练数据为“正向”情感分类标签的概率。
假设情感预测模型预测的情感分类标签包括三个或三个以上的情感分类标签,则采用如下的多分类交叉熵损失函数即可计算损失值:
其中,L表示损失值,i表示第i个待训练数据,T表示待训练数据的总数,N表示情感分类标签的类别总数,Li表示第i个损失值,yic表示第i个待训练数据对应的情感分类标注标签,pic表示第i个待训练数据为第c类情感分类标签的概率。
当损失值达到收敛时,可以确定满足模型训练条件,或者,当训练迭代次数达到阈值时,也可以确定满足模型训练条件,本申请不做限定。
本申请采用机器学习(Machine Learning,ML)实现模型训练,机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
进一步地,本申请实施例中,提供了一种训练情感预测模型的方法,通过上述方式,利用已经标注好的数据集训练情感预测模型,从而提升方案的可行性。
结合上述介绍,下面将对本申请中信息推荐的方法进行介绍,请参阅图18,本申请实施例中信息推荐方法的一个实施例包括:
201、获取目标用户所对应的用户画像,其中,用户画像包括目标属性标签、目标用户标识以及目标情感分类标签之间的对应关系,目标情感分类标签为情感预测模型基于M个信息类别所对应的关联信息以及目标属性标签获取的,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
本实施例中,信息推荐装置可以调用数据库中大量用户的用户画像,以向任意一个用户(即,目标用户)推送信息为例,首先获取目标用户的用户画像,其中,目标用户所对应的用户画像包括目标属性标签、目标用户标识以及目标情感分类标签之间的对应关系,而目标情感分类标签的获取方式已在前述实施例中进行介绍,故此处不做赘述。
需要说明的是,信息推荐装置部署于计算机设备,该计算机设备具体可以是服务器,也可以是终端设备,本申请以信息推荐装置部署于服务器为例进行介绍,然而这不应理解为本申请的限定。
202、若用户画像所包括的目标情感分类标签满足信息推荐条件,则根据目标属性标签确定推荐信息;
本实施例中,信息推荐装置获取目标用户所对应的用户画像之后,可以根据该用户画像确定对应的类目以及每个类目下的属性标签,确定目标用户可能感兴趣的内容,例如,目标用户的用户画像中包括目标属性标签“烤鱼”,于是进一步确定目标属性标签“烤鱼”对应的目标情感分类标签是否满足信息推荐条件。
具体地,目标情感分类标签为情感分类标签集合中的某一个情感分类标签,可以理解的是,情感分类标签集合中包括至少两类情感分类标签。
示例性地,假设情感分类标签集合包括“正向”的情感分类标签以及“负向”的情感分类标签,那么目标情感分类标签为“正向”的情感分类标签,即认为目标情感分类标签满足信息推荐条件,于是确定目标情感分类标签对应的目标属性标签是目标用户感兴趣的,由此可确定推荐信息。
示例性地,假设情感分类标签集合包括“正向”的情感分类标签、“中性”的情感分类标签以及“负向”的情感分类标签,那么目标情感分类标签为“正向”的情感分类标签或者“中性”的情感分类标签,即认为目标情感分类标签满足信息推荐条件,于是确定目标情感分类标签对应的目标属性标签是目标用户感兴趣的,由此可确定推荐信息。
示例性地,情感分类标签集合包括“非常正向”的情感分类标签、“正向”的情感分类标签、“中性”的情感分类标签、“负向”的情感分类标签以及“非常负向”的情感分类标签,那么目标情感分类标签为“非常正向”的情感分类标签或者“正向”的情感分类标签,即认为目标情感分类标签满足信息推荐条件,于是确定目标情感分类标签对应的目标属性标签是目标用户感兴趣的,由此可确定推荐信息。
203、向目标用户标识所对应的终端设备发送推荐信息,以使终端设备展示推荐信息。
本实施例中,信息推荐装置向目标用户标识所对应的终端设备发送推荐信息,该终端设备展示推荐信息。
为了便于介绍,请参阅图19,图19为本申请实施例中基于用户画像实现信息推荐的一个示意图,如图所示,数据库中可以存储大量用户的用户画像,以美食公司为例,该美食公司具有调取用户画像的权限,即美食公司可通过服务器A从数据库中获取用户画像。由此可知,用户标识为“42837597843547896”的用户对“烤鱼”具有“非常正向”的情感分类标签,于是美食公司可通过服务器A向用户标识为“42837597843547896”的用户推送与“烤鱼”相关的推荐信息。
类似地,以游戏公司为例,该游戏公司具有调取用户画像的权限,即游戏公司可通过服务器B从数据库中获取用户画像。由此可知,用户标识为“858135978447541842”的用户对“爱跑酷”具有“非常正向”的情感分类标签,于是美食公司可通过服务器A向用户标识为“58135978447541842”的用户推送与“爱跑酷”相关的推荐信息。
本申请实施例中,提供了一种信息推荐的方法,首先获取目标用户所对应的用户画像,若用户画像所包括的目标情感分类标签满足信息推荐条件,则根据目标属性标签确定推荐信息,最后,即可向目标用户标识所对应的终端设备发送推荐信息,以使终端设备展示推荐信息。通过上述方式,广告系统在使用具备情感分类标签的用户画像时,可以有效利用情感倾对进行用户过滤,从而减少运算量。例如,即假设一个广告是属于售卖某款手机的广告,这种情况下,广告系统无需对所有具有该手机标签的用户进行运算,而是利用情感分类标签进行过滤,只选择对该手机的态度为正向的用户进行运算,可以很大程度上减少计算量。此外,推荐系统还可以基于情感分类标签实现精准定位,有效提升推荐的准确度。
下面对本申请中的用户画像构建装置进行详细描述,请参阅图20,图20为本申请实施例中用户画像构建装置的一个实施例示意图,用户画像构建装置30包括:
获取模块301,用于获取目标用户的目标属性标签,其中,目标用户对应于目标用户标识;
获取模块301,还用于根据目标属性标签获取M个信息类别所对应的关联信息,其中,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
获取模块301,还用于基于M个信息类别所对应的关联信息以及目标属性标签,通过情感预测模型获取目标情感分类标签,其中,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度;
构建模块302,用于根据目标属性标签、目标用户标识以及目标情感分类标签,构建目标用户所对应的用户画像。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,在构建用户画像的过程中加入了情感分类标签,由此,更加深入地刻画了用户对于属性标签的情感倾向程度,从而增强对于用户的全面理解,进而能够提升信息推荐效果。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于根据目标属性标签获取文本类别所对应的文本信息,其中,文本类别属于M个信息类别中的一个信息类别;
基于文本信息,通过情感预测模型所包括的文本编码器获取文本特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于文本特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,利用单模态的情感预测模型对文本信息进行分析,能够有效地将目标属性标签和文本信息结合起来,输出所需的目标情感分类标签。基于此,可以结合实际情况,选择针对文本信息进行分析的单模态情感预测模型,从而提升方案的灵活性。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于基于文本特征向量以及标签特征向量,通过情感预测模型所包括的文本注意力网络获取第一特征向量;
基于第一特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,由于不同的文本信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的一些文本内容,从而提高情感预测模型的性能。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于根据目标属性标签获取图像类别所对应的图像信息,其中,图像类别属于M个信息类别中的一个信息类别;
基于图像信息,通过情感预测模型所包括的图像编码器获取图像特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,利用单模态的情感预测模型对图像信息进行分析,能够有效地将目标属性标签和图像信息结合起来,输出所需的目标情感分类标签。基于此,可以结合实际情况,选择针对图像信息进行分析的单模态情感预测模型,从而提升方案的灵活性。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于基于图像特征向量以及标签特征向量,通过情感预测模型所包括的图像注意力网络获取第二特征向量;
基于是第二特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,由于不同的图像信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的一些图像内容,从而提高情感预测模型的性能。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于根据目标属性标签获取视频类别所对应的视频信息,其中,视频类别属于M个信息类别中的一个信息类别;
基于视频信息,通过情感预测模型所包括的视频编码器获取视频特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,利用单模态的情感预测模型对视频信息进行分析,能够有效地将目标属性标签和视频信息结合起来,输出所需的目标情感分类标签。基于此,可以结合实际情况,选择针对视频信息进行分析的单模态情感预测模型,从而提升方案的灵活性。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于基于视频特征向量以及标签特征向量,通过情感预测模型所包括的视频注意力网络获取第三特征向量;
基于是第三特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,由于不同的视频信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的一些视频内容,从而提高情感预测模型的性能。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于根据目标属性标签获取文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息,其中,文本类别、图像类别以及视频类别均属于M个信息类别中的信息类别;
基于文本信息,通过情感预测模型所包括的文本编码器获取文本特征向量;
基于图像信息,通过情感预测模型所包括的图像编码器获取图像特征向量;
基于视频信息,通过情感预测模型所包括的视频编码器获取视频特征向量;
基于目标属性标签,通过情感预测模型所包括的标签编码器获取标签特征向量;
基于文本特征向量、图像特征向量、视频特征向量以及标签特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量,其中,情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,N为大于1的整数;
根据情感分类向量,从N个情感分类标签中确定目标情感分类标签。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,利用多模态的情感预测模型对多个维度的信息进行分析,能够有效地将目标属性标签与不同类型的信息结合起来,输出所需的目标情感分类标签。基于此,能够从多个角度分析用户对属性标签的情感,从而提升情感分类标签的准确性,有利于更好地分析用户的喜好。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,
获取模块301,具体用于基于文本特征向量以及标签特征向量,通过情感预测模型所包括的文本注意力网络获取第一特征向量;
基于图像特征向量以及标签特征向量,通过情感预测模型所包括的图像注意力网络获取第二特征向量;
基于视频特征向量以及标签特征向量,通过情感预测模型所包括的视频注意力网络获取第三特征向量;
基于第一特征向量、第二特征向量以及第三特征向量,通过情感预测模型所包括的目标注意力网络获取目标特征向量;
基于目标特征向量,通过情感预测模型所包括的全连接网络获取情感分类向量。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,由于不同的文本信息、图像信息和视频信息对目标属性标签的作用不一致,因此,基于注意力机制可以有效注意到对目标属性标签的最重要的内容,从而提高情感预测模型的性能。
可选地,在上述图20所对应的实施例的基础上,本申请实施例提供的用户画像构建装置30的另一实施例中,用户画像构建装置30还包括训练模块303;
获取模块301,还用于获取K个待训练数据,其中,每个待训练数据对应于属性标注标签以及情感分类标注标签,且每个待训练数据包括M个信息类别所对应的待训练关联信息,K为大于或等于1的整数;
获取模块301,还用于针对于每个待训练数据以及每个待训练数据所对应的属性标注标签,通过待训练情感预测模型获取情感分类预测标签;
训练模块303,用于根据每个待训练数据所对应的情感分类预测标签以及情感分类标注标签,采用损失函数对待训练情感预测模型进行训练,直至满足模型训练条件,得到情感预测模型。
本申请实施例中,提供了一种用户画像构建装置,采用上述装置,利用已经标注好的数据集训练情感预测模型,从而提升方案的可行性。
下面对本申请中的信息推荐装置进行详细描述,请参阅图21,图21为本申请实施例中信息推荐装置的一个实施例示意图,信息推荐装置40包括:
获取模块401,用于获取目标用户所对应的用户画像,其中,用户画像包括目标属性标签、目标用户标识以及目标情感分类标签之间的对应关系,目标情感分类标签为情感预测模型基于M个信息类别所对应的关联信息以及目标属性标签获取的,目标情感分类标签用于表示目标用户针对于目标属性标签的情感倾向程度,M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,M为大于或等于1的整数;
确定模块402,用于若用户画像所包括的目标情感分类标签满足信息推荐条件,则根据目标属性标签确定推荐信息;
发送模块403,用于向目标用户标识所对应的终端设备发送推荐信息,以使终端设备展示推荐信息。
本申请实施例中,提供了一种信息推荐装置,采用上述装置,广告系统在使用具备情感分类标签的用户画像时,可以有效利用情感倾对进行用户过滤,从而减少运算量。例如,即假设一个广告是属于售卖某款手机的广告,这种情况下,广告系统无需对所有具有该手机标签的用户进行运算,而是利用情感分类标签进行过滤,只选择对该手机的态度为正向的用户进行运算,可以很大程度上减少计算量。此外,推荐系统还可以基于情感分类标签实现精准定位,有效提升推荐的准确度。
图22是本申请实施例提供的一种计算机设备结构示意图,该计算机设备500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(centralprocessing units,CPU)522(例如,一个或一个以上处理器)和存储器532,一个或一个以上存储应用程序542或数据544的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器532和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对计算机设备中的一系列指令操作。更进一步地,中央处理器522可以设置为与存储介质530通信,在计算机设备500上执行存储介质530中的一系列指令操作。
计算机设备500还可以包括一个或一个以上电源526,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口558,和/或,一个或一个以上操作系统541,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由计算机设备所执行的步骤可以基于该图22所示的计算机设备结构。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如前述各个实施例描述的方法。
本申请实施例中还提供一种包括程序的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例描述的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (15)
1.一种用户画像构建的方法,其特征在于,包括:
获取目标用户的目标属性标签,其中,所述目标用户对应于目标用户标识;
根据所述目标属性标签获取M个信息类别所对应的关联信息,其中,所述M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,所述M为大于或等于1的整数;
基于所述M个信息类别所对应的关联信息以及所述目标属性标签,通过情感预测模型获取目标情感分类标签,其中,所述目标情感分类标签用于表示所述目标用户针对于所述目标属性标签的情感倾向程度;
根据所述目标属性标签、所述目标用户标识以及所述目标情感分类标签,构建所述目标用户所对应的用户画像。
2.根据权利要求1所述的方法。其特征在于,所述根据所述目标属性标签获取M个信息类别所对应的关联信息,包括:
根据所述目标属性标签获取所述文本类别所对应的文本信息,其中,所述文本类别属于所述M个信息类别中的一个信息类别;
所述基于所述M个信息类别所对应的关联信息以及所述目标属性标签,通过情感预测模型获取目标情感分类标签,包括:
基于所述文本信息,通过所述情感预测模型所包括的文本编码器获取文本特征向量;
基于所述目标属性标签,通过所述情感预测模型所包括的标签编码器获取标签特征向量;
基于所述文本特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,其中,所述情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,所述N为大于1的整数;
根据所述情感分类向量,从N个情感分类标签中确定所述目标情感分类标签。
3.根据权利要求2所述的方法。其特征在于,所述基于所述文本特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,包括:
基于所述文本特征向量以及所述标签特征向量,通过所述情感预测模型所包括的文本注意力网络获取第一特征向量;
基于所述第一特征向量,通过所述情感预测模型所包括的所述全连接网络获取所述情感分类向量。
4.根据权利要求1所述的方法。其特征在于,所述根据所述目标属性标签获取M个信息类别所对应的关联信息,包括:
根据所述目标属性标签获取所述图像类别所对应的图像信息,其中,所述图像类别属于所述M个信息类别中的一个信息类别;
所述基于所述M个信息类别所对应的关联信息以及所述目标属性标签,通过情感预测模型获取目标情感分类标签,包括:
基于所述图像信息,通过所述情感预测模型所包括的图像编码器获取图像特征向量;
基于所述目标属性标签,通过所述情感预测模型所包括的标签编码器获取标签特征向量;
基于所述图像特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,其中,所述情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,所述N为大于1的整数;
根据所述情感分类向量,从N个情感分类标签中确定所述目标情感分类标签。
5.根据权利要求4所述的方法。其特征在于,所述基于所述图像特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,包括:
基于所述图像特征向量以及所述标签特征向量,通过所述情感预测模型所包括的图像注意力网络获取第二特征向量;
基于是第二特征向量,通过所述情感预测模型所包括的所述全连接网络获取所述情感分类向量。
6.根据权利要求1所述的方法。其特征在于,所述根据所述目标属性标签获取M个信息类别所对应的关联信息,包括:
根据所述目标属性标签获取所述视频类别所对应的视频信息,其中,所述视频类别属于所述M个信息类别中的一个信息类别;
所述基于所述M个信息类别所对应的关联信息以及所述目标属性标签,通过情感预测模型获取目标情感分类标签,包括:
基于所述视频信息,通过所述情感预测模型所包括的视频编码器获取视频特征向量;
基于所述目标属性标签,通过所述情感预测模型所包括的标签编码器获取标签特征向量;
基于所述视频特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,其中,所述情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,所述N为大于1的整数;
根据所述情感分类向量,从N个情感分类标签中确定所述目标情感分类标签。
7.根据权利要求6所述的方法。其特征在于,所述基于所述视频特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,包括:
基于所述视频特征向量以及所述标签特征向量,通过所述情感预测模型所包括的视频注意力网络获取第三特征向量;
基于是第三特征向量,通过所述情感预测模型所包括的所述全连接网络获取所述情感分类向量。
8.根据权利要求1所述的方法。其特征在于,所述根据所述目标属性标签获取M个信息类别所对应的关联信息,包括:
根据所述目标属性标签获取所述文本类别所对应的文本信息、所述图像类别所对应的图像信息以及所述视频类别所对应的视频信息,其中,所述文本类别、所述图像类别以及所述视频类别均属于所述M个信息类别中的信息类别;
所述基于所述M个信息类别所对应的关联信息以及所述目标属性标签,通过情感预测模型获取目标情感分类标签,包括:
基于所述文本信息,通过所述情感预测模型所包括的文本编码器获取文本特征向量;
基于所述图像信息,通过所述情感预测模型所包括的图像编码器获取图像特征向量;
基于所述视频信息,通过所述情感预测模型所包括的视频编码器获取视频特征向量;
基于所述目标属性标签,通过所述情感预测模型所包括的标签编码器获取标签特征向量;
基于所述文本特征向量、所述图像特征向量、所述视频特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,其中,所述情感分类向量包括至少N个概率值,每个概率值对应于一个情感分类标签,所述N为大于1的整数;
根据所述情感分类向量,从N个情感分类标签中确定所述目标情感分类标签。
9.根据权利要求8所述的方法。其特征在于,所述基于所述文本特征向量、所述图像特征向量、所述视频特征向量以及所述标签特征向量,通过所述情感预测模型所包括的全连接网络获取情感分类向量,包括:
基于所述文本特征向量以及所述标签特征向量,通过所述情感预测模型所包括的文本注意力网络获取第一特征向量;
基于所述图像特征向量以及所述标签特征向量,通过所述情感预测模型所包括的图像注意力网络获取第二特征向量;
基于所述视频特征向量以及所述标签特征向量,通过所述情感预测模型所包括的视频注意力网络获取第三特征向量;
基于所述第一特征向量、所述第二特征向量以及所述第三特征向量,通过所述情感预测模型所包括的目标注意力网络获取目标特征向量;
基于目标特征向量,通过所述情感预测模型所包括的所述全连接网络获取所述情感分类向量。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述方法还包括:
获取K个待训练数据,其中,每个待训练数据对应于属性标注标签以及情感分类标注标签,且所述每个待训练数据包括M个信息类别所对应的待训练关联信息,所述K为大于或等于1的整数;
针对于所述每个待训练数据以及所述每个待训练数据所对应的属性标注标签,通过待训练情感预测模型获取情感分类预测标签;
根据所述每个待训练数据所对应的情感分类预测标签以及情感分类标注标签,采用损失函数对所述待训练情感预测模型进行训练,直至满足模型训练条件,得到所述情感预测模型。
11.一种信息推荐的方法,其特征在于,包括:
获取目标用户所对应的用户画像,其中,所述用户画像包括目标属性标签、所述目标用户标识以及所述目标情感分类标签之间的对应关系,所述目标情感分类标签为情感预测模型基于M个信息类别所对应的关联信息以及所述目标属性标签获取的,所述目标情感分类标签用于表示所述目标用户针对于所述目标属性标签的情感倾向程度,所述M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,所述M为大于或等于1的整数;
若所述用户画像所包括的所述目标情感分类标签满足信息推荐条件,则根据所述目标属性标签确定推荐信息;
向所述目标用户标识所对应的终端设备发送所述推荐信息,以使所述终端设备展示所述推荐信息。
12.一种用户画像构建装置,其特征在于,包括:
获取模块,用于获取目标用户的目标属性标签,其中,所述目标用户对应于目标用户标识;
所述获取模块,还用于根据所述目标属性标签获取M个信息类别所对应的关联信息,其中,所述M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,所述M为大于或等于1的整数;
所述获取模块,还用于基于所述M个信息类别所对应的关联信息以及所述目标属性标签,通过情感预测模型获取目标情感分类标签,其中,所述目标情感分类标签用于表示所述目标用户针对于所述目标属性标签的情感倾向程度;
构建模块,用于根据所述目标属性标签、所述目标用户标识以及所述目标情感分类标签,构建所述目标用户所对应的用户画像。
13.一种信息推荐装置,其特征在于,包括:
获取模块,用于获取目标用户所对应的用户画像,其中,所述用户画像包括目标属性标签、所述目标用户标识以及所述目标情感分类标签之间的对应关系,所述目标情感分类标签为情感预测模型基于M个信息类别所对应的关联信息以及所述目标属性标签获取的,所述目标情感分类标签用于表示所述目标用户针对于所述目标属性标签的情感倾向程度,所述M个信息类别所对应的关联信息包括文本类别所对应的文本信息、图像类别所对应的图像信息以及视频类别所对应的视频信息中的至少一种,所述M为大于或等于1的整数;
确定模块,用于若所述用户画像所包括的所述目标情感分类标签满足信息推荐条件,则根据所述目标属性标签确定推荐信息;
发送模块,用于向所述目标用户标识所对应的终端设备发送所述推荐信息,以使所述终端设备展示所述推荐信息。
14.一种计算机设备,其特征在于,包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,所述处理器用于根据所述程序代码中的指令执行权利要求1至10中任一项所述的方法,或,执行权利要求11所述的方法;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
15.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1至10中任一项所述的方法,或,执行如权利要求11所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010915739.0A CN114201516B (zh) | 2020-09-03 | 2020-09-03 | 一种用户画像构建的方法、信息推荐的方法以及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010915739.0A CN114201516B (zh) | 2020-09-03 | 2020-09-03 | 一种用户画像构建的方法、信息推荐的方法以及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114201516A true CN114201516A (zh) | 2022-03-18 |
CN114201516B CN114201516B (zh) | 2024-06-11 |
Family
ID=80644547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010915739.0A Active CN114201516B (zh) | 2020-09-03 | 2020-09-03 | 一种用户画像构建的方法、信息推荐的方法以及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114201516B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782764A (zh) * | 2022-06-22 | 2022-07-22 | 每日互动股份有限公司 | 一种用户画像的生成方法、装置、计算机设备及存储介质 |
CN116501977A (zh) * | 2023-06-26 | 2023-07-28 | 广东省建设工程质量安全检测总站有限公司 | 线上检测委托中用户画像的构建方法及系统 |
CN117633254A (zh) * | 2024-01-26 | 2024-03-01 | 武汉大学 | 一种基于知识图谱的地图检索用户画像构建方法和系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263808A (zh) * | 2019-05-13 | 2019-09-20 | 广东工业大学 | 一种基于lstm网络和注意力机制的图像情感分类方法 |
CN110517121A (zh) * | 2019-09-23 | 2019-11-29 | 重庆邮电大学 | 基于评论文本情感分析的商品推荐方法及商品推荐装置 |
WO2019242144A1 (zh) * | 2018-06-19 | 2019-12-26 | 平安科技(深圳)有限公司 | 电子装置、偏好倾向预测方法和计算机可读存储介质 |
CN111050193A (zh) * | 2019-11-12 | 2020-04-21 | 汉口北进出口服务有限公司 | 用户画像构建方法、装置、计算机设备和存储介质 |
WO2020082938A1 (zh) * | 2018-10-23 | 2020-04-30 | 北京达佳互联信息技术有限公司 | 标签的处理方法、装置、电子设备及存储介质 |
CN111144448A (zh) * | 2019-12-09 | 2020-05-12 | 江南大学 | 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 |
CN111190939A (zh) * | 2019-12-27 | 2020-05-22 | 深圳市优必选科技股份有限公司 | 一种用户画像构建方法及装置 |
CN111275118A (zh) * | 2020-01-22 | 2020-06-12 | 复旦大学 | 基于自我修正式标签生成网络的胸片多标签分类方法 |
CN111309936A (zh) * | 2019-12-27 | 2020-06-19 | 上海大学 | 一种电影用户画像的构建方法 |
CN111506733A (zh) * | 2020-05-29 | 2020-08-07 | 广东太平洋互联网信息服务有限公司 | 对象画像的生成方法、装置、计算机设备和存储介质 |
-
2020
- 2020-09-03 CN CN202010915739.0A patent/CN114201516B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019242144A1 (zh) * | 2018-06-19 | 2019-12-26 | 平安科技(深圳)有限公司 | 电子装置、偏好倾向预测方法和计算机可读存储介质 |
WO2020082938A1 (zh) * | 2018-10-23 | 2020-04-30 | 北京达佳互联信息技术有限公司 | 标签的处理方法、装置、电子设备及存储介质 |
CN110263808A (zh) * | 2019-05-13 | 2019-09-20 | 广东工业大学 | 一种基于lstm网络和注意力机制的图像情感分类方法 |
CN110517121A (zh) * | 2019-09-23 | 2019-11-29 | 重庆邮电大学 | 基于评论文本情感分析的商品推荐方法及商品推荐装置 |
CN111050193A (zh) * | 2019-11-12 | 2020-04-21 | 汉口北进出口服务有限公司 | 用户画像构建方法、装置、计算机设备和存储介质 |
CN111144448A (zh) * | 2019-12-09 | 2020-05-12 | 江南大学 | 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 |
CN111190939A (zh) * | 2019-12-27 | 2020-05-22 | 深圳市优必选科技股份有限公司 | 一种用户画像构建方法及装置 |
CN111309936A (zh) * | 2019-12-27 | 2020-06-19 | 上海大学 | 一种电影用户画像的构建方法 |
CN111275118A (zh) * | 2020-01-22 | 2020-06-12 | 复旦大学 | 基于自我修正式标签生成网络的胸片多标签分类方法 |
CN111506733A (zh) * | 2020-05-29 | 2020-08-07 | 广东太平洋互联网信息服务有限公司 | 对象画像的生成方法、装置、计算机设备和存储介质 |
Non-Patent Citations (6)
Title |
---|
BOURKE, PHILIP 等: "Review of Player Personality Classifications to inform Game Design", IEEE, 31 December 2019 (2019-12-31), pages 271 - 274 * |
刘海鸥 等: "面向情境化推荐服务的图书馆用户画像研究", 图书馆学研究, pages 62 - 68 * |
李军;吕绍和;陈飞;阳国贵;窦勇;: "结合视觉注意机制与递归神经网络的图像检索", 中国图象图形学报, no. 02, 16 February 2017 (2017-02-16), pages 241 - 248 * |
潘文宇 等: "基于"用户画像"的视频精准推荐系统研究", 科技风, pages 169 * |
潘文宇;邢青;: "基于"用户画像"的视频精准推荐系统研究", 科技风, no. 22, 10 August 2020 (2020-08-10), pages 169 * |
罗春春;郝晓燕;: "基于双重注意力模型的微博情感倾向性分析", 南京大学学报(自然科学), no. 02, 30 March 2020 (2020-03-30), pages 236 - 243 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782764A (zh) * | 2022-06-22 | 2022-07-22 | 每日互动股份有限公司 | 一种用户画像的生成方法、装置、计算机设备及存储介质 |
CN116501977A (zh) * | 2023-06-26 | 2023-07-28 | 广东省建设工程质量安全检测总站有限公司 | 线上检测委托中用户画像的构建方法及系统 |
CN116501977B (zh) * | 2023-06-26 | 2023-09-01 | 广东省建设工程质量安全检测总站有限公司 | 线上检测委托中用户画像的构建方法及系统 |
CN117633254A (zh) * | 2024-01-26 | 2024-03-01 | 武汉大学 | 一种基于知识图谱的地图检索用户画像构建方法和系统 |
CN117633254B (zh) * | 2024-01-26 | 2024-04-05 | 武汉大学 | 一种基于知识图谱的地图检索用户画像构建方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114201516B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444428B (zh) | 基于人工智能的信息推荐方法、装置、电子设备及存储介质 | |
US11893071B2 (en) | Content recommendation method and apparatus, electronic device, and storage medium | |
CN111931062A (zh) | 一种信息推荐模型的训练方法和相关装置 | |
CN114201516B (zh) | 一种用户画像构建的方法、信息推荐的方法以及相关装置 | |
CN108959323B (zh) | 视频分类方法和装置 | |
Liu et al. | Sentiment recognition for short annotated GIFs using visual-textual fusion | |
CN111949886B (zh) | 一种用于信息推荐的样本数据生成方法和相关装置 | |
CN113254711B (zh) | 一种互动图像的显示方法、装置、计算机设备和存储介质 | |
Wang et al. | Deep and broad learning on content-aware POI recommendation | |
CN112165639B (zh) | 内容分发方法、装置、电子设备以及存储介质 | |
CN116977701A (zh) | 视频分类模型训练的方法、视频分类的方法和装置 | |
Meddeb et al. | Personalized smart learning recommendation system for arabic users in smart campus | |
CN118503539A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
Biswas et al. | A new ontology-based multimodal classification system for social media images of personality traits | |
CN117711001A (zh) | 图像处理方法、装置、设备和介质 | |
CN115640449A (zh) | 媒体对象推荐方法、装置、计算机设备和存储介质 | |
CN116628345B (zh) | 一种内容推荐方法、装置、电子设备和存储介质 | |
CN114741587A (zh) | 一种物品推荐方法、装置、介质及设备 | |
Hanafi et al. | Word Sequential Using Deep LSTM and Matrix Factorization to Handle Rating Sparse Data for E‐Commerce Recommender System | |
CN114817697A (zh) | 标签信息的确定方法、装置、电子设备以及存储介质 | |
CN113010772A (zh) | 一种数据处理方法、相关设备及计算机可读存储介质 | |
Li et al. | An attention-based user profiling model by leveraging multi-modal social media contents | |
CN111444338A (zh) | 文本处理、装置、存储介质及设备 | |
He et al. | Intelligent video recommendation and interactive e-learning mode for English teaching courses based on machine learning | |
WO2024174583A1 (zh) | 一种模型训练方法、装置、设备、存储介质及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |