CN113157898B - 候选问题的推荐方法、装置、计算机设备及存储介质 - Google Patents

候选问题的推荐方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN113157898B
CN113157898B CN202110582046.9A CN202110582046A CN113157898B CN 113157898 B CN113157898 B CN 113157898B CN 202110582046 A CN202110582046 A CN 202110582046A CN 113157898 B CN113157898 B CN 113157898B
Authority
CN
China
Prior art keywords
user
sample
features
candidate
splicing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110582046.9A
Other languages
English (en)
Other versions
CN113157898A (zh
Inventor
马建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202110582046.9A priority Critical patent/CN113157898B/zh
Publication of CN113157898A publication Critical patent/CN113157898A/zh
Application granted granted Critical
Publication of CN113157898B publication Critical patent/CN113157898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种候选问题的推荐方法,应用于人工智能技术领域,用于解决目前的问题推荐方法对推荐的用户不具有针对性的技术问题。本发明提供的方法包括:将获取的第一预设类别的用户信息转换为特征并进行拼接得到用户特征;从转换的特征中选取至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征;将数据库中的候选问题转换为句向量;将组合特征向量输入至问题推荐模型的线性层得到第一中间特征向量;将用户特征和句向量输入至问题推荐模型中的注意力机制层得到第二中间特征向量;将第一中间特征向量与第二中间特征向量进行拼接得到拼接向量;通过该问题推荐模型预测该用户与该候选问题是否匹配;将匹配成功的候选问题推荐给用户。

Description

候选问题的推荐方法、装置、计算机设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种候选问题的推荐方法、装置、计算机设备及存储介质。
背景技术
目前的会话推荐系统是通过交互式的会话分析,通过会话文本解析,预测用户侧的实时意图,并根据解析到的用户意图为用户推荐合适的商品,该商品例如电影、服饰等,其输入特征由用户侧和商品侧组成。
随着用户的需求多样化发展,在实际场景特别是在特定的业务场景中,影响用户最终决策或者感兴趣的内容的原因往往十分复杂,不再是简单的会话分析,还包括用户的性别、年龄、场景等等。例如同一用户在讲解素材和讲解目录的场景下,所需要推荐的候选问题是不同的,不同年龄段和不同性别对同一场景(例如讲解素材)下所关心的问题也是不同的,如果直接将传统方案中仅通过文本解析得到的候选结果推荐给用户,并不能准确预测用户真正想要表达的问题或者用户真正关心的问题。
现亟待提出一种能够结合与用户相关的各方面因素,准确预测用户真正关心的问题并进行问题推荐的方法,以实现候选问题的高质量推荐。
发明内容
本发明实施例提供一种候选问题的推荐方法、装置、计算机设备及存储介质,以解决目前的问题推荐方法对推荐的用户不具有针对性、推荐质量低的技术问题。
一种候选问题的推荐方法,该方法包括:
获取与用户相关的多个第一预设类别的用户信息;
将各该第一预设类别的用户信息转换为对应的特征,并对转换得到各该特征进行拼接,得到用户特征;
从转换的该特征中选取与预设的至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征;
从数据库中获取候选问题,并通过预先训练好的孪生Albert网络将该候选问题转换为句向量;
将该组合特征向量输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量;
将该用户特征和该句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量;
将该第一中间特征向量与该第二中间特征向量进行拼接,得到拼接向量;
通过该问题推荐模型的激活函数对该拼接向量进行映射,得到该用户与该候选问题是否匹配的预测结果;
当该预测结果为匹配时,将匹配的该候选问题推荐给用户。
一种候选问题的推荐装置,该装置包括:
信息获取模块,用于获取与用户相关的多个第一预设类别的用户信息;
第一拼接模块,用于将各该第一预设类别的用户信息转换为对应的特征,并对转换得到各该特征进行拼接,得到用户特征;
第二拼接模块,用于从转换的该特征中选取与预设的至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征;
句向量转换模块,用于从数据库中获取候选问题,并通过预先训练好的孪生Albert网络将该候选问题转换为句向量;
第一输入模块,用于将该组合特征向量输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量;
第二输入模块,用于将该用户特征和该句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量;
第三拼接模块,用于将该第一中间特征向量与该第二中间特征向量进行拼接,得到拼接向量;
映射模块,用于通过该问题推荐模型的激活函数对该拼接向量进行映射,得到该用户与该候选问题是否匹配的预测结果;
推荐模块,用于当该预测结果为匹配时,将匹配的该候选问题推荐给用户。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述候选问题的推荐方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述候选问题的推荐方法的步骤。
本发明提出的候选问题的推荐方法、装置、计算机设备及存储介质,将获取的与用户相关的多个第一预设类别的用户信息转换为对应的特征,并对转换得到各该特征进行拼接,得到用户特征,然后从转换的该特征中选取与预设的至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征,通过预先训练好的孪生Albert网络将从数据库中获取候选问题转换为句向量,然后将该组合特征向量输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量,并将该用户特征和该句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量,将该第一中间特征向量与该第二中间特征向量进行拼接,得到拼接向量,该拼接向量融合了组合特征、用户特征和候选问题的句向量,通过线性层对由组合特征生成的第一中间特征向量进行处理,通过线性层捕捉特征之间的交互与候选问题之间的关联性,可以提高问题推荐模型的记忆能力,另一方面通过注意力机制层对由用户特征生成的第二中间特征向量进行处理,可以根据用户个人的特定特征进行精准推荐,在提高问题推荐模型的推荐精度的同时还可以提高问题推荐模型的泛化能力。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中候选问题的推荐方法的一应用环境示意图;
图2是本发明一实施例中候选问题的推荐方法的一流程图;
图3是本发明一实施例中训练该问题推荐模型的一流程图;
图4是本发明一实施例中候选问题的推荐装置的结构示意图;
图5是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的候选问题的推荐方法,可应用在如图1的应用环境中,其中,该计算机设备可以通过网络与外部设备,例如与外部服务器进行通信。其中,该计算机设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种候选问题的推荐方法,以该方法应用在图1中的计算机设备为例进行说明,包括如下步骤S101至S109。
S101、获取与用户相关的多个第一预设类别的用户信息。
在其中一个实施例中,所述第一预设类别包括但不限于用户画像、场景信息、用户点击行为动作、用户会话信息、推荐的候选问题等。
进一步地,该用户画像包括但不限于用户的年龄、性别、司龄、职级等等。该场景信息包括但不限于讲解方案、讲解素材、讲解目录等等。该用户点击行为动作包括两方面内容,一方面是点击或者未点击,另一方面还包括点击的具体内容,例如点击讲解话术、点击猜你想问、点击异议快览等。用户会话信息可以通过在聊天日志或历史日志数据中获取得到,推荐的候选问题表示从历史日志数据中获取得到的历史推荐候选问题,该历史推荐候选问题包括但不限于句向量表达、创建发布时间、问题标签等等。
S102、将各所述第一预设类别的用户信息转换为对应的特征,并对转换得到各所述特征进行拼接,得到用户特征。
由于该用户信息包括多种类别,对于不同类别的用户信息需要通过不同的方式将其转换为对应的特征。
在其中一个实施例中,所述用户画像可以通过量化的方式处理为特征的形式。例如,可以将性别男用“0”表示,将性别女用“1”表示。年龄、司龄、职级等用户信息均可以通过这种方式进行转换。
进一步地,用户点击行为动作也可以进行量化,点击可以用“1”表示,未点击可以用“0”表示。
对于用户会话信息、当前讲解方案、讲解素材、讲解目录等文本信息可以通过预先训练好的Siamese Albert模型将其转换为特征的形式。
在其中一个实施例中,在得到所述用户特征的步骤之后,该方法还包括:
通过Embedding神经网络将离散的用户特征转换为稠密的用户特征。
Embedding可以将大型稀疏特征向量转换为保留语义关系的低维度地较稠密的特征向量,基于Embedding的这一特性,将本实施例中离散的用户特征转换为稠密的用户特征可以提高用户特征的有效性,较少后续步骤中的特征计算量。
进一步地,该方法还包括:
检测所述用户特征中的缺失值和异常值;
通过预设的处理方式,对检测出的所述缺失值和异常值进行处理。
在其中一个方式中,可以通过分布图和/或箱线图等方式对所述用户特征中的缺失值和异常值进行检测。
其中,分布图是在视觉和程序上跟踪异常值的一种方法,通过样本的分布图可以清楚地看到,尽管数据集中的大多数值都被分组在一起,但仍有一些值从分布图中可以直观地看到其与众不同,因此,可以过滤出这些异常值实现对异常值的智能检测。
通过箱线图实现异常检测的原理为,预先设置方框的长度为r,最大值和最小值由晶须表示,晶须通常在盒子的任一侧延伸到1.5*r的距离,因此,在这些1.5*r值之外的所有数据点都可以判定为离群值,过滤出这些离群值即可以实现对异常值的智能检测。
进一步地,所述预设的处理方式例如将检测出的缺失值和异常值替换为预设值。所述预设值可以是“0”。
S103、从转换的所述特征中选取与预设的至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征。
可以理解的是,该预设的至少两个第二类别为该第一预设类别的子集。
在其中一个实施例中,所述与预设的至少两个第二类别的用户信息相对应的特征包括基础特征和交叉特征,得到所述组合特征的步骤具体包括:
对所述基础特征和所述交叉特征进行拼接,得到所述组合特征。
在其中一个实施例中,所述基础特征例如用户的年龄。所述交叉特征可以表示为:
Figure BDA0003084109870000061
其中,Cki表示布尔变量,当第i个特征属于第k个组合特征时,cki的值为1,否则为0,xi表示第i个特征值。可以理解的是,该交叉特征表示受基础特征(例如年龄)因素的影响较大的特征。
在其中一个实施例中,所述线性层表示为:
y=wx+b
其中,y表示第一中间特征向量,x表示所述组合特征,w和b均表示所述线性层的参数。
S104、从数据库中获取候选问题,并通过预先训练好的孪生Albert网络将所述候选问题转换为句向量。
其中,所述孪生Albert(Siamese Albert)网络是通过共享权值来实现,孪生Albert网络用于衡量两个输入的相似程度。孪生Albert网络有两个输入,分别为Input1和Input2,将两个输入喂入两个神经网络,分别为Network1和Network2,这两个神经网络分别将输入映射到新的空间,形成输入在新的空间中的表示,通过Loss损失的计算,评价两个文本输入的相似度。
在其中一个实施例中,训练所述孪生Albert网络的步骤包括:
获取包括有第一文本样本和第二文本样本的样本组,所述样本组携带有所述第一文本样本和所述第二文本样本是否匹配的标注;
将标注的匹配结果作为所述孪生Albert网络的输出,通过所述样本组对所述孪生Albert网络进行训练;
当所述孪生Albert网络的损失函数收敛时,判断所述孪生Albert网络训练完成。
S105、将所述组合特征向量输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量。
图3是本发明一实施例中训练该问题推荐模型的一流程图,在其中一个实施例中,所述问题推荐模型包括线性层和注意力机制层,如图3所示,训练所述问题推荐模型的步骤具体包括以下步骤S301至S306。
S301、根据历史日志中记载的被选定的候选样本问题,获取正样本问题和负样本问题,所述正样本问题和所述负样本问题均携带有所述用户的用户样本信息。
在其中一个实施例中,所述正样本问题表示被用户选定点击且曝光时间在预设时间范围内的样本问题,所述负样本包括所述候选样本问题中没有被用户点击的样本问题以及被用户点击后曝光时间不在所述预设时间范围内的样本问题。
进一步地,该预设时间范围例如大于5秒。根据本实施例的一个使用场景例如:在历史日志中记载有用户点击了某个样本问题,但是该没有问题的曝光时间不到5秒钟,则应该将该样本问题标记为负样本。再例如在历史日志中记载有用户点击了某个样本问题,且该样本问题的曝光时间大于5秒钟,则应该将该样本问题标记为正样本。数据库中没有记载在该历史日志中的候选问题均为负样本。本实施例中的正样本表示根据当前用户的用户信息以及当前的场景下用户比较关心的问题,负样本表示当前用户处在当前场景下并不关心的问题。
S302、将各所述第一预设类别的用户样本信息转换为对应的样本特征,并对转换得到的各所述样本特征进行拼接,得到用户样本特征。
在其中一个实施例中,与上述用户信息类似地,该用户样本信息包括多种类别,对于不同类别的用户样本信息需要通过不同的方式将其转换为对应的特征。
在其中一个实施例中,该用户样本信息包括样本用户画像、样本用户点击行为动作、样本用户会话信息、样本用户当前讲解方案、样本用户讲解素材、样本用户讲解目录等样本文本信息。
所述样本用户画像可以通过量化的方式处理为特征的形式。例如,可以将性别男用“0”表示,将性别女用“1”表示。年龄、司龄、职级等用户信息均可以通过这种方式进行转换。
进一步地,样本用户点击行为动作也可以进行量化,点击可以用“1”表示,未点击可以用“0”表示。
对于样本用户会话信息、样本用户当前讲解方案、样本用户讲解素材、样本用户讲解目录等文本信息可以通过该Siamese Albert模型将其转换为特征的形式。
在其中一个实施例中,在得到所述用户样本特征的步骤之后,该方法还包括:
通过Embedding神经网络将离散的用户样本特征换为稠密的用户样本特征。
通过Embedding神经网络将离散的用户样本特征换为稠密的用户样本特征可以提高用户样本特征的有效性,较少后续训练步骤中的样本特征的计算量。
S303、从转换的所述样本特征中选取与所述预设的第二类别的用户样本信息相对应的特征进行拼接,得到组合样本特征。
在其中一个实施例中,得到该组合样本特征的具体实现步骤与得到上述组合特征方法相同,在此就不再赘述了。
S304、通过所述孪生Albert网络将所述正样本问题转换为正样本句向量,将所述负样本问题转换为负样本句向量。
S305、根据所述正样本句向量、所述负样本句向量、所述用户样本特征以及所述组合样本特征对所述问题推荐模型进行训练。
S306、当所述问题推荐模型中线性层的损失函数收敛且所述注意力机制层的损失函数收敛时,得到训练好的问题推荐模型。
在得到训练好的问题推荐模型之后,该问题推荐模型的线性层可以将输入的组合特征向量转换为第一中间特征向量,
S106、将所述用户特征和所述句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量。
该问题推荐模型训练完成之后,该问题推荐模型的注意力机制层可以将输入的用户特征和句向量转换为第二中间特征向量。
在其中一个实施例中,所述注意力机制层的激活函数为:
Figure BDA0003084109870000091
其中,VU表示第二中间特征向量,vA表示所述句向量,ej是代理人第j次行为的用户特征向量,Wj表示权重。Wj可以通过ej和vA点乘计算得到。
S107、将所述第一中间特征向量与所述第二中间特征向量进行拼接,得到拼接向量。
在其中一个实施例中,所述第一中间特征向量与所述第二中间特征向量进行拼接的方式可以是横向拼接。
S108、通过所述问题推荐模型的激活函数对所述拼接向量和所述句向量进行映射,得到所述用户与所述候选问题是否匹配的预测结果。
在其中一个实施例中,得到所述用户与所述候选问题是否匹配的预测结果可以用0或者1来表示,0表示预测结果为不匹配,不将对应的候选问题推荐给用户,1表示匹配,需要将对应的候选问题推荐给用户。
S109、当所述预测结果为匹配时,将匹配的所述候选问题推荐给用户。
在其中一个实施例中,所述将匹配的所述候选问题推荐给用户的方式可以是将匹配成功的候选问题显示在屏幕的预设区域内进行推荐。
本实施例首先根据与用户相关的多个第一预设类别的用户信息得到用户特征,根据预设的至少两个第二类别的用户信息,从所述用户特征中选取组合特征,并通过预先训练好的孪生Albert网络将数据库中的候选问题转换为句向量,通过线性层对由组合特征生成的第一中间特征向量进行处理,通过线性模型捕捉特征之间的交互与候选问题之间的关联性,以提高问题推荐模型的记忆能力,另一方面通过注意力机制层对由用户特征生成的第二中间特征向量进行处理,通过注意力机制层学习低纬度的稠密特征,可以根据用户个人的特定特征进行精准推荐,在提高问题推荐模型的推荐精度的同时还可以提高问题推荐模型的泛化能力。
本实施例通过全方位的构造负样本,使得线上真实数据分布更加接近我们模型训练的数据分布,构造了基于线性模型和注意力机制模型的双塔推荐预测模型,其中线性模型通过交叉特征实现高效的记忆能力,达到准确推荐的目的,同时通过加入一些宽泛类特征实现一定的泛化能力。注意力机制模块可以通过学习到低纬度稠密的向量实现模型的泛化能力,进一步的引入注意力机制模型可以更好的捕捉不同代理人对不同知识的掌握程度,通过刻画用户的行为特征精确的进行推荐,同时提高了线上预测的CTR(Click-Through-Rate,点击通过率)。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种候选问题的推荐装置,该候选问题的推荐装置与上述实施例中候选问题的推荐方法一一对应。如图4所示,该候选问题的推荐装置100包括信息获取模块11、第一拼接模块12、第二拼接模块13、句向量转换模块14、第一输入模块15、第二输入模块16、第三拼接模块14、映射模块18和推荐模块19。各功能模块详细说明如下:
信息获取模块11,用于获取与用户相关的多个第一预设类别的用户信息。
在其中一个实施例中,所述第一预设类别包括但不限于用户画像、场景信息、用户点击行为动作、用户会话信息、推荐的候选问题等。
进一步地,该用户画像包括但不限于用户的年龄、性别、司龄、职级等等。该场景信息包括但不限于讲解方案、讲解素材、讲解目录等等。该用户点击行为动作包括两方面内容,一方面是点击或者未点击,另一方面还包括点击的具体内容。用户会话信息可以通过在聊天日志或历史日志数据中获取得到,推荐的候选问题表示从历史日志数据中获取得到的历史推荐候选问题。
第一拼接模块12,用于将各该第一预设类别的用户信息转换为对应的特征,并对转换得到各该特征进行拼接,得到用户特征。
由于该用户信息包括多种类别,对于不同类别的用户信息需要通过不同的方式将其转换为对应的特征。
在其中一个实施例中,所述用户画像可以通过量化的方式处理为特征的形式。例如,可以将性别男用“0”表示,将性别女用“1”表示。年龄、司龄、职级等用户信息均可以通过这种方式进行转换。
进一步地,用户点击行为动作也可以进行量化,点击可以用“1”表示,未点击可以用“0”表示。
对于用户会话信息、当前讲解方案、讲解素材、讲解目录等文本信息可以通过预先训练好的Siamese Albert模型将其转换为特征的形式。
第二拼接模块13,用于从转换的该特征中选取与预设的至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征。
句向量转换模块14,用于从数据库中获取候选问题,并通过预先训练好的孪生Albert网络将该候选问题转换为句向量。
第一输入模块15,用于将该组合特征向量输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量。
第二输入模块16,用于将该用户特征和该句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量。
第三拼接模块17,用于将该第一中间特征向量与该第二中间特征向量进行拼接,得到拼接向量。
映射模块18,用于通过该问题推荐模型的激活函数对该拼接向量进行映射,得到该用户与该候选问题是否匹配的预测结果。
推荐模块19,用于当该预测结果为匹配时,将匹配的该候选问题推荐给用户。
在其中一个实施例中,该与预设的至少两个第二类别的用户信息相对应的特征包括基础特征和交叉特征,该第二拼接模块13具体用于:对该基础特征和该交叉特征进行拼接,得到该组合特征。
在其中一个实施例中,所述基础特征例如用户的年龄。所述交叉特征可以表示为:
Figure BDA0003084109870000121
其中,Cki表示布尔变量,当第i个特征属于第k个组合特征时,cki的值为1,否则为0,xi表示第i个特征值。可以理解的是,该交叉特征表示受基础特征(例如年龄)因素的影响较大的特征。
在其中一个实施例中,所述线性层表示为:
y=wx+b
其中,y表示第一中间特征向量,x表示所述组合特征,w和b均表示所述线性层的参数。
在其中一个实施例中,该候选问题的推荐装置100具体包括:
文本样本组获取模块,用于获取包括有第一文本样本和第二文本样本的样本组,该样本组携带有该第一文本样本和该第二文本样本是否匹配的标注;
第一训练模块,用于将标注的匹配结果作为该孪生Albert网络的输出,通过该样本组对该孪生Albert网络进行训练;
判断模块,用于当该孪生Albert网络的损失函数收敛时,判断该孪生Albert网络训练完成。
在其中一个实施例中,该问题推荐模型包括线性层和注意力机制层,该候选问题的推荐装置100还包括:
候选样本问题获取模块,用于根据历史日志中记载的被选定的候选样本问题,获取正样本问题和负样本问题,该正样本问题和该负样本问题均携带有该用户的用户样本信息;
第四拼接模块,用于将各该第一预设类别的用户样本信息转换为对应的样本特征,并对转换得到的各该样本特征进行拼接,得到用户样本特征;
第五拼接模块,用于从转换的该样本特征中选取与该预设的第二类别的用户样本信息相对应的特征进行拼接,得到组合样本特征;
样本问题转换模块,用于通过该孪生Albert网络将该正样本问题转换为正样本句向量,将该负样本问题转换为负样本句向量;
第二训练模块,用于根据该正样本句向量、该负样本句向量、该用户样本特征以及该组合样本特征对该问题推荐模型进行训练;
收敛模块,用于当该问题推荐模型中线性层的损失函数收敛且该注意力机制层的损失函数收敛时,得到训练好的问题推荐模型。
在其中一个实施例中,所述正样本问题表示被用户选定点击且曝光时间在预设时间范围内的样本问题,所述负样本包括所述候选样本问题中没有被用户点击的样本问题以及被用户点击后曝光时间不在所述预设时间范围内的样本问题。
进一步地,该预设时间范围例如大于5秒。根据本实施例的一个使用场景例如:在历史日志中记载有用户点击了某个样本问题,但是该没有问题的曝光时间不到5秒钟,则应该将该样本问题标记为负样本。再例如在历史日志中记载有用户点击了某个样本问题,且该样本问题的曝光时间大于5秒钟,则应该将该样本问题标记为正样本。数据库中没有记载在该历史日志中的候选问题均为负样本。本实施例中的正样本表示根据当前用户的用户信息以及当前的场景下用户比较关心的问题,负样本表示当前用户处在当前场景下并不关心的问题。
在其中一个实施例中,与上述用户信息类似地,该用户样本信息包括多种类别,对于不同类别的用户样本信息需要通过不同的方式将其转换为对应的特征。
在其中一个实施例中,该用户样本信息包括样本用户画像、样本用户点击行为动作、样本用户会话信息、样本用户当前讲解方案、样本用户讲解素材、样本用户讲解目录等样本文本信息。
所述样本用户画像可以通过量化的方式处理为特征的形式。例如,可以将性别男用“0”表示,将性别女用“1”表示。年龄、司龄、职级等用户信息均可以通过这种方式进行转换。
进一步地,样本用户点击行为动作也可以进行量化,点击可以用“1”表示,未点击可以用“0”表示。
对于样本用户会话信息、样本用户当前讲解方案、样本用户讲解素材、样本用户讲解目录等文本信息可以通过该Siamese Albert模型将其转换为特征的形式。
在其中一个实施例中,该候选问题的推荐装置100还包括:
第二稠密转换模块,用于通过Embedding神经网络将离散的用户样本特征换为稠密的用户样本特征。
通过Embedding神经网络将离散的用户样本特征换为稠密的用户样本特征可以提高用户样本特征的有效性,较少后续训练步骤中的样本特征的计算量。
在其中一个实施例中,该候选问题的推荐装置100进一步包括:
检测模块,用于检测该用户特征中的缺失值和异常值;
处理模块,用于通过预设的处理方式,对检测出的该缺失值和异常值进行处理。
在其中一个实施例中,该检测模块具体用于通过分布图和/或箱线图的方式对该用户特征中的缺失值和异常值进行检测。
其中,分布图是在视觉和程序上跟踪异常值的一种方法,通过样本的分布图可以清楚地看到,尽管数据集中的大多数值都被分组在一起,但仍有一些值从分布图中可以直观地看到其与众不同,因此,可以过滤出这些异常值实现对异常值的智能检测。
通过箱线图实现异常检测的原理为,预先设置方框的长度为r,最大值和最小值由晶须表示,晶须通常在盒子的任一侧延伸到1.5*r的距离,因此,在这些1.5*r值之外的所有数据点都可以判定为离群值,过滤出这些离群值即可以实现对异常值的智能检测。
进一步地,所述预设的处理方式例如将检测出的缺失值和异常值替换为预设值。所述预设值可以是“0”。
进一步地,该候选问题的推荐装置100还包括:
第一稠密转换模块,用于通过Embedding神经网络将离散的用户特征转换为稠密的用户特征;
该第二输入模块16具体用于将该稠密的用户特征和该句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量。
其中上述模块/单元中的“第一”和“第二”的意义仅在于将不同的模块/单元加以区分,并不用于限定哪个模块/单元的优先级更高或者其它的限定意义。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式。
关于候选问题的推荐装置的具体限定可以参见上文中对于候选问题的推荐方法的限定,在此不再赘述。上述候选问题的推荐装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本发明提出的候选问题的推荐装置,通过第一拼接模块将获取的与用户相关的多个第一预设类别的用户信息转换为对应的特征,并对转换得到各该特征进行拼接,得到用户特征,然后通过第二拼接模块从转换的该特征中选取与预设的至少两个第二类别的用户信息相对应的特征进行拼接,得到组合特征,通过预先训练好的孪生Albert网络将从数据库中获取候选问题转换为句向量,然后通过第一输入模块将该组合特征向量输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量,将该用户特征和该句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量,再通过第三拼接模块将该第一中间特征向量与该第二中间特征向量进行拼接,得到拼接向量,该拼接向量融合了组合特征、用户特征和候选问题的句向量,通过线性层对由组合特征生成的第一中间特征向量进行处理,通过线性层捕捉特征之间的交互与候选问题之间的关联性,可以提高问题推荐模型的记忆能力,另一方面通过注意力机制层对由用户特征生成的第二中间特征向量进行处理,可以根据用户个人的特定特征进行精准推荐,在提高问题推荐模型的推荐精度的同时还可以提高问题推荐模型的泛化能力。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种候选问题的推荐方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中候选问题的推荐方法的步骤,例如图2所示的步骤101至步骤109及该方法的其它扩展和相关步骤的延伸。或者,处理器执行计算机程序时实现上述实施例中候选问题的推荐装置的各模块/单元的功能,例如图4所示模块11至模块19的功能。为避免重复,这里不再赘述。
所述处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述计算机装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。
所述存储器可以集成在所述处理器中,也可以与所述处理器分开设置。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中候选问题的推荐方法的步骤,例如图2所示的步骤101至步骤109及该方法的其它扩展和相关步骤的延伸。或者,计算机程序被处理器执行时实现上述实施例中候选问题的推荐装置的各模块/单元的功能,例如图4所示模块11至模块19的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本实施例提出的候选问题的推荐方法、装置、计算机设备及存储介质,通过线性层对由组合特征生成的第一中间特征向量进行处理,通过线性层捕捉特征之间的交互与候选问题之间的关联性,可以提高问题推荐模型的记忆能力,另一方面通过注意力机制层对由用户特征生成的第二中间特征向量进行处理,可以根据用户个人的特定特征进行精准推荐,在提高问题推荐模型的推荐精度的同时还可以提高问题推荐模型的泛化能力。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种候选问题的推荐方法,其特征在于,所述方法包括:
获取与用户相关的多个第一预设类别的用户信息;
将各所述第一预设类别的用户信息转换为对应的特征,并对转换得到各所述特征进行拼接,得到用户特征;
从转换的所述特征中选取与预设的第二类别的至少两个用户信息相对应的特征进行拼接,得到组合特征;所述第二类别为所述第一预设类别的子集;
从数据库中获取候选问题,并通过预先训练好的孪生Albert网络将所述候选问题转换为句向量;
将所述组合特征输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量;
将所述用户特征和所述句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量;
将所述第一中间特征向量与所述第二中间特征向量进行拼接,得到拼接向量;
通过所述问题推荐模型的激活函数对所述拼接向量进行映射,得到所述用户与所述候选问题是否匹配的预测结果;
当所述预测结果为匹配时,将匹配的所述候选问题推荐给用户。
2.根据权利要求1所述的候选问题的推荐方法,其特征在于,所述与预设的至少两个第二类别的用户信息相对应的特征包括基础特征和交叉特征,得到所述组合特征的步骤具体包括:
对所述基础特征和所述交叉特征进行拼接,得到所述组合特征。
3.根据权利要求1所述的候选问题的推荐方法,其特征在于,训练所述孪生Albert网络的步骤包括:
获取包括有第一文本样本和第二文本样本的样本组,所述样本组携带有所述第一文本样本和所述第二文本样本是否匹配的标注;
将标注的匹配结果作为所述孪生Albert网络的输出,通过所述样本组对所述孪生Albert网络进行训练;
当所述孪生Albert网络的损失函数收敛时,判断所述孪生Albert网络训练完成。
4.根据权利要求1所述的候选问题的推荐方法,其特征在于,所述问题推荐模型包括线性层和注意力机制层,训练所述问题推荐模型的步骤具体包括:
根据历史日志中记载的被选定的候选样本问题,获取正样本问题和负样本问题,所述正样本问题和所述负样本问题均携带有所述用户的用户样本信息;
将各所述第一预设类别的用户样本信息转换为对应的样本特征,并对转换得到的各所述样本特征进行拼接,得到用户样本特征;
从转换的所述样本特征中选取与所述预设的第二类别的用户样本信息相对应的特征进行拼接,得到组合样本特征;
通过所述孪生Albert网络将所述正样本问题转换为正样本句向量,将所述负样本问题转换为负样本句向量;
根据所述正样本句向量、所述负样本句向量、所述用户样本特征以及所述组合样本特征对所述问题推荐模型进行训练;
当所述问题推荐模型中线性层的损失函数收敛且所述注意力机制层的损失函数收敛时,得到训练好的问题推荐模型。
5.根据权利要求1至4任一项所述的候选问题的推荐方法,其特征在于,在所述得到用户特征的步骤之后,所述方法还包括:
检测所述用户特征中的缺失值和异常值;
通过预设的处理方式,对检测出的所述缺失值和异常值进行处理。
6.根据权利要求5所述的候选问题的推荐方法,其特征在于,所述检测所述用户特征中的缺失值和异常值的步骤包括:
通过分布图和/或箱线图的方式对所述用户特征中的缺失值和异常值进行检测。
7.根据权利要求1至4任一项所述的候选问题的推荐方法,其特征在于,在得到所述用户特征的步骤之后,该方法还包括:
通过Embedding神经网络将离散的用户特征转换为稠密的用户特征;
所述将所述用户特征和所述句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量的步骤具体为:
将所述稠密的用户特征和所述句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量。
8.一种候选问题的推荐装置,其特征在于,所述装置包括:
信息获取模块,用于获取与用户相关的多个第一预设类别的用户信息;
第一拼接模块,用于将各所述第一预设类别的用户信息转换为对应的特征,并对转换得到各所述特征进行拼接,得到用户特征;
第二拼接模块,用于从转换的所述特征中选取与预设的第二类别的至少两个用户信息相对应的特征进行拼接,得到组合特征;所述第二类别为所述第一预设类别的子集;
句向量转换模块,用于从数据库中获取候选问题,并通过预先训练好的孪生Albert网络将所述候选问题转换为句向量;
第一输入模块,用于将所述组合特征输入至预先训练好的问题推荐模型中的线性层,得到第一中间特征向量;
第二输入模块,用于将所述用户特征和所述句向量输入至预先训练好的问题推荐模型中的注意力机制层,得到第二中间特征向量;
第三拼接模块,用于将所述第一中间特征向量与所述第二中间特征向量进行拼接,得到拼接向量;
映射模块,用于通过所述问题推荐模型的激活函数对所述拼接向量进行映射,得到所述用户与所述候选问题是否匹配的预测结果;
推荐模块,用于当所述预测结果为匹配时,将匹配的所述候选问题推荐给用户。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述候选问题的推荐方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述候选问题的推荐方法的步骤。
CN202110582046.9A 2021-05-26 2021-05-26 候选问题的推荐方法、装置、计算机设备及存储介质 Active CN113157898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110582046.9A CN113157898B (zh) 2021-05-26 2021-05-26 候选问题的推荐方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110582046.9A CN113157898B (zh) 2021-05-26 2021-05-26 候选问题的推荐方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN113157898A CN113157898A (zh) 2021-07-23
CN113157898B true CN113157898B (zh) 2022-10-14

Family

ID=76877728

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110582046.9A Active CN113157898B (zh) 2021-05-26 2021-05-26 候选问题的推荐方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN113157898B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115878764B (zh) * 2022-03-07 2023-08-11 北京中关村科金技术有限公司 语音回访问卷调查方法及系统、计算设备、存储介质
CN114757208B (zh) * 2022-06-10 2022-10-21 荣耀终端有限公司 一种问答匹配方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109726747A (zh) * 2018-12-20 2019-05-07 西安电子科技大学 基于社交网络推荐平台的数据融合排序方法
CN110162700A (zh) * 2019-04-23 2019-08-23 腾讯科技(深圳)有限公司 信息推荐及模型的训练方法、装置、设备以及存储介质
CN110825956A (zh) * 2019-09-17 2020-02-21 中国平安人寿保险股份有限公司 一种信息流推荐方法、装置、计算机设备及存储介质
CN111488526A (zh) * 2020-04-14 2020-08-04 北京声智科技有限公司 一种推荐方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102012676B1 (ko) * 2016-10-19 2019-08-21 삼성에스디에스 주식회사 콘텐츠 추천 방법, 장치 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109726747A (zh) * 2018-12-20 2019-05-07 西安电子科技大学 基于社交网络推荐平台的数据融合排序方法
CN110162700A (zh) * 2019-04-23 2019-08-23 腾讯科技(深圳)有限公司 信息推荐及模型的训练方法、装置、设备以及存储介质
CN110825956A (zh) * 2019-09-17 2020-02-21 中国平安人寿保险股份有限公司 一种信息流推荐方法、装置、计算机设备及存储介质
CN111488526A (zh) * 2020-04-14 2020-08-04 北京声智科技有限公司 一种推荐方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于用户隐性反馈行为的下一个购物篮推荐;李裕礞 等;《中文信息学报》;20170930;第31卷(第5期);215-222 *

Also Published As

Publication number Publication date
CN113157898A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN109829629B (zh) 风险分析报告的生成方法、装置、计算机设备和存储介质
US9245225B2 (en) Prediction of user response actions to received data
CN107590224B (zh) 基于大数据的用户偏好分析方法与装置
CN113157898B (zh) 候选问题的推荐方法、装置、计算机设备及存储介质
CN109800307B (zh) 产品评价的分析方法、装置、计算机设备及存储介质
CN109376237A (zh) 客户稳定性的预测方法、装置、计算机设备和存储介质
CN110569377A (zh) 一种媒体文件的处理方法和装置
CN107291840B (zh) 一种用户属性预测模型构建方法和装置
CN114528844A (zh) 意图识别方法、装置、计算机设备及存储介质
CN111460290B (zh) 信息的推荐方法、装置、设备和存储介质
CN110096617B (zh) 视频分类方法、装置、电子设备及计算机可读存储介质
CN113536139B (zh) 基于兴趣的内容推荐方法、装置、计算机设备及存储介质
WO2022105129A1 (zh) 内容数据推荐方法、装置、计算机设备及存储介质
CN110888911A (zh) 样本数据处理方法、装置、计算机设备及存储介质
CN113379301A (zh) 通过决策树模型对用户进行分类的方法、装置和设备
CN114399396A (zh) 保险产品推荐方法、装置、计算机设备及存储介质
CN110213660B (zh) 节目的分发方法、系统、计算机设备和存储介质
CN114461869A (zh) 业务特征数据处理方法、装置、电子设备及存储介质
CN112464660B (zh) 文本分类模型构建方法以及文本数据处理方法
CN112860878A (zh) 业务数据推荐方法、存储介质及设备
CN111966946A (zh) 一种页面权威值的识别方法、装置、设备和存储介质
CN108986786B (zh) 语音交互设备评级方法、系统、计算机设备和存储介质
CN111382232A (zh) 问答信息处理方法、装置及计算机设备
CN114491093B (zh) 多媒体资源推荐、对象表征网络的生成方法及装置
CN113255368B (zh) 针对文本数据进行情感分析的方法、装置及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant