CN113901289A - 一种基于无监督学习的推荐方法及系统 - Google Patents
一种基于无监督学习的推荐方法及系统 Download PDFInfo
- Publication number
- CN113901289A CN113901289A CN202111171685.2A CN202111171685A CN113901289A CN 113901289 A CN113901289 A CN 113901289A CN 202111171685 A CN202111171685 A CN 202111171685A CN 113901289 A CN113901289 A CN 113901289A
- Authority
- CN
- China
- Prior art keywords
- training data
- data
- bert model
- training
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9035—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Abstract
本发明公开了一种基于无监督学习的推荐方法及系统,方法包括以下步骤:获取第一训练数据,第一训练数据第一次输入bert模型,得到第二训练数据,第一训练数据第二次输入bert模型,得到第三训练数据;第二训练数据和第三训练数据构成正样本对和负样本对,正样本对和负样本输入loss函数,得到损失值;判断损失值是否在预设阈值内,若是,得到精准bert模型;获取用户数据,将处理后的用户数据输入精准bert模型,计算用户数据和待推荐数据的相似度分数,根据相似度分数对用户进行推荐,有益效果在于能更好的解决词的多层特征表示和一词多义的问题,减少需要人工标注的资源,能很好的缓解标注资源不足的问题,同时可以极大的提高推荐速度。
Description
技术领域
本发明属于推荐方法技术领域,更具体地说,本发明涉及一种基于无监督学习的推荐方法及系统。
背景技术
在推荐系统项目中,例如影视作品推荐,通常使用文本相似度(text similarity)来进行相似物品推荐,文本相似度是一种比较常用的推荐算法。文本相似度在推荐系统项目中的应用,可以归结为对简介文本计算相似度分数,通过相似度分数进行排序,根据排序结果进行推荐。在工业场景的推荐项目中,经常面临没有标注数据的问题,同时也需要考虑推荐算法的性能问题,针对工业场景的推荐项目中目前的技术方案存在以下缺陷:
第一,一种方法是使用大规模语料库,通过word2vec训练出语料库文本词向量,训练完成后将文本进行分词操作,并找出每个词对应的词向量。对文本的所有词向量进行池化操作,生成固定维度的句向量,计算两个句向量的余弦相似度来衡量文本之间的相关程度。
word2ve方法的局限之一是无法解决一词多义的问题。word2vec由词义的分布式假设出发,分布式假设的含义是一个单词的意思由频繁出现在它上下文的词给出,训练词的稠密化向量表示。而该向量在其他文本场景中是固定不变的,无法根据上下文得到不同的语义向量。
word2vec方法的另一个局限是词不具备多层特征。word2vec通过简单的向量embedding表征矩阵训练单层分类网络,固定一个单词的词向量。因此相比于bert等预训练模型,word2vec无法体现词的复杂特性,包括语法(syntax)、语义(semantics)等。
第二,另一种方案,使用bert预训练模型对两个文本进行联合表征,进行下游的文本相似度微调任务。使用人工标注资源将成对的文本打上相似度标签,用[SEP]分隔符拼接两个成对的文本,输入到bert模型中,在模型输出层获取logits层并计算sigmoid层,最终得到文本的相似度分数。
bert预训练模型的局限之一是对两个文本进行联合表征输入到bert模型的局限是需要大量人力标注资源。对两个文本进行联合表征输入到bert模型的另一个局限是模型性能不足。在模型预测时,该方法需要将两段文本同时作为输入。无法离线存储文本的embedding表征,因此难以在高并发场合下使用。
发明内容
本发明的目的在于提供一种基于无监督学习的推荐方法及系统,以解决上述现有技术中存在的推荐方法中需要大量人力来标注资源的技术问题。
为实现上述技术目的,本发明采用的技术方案如下:
一种基于无监督学习的推荐方法,包括以下步骤:
获取第一训练数据,所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据;
所述第二训练数据和所述第三训练数据构成正样本对和负样本对,所述正样本对和所述负样本输入loss函数,得到损失值;
判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,所述第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型;
获取用户数据,将处理后的所述用户数据输入精准bert模型,计算所述用户数据和待推荐数据的相似度分数,根据所述相似度分数对用户进行推荐。
优选地,所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据,具体包括以下步骤:
设置bert模型中dropout层的预设参数不为0,每个输出节点以所述预设参数的概率置0;
所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据,其中,所述第二训练数据和所述第三训练数据不相同。
优选地,所述第二训练数据和所述第三训练数据构成正样本对和负样本对,具体包括以下步骤:
所述第二训练数据和所述第三训练数据基于相同的输入数据构成正样本对;
所述第二训练数据和所述第三训练数据基于不同的输入数据构成负样本对。
优选地,获取用户数据,将处理后的所述用户数据输入精准bert模型,具体包括以下步骤:
对所述用户数据进行增强,所述增强方法包括回译和词对互换;
将增强后的用户数据输入精准bert模型,得到用户的embedding特征向量。
优选地,还包括步骤:
定时获取线上的更新训练数据,所述更新训练数据输入精准bert模型,根据所述更新训练数据对所述精准bert模型进行进一步训练。
优选地,所述第二训练数据为embedding特征向量,所述第三训练数据为embedding特征向量,所述第二训练数据和所述第三训练数据均为待推荐数据。
优选地,所述第二训练数据、所述第三训练数据和所述用户的embedding特征向量均存储在数据库中。
优选地,计算所述用户数据和待推荐数据的相似度分数,根据所述相似度分数对用户进行推荐具体包括以下步骤:
根据余弦相似度算法计算所述用户数据和待推荐数据的相似度分数;
根据所述相似度分数进行排序,得到相似排序列表,根据所述相似排序列表对用户进行推荐。
一种基于无监督学习的推荐系统,包括:
第一训练模块,用于获取第一训练数据,所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据;
第二训练模块,用于所述第二训练数据和所述第三训练数据构成正样本对和负样本对,所述正样本对和所述负样本输入loss函数,得到损失值。
判断模块,用于判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,所述第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型;
推荐模块,获取用户数据,将处理后的所述用户数据输入精准bert模型,计算所述用户数据和待推荐数据的相似度分数,根据所述相似度分数对用户进行推荐。
一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令被处理器执行时实现上述所述方法的步骤。
本发明提供的有益效果在于:
1、本发明通过获取用户数据,将处理后的用户数据输入精准bert模型,计算用户数据和待推荐数据的相似度分数,根据相似度分数对用户进行推荐,对比学习中使用精准bert模型进行文本表征,能很好的解决词的多层特征表示和一词多义的问题。精准bert模型在训练时学习到不同网络层的不同层次的特征,高层的网络层体现了依赖于上下文部分的特征,低层的网络层体现了依赖于语法层面的特征。因此相比于word2vec的文本相似度方法,本申请训练的精准bert模型能更好的解决词的多层特征表示和一词多义的问题。
2、本发明通过第二训练数据和第三训练数据构成正样本对和负样本对,正样本对和负样本输入loss函数,得到损失值,构造正样本对和负样本对的过程中并不需要人工的干预,因此相比于使用文本联合表征输入到bert模型的文本相似度预测方法,可以减少需要人工标注的资源,能很好的缓解标注资源不足的问题。
3、本发明通过判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,所述第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型。一旦精准bert模型训练完成,使用现有的模型就可以离线得到embedding特征向量,相比于文本联合表征输入到bert模型的文本相似度预测方法,可以极大的提高推荐速度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是基于无监督学习的推荐方法流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
如图1所示,本实施例包括一种基于无监督学习的推荐方法,包括以下步骤:获取第一训练数据,第一训练数据第一次输入bert模型,得到第二训练数据,第一训练数据第二次输入bert模型,得到第三训练数据;
第二训练数据和第三训练数据构成正样本对和负样本对,正样本对和负样本输入loss函数,得到损失值;判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型;
获取用户数据,将处理后的用户数据输入精准bert模型,计算用户数据和待推荐数据的相似度分数,根据相似度分数对用户进行推荐。
第一训练数据第一次输入bert模型,得到第二训练数据,第一训练数据第二次输入bert模型,得到第三训练数据,具体包括以下步骤:设置bert模型中dropout层的预设参数不为0,每个输出节点以预设参数的概率置0;第一训练数据第一次输入bert模型,得到第二训练数据,第一训练数据第二次输入bert模型,得到第三训练数据,其中,第二训练数据和第三训练数据不相同。
具体的,设置bert模型中dropout层的预设参数不为0,设定预设参数为p,在本实施例中,p的数值为0.1,即使每次输入的数据均相同,但因每个输出节点以p概率置0,所以每次输出的结果也不一样,因此,第一训练数据分两次输入bert模型,得到第二训练数据和第三训练数据,但第二训练数据和第三训练数据不相同。
第二训练数据和第三训练数据构成正样本对和负样本对,具体包括以下步骤:第二训练数据和第三训练数据基于相同的输入数据构成正样本对;第二训练数据和第三训练数据基于不同的输入数据构成负样本对。
具体的,第一训练数据至少包括数据A和数据B,第一训练数据第一次输入bert模型,得到第二训练数据,数据A和数据B第一次一起输入至bert模型,得到数据a1和数据b1。第一训练数据第二次输入bert模型,得到第三训练数据,数据A和数据B第二次一起输入至bert模型,得到数据a2和数据b2。
数据a1和数据a2、数据b1和数据b2这两对数据分别作为正样本对;数据a1和数据b1、数据a1和数据b2、数据a2和数据b1、数据a2和数据b2这四对数据分别作为负样本对。
获取用户数据,将处理后的用户数据输入精准bert模型,具体包括以下步骤:对用户数据进行增强,增强方法包括回译和词对互换;将增强后的用户数据输入精准bert模型,得到用户的embedding特征向量。通过增强用户数据来增加训练的数据量,提高模型的泛化能力,同时增加噪声数据,提升模型的鲁棒性,解决数据不足或数据不均衡问题。
还包括步骤:定时获取线上的更新训练数据,更新训练数据输入精准bert模型,根据更新训练数据对精准bert模型进行进一步训练。确保精准bert模型能区分当前已经更新的训练数据,确保推荐的质量。
计算用户数据和待推荐数据的相似度分数,根据相似度分数对用户进行推荐具体包括以下步骤:根据余弦相似度算法计算用户数据和待推荐数据的相似度分数;根据相似度分数进行排序,得到相似排序列表,根据相似排序列表对用户进行推荐。具体的,余弦相似度算法是通过计算用户的embedding特征向量和待推荐数据的夹角余弦值来评估它们的相似度分数。
第二训练数据为embedding特征向量,第三训练数据为embedding特征向量,第二训练数据和第三训练数据均为待推荐数据。第二训练数据、第三训练数据和用户的embedding特征向量均存储在数据库中。
实施例2:
本实施例包括一种基于无监督学习的推荐系统,包括:
第一训练模块,用于获取第一训练数据,第一训练数据第一次输入bert模型,得到第二训练数据,第一训练数据第二次输入bert模型,得到第三训练数据;
第二训练模块,用于第二训练数据和第三训练数据构成正样本对和负样本对,正样本对和负样本输入loss函数,得到损失值。
判断模块,用于判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型;
推荐模块,获取用户数据,将处理后的用户数据输入精准bert模型,计算用户数据和待推荐数据的相似度分数,根据相似度分数对用户进行推荐。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见实施例1的部分说明即可。
实施例3:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机指令,计算机指令被处理器执行时实现实施例1中方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
需要说明的是:
说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
此外,需要说明的是,本说明书中所描述的具体实施例,其零、部件的形状、所取名称等可以不同。凡依本发明专利构思所述的构造、特征及原理所做的等效或简单变化,均包括于本发明专利的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (10)
1.一种基于无监督学习的推荐方法,其特征在于,包括以下步骤:
获取第一训练数据,所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据;
所述第二训练数据和所述第三训练数据构成正样本对和负样本对,所述正样本对和所述负样本输入loss函数,得到损失值;
判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,所述第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型;
获取用户数据,将处理后的所述用户数据输入精准bert模型,计算所述用户数据和待推荐数据的相似度分数,根据所述相似度分数对用户进行推荐。
2.如权利要求1所述的一种基于无监督学习的推荐方法,其特征在于,所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据,具体包括以下步骤:
设置bert模型中dropout层的预设参数不为0,每个输出节点以所述预设参数的概率置0;
所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据,其中,所述第二训练数据和所述第三训练数据不相同。
3.如权利要求1所述的一种基于无监督学习的推荐方法,其特征在于,所述第二训练数据和所述第三训练数据构成正样本对和负样本对,具体包括以下步骤:
所述第二训练数据和所述第三训练数据基于相同的输入数据构成正样本对;
所述第二训练数据和所述第三训练数据基于不同的输入数据构成负样本对。
4.如权利要求1所述的一种基于无监督学习的推荐方法,其特征在于,获取用户数据,将处理后的所述用户数据输入精准bert模型,具体包括以下步骤:
对所述用户数据进行增强,所述增强方法包括回译和词对互换;
将增强后的用户数据输入精准bert模型,得到用户的embedding特征向量。
5.如权利要求1所述的一种基于无监督学习的推荐方法,其特征在于,还包括步骤:
定时获取线上的更新训练数据,所述更新训练数据输入精准bert模型,根据所述更新训练数据对所述精准bert模型进行进一步训练。
6.如权利要求1所述的一种基于无监督学习的推荐方法,其特征在于,所述第二训练数据为embedding特征向量,所述第三训练数据为embedding特征向量,所述第二训练数据和所述第三训练数据均为待推荐数据。
7.如权利要求4所述的一种基于无监督学习的推荐方法,其特征在于,所述第二训练数据、所述第三训练数据和所述用户的embedding特征向量均存储在数据库中。
8.如权利要求1所述的一种基于无监督学习的推荐方法,其特征在于,计算所述用户数据和待推荐数据的相似度分数,根据所述相似度分数对用户进行推荐具体包括以下步骤:
根据余弦相似度算法计算所述用户数据和待推荐数据的相似度分数;
根据所述相似度分数进行排序,得到相似排序列表,根据所述相似排序列表对用户进行推荐。
9.一种基于无监督学习的推荐系统,其特征在于,包括:
第一训练模块,用于获取第一训练数据,所述第一训练数据第一次输入bert模型,得到第二训练数据,所述第一训练数据第二次输入bert模型,得到第三训练数据;
第二训练模块,用于所述第二训练数据和所述第三训练数据构成正样本对和负样本对,所述正样本对和所述负样本输入loss函数,得到损失值。
判断模块,用于判断损失值是否在预设阈值内,若否,重复运行获取第一训练数据,所述第一训练数据第一次输入bert模型以及之后的步骤;若是,得到精准bert模型;
推荐模块,获取用户数据,将处理后的所述用户数据输入精准bert模型,计算所述用户数据和待推荐数据的相似度分数,根据所述相似度分数对用户进行推荐。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令被处理器执行时实现如权利要求1至8中任一项所述的基于无监督学习的推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111171685.2A CN113901289A (zh) | 2021-10-08 | 2021-10-08 | 一种基于无监督学习的推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111171685.2A CN113901289A (zh) | 2021-10-08 | 2021-10-08 | 一种基于无监督学习的推荐方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113901289A true CN113901289A (zh) | 2022-01-07 |
Family
ID=79190332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111171685.2A Pending CN113901289A (zh) | 2021-10-08 | 2021-10-08 | 一种基于无监督学习的推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113901289A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114372458A (zh) * | 2022-01-20 | 2022-04-19 | 北京零点远景网络科技有限公司 | 一种基于政务工单的突发事件检测方法 |
CN115033683A (zh) * | 2022-06-17 | 2022-09-09 | 平安科技(深圳)有限公司 | 摘要生成方法、装置、设备及存储介质 |
CN115329063A (zh) * | 2022-10-18 | 2022-11-11 | 江西电信信息产业有限公司 | 一种用户的意图识别方法及系统 |
-
2021
- 2021-10-08 CN CN202111171685.2A patent/CN113901289A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114372458A (zh) * | 2022-01-20 | 2022-04-19 | 北京零点远景网络科技有限公司 | 一种基于政务工单的突发事件检测方法 |
CN115033683A (zh) * | 2022-06-17 | 2022-09-09 | 平安科技(深圳)有限公司 | 摘要生成方法、装置、设备及存储介质 |
CN115033683B (zh) * | 2022-06-17 | 2024-05-07 | 平安科技(深圳)有限公司 | 摘要生成方法、装置、设备及存储介质 |
CN115329063A (zh) * | 2022-10-18 | 2022-11-11 | 江西电信信息产业有限公司 | 一种用户的意图识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113901289A (zh) | 一种基于无监督学习的推荐方法及系统 | |
CN111488931B (zh) | 文章质量评估方法、文章推荐方法及其对应的装置 | |
CN111159485A (zh) | 尾实体链接方法、装置、服务器及存储介质 | |
CN112925904B (zh) | 一种基于Tucker分解的轻量级文本分类方法 | |
CN109933792A (zh) | 基于多层双向lstm和验证模型的观点型问题阅读理解方法 | |
CN112860871B (zh) | 自然语言理解模型训练方法、自然语言理解方法及装置 | |
CN116304745B (zh) | 基于深层次语义信息的文本话题匹配方法及系统 | |
CN112364132A (zh) | 基于依存句法的相似度计算模型和系统及搭建系统的方法 | |
CN112434142A (zh) | 一种标记训练样本的方法、服务器、计算设备及存储介质 | |
CN114528374A (zh) | 一种基于图神经网络的电影评论情感分类方法及装置 | |
CN115223020A (zh) | 图像处理方法、装置、电子设备以及可读存储介质 | |
CN116244448A (zh) | 基于多源数据信息的知识图谱构建方法、设备及系统 | |
CN115408488A (zh) | 用于小说场景文本的分割方法及系统 | |
CN115526166A (zh) | 一种图文情感推断方法、系统、存储介质及设备 | |
CN111368066B (zh) | 获取对话摘要的方法、装置和计算机可读存储介质 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN117009478A (zh) | 一种基于软件知识图谱问答问句解析过程的算法融合方法 | |
WO2021063060A1 (zh) | 文本信息提取方法、装置、存储介质及设备 | |
CN113761874A (zh) | 事件事实性预测方法、装置、电子设备与存储介质 | |
CN114357203A (zh) | 多媒体检索方法、装置及计算机设备 | |
CN113516198A (zh) | 一种基于记忆网络和图神经网络的文化资源文本分类方法 | |
CN116227496B (zh) | 一种基于深度学习的电力舆情实体关系抽取方法及系统 | |
CN114840697B (zh) | 一种云服务机器人的视觉问答方法及系统 | |
CN117235234B (zh) | 对象信息获取方法、装置、计算机设备和存储介质 | |
CN116070642A (zh) | 一种基于表情嵌入的文本情感分析方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |