CN110377714A - 基于迁移学习的文本匹配方法、装置、介质及设备 - Google Patents
基于迁移学习的文本匹配方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN110377714A CN110377714A CN201910650372.1A CN201910650372A CN110377714A CN 110377714 A CN110377714 A CN 110377714A CN 201910650372 A CN201910650372 A CN 201910650372A CN 110377714 A CN110377714 A CN 110377714A
- Authority
- CN
- China
- Prior art keywords
- sentence
- matched
- semantic vector
- query statement
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及自然语言处理技术领域,提供了一种基于迁移学习的文本匹配方法及装置、计算机存储介质、电子设备,其中,上述方法包括:获取查询语句以及与查询语句对应的待匹配语句集合;基于预训练的语言模型,确定关于待匹配语句集合中第i个待匹配语句与查询语句的第i组语义向量集,其中,每组语义向量集包含第一语义向量和第二语义向量;根据第i组语义向量集中的第一语义向量与第二语义向量确定第i个待匹配语句与查询语句之间的匹配值,其中,i为正整数;根据匹配值,在待匹配语句集合中确定查询语句的目标匹配文本。本公开提供的技术方案能够显著提升基于语义表示的文本匹配准确度。
Description
技术领域
本公开涉及自然语言处理技术领域,特别涉及一种基于迁移学习的文本匹配方法、基于迁移学习的文本匹配装置,以及实现上述方法的计算机存储介质及电子设备。
背景技术
在自然语言处理(Natural Language Processing,简称:NLP)中,文本匹配技术通常以文本相似度计算、文本相关性计算的形式进行的,可应用于搜索引擎、智能问答、知识检索、信息流推荐等方面。
随着深度学习技术在NLP中的应用,相关技术中,深度语义匹配网络逐渐被应用于文本匹配,以基于语义表示(sentence encoding,简称:SE)网络为例进行说明。
SE网络核心思想是提取文本整体语义再进行匹配,通常分为输入层,表征层和匹配层。输入层将文本字序列或者词序列映射成字向量(char embedding)或者词向量(wordembedding)序列;表征层一般采用循环神经网络(Recurrent Neural Network,简称:RNN)或者卷积神经网络(Convolutional Neural Network,简称:CNN)作为字向量、词向量序列的特征抽取器,将字向量、词向量序列转换为具有全局信息的低维稠密的语义向量;匹配层利用上述语义向量进行相似度计算,例如,常用cosine相似度函数或者通过多层感知机(Multi-Layer Perception,简称:MLP)网络训练拟合出一个匹配值来实现相似度计算。
然而,相关技术提供的文本匹配方案存在匹配准确度有待提高
需要说明的是,上述背景技术部分公开的信息仅用于加强对本公开的背景的理解。
发明内容
本公开的目的在于提供一种基于迁移学习的文本匹配方法、基于迁移学习的文本匹配装置、计算机存储介质及电子设备,进而至少在一定程度上避免了相关技术中文本匹配方案存在匹配准确度的缺陷。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种基于迁移学习的文本匹配方法,所述方法包括:
获取查询语句以及与所述查询语句对应的待匹配语句集合;基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
在本公开的示例性实施例中,基于前述方案,在所述确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集之前,所述方法还包括:获取多组样本,其中,每组样本包含一语句对和用于标识所述语句对是否相匹配的分类标签;根据所述样本中的训练集,对所述预训练的语言模型进行微调训练。
在本公开的示例性实施例中,基于前述方案,所述方法还包括:根据所述样本中的测试集,对所述微调训练后的预训练的语言模型进行测试,得到测试结果;响应于所述测试结果满足预设条件,则得到训练好的所述预训练的语言模型,以用于确定所述第i组语义向量集。
在本公开的示例性实施例中,基于前述方案,所述预训练的语言模型包含N个隐含层,N为大于2的整数;其中,所述基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,包括:根据所述预训练的语言模型的第N-1个隐含层的输出,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集。
在本公开的示例性实施例中,基于前述方案,所述根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,包括:对于第i组所述语义向量集:确定所述第一语义向量与所述第二语义向量之间的距离向量,以及确定所述第一语义向量与所述第二语义向量之间的角度向量;根据所述距离向量和所述角度向量确定目标向量,并对所述目标向量进行全连接处理和归一化处理,得到所述第i个待匹配语句与所述查询语句之间的匹配值。
在本公开的示例性实施例中,基于前述方案,所述根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本,包括:按照大小关系对所述待匹配语句对应的匹配值进行排序;并将大于预设阈值的目标匹配值对应的待匹配语句作为所述查询语句的目标匹配文本;或,将最大匹配值对应的待匹配语句作为所述查询语句的目标匹配文本。
在本公开的示例性实施例中,基于前述方案,其特征在于,所述预训练的语言模型为BERT、OpenAI GPT或ELMo。
根据本公开的第二方面,提供一种基于迁移学习的文本匹配装置,所述装置包括:
获取模块,用于获取查询语句以及与所述查询语句对应的待匹配语句集合;语义向量确定模块,用于基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;匹配值确定模块,用于根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;目标匹配文本确定模块,用于根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
根据本公开的第三方面,提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的基于迁移学习的文本匹配方法,所述计算机程序被处理器执行时实现上述第二方面所述的基于迁移学习的文本匹配方法。
根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一方面所述的基于迁移学习的文本匹配方法,所述处理器配置为经由执行所述可执行指令来执行上述第二方面所述的基于迁移学习的文本匹配方法。
由上述技术方案可知,本公开示例性实施例中的基于迁移学习的文本匹配方法、基于迁移学习的文本匹配装置、计算机存储介质及电子设备至少具备以下优点和积极效果:
在本公开的一些实施例所提供的技术方案中,由于预训练的语言模型(例如,BERT模型)具有很复杂的模型结果,并在海量语料库上进行了预训练,因此,预训练的语言模型具有良好的语义表达能力。相较于相关技术的通过RNN、CNN获取语义向量方式,本公开利用迁移学习思想,引入经过微调的预训练的语言模型来提取语义向量,提升了语义向量的提取准确度,进而,显著提升基于语义表示的文本匹配准确度,有益于智能问答、搜索引擎、知识检索、信息流推荐等系统的性能提升。
本公开应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本公开一实施例的基于迁移学习的文本匹配方法的流程示意图;
图2示出了根据本公开一实施例的基于迁移学习的文本匹配模型的结构示意图;
图3示出了根据本公开一实施例的对预训练的语言模型进行微调训练方法的流程示意图;
图4示出了根据本公开一实施例的匹配值的确定方法的流程示意图;
图5示出了根据本公开一实施例的基于迁移学习的文本匹配装置的结构示意图;
图6示出本公开示例性实施例中计算机存储介质的结构示意图;以及,
图7示出本公开示例性实施例中电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
本说明书中使用用语“一个”、“一”、“该”和“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”和“第二”等仅作为标记使用,不是对其对象的数量限制。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
对于相关技术中提供的文本匹配方案,存在以下不足:
一方面,SE网络的输入层中,字向量、词向量的训练方法一般采用word2vec、glove或fasttext等方法。其中,存在由于数据量的不足而导致学习到的字向量、词向量无法全面表达语义或不能准确的表示多义词语义。同时,word2vec、glove或fasttext等方法是无监督初始化并静态的方法,不能对多义词进行建模,不能反映其上下文语境,从而不利于文本匹配准确度的提升。
另一方面,SE网络的表征层中,一般采用循环神经网络(Recurrent NeuralNetwork,简称:RNN)或者卷积神经网络(Convolutional Neural Network,简称:CNN)作为字向量、词向量序列的特征抽取器,其特征抽取能力存在一定局限性,也不利于文本匹配准确度的提升。
针对上述相关技术中的一种或多种缺点,在本公开提供了一种基于迁移学习的文本匹配方案,至少在一定程度上克服现有的相关技术中存在的以上缺陷。具体的,本公开技术方案利用迁移学习的思想,基于预训练的语言模型实现文本的语义特征抽取,替代了SE网络中的输入层和表征层,从而克服SE网络存在的语义表征能力不足等缺点。
图1示出了根据本公开一实施例的基于迁移学习的文本匹配方法的流程示意图。参考图1,该实施例提供的方法包括:
步骤S110,获取查询语句以及与所述查询语句对应的待匹配语句集合;
步骤S120,基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;
步骤S130,根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;以及,
步骤S140,根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
在图1所示实施例提供的技术方案中,鉴于预训练的语言模型(例如,BERT模型)具有很复杂的模型结果,并在海量语料库上进行了预训练,因此,预训练的语言模型具有良好的语义表达能力。相较于相关技术的通过RNN、CNN获取语义向量方式,本公开利用迁移学习思想,引入经过微调的预训练的语言模型来提取语义向量,提升了语义向量的提取准确度,进而,显著提升基于语义表示的文本匹配准确度,有益于智能问答、搜索引擎、知识检索、信息流推荐等系统的性能提升。
示例性的,上述预训练的语言模型为BERT(Bidirectional EncoderRepresentation from Transformers)、OpenAI GPT或ELMo。以下实施例中以BERT为例进行说明。
在示例性的实施例中,执行如图1所示的实施例之前,本技术方案还提供获取基于迁移学习的文本匹配模型的方法步骤。示例性的,图2示出了根据本公开一实施例的基于迁移学习的文本匹配模型的结构示意图。参考图2,该实施例提供的基于迁移学习的文本匹配模型200包括:输入层201、预训练的语音模型(BERT)202、以及全连接层204和归一化层205。其中,在训练基于迁移学习的文本匹配模型200之前,需先对用于提取语义特征的预训练的语音模型(BERT)202进行微调训练。
在示例性的实施例中,图3示出了根据本公开一实施例的对预训练的语言模型进行微调训练方法的流程示意图。参考同图3,该实施例提供的方法包括步骤S310-步骤S350。
在步骤S310中,获取多组样本,其中,每组样本包含一语句对和用于标识所述语句对是否相匹配的分类标签。
示例性的,通过整理和标注适量的数据语料,从而获取多组样本。其中,每组样本包含一语句对和用于标识语句对是否相匹配的分类标签。具体的,如果该语句对的语义相同或相似,标签可以设置为1;如果该语句对的语义不相似,标签可以设置为0。
示例性的,将上述多组样本可以按合适的比例随机分成两部分,得到训练集和测试集。其中,训练集用于微调训练上述BERT模型,测试集用于在模型训练过程中,定时测试模型的训练效果,防止模型训练发生过拟合现象。
在步骤S320中,根据所述样本中的训练集,对所述预训练的语言模型进行微调训练。
示例性的,获取经过预训练的中文BERT模型,利用上述样本中的训练集,对该BERT模型进行微调训练。
示例性的,确定BERT模型训练所需的符号包括:[CLS]、[SEP]、[PAD]、[MASK],进一步的,基于上述符号将训练集中样本的语句对处理输出成tokens数组。其中,tokens数组的格式为:第一个元素[CLS]符号,第一句话中的每个字符,[SEP]符号,第二句话的每个字符,最后为[SEP]符号。例如,匹配语句对为:“怎么买保险”和“如何买保险”,则该样本的tokens数组为:[[CLS],怎,么,买,保,险,[SEP],如,何,买,保,险,[SEP]]。
示例性的,为了批量训练以提升模型训练速度,可以将训练集中的上述tokens数组进行形式对齐,即将训练集中的tokens数组处理为相同的长度。具体的,可以通过[PAD]字符进行占位,以使得训练集中的tokens数组处理为相同的长度。例如,设置所有样本的需要对齐的长度为15,则上述的tokens数组需要补成长度为15的数组:[[CLS],怎,么,买,保,险,[SEP],如,何,买,保,险,[SEP],[PAD],[PAD]]。
示例性的,将上述训练集中的每一tokens数组转化为BERT模型输入所需的token_id,segment_id,input_mask三组向量。其中,token_id用于标识tokens数组中每个token对应的id,segment_id用于标识语句对中的两语句的分隔,input_mask可以标识输入的位置是否为[PAD]位。
示例性的,根据预设的字符-数字id的映射关系(如,预训练上述BERT模型时字符-数字id的映射关系),将上述tokens数组转换为数字数组token_id向量。
示例性的,对于segment_id,tokens数组中的[CLS]、第一句话中的每个字符和第一个[SEP]和最后的[PAD]字符利用数字0占位,第二句话中的每个字符和第二个[SEP]利用数字1占位,[PAD]字符利用数字0占位。例如,上述tokens数组的segment_id为:[0,0,0,0,0,0,0,1,1,1,1,1,1,0,0]。
示例性的,对于input_mask,tokens数组中的非[PAD]字符利用数字1占位,[PAD]字符利用数字0占位。例如,上述的tokens数组的input_mask为:[1,1,1,1,1,1,1,1,1,1,1,1,1,0,0]。
示例性的,可以将文本语义匹配的任务看作一个语句对匹配或者不匹配的二分类任务。因此,只需利用BERT模型在第一个标签位置,即[CLS]位置的输出向量C,并接上适当神经元数目的全连接层隐含层和输出层,即可得最终的二分类输出。进一步的,将输出层的两个神经元的输出数值利用softmax函数进行归一化,即可获得语句对匹配和不匹配的概率。例如,根据以下公式获得语句对匹配和不匹配的概率:
P=softmax(X.WT+b)
其中,X为最后一个隐含层的输出向量,W为隐含层和输出层的之间权重矩阵,WT为权重矩阵W的转置矩阵,b为输出层的偏置量。
示例性的的,训练上述BERT模型的损失函数采用交叉熵损失,公式如下所示:
其中,当N为样本总数,ti为第i个样本的真实标签,pi为第i个样本的模型预测的标签概率,其中,N为大于2的整数,i为正整数。
在步骤S330中,根据所述样本中的测试集,对所述微调训练后的预训练的语言模型进行测试,得到测试结果。
在步骤S340中,判断所述测试结果是否满足预设条件。若满足,则执行步骤S350,得到训练好的所述预训练的语言模型,以用于确定所述第i组语义向量集。
在示例性的实施例中,按一定的训练步长定时验证上述BRET模型对验证集数据的预测准确率,当第若干次在验证集数据上的准确率未提升后,可停止微调训练过程,保存此时最佳的微调BERT模型。
在示例性的实施例中,若测试结果不满足预设条件,则继续执行步骤S320,以进一步训练上述BERT模型,直至训练后的BERT模型满足上述预设条件。
在图3所示实施例提供的技术方案中,由于仅需要相对少量的业务标注数据来对预训练模型进行微调训练,便可以获取满足预期准确度要求的提取语义。相较于相关技术中通过神经网络模型进行语义提取,本技术方案在确保语义提取准确度的基础上,减少了业务标记数据量。
在示例性的实施例中,根据上述微调训练后的BERT模型组件,如图2所示的基于迁移学习的文本匹配模型200。具体参考图2,模型分为输入层201,基于BERT模型的特征抽取层202,匹配层(包括全连接层203和归一化层204)。
在示例性的实施例中,训练上述基于迁移学习的文本匹配模型200。其中,可以采用图3所述实施例中的训练集数据进行文本匹配模型的训练。
示例性的,将文本匹配任务看作一个语句对的匹配或者不匹配的二分类任务,采用交叉熵损失作为训练的损失函数,交叉熵公式如下所示:
其中,当N为样本总数,ti为第i个样本的真实标签,pi为第i个样本的模型预测的标签概率,其中,N为大于2的整数,i为正整数。
示例性的,将训练数据批量输入模型中进行训练,并按一定的训练步长定时验证模型对验证集数据的预测准确率,当若干次在验证集数据上的准确率未提升时,即可停止模型训练过程,保存文本匹配模型。
从而,并可以根据训练后的文本匹配模型进行如图1所示实施例的文本匹配过程。
以下将对图1所示实施例的各个步骤的具体实施方式进行详细阐述:
在示例性的实施例中,参考图1和图2,在步骤S110中,通过输入层201接收查询语句以及与所述查询语句对应的待匹配语句集合。例如,根据获取到的查询语句q1,利用文本检索系统在知识库中获取包含n个待匹配的语句的集合(Q1,Q2,Q3,....,Qn)。具体的,将q1与待匹配语句Qi分别配对,获得(q1,Qi)语句对。
参考图2,对上述两个待匹配的(q1,Qi)语句对进行预处理,生成用于输入上述微调训练后的BERT模型(特征抽取层202)的token_id,segment_id,input_mask三组向量。
进一步的,在步骤S120中,基于微调训练后的BERT模型(特征抽取层202),确定关于待匹配语句集合中第i个待匹配语句Qi与查询语句q1的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量。例如:根据特征抽取层202进行语义提取,得到(q1,Qi)语句对的语义向量输出R1i,R2i。
在示例性的实施例中,BERT模型不同层学习到的信息不同,较深层所学习到的语义向量具有更好的语义表征性,但倒数第一层由于太靠近输出层,容易受输出标签的影响。因此权衡两者,本模型的语义向量输出采用BERT模型的倒数第二层的隐含层输出向量,并在时间维度上进行平均获得。例如,根据以下公式确定上述语义向量:
其中,M为该语句对的时间步长,且M为大于2的整数,rt为BERT模型倒数第二层第t个时间点上的输出向量,t为正整数。
在步骤S130中,根据第i组语义向量集中的第一语义向量R1i与第二语义向量R2i,确定q1和Qi之间的匹配值。示例性的,图4示出了根据本公开一实施例的匹配值的确定方法的流程示意图。具体示出了对于第i组语义向量集R1i、R2i,确定对应的q1、Qi之间匹配值的方法。参考图4,该方法包括步骤S410和步骤S420。
在步骤S410中,确定所述第一语义向量与所述第二语义向量之间的距离向量,以及确定所述第一语义向量与所述第二语义向量之间的角度向量。
示例性的,参考图2,将BERT模型输出的语义向量R1i、R2i分别经过相减和内积操作,获得距离量和角度量,具体的:距离量ai=|R1i-R2i|,角度量bi=R1i·R2i。
在步骤S420中,根据所述距离向量和所述角度向量确定目标向量,并对所述目标向量进行全连接处理和归一化处理,得到所述第i个待匹配语句与所述查询语句之间的匹配值。
示例性的,将距离量ai和角度量bi拼接成一个目标向量[ai,bi],并输入后续的全连接层和输出层,其中输出层的两个神经元的最终输出数值,利用softmax函数进行归一化即可获得语句对(q1,Qi)匹配值。例如,根据以下公式计算关于语句对(q1,Qi)的匹配概率值:
P=softmax(X.WT+b)
例如,对于待匹配的语句对(q1,Qi),可以确定q1和Qi匹配的概率或不匹配的概率。从而,获得q1与n个待匹配语句的匹配概率为P=(p1,p2,p3,...,pn)。
在步骤S140中,根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
在示例性的实施例中,可以按照大小关系对所述待匹配语句对应的匹配值进行排序,然后将大于预设阈值的目标匹配值对应的待匹配语句作为所述查询语句的目标匹配文本。例如,设定预设阈值为pthreshold,上述目标匹配值为p’(其中,p’>pthreshold),则将目标匹配值p’对应的待匹配语句作为所述查询语句的目标匹配文本。从而,确定与查询语句q1相匹配的至少一个目标匹配文本,在保证匹配准确度的情况下,有利于提升匹配多样性。
在示例性的实施例中,还可以将最大匹配值对应的待匹配语句作为所述查询语句的目标匹配文本,以最大程度的提升匹配准确度。例如,匹配概率最大的概率值为pmax,则返回该值对应的最相似的语句Qmax作为所述查询语句q1的目标匹配文本.
在示例性的实施例中,若所述待匹配语句对应的匹配值p”均小于预设阈值,例如,当匹配值p”(其中,p”<pthreshold)时,说明上述待匹配数据集中不包含上述查询语句的目标匹配文本,则返回空值。
在以上实施例所提供的技术方案中,本公开将利用迁移学习思想,引入经过微调的预训练的语言模型(BERT模型为例)来代替语义表示模型的输入层和表征层,进行语义特征抽取。相较于相关技术中通过CNN、RNN的语义提取方式,本技术方案有利于提升语义向量提取准确性。同时,由于仅需要相对少量的业务标注数据对预训练模型进行微调,并且优化后的传统语义匹配模型的仅需要训练匹配层参数,将减轻对标注数据量的要求。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由CPU执行的计算机程序。在该计算机程序被CPU执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
以下介绍本公开的装置实施例,可以用于执行本公开上述的行车路径的推荐方法。
图5示出本公开示例性实施例中基于迁移学习的文本匹配装置的结构示意图。如图5所示,上述基于迁移学习的文本匹配装置500包括:获取模块501、语义向量确定模块502、匹配值确定模块503和目标匹配文本确定模块504。其中:
上述获取模块501,用于获取查询语句以及与所述查询语句对应的待匹配语句集合;上述语义向量确定模块502,用于基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;上述匹配值确定模块503,用于根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;以及,上述目标匹配文本确定模块504,用于根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
在示例性的实施例中,基于前述方案,上述基于迁移学习的文本匹配装置500海包括:微调训练模块。
其中,在上述语义向量确定模块502,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集之前,上述微调训练模块用于:获取多组样本,其中,每组样本包含一语句对和用于标识所述语句对是否相匹配的分类标签;以及,根据所述样本中的训练集,对所述预训练的语言模型进行微调训练。
在示例性的实施例中,基于前述方案,上述基于迁移学习的文本匹配装置500海包括:微调测试模块。
其中,上述微调测试模块用于:根据所述样本中的测试集,对所述微调训练后的预训练的语言模型进行测试,得到测试结果;以及,响应于所述测试结果满足预设条件,则得到训练好的所述预训练的语言模型,以用于确定所述第i组语义向量集。
在示例性的实施例中,基于前述方案,上述预训练的语言模型包含N个隐含层,N为大于2的整数;其中,上述语义向量确定模块502,具体用于:根据所述预训练的语言模型的第N-1个隐含层的输出,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集。
在示例性的实施例中,基于前述方案,上述匹配值确定模块503,包括:目标向量确定单元和目标向量处理单元。
其中,对于第i组所述语义向量集:上述目标向量确定单元用于:确定所述第一语义向量与所述第二语义向量之间的距离向量,以及确定所述第一语义向量与所述第二语义向量之间的角度向量;上述目标向量处理单元用于:根据所述距离向量和所述角度向量确定目标向量,并对所述目标向量进行全连接处理和归一化处理,得到所述第i个待匹配语句与所述查询语句之间的匹配值。
在示例性的实施例中,基于前述方案,上述目标匹配文本确定模块504,具体用于:按照大小关系对所述待匹配语句对应的匹配值进行排序;并将大于预设阈值的目标匹配值对应的待匹配语句作为所述查询语句的目标匹配文本。
在示例性的实施例中,基于前述方案,上述目标匹配文本确定模块504,具体用于:将最大匹配值对应的待匹配语句作为所述查询语句的目标匹配文本。
在示例性的实施例中,基于前述方案,上述预训练的语言模型为BERT、OpenAI GPT或ELMo。
上述基于迁移学习的文本匹配装置中各模块的具体细节已经在上述基于迁移学习的文本匹配方法实施例中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
在本公开示例性实施方式中,还提供了一种能够实现上述方法的计算机存储介质。其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当上述程序产品在终端设备上运行时,上述程序代码用于使上述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
参考图6所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品600,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
上述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7来描述根据本公开的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730。
其中,上述存储单元存储有程序代码,上述程序代码可以被上述处理单元710执行,使得上述处理单元710执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,上述处理单元710可以执行如图1中所示的:步骤S110,获取查询语句以及与所述查询语句对应的待匹配语句集合;步骤S120,基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;步骤S130,根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;以及,步骤S140,根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
示例性的,上述处理单元710还可以执行如图3或图4所示所示实施例的任意步骤。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7201和/或高速缓存存储单元7202,还可以进一步包括只读存储单元(ROM)7203。
存储单元720还可以包括具有一组(至少一个)程序模块7205的程序/实用工具7204,这样的程序模块7205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备800(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器770与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (10)
1.一种基于迁移学习的文本匹配方法,其特征在于,所述方法包括:
获取查询语句以及与所述查询语句对应的待匹配语句集合;
基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;
根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;
根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
2.根据权利要求1所述的基于迁移学习的文本匹配方法,其特征在于,在所述确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集之前,所述方法还包括:
获取多组样本,其中,每组样本包含一语句对和用于标识所述语句对是否相匹配的分类标签;
根据所述样本中的训练集,对所述预训练的语言模型进行微调训练。
3.根据权利要求2所述的基于迁移学习的文本匹配方法,其特征在于,所述方法还包括:
根据所述样本中的测试集,对所述微调训练后的预训练的语言模型进行测试,得到测试结果;
响应于所述测试结果满足预设条件,则得到训练好的所述预训练的语言模型,以用于确定所述第i组语义向量集。
4.根据权利要求2所述的基于迁移学习的文本匹配方法,其特征在于,所述预训练的语言模型包含N个隐含层,N为大于2的整数;其中,
所述基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,包括:
根据所述预训练的语言模型的第N-1个隐含层的输出,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集。
5.根据权利要求4所述的基于迁移学习的文本匹配方法,其特征在于,所述根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,包括:
对于第i组所述语义向量集:
确定所述第一语义向量与所述第二语义向量之间的距离向量,以及确定所述第一语义向量与所述第二语义向量之间的角度向量;
根据所述距离向量和所述角度向量确定目标向量,并对所述目标向量进行全连接处理和归一化处理,得到所述第i个待匹配语句与所述查询语句之间的匹配值。
6.根据权利要求2所述的基于迁移学习的文本匹配方法,其特征在于,所述根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本,包括:
按照大小关系对所述待匹配语句对应的匹配值进行排序;并将大于预设阈值的目标匹配值对应的待匹配语句作为所述查询语句的目标匹配文本;或,
将最大匹配值对应的待匹配语句作为所述查询语句的目标匹配文本。
7.根据权利要求1至6中任意一项所述的基于迁移学习的文本匹配方法,其特征在于,所述预训练的语言模型为BERT、OpenAI GPT或ELMo。
8.一种基于迁移学习的文本匹配装置,其特征在于,所述装置包括:
获取模块,用于获取查询语句以及与所述查询语句对应的待匹配语句集合;
语义向量确定模块,用于基于预训练的语言模型,确定关于所述待匹配语句集合中第i个待匹配语句与所述查询语句的第i组语义向量集,其中,每组所述语义向量集包含第一语义向量和第二语义向量;
匹配值确定模块,用于根据第i组语义向量集中的第一语义向量与第二语义向量确定所述第i个待匹配语句与所述查询语句之间的匹配值,其中,i为正整数;
目标匹配文本确定模块,用于根据所述匹配值,在所述待匹配语句集合中确定所述查询语句的目标匹配文本。
9.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任意一项所述的基于迁移学习的文本匹配方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7中任意一项所述的基于迁移学习的文本匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910650372.1A CN110377714A (zh) | 2019-07-18 | 2019-07-18 | 基于迁移学习的文本匹配方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910650372.1A CN110377714A (zh) | 2019-07-18 | 2019-07-18 | 基于迁移学习的文本匹配方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110377714A true CN110377714A (zh) | 2019-10-25 |
Family
ID=68253996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910650372.1A Pending CN110377714A (zh) | 2019-07-18 | 2019-07-18 | 基于迁移学习的文本匹配方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110377714A (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826325A (zh) * | 2019-11-04 | 2020-02-21 | 创新工场(广州)人工智能研究有限公司 | 一种基于对抗训练的语言模型预训练方法、系统及电子设备 |
CN111091009A (zh) * | 2019-11-20 | 2020-05-01 | 中国电子科技集团公司第三十研究所 | 一种基于语义分析的文档关联审核方法 |
CN111160007A (zh) * | 2019-12-13 | 2020-05-15 | 中国平安财产保险股份有限公司 | 基于bert语言模型的搜索方法、装置、计算机设备及存储介质 |
CN111339261A (zh) * | 2020-03-17 | 2020-06-26 | 北京香侬慧语科技有限责任公司 | 一种基于预训练模型的文档抽取方法及系统 |
CN111368554A (zh) * | 2020-03-13 | 2020-07-03 | 深圳追一科技有限公司 | 语句处理方法、装置、计算机设备和存储介质 |
CN111460162A (zh) * | 2020-04-11 | 2020-07-28 | 科技日报社 | 一种文本分类方法、装置、终端设备及计算机可读存储介质 |
CN111460303A (zh) * | 2020-03-31 | 2020-07-28 | 拉扎斯网络科技(上海)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
CN111651986A (zh) * | 2020-04-28 | 2020-09-11 | 银江股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111753069A (zh) * | 2020-06-09 | 2020-10-09 | 北京小米松果电子有限公司 | 语义检索方法、装置、设备及存储介质 |
CN111966831A (zh) * | 2020-08-18 | 2020-11-20 | 创新奇智(上海)科技有限公司 | 一种模型训练方法、文本分类方法、装置及网络模型 |
CN112380837A (zh) * | 2020-11-13 | 2021-02-19 | 平安科技(深圳)有限公司 | 基于翻译模型的相似句子匹配方法、装置、设备及介质 |
CN112380832A (zh) * | 2020-11-13 | 2021-02-19 | 苏州大学 | 文本匹配方法、装置、电子设备及计算机可读存储介质 |
CN112487823A (zh) * | 2020-11-18 | 2021-03-12 | 广东电力信息科技有限公司 | 一种基于bert模型的文本语义相似度计算方法 |
CN112528677A (zh) * | 2020-12-22 | 2021-03-19 | 北京百度网讯科技有限公司 | 一种语义向量提取模型的训练方法、装置及电子设备 |
CN112860848A (zh) * | 2021-01-20 | 2021-05-28 | 平安科技(深圳)有限公司 | 信息检索方法、装置、设备及介质 |
CN112905794A (zh) * | 2021-02-24 | 2021-06-04 | 珠海高凌信息科技股份有限公司 | 基于迁移学习的互联网垃圾信息检测方法及系统 |
CN113204629A (zh) * | 2021-05-31 | 2021-08-03 | 平安科技(深圳)有限公司 | 文本匹配方法、装置、计算机设备及可读存储介质 |
CN113377921A (zh) * | 2021-06-25 | 2021-09-10 | 北京百度网讯科技有限公司 | 用于匹配信息的方法、装置、电子设备以及介质 |
CN113377922A (zh) * | 2021-06-25 | 2021-09-10 | 北京百度网讯科技有限公司 | 用于匹配信息的方法、装置、电子设备以及介质 |
CN113449520A (zh) * | 2021-07-22 | 2021-09-28 | 中国工商银行股份有限公司 | 一种词义消歧方法和装置 |
CN113948066A (zh) * | 2021-09-06 | 2022-01-18 | 北京数美时代科技有限公司 | 一种实时转译文本的纠错方法、系统、存储介质和装置 |
CN114219046A (zh) * | 2022-01-26 | 2022-03-22 | 北京百度网讯科技有限公司 | 模型训练方法、匹配方法、装置、系统、电子设备和介质 |
CN114676227A (zh) * | 2022-04-06 | 2022-06-28 | 北京百度网讯科技有限公司 | 样本生成方法、模型的训练方法以及检索方法 |
CN114981803A (zh) * | 2020-12-25 | 2022-08-30 | 京东方科技集团股份有限公司 | 一种体检信息分配方法、装置、电子设备、计算机可读存储介质以及计算机程序产品 |
CN115831089A (zh) * | 2021-12-27 | 2023-03-21 | 北京百度网讯科技有限公司 | 声学特征的确定方法、装置、设备、介质及产品 |
CN116383491A (zh) * | 2023-03-21 | 2023-07-04 | 北京百度网讯科技有限公司 | 信息推荐方法、装置、设备、存储介质和程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190065507A1 (en) * | 2017-08-22 | 2019-02-28 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for information processing |
CN109522406A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 文本语义匹配方法、装置、计算机设备和存储介质 |
CN109710770A (zh) * | 2019-01-31 | 2019-05-03 | 北京牡丹电子集团有限责任公司数字电视技术中心 | 一种基于迁移学习的文本分类方法及装置 |
CN109992648A (zh) * | 2019-04-10 | 2019-07-09 | 北京神州泰岳软件股份有限公司 | 基于词迁徙学习的深度文本匹配方法及装置 |
-
2019
- 2019-07-18 CN CN201910650372.1A patent/CN110377714A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190065507A1 (en) * | 2017-08-22 | 2019-02-28 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for information processing |
CN109522406A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 文本语义匹配方法、装置、计算机设备和存储介质 |
CN109710770A (zh) * | 2019-01-31 | 2019-05-03 | 北京牡丹电子集团有限责任公司数字电视技术中心 | 一种基于迁移学习的文本分类方法及装置 |
CN109992648A (zh) * | 2019-04-10 | 2019-07-09 | 北京神州泰岳软件股份有限公司 | 基于词迁徙学习的深度文本匹配方法及装置 |
Non-Patent Citations (7)
Title |
---|
ADAM坤: "自然语言处理之--Model based on Transformer", 《HTTPS://BLOG.CSDN.NET/WEIXIN_41697507/ARTICLE/DETAILS/86770543》 * |
RAKESH CHADA: "Gendered Pronoun Resolution using BERT and an extractive question answering formulation", 《ARXIV》 * |
SHANCHAN WU等: "Enriching Pre-trained Language Model with Entity Information for Relation Classification", 《ARXIV》 * |
废柴当自强: "一文读懂BERT(原理篇)", 《HTTPS://BLOG.CSDN.NET/JIAOSHOUZI/ARTICLE/DETAILS/89073944》 * |
徐栋: "基于自注意力的答案选择", 《中国优秀硕士学位论文全文数据库•信息科技辑》 * |
田海山: "基于BERT fine-tuning的中文标题分类实践", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/72448986》 * |
高扬: "《人工智能与机器人先进技术丛书 智能摘要与深度学习》", 30 April 2019, 《北京:北京理工大学出版社》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826325A (zh) * | 2019-11-04 | 2020-02-21 | 创新工场(广州)人工智能研究有限公司 | 一种基于对抗训练的语言模型预训练方法、系统及电子设备 |
CN110826325B (zh) * | 2019-11-04 | 2023-12-26 | 创新工场(广州)人工智能研究有限公司 | 一种基于对抗训练的语言模型预训练方法、系统及电子设备 |
CN111091009A (zh) * | 2019-11-20 | 2020-05-01 | 中国电子科技集团公司第三十研究所 | 一种基于语义分析的文档关联审核方法 |
CN111091009B (zh) * | 2019-11-20 | 2022-03-15 | 中国电子科技集团公司第三十研究所 | 一种基于语义分析的文档关联审核方法 |
CN111160007A (zh) * | 2019-12-13 | 2020-05-15 | 中国平安财产保险股份有限公司 | 基于bert语言模型的搜索方法、装置、计算机设备及存储介质 |
CN111368554A (zh) * | 2020-03-13 | 2020-07-03 | 深圳追一科技有限公司 | 语句处理方法、装置、计算机设备和存储介质 |
CN111339261A (zh) * | 2020-03-17 | 2020-06-26 | 北京香侬慧语科技有限责任公司 | 一种基于预训练模型的文档抽取方法及系统 |
CN111460303A (zh) * | 2020-03-31 | 2020-07-28 | 拉扎斯网络科技(上海)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
CN111460303B (zh) * | 2020-03-31 | 2023-07-04 | 拉扎斯网络科技(上海)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
CN111460162A (zh) * | 2020-04-11 | 2020-07-28 | 科技日报社 | 一种文本分类方法、装置、终端设备及计算机可读存储介质 |
CN111651986A (zh) * | 2020-04-28 | 2020-09-11 | 银江股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111651986B (zh) * | 2020-04-28 | 2024-04-02 | 银江技术股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111753069A (zh) * | 2020-06-09 | 2020-10-09 | 北京小米松果电子有限公司 | 语义检索方法、装置、设备及存储介质 |
CN111753069B (zh) * | 2020-06-09 | 2024-05-07 | 北京小米松果电子有限公司 | 语义检索方法、装置、设备及存储介质 |
CN111966831A (zh) * | 2020-08-18 | 2020-11-20 | 创新奇智(上海)科技有限公司 | 一种模型训练方法、文本分类方法、装置及网络模型 |
CN112380837A (zh) * | 2020-11-13 | 2021-02-19 | 平安科技(深圳)有限公司 | 基于翻译模型的相似句子匹配方法、装置、设备及介质 |
CN112380832A (zh) * | 2020-11-13 | 2021-02-19 | 苏州大学 | 文本匹配方法、装置、电子设备及计算机可读存储介质 |
CN112380832B (zh) * | 2020-11-13 | 2024-01-30 | 苏州大学 | 文本匹配方法、装置、电子设备及计算机可读存储介质 |
CN112380837B (zh) * | 2020-11-13 | 2023-12-22 | 平安科技(深圳)有限公司 | 基于翻译模型的相似句子匹配方法、装置、设备及介质 |
CN112487823A (zh) * | 2020-11-18 | 2021-03-12 | 广东电力信息科技有限公司 | 一种基于bert模型的文本语义相似度计算方法 |
CN112528677A (zh) * | 2020-12-22 | 2021-03-19 | 北京百度网讯科技有限公司 | 一种语义向量提取模型的训练方法、装置及电子设备 |
CN112528677B (zh) * | 2020-12-22 | 2022-03-11 | 北京百度网讯科技有限公司 | 一种语义向量提取模型的训练方法、装置及电子设备 |
CN114981803A (zh) * | 2020-12-25 | 2022-08-30 | 京东方科技集团股份有限公司 | 一种体检信息分配方法、装置、电子设备、计算机可读存储介质以及计算机程序产品 |
CN112860848A (zh) * | 2021-01-20 | 2021-05-28 | 平安科技(深圳)有限公司 | 信息检索方法、装置、设备及介质 |
CN112905794A (zh) * | 2021-02-24 | 2021-06-04 | 珠海高凌信息科技股份有限公司 | 基于迁移学习的互联网垃圾信息检测方法及系统 |
CN113204629A (zh) * | 2021-05-31 | 2021-08-03 | 平安科技(深圳)有限公司 | 文本匹配方法、装置、计算机设备及可读存储介质 |
WO2022252638A1 (zh) * | 2021-05-31 | 2022-12-08 | 平安科技(深圳)有限公司 | 文本匹配方法、装置、计算机设备及可读存储介质 |
CN113377921A (zh) * | 2021-06-25 | 2021-09-10 | 北京百度网讯科技有限公司 | 用于匹配信息的方法、装置、电子设备以及介质 |
CN113377922A (zh) * | 2021-06-25 | 2021-09-10 | 北京百度网讯科技有限公司 | 用于匹配信息的方法、装置、电子设备以及介质 |
CN113377922B (zh) * | 2021-06-25 | 2024-04-02 | 北京百度网讯科技有限公司 | 用于匹配信息的方法、装置、电子设备以及介质 |
CN113377921B (zh) * | 2021-06-25 | 2023-07-21 | 北京百度网讯科技有限公司 | 用于匹配信息的方法、装置、电子设备以及介质 |
CN113449520A (zh) * | 2021-07-22 | 2021-09-28 | 中国工商银行股份有限公司 | 一种词义消歧方法和装置 |
CN113948066A (zh) * | 2021-09-06 | 2022-01-18 | 北京数美时代科技有限公司 | 一种实时转译文本的纠错方法、系统、存储介质和装置 |
CN113948066B (zh) * | 2021-09-06 | 2022-07-12 | 北京数美时代科技有限公司 | 一种实时转译文本的纠错方法、系统、存储介质和装置 |
CN115831089B (zh) * | 2021-12-27 | 2023-12-01 | 北京百度网讯科技有限公司 | 声学特征的确定方法、装置、设备、介质及产品 |
CN115831089A (zh) * | 2021-12-27 | 2023-03-21 | 北京百度网讯科技有限公司 | 声学特征的确定方法、装置、设备、介质及产品 |
CN114219046A (zh) * | 2022-01-26 | 2022-03-22 | 北京百度网讯科技有限公司 | 模型训练方法、匹配方法、装置、系统、电子设备和介质 |
CN114676227B (zh) * | 2022-04-06 | 2023-07-18 | 北京百度网讯科技有限公司 | 样本生成方法、模型的训练方法以及检索方法 |
CN114676227A (zh) * | 2022-04-06 | 2022-06-28 | 北京百度网讯科技有限公司 | 样本生成方法、模型的训练方法以及检索方法 |
CN116383491A (zh) * | 2023-03-21 | 2023-07-04 | 北京百度网讯科技有限公司 | 信息推荐方法、装置、设备、存储介质和程序产品 |
CN116383491B (zh) * | 2023-03-21 | 2024-05-24 | 北京百度网讯科技有限公司 | 信息推荐方法、装置、设备、存储介质和程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377714A (zh) | 基于迁移学习的文本匹配方法、装置、介质及设备 | |
CN112084337B (zh) | 文本分类模型的训练方法、文本分类方法及设备 | |
CN109241524B (zh) | 语义解析方法及装置、计算机可读存储介质、电子设备 | |
CN111738003B (zh) | 命名实体识别模型训练方法、命名实体识别方法和介质 | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
CN111931517B (zh) | 文本翻译方法、装置、电子设备以及存储介质 | |
US20210248471A1 (en) | Method and apparatus for creating dialogue, and storage medium | |
CN116795973B (zh) | 基于人工智能的文本处理方法及装置、电子设备、介质 | |
CN113392209B (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN112699686B (zh) | 基于任务型对话系统的语义理解方法、装置、设备及介质 | |
CN107644051B (zh) | 用于同类实体分组的系统和方法 | |
CN114330354B (zh) | 一种基于词汇增强的事件抽取方法、装置及存储介质 | |
CN111414746A (zh) | 一种匹配语句确定方法、装置、设备及存储介质 | |
CN115983271A (zh) | 命名实体的识别方法和命名实体识别模型的训练方法 | |
CN114491018A (zh) | 敏感信息检测模型的构建方法、敏感信息检测方法及装置 | |
CN114117041B (zh) | 一种基于特定属性词上下文建模的属性级情感分析方法 | |
Hakimov et al. | Evaluating architectural choices for deep learning approaches for question answering over knowledge bases | |
Yoon et al. | Image classification and captioning model considering a CAM‐based disagreement loss | |
CN116775875A (zh) | 问题语料库构建方法和装置、问答方法、设备及存储介质 | |
CN116595023A (zh) | 地址信息的更新方法和装置、电子设备及存储介质 | |
CN116562291A (zh) | 一种基于边界检测的中文嵌套命名实体识别方法 | |
CN113627197B (zh) | 文本的意图识别方法、装置、设备及存储介质 | |
CN113723111B (zh) | 一种小样本意图识别方法、装置、设备及存储介质 | |
CN110287396A (zh) | 文本匹配方法及装置 | |
CN111339760A (zh) | 词法分析模型的训练方法、装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191025 |
|
RJ01 | Rejection of invention patent application after publication |