CN116680387A - 基于检索增强的对话答复方法、装置、设备及存储介质 - Google Patents

基于检索增强的对话答复方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116680387A
CN116680387A CN202310717566.5A CN202310717566A CN116680387A CN 116680387 A CN116680387 A CN 116680387A CN 202310717566 A CN202310717566 A CN 202310717566A CN 116680387 A CN116680387 A CN 116680387A
Authority
CN
China
Prior art keywords
question
answer pair
text
answer
integral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310717566.5A
Other languages
English (en)
Inventor
李志韬
叶童
王健宗
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202310717566.5A priority Critical patent/CN116680387A/zh
Publication of CN116680387A publication Critical patent/CN116680387A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及人工智能技术领域,尤其涉及一种基于检索增强的对话答复方法、装置、设备及存储介质。上述方法应用于医疗领域,针对任一问答对,将问答对与问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本,获取目标问答对,将目标问答对对应第一整体文本与问答对的第一整体文本进行相似度比较,获取相似问答对,将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,使用融合后的结果改写问答对,得到问答对对应的目标答复结果。本发明中,将与问答对相似的问答对作为问答对改写的参数,丰富了改写的参考信息,提升了问答对的改写空间,从而使问答对的改写质量得到了提高。

Description

基于检索增强的对话答复方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于检索增强的对话答复方法、装置、设备及存储介质。
背景技术
人机对话功能是当前人工智能领域中非常普遍的一种应用。例如,在线上医疗自助服务应用中,通过与机器人的自动对话,可以块速精准地根据对话内容分析用户需求,并针对用户需求调用预先设计的话术回复或指引用户,以满足用户的需要。在自动对话中,人们常常通过一系列相关的问题来获取知识,回答当前问题。当给定一篇文章时,提问者首先提出一个问题,然后回答者给出答案,之后提问者再在回答的基础上提出另外一个问题。这就使得我们在回答当前问题时,不仅需要依赖给定的材料,还需要依赖于历史对话信息。
现有技术中,大多对话模型为抽取式模型,它们更关注于如何从给定材料和冗长的历史对话信息中准确检索到和当前问题相关的内容作为答复,而忽视了将检索到的内容转换为符合对话场景的答复。这就导致这类模型的答复内容都相对固定,灵活性较低,从而造成答复内容的质量较低。因此,在自动对话中,如何提高答复内容的质量成为亟待解决的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种基于检索增强的对话答复方法、装置、设备及存储介质,以解决在自动对话中,答复内容质量较低的问题。
本申请实施例的第一方面提供了一种基于检索增强的对话答复方法,所述对话答复方法包括:
获取预设的问答材料,识别所述问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数;
针对任一问答对,将所述问答对与所述问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本;
根据每个问答对的产生时间,确定在所述问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与所述问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应所述问答对的相似问答对;
将所述相似问答对与所述问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与所述第二整体文本融合,得到融合结果;
根据所述融合结果,判断所述问答对与所述预设的前缀参数是否匹配,若匹配,使用所述融合结果改写所述问答对,得到所述问答对对应的目标答复结果。
本申请实施例的第二方面提供了一种基于检索增强的对话答复装置,所述对话答复装置包括:
获取模块,用于获取预设的问答材料,识别所述问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数;
拼接模块,用于针对任一问答对,将所述问答对与所述问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本;
相似问答对确定模块,用于根据每个问答对的产生时间,确定在所述问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与所述问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应所述问答对的相似问答对;
融合模块,用于将所述相似问答对与所述问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与所述第二整体文本融合,得到融合结果;
改写模块,用于根据所述融合结果,判断所述问答对与所述预设的前缀参数是否匹配,若匹配,使用所述融合结果改写所述问答对,得到所述问答对对应的目标答复结果。
第三方面,本发明实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的对话答复方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的对话答复方法。
本发明与现有技术相比存在的有益效果是:
获取预设的问答材料,识别问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数,针对任一问答对,将问答对与问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本,根据每个问答对的产生时间,确定在问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对,将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果,根据融合结果,判断问答对与预设的前缀参数是否匹配,若匹配,使用融合结果改写问答对,得到问答对对应的目标答复结果。本发明中,将与问答对相似的问答对作为问答对改写的参数,丰富了改写的参考信息,提升了问答对的改写空间,从而使问答对的改写质量得到了提高。使用本申请方法,在线上医疗自助服务应用中,与机器人进行对话时,可以提高机器人的回复质量,使用户可以得到更准确的答复结果,从而提高了线上医疗自助服务应用的问答效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种基于检索增强的对话答复方法的一应用环境示意图;
图2是本发明一实施例提供的一种基于检索增强的对话答复方法的流程示意图;
图3是本发明一实施例提供的一种基于检索增强的对话答复装置的结构示意图;
图4是本发明一实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本发明说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本发明说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本发明说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本发明的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
为了说明本发明的技术方案,下面通过具体实施例来进行说明。
本发明一实施例提供的一种基于检索增强的对话答复方法,可应用在如图1的应用环境中,其中,客户端与服务端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等计算机设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
参见图2,是本发明一实施例提供的一种基于检索增强的对话答复方法的流程示意图,上述基于检索增强的对话答复方法可以应用于图1中的服务端,上述服务端连接相应的客户端,如图2所示,该基于检索增强的对话答复方法可以包括以下步骤。
S201:获取预设的问答材料,识别问答材料中的问答对,得到N个问答对及其产生时间。
在步骤S201中,预设的问答材料的材料内容为能够为问答对中的问题提供相应答案的内容,例如,在课本问题中,材料内容为出现在课本问题前面和/或后面的课程内容,在试卷问题中,材料内容为出现在试卷问题前面的材料内容。根据问答对产生的时间,依次得到N个问答对。
本实施例中,使用线上医疗自助服务应用时,通过与机器人对话的方式,获取用户想要的信息,在与机器人对话的过程中,机器人收集用户与机器人的历史问答对,将历史问答对作为预设的问答材料,识别问答材料中的问答对,得到N个问答对及其产生时间,可以从数据库中获取预设的问答材料对应的问答对,例如,对于同一个材料中的设置的不同问题,按照不同时间的问题依次对不同的问题进行答复,得到N个问答对。
S202:针对任一问答对,将问答对与问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本。
在步骤S202中,预处理数据集文本,拼接成由问答对与问答材料组成的第一整体文本,使用分隔符连接对应的问答对与问答材料。
本实施例中,将问答对与问答材料拼接为第一整体文本的拼接顺序为每个问题、问题相关材料片段以及问题的标准回复,使用分隔符分隔后拼接在一起。例如对于数据集中的一个问答对:问题为“When was the Vat formally opened?”,对应的材料片段为“Formally established in 1475”,问题的真实回复为“It was formally establishedin 1475”,那么拼接后的第一整体文本输入为“When was the Vat formally opened?</s>Formally established in 1475</s>It was formally established in 1475”,其中</s>为分隔符。
需要说明的是,在不同的应用场景中,分隔符的类型可以不同,任何用于将语句进行分割的符合均可以作为本发明实施例的分割符。
S203:根据每个问答对的产生时间,确定在问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对。
在步骤S203中,根据每个问答对的产生时间,确定问答对对应的历史问答对,确定在问答对的产生时间之前产生的问答对为目标问答对,从目标问答对中获取与问答对相似度较大的相似问答对。
本实施例中,根据问答对产生的时间,获取同一个材料中当前问答对对应的历史问答对,将历史问答对确定为目标问答对,计算目标问答对与该问答对之间的相似度,其中,相似问答对可以为一个,也可以为多个,当选取多个相似问答对时,将历史问答对与该问答对之间的相似度进行降序排序,根据排序后的排序结果,选取相似度较大的多个相似问答对。
可选地,根据每个问答对的产生时间,确定在问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对,包括:
通过预训练语言模型,确定目标问答对对应的第一整体文本的表征值与问答对的第一整体文本的表征值;
根据目标问答对对应的第一整体文本的表征值与问答对的第一整体文本的表征值,进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对。
本实施例中,在计算目标问答对与该问答对之间的相似度时,将目标问答对中对应的第一整体文本与该问答对对应的第一整体文本之间的相似度作为目标问答对与该问答对之间的相似度。
计算目标问答对中对应的第一整体文本与该问答对对应的第一整体文本之间的相似度时,通过目标问答对中对应的第一整体文本与该问答对对应的第一整体文本的表征值大小,确定相似度大小,将目标问答对的表征值与该问答对的表征值对应的向量进行内积相乘,根据相乘结果确定目标问答对与该问答对之间的相似度。
可选地,通过预训练语言模型,确定目标问答对对应的第一整体文本的表征值与问答对的第一整体文本的表征值,包括:
使用预设词向量计算工具,将第一整体文本转化为文本序列;
将文本序列输入至预训练语言模型中,输出文本序列对应的隐向量,得到目标问答对对应的第一整体文本的隐向量与问答对的第一整体文本的隐向量;
根据目标问答对对应的第一整体文本的隐向量,确定目标问答对对应的第一整体文本的表征值;
根据问答对的第一整体文本的隐向量,确定问答对的第一整体文本的表征值。
本实施例中,通过预设词向量计算工具,将第一整体文本转化为文本序列,采用word2vec作为词向量计算工具,word2vec是一种自然语言处理工具,其作用就是将自然语言中的字词转为计算机可以理解的词向量。传统的词向量容易受维数灾难的困扰,且任意两个词之间都是孤立的,不能体现词和词之间的关系,因此本实施例采用word2vec来得到词向量,其可通过计算向量之间的距离来体现词与词之间的相似性。Word2Vec主要采用Skip-Gram和CBOW两种模型,本实施例采用Skip-Gram来实现词向量的转换,Skip-Gram模型主要是通过中心词来预测上下文的词。
将文本序列输入至预训练语言模型中,输出文本序列对应的隐向量,得到目标问答对对应的第一整体文本的隐向量与问答对的第一整体文本的隐向量,本实施例中的预训练语言模型为BERT(Bidirectional Encoder Representation from Transformers)模型,通过Mask机制改变了部分输入的单词,然后试图通过其上下文的其它单词来恢复这些被Mask的单词,BERT模型通过双向Transformer的编码器得到深度双向语言表示的自编码语言模型。在BERT出现之前,自回归语言模型方法在预训练时都是使用单向的语言模型的结构,BERT能够利用上下文语境得到双向特征表示。BERT的输入表示为每个字词对应的字词向量、分段向量、位置向量相加而成。本实施例中,通过BERT模型获取文本序列对应的隐向量时,可以将BERT模型的最后三层的输出作为隐向量。可选的,预训练BERT模型的最后三层的每一层输出的均为一个向量,可以将BERT模型的最后三层输出的向量拼接为一个向量,将拼接的向量作为文本序列对应的隐向量。
使用自注意力机制计算隐向量对应的自注意力值,将每个问答对对应的隐向量与自注意力值相乘,得到最终的表征值,根据表征值确定相似度。
例如,当文本序列x={x1,x2,…,xn}通过预训练模型输出对应的隐向量与注意力值/>时,将hl与al相乘后相加得到对应的表征值。
S204:将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果。
在步骤204中,将相似问答对与问答对的第一整体文本拼接为第二整体文本,在根据第二整体文本对问答对进行改写时,在第二整体文本中加入前缀参数,以便于得到精度更高的改写质量,前缀参数为预训练模型的超参数,用于使预训练模型适配不同任务。
本实施例中,相似问答对与对应问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果,前缀参数,由自由参数组成,将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果,所以融合结果由三部分组成,包括问答对、相似问答对与预设的前缀参数。
可选地,将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果,包括:
通过在相似问答对与问答对之间设置分隔符,将相似问答对与问答对拼接为第二整体文本;
使用预设词向量计算工具,将第二整体文本转化为第二文本序列;
将第二文本序列与预设的前缀参数进行融合,得到融合结果。
本实施例中,通过在相似问答对与问答对之间设置分隔符,将相似问答对与问答对拼接为第二整体文本,通过预设词向量计算工具,将第一整体文本转化为文本序列,采用word2vec作为词向量计算工具,word2vec是一种自然语言处理工具,其作用就是将自然语言中的字词转为计算机可以理解的词向量。传统的词向量容易受维数灾难的困扰,且任意两个词之间都是孤立的,不能体现词和词之间的关系,因此本实施例采用word2vec来得到词向量,其可通过计算向量之间的距离来体现词与词之间的相似性。Word2Vec主要采用Skip-Gram和CBOW两种模型,本实施例采用Skip-Gram来实现词向量的转换,Skip-Gram模型主要是通过中心词来预测上下文的词。将第二文本序列与预设的前缀参数进行融合,得到融合结果。
S205:根据融合结果,判断问答对与预设的前缀参数是否匹配,若匹配,使用融合结果改写问答对,得到问答对对应的目标答复结果。
在步骤S205中,融合结果包括前缀参数、相似问答对与对应问答对,根据融合结果对对应问答对进行改写,对应问答对为待改写问答对,对待改写问答对进行改写,得到待改写问答对对应的目标答复结果,目标答复结果为待改写问答对中的问题所对应的最终的答复结果。
本实施例中,根据融合结果,判断问答对与预设的前缀参数是否匹配,若匹配,使用融合结果改写问答对,得到问答对对应的目标答复结果,使用融合结果对问答对进行改写时,通过文本到文本的任务模型对问答对进行改写。
可选地,根据融合结果,判断问答对与预设的前缀参数是否匹配,包括:
将融合结果输入至文本到文本的任务模型中,输出对应结果,根据结果判断问答对与预设的前缀参数是否匹配;
若预设的前缀参数不匹配,对预设的前缀参数进行微调,得到匹配的前缀参数,将匹配的前缀参数作为预设的前缀参数。
本实施例中,将融合结果输入至文本到文本的任务模型中,输出对应结果,根据结果判断问答对与预设的前缀参数是否匹配,若输出的的对应结果与文本到文本的任务模型中对应的任务相同,且对应的结果满足对应要求,则认为预设的前缀参数与问答对匹配。
若预设的前缀参数不匹配,对预设的前缀参数进行微调,得到匹配的前缀参数,将匹配的前缀参数作为预设的前缀参数,需要说明的是,前缀参数,由自由参数组成,获取预设的前缀参数时之前,需要对设置的初始前缀参数进行微调,使用预训练模型对初始前缀参数进行微调,微调时,使文本到文本的任务模型的任务与下游任务不变。前缀微调,一种轻量微调方法,将一个连续的特定于任务的参数添加到输入,称之为前缀,前缀完全由自由参数组成,与真正的token不对应,类似于一种虚拟token,对模型进行优化时,前缀微调仅优化前缀。通过在输入文本数据或预训练模型中每层的前面给定一些前缀,可以更好地挖掘预训练模型的先验知识,使模型在低资源场景或少量训练参数下表现出良好的效果。
需要说明的是,前缀参数作为预训练模型的超参数,是作为一种输入直接由工作人员设置的参数,其参数个数固定,此外,前缀参数的值也可以通过训练优化得到,例如在冻结了预训练模型,保持其模型参数不变之后,采用小规模的样本集训练该前缀参数,得到前缀参数的具体的值。
本实施例中,对前缀参数进行微调时,使用文本文本的任务模型作为预训练模型,对前缀参数进行微调,进行微调时,保持文本到文本的任务模型中的下游任务与目标任务不变。预训练模型的输入包括预训练模型的原始输入以及一组前缀参数,前缀参数为预训练模型的超参数,用于使预训练模型适配不同任务。
由于我们的模型输入同时包含了相似问答对和需要改写的问答对,所以为了使模型更加清楚的了解具体需要改写哪部分内容,我们希望在微调文本到文本的任务模型过程中给模型一些提示。这里一些方法选择直接在输入端加入提示词提示模型,例如,对于输入“When was the Vat formally opened?”,直接在输入前端加入提示词“question”,但这种我们人类觉得很有用的提示,对机器来说不一定是好的提示。且加入人工设计的提示相当于固定了提示词在模型中的参数,模型在微调过程中无法使前缀参数更适配于下游任务,这就导致加入的提示词在模型微调训练中不能发挥较大的作用。为了得到和我们的对话改写任务相匹配的前缀,我们尝试在模型训练中加入前缀微调。前缀微调是将一个连续的特定于当前任务的向量序列添加到输入序列中,我们将新添加到输入的这部分向量称为前缀向量,这里的前缀向量是自由参数。为了得到适配于下游任务的前缀向量,我们在微调时冻结了预训练模型中的其他参数,只对新加入的前缀参数进行训练,然后通过梯度更新优化这部分向量。具体的,我们在文本到文本的任务模型的encoder端和decoder端分别输入端添加不同的前缀序列,这里前缀序列中的字符并不是具体的指字典中的真实字符,这里的字符相当于占位符,而我们的目的就是训练出关于这些字符的参数,使这些参数中能够包含提示信息,帮助模型训练。对于前缀序列中的每个字符,我们都将其初始化为一个维度为模型维度modeldim的向量。对于长度为n的前缀序列,我们用一个参数矩阵来保存添加的前缀序列向量,即前缀参数矩阵大小为(n,modeldim)。在实际微调中,前缀序列向量将会被拼接到词嵌入矩阵之上,共同输入模型进行训练。例如,当模型输入词向量矩阵大小为(m,modeldim),其中m表示输入序列的长度。那么拼接长度为n的前缀向量后的参数矩阵大小为(n+m,modeldim)。这里微调时,训练目标仍和下游任务相同,都为最大化对数似然函数,但我们只更新前缀参数。通过只更新前缀参数,我们可以得到关于特定任务的前缀向量,相比于将前缀序列具化为某一个字典中的词,这种方式得到的前缀向量更具有表现力。
另一实施例中,也可以通过增加前缀向量模型输出前缀向量作为前缀参数,其中,前缀向量子模型可以是一种参数数量较少的网络结构,例如该前缀向量模型的参数数量可以远少于预训练模型的网络模型。其中不同前缀向量子模型中的参数用于对不同翻译方向的翻译特性进行描述。
该前缀向量模型可以例如是MLP(Multi-Layer Perceptron,MLP)网络、Dense(Densenet,密集卷积)网络等,该前缀向量模型还可以是只包括全连接网络结构的网络,还可以是只包括卷积结构的网络,还可以是只包括注意力结构的网络,任意可以进行训练的网络结构均可以是本申请中的前缀向量网络,本公开对前缀向量子模型的具体结构和层次不做限制。
其中,一个任务可以单独对应一个前缀向量模型,各个前缀向量模型之间参数独立。可以预先将初始模型中的任务与前缀向量模型之间一一对应的关联起来,例如可以将第一任务与第一前缀向量模型进行关联。那么,当接收到某任务时,可以对应的找任务对应的前缀向量模型。例如当接收到第一任务时,可对应的找到该第一任务对应的第一前缀向量模型。
可选地,若匹配,使用融合结果改写问答对,得到问答对对应的目标答复结果,包括:
将融合结果输入至训练好的文本到文本的任务模型中,输出问答对对应的目标答复结果。
本实施例中,若匹配,使用融合结果改写问答对,得到问答对对应的目标答复结果,将相似问答对、对应问答对与前缀参数都输入至训练好的文本到文本的任务模型中,基于相似问答对与前缀参数对问答对进行改写,前缀参数确定的改写对象,相似问答对改写内容,最后得到问答对对应的目标答复结果。
可选地,将融合结果输入至训练好的文本到文本的任务模型中,输出问答对对应的目标答复结果之前,还包括:
获取初始文本到文本的任务模型,对初始文本到文本的任务模型添加扰动噪声,得到扰动初始文本到文本的任务模型;
使用融合结果对扰动初始文本到文本的任务模型进行训练,得到训练好的文本到文本的任务模型。
本实施例中,在使用文本到文本的任务模型对问答对进行改写之前,还需要对文本到文本的任务模型的进行微调训练,获取不同材料中的问答对数据集,根据不同材料中的问答对对应的融合结果对文本到文本的任务模型进行微调训练,文本到文本的任务模型中所有参数都参与训练更新。这里由于我们的问答对的数据集和文本到文本的任务模型的数据集存在一些差距,简单的基于我们的问答对的数据集对文本到文本的任务模型进行微调可能难以克服这些差距,导致微调性能不佳。
获取初始文本到文本的任务模型,对初始文本到文本的任务模型添加扰动噪声,得到扰动初始文本到文本的任务模型,使用融合结果对扰动初始文本到文本的任务模型进行训练,得到训练好的文本到文本的任务模型。我们在微调时使用了noisytune来缩小下游任务和文本到文本的任务模型任务之间的差距。noisytune是在微调初始文本到文本的任务模型参数之前添加一些噪声,帮助初始文本到文本的任务模型更好地微调下游任务。更具体地说,noisytune是一种矩阵式扰动方法,它根据不同参数矩阵的标准差向其添加不同的均匀噪声。这样,就可以考虑初始文本到文本的任务模型中不同类型参数的不同特性。在我们的模型中,我们使用这种方法对初始文本到文本的任务模型增加一些扰动,提升微调效果,得到训练好的文本到文本的任务模型。微调后,根据融合结果对问答对进行改写,得到问答对对应的目标答复结果。
获取预设的问答材料,识别问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数,针对任一问答对,将问答对与问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本,根据每个问答对的产生时间,确定在问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对,将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果,根据融合结果,判断问答对与预设的前缀参数是否匹配,若匹配,使用融合结果改写问答对,得到问答对对应的目标答复结果。本发明中,将与问答对相似的问答对作为问答对改写的参数,丰富了改写的参考信息,提升了问答对的改写空间,从而使问答对的改写质量得到了提高。
请参阅图3,图3是本发明实施例提供的一种基于检索增强的对话答复装置的结构示意图。本实施例中该终端包括的各单元用于执行图2对应的实施例中的各步骤。具体请参阅图2以及图2所对应的实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。参见图3,对话答复装置30包括:获取模块31,拼接模块32,相似问答对确定模块33,融合模块34,改写模块35。
获取模块31,用于获取预设的问答材料,识别问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数;
拼接模块32,用于针对任一问答对,将问答对与问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本;
相似问答对确定模块33,用于根据每个问答对的产生时间,确定在问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对;
融合模块34,用于将相似问答对与问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与第二整体文本融合,得到融合结果;
改写模块35,用于使用融合结果改写问答对,得到问答对对应的目标答复结果。
可选地,上述相似问答对确定模块33包括:
第一整体文本的表征值确定单元,用于通过预训练语言模型,确定目标问答对对应的第一整体文本的表征值与问答对的第一整体文本的表征值;
比较单元,用于根据目标问答对对应的第一整体文本的表征值与问答对的第一整体文本的表征值,进行相似度比较,确定相似度满足条件的目标问答对为对应问答对的相似问答对。
可选地,上述比较单元包括:
第一转化单元,用于使用预设词向量计算工具,将第一整体文本转化为文本序列。
隐向量确定单元,用于将文本序列输入至预训练语言模型中,输出文本序列对应的隐向量,得到目标问答对对应的第一整体文本的隐向量与问答对的第一整体文本的隐向量。
第一整体文本的表征值确定单元,用于根据目标问答对对应的第一整体文本的隐向量,确定目标问答对对应的第一整体文本的表征值。
可选地,上述融合模块34包括:
第二整体文确定单元,用于通过在相似问答对与问答对之间设置分隔符,将相似问答对与问答对拼接为第二整体文本。
第二转化单元,用于使用预设词向量计算工具,将第二整体文本转化为第二文本序列。
融合单元,用于将第二文本序列与预设的前缀参数进行融合,得到融合结果。
可选地,上述改写模块35包括:
判断单元,用于将融合结果输入至文本到文本的任务模型中,输出对应结果,根据结果判断问答对与预设的前缀参数是否匹配。
微调单元,用于若预设的前缀参数不匹配,对预设的前缀参数进行微调,得到匹配的前缀参数,将匹配的前缀参数作为预设的前缀参数。
可选地,上述改写模块35包括:
输出单元,用于将融合结果输入至训练好的文本到文本的任务模型中,输出问答对对应的目标答复结果。
可选地,上述输出单元包括:
扰动单元,用于获取初始文本到文本的任务模型,对初始文本到文本的任务模型添加扰动噪声,得到扰动初始文本到文本的任务模型。
训练单元,用于使用融合结果对扰动初始文本到文本的任务模型进行训练,得到训练好的文本到文本的任务模型。
需要说明的是,上述单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图4是本发明实施例提供的一种计算机设备的结构示意图。如图4所示,该实施例的计算机设备包括:至少一个处理器(图4中仅示出一个)、存储器以及存储在存储器中并可在至少一个处理器上运行的计算机程序,处理器执行计算机程序时实现上述任意各个基于检索增强的对话答复方法实施例中的步骤。
该计算机设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图4仅仅是计算机设备的举例,并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括网络接口、显示屏和输入装置等。
所称处理器可以是CPU,该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本发明实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于检索增强的对话答复方法,其特征在于,所述对话答复方法包括:
获取预设的问答材料,识别所述问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数;
针对任一问答对,将所述问答对与所述问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本;
根据每个问答对的产生时间,确定在所述问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与所述问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应所述问答对的相似问答对;
将所述相似问答对与所述问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与所述第二整体文本融合,得到融合结果;
根据所述融合结果,判断所述问答对与所述预设的前缀参数是否匹配,若匹配,使用所述融合结果改写所述问答对,得到所述问答对对应的目标答复结果。
2.如权利要求1所述的对话答复方法,其特征在于,所述根据每个问答对的产生时间,确定在所述问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与所述问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应所述问答对的相似问答对,包括:
通过预训练语言模型,确定所述目标问答对对应的第一整体文本的表征值与所述问答对的第一整体文本的表征值;
根据所述目标问答对对应的第一整体文本的表征值与所述问答对的第一整体文本的表征值,进行相似度比较,确定相似度满足条件的目标问答对为对应所述问答对的相似问答对。
3.如权利要求2所述的对话答复方法,其特征在于,所述通过预训练语言模型,确定所述目标问答对对应的第一整体文本的表征值与所述问答对的第一整体文本的表征值,包括:
使用预设词向量计算工具,将所述第一整体文本转化为文本序列;
将所述文本序列输入至所述预训练语言模型中,输出所述文本序列对应的隐向量,得到所述目标问答对对应的第一整体文本的隐向量与所述问答对的第一整体文本的隐向量;
根据所述目标问答对对应的第一整体文本的隐向量,确定所述目标问答对对应的第一整体文本的表征值。
4.如权利要求1所述的对话答复方法,其特征在于,所述将所述相似问答对与所述问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与所述第二整体文本融合,得到融合结果,包括:
通过在所述相似问答对与所述问答对之间设置分隔符,将所述相似问答对与所述问答对拼接为第二整体文本;
使用预设词向量计算工具,将所述第二整体文本转化为第二文本序列;
将所述第二文本序列与所述预设的前缀参数进行融合,得到融合结果。
5.如权利要求1所述的对话答复方法,其特征在于,所述根据所述融合结果,判断所述问答对与所述预设的前缀参数是否匹配,包括:
将所述融合结果输入至文本到文本的任务模型中,输出对应结果,根据所述结果判断所述问答对与所述预设的前缀参数是否匹配;
若所述预设的前缀参数不匹配,对所述预设的前缀参数进行微调,得到匹配的前缀参数,将所述匹配的前缀参数作为预设的前缀参数。
6.如权利要求1所述的对话答复方法,其特征在于,所述若匹配,使用所述融合结果改写所述问答对,得到所述问答对对应的目标答复结果,包括:
将所述融合结果输入至训练好的文本到文本的任务模型中,输出所述问答对对应的目标答复结果。
7.如权利要求6所述的对话答复方法,其特征在于,所述将所述融合结果输入至训练好的文本到文本的任务模型中,输出所述问答对对应的目标答复结果之前,还包括:
获取初始文本到文本的任务模型,对所述初始文本到文本的任务模型添加扰动噪声,得到扰动初始文本到文本的任务模型;
使用所述融合结果对所述扰动初始文本到文本的任务模型进行训练,得到训练好的文本到文本的任务模型。
8.一种基于检索增强的对话答复装置,其特征在于,所述对话答复装置包括:
获取模块,用于获取预设的问答材料,识别所述问答材料中的问答对,得到N个问答对及其产生时间,N为大于1的整数;
拼接模块,用于针对任一问答对,将所述问答对与所述问答材料拼接为第一整体文本,得到每个问答对对应的第一整体文本;
相似问答对确定模块,用于根据每个问答对的产生时间,确定在所述问答对的产生时间之前产生的问答对为目标问答对,将所有目标问答对对应的第一整体文本与所述问答对的第一整体文本进行相似度比较,确定相似度满足条件的目标问答对为对应所述问答对的相似问答对;
融合模块,用于将所述相似问答对与所述问答对的第一整体文本拼接为第二整体文本,将预设的前缀参数与所述第二整体文本融合,得到融合结果;
改写模块,用于使用所述融合结果改写所述问答对,得到所述问答对对应的目标答复结果。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的对话答复装置方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的对话答复装置方法。
CN202310717566.5A 2023-06-16 2023-06-16 基于检索增强的对话答复方法、装置、设备及存储介质 Pending CN116680387A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310717566.5A CN116680387A (zh) 2023-06-16 2023-06-16 基于检索增强的对话答复方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310717566.5A CN116680387A (zh) 2023-06-16 2023-06-16 基于检索增强的对话答复方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116680387A true CN116680387A (zh) 2023-09-01

Family

ID=87785337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310717566.5A Pending CN116680387A (zh) 2023-06-16 2023-06-16 基于检索增强的对话答复方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116680387A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117573842B (zh) * 2024-01-12 2024-04-30 阿里云计算有限公司 文档检索方法以及自动问答方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117573842B (zh) * 2024-01-12 2024-04-30 阿里云计算有限公司 文档检索方法以及自动问答方法

Similar Documents

Publication Publication Date Title
CN113962315B (zh) 模型预训练方法、装置、设备、存储介质以及程序产品
JP7079309B2 (ja) 質問応答処理方法、装置、電子機器及び記憶媒体
CN111859960B (zh) 基于知识蒸馏的语义匹配方法、装置、计算机设备和介质
CN107273503B (zh) 用于生成同语言平行文本的方法和装置
CN111695352A (zh) 基于语义分析的评分方法、装置、终端设备及存储介质
CN112100354B (zh) 人机对话方法、装置、设备及存储介质
CN109376222B (zh) 问答匹配度计算方法、问答自动匹配方法及装置
CN112417102B (zh) 一种语音查询方法、装置、服务器和可读存储介质
CN111310440B (zh) 文本的纠错方法、装置和系统
CN112214593A (zh) 问答处理方法、装置、电子设备及存储介质
CN108345686B (zh) 一种基于搜索引擎技术的数据分析方法及系统
CN117149984B (zh) 一种基于大模型思维链的定制化培训方法及装置
CN110738059A (zh) 一种文本相似度计算方法及系统
CN107894979B (zh) 用于语义挖掘的复合词处理方法、装置及其设备
CN114818729A (zh) 一种训练语义识别模型、查找语句的方法、装置及介质
CN116680387A (zh) 基于检索增强的对话答复方法、装置、设备及存储介质
CN113326702A (zh) 语义识别方法、装置、电子设备及存储介质
CN111368066B (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN115312033A (zh) 基于人工智能的语音情感识别方法、装置、设备及介质
CN114490926A (zh) 一种相似问题的确定方法、装置、存储介质及终端
CN113934834A (zh) 一种问句匹配的方法、装置、设备和存储介质
CN111814028B (zh) 一种信息搜索方法及装置
CN110708619B (zh) 一种智能设备的词向量训练方法及装置
CN113569018A (zh) 问答对挖掘方法及装置
CN111858860B (zh) 搜索信息处理方法及系统、服务器、计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination