CN116737888B - 对话生成模型的训练方法和答复文本的确定方法、装置 - Google Patents

对话生成模型的训练方法和答复文本的确定方法、装置 Download PDF

Info

Publication number
CN116737888B
CN116737888B CN202310041715.0A CN202310041715A CN116737888B CN 116737888 B CN116737888 B CN 116737888B CN 202310041715 A CN202310041715 A CN 202310041715A CN 116737888 B CN116737888 B CN 116737888B
Authority
CN
China
Prior art keywords
text
reply
replied
reply text
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310041715.0A
Other languages
English (en)
Other versions
CN116737888A (zh
Inventor
陆华
鲍思琪
何煌
王凡
吴华
黄世维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202310041715.0A priority Critical patent/CN116737888B/zh
Publication of CN116737888A publication Critical patent/CN116737888A/zh
Application granted granted Critical
Publication of CN116737888B publication Critical patent/CN116737888B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了一种对话生成模型的训练方法和答复文本的确定方法、装置,涉及人工智能领域,具体涉及自然语言处理和智能语音等技术领域,可应用于智能问答和智能对话等场景。对话生成模型的训练方法的具体实现方案为:获取样本数据,样本数据包括待答复文本、待答复文本的真实答复文本、根据待答复文本生成的生成答复文本和随机答复文本;将待答复文本与真实答复文本、生成答复文本和随机答复文本分别进行拼接,得到三个拼接文本;采用对话生成模型对三个拼接文本分别进行处理,得到对应三个拼接文本的三个相关值;根据三个相关值,确定对话生成模型的排序损失;以及根据排序损失,对对话生成模型进行训练。

Description

对话生成模型的训练方法和答复文本的确定方法、装置
技术领域
本公开涉及人工智能领域,具体涉及自然语言处理和智能语音等技术领域,可应用于智能问答和智能对话等场景。
背景技术
随着经济的发展和生活水平的提高,对智能化生活的需求日益增加。智能化生活的实现离不开智能语音技术。例如可以通过智能音箱等智能设备与用户进行智能对话,以对用户提出的问题进行答复,或根据用户指令控制智能家电等。
随着深度学习技术的发展,智能语音技术可以依赖于深度学习模型来实现。如此,深度学习模型的精度和泛化能力对智能语音技术提供的智能对话合理性和准确性至关重要。
发明内容
本公开旨在提供一种对话生成模型的训练方法和答复文本的确定方法、装置、设备、介质,以利于提高对话生成模型的泛化能力和评估能力。
根据本公开的第一方面,提供了一种对话生成模型的训练方法,包括:获取样本数据,样本数据包括待答复文本、待答复文本的真实答复文本、根据待答复文本生成的生成答复文本和随机答复文本;将待答复文本与真实答复文本、生成答复文本和随机答复文本分别进行拼接,得到分别对应真实答复文本、生成答复文本和随机答复文本的三个拼接文本;采用对话生成模型对三个拼接文本分别进行处理,得到对应三个拼接文本的三个相关值;相关值表示拼接文本中的答复文本与待答复文本之间的相关程度;根据三个相关值,确定对话生成模型的排序损失;以及根据排序损失,对对话生成模型进行训练。
根据本公开的第二方面,提供了一种答复文本的确定方法,包括:采用对话生成模型对待答复文本进行处理,生成至少两个候选答复文本;将待答复文本与至少两个候选答复文本分别进行拼接,得到与至少两个候选答复文本分别对应的至少两个拼接文本;采用对话生成模型对至少两个拼接文本进行处理,得到分别对应至少两个拼接文本的至少两个相关值,相关值表示拼接文本中的候选答复文本与待答复文本之间的相关程度;以及确定至少两个相关值中最高相关值所对应的目标拼接文本,将目标拼接文本中的候选答复文本作为待答复文本的答复文本,对话生成模型是由本公开第一方面提供的方法训练得到的。
根据本公开的第三方面,提供了一种对话生成模型的训练装置,包括:数据获取模块,用于获取样本数据,样本数据包括待答复文本、待答复文本的真实答复文本、根据待答复文本生成的生成答复文本和随机答复文本;文本拼接模块,用于将待答复文本与真实答复文本、生成答复文本和随机答复文本分别进行拼接,得到分别对应真实答复文本、生成答复文本和随机答复文本的三个拼接文本;相关值获得模块,用于采用对话生成模型对三个拼接文本分别进行处理,得到对应三个拼接文本的三个相关值;相关值表示拼接文本中的答复文本与待答复文本之间的相关程度;排序损失确定模块,用于根据三个相关值,确定对话生成模型的排序损失;以及模型训练模块,用于根据排序损失,对对话生成模型进行训练。
根据本公开的第四方面,提供了一种答复文本的确定装置,包括:候选文本生成模块,用于采用对话生成模型对待答复文本进行处理,生成至少两个候选答复文本;文本拼接模块,用于将待答复文本与至少两个候选答复文本分别进行拼接,得到与至少两个候选答复文本分别对应的至少两个拼接文本;相关值获得模块,用于采用对话生成模型对至少两个拼接文本进行处理,得到分别对应至少两个拼接文本的至少两个相关值,相关值表示拼接文本中的候选答复文本与待答复文本之间的相关程度;以及答复文本确定模块,用于确定至少两个相关值中最高相关值所对应的目标拼接文本,将目标拼接文本中的候选答复文本作为待答复文本的答复文本,其中,对话生成模型是由本公开第三方面提供的装置训练得到的。
根据本公开的第五方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开提供的对话生成模型的训练方法和/或答复文本的确定方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开提供的对话生成模型的训练方法和/或答复文本的确定方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令存储于可读存储介质和电子设备其中至少之一上,所述计算机程序/指令在被处理器执行时实现本公开提供的对话生成模型的训练方法和/或答复文本的确定方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例的对话生成模型的训练方法和答复文本的确定方法、装置的应用场景示意图;
图2是根据本公开实施例的对话生成模型的训练方法的流程示意图;
图3是根据本公开实施例的获取样本数据的原理示意图;
图4是根据本公开实施例的确定排序损失的原理示意图;
图5是根据本公开实施例的对话生成模型的训练方法的实现原理图;
图6是根据本公开实施例的答复文本的确定方法的流程示意图;
图7是根据本公开实施例的对话生成模型的训练装置的结构框图;
图8是根据本公开实施例的答复文本的确定装置的结构框图;以及
图9是用来实施本公开实施例的对话生成模型的训练方法和/或答复文本的确定方法的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在对话生成模型的训练阶段中,当前轮次的输入文本不依赖于前一轮次生成的文本。而在推理阶段中,由于没有表示答复文本的标签,只能使用前一轮次生成的文本作为当前轮次的输入文本。即在训练阶段和推理阶段中,得到模型的输入文本的逻辑不一致,这会导致对答复文本进行评估得到的得分无法有效地衡量该答复文本的好坏,从而容易将没有信息量的通用答复置于前排,进而产生冗余的对话。
相关技术中,对话生成模型和对答复文本进行评估的模型通常为不同的模型,且训练阶段采用二阶段的训练方式,这会使得模型发生灾难性地遗忘,且无法有效兼顾对话生成能力和答复文本的评估能力。再者,对答复文本进行评估的模型通常为二分类模型,且训练阶段中的负样本时随机召回的,因此模型无法有效地区分候选的答复文本之间的优劣,缺乏对候选的答复文本的细粒度的感知。另外,对答复文本进行评估的模型的训练,通常需要依赖具有得分标签或排序标签的训练样本,模型训练之前需要对样本数据进行人工标注,因此,模型的迁移能力弱,未标注的数据或其他对话数据集中的数据无法有效快速的用于模型训练。
为了解决该问题,本公开提供了一种对话生成模型的训练方法和答复文本的确定方法、装置、设备、介质。以下先结合图1对本公开提供的方法和装置的应用场景进行描述。
图1是根据本公开实施例的对话生成模型的训练方法和答复文本的确定方法、装置的应用场景示意图。
如图1所示,该实施例的应用场景100可以包括终端设备110,该终端设备110可以为具有处理功能的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、智能音箱、智能手表等等。
终端设备110中例如可以安装有各种客户端应用,例如智能家电的远程控制类应用、智能语音助手、集成有语音搜索功能的搜索引擎等(仅为示例),本公开对此不做限定。
该应用场景100中,终端设备110例如可以将采集到的用户语音转换为待答复文本120,并对待答复文本120进行自然语言处理,以得到与该待答复文本对应的答复文本130。终端设备110例如可以展示该答复文本130,也可以将该答复文本130转换为语音进行播放。
在一实施例中,终端设备110例如可以通过对待答复文本的自然语言处理,生成至少两个候选的答复文本。随后,根据每个候选的答复文本与待答复文本120之间的相关值,确定与待答复文本120之间的相关值最大的候选的答复文本,为与待答复文本120对应的答复文本130。
在一实施例中,如图1所示,该应用场景100中还可以设置有服务器140。终端设备110例如可以通过网络与服务器140通信连接,网络可以为无线或有线通信链路。服务器140例如可以预先训练有对话生成模型150,并响应于终端设备110的获取请求,将对话生成模型150发送给终端设备110。在该实施例中,终端设备110可以借由对话生成模型150对待答复文本120进行自然语言处理,以生成候选的答复文本。终端设备110例如还可以借助该对话生成模型150来分析候选的答复文本与待答复文本120之间的相关值。可以理解的是,在该实施例中,对话生成模型150为服务器140基于多个任务训练得到的模型,多个任务可以包括对话生成任务和相关值预测任务,该多个任务还可以包括排序任务等,本公开对此不做限定。
根据本公开的实施例,服务器140可以为用于对终端设备110中运行的智能语音助手等客户端应用的运行提供支持的后台管理服务器,也可以为云服务器或区块链服务器等,本公开对此不做限定。
在一实施例中,终端设备110还可以将待答复文本120经由网络发送给服务器140,由服务器140采用训练得到的对话生成模型来对待答复文本120进行处理,并生成答复文本130。
如图1所示,该应用场景100中还可以包括数据库160,该数据库160中可以维护有海量的对话语料。服务器140可以通过访问数据库160获取对话语料,并根据获取的对话语料来生成样本数据,以对对话生成模型150进行训练。服务器140例如还可以将终端设备110接收到的对话语料实时地存入数据库160,以扩充数据库160中维护的对话语料。
需要说明的是,本公开提供的对话生成模型的训练方法可以由服务器140执行。相应地,本公开提供的对话生成模型的训练装置可以设置在服务器140中。本公开提供的答复文本的确定方法可以由终端设备110执行,也可以由服务器140执行。相应地,本公开提供的答复文本的确定装置可以设置在终端设备110中,也可以设置在服务器140中。
应该理解,图1中的终端设备110、服务器140和数据库160的数目和类型仅仅是示意性的。根据实现需要,可以具有任意数目和类型的终端设备110、服务器140和数据库160。
以下将结合图2~图5对本公开提供的对话生成模型的训练方法进行详细描述。
图2是根据本公开实施例的对话生成模型的训练方法的流程示意图。
如图2所示,该实施例的对话生成模型的训练方法200可以包括操作S210~操作S250。
在操作S210,获取样本数据。
根据本公开的实施例,样本数据可以预先生成后存储在预定存储空间,该实施例可以从该预定存储空间获取样本数据。
在一实施例中,样本数据中可以包括待答复文本、待答复文本的真实答复文本、根据待答复文本生成的生成答复文本和随机答复文本。例如,该实施例可以从对话语料中随机获取一个语句文本,作为待答复文本。随后,该实施例可以将该随机获取的语句文本之后的一个语句文本作为真实答复文本,同时从对话语料中随机获取一个除待答复文本和真实答复文本之外的文本,作为随机答复文本。该实施例可以采用任意的对话生成模型来对随机获取的语句文本进行处理,得到生成答复文本。具体地,可以将随机获取的语句文本作为任意的对话生成模型的输入,由任意的对话生成模型逐字符的输出生成对话文本。
其中,任意的对话生成模型可以为本公开实施例训练的对话生成模型,也可以为除本公开实施例训练的对话生成模型之外的任意模型。例如,该任意的对话生成模型可以包括基于隐空间的预训练对话生成模型(Pre-trained Dialogue Generation Model withDiscrete Latent Variable,PLATO)的系列模型、大规模预训练的对话响应模型(Large-Scale Generative Pre-training for Conversational Response Generation,DialoGPT)、Meena模型(参见文章《Towards a Human-like Open-Domain Chatbot》)等,本公开对此不做限定。
在操作S220,将待答复文本与真实答复文本、生成答复文本和随机答复文本分别进行拼接,得到分别对应真实答复文本、生成答复文本和随机答复文本的三个拼接文本。
根据本公开的实施例,可以直接将待答复文本与真实答复文本、生成答复文本和随机答复文本分别进行拼接,并在两个文本的拼接处添加用于分隔句子的令牌(token)[SEP]。例如,若待答复文本为“周末天气如何?”,真实答复文本为“周末天气晴朗。”,则拼接得到的对应真实答复文本的拼接文本可以表示为“周末天气如何?[SEP]周末天气晴朗。”。
在一实施例中,在对文本进行拼接之前,例如还可以对文本进行分字处理,得到表示每个文本的token序列。随后,将表示需要拼接的两个文本的两个token序列组合,具体可以将表示一个文本的token序列排列在表示另一个文本的token序列之后,并在两个token序列之间添加用于分隔句子的token([SEP]),得到表示拼接文本的token序列。例如,表示拼接文本“周末天气如何?[SEP]周末天气晴朗。”的token序列可以为([周],[末],[天],[气],[如],[何],[?],[SEP],[周],[末],[天],[气],[晴],[朗],[。])。
在操作S230,采用对话生成模型对三个拼接文本分别进行处理,得到对应三个拼接文本的三个相关值。该相关值表示拼接文本中的答复文本与待答复文本之间的相关程度。
根据本公开的实施例,对话生成模型可以包括基于隐空间的预训练对话生成模型,即可以为前文描述的PLATO系列模型。例如,对话生成模型可以为PLATO-1模型,对话生成模型的骨干网络可以采用Transformer网络架构,该骨干网络通过自注意力掩膜(self-attention mask)机制同时实现双向编码及单向解码。操作S230采用的对话生成模型可以是基于答复生成任务和答复选择任务预训练得到的模型。或者,对话生成模型还可以为PLATO-2模型,或者任意地可以基于答复生成任务和答复选择任务进行训练的模型,本公开对此不做限定。
该实施例中,可以将三个拼接文本依次输入对话生成模型,由对话生成模型中的全连接层依次输出三个相关值,以分别表示三个拼接文本中的答复文本与待答复文本之间的相关程度。
在操作S240,根据三个相关值,确定对话生成模型的排序损失。
在操作S250,根据排序损失,对对话生成模型进行训练。
根据本公开的实施例,可以根据三个相关值彼此之间的差值绝对值的和,来确定排序损失。例如,该排序损失可以与差值绝对值的和负相关。这是由于真实答复文本为待答复文本的下一语句文本,与待答复文本的相关程度高,生成答复文本则由于任意对话生成模型的精度的影响,虽与待答复文本的相关程度较高,但低于真实答复文本与待答复文本之间的相关程度;而随机答复文本通常与真实答复文本之间存在较大偏差,随机答复文本与待答复文本之间的相关程度低。将排序损失设置为与差值绝对值的和负相关,可以使得基于该排序损失训练得到的对话生成模型可以更好的区分高质量的答复文本和低质量的答复文本,利于提高对话生成模型对答复文本的排序能力。
在得到排序损失后,该实施例可以以最小化排序损失为目标,采用反向传播算法来调整对话生成模型的网络参数,实现对对话生成模型的训练。该实施例可以采用测试数据集对对话生成模型进行测试,在对话生成模型的精度达到预定精度的情况下,确定完成对话生成模型的训练。其中,可以以排序损失小于预定损失,或者排序损失收敛作为对话生成模型的精度达到预定精度的标准。
本公开实施例的技术方案,由于获取的样本数据包括与待答复文本的相关程度逐级递减的真实答复文本、生成答复文本和随机答复文本,因此无需预先通过标注来获得样本数据,便于将对话生成模型迁移到不同的垂直领域中。本公开通过采用排序损失来训练对话生成模型,可以使得对话生成模型兼具答复生成功能和答复排序功能,而无需额外设置模型对答复进行排序,实现答复生成功能和答复排序功能的一体化设计,且通过设置包括与待答复文本的相关程度逐级递减的真实答复文本、生成答复文本和随机答复文本的样本数据及排序损失,利于提高对话生成模型的排序能力。
图3是根据本公开实施例的获取样本数据的原理示意图。
如图3所示,实施例300在获取样本数据时,例如可以从对话数据库310中(例如上文描述的预定存储空间中的对话语料中)获取任一文本311和该任一文本的在前文本312。例如,任一文本可以为对话数据库310中存储的任一多轮对话中的任一对话文本。获取的在前文本312即为该任一多轮对话中位于该任一对话文本之前的对话文本。
该实施例300中,可以确定该任一文本311与在前文本312为待答复文本。具体地,可以将任一文本311和在前文本312根据对话顺序拼接,得到待答复文本320。
在得到待答复文本320后,该实施例可以根据该待答复文本320,确定真实答复文本、生成答复文本和随机答复文本。
例如,该实施例可以将任一多轮对话中与任一文本相邻、且位于该任一文本之后的一个对话文本作为待答复文本的真实答复文本330。即将对话数据库310中与任一文本相邻的在后文本作为真实答复文本330。
例如,该实施例可以从对话数据库310中随机抽取一个除真实答复文本330和任一文本311之外的文本,并将该随机抽取的文本作为随机答复文本340。
例如,该实施例可以采用上文描述的任意对话生成模型350来对待答复文本320进行处理,具体可以将待答复文本320输入任意对话生成模型350中,由任意对话生成模型350逐字的输出生成答复文本。例如,任意对话生成模型350可以输出概率向量序列。概率向量序列中的每个概率向量表示生成的字符为预定字典中各个词的概率。该实施例可以将每个概率向量中最大概率值所对应的字符作为一个生成的字符。将所有生成的字符根据概率向量序列中概率向量的排列顺序排序拼接,得到生成答复文本360。
本公开实施例300通过将任一文本及该任一文本的在前文本均作为待答复文本,可以使得对话生成模型在对拼接文本进行处理得到相关值时,考虑到任一文本的上文语义信息,利于提高得到的相关值的准确性。再者,通过设置该待答复文本,可以在一定程度上提高采用任意对话生成模型生成的生成答复文本的准确性,可以使得生成答复文本的准确性可以更为准确地表征任意对话生成模型的质量。基于此,可以提高确定的排序损失的精度,提高对话生成模型的训练精度。
图4是根据本公开实施例的确定排序损失的原理示意图。
如图4所示,实施例400在确定排序损失时,可以先计算三个相关值之间的差值。具体地,可以先确定对应于真实答复文本411的第一相关值421与对应于生成答复文本412的第二相关值422之间的差值,得到第一差值431。同时确定对应于真实答复文本411的第一相关值421与对应于随机答复文本413的第三相关值423之间的差值,得到第二差值432。确定对应于生成答复文本412的第二相关值422与对应于随机答复文本413的第三相关值423之间的差值,得到第三差值433。随后可以根据该第一差值431、第二差值432和第三差值433,来确定对话生成模型的排序损失。
例如,该实施例可以将第一差值431、第二差值432和第三差值433的平均值的负数,作为排序损失。或者,可以将该平均值的对数的负数,作为排序损失。该实施例计算第一差值431、第二差值432和第三差值433的原理,是基于三个答复文本与待答复文本之间的相关程度的高低来确定的。如此,无需进行绝对值的计算,即可确定得到的三个差值为正值,也可以使得排序损失的大小与三个答复文本的相关程度的等级相关。从而使得基于排序损失训练的对话生成模型可以更好地区分不同相关程度的答复文本,提高对话生成模型的排序能力和排序精度。
在一实施例中,在得到第一差值431、第二差值432和第三差值433后,例如还可以对该三个差值分别进行归一化处理,得到三个归一化差值,即归一化差值441~443。随后,该实施例可以根据该三个归一化差值441~443,来确定排序损失450。
例如,可以将三个归一化差值441~443的平均值的负数,作为排序损失450。或者将三个归一化差值441~443的对数的平均值的负数,作为排序损失450。在一实施例中,设定采用激活函数来对三个差值进行归一化处理,激活函数可以采用sigmoid函数δ()等,则排序损失Lrank例如可以采用以下公式(1)计算得到。
其中,s(c,rH)表示待答复文本c与真实答复文本rH之间的相关值,s(c,rB)表示待答复文本c与生成答复文本rB之间的相关值,s(c,rR)表示待答复文本c与随机答复文本rR之间的相关值。可以理解的是,上述激活函数和计算排序损失的公式(1)仅作为示例以利于理解本公开,本公开对此不做限定。
本公开实施例通过对三个差值进行归一化处理,可以使得归一化处理后的三个差值统一到相同量纲,使得归一化处理后的三个差异具有可比性。如此,利于提高确定的排序损失的精度。
图5是根据本公开实施例的对话生成模型的训练方法的实现原理图。
在一实施例中,除了基于排序损失来对对话生成模型进行训练外,还可以基于生成损失来训练对话生成模型。如此,可以使得训练得到的对话生成模型高精度地兼顾答复生成任务和排序任务。
如图5所示,该实施例500在训练对话生成模型时,可以根据样本数据510中的待答复文本511、真实答复文本512、生成答复文本513和随机答复文本514拼接得到三个拼接文本521~523。随后,可以采用对话生成模型501对该三个拼接文本521~523依次进行处理,得到三个相关值531~533。
同时,该实施例500可以采用对话生成模型501对待答复文本511进行处理,得到逐字地生成真实答复文本512中各字符的生成概率540。例如,对话生成模型501通过对待答复文本511进行处理,可以依次输出多个概率向量,依次输出的每个概率向量可以表示生成的答复文本中相应位置处的字符为预定字典中每个字符的概率。例如,若对话生成模型预测答复文本中包括10个字符,则可以依次输出10个概率向量,第i个概率向量包括答复文本中第i个字符为预定字典中每个字符的概率值。该实施例可以中第i个概率向量中确定对应真实答复文本512中第i个字符的概率值,将该概率值作为生成真实答复文本512中第i个字符的生成概率。
在得到三个相关值531~533后,该实施例500可以根据该三个相关值确定对话生成模型的排序损失550。确定排序损失550的原理可以与上文针对图4的描述部分所描述的原理类似,在此不再赘述。
在得到生成概率后,该实施例500可以根据生成概率540来确定对话生成模型501的生成损失560。例如,可以将生成真实答复文本中各字符的生成概率相乘,作为生成真实答复文本的概率。随后,该实施例可以将生成真实答复文本的概率代入交叉熵损失函数等损失函数中,得到生成损失560。
例如,设定生成真实答复文本的概率为pθ(rH|c),则生成损失Lgen例如可以采用以下公式(2)计算得到。
Lgen=-logpθ(rH|c) 公式(2)
其中,θ为对话生成模型的网络参数,真实答复文本表示为rH,待答复文本表示为c。
在得到生成损失560和排序损失550后,该实施例可以综合考虑生成损失560和排序损失550,来对对话生成模型501进行训练。例如,可以将生成损失560和排序损失550的加权和作为对话生成模型501的总损失570。随后,以最小化该总损失570为目标,采用反向传播算法等调整对话生成模型501的网络参数,实现对对话生成模型501的训练。
在一实施例中,可以先将待答复文本511输入对话生成模型501中,根据对话生成模型501输出的概率向量序列来确定生成答复文本513。例如,可以将概率向量序列中每个概率向量包括的最大概率值所对应的字符作为生成答复文本513中的一个字符,将确定的所有字符根据概率向量序列中概率向量的排列顺序拼接,将拼接得到的文本作为生成答复文本513。随后,再拼接生成答复文本513和待答复文本511得到拼接文本522,并经由对话生成模型501处理后得到相关值532。
基于本公开提供的对话生成模型的训练方法,本公开还提供了一种答复文本的确定方法。以下将结合图6对该方法进行详细描述。
图6是根据本公开实施例的答复文本的确定方法的流程示意图。
如图6所示,该实施例的答复文本的确定方法600可以包括操作S610~操作S640。
在操作S610,采用对话生成模型对待答复文本进行处理,生成至少两个候选答复文本。
根据本公开的实施例,对话生成模型对待答复文本进行处理,例如可以输出概率向量序列。该实施例可以从输出的第一个概率向量中取取值最大的n个概率值,将该n个概率值对应的字符作为备选的第一个字符。随后,该实施例可以计算该n个概率值与对话生成模型输出的第二概率向量中各概率值的乘积,并从得到的所有乘积中筛选出取值较大的n个乘积,将计算得到n个乘积中每个乘积的两个概率值所对应的两个字符拼接为n个候选的字符对。以此类推,该实施例可以得到n个候选答复文本。其中,n为大于等于2的自然数。
可以理解的是,还可以通过其他任意地规则来确定对话生成模型生成的至少两个候选答复文本,本公开对此不做限定。
在操作S620,将待答复文本与至少两个候选答复文本分别进行拼接,得到与至少两个候选答复文本分别对应的至少两个拼接文本。该操作S620中拼接答复文本与候选答复文本的原理与上文描述的操作S220中的拼接原理类似,在此不再赘述。
在操作S630,采用对话生成模型对至少两个拼接文本进行处理,得到分别对应至少两个拼接文本的至少两个相关值。相关值表示拼接文本中的候选答复文本与待答复文本之间的相关程度。该操作S630的实现原理与上文描述的操作S230的实现原理类似,在此不再赘述。
可以理解的是,操作S610与操作S630中采用的对话生成模型可以是采用上文描述的对话生成模型的训练方法训练得到的模型。
在操作S640,确定至少两个相关值中最高相关值所对应的目标拼接文本,将目标拼接文本中的候选答复文本作为待答复文本的答复文本。
即,该实施例可以将与待答复文本之间的相关值最高的候选答复文本,确定为待答复文本的答复文本。
在一实施例中,待答复文本例如可以包括待答复的当前文本及该当前文本的在前文本。例如,在多轮对话中,待答复的当前文本可以为对话系统最新接收到的对话文本,在前文本则为该多轮对话中,对话系统在该最新接收到的对话文本之前接收到的文本,及对话系统向用户反馈的对话的文本。
本公开实施例的答复文本的确定方法,可以借由对话生成模型完成候选答复文本的生成任务和对候选答复文本的排序任务,相较于相关技术中需要借助两个模型来分别完成生成任务和排序任务的技术方案,可以提高确定答复文本的效率。
基于本公开提供的对话生成模型的训练方法,本公开还提供了一种对话生成模型的训练装置。以下将结合图7对该装置进行详细描述。
图7是根据本公开实施例的对话生成模型的训练装置的结构框图。
如图7所示,该实施例的对话生成模型的训练装置700可以包括数据获取模块710、文本拼接模块720、相关值获得模块730、排序损失确定模块740和模型训练模块750。
数据获取模块710用于获取样本数据,样本数据包括待答复文本、待答复文本的真实答复文本、根据待答复文本生成的生成答复文本和随机答复文本。在一实施例中,数据获取模块710可以用于执行上文描述的操作S210,在此不再赘述。
文本拼接模块720用于将待答复文本与真实答复文本、生成答复文本和随机答复文本分别进行拼接,得到分别对应真实答复文本、生成答复文本和随机答复文本的三个拼接文本。在一实施例中,文本拼接模块720可以用于执行上文描述的操作S220,在此不再赘述。
相关值获得模块730用于采用对话生成模型对三个拼接文本分别进行处理,得到对应三个拼接文本的三个相关值。其中,相关值表示拼接文本中的答复文本与待答复文本之间的相关程度。在一实施例中,相关值获得模块730可以用于执行上文描述的操作S230,在此不再赘述。
排序损失确定模块740用于根据三个相关值,确定对话生成模型的排序损失。在一实施例中,排序损失确定模块740可以用于执行上文描述的操作S240,在此不再赘述。
模型训练模块750用于根据排序损失,对对话生成模型进行训练。在一实施例中,模型训练模块750可以用于执行上文描述的操作S250,在此不再赘述。
根据本公开的实施例,上述排序损失确定模块740例如可以包括第一差值确定子模块、第二差值确定子模块、第三差值确定子模块和损失确定子模块。第一差值确定子模块用于确定对应于真实答复文本的相关值与对应于生成答复文本的相关值之间的差值,得到第一差值。第二差值确定子模块用于确定对应于真实答复文本的相关值与对应于随机答复文本的相关值之间的差值,得到第二差值。第三差值确定子模块用于确定对应于生成答复文本的相关值与对应于随机答复文本的相关值之间的差值,得到第三差值。损失确定子模块用于根据第一差值、第二差值和第三差值,确定对话生成模型的排序损失。
根据本公开的实施例,上述损失确定子模块可以包括归一化单元和损失确定单元。归一化单元用于对第一差值、第二差值和第三差值分别进行归一化处理,得到三个归一化差值。损失确定单元用于根据三个归一化差值,确定排序损失。
根据本公开的实施例,上述数据获取模块710例如可以包括第一文本确定子模块和第二文本确定子模块。第一文本确定子模块用于确定对话数据库中的任一文本与任一文本的在前文本为待答复文本。第二文本确定子模块用于根据待答复文本,确定真实答复文本、生成答复文本和随机答复文本。
根据本公开的实施例,上述第二文本确定子模块可以包括真实文本确定单元、生成文本确定单元和随机文本获得单元。真实文本确定单元用于确定对话数据库中与任一文本相邻的在后文本为待答复文本的真实答复文本。生成文本确定单元用于采用任意对话生成模型对待答复文本进行处理,得到生成答复文本。随机文本获得单元用于从对话数据库中随机抽取一个除真实答复文本和任一文本之外的文本,得到随机答复文本。
根据本公开的实施例,上述对话生成模型的训练装置700例如还可以包括生成概率获得模块和生成损失确定模块。生成概率获得模块用于采用对话生成模型对待答复文本进行处理,得到逐字地生成真实答复文本中各字符的生成概率。生成损失确定模块用于根据生成概率,确定对话生成模型的生成损失。相应地,上述模型训练模块750具体可以用于根据生成损失和排序损失,对对话生成模型进行训练。
根据本公开的实施例,上述对话生成模型包括基于隐空间的预训练对话生成模型。
基于本公开提供的答复文本的确定方法,本公开还提供了一种答复文本的确定装置。以下将结合图8对该装置进行详细描述。
图8是根据本公开实施例的答复文本的确定装置的结构框图。
如图8所示,该实施例的答复文本的确定装置800可以包括候选文本生成模块810、文本拼接模块820、相关值获得模块830和答复文本确定模块840。
候选文本生成模块810用于采用对话生成模型对待答复文本进行处理,生成至少两个候选答复文本。其中,对话生成模型可以是采用上文描述的对话生成模型的训练装置700训练得到的。在一实施例中,候选文本生成模块810可以用于执行上文描述的操作S610,在此不再赘述。
文本拼接模块820用于将待答复文本与至少两个候选答复文本分别进行拼接,得到与至少两个候选答复文本分别对应的至少两个拼接文本。在一实施例中,文本拼接模块820可以用于执行上文描述的操作S620,在此不再赘述。
相关值获得模块830用于采用对话生成模型对至少两个拼接文本进行处理,得到分别对应至少两个拼接文本的至少两个相关值。其中,相关值表示拼接文本中的候选答复文本与待答复文本之间的相关程度。在一实施例中,相关值获得模块830可以用于执行上文描述的操作S630,在此不再赘述。
答复文本确定模块840用于确定至少两个相关值中最高相关值所对应的目标拼接文本,将目标拼接文本中的候选答复文本作为待答复文本的答复文本。在一实施例中,答复文本确定模块840可以用于执行上文描述的操作S640,在此不再赘述。
根据本公开的实施例,待答复文本可以包括待答复的当前文本及当前文本的在前文本。
需要说明的是,本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开实施例的对话生成模型的训练方法和/或答复文本的确定方法的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如对话生成模型的训练方法和/或答复文本的确定方法。例如,在一些实施例中,对话生成模型的训练方法和/或答复文本的确定方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM903并由计算单元901执行时,可以执行上文描述的对话生成模型的训练方法和/或答复文本的确定方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行对话生成模型的训练方法和/或答复文本的确定方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。其中,服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(″Virtual Private Server″,或简称″VPS″)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (21)

1.一种对话生成模型的训练方法,包括:
获取样本数据,所述样本数据包括待答复文本、所述待答复文本的真实答复文本、根据所述待答复文本生成的生成答复文本和随机答复文本;
将所述待答复文本与所述真实答复文本、所述生成答复文本和所述随机答复文本分别进行拼接,得到分别对应所述真实答复文本、所述生成答复文本和所述随机答复文本的三个拼接文本;
采用对话生成模型对所述三个拼接文本分别进行处理,得到对应所述三个拼接文本的三个相关值;相关值表示拼接文本中的答复文本与所述待答复文本之间的相关程度;
根据所述三个相关值,确定所述对话生成模型的排序损失;以及
根据所述排序损失,对所述对话生成模型进行训练。
2.根据权利要求1所述的方法,其中,所述根据所述三个相关值,确定所述对话生成模型的排序损失包括:
确定对应于所述真实答复文本的相关值与对应于所述生成答复文本的相关值之间的差值,得到第一差值;
确定对应于所述真实答复文本的相关值与对应于所述随机答复文本的相关值之间的差值,得到第二差值;
确定对应于所述生成答复文本的相关值与对应于所述随机答复文本的相关值之间的差值,得到第三差值;以及
根据所述第一差值、所述第二差值和所述第三差值,确定所述对话生成模型的排序损失。
3.根据权利要求2所述的方法,其中,所述根据所述第一差值、所述第二差值和所述第三差值,确定所述对话生成模型的排序损失包括:
对所述第一差值、所述第二差值和所述第三差值分别进行归一化处理,得到三个归一化差值;以及
根据所述三个归一化差值,确定所述排序损失。
4.根据权利要求1所述的方法,其中,所述获取样本数据包括:
确定对话数据库中的任一文本与所述任一文本的在前文本为所述待答复文本;以及
根据所述待答复文本,确定所述真实答复文本、所述生成答复文本和所述随机答复文本。
5.根据权利要求4所述的方法,其中,所述根据所述待答复文本,确定所述真实答复文本、所述生成答复文本和所述随机答复文本包括:
确定所述对话数据库中与所述任一文本相邻的在后文本为所述待答复文本的真实答复文本;
采用任意对话生成模型对所述待答复文本进行处理,得到所述生成答复文本;以及
从所述对话数据库中随机抽取一个除所述真实答复文本和所述任一文本之外的文本,得到所述随机答复文本。
6.根据权利要求1所述的方法,还包括:
采用所述对话生成模型对所述待答复文本进行处理,得到逐字地生成所述真实答复文本中各字符的生成概率;
根据所述生成概率,确定所述对话生成模型的生成损失;以及
根据所述生成损失和所述排序损失,对所述对话生成模型进行训练。
7.根据权利要求1~6中任一项所述的方法,其中,所述对话生成模型包括基于隐空间的预训练对话生成模型。
8.一种答复文本的确定方法,包括:
采用对话生成模型对待答复文本进行处理,生成至少两个候选答复文本;
将待答复文本与至少两个候选答复文本分别进行拼接,得到与至少两个候选答复文本分别对应的至少两个拼接文本;
采用所述对话生成模型对所述至少两个拼接文本进行处理,得到分别对应所述至少两个拼接文本的至少两个相关值,相关值表示拼接文本中的候选答复文本与所述待答复文本之间的相关程度;以及
确定所述至少两个相关值中最高相关值所对应的目标拼接文本,将所述目标拼接文本中的候选答复文本作为所述待答复文本的答复文本,
其中,所述对话生成模型是由根据权利要求1~7中任一项所述的方法训练得到的。
9.根据权利要求8所述的方法,其中,所述待答复文本包括待答复的当前文本及所述当前文本的在前文本。
10.一种对话生成模型的训练装置,包括:
数据获取模块,用于获取样本数据,所述样本数据包括待答复文本、所述待答复文本的真实答复文本、根据所述待答复文本生成的生成答复文本和随机答复文本;
文本拼接模块,用于将所述待答复文本与所述真实答复文本、所述生成答复文本和所述随机答复文本分别进行拼接,得到分别对应所述真实答复文本、所述生成答复文本和所述随机答复文本的三个拼接文本;
相关值获得模块,用于采用对话生成模型对所述三个拼接文本分别进行处理,得到对应所述三个拼接文本的三个相关值;相关值表示拼接文本中的答复文本与所述待答复文本之间的相关程度;
排序损失确定模块,用于根据所述三个相关值,确定所述对话生成模型的排序损失;以及
模型训练模块,用于根据所述排序损失,对所述对话生成模型进行训练。
11.根据权利要求10所述的装置,其中,所述排序损失确定模块包括:
第一差值确定子模块,用于确定对应于所述真实答复文本的相关值与对应于所述生成答复文本的相关值之间的差值,得到第一差值;
第二差值确定子模块,用于确定对应于所述真实答复文本的相关值与对应于所述随机答复文本的相关值之间的差值,得到第二差值;
第三差值确定子模块,用于确定对应于所述生成答复文本的相关值与对应于所述随机答复文本的相关值之间的差值,得到第三差值;以及
损失确定子模块,用于根据所述第一差值、所述第二差值和所述第三差值,确定所述对话生成模型的排序损失。
12.根据权利要求11所述的装置,其中,所述损失确定子模块包括:
归一化单元,用于对所述第一差值、所述第二差值和所述第三差值分别进行归一化处理,得到三个归一化差值;以及
损失确定单元,用于根据所述三个归一化差值,确定所述排序损失。
13.根据权利要求10所述的装置,其中,所述数据获取模块包括:
第一文本确定子模块,用于确定对话数据库中的任一文本与所述任一文本的在前文本为所述待答复文本;以及
第二文本确定子模块,用于根据所述待答复文本,确定所述真实答复文本、所述生成答复文本和所述随机答复文本。
14.根据权利要求13所述的装置,其中,所述第二文本确定子模块包括:
真实文本确定单元,用于确定所述对话数据库中与所述任一文本相邻的在后文本为所述待答复文本的真实答复文本;
生成文本确定单元,用于采用任意对话生成模型对所述待答复文本进行处理,得到所述生成答复文本;以及
随机文本获得单元,用于从所述对话数据库中随机抽取一个除所述真实答复文本和所述任一文本之外的文本,得到所述随机答复文本。
15.根据权利要求10所述的装置,还包括:
生成概率获得模块,用于采用所述对话生成模型对所述待答复文本进行处理,得到逐字地生成所述真实答复文本中各字符的生成概率;
生成损失确定模块,用于根据所述生成概率,确定所述对话生成模型的生成损失,
其中,所述模型训练模块具体用于:根据所述生成损失和所述排序损失,对所述对话生成模型进行训练。
16.根据权利要求10~15中任一项所述的装置,其中,所述对话生成模型包括基于隐空间的预训练对话生成模型。
17.一种答复文本的确定装置,包括:
候选文本生成模块,用于采用对话生成模型对待答复文本进行处理,生成至少两个候选答复文本;
文本拼接模块,用于将待答复文本与至少两个候选答复文本分别进行拼接,得到与至少两个候选答复文本分别对应的至少两个拼接文本;
相关值获得模块,用于采用所述对话生成模型对所述至少两个拼接文本进行处理,得到分别对应所述至少两个拼接文本的至少两个相关值,相关值表示拼接文本中的候选答复文本与所述待答复文本之间的相关程度;以及
答复文本确定模块,用于确定所述至少两个相关值中最高相关值所对应的目标拼接文本,将所述目标拼接文本中的候选答复文本作为所述待答复文本的答复文本,
其中,所述对话生成模型是由根据权利要求10~16中任一项所述的装置训练得到的。
18.根据权利要求17所述的装置,其中,所述待答复文本包括待答复的当前文本及所述当前文本的在前文本。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1~9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1~9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令存储于可读存储介质和电子设备其中至少之一上,所述计算机程序/指令在被处理器执行时实现根据权利要求1~9中任一项所述方法的步骤。
CN202310041715.0A 2023-01-11 2023-01-11 对话生成模型的训练方法和答复文本的确定方法、装置 Active CN116737888B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310041715.0A CN116737888B (zh) 2023-01-11 2023-01-11 对话生成模型的训练方法和答复文本的确定方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310041715.0A CN116737888B (zh) 2023-01-11 2023-01-11 对话生成模型的训练方法和答复文本的确定方法、装置

Publications (2)

Publication Number Publication Date
CN116737888A CN116737888A (zh) 2023-09-12
CN116737888B true CN116737888B (zh) 2024-05-17

Family

ID=87910284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310041715.0A Active CN116737888B (zh) 2023-01-11 2023-01-11 对话生成模型的训练方法和答复文本的确定方法、装置

Country Status (1)

Country Link
CN (1) CN116737888B (zh)

Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018133761A1 (zh) * 2017-01-17 2018-07-26 华为技术有限公司 一种人机对话的方法和装置
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN110309282A (zh) * 2019-06-14 2019-10-08 北京奇艺世纪科技有限公司 一种答案确定方法及装置
CN110309283A (zh) * 2019-06-28 2019-10-08 阿里巴巴集团控股有限公司 一种智能问答的答案确定方法及装置
CN110427625A (zh) * 2019-07-31 2019-11-08 腾讯科技(深圳)有限公司 语句补全方法、装置、介质及对话处理系统
CN110516059A (zh) * 2019-08-30 2019-11-29 腾讯科技(深圳)有限公司 基于机器学习的问题答复方法、问答模型训练方法及装置
CN110543552A (zh) * 2019-09-06 2019-12-06 网易(杭州)网络有限公司 对话交互方法、装置及电子设备
CN110688470A (zh) * 2019-09-27 2020-01-14 北京百度网讯科技有限公司 用于发送信息的方法和装置
CN110990555A (zh) * 2020-03-05 2020-04-10 中邮消费金融有限公司 端到端检索式对话方法与系统及计算机设备
CN111339274A (zh) * 2020-02-25 2020-06-26 网易(杭州)网络有限公司 对话生成模型训练方法、对话生成方法及装置
CN111368051A (zh) * 2020-02-28 2020-07-03 平安科技(深圳)有限公司 一种对话生成方法、装置及计算机设备
CN111625628A (zh) * 2019-02-12 2020-09-04 阿里巴巴集团控股有限公司 信息处理方法及装置、存储介质和处理器
WO2020177282A1 (zh) * 2019-03-01 2020-09-10 平安科技(深圳)有限公司 一种机器对话方法、装置、计算机设备及存储介质
CN111782788A (zh) * 2020-07-03 2020-10-16 电子科技大学 一种面向开放域对话系统的情感回复自动生成方法
WO2020238985A1 (zh) * 2019-05-31 2020-12-03 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及存储介质
KR20210038449A (ko) * 2020-05-27 2021-04-07 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체
CN112837676A (zh) * 2019-11-04 2021-05-25 深圳市优必选科技股份有限公司 一种语句生成方法、语句生成装置及智能设备
KR20210088463A (ko) * 2020-06-29 2021-07-14 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기
WO2021139297A1 (zh) * 2020-07-28 2021-07-15 平安科技(深圳)有限公司 基于Transformer模型的问答方法、问答装置及存储装置
CN113220832A (zh) * 2021-04-30 2021-08-06 北京金山数字娱乐科技有限公司 一种文本处理方法及装置
CN113901832A (zh) * 2021-10-08 2022-01-07 北京小米移动软件有限公司 人机对话方法、装置、存储介质及电子设备
CN114048301A (zh) * 2021-11-26 2022-02-15 山东大学 一种基于满意度的用户模拟方法及系统
WO2022033332A1 (zh) * 2020-08-14 2022-02-17 腾讯科技(深圳)有限公司 对话生成方法、网络训练方法、装置、存储介质及设备
CN114116998A (zh) * 2021-11-04 2022-03-01 招联消费金融有限公司 答复语句生成方法、装置、计算机设备和存储介质
WO2022048170A1 (zh) * 2020-09-02 2022-03-10 平安科技(深圳)有限公司 人机对话方法、装置、计算机设备及存储介质
CN114416943A (zh) * 2021-12-29 2022-04-29 北京百度网讯科技有限公司 对话模型的训练方法、装置、电子设备及存储介质
CN115080739A (zh) * 2022-06-24 2022-09-20 北京百度网讯科技有限公司 用于训练对话模型的方法以及用于输出应答信息的方法
CN115186094A (zh) * 2022-07-21 2022-10-14 平安科技(深圳)有限公司 多意图分类的模型训练方法、装置、电子设备及存储介质

Patent Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018133761A1 (zh) * 2017-01-17 2018-07-26 华为技术有限公司 一种人机对话的方法和装置
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN111625628A (zh) * 2019-02-12 2020-09-04 阿里巴巴集团控股有限公司 信息处理方法及装置、存储介质和处理器
WO2020177282A1 (zh) * 2019-03-01 2020-09-10 平安科技(深圳)有限公司 一种机器对话方法、装置、计算机设备及存储介质
WO2020238985A1 (zh) * 2019-05-31 2020-12-03 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及存储介质
CN110309282A (zh) * 2019-06-14 2019-10-08 北京奇艺世纪科技有限公司 一种答案确定方法及装置
CN110309283A (zh) * 2019-06-28 2019-10-08 阿里巴巴集团控股有限公司 一种智能问答的答案确定方法及装置
CN110427625A (zh) * 2019-07-31 2019-11-08 腾讯科技(深圳)有限公司 语句补全方法、装置、介质及对话处理系统
CN110516059A (zh) * 2019-08-30 2019-11-29 腾讯科技(深圳)有限公司 基于机器学习的问题答复方法、问答模型训练方法及装置
CN110543552A (zh) * 2019-09-06 2019-12-06 网易(杭州)网络有限公司 对话交互方法、装置及电子设备
CN110688470A (zh) * 2019-09-27 2020-01-14 北京百度网讯科技有限公司 用于发送信息的方法和装置
CN112837676A (zh) * 2019-11-04 2021-05-25 深圳市优必选科技股份有限公司 一种语句生成方法、语句生成装置及智能设备
CN111339274A (zh) * 2020-02-25 2020-06-26 网易(杭州)网络有限公司 对话生成模型训练方法、对话生成方法及装置
CN111368051A (zh) * 2020-02-28 2020-07-03 平安科技(深圳)有限公司 一种对话生成方法、装置及计算机设备
CN110990555A (zh) * 2020-03-05 2020-04-10 中邮消费金融有限公司 端到端检索式对话方法与系统及计算机设备
KR20210038449A (ko) * 2020-05-27 2021-04-07 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체
KR20210088463A (ko) * 2020-06-29 2021-07-14 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기
CN111782788A (zh) * 2020-07-03 2020-10-16 电子科技大学 一种面向开放域对话系统的情感回复自动生成方法
WO2021139297A1 (zh) * 2020-07-28 2021-07-15 平安科技(深圳)有限公司 基于Transformer模型的问答方法、问答装置及存储装置
WO2022033332A1 (zh) * 2020-08-14 2022-02-17 腾讯科技(深圳)有限公司 对话生成方法、网络训练方法、装置、存储介质及设备
WO2022048170A1 (zh) * 2020-09-02 2022-03-10 平安科技(深圳)有限公司 人机对话方法、装置、计算机设备及存储介质
CN113220832A (zh) * 2021-04-30 2021-08-06 北京金山数字娱乐科技有限公司 一种文本处理方法及装置
CN113901832A (zh) * 2021-10-08 2022-01-07 北京小米移动软件有限公司 人机对话方法、装置、存储介质及电子设备
CN114116998A (zh) * 2021-11-04 2022-03-01 招联消费金融有限公司 答复语句生成方法、装置、计算机设备和存储介质
CN114048301A (zh) * 2021-11-26 2022-02-15 山东大学 一种基于满意度的用户模拟方法及系统
CN114416943A (zh) * 2021-12-29 2022-04-29 北京百度网讯科技有限公司 对话模型的训练方法、装置、电子设备及存储介质
CN115080739A (zh) * 2022-06-24 2022-09-20 北京百度网讯科技有限公司 用于训练对话模型的方法以及用于输出应答信息的方法
CN115186094A (zh) * 2022-07-21 2022-10-14 平安科技(深圳)有限公司 多意图分类的模型训练方法、装置、电子设备及存储介质

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
PLATO: Pre-trained dialogue generation model with discrete latent variable;Bao, Siqi, et al;《arXiv preprint arXiv》;20200330;全文 *
Plato-xl: Exploring the large-scale pre-training of dialogue generation;Bao, Siqi, et al;《arXiv preprint arXiv》;20221019;全文 *
人机对话系统综述;车万翔;《人工智能》;20180210;全文 *
基于分层编码的深度增强学习对话生成;赵宇晴;向阳;;计算机应用;20171010(第10期);全文 *
基于意图的神经网络对话模型;陈振舜;刘建明;;桂林电子科技大学学报;20181025(第05期);全文 *
基于深度学习的生成式聊天机器人算法综述;孙立茹;余华云;;电脑知识与技术;20180815(第23期);全文 *
智能回复系统研究综述;岳世峰;林政;王伟平;孟丹;;信息安全学报;20200115(第01期);全文 *

Also Published As

Publication number Publication date
CN116737888A (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
JP7127106B2 (ja) 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体
CN112487173B (zh) 人机对话方法、设备和存储介质
CN110275939B (zh) 对话生成模型的确定方法及装置、存储介质、电子设备
CN111428010B (zh) 人机智能问答的方法和装置
CN109857865B (zh) 一种文本分类方法及系统
CN112307188B (zh) 对话生成方法、系统、电子设备和可读存储介质
US11947920B2 (en) Man-machine dialogue method and system, computer device and medium
CN115062718A (zh) 语言模型训练方法、装置、电子设备及存储介质
US20240177506A1 (en) Method and Apparatus for Generating Captioning Device, and Method and Apparatus for Outputting Caption
CN110827799A (zh) 用于处理语音信号的方法、装置、设备和介质
JP2015001695A (ja) 音声認識装置、音声認識方法及びプログラム
CN116186200B (zh) 模型训练方法、装置、电子设备和存储介质
CN116049370A (zh) 信息查询方法和信息生成模型的训练方法、装置
CN114676227B (zh) 样本生成方法、模型的训练方法以及检索方法
CN116737888B (zh) 对话生成模型的训练方法和答复文本的确定方法、装置
CN113555005B (zh) 模型训练、置信度确定方法及装置、电子设备、存储介质
CN116401345A (zh) 智能问答方法、装置、存储介质和设备
CN116204624A (zh) 应答方法、装置、电子设备及存储介质
CN113689866B (zh) 一种语音转换模型的训练方法、装置、电子设备及介质
CN114416941A (zh) 融合知识图谱的对话知识点确定模型的生成方法及装置
CN114547266A (zh) 信息生成模型的训练方法、生成信息的方法、装置和设备
CN115952852B (zh) 模型训练方法、文本检索方法、装置、电子设备和介质
CN115131709B (zh) 视频类别预测方法、视频类别预测模型的训练方法及装置
CN114841471B (zh) 知识点预测方法、装置、电子设备和存储介质
CN115510203B (zh) 问题答案确定方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant