CN112131368A - 对话生成方法、装置、电子设备及存储介质 - Google Patents
对话生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112131368A CN112131368A CN202011035749.1A CN202011035749A CN112131368A CN 112131368 A CN112131368 A CN 112131368A CN 202011035749 A CN202011035749 A CN 202011035749A CN 112131368 A CN112131368 A CN 112131368A
- Authority
- CN
- China
- Prior art keywords
- translation model
- data
- corpus data
- dialogue corpus
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013519 translation Methods 0.000 claims abstract description 199
- 238000012549 training Methods 0.000 claims abstract description 83
- 239000013598 vector Substances 0.000 claims description 36
- 238000004590 computer program Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种对话生成方法,包括:获取对话语料数据和非对话语料数据;使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型;基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练;通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。本发明还提出了对话生成装置、电子设备及计算机可读存储介质。此外,本发明还涉及区块链技术和数字医疗,所述对话语料数据和非对话语料数据可存储于区块链节点中。所述对话生成方法可应用于在线医疗咨询和远程问诊。本发明可以解决传统智能机器人生成回复过于单一的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对话生成方法、装置、电子设备及计算机可读存储介质。
背景技术
随着人工智能的发展,基于对话生成技术的智能机器人得到了广泛的应用,如智能语音助手、聊天机器人、自动问答机器人等。但是现有的对话生成技术主要是基于人们日常对话而生成回复,容易产生通用性回复,在与用户聊天的过程中,难以理解用户的意图,给出正确回复,或是经常给出较为机械化的回复,生成的回复过于单一。因此亟需一种表达多样化的对话生成方法。
在数字医疗的场景下,随着医疗相关手机应用软件的普及,越来越多的用户选择在线远程问诊和医疗咨询,目前的自动应答智能机器人对用户咨询的回复机械化,答案单一,缺乏多样化和有针对性的表达。
发明内容
本发明提供一种对话生成方法、装置、电子设备及计算机可读存储介质,其主要目的在于解决目前的对话生成技术中生成的回复过于单一的问题。
为实现上述目的,本发明提供的一种对话生成方法,包括:
获取对话语料数据和非对话语料数据;
使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型;
基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练;
通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
可选地所述使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型,包括:
将所述对话语料数据中的问题作为第一输入数据,所述对话语料数据中的回复作为第一候选输出数据,并使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,得到初始化后的所述前向翻译模型;
将所述对话语料数据中的回复作为第二输入数据,所述对话语料数据中的问题作为第二候选输出数据,并使用所述第二输入数据和所述第二候选输出数据对所述后向翻译模型进行训练,得到初始化后的所述后向翻译模型。
可选地,所述使用所述第一输入数据和第所述一候选输出数据对所述前向翻译模型进行训练,包括:
通过所述前向翻译模型的编码器对所述第一输入数据进行编码,得到所述第一输入数据对应的语义向量;
在所述第一候选输出数据中选择第一解码输出数据,根据所述第一解码输出数据,使用所述前向翻译模型的解码器对所述语义向量进行解码训练。
可选地,所述基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练,包括:
可选地,所述将所述非对话语料数据输入至初始化后的所述后向翻译模型生成第一训练数据集,包括:
将所述非对话语料数据输入至初始化后的所述后向翻译模型中,利用初始化后的所述后向翻译模型输出的对应回复数据作为所述非对话语料数据的问题;
将所述非对话语料数据和所述对应的回复数据组成第一训练数据集。
可选地,,所述将所述非对话语料数据输入至训练过的所述前向翻译模型生成第二训练数据集,包括:
将所述非对话语料数据输入至训练过的所述前向翻译模型中,利用训练过的所述前向翻译模型输出对应的带有标签的回复数据;
将所述非对话语料数据和所述对应的带有标签的回复数据组成第二训练数据集。
可选地,所述获取对话语料数据和非对话语料数据,包括:
从预设的数据库中获取所述对话语料数据;
从网页上抓取所述非对话语料数据;
对所述对话语料数据和所述非对话语料数据进行过滤处理,删除含有特定关键词的语料数据。
为了解决上述问题,本发明还提供一种对话生成装置,所述装置包括:
语料数据获取模块,用于获取对话语料数据和非对话语料数据;
模型初始化模块,用于使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型;
模型训练模块,用于基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练;
回复生成模块,用于通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序指令;及
处理器,执行所述存储器中存储的计算机程序指令以实现上述所述的对话生成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行以实现上述所述的对话生成方法。
本发明实施例获取对话语料数据和非对话语料数据,使用对话语料数据对所述前向翻译模型和所述后向翻译模型进行初始化,使所述前向翻译模型可以产生简单的回复内容,所述后向翻译模型可以产生与回复对应的问题,初始化后的所述后向翻译模型和初始化后的所述前向翻译模型进行相互迭代训练,可以提高所述前向翻译模型产生的回复内容与问题的相关性;同时所述前向翻译模型和所述后向翻译模型是用非对话语料数据进行训练的,非对话语料数据的内容更加多样化,涵盖的主题更广泛,所述前向翻译模型对非对话语料数据进行学习训练,生成的回复是基于非对话语料数据得到的,回复内容与简单的对话相比具有多样性。因此本发明提出的对话生成方法、装置及计算机可读存储介质,可以实现回复内容多样化的对话生成目的。同时,在进行在线医疗咨询和远程问诊时,也可以实现有针对性和多样化的咨询回复。
附图说明
图1为本发明实施例提供的对话生成方法的流程示意图;
图2为图1所述对话生成方法中其中一个步骤的详细实施流程示意图;
图3为图1所述对话生成方法中其中一个步骤的详细实施流程示意图;
图4为本发明实施例提供的对话生成装置的模块示意图;
图5为本发明实施例提供的实现对话生成方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种对话生成方法。所述对话生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述对话生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的对话生成方法的流程示意图。在本实施例中,对话生成方法包括:
S1、获取对话语料数据和非对话语料数据。
本发明实施例中所述对话语料数据是一些简单的对话集,包括多个问题和回复对。所述非对话语料数据是一些非对话形式的语句集,包括但不限于网页评论、新闻片段、谚语俗语和书籍片段。
具体地,对话语料数据包括的问题和回复对可以是医疗咨询和问诊的问题和回复对,非对话语料数据包括的语句集可以使与医疗和医学相关的网页评论、新闻片段、谚语俗语和书籍片段等。
详细的,所述获取对话语料数据和非对话语料数据,包括:
从预设的数据库中获取所述对话语料数据;
从网页上抓取所述非对话语料数据;
对所述对话语料数据和所述非对话语料数据进行过滤处理,删除含有特定关键词的语料数据。
其中,所述特定关键词是指具有攻击性或歧视性的词语。
日常生活中的对话数据内容大多比较简单,与高质量的对话语句相比,所述非对话语料数据往往更容易获得,同时所述非对话语料数据的内容也更多样、涵盖不同主题,有利于提高对话模型的多样性表达。
优选地,所述对话语料数据和非对话语料数据可以从一区块链的节点中获取。通过从区块链中获取所述对话语料数据和非对话语料数据,可以更加快速地获取大规模的所述对话语料数据和非对话语料数据。
S2、使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型。
本发明实施例中,所述前向翻译模型和后向翻译模型是一种基于深度神经网络和自然语言处理技术的seq2seq (sequence-to-sequence,序列到序列)模型。所述seq2seq模型可以把一个语言序列翻译成另一种语言序列,整个处理过程是通过使用深度神经网络将一个序列作为输入,影射为另外一个输出序列。
较佳地,所述seq2seq模型包括编码器(Encoder)和解码器(Decoder),其中,所述编码器将输入的一个可变长度的语言序列变为固定长度的向量表达,所述解码器将这个固定长度的向量变成可变长度的目标的语言序列并输出这个语言序列。
其中,所述前向翻译模型是根据问题生成对应回复的一种seq2seq模型;所述后向翻译模型是根据回复生成对应问题的一种seq2seq模型。
详细地,参阅图2所示,本发明实施例中,所述使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型,包括:
S20、将所述对话语料数据中的问题作为第一输入数据,所述对话语料数据中的回复作为第一候选输出数据,并使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,得到初始化后的所述前向翻译模型;
S21、将所述对话语料数据中的回复作为第二输入数据,所述对话语料数据中的问题作为第二候选输出数据,并使用所述第二输入数据和所述第二候选输出数据对所述后向翻译模型进行训练,得到初始化后的所述后向翻译模型。
本发明实施例使用所述对话语料数据对所述前向翻译模型和所述后向翻译模型进行初始化,使所述前向翻译模型可以对输入的问题生成简单的回复,并使所述后向翻译模型可以对输入的简单回复生成对应的问题,有利于后续将所述非对话语料数据处理成为多个对话。
进一步地,所述使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,包括:
通过所述前向翻译模型的编码器对所述第一输入数据进行编码,得到所述第一输入数据对应的语义向量;
使用所述前向翻译模型的解码器对所述语义向量进行解码,在所述第一候选输出数据中选择对应的第一解码输出数据。
详细地,本发明实施例所述前向翻译模型中的编码器和解码器为一种循环神经网络,所述编码器将所述输入数据(文本序列)中的每个元素(词)编码成一个稠密的向量,经过多层网络计算,将最后一层的隐层输出作为语义向量。所述编码器将所述语义向量发送到所述解码器,接受多层网络中每个位置(时间点)上的输入,同时经过语言技术处理进行信息融合,得到多个预测语言序列,并使用softmax函数计算出每个语言序列的似然概率,取似然概率最大的语言序列输出。相似地,所述利用所述第二输入数据和第二候选输出数据对所述后向翻译模型进行训练,得到初始化后的后向翻译模型,包括:
通过所述后向翻译模型的编码器对第二输入数据进行编码,得到所述第二输入数据对应的语义向量;
在所述第二候选输出数据中选择第二解码输出数据,根据所述第二解码输出数据,使用所述后向翻译模型的解码器对所述语义向量进行解码训练。
优选地,本发明实施例在训练所述前向翻译模型和后向翻译模型时,还可以增加注意力机制,所述注意力机制可以对编码器编码出的语义向量跟解码器解码过程中的每一个输出数据进行加权运算,在解码的每一个过程中调整权重得到不一样的语义向量,即所述注意力机制是可以让编码器编码出来的语义向量根据解码器要解码的输出数据动态变化的一种机制。所述注意力机制在模型进行编码时,对输入数据的每个序列都进行编码生成语义向量,并为各个语义向量增加权重,在解码时,则根据各个语义向量的权重进行解码。权重高则代表所述语义向量重要性较高,有助于解码器关注输入数据的主要信息,使输出的数据与输入数据的关联性更高。
S3、基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练。
较佳地,参阅图3所示,本发明实施例中,所述S3包括:
本发明实施例借鉴了机器翻译中的回译法,即将源语言翻译成为目标语言,再将目标语言翻译回来。本发明实施例利用非对话语料数据对所述前向翻译模型和后向翻译模进行多次迭代训练,不断缩小和的差距,每次迭代后,非对话文本的效果都会增强,最终,所述前向翻译模型将能够产生涵盖所述非对话语料数据中广泛主题的各种响应。
进一步地,所述将所述非对话语料数据输入至初始化后的所述后向翻译模型,生成第一训练数据集,包括:
将所述非对话语料数据输入至初始化后的所述后向翻译模型中,利用初始化后的所述后向翻译模型输出对应的回复数据作为所述非对话语料数据的问题;
将所述非对话语料数据和所述对应的回复数据组成第一训练数据集。
相似地,所述将所述非对话语料数据输入至训练过的所述前向翻译模型生成第二训练数据集,包括:
将所述非对话语料数据输入至训练过的所述前向翻译模型中,利用训练过的所述前向翻译模型输出对应的带有标签的回复数据;
将所述非对话语料数据和所述对应的带有标签的回复数据组成第二训练数据集。
其中,所述标签为与所述回复数据对应的输入数据。在将所述非对话语料数据和所述对应的带有标签的回复数据组成第二训练集时,将所述对应的带有标签的回复数据作为输入数据,并将上述对应的标签作为验证集来训练初始化的所述后向翻译模型。
S4、通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
本发明实施例所述待处理问题包括用户输入的聊天问题和用户输入的语音指令转化的文字,通过训练好的所述前向翻译模型,可以对所述待处理问题生成对应的回复内容,且所述回复内容具有多样化表达,而不仅仅是简单的回复。例如,用户输入“哎,暗恋的人不喜欢我”,可以得到“暗恋这碗酒,谁喝都会醉啊”、“可怜,抱抱”等回复,而不是“好的”、“我不明白你在说什么”这样的通用回复。
通常,基于序列到序列(seq2seq)的神经网络模型在开放领域对话生成的任务上经常会出现低丰富度的问题,即生成的回复无趣且简单。本发明实施例利用非对话的文本语料提高模型的多样性回复。相比于传统的对话语料,非对话的文本语料不仅容易获得,而且主题包罗万象,本发明实施例通过从网站、书籍和谚语中搜集大量的非对话语料,并结合迭代的回译方法将非对话语料融入到对话模型的语义空间内,可以在保持相关度的同时,提高生成回复的多样性。
本发明实施例获取对话语料数据和非对话语料数据,使用对话语料数据对所述前向翻译模型和所述后向翻译模型进行初始化,使所述前向翻译模型可以产生简单的回复内容,所述后向翻译模型可以产生与回复对应的问题,初始化后的所述后向翻译模型和初始化后的所述前向翻译模型进行相互迭代训练,可以提高所述前向翻译模型产生的回复内容与问题的相关性;同时所述前向翻译模型和所述后向翻译模型是用非对话语料数据进行训练的,非对话语料数据的内容更加多样化,涵盖的主题更广泛,所述前向翻译模型对非对话语料数据进行学习训练,生成的回复是基于非对话语料数据得到的,回复内容与简单的对话相比具有多样性。因此本发明提出的对话生成方法、装置及计算机可读存储介质,可以实现表达多样化的对话生成目的。同时,在进行在线医疗咨询和远程问诊时,也可以实现有针对性和多样化的咨询回复。
如图4所示,是本发明实施例提供的对话生成装置的功能模块图。
本发明所述对话生成装置100可以安装于电子设备中。根据实现的功能,所述对话生成装置可以包括语料数据获取模块101、模型初始化模块102、模型训练模块103和回复生成模块104。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述语料数据获取模块101,用于基获取对话语料数据和非对话语料数据。
本发明实施例中所述对话语料数据是一些简单的对话集,包括多个问题和回复对。所述非对话语料数据是一些非对话形式的语句集,包括但不限于网页评论、新闻片段、谚语俗语和书籍片段。
详细的,所述语料数据获取模块101具体用于:
从预设的数据库中获取所述对话语料数据;
从网页上抓取所述非对话语料数据;
对所述对话语料数据和所述非对话语料数据进行过滤处理,删除含有特定关键词的语料数据。
其中,所述特定关键词是指具有攻击性或歧视性的词语。
日常生活中的对话数据内容大多比较简单,与高质量的对话语句相比,所述非对话语料数据往往更容易获得,同时所述非对话语料数据的内容也更多样、涵盖不同主题,有利于提高对话模型的多样性表达。
优选地,所述对话语料数据和非对话语料数据可以从一区块链的节点中获取。通过从区块链中获取所述对话语料数据和非对话语料数据,可以更加快速地获取大规模的所述对话语料数据和非对话语料数据。
所述模型初始化模块102,用于使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型。
本发明实施例中,所述前向翻译模型和后向翻译模型是一种基于深度神经网络和自然语言处理技术的seq2seq (sequence-to-sequence,序列到序列)模型。所述seq2seq模型可以把一个语言序列翻译成另一种语言序列,整个处理过程是通过使用深度神经网络将一个序列作为输入,影射为另外一个输出序列。
较佳地,所述seq2seq模型包括编码器(Encoder)和解码器(Decoder),其中,所述编码器将输入的一个可变长度的语言序列变为固定长度的向量表达,所述解码器将这个固定长度的向量变成可变长度的目标的语言序列并输出这个语言序列。
其中,所述前向翻译模型是根据问题生成对应回复的一种seq2seq模型;所述后向翻译模型是根据回复生成对应问题的一种seq2seq模型。
详细地,本发明实施例中,所述模型初始化模块具体用于:
将所述对话语料数据中的问题作为第一输入数据,所述对话语料数据中的回复作为第一候选输出数据,并使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,得到初始化后的所述前向翻译模型;
将所述对话语料数据中的回复作为第二输入数据,所述对话语料数据中的问题作为第二候选输出数据,并使用所述第二输入数据和所述第二候选输出数据对所述后向翻译模型进行训练,得到初始化后的所述后向翻译模型。
本发明实施例使用所述对话语料数据对所述前向翻译模型和所述后向翻译模型进行初始化,使所述前向翻译模型可以对输入的问题生成简单的回复,并使所述后向翻译模型可以对输入的简单回复生成对应的问题,有利于后续将所述非对话语料数据处理成为多个对话。
进一步地,所述使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,包括:
通过所述前向翻译模型的编码器对所述第一输入数据进行编码,得到所述第一输入数据对应的语义向量;
在所述第一候选输出数据中选择第一解码输出数据,根据所述第一解码输出数据,使用所述前向翻译模型的解码器对所述语义向量进行解码训练。
其中,所述第一解码输出数据是根据解码器在解码时得到多个预测语言序列数据和对应似然概率中似然概率值最大的语言序列。
详细地,本发明实施例所述前向翻译模型中的编码器和解码器为一种循环神经网络,所述编码器将所述输入数据(文本序列)中的每个元素(词)编码成一个稠密的向量,经过多层网络计算,将最后一层的隐层输出作为语义向量。所述编码器将所述语义向量发送到所述解码器,接受多层网络中每个位置(时间点)上的输入,同时经过语言技术处理进行信息融合,得到多个预测语言序列,并使用softmax函数计算出每个语言序列的似然概率,取似然概率最大的语言序列输出。
相似地,所述利用所述第二输入数据和第二候选输出数据对所述后向翻译模型进行训练,得到初始化后的后向翻译模型,包括:
通过所述后向翻译模型的编码器对第二输入数据进行编码,得到所述第二输入数据对应的语义向量;
在所述第二候选输出数据中选择第二解码输出数据,根据所述第二解码输出数据,使用所述后向翻译模型的解码器对所述语义向量进行解码训练。
优选地,本发明实施例在训练所述前向翻译模型和后向翻译模型时,还可以增加注意力机制,所述注意力机制可以对编码器编码出的语义向量跟解码器解码过程中的每一个输出数据进行加权运算,在解码的每一个过程中调整权重得到不一样的语义向量,即所述注意力机制是可以让编码器编码出来的语义向量根据解码器要解码的输出数据动态变化的一种机制。所述注意力机制在模型进行编码时,对输入数据的每个序列都进行编码生成语义向量,并为各个语义向量增加权重,在解码时,则根据各个语义向量的权重进行解码。权重高则代表所述语义向量重要性较高,有助于解码器关注输入数据的主要信息,使输出的数据与输入数据的关联性更高。
所述模型训练模块103,用于基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练。
较佳地,本发明实施例中,所述模型训练模块103具体用于:
本发明实施例借鉴了机器翻译中的回译法,即将源语言翻译成为目标语言,再将目标语言翻译回来。本发明实施例利用非对话语料数据对所述前向翻译模型和后向翻译模进行多次迭代训练,不断缩小和的差距,每次迭代后,非对话文本的效果都会增强,最终,所述前向翻译模型将能够产生涵盖所述非对话语料数据中广泛主题的各种响应。
进一步地,所述将所述非对话语料数据输入至初始化后的所述后向翻译模型生成第一训练数据集,包括:
将所述非对话语料数据输入至初始化后的所述后向翻译模型中,利用初始化后的所述后向翻译模型输出对应的回复数据作为所述非对话语料数据的问题;
将所述非对话语料数据和所述对应的回复数据组成第一训练数据集。
相似地,所述将所述非对话语料数据输入至训练过的所述前向翻译模型生成第二训练数据集,包括:
将所述非对话语料数据输入至训练过的所述前向翻译模型中,利用训练过的所述前向翻译模型输出对应的带有标签的回复数据;
将所述非对话语料数据和所述对应的带有标签的回复数据组成第二训练数据集。
其中,所述标签为与所述回复数据对应的输入数据。在将所述非对话语料数据和所述对应的带有标签的回复数据组成第二训练集时,将所述对应的带有标签的回复数据作为输入数据,并将上述对应的标签作为验证集来训练初始化的所述后向翻译模型。
所述回复生成模块104,用于通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
本发明实施例所述待处理问题包括用户输入的聊天问题和用户输入的语音指令转化的文字,通过训练好的所述前向翻译模型,可以对所述待处理问题生成对应的回复内容,且所述回复内容具有多样化表达,而不仅仅是简单的回复。例如,用户输入“哎,暗恋的人不喜欢我”,可以得到“暗恋这碗酒,谁喝都会醉啊”、“可怜,抱抱”等回复,而不是“好的”、“我不明白你在说什么”这样的通用回复。
通常,基于序列到序列(seq2seq)的神经网络模型在开放领域对话生成的任务上经常会出现低丰富度的问题,即生成的回复无趣且简单。本发明实施例利用非对话的文本语料提高模型的多样性回复。相比于传统的对话语料,非对话的文本语料不仅容易获得,而且主题包罗万象,本发明实施例通过从网站、书籍和谚语中搜集大量的非对话语料,并结合迭代的回译方法将非对话语料融入到对话模型的语义空间内,可以在保持相关度的同时,提高生成回复的多样性。同时,在进行在线医疗咨询和远程问诊时,也可以实现有针对性和多样化的咨询回复。
如图5所示,是本发明实现对话生成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如对话生成程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(SecureDigital, SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如对话生成程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行对话生成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的对话生成程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取对话语料数据和非对话语料数据;
使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型;
基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练;
通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种对话生成方法,其特征在于,所述方法包括:
获取对话语料数据和非对话语料数据;
使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型;
基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练;
通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
2.如权利要求1所述的对话生成方法,其特征在于,所述使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型,包括:
将所述对话语料数据中的问题作为第一输入数据,所述对话语料数据中的回复作为第一候选输出数据,并使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,得到初始化后的所述前向翻译模型;
将所述对话语料数据中的回复作为第二输入数据,所述对话语料数据中的问题作为第二候选输出数据,并使用所述第二输入数据和所述第二候选输出数据对所述后向翻译模型进行训练,得到初始化后的所述后向翻译模型。
3.如权利要求2所述的对话生成方法,其特征在于,所述使用所述第一输入数据和所述第一候选输出数据对所述前向翻译模型进行训练,包括:
通过所述前向翻译模型的编码器对所述第一输入数据进行编码,得到所述第一输入数据对应的语义向量;
在所述第一候选输出数据中选择第一解码输出数据,根据所述第一解码输出数据,使用所述前向翻译模型的解码器对所述语义向量进行解码训练。
4.如权利要求1所述的对话生成方法,其特征在于,所述基于所述非对话语料数据,使用初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练,包括:
5.如权利要求4所述的对话生成方法,其特征在于,所述将所述非对话语料数据输入至初始化后的所述后向翻译模型,生成第一训练数据集,包括:
将所述非对话语料数据输入至初始化后的所述后向翻译模型中,使用初始化后的所述后向翻译模型输出对应的回复数据作为所述非对话语料数据的问题;
将所述非对话语料数据和所述对应的回复数据组成第一训练数据集。
6.如权利要求4所述的对话生成方法,其特征在于,所述将所述非对话语料数据输入至训练过的所述前向翻译模型,生成第二训练数据集,包括:
将所述非对话语料数据输入至训练过的所述前向翻译模型中,利用训练过的所述前向翻译模型输出对应的带有标签的回复数据;
将所述非对话语料数据和所述对应的带有标签的回复数据组成第二训练数据集。
7.如权利要求1所述的对话生成方法,其特征在于,所述获取对话语料数据和非对话语料数据,包括:
从预设的数据库中获取所述对话语料数据;
从网页上抓取所述非对话语料数据;
对所述对话语料数据和所述非对话语料数据进行过滤处理,删除含有特定关键词的语料数据。
8.一种对话生成装置,其特征在于,所述装置包括:
语料数据获取模块,用于获取对话语料数据和非对话语料数据;
模型初始化模块,用于使用所述对话语料数据初始化预构建的前向翻译模型和后向翻译模型;
模型训练模块,用于基于所述非对话语料数据,使用所述初始化后的所述后向翻译模型对初始化后的所述前向翻译模型进行训练;
回复生成模块,用于通过训练好的所述前向翻译模型,生成待处理问题对应的回复内容。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个计算机程序指令;及
处理器,执行所述存储器中存储的计算机程序指令以执行如权利要求1至7中任一项所述的对话生成方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的对话生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011035749.1A CN112131368B (zh) | 2020-09-27 | 2020-09-27 | 对话生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011035749.1A CN112131368B (zh) | 2020-09-27 | 2020-09-27 | 对话生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112131368A true CN112131368A (zh) | 2020-12-25 |
CN112131368B CN112131368B (zh) | 2024-02-09 |
Family
ID=73839482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011035749.1A Active CN112131368B (zh) | 2020-09-27 | 2020-09-27 | 对话生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112131368B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113160793A (zh) * | 2021-04-23 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于低资源语言的语音合成方法、装置、设备及存储介质 |
CN113420542A (zh) * | 2021-06-23 | 2021-09-21 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN115662242A (zh) * | 2022-12-02 | 2023-01-31 | 首都医科大学附属北京儿童医院 | 塑造儿童语言流畅度训练装置、设备和存储介质 |
CN115879422A (zh) * | 2023-02-16 | 2023-03-31 | 之江实验室 | 一种对话回复生成方法、装置和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018196684A1 (zh) * | 2017-04-24 | 2018-11-01 | 北京京东尚科信息技术有限公司 | 对话机器人生成方法及装置 |
WO2018223992A1 (zh) * | 2017-06-07 | 2018-12-13 | 阿里巴巴集团控股有限公司 | 一种对话生成方法、装置以及电子设备 |
WO2019072166A1 (zh) * | 2017-10-10 | 2019-04-18 | 腾讯科技(深圳)有限公司 | 语义分析方法、装置和存储介质 |
CN110555213A (zh) * | 2019-08-21 | 2019-12-10 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法、文本翻译方法及装置 |
CN111079449A (zh) * | 2019-12-19 | 2020-04-28 | 北京百度网讯科技有限公司 | 平行语料数据的获取方法、装置、电子设备和存储介质 |
CN111339274A (zh) * | 2020-02-25 | 2020-06-26 | 网易(杭州)网络有限公司 | 对话生成模型训练方法、对话生成方法及装置 |
-
2020
- 2020-09-27 CN CN202011035749.1A patent/CN112131368B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018196684A1 (zh) * | 2017-04-24 | 2018-11-01 | 北京京东尚科信息技术有限公司 | 对话机器人生成方法及装置 |
WO2018223992A1 (zh) * | 2017-06-07 | 2018-12-13 | 阿里巴巴集团控股有限公司 | 一种对话生成方法、装置以及电子设备 |
WO2019072166A1 (zh) * | 2017-10-10 | 2019-04-18 | 腾讯科技(深圳)有限公司 | 语义分析方法、装置和存储介质 |
CN110555213A (zh) * | 2019-08-21 | 2019-12-10 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法、文本翻译方法及装置 |
CN111079449A (zh) * | 2019-12-19 | 2020-04-28 | 北京百度网讯科技有限公司 | 平行语料数据的获取方法、装置、电子设备和存储介质 |
CN111339274A (zh) * | 2020-02-25 | 2020-06-26 | 网易(杭州)网络有限公司 | 对话生成模型训练方法、对话生成方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113160793A (zh) * | 2021-04-23 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于低资源语言的语音合成方法、装置、设备及存储介质 |
CN113420542A (zh) * | 2021-06-23 | 2021-09-21 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN113420542B (zh) * | 2021-06-23 | 2023-04-18 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN115662242A (zh) * | 2022-12-02 | 2023-01-31 | 首都医科大学附属北京儿童医院 | 塑造儿童语言流畅度训练装置、设备和存储介质 |
CN115879422A (zh) * | 2023-02-16 | 2023-03-31 | 之江实验室 | 一种对话回复生成方法、装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112131368B (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334487B (zh) | 缺失语意信息补全方法、装置、计算机设备和存储介质 | |
CN112131366B (zh) | 训练文本分类模型及文本分类的方法、装置及存储介质 | |
Mathews et al. | Semstyle: Learning to generate stylised image captions using unaligned text | |
CN112131368B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN110738026B (zh) | 用于生成描述文本的方法和设备 | |
CN111930940B (zh) | 一种文本情感分类方法、装置、电子设备及存储介质 | |
CN109635253B (zh) | 文本风格转换方法、装置及存储介质、计算机设备 | |
CN111738025B (zh) | 基于人工智能的翻译方法、装置、电子设备和存储介质 | |
CN111223498A (zh) | 情绪智能识别方法、装置及计算机可读存储介质 | |
CN111695354A (zh) | 基于命名实体的文本问答方法、装置及可读存储介质 | |
CN113722483B (zh) | 话题分类方法、装置、设备及存储介质 | |
US20230029759A1 (en) | Method of classifying utterance emotion in dialogue using word-level emotion embedding based on semi-supervised learning and long short-term memory model | |
US11636272B2 (en) | Hybrid natural language understanding | |
CN109635080A (zh) | 应答策略生成方法及装置 | |
Fung et al. | Empathetic dialog systems | |
CN115309877A (zh) | 对话生成方法、对话模型训练方法及装置 | |
JP2022145623A (ja) | ヒント情報を提示する方法及び装置並びにコンピュータプログラム | |
CN114912450B (zh) | 信息生成方法与装置、训练方法、电子设备和存储介质 | |
Du et al. | Aspect-specific sentimental word embedding for sentiment analysis of online reviews | |
CN115221276A (zh) | 基于clip的中文图文检索模型训练方法、装置、设备及介质 | |
CN116415596A (zh) | 一种基于情绪策略匹配的情感支持人机对话方法及系统 | |
CN116796857A (zh) | 一种llm模型训练方法、装置、设备及其存储介质 | |
CN114020886A (zh) | 语音意图识别方法、装置、设备及存储介质 | |
CN111506717B (zh) | 问题答复方法、装置、设备及存储介质 | |
US10706086B1 (en) | Collaborative-filtering based user simulation for dialog systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221011 Address after: Room 2601 (Unit 07), Qianhai Free Trade Building, No. 3048, Xinghai Avenue, Nanshan Street, Qianhai Shenzhen-Hong Kong Cooperation Zone, Shenzhen, Guangdong 518000 Applicant after: Shenzhen Ping An Smart Healthcare Technology Co.,Ltd. Address before: 1-34 / F, Qianhai free trade building, 3048 Xinghai Avenue, Mawan, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong 518000 Applicant before: Ping An International Smart City Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |