CN114490967B - 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 - Google Patents
对话模型的训练方法、对话机器人的对话方法、装置和电子设备 Download PDFInfo
- Publication number
- CN114490967B CN114490967B CN202111628658.3A CN202111628658A CN114490967B CN 114490967 B CN114490967 B CN 114490967B CN 202111628658 A CN202111628658 A CN 202111628658A CN 114490967 B CN114490967 B CN 114490967B
- Authority
- CN
- China
- Prior art keywords
- dialogue
- style
- target
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims abstract description 100
- 238000012545 processing Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 15
- 238000013135 deep learning Methods 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本公开提出了一种对话模型的训练方法、对话机器人的对话方法、装置和电子设备,涉及自然语言理解和深度学习等人工智能领域,其中,方法包括获取不同说话人各自的对话样本数据,其中,对话样本数据包括对话语料和回复语料;将对话样本数据输入目标对话风格识别模型中,获取说话人对应的对话风格数据;将对话样本数据以及对话风格数据,生成对话模型的对话风格样本数据;基于对话风格样本数据,对对话模型进行训练,以生成目标对话模型,其中,目标对话模型用于输出具有对话风格的回复信息。本公开中,使得目标对话模型可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
Description
技术领域
本公开涉及人机对话领域,尤其涉及自然语言理解和深度学习等人工智能领域。
背景技术
随着技术发展日趋成熟,用户在人机对话的过程中,除了对于回复内容的准确性存在需求,对于机器回复的智能性的要求也越来越高。
相关技术中,可以通过变更机器回复时的语音音色实现个性化设定,无法满足用户的需求。
发明内容
本公开提出了一种对话模型的训练方法、装置及电子设备。
根据本公开的第一方面,提出了一种对话模型的训练方法,包括:获取不同说话人各自的对话样本数据,其中,所述对话样本数据包括对话语料和回复语料;将所述对话样本数据输入目标对话风格识别模型中,获取所述说话人对应的对话风格数据;将所述对话样本数据以及所述对话风格数据,生成对话模型的对话风格样本数据;基于所述对话风格样本数据,对所述对话模型进行训练,以生成目标对话模型,其中,目标对话模型用于输出具有对话风格的回复信息。
根据本公开的第二方面,提出了一种对话机器人的对话方法,包括:获取对话机器人的目标对话风格数据,其中,所述对话机器人包括目标对话模型;获取输入所述对话机器人的对话上文;将所述对话上文和所述目标对话风格数据,输入所述目标对话模型中,获取具有目标对话风格的回复信息;其中,所述目标对话模型为上述第一方面提出的训练方法训练得到。
根据本公开的第三方面,提出了一种对话模型的训练装置,包括:一种对话模型的训练装置,包括:获取模块,用于获取不同说话人各自的对话样本数据,其中,所述对话样本数据包括对话语料和回复语料;识别模块,用于将所述对话样本数据输入目标对话风格识别模型中,获取所述说话人对应的对话风格数据;生成模块,用于将所述对话样本数据以及所述对话风格数据,生成对话模型的对话风格样本数据;训练模块,用于基于所述对话风格样本数据,对所述对话模型进行训练,以生成目标对话模型,其中,目标对话模型用于输出具有对话风格的回复信息。
根据本公开的第四方面,提出了一种对话机器人的对话装置,包括:风格模块,用于获取对话机器人的目标对话风格数据,其中,所述对话机器人包括目标对话模型;输入模块,用于获取输入所述对话机器人的对话上文;回复模块,用于将所述对话上文和所述目标对话风格数据,输入所述目标对话模型中,获取具有目标对话风格的回复信息;其中,所述目标对话模型为上述第三方面提出的训练装置训练得到。
根据本公开的第五方面,提出了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面所述的对话模型的训练方法和上述第二方面提出的对话机器人的对话方法。
根据本公开的第六方面,提出了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述第一方面所述的对话模型的训练方法和上述第二方面提出的对话机器人的对话方法。
根据本公开的第七方面,提出了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述第一方面所述的对话模型的训练方法和上述第二方面提出的对话机器人的对话方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开一实施例的对话模型的训练方法的流程示意图;
图2为本公开另一实施例的对话模型的训练方法的流程示意图;
图3为本公开另一实施例的对话模型的训练方法的流程示意图;
图4为本公开一实施例的对话机器人的对话方法的流程示意图;
图5为本公开一实施例的对话机器人的对话方法的流程示意图;
图6为本公开一实施例的对话机器人的对话方法的流程示意图;
图7为本公开一实施例的对话机器人的对话方法的流程示意图;
图8为本公开一实施例的对话模型的训练装置的结构示意图;
图9为本公开一实施例的对话机器人的对话装置的结构示意图;
图10为本公开一实施例的电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人机对话(man-machine dialog),人机对话是计算机的一种工作方式,即计算机操作员或用户与计算机之间,通过控制台或终端显示屏幕,以对话方式进行工作。操作员可用命令或命令过程告诉计算机执行某一任务。计算机将计算、处理和控制的情况及时显示出来,供人观察与了解;而人通过一些输入设备把各种数据与指令,输入机器进行操纵和控制,即人与机器对话。
自然语言处理(Natural Language Processing,NLP),是使用自然语言同计算机进行通讯的技术,是人工智能的分支学科。研究用电子计算机模拟人的语言交际过程,使计算机能理解和运用人类社会的自然语言如汉语、英语等,实现人机之间的自然语言通信,以代替人的部分脑力劳动,包括查询资料、解答问题、摘录文献、汇编资料以及一切有关自然语言信息的加工处理。
深度学习(Deep Learning,简称DL),是机器学习(Machine Learning,简称ML)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能。深度学习是学习样本数据的内在律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
人工智能(Artificial Intelligence,简称AI),是研究使计算机来模拟人类的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术,也有软件层面的技术。人工智能硬件技术一般包括计算机视觉技术、语音识别技术、自然语言处理技术以及及其学习/深度学习、大数据处理技术、知识图技术等几大方面。
图1为本公开一实施例的对话模型的训练方法的流程示意图,如图1所示,该方法包括:
S101,获取不同说话人各自的对话样本数据,其中,对话样本数据包括对话语料和回复语料。
在日常交流中,人们说话存在各自对应的说话风格,根据不同的说话风格,人们在进行交流时更加灵活通畅。在实际的人机对话的过程中,具有对话风格的电子设备,对于用户的人机对话的使用体验度存在一定程度的影响。
本公开实施例中,可以通过实际环境中人们之间进行对话的语料,对人们可能使用的对话风格进行特征提取。其中,可以获取不同说话人在对话中的语料信息,并通过分析不同说话人在对话中的语料的风格特征,实现对话风格特征的提取。
进一步地,可以将获取到的说话人在对话过程中的语料作为对话样本数据,其中,对话样本数据中包括说话人在实际对话过程中的说话的文本内容对应的说话语料,和回复他人的文本内容对应的回复语料。
可选地,可以通过相关的文本内容采集设备对网络上的对话内容进行文本信息的采集,并将采集到的说话人通过文字表达的说话内容作为说话人的语料,其中,可以将说话人对某一个话题或者问题进行回复的文字信息作为说话人的回复语料,将说话人与另一个说话人之间发生对话的文字信息作为参与对话的两个说话人的对话语料。
进一步地,基于说话人的回复语料和对话语料生成对应的对话样本数据。
S102,将对话样本数据输入目标对话风格识别模型中,获取说话人对应的对话风格数据。
本公开实施例中,对话样本数据中包括了说话人的对话语料和回复语料,可以根据对话样本数据中每个对话语料和每个回复语料的风格特征,确定每个说话人对应的说话风格。
进一步地,可以将对话样本数据输入目标对话风格识别模型中,通过目标对话风格识别模型对输入其中的对应样本数据进行识别,进而确定对话样本数据中每个说话人对应的说话风格,并输出对应的对话风格数据。
比如,设定对话样本数据中的说话人A和说话人B之间的二人对话样本,可以将该二人对话样本输入目标对话风格识别模型中,目标对话风格识别模型可以通过特征提取对二人对话样本中每个说话人的说话语料和回复语料对应的风格特征,进而确定其中的说话人A为活泼可爱的对话风格,说话人B为成熟理智的对话风格,并输出二人对应的对话风格数据。
S103,将对话样本数据以及对话风格数据,生成对话模型的对话风格样本数据。
实现中,每个说话人存在其自己对应的说话风格,在人们进行实际对话的环境中,说出的部分语句存在与其对应的说话风格不同的可能,进而导致在对话样本数据中,说话人的对话语料和回复语料中可能出现部分语句标注的说话风格与说话人对应的说话风格不同。
进一步地,可以将目标对话风格识别模型中输出的说话人对应的说话风格数据与说话人对应的对话样本数据进行整合,通过说话风格数据将对话样本数据中的对话风格进行标注,进而生成对话模型对应的对话风格样本数据。
S104,基于对话风格样本数据,对对话模型进行训练,以生成目标对话模型,其中,目标对话模型用于输出具有对话风格的回复信息。
本公开实施例中,可以通过确定对话风格的对话风格样本数据,对相关的对话模型进行训练,通过对话模型对对话风格样本数据中每种说话风格的风格特征进行识别学习,进而生成训练后的目标对话模型。
进一步地,通过训练完成的目标对话模型,可以实现具有对话风格的信息回复。
比如,训练后的目标对话模型可以基于活泼可爱的对话风格进行信息回复。设定输入目标对话模型中的文本内容为“今天冷吗?”,目标对话模型的基于活泼可爱的对话风格对该文本内容进行信息回复,则回复内容可以为“今天的气温有点低呢,零下七度到零上二度,请主人注意防寒保暖哦!”通过语气词的灵活使用以及对于气温的描述,使得回复的温度信息具有了活泼可爱的对话风格。
本公开提出的对话模型的训练方法,获取不同说话人的对话语料和回复语料对应的对话样本数据,并将对话样本数据输入训练后的目标对话风格识别模型中,获取每个说话人对应的对话风格数据。根据对话风格数据和对话样本数据,对不同说话人的对话语料和回复语料进行对话风格的确定,并生成对话模型的对话风格样本数据。进一步地,通过对话风格样本数据对对话模型进行模型训练,进而生成训练后的可以进行具有对话风格的信息回复的目标对话模型。本公开中,通过对话样本数据和对话风格数据生成了对话风格样本数据,提高了对话风格样本数据的准确性,进而提高了对话模型的训练样本的准确性,从而实现对话模型的准确训练,优化了对话模型的训练效果,使得目标对话模型可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
上述实施例中,关于目标对话风格识别模型的训练,可结合图2进一步理解,图2为本公开另一实施例的对话模型的训练方法的流程示意图,如图2所示,该方法包括:
S201,获取训练对话语料和训练对话语料对应的对话风格数据。
本公开实施例中,可以通过对话风格数据对对话风格识别模型进行训练,进而生成训练后的目标对话风格识别模型。
其中,可以通过相关的文字采集设备从网络上进行对话语料的采集,比如可以从XX论坛上进行对话文字内容的采集,再比如可以从XX贴吧上进行对话文字内容的采集。进一步地,在采集到的说话人的相关文本内容中,将与至少两个人关联的对话文本内容作为对话语料,并将每个说话人的说话风格在对话语料中进行标注,进而生成对说话风格识别模型进行训练的训练对话语料。
其中,每个说话人被标注的说话风格即为训练对话语料对应的对话风格数据。可选地,对话风格数据可以通过人工识别的方法进行确定。
进一步地,可以对话语料中每个说话人的说话风格在对话语料中进行标注。比如,设定说话人C、说话人D和说话人E参与对话对应的对话语料,其中,说话人C是幽默风趣的说话风格,说话人D是委婉含蓄的说话风格,说话人E是耿直呆板的说话风格。
则可以将说话人C在对话语料中的每句话都标注为幽默风趣的说话风格标签,将说话D在对话语料中的每句话都标注为严肃认真的说话风格标签,将说话人E在对话语料中的每句话都标注为耿直呆板的说话风格标签。基于每句话标注的说话风格标签,生成该三人对话语料对应的可以对说话风格识别模型进行训练的训练对话语料。其中,说话人C、说话人D和说话人E的说话风格即为训练对话语料对应的对话风格数据。
S202,基于训练对话语料对说话风格识别模型进行训练,以生成训练后的目标对话风格识别模型。
本公开实施例中,训练对话语料包括了每个说话人的对话语料和每个说话人对应的说话风格,将训练对话语料作为训练样本输入待训练的说话风格识别模型中,说话风格识别模型基于训练对话语料中每个说话风格对应的相关特征进行训练学习,进而生成训练后的目标对话风格识别模型。
进一步地,通过训练后的目标对话风格识别模型,可以实现对对话样本数据对应的对话风格数据的确定。
本公开提出的对话模型的训练方法,获取包括对话风格数据的训练对话语料,并根据训练对话语料对待训练的说话风格识别模型进行训练,生成训练后的目标对话风格识别模型。本公开中,通过对对话风格识别模型的准确和有效的训练,使得通过目标对话风格识别模型获取到的对应样本数据的对话风格数据的准确性得到了提高,从而优化了对话模型的训练的准确性和有效性,使得目标对话模型可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
进一步地,通过目标对话风格识别模型,可以获取说话人的对话风格数据,可结合图3理解,图3为本公开另一实施例的对话模型的训练方法的流程示意图,如图3所示,该方法包括:
S301,获取目标说话风格识别模型识别出的说话人的候选对话风格数据。
人们在进行对话的过程中,参与对话的每个说话人可能会说出多句语料,其中,存在可能出现部分语料的说话风格与说话人对应的说话风格存在差异,比如说话人的惯用说话风格为活泼可爱的说话风格,但是存在部分语句的说话风格更加偏向于幽默风趣。
进一步地,可以通过目标说话风格识别模型,获取说话人的每句语料对应的说话风格,并将其确定为说话人的候选对话风格数据。
可选地,输入目标说话风格识别模型的数据可以为包括说话人对话语料和回复语料的对话样本数据。其中,可以获取说话人的标识信息,并从候选对话样本数据中,基于标识信息确定出属于同一说话人的对话样本数据。
本公开实施例中,可以通过相关的对话相关内容的采集设备在网络上进行对话内容的采集。其中,可以对存在对话发生的网络页面上的全部对话内容进行采集,并将其确定为对应的候选对话样本数据。
进一步地,在候选对话样本数据中每个说话人的语句进行标记,进而获取属于同一说话人的对话样本数据。
比如,设定对XX贴吧中某一页面上的对话内容进行采集,可以将该页面的全部对话内容采集并作为对应的候选对话样本数据,然后根据该页面中参与对话的每个说话人的身份标识号(Identity document,ID)将候选对话样本数据标记到每个说话人的ID下,进而生成每个说话人对应的对话样本数据。
S302,统计候选对话风格数据的出现频次。
本公开实施例中,说话人的候选对话风格数据中可以包括多种说话风格,为了确定说话人对应的说话风格,可以对候选对话风格数据中的多种说话风格进行进一步整合。
可选地,针对任一说话人,可以对其候选对话风格数据中每种说话风格的出现频次进行统计,将其候选对话风格数据中包括的说话风格的出现频次对应的数量进行排序。
比如,针对说话人A,其对应的候选对话风格数据中包括活泼可爱的说话风格、幽默风趣的说话风格和耿直呆板的说话风格,可以通过对说话人的候选对话风格数据进行归类,进而获取每种说话风格的出现频次。
S303,从候选对话风格数据中选取出现频次最高的候选对话风格数据,确定为说话人的对话风格数据。
本公开实施例中,说话人对应的说话风格存在变化,因此,可以确定其使用最多的说话风格,并将该说话风格作为该说话人对应的说话风格。
进一步地,说话人的候选对话风格数据中每种说话风格的出现频次中,频次最高的说话风格可以被确定为说话人对应的说话风格。
比如,依然以上述示例为例,针对说话人A的候选对话风格数据中包括活泼可爱的说话风格、幽默风趣的说话风格和耿直呆板的说话风格中,统计出现频次最高的说话风格为活泼可爱对应的说话风格,则可以将活泼可爱确定为说话人A的说话风格。
进一步地,根据每个说话人对应的说话风格,目标说话风格识别模型输出对应的对话风格数据。
本公开提出的对话模型的训练方法,根据目标说话风格识别模型识别说话人的候选对话风格数据,并统计每个说话人对应的候选对话风格数据中每种说话风格的出现频次,将出现频次最高的说话风格数据确定为说话人对应的对话风格数据,并通过目标说话风格识别模型输出。本公开中,通过目标说话风格识别模型,识别对话样本数据中每个说话人的说话风格,进而获取每个说话人准确的对话风格数据,使得后续对话风格样本数据的准确性得以提高,进而从而优化了对话模型的训练的准确性和有效性,使得目标对话模型可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
进一步地,基于训练后的目标对话模型,可以实现具有对话风格的人机对话,可结合图4理解,图4为本公开一实施例的对话机器人的对话方法的流程示意图,如图4所示,该方法包括:
S401,获取对话机器人的目标对话风格数据,其中,对话机器人包括目标对话模型。
本公开实施例中,可以将目标对话模型配置于对话机器人中,由于目标对话模型可以对输入其中的待回复内容进行具有说话风格的信息回复,因此,配置有目标对话模型的对话机器人可以实现具有说话风格的对话。
进一步地,可以获取目标对话模型的多种可实现的说话风格,并根据目标对话模型可实现的说话风格对应的对话风格数据,确定对话机器人的目标对话风格数据。
需要说明的是,目标对话模型是根据上述图1至图3对应的实施例提出的训练方法训练得到的。
S402,获取输入对话机器人的对话上文。
本公开实施例中,对话机器人配置有语音识别设备,可以将待回复的对话上文通过语音输出,对话机器人的语音识别设备可以对其进行采集,进而获取输入对话机器人的对话上文。
比如,用户可以通过说话输出“今天温度怎么样?”的对话上文,对话机器人的语音识别设备采集到用户输出的说话内容,并将其确定为对应的对话上文。
S403,将对话上文和目标对话风格数据,输入目标对话模型中,获取具有目标对话风格的回复信息。
本公开实施例中,目标对话模型的输入数据存在设定的格式,对话机器人可以将采集到的对话上文转化为对应的设定格式。并将其输入至目标对话模型。
相应地,对话机器人可以将目标对话风格数据与对话上文同时输入至目标对话模型。进一步地,目标对话模型根据对话上文确定对应的回复内容,并将该回复内容基于目标对话数据携带的目标对话风格进行整合,进而生成具有目标对话风格的回复信息。
如图5所示,可以将目标对话风格与对话上文输入至目标对话模型中,通过目标对话模型输出具有目标对话风格的回复信息,进而使得对话机器人基于目标对话风格向用户输出语音回复。
本公开提出的对话机器人的对话方法,获取包括目标对话模型的对话机器人的目标对话风格数据,并获取输入对话机器人的对话上文,进一步地,将对话上文和目标对话风格数据输入目标对话模型中,获取具有目标对话风格的回复信息。本公开中,通过目标对话模型使得对话机器人可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
作为一种可能的实现方式,关于目标对话风格的获取,可结合图6进一步理解,图6为本公开另一实施例的对话机器人的对话方法的流程示意图,如图6所示,该方法包括:
S601,根据对话机器人的登录信息,根据登录信息确定对话机器人的使用者的目标对话风格。
本公开实施例中,对话机器人可以与多个用户进行人机对话,其中,每个用户存在其对应的登录信息,不同的用户对于对话机器人的说话风格具有不同的需求,因此,可以将每个用户设定的说话风格与对应的登录信息构建关联关系。
进一步地,当对话机器人识别到用户的登录信息时,可以根据用户与说话风格之间构建的关联关系,确定用户设定的对话风格,并将其确定为对话机器人与当前登录的使用者进行人机对话的目标对话风格。
S602,根据目标对话风格,从对话风格库中获取目标对话风格数据。
本公开实施例中,对话机器人存在对话风格库,其中,该对话风格库可以人工预设,也可以在上述目标风格识别模型的训练过程中生成。
获取对话机器人对应的目标对话风格后,可以从对话风格库中获取对应的目标对话风格数据,可选地,可以通过目标对话风格的标识信息与对话风格库中的对话风格数据对应的标识信息进行匹配,进而获取目标对话风格对应的目标对话风格数据。
进一步地,如图5所示,根据目标对话风格数据可以确定输入至目标对话模型的目标对话风格,进而实现目标对话模型具有目标对话风格的信息回复。
本公开提出的对话机器人的对话方法,通过登录信息确定对话机器人的目标对话风格,进而获取对应的目标对话风格数据。实现了对话机器人与不同用户之间的具有说话风格的人机对话,满足了多个用户对于说话风格的需求,优化了对话机器人的用户体验度。
作为另一种可能的实现方法,关于目标对话风格数据的获取,还可以结合图7进一步理解,图7为本公开另一实施例的对话机器人的对话方法的流程示意图,如图7所示,该方法包括:
S701,接收对话风格配置操作,根据配置操作,确定对话机器人的使用者的目标对话风格。
在一些实现中,用户为对话机器人的新用户,在用户完成注册后,可以在对话机器人相关的操作界面进行说话风格的设定。
在另一些实现中,当用户对于当前对话机器人的说话风格存在修改需求时,可以在对话机器人的相关操作界面上进行说话风格的修改。
进一步地,对话机器人基于用户的配置操作,确定当前用户设定的对话风格,并将其作为当前使用者需要的对话机器人的目标对话风格。
S702,根据目标对话风格,从对话风格库中获取目标对话风格数据。
关于步骤S702可参见上述相关详细内容,此处不再赘述。
本公开提出的对话机器人的对话方法,根据用户的相关配置操作,确定当前用户与对话机器人之间的目标对话风格,进而获取对应的目标对话风格数据。实现了对话机器人在不同的说话风格之间的切换,满足了用户对于多种说话风格的需求,优化了对话机器人的用户体验度。
与上述几种实施例提出的对话模型的训练方法相对应,本公开的一个实施例还提出了一种对话模型的训练装置,由于本公开实施例提出的对话模型的训练装置与上述几种实施例提出的对话模型的训练方法相对应,因此上述对话模型的训练方法的实施方式也适用于本公开实施例提出的对话模型的训练装置,在下述实施例中不再详细描述。
图8为本公开一实施例的对话模型的训练装置的结构示意图,如图8所示,对话模型的训练装置800,包括获取模块81、识别模块82、生成模块83、训练模块84,其中:
获取模块81,用于获取不同说话人各自的对话样本数据,其中,对话样本数据包括对话语料和回复语料;
识别模块82,用于将对话样本数据输入目标对话风格识别模型中,获取说话人对应的对话风格数据;
生成模块83,用于将对话样本数据以及对话风格数据,生成对话模型的对话风格样本数据;
训练模块84,用于基于对话风格样本数据,对对话模型进行训练,以生成目标对话模型,其中,目标对话模型用于输出具有对话风格的回复信息。
本公开实施例中,识别模块82,还用于:获取训练对话语料和训练对话语料对应的对话风格数据;基于训练对话语料对说话风格识别模型进行训练,以生成训练后的目标对话风格识别模型。
本公开实施例中,获取模块81,还用于:获取目标说话风格识别模型识别出的说话人的候选对话风格数据;统计候选对话风格数据的出现频次;从候选对话风格数据中选取出现频次最高的候选对话风格数据,确定为说话人的对话风格数据。
本公开实施例中,获取模块81,还用于:获取说话人的标识信息,并从候选对话样本数据中,基于标识信息确定出属于同一说话人的对话样本数据。
本公开提出的对话模型的训练装置,获取不同说话人的对话语料和回复语料对应的对话样本数据,并将对话样本数据输入训练后的目标对话风格识别模型中,获取每个说话人对应的对话风格数据。根据对话风格数据和对话样本数据,对不同说话人的对话语料和回复语料进行对话风格的确定,并生成对话模型的对话风格样本数据。进一步地,通过对话风格样本数据对对话模型进行模型训练,进而生成训练后的可以进行具有对话风格的信息回复的目标对话模型。本公开中,通过对话样本数据和对话风格数据生成了对话风格样本数据,提高了对话风格样本数据的准确性,进而提高了对话模型的训练样本的准确性,从而实现对话模型的准确训练,优化了对话模型的训练效果,使得目标对话模型可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
与上述几种实施例提出的对话机器人的对话方法相对应,本公开的一个实施例还提出了一种对话机器人的对话装置,由于本公开实施例提出的对话机器人的对话装置与上述几种实施例提出的对话机器人的对话方法相对应,因此上述对话机器人的对话方法的实施方式也适用于本公开实施例提出的对话机器人的对话装置,在下述实施例中不再详细描述。
图9为本公开一实施例的对话机器人的对话装置的结构示意图,如图9所示,对话机器人的对话装置900,包括风格模块91、输入模块92、回复模块93,其中:
风格模块91,用于获取对话机器人的目标对话风格数据,其中,对话机器人包括目标对话模型;
输入模块92,用于获取输入对话机器人的对话上文;
回复模块93,用于将对话上文和目标对话风格数据,输入目标对话模型中,获取具有目标对话风格的回复信息;
其中,目标对话模型为如图8所示的实施例中任一项的训练装置训练得到。
本公开实施例中,风格模块91,还用于:根据对话机器人的登录信息,根据登录信息确定对话机器人的使用者的目标对话风格;根据目标对话风格,从对话风格库中获取目标对话风格数据。
本公开实施例中,风格模块91,还用于:接收对话风格配置操作,根据配置操作,确定对话机器人的使用者的目标对话风格;根据目标对话风格,从对话风格库中获取目标对话风格数据。
本公开提出的对话机器人的对话装置,获取包括目标对话模型的对话机器人的目标对话风格数据,并获取输入对话机器人的对话上文,进一步地,将对话上文和目标对话风格数据输入目标对话模型中,获取具有目标对话风格的回复信息。本公开中,通过目标对话模型使得对话机器人可以实现具备精准灵活的说话风格的信息回复,优化了人机对话过程中的用户体验度。
根据本公开的实施例,本公开还提出了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1009加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1009,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如对话模型的训练方法或对话机器人的对话方法。例如,在一些实施例中,对话模型的训练方法或对话机器人的对话方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1009。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM1003并由计算单元1001执行时,可以执行上文描述的对话模型的训练方法或对话机器人的对话方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行对话模型的训练方法或对话机器人的对话方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提出给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提出与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提出给计算机。其它种类的装置还可以用于提出与用户的交互;例如,提出给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (12)
1.一种对话模型的训练方法,包括:
获取不同说话人各自的对话样本数据,其中,所述对话样本数据包括对话语料和回复语料;
将所述对话样本数据输入目标对话风格识别模型中,获取所述说话人对应的对话风格数据,其中,将所述对话样本数据输入所述目标对话风格识别模型中,所述目标对话风格识别模型通过特征提取对话样本中每个说话人的对话语料和回复语料对应的风格特征,根据所述对话样本数据中每个对话语料和每个回复语料的风格特征,获取所述说话人对应的对话风格数据;
将所述对话样本数据以及所述对话风格数据,生成对话模型的对话风格样本数据,其中,通过所述对话风格数据将所述对话样本数据中的对话风格进行标注,生成所述对话模型对应的对话风格样本数据;
基于所述对话风格样本数据,对所述对话模型进行训练,以生成目标对话模型,其中,通过所述对话模型对所述对话风格样本数据中每种说话风格的风格特征进行识别学习,生成训练后的所述目标对话模型,所述目标对话模型用于输出具有对话风格的回复信息;
其中,所述将所述对话样本数据输入目标对话风格识别模型中之前,还包括:
获取训练对话语料和所述训练对话语料对应的对话风格数据;
基于所述训练对话语料对说话风格识别模型进行训练,以生成训练后的目标对话风格识别模型,其中,将所述训练对话语料作为训练样本输入待训练的说话风格识别模型中,说话风格识别模型基于所述训练对话语料中每个说话风格对应的相关特征进行训练学习,进而生成所述训练后的目标对话风格识别模型;
其中,所述获取不同说话人各自的对话样本数据,包括:
获取所述说话人的标识信息,并从候选对话样本数据中,基于所述标识信息确定出属于同一说话人的所述对话样本数据。
2.根据权利要求1所述的方法,其中,所述获取所述说话人对应的对话风格数据,包括:
获取所述目标说话风格识别模型识别出的所述说话人的候选对话风格数据;
统计所述候选对话风格数据的出现频次;
从所述候选对话风格数据中选取所述出现频次最高的候选对话风格数据,确定为所述说话人的对话风格数据。
3.一种对话机器人的对话方法,包括:
获取对话机器人的目标对话风格数据,其中,所述对话机器人包括目标对话模型;
获取输入所述对话机器人的对话上文;
将所述对话上文和所述目标对话风格数据,输入所述目标对话模型中,获取具有目标对话风格的回复信息;
其中,所述目标对话模型为权利要求1-2任一项所述的训练方法训练得到。
4.根据权利要求3的方法,其中,所述获取对话机器人的目标对话风格数据,包括:
根据所述对话机器人的登录信息,根据所述登录信息确定所述对话机器人的使用者的目标对话风格;
根据所述目标对话风格,从对话风格库中获取所述目标对话风格数据。
5.根据权利要求3的方法,其中,所述获取对话机器人的目标对话风格数据,包括:
接收对话风格配置操作,根据所述配置操作,确定所述对话机器人的使用者的目标对话风格;
根据所述目标对话风格,从对话风格库中获取所述目标对话风格数据。
6.一种对话模型的训练装置,包括:
获取模块,用于获取不同说话人各自的对话样本数据,其中,所述对话样本数据包括对话语料和回复语料;
识别模块,用于将所述对话样本数据输入目标对话风格识别模型中,获取所述说话人对应的对话风格数据,其中,将所述对话样本数据输入所述目标对话风格识别模型中,所述目标对话风格识别模型通过特征提取对话样本中每个说话人的对话语料和回复语料对应的风格特征,根据所述对话样本数据中每个对话语料和每个回复语料的风格特征,获取所述说话人对应的对话风格数据;
生成模块,用于将所述对话样本数据以及所述对话风格数据,生成对话模型的对话风格样本数据,其中,通过所述对话风格数据将所述对话样本数据中的对话风格进行标注,生成所述对话模型对应的对话风格样本数据;
训练模块,用于基于所述对话风格样本数据,对所述对话模型进行训练,以生成目标对话模型,其中,通过所述对话模型对所述对话风格样本数据中每种说话风格的风格特征进行识别学习,生成训练后的所述目标对话模型,所述目标对话模型用于输出具有对话风格的回复信息;
所述识别模块,还用于:
获取训练对话语料和所述训练对话语料对应的对话风格数据;
基于所述训练对话语料对说话风格识别模型进行训练,以生成训练后的目标对话风格识别模型,其中,将所述训练对话语料作为训练样本输入待训练的说话风格识别模型中,说话风格识别模型基于所述训练对话语料中每个说话风格对应的相关特征进行训练学习,进而生成所述训练后的目标对话风格识别模型;
其中,所述获取模块,还用于:
获取所述说话人的标识信息,并从候选对话样本数据中,基于所述标识信息确定出属于同一说话人的所述对话样本数据。
7.根据权利要求6所述的装置,其中,所述获取模块,还用于:
获取所述目标说话风格识别模型识别出的所述说话人的候选对话风格数据;
统计所述候选对话风格数据的出现频次;
从所述候选对话风格数据中选取所述出现频次最高的候选对话风格数据,确定为所述说话人的对话风格数据。
8.一种对话机器人的对话装置,包括:
风格获取模块,用于获取对话机器人的目标对话风格数据,其中,所述对话机器人包括目标对话模型;
输入模块,用于获取输入所述对话机器人的对话上文;
回复模块,用于将所述对话上文和所述目标对话风格数据,输入所述目标对话模型中,获取具有目标对话风格的回复信息;
其中,所述目标对话模型为权利要求6-7任一项所述的训练装置训练得到。
9.根据权利要求8的装置,其中,所述风格获取模块,还用于:
根据所述对话机器人的登录信息,根据所述登录信息确定所述对话机器人的使用者的目标对话风格;
根据所述目标对话风格,从对话风格库中获取所述目标对话风格数据。
10.根据权利要求8的装置,其中,所述风格获取模块,还用于:
接收对话风格配置操作,根据所述配置操作,确定所述对话机器人的使用者的目标对话风格;
根据所述目标对话风格,从对话风格库中获取所述目标对话风格数据。
11. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-2和权利要求3-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111628658.3A CN114490967B (zh) | 2021-12-28 | 2021-12-28 | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111628658.3A CN114490967B (zh) | 2021-12-28 | 2021-12-28 | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114490967A CN114490967A (zh) | 2022-05-13 |
CN114490967B true CN114490967B (zh) | 2023-10-31 |
Family
ID=81495655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111628658.3A Active CN114490967B (zh) | 2021-12-28 | 2021-12-28 | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114490967B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115879469B (zh) * | 2022-12-30 | 2023-10-03 | 北京百度网讯科技有限公司 | 文本数据处理方法、模型训练方法、装置及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977207A (zh) * | 2019-03-21 | 2019-07-05 | 网易(杭州)网络有限公司 | 对话生成方法、对话生成装置、电子设备及存储介质 |
CN110265021A (zh) * | 2019-07-22 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
CN112182162A (zh) * | 2020-09-30 | 2021-01-05 | 中国人民大学 | 一种基于记忆神经网络的个性化对话方法和系统 |
CN112948534A (zh) * | 2019-12-10 | 2021-06-11 | 中兴通讯股份有限公司 | 一种智能人机对话的交互方法、系统和电子设备 |
CN113033664A (zh) * | 2021-03-26 | 2021-06-25 | 网易(杭州)网络有限公司 | 问答模型训练方法、问答方法、装置、设备及存储介质 |
CN113360618A (zh) * | 2021-06-07 | 2021-09-07 | 暨南大学 | 一种基于离线强化学习的智能机器人对话方法及系统 |
CN113378583A (zh) * | 2021-07-15 | 2021-09-10 | 北京小米移动软件有限公司 | 对话回复方法及装置、对话模型训练方法及装置、存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10834079B2 (en) * | 2018-11-28 | 2020-11-10 | International Business Machines Corporation | Negotiative conversation chat bot |
-
2021
- 2021-12-28 CN CN202111628658.3A patent/CN114490967B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977207A (zh) * | 2019-03-21 | 2019-07-05 | 网易(杭州)网络有限公司 | 对话生成方法、对话生成装置、电子设备及存储介质 |
CN110265021A (zh) * | 2019-07-22 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
CN112948534A (zh) * | 2019-12-10 | 2021-06-11 | 中兴通讯股份有限公司 | 一种智能人机对话的交互方法、系统和电子设备 |
CN112182162A (zh) * | 2020-09-30 | 2021-01-05 | 中国人民大学 | 一种基于记忆神经网络的个性化对话方法和系统 |
CN113033664A (zh) * | 2021-03-26 | 2021-06-25 | 网易(杭州)网络有限公司 | 问答模型训练方法、问答方法、装置、设备及存储介质 |
CN113360618A (zh) * | 2021-06-07 | 2021-09-07 | 暨南大学 | 一种基于离线强化学习的智能机器人对话方法及系统 |
CN113378583A (zh) * | 2021-07-15 | 2021-09-10 | 北京小米移动软件有限公司 | 对话回复方法及装置、对话模型训练方法及装置、存储介质 |
Non-Patent Citations (2)
Title |
---|
PROTOTYPE-TO-STYLE: Dialogue Generation With Style-Aware Editing on Retrieval Memory;Yixuan Su 等;IEEE/ACM Transactions on Audio, Speech, and Language Processing;全文 * |
面向图书馆数字参考咨询的人机对话模型;朱娜娜 等;图书情报工作;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114490967A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751122B2 (ja) | ページ制御方法および装置 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
CN112487173A (zh) | 人机对话方法、设备和存储介质 | |
CN113407850B (zh) | 一种虚拟形象的确定和获取方法、装置以及电子设备 | |
KR20220064940A (ko) | 음성 생성 방법, 장치, 전자기기 및 저장매체 | |
CN114841274B (zh) | 语言模型的训练方法、装置、电子设备和存储介质 | |
CN113590776A (zh) | 基于知识图谱的文本处理方法、装置、电子设备及介质 | |
CN111522944A (zh) | 用于输出信息的方法、装置、设备以及存储介质 | |
CN115309877A (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN116521841A (zh) | 用于生成回复信息的方法、装置、设备及介质 | |
CN114490967B (zh) | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 | |
CN114547244A (zh) | 用于确定信息的方法和装置 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
CN112559715B (zh) | 态度的识别方法、装置、设备及存储介质 | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN114758649B (zh) | 一种语音识别方法、装置、设备和介质 | |
CN114972910B (zh) | 图文识别模型的训练方法、装置、电子设备及存储介质 | |
CN116257690A (zh) | 一种资源推荐方法、装置、电子设备和存储介质 | |
CN114356275B (zh) | 交互控制方法、装置、智能语音设备及存储介质 | |
CN116244432B (zh) | 语言模型的预训练方法、装置及电子设备 | |
CN114818748B (zh) | 用于生成翻译模型的方法、翻译方法及装置 | |
CN114416937B (zh) | 人机交互方法、装置、设备、存储介质及计算机程序产品 | |
US12033621B2 (en) | Method for speech recognition based on language adaptivity and related apparatus | |
US20210233521A1 (en) | Method for speech recognition based on language adaptivity and related apparatus | |
CN117725256A (zh) | 歌曲推荐方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |