CN110147435A - 对话生成方法、装置、设备及存储介质 - Google Patents

对话生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN110147435A
CN110147435A CN201910069718.9A CN201910069718A CN110147435A CN 110147435 A CN110147435 A CN 110147435A CN 201910069718 A CN201910069718 A CN 201910069718A CN 110147435 A CN110147435 A CN 110147435A
Authority
CN
China
Prior art keywords
word
input
coding vector
attention score
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910069718.9A
Other languages
English (en)
Other versions
CN110147435B (zh
Inventor
谭翊章
丁佳晨
缪畅宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910069718.9A priority Critical patent/CN110147435B/zh
Publication of CN110147435A publication Critical patent/CN110147435A/zh
Priority to JP2021517336A priority patent/JP7194270B2/ja
Priority to PCT/CN2020/073383 priority patent/WO2020151689A1/zh
Priority to US17/346,197 priority patent/US20210303606A1/en
Application granted granted Critical
Publication of CN110147435B publication Critical patent/CN110147435B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种对话生成方法、装置、设置及存储介质,所述方法应用于人机对话系统中,所述方法包括:从对话客户端获取输入对话序列;获取与所述输入对话序列相关的关联信息;调用编码器对所述输入对话序列进行编码,得到输入编码向量;调用所述编码器对所述关联信息进行编码,得到关联编码向量;调用解码器对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列,所述输出对话序列中包括有属于所述关联信息的集外词;向所述对话客户端发送所述输出对话序列。本申请能够输出有事实和/或有观点的对话句子。

Description

对话生成方法、装置、设备及存储介质
技术领域
本申请实施例涉及人工智能领域,特别涉及一种对话生成方法、装置、设备及存储介质。
背景技术
自然语言对话是人工智能最具挑战的问题之一。目前有许多实用的对话系统,如苹果公司提供的Siri。这些对话系统能够与人做简单的对话,完成一些简单的任务,比如问天气、查股票。
相关技术中的对话系统采用seq2seq(序列到序列)模型实现对话。该seq2seq模型包括:编码器和解码器。当深度学习模型接收到一个对话序列(问句)时,编码器将该对话序列编码为中间向量,将中间向量输入到解码器中。该解码器根据中间向量从预设词典中输出一个对话序列(答句)。该答句中的所有词汇均来源于预设词典。
由于上述对话系统所输出的答句中的所有词汇均来源于词典,而该词典中的词汇是预设且固定的,因此该对话系统输出的答句内容有限制,无法输出OOV(Out ofVocabulary,集外词)。
发明内容
本申请实施例提供了一种对话生成方法、装置、设备及存储介质,可以解决相关技术中的对话系统仅能输出有限制的答句内容,无法输出OOV的问题。所述技术方案如下:
根据本申请的一个方面,提供了一种对话生成方法,所述方法包括:
从对话客户端获取输入对话序列;
获取与所述输入对话序列相关的关联信息;
调用编码器对所述输入对话序列进行编码,得到输入编码向量;
调用所述编码器对所述关联信息进行编码,得到关联编码向量;
调用解码器对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列,所述输出对话序列中包括有属于所述关联信息的集外词。
根据本申请的另一方面,提供了一种对话生成装置,应用于人机对话系统中,所述装置包括:接口模块、获取模块、编码模块和解码模块;
所述接口模块,用于从对话客户端获取输入对话序列;
所述获取模块,用于获取与所述输入对话序列相关的关联信息;
所述编码模块,用于对所述输入对话序列进行编码,得到输入编码向量;
所述编码模块,还用于所述编码器对所述关联信息进行编码,得到关联编码向量;
所述解码模块,用于对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列,所述输出对话序列中包括有属于所述关联信息的集外词;
所述接口模块,用于向所述对话客户端发送所述输出对话序列。
根据本申请的另一方面,提供了一种电子设备,所述电子设备包括存储器和处理器;所述存储器存储有至少一条程序,所述至少一条程序由所述处理器加载并执行以实现如上所述的对话生成方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条程序,所述至少一条程序由处理器加载并执行以实现如上所述的应用程序中的对话生成方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过调用编码器对输入对话序列进行编码,得到输入编码向量;调用编码器对关联信息进行编码,得到关联编码向量;调用解码器对输入编码向量和关联编码向量进行解码,得到输出对话序列。由于该输出对话序列包括有属于关联信息的集外词,当关联信息包括与输入对话序列相关的事实性信息和/或观点性信息时,该对话系统能够自动生成有事实和/或有观点的回答,从而实现较好的对话效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示意性实施例提供的人机对话系统的结构框图;
图2是本申请一个示意性实施例提供的对话生成方法的流程图;
图3是本申请一个示意性实施例提供的对话生成方法的原理图;
图4是本申请一个示意性实施例提供的对话生成方法的流程图;
图5是本申请一个示意性实施例提供的对话生成方法的原理图;
图6是本申请一个示意性实施例提供的对话生成装置的框图;
图7是本申请一个示意性实施例提供的计算机设备的框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
尽管以下描述使用术语第一、第二等来描述各种元素,但这些元素不应受术语的限制。这些术语只是用于将一元素与另一元素区域分开。例如,在不脱离各种所述示例的范围的情况下,第一用户状态选项可以被称为第二用户状态选项,并且类似地,第二用户状态选项可以被称为第一用户状态选项。第一用户状态选项和第二用户状态选项都可以是用户状态选项,并且在某些情况下,可以是单独且不同的用户状态选项。
首先对本申请实施例涉及的若干个名词进行简介:
F(Facts):跟当前聊天话题相关的事实性信息(如:新闻报道);
H(History):跟当前聊天话题相关的观点性信息(如:新闻评论、讨论历史记录);
编码:把一个对话序列表示成一个或多个编码向量,这里『对话序列』一般是不定长的对话序列;
解码:根据输入对话序列对应的编码向量,输出相应的输出对话序列;
注意力(Attention)机制:一个向量跟多个向量计算权重,并根据权重加权平均;
拷贝生成网络:一种新的文本产生系统,能自动从输入文本中复制文本片段到产生的文本中,或生成新的文本片段;
RNN-Cell(Recurrent Neural Networks,循环神经网络单元),是循环神经网络的组成部分,对于一个输入向量,通过神经网络的线性映射和非线性变化,得到输出向量;
LSTM(Long Short-Term Memory,长短时记忆网络),循环神经网络的变种,可用于编码时序信息。
本申请实施例提供了一种应用于人机对话系统的对话生成方案,能够结合热点事件和/或不同观点,自动生成有事实和/或有观点的句子来回复用户。
为便于对本申请实施例提供的技术方案的理解,图1示出了本申请另一个示意性实施例提供的人机对话系统的结构示意图。该人机对话系统包括:对话客户端100、对话服务器200和信息资源服务器300。
对话客户端100可以实现成为智能音箱、智能机器人、智能梳妆镜、智能手机、应用程序客户端、网页客户端中的任意一种设备。对话客户端120上设置有麦克风和扬声器,或者,对话客户端120上设置有用于输入文本和显示文本的外设部件。
对话服务器200是用于向对话客户端100提供后台对话服务的服务器。对话服务器200可以是一台或多台服务器。对话服务器200中设置有基于seq2seq(Sequence toSequence,序列到序列)的神经网络模型。该神经网络模型用于根据输入对话序列生成输出对话序列。对话服务器200可以是包括但不限于天气查询、业务咨询、智能客服(用于机票服务或餐馆服务等)等。
该对话服务器200还与信息资源服务器300相连。该信息资源服务器300存储有事实性信息(Facts),和,观点性信息(History)。对话服务器200能够从信息资源服务器300中获取与输入对话序列相关的事实性信息,和/或,观点性信息。
在一个可能的实现方式中,对话服务器200包括:接口模块220、获取模块240、编码器260和解码器280。该接口模块220是对话服务器200与对话客户端100之间的交互模块或通信模块。该接口模块220用于从对话客户端100获取用户的输入文字序列,发送给获取模块240和编码器260。该接口模块220还用于将对话服务器200生成的输出对话序列发送给对话客户端100。获取模块240用于在信息资源服务器400获取与输出对话序列对应的事实性信息和/或观点性信息。
图2示出了本申请的一个示例性实施例提供的对话生成方法的流程图。本实施例以该方法应用于图1所述的对话服务器200中来举例说明。该方法包括:
步骤201,从对话客户端获取输入对话序列;
输入对话序列是输入序列,也即待处理的对话序列。
对话客户端从用户处采集文字形式和/或语音形式的输入对话序列,将输入对话序列发送给对话服务器。对话服务器从对话客户端获取该输入对话序列。
其中,语音形式的输入对话序列,可由对话客户端或对话服务器转换为文字形式的输入对话序列。
步骤202,获取与输入对话序列相关的关联信息;
可选地,对话服务器根据输出对话序列,在信息资源服务器中检索与输入对话序列相关的关联信息。
关联信息包括:事实性信息(Facts),和/或,观点性信息(History)。
事实性信息包括:新闻报道、百科知识、公知常识中的至少一种信息。观点性信息包括:论坛讨论历史、网友跟贴中的至少一种信息。
步骤203,调用编码器对输入对话序列进行编码,得到输入编码向量;
可选地,将输入对话序列转换为输入词向量,然后调用编码器对输入词向量进行编码,得到输入编码向量。输入编码向量是用于对输入对话序列进行表示的特征向量。
步骤204,调用编码器对关联信息进行编码,得到关联编码向量;
可选地,将关联信息转换为关联词向量,然后调用编码器对关联词向量进行编码,得到关联编码向量。关联编码向量是用于对关联信息进行表示的特征向量。
步骤205,调用解码器对输入编码向量和关联编码向量进行解码,得到输出对话序列,输出对话序列中包括有属于关联信息的集外词。
可选地,调用解码器对输入编码向量和关联编码向量进行动态解码,得到输出对话序列,输出对话序列中包括有属于关联信息的集外词。该动态解码包括:根据输入编码向量从预设词典中生成输出词语,和/或,根据关联编码向量从扩展词典中拷贝输出词语。
可选地,该扩展词典是根据关联信息中的词语构建的词典。
步骤206,向对话客户端发送输出对话序列。
对话服务器向对话客户端发送文字形式的输出对话序列,或者,将文字形式的输出对话序列转化为语音形式的输出对话序列后,向对话客户端发送语音形式的输出对话序列。
综上所述,本实施例提供的方法,通过调用编码器对输入对话序列进行编码,得到输入编码向量;调用编码器对关联信息进行编码,得到关联编码向量;调用解码器对输入编码向量和关联编码向量进行解码,得到输出对话序列。由于该输出对话序列是基于预设词典和扩展词典所动态生成的,因此该输出对话序列中包括有属于关联信息的集外词。当关联信息包括与输入对话序列相关的事实性信息和/或观点性信息时,该对话系统能够自动生成有事实和/或有观点的回答,从而实现较好的对话效果。
图3示出了本申请一个示意性实施例提供的对话系统的原理示意图。以关联信息包括:观点性信息(History)和事实性信息(Facts)为例,该对话生成模型包括编码器220和解码器240。该对话系统从外部获取用户当前输入Input、与用户当前输入相关的观点性信息History、与用户当前输入相关的事实性信息Facts。
编码器220用于将用户当前输入Input进行编码,得到输入编码向量I;将观点性信息History进行编码,得到观点编码向量H;将事实性信息Facts进行编码,得到事实编码向量F。其中,输入编码向量I、观点编码向量H和事实编码向量F均为编码向量。
编码器220用于将输入编码向量I、观点编码向量H和事实编码向量F输入至解码器240。
解码器240中设置有拷贝神经网络50,将输入编码向量I、观点编码向量H和事实编码向量F输入拷贝神经网络50后,拷贝神经网络50对输入编码向量I、观点编码向量H和事实编码向量F进行解码,得到输出对话序列。输出对话序列即为用户当前输入Input的回复。
需要说明的是,事实性信息和观点性信息可以仅输入一种,也可以同时输入两种。由事实性信息编码得到的事实编码向量F和/或观点编码向量H,可以统称为关联编码向量。在解码阶段,对话系统将输入编码向量、关联编码向量和前一时刻的解码信息输入拷贝生成网络50进行解码处理,得到输出对话序列。
图4示出了本申请另一个示意性实施例提供的对话生成方法的流程图。本实施例以该方法应用于图1所述的人机对话系统中来举例说明。该方法包括:
步骤401,从对话客户端获取输入对话序列;
输入对话序列是输入序列,也即待处理的对话序列。
对话客户端从用户处采集文字形式和/或语音形式的输入对话序列,将输入对话序列发送给对话服务器。对话服务器从对话客户端获取该输入对话序列。
其中,语音形式的输入对话序列,可由对话客户端或对话服务器转换为文字形式的输入对话序列。
可选地,该输入对话序列是不定长的文字序列。
步骤402,获取与输入对话序列相关的关联信息;
可选地,对话服务器根据输出对话序列,在信息资源服务器中检索与输入对话序列相关的关联信息。
关联信息包括:事实性信息(Facts),和/或,观点性信息(History)。
事实性信息包括:新闻报道、百科知识、公知常识中的至少一种信息。观点性信息包括:论坛讨论历史、网友跟贴中的至少一种信息。
步骤403,调用编码器对输入对话序列进行编码,得到输入编码向量;
人机对话系统中预先设置有词语至词向量之间的对应关系。词向量是采用数学方式对词语进行表示的向量。
人机对话系统将输入对话序列进行分词,得到若干个按序排列的词语。查询每个词语对应的词向量,将每个词语对应的词向量按序排列,得到输入对话序列的词向量。
编码器对输入对话序列的词向量进行编码,得到输入编码向量I。可选地,编码器是基于双向LSTM(Bi-LSTM)构建的,本实施例不限定编码器的具体类型。
步骤404,调用编码器对关联信息进行编码,得到关联编码向量;
人机对话系统将关联信息进行分词,得到若干个按序排列的词语。查询每个词语对应的词向量,将每个词语对应的词向量按序排列,得到输入对话序列的词向量。
当关联信息包括观点性信息时,人机对话系统将观点性信息进行分词,得到若干个按序排列的词语。查询每个词语对应的词向量,将每个词语对应的词向量按序排列,得到观点性信息的词向量。编码器对观点性信息的词向量进行编码,得到观点编码向量H。
示意性的,采用单层的双向LSTM对观点性信息的词向量进行编码,得到观点编码向量(也称隐藏状态序列)H代表观点性信息,h代表隐藏状态,L代表共有L个隐藏状态,i为不大于L的整数。
当关联信息包括事实性信息时,人机对话系统将事实性信息进行分词,得到若干个按序排列的词语。查询每个词语对应的词向量,将每个词语对应的词向量按序排列,得到事实性信息的词向量。编码器对事实性信息的词向量进行编码,得到事实编码向量F。
示意性的,采用单层的双向LSTM对事实性信息的词向量进行编码,得到事实编码向量(也称隐藏状态序列)F代表事实性信息,h代表隐藏状态,L代表共有L个隐藏状态,i为不大于L的整数。
可选地,编码器将输入编码向量进行首尾相连,作为解码器的一个初始状态输入。
可选地,编码器将观点编码向量的初始隐藏状态和事实编码向量的最终隐藏状态进行首尾相连,作为解码器的一个初始状态输入。或者,编码器将事实编码向量的初始隐藏状态和观点编码向量的最终隐藏状态进行首尾相连,作为解码器的一个初始状态输入。或者,将观点编码向量和事实编码向量分别作为解码器的一个初始状态输入。
步骤405,在拷贝生成网络的当前解码时刻,根据输入编码向量确定预设词典中的各个词语的输入注意力分数;
步骤406,在拷贝生成网络的当前解码时刻,根据关联编码向量确定扩展词典中的各个词语的关联注意力分数;
拷贝生成网络对应有:预设词典和扩展词典。预设词典是词语数量和内容固定不变的词典;扩展词典是基于事实性信息和/或观点性信息中的词语所构建的词典。可选地,扩展词典包括第一扩展词典和/或第二扩展词典。第一扩展词典是基于事实性信息中的词语所构建的,第二扩展词典是基于观点性信息中的词语所构建的。
对应地,拷贝生成网络有三种模式:生成模式、H拷贝模式和F拷贝模式。
生成模式:在所有词表上得到各个词语的概率分布;
F拷贝模式:在事实性信息对应的第一扩展词表上得到各个词语的概率分布;
H拷贝模式:在观点性信息对应的第二扩展词表上得到各个词语的概率分布。
在每个解码时刻t,拷贝生成网络动态采用上述模式中的某一种模式,解码得到当前解码时刻的输出词。该过程基于每个词语的注意力分数来进行,注意力分数也即按照注意力分数确定的概率分布。
可选地,在拷贝生成网络的当前解码时刻t,解码器根据输入编码向量确定预设词典中的各个词语的输入注意力分数;根据关联编码向量确定扩展词典中的各个词语的关联注意力分数。
当关联编码向量包括事实编码向量时,根据事实编码向量确定第一扩展词典中的各个词语的事实注意力分数。
示意性的,采用如下公式计算各个词语的事实注意力分数的概率分布
其中,t是指第t个解码时刻,和bF是可学习的网络参数,是事实编码向量中的第j个隐藏状态,j为不大于L的整数。F是事实性信息,是事实编码向量中的第j个词在解码时刻t时的注意力分数。
当关联编码向量包括观点编码向量时,根据观点编码向量确定第二扩展词典中的各个词语的观点注意力分数。
示意性的,采用如下公式计算各个词语的观点注意力分数的概率分布
其中,t是第t个解码时刻,和bH是可学习的网络参数,是观点编码向量中的第i个隐藏状态,i为不大于L的整数。H是观点性信息,是观点编码向量中的第i个词在解码时刻t时的注意力分数。
步骤407,根据前一时刻的解码信息确定加权权重,根据加权权重将输入注意力分数和关联注意力分数进行加权求和,得到各个词语的总注意力分数;
对于每个词语,人机对话系统根据前一时刻的解码信息确定加权权重,根据加权权重将输入注意力分数和关联注意力分数进行加权求和,得到各个词语的总注意力分数。
示意性的,人机对话系统根据前一时刻的解码信息确定输入注意力分数对应的第一权重、关联注意力分数对应的第二权重和观点注意力分数对应的第三权重;
将输入注意力分数和第一权重的乘积、关联注意力分数和第二权重的乘积、观点注意力分数和第三权重的乘积相加,得到各个词语的总注意力分数。
示意性的,采用如下公式计算各个词语的总注意力分数:
其中,H是观点编码向量,F是事实编码向量,t是解码时刻,m是三种模式(生成模式、H拷贝模式、F拷贝模式)对应的注意力分数的索引。Pr(m|t,H,F)是在解码时刻t时,索引m对应的注意力分数;Prm(m|t,H,F)是在解码时刻t时,索引m对应的相应的权重。该权重由前一时刻的解码信息计算得到。可选地,该权重与前一时刻的解码信息所确定的,相应词语在观点性信息或事实性信息中的词语出现次数有关。
步骤408,将总注意力分数最高的词语,确定为当前解码时刻的输出词;
可选地,当总注意力分数最高的词语属于预设词典时,从预设词典抽取词语作为当前解码时刻的输出词;当总注意力分数最高的词语属于扩展词典时,从扩展词典拷贝词语作为当前解码时刻的输出词。
示意性的,当总注意力分数最高的词语属于第一扩展词典时,从第一扩展词典拷贝词语作为当前解码时刻的输出词;当总注意力分数最高的词语属于第二扩展词典时,从第二扩展词典拷贝词语作为当前解码时刻的输出词。
步骤409,重复上述步骤以获取各个解码时刻的输出词,将各个解码时刻的输出词依次连接,得到输出文字序列。
步骤410,向对话客户端发送输出对话序列。
对话服务器向对话客户端发送文字形式的输出对话序列,或者,将文字形式的输出对话序列转化为语音形式的输出对话序列后,向对话客户端发送语音形式的输出对话序列。
综上所述,本实施例提供的方法,通过调用编码器对输入对话序列进行编码,得到输入编码向量;调用编码器对关联信息进行编码,得到关联编码向量;调用解码器对输入编码向量和关联编码向量进行解码,得到输出对话序列。由于该输出对话序列是基于预设词典和扩展词典所动态生成的,因此该输出对话序列中包括有属于关联信息的集外词。当关联信息包括与输入对话序列相关的事实性信息和/或观点性信息时,该对话系统能够自动生成有事实和/或有观点的回答,从而实现较好的对话效果。
本实施例提供的方法,通过采用注意力机制来确定扩展词典中的每个词语的注意力分数,采用动态加权的方式综合计算出每个词语的总注意力分数,当属于扩展词典的词语的总注意力分数较高时,能够被拷贝到输出文字序列中。
在一个示意性的例子中,参考图5,在用户向人机对话系统发送输入对话序列,将输入对话序列视为一个样本(Sample)来讲,与该输入对话序列对应的关联信息(事实性信息和/或观点性信息)中的所有集外词都会加入到这个Sample的扩展词典中。图5中的左边虚线框中是编码器部分,右边虚线框是解码器部分。除了用户输入的输入对话序列(图中未示出)之外,额外的输入序列有2个,假设输入序列1是事实性信息,输入序列2是观点性信息。输入序列1采用单层的双向LSTM编码为事实编码向量,输入序列2采用单层的双向LSTM编码为观点编码向量。
在每一个解码时刻,根据事实编码向量计算出事实性信息中每个词语的注意力概率分布p1,也即第一扩展词典中每个词语的注意力分数;根据观点编码向量计算出观点性信息中每个词语的注意力概率分布p2,也即第二扩展词典中每个词语的注意力分数,第一扩展词典和第二扩展词典中包括集外词。同时,由用户的输入对话序列还可以确定出固定词典中的概率分布p3。基于前一解码时刻的解码信息确定出三个概率分布p1、p2和p3各自对应的权重后,将这三个概率分布进行加权求和后,得到最终概率分布。从而在每个解码时刻t,将总注意力分数最高的词语,输出为当前解码时刻的输出词。将各个解码时刻的输出词依次连接,得到输出文字序列。若当前解码时刻的输出词是属于H或F的集外词,则该集外词会被拷贝至输出对话序列中,实现了有事实和/或有观点的答复语句。
以下为本申请的装置实施例,对于装置实施例中未详细描述的细节,请参考上述方法实施例中的相应介绍。
图6是本申请一个示例性实施例提供的对话生成装置的框图。该对话生成装置可以通过软件、硬件或者两者的结合实现成为人机对话系统的全部或一部分。该装置包括:接口模块620、获取模块640、编码模块660和解码模块680;
所述接口模块620,用于从对话客户端获取输入对话序列;
所述获取模块640,用于获取与所述输入对话序列相关的关联信息;
所述编码模块660,用于对所述输入对话序列进行编码,得到输入编码向量;
所述编码模块660,还用于所述编码器对所述关联信息进行编码,得到关联编码向量;
所述解码模块680,用于对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列,所述输出对话序列中包括有属于所述关联信息的集外词;
所述接口模块620,用于向所述对话客户端发送所述输出对话序列。
在一个可选的实施例中,所述解码模块680包括拷贝生成网络;
所述解码模块680,用于将所述输入编码向量、所述关联编码向量和前一时刻的解码信息输入所述拷贝生成网络进行解码处理,得到所述输出对话序列。
在一个可选的实施例中,所述解码模块680,用于在所述拷贝生成网络的当前解码时刻,根据所述输入编码向量确定预设词典中的各个词语的输入注意力分数;在所述拷贝生成网络的当前解码时刻,根据所述关联编码向量确定扩展词典中的各个词语的关联注意力分数;根据所述前一时刻的解码信息确定加权权重,根据所述加权权重将所述输入注意力分数和所述关联注意力分数进行加权求和,得到所述各个词语的总注意力分数;将所述总注意力分数最高的词语,确定为所述当前解码时刻的输出词;
其中,所述扩展词典是基于所述关联信息中的词语所构建的词典。
在一个可选的实施例中,所述关联信息包括事实性信息和/或观点性信息,所述关联编码向量包括:事实编码向量和观点编码向量;
所述解码模块680,用于根据所述事实编码向量确定第一扩展词典中的各个词语的事实注意力分数;
所述解码模块680,用于根据所述观点编码向量确定第二扩展词典中的各个词语的观点注意力分数;
其中,所述第一扩展词典是基于所述事实性信息中的词语所构建的词典,所述第二扩展词典是基于所述观点性信息中的词语所构建的词典。
在一个可选的实施例中,所述解码模块680,用于根据所述前一时刻的解码信息确定所述输入注意力分数对应的第一权重、所述关联注意力分数对应的第二权重和所述观点注意力分数对应的第三权重;将所述输入注意力分数和所述第一权重的乘积、所述关联注意力分数和所述第二权重的乘积、所述观点注意力分数和所述第三权重的乘积相加,得到所述各个词语的总注意力分数。
在一个可选的实施例中,所述解码模块680,用于当所述总注意力分数最高的词语属于所述预设词典时,从所述预设词典抽取所述词语作为所述当前解码时刻的输出词;当所述总注意力分数最高的词语属于所述扩展词典时,从所述扩展词典拷贝所述词语作为所述当前解码时刻的输出词。
图7示出了本申请一个实施例提供的计算机设备的结构示意图。该计算机设备可以是对话服务器,该对话服务器用于实施上述实施例中提供的对话生成方法。具体来讲:
所述计算机设备700包括中央处理单元(CPU)701、包括随机存取存储器(RAM)702和只读存储器(ROM)703的系统存储器704,以及连接系统存储器704和中央处理单元701的系统总线705。所述计算机设备700还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)706,和用于存储操作系统713、应用程序714和其它程序模块715的大容量存储设备707。
所述基本输入/输出系统706包括有用于显示信息的显示器708和用于用户输入信息的诸如鼠标、键盘之类的输入设备709。其中所述显示器708和输入设备709都通过连接到系统总线705的输入输出控制器710连接到中央处理单元701。所述基本输入/输出系统706还可以包括输入输出控制器710以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其它设备的输入。类似地,输入输出控制器710还提供输出到显示屏、打印机或其它类型的输出设备。
所述大容量存储设备707通过连接到系统总线705的大容量存储控制器(未示出)连接到中央处理单元701。所述大容量存储设备707及其相关联的计算机可读介质为计算机设备700提供非易失性存储。也就是说,所述大容量存储设备707可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其它固态存储其技术,CD-ROM、DVD或其它光学存储、磁带盒、磁带、磁盘存储或其它磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器704和大容量存储设备707可以统称为存储器。
根据本申请的各种实施例,所述计算机设备700还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备700可以通过连接在所述系统总线705上的网络接口单元711连接到网络712,或者说,也可以使用网络接口单元711来连接到其它类型的网络或远程计算机系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行。上述一个或者一个以上程序包含用于实现上述对话生成方法的指令。
本申请还提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述方法实施例提供的对话生成方法。
可选地,本申请还提供了一种包含指令的计算机程序产品,当其在电子设备上运行时,使得电子设备执行上述各个方法实施例所提供的对话生成方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (14)

1.一种对话生成方法,其特征在于,应用于人机对话系统中,所述方法包括:
从对话客户端获取输入对话序列;
获取与所述输入对话序列相关的关联信息;
调用编码器对所述输入对话序列进行编码,得到输入编码向量;
调用所述编码器对所述关联信息进行编码,得到关联编码向量;
调用解码器对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列,所述输出对话序列中包括有属于所述关联信息的集外词;
向所述对话客户端发送所述输出对话序列。
2.根据权利要求1所述的方法,其特征在于,所述解码器包括拷贝生成网络;
所述调用解码器对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列包括:
将所述输入编码向量、所述关联编码向量和前一时刻的解码信息输入所述拷贝生成网络进行解码处理,得到所述输出对话序列。
3.根据权利要求2所述的方法,其特征在于,所述将所述输入编码向量、所述关联编码向量和前一时刻的解码信息输入所述拷贝生成网络进行解码处理,得到所述输出对话序列,包括:
在所述拷贝生成网络的当前解码时刻,根据所述输入编码向量确定预设词典中的各个词语的输入注意力分数;
在所述拷贝生成网络的当前解码时刻,根据所述关联编码向量确定扩展词典中的各个词语的关联注意力分数;
根据所述前一时刻的解码信息确定加权权重,根据所述加权权重将所述输入注意力分数和所述关联注意力分数进行加权求和,得到所述各个词语的总注意力分数;
将所述总注意力分数最高的词语,确定为所述当前解码时刻的输出词;
其中,所述扩展词典是基于所述关联信息中的词语所构建的词典。
4.根据权利要求3所述的方法,其特征在于,所述关联信息包括事实性信息和/或观点性信息,所述关联编码向量包括:事实编码向量和观点编码向量;
所述根据所述关联编码向量确定扩展词典中的各个词语的关联注意力分数,包括:
根据所述事实编码向量确定第一扩展词典中的各个词语的事实注意力分数;
根据所述观点编码向量确定第二扩展词典中的各个词语的观点注意力分数;
其中,所述第一扩展词典是基于所述事实性信息中的词语所构建的词典,所述第二扩展词典是基于所述观点性信息中的词语所构建的词典。
5.根据权利要求4所述的方法,其特征在于,所述根据所述前一时刻的解码信息确定加权权重,根据所述加权权重将所述输入注意力分数和所述关联注意力分数进行加权求和,得到所述各个词语的总注意力分数,包括:
根据所述前一时刻的解码信息确定所述输入注意力分数对应的第一权重、所述关联注意力分数对应的第二权重和所述观点注意力分数对应的第三权重;
将所述输入注意力分数和所述第一权重的乘积、所述关联注意力分数和所述第二权重的乘积、所述观点注意力分数和所述第三权重的乘积相加,得到所述各个词语的总注意力分数。
6.根据权利要求3至5任一所述的方法,其特征在于,所述将所述总注意力分数最高的词语,确定为所述当前解码时刻的输出词,包括:
当所述总注意力分数最高的词语属于所述预设词典时,从所述预设词典抽取所述词语作为所述当前解码时刻的输出词;
当所述总注意力分数最高的词语属于所述扩展词典时,从所述扩展词典拷贝所述词语作为所述当前解码时刻的输出词。
7.一种对话生成装置,其特征在于,应用于人机对话系统中,所述装置包括:接口模块、获取模块、编码模块和解码模块;
所述接口模块,用于从对话客户端获取输入对话序列;
所述获取模块,用于获取与所述输入对话序列相关的关联信息;
所述编码模块,用于对所述输入对话序列进行编码,得到输入编码向量;
所述编码模块,还用于所述编码器对所述关联信息进行编码,得到关联编码向量;
所述解码模块,用于对所述输入编码向量和所述关联编码向量进行解码,得到输出对话序列,所述输出对话序列中包括有属于所述关联信息的集外词;
所述接口模块,用于向所述对话客户端发送所述输出对话序列。
8.根据权利要求7所述的装置,其特征在于,所述解码模块包括拷贝生成网络;
所述解码模块,用于将所述输入编码向量、所述关联编码向量和前一时刻的解码信息输入所述拷贝生成网络进行解码处理,得到所述输出对话序列。
9.根据权利要求8所述的装置,其特征在于,
所述解码模块,用于在所述拷贝生成网络的当前解码时刻,根据所述输入编码向量确定预设词典中的各个词语的输入注意力分数;在所述拷贝生成网络的当前解码时刻,根据所述关联编码向量确定扩展词典中的各个词语的关联注意力分数;根据所述前一时刻的解码信息确定加权权重,根据所述加权权重将所述输入注意力分数和所述关联注意力分数进行加权求和,得到所述各个词语的总注意力分数;将所述总注意力分数最高的词语,确定为所述当前解码时刻的输出词;
其中,所述扩展词典是基于所述关联信息中的词语所构建的词典。
10.根据权利要求9所述的装置,其特征在于,所述关联信息包括事实性信息和/或观点性信息,所述关联编码向量包括:事实编码向量和观点编码向量;
所述解码模块,用于根据所述事实编码向量确定第一扩展词典中的各个词语的事实注意力分数;
所述解码模块,用于根据所述观点编码向量确定第二扩展词典中的各个词语的观点注意力分数;
其中,所述第一扩展词典是基于所述事实性信息中的词语所构建的词典,所述第二扩展词典是基于所述观点性信息中的词语所构建的词典。
11.根据权利要求10所述的装置,其特征在于,
所述解码模块,用于根据所述前一时刻的解码信息确定所述输入注意力分数对应的第一权重、所述关联注意力分数对应的第二权重和所述观点注意力分数对应的第三权重;将所述输入注意力分数和所述第一权重的乘积、所述关联注意力分数和所述第二权重的乘积、所述观点注意力分数和所述第三权重的乘积相加,得到所述各个词语的总注意力分数。
12.根据权利要求9至11任一所述的装置,其特征在于,
所述解码模块,用于当所述总注意力分数最高的词语属于所述预设词典时,从所述预设词典抽取所述词语作为所述当前解码时刻的输出词;当所述总注意力分数最高的词语属于所述扩展词典时,从所述扩展词典拷贝所述词语作为所述当前解码时刻的输出词。
13.一种计算机设备,其特征在于,所述设备包括:处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述权利要求1至6任一所述的对话生成方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述权利要求1至6任一所述的对话生成方法。
CN201910069718.9A 2019-01-24 2019-01-24 对话生成方法、装置、设备及存储介质 Active CN110147435B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910069718.9A CN110147435B (zh) 2019-01-24 2019-01-24 对话生成方法、装置、设备及存储介质
JP2021517336A JP7194270B2 (ja) 2019-01-24 2020-01-21 対話生成方法と装置、コンピュータ機器及びプログラム
PCT/CN2020/073383 WO2020151689A1 (zh) 2019-01-24 2020-01-21 对话生成方法、装置、设备及存储介质
US17/346,197 US20210303606A1 (en) 2019-01-24 2021-06-11 Dialog generation method and apparatus, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910069718.9A CN110147435B (zh) 2019-01-24 2019-01-24 对话生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110147435A true CN110147435A (zh) 2019-08-20
CN110147435B CN110147435B (zh) 2023-08-22

Family

ID=67589572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910069718.9A Active CN110147435B (zh) 2019-01-24 2019-01-24 对话生成方法、装置、设备及存储介质

Country Status (4)

Country Link
US (1) US20210303606A1 (zh)
JP (1) JP7194270B2 (zh)
CN (1) CN110147435B (zh)
WO (1) WO2020151689A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728356A (zh) * 2019-09-17 2020-01-24 阿里巴巴集团控股有限公司 基于循环神经网络的对话方法、系统及电子设备
CN110851575A (zh) * 2019-09-23 2020-02-28 上海深芯智能科技有限公司 一种对话生成系统及对话实现方法
CN110990697A (zh) * 2019-11-28 2020-04-10 腾讯科技(深圳)有限公司 内容推荐方法、装置、设备和存储介质
CN111428015A (zh) * 2020-03-20 2020-07-17 腾讯科技(深圳)有限公司 一种信息生成方法、装置、设备及存储介质
WO2020151689A1 (zh) * 2019-01-24 2020-07-30 腾讯科技(深圳)有限公司 对话生成方法、装置、设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220036011A1 (en) * 2020-07-30 2022-02-03 InfoAuthN AI Inc. Systems and Methods for Explainable Fake News Detection
US11989528B2 (en) * 2020-12-30 2024-05-21 Direct Cursus Technology L.L.C Method and server for training a machine learning algorithm for executing translation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170372696A1 (en) * 2016-06-28 2017-12-28 Samsung Electronics Co., Ltd. Language processing method and apparatus
JP2018045531A (ja) * 2016-09-15 2018-03-22 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN109063174A (zh) * 2018-08-21 2018-12-21 腾讯科技(深圳)有限公司 查询答案的生成方法及装置、计算机存储介质、电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328283A (ja) 2006-06-09 2007-12-20 Kenwood Corp 対話装置、プログラム、及び対話方法
CN101075301A (zh) * 2007-06-28 2007-11-21 腾讯科技(深圳)有限公司 虚拟宠物系统和虚拟宠物聊天方法、装置
US9710463B2 (en) * 2012-12-06 2017-07-18 Raytheon Bbn Technologies Corp. Active error detection and resolution for linguistic translation
US9368114B2 (en) * 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9805718B2 (en) * 2013-04-19 2017-10-31 Sri Internaitonal Clarifying natural language input using targeted questions
CN107092588B (zh) * 2016-02-18 2022-09-09 腾讯科技(深圳)有限公司 一种文本信息处理方法、装置和系统
CN106257441B (zh) * 2016-06-30 2019-03-15 电子科技大学 一种基于词频的skip语言模型的训练方法
CN107632987B (zh) * 2016-07-19 2018-12-07 腾讯科技(深圳)有限公司 一种对话生成方法及装置
US20180137109A1 (en) * 2016-11-11 2018-05-17 The Charles Stark Draper Laboratory, Inc. Methodology for automatic multilingual speech recognition
GB2559618B (en) * 2017-02-13 2020-07-08 Toshiba Kk A dialogue system, a dialogue method and a method of adapting a dialogue system
US10474709B2 (en) * 2017-04-14 2019-11-12 Salesforce.Com, Inc. Deep reinforced model for abstractive summarization
CN108038105B (zh) * 2017-12-22 2020-06-05 中科鼎富(北京)科技发展有限公司 一种对未登录词生成仿真词向量的方法及装置
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
JP6884722B2 (ja) 2018-03-16 2021-06-09 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム
CN108829670A (zh) * 2018-06-01 2018-11-16 北京玄科技有限公司 基于单语义的未登录词处理方法、智能问答方法及装置
CN110147435B (zh) * 2019-01-24 2023-08-22 腾讯科技(深圳)有限公司 对话生成方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170372696A1 (en) * 2016-06-28 2017-12-28 Samsung Electronics Co., Ltd. Language processing method and apparatus
JP2018045531A (ja) * 2016-09-15 2018-03-22 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN109063174A (zh) * 2018-08-21 2018-12-21 腾讯科技(深圳)有限公司 查询答案的生成方法及装置、计算机存储介质、电子设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151689A1 (zh) * 2019-01-24 2020-07-30 腾讯科技(深圳)有限公司 对话生成方法、装置、设备及存储介质
CN110728356A (zh) * 2019-09-17 2020-01-24 阿里巴巴集团控股有限公司 基于循环神经网络的对话方法、系统及电子设备
CN110728356B (zh) * 2019-09-17 2023-08-04 创新先进技术有限公司 基于循环神经网络的对话方法、系统及电子设备
CN110851575A (zh) * 2019-09-23 2020-02-28 上海深芯智能科技有限公司 一种对话生成系统及对话实现方法
CN110990697A (zh) * 2019-11-28 2020-04-10 腾讯科技(深圳)有限公司 内容推荐方法、装置、设备和存储介质
CN111428015A (zh) * 2020-03-20 2020-07-17 腾讯科技(深圳)有限公司 一种信息生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110147435B (zh) 2023-08-22
JP2022503838A (ja) 2022-01-12
US20210303606A1 (en) 2021-09-30
WO2020151689A1 (zh) 2020-07-30
JP7194270B2 (ja) 2022-12-21

Similar Documents

Publication Publication Date Title
CN110147435A (zh) 对话生成方法、装置、设备及存储介质
CN108153913B (zh) 回复信息生成模型的训练方法、回复信息生成方法及装置
CN112349273B (zh) 基于说话人的语音合成方法、模型训练方法及相关设备
WO2022078146A1 (zh) 语音识别方法、装置、设备以及存储介质
CN111627418A (zh) 语音合成模型的训练方法、合成方法、系统、设备和介质
WO2022178969A1 (zh) 语音对话数据处理方法、装置、计算机设备及存储介质
KR20160077190A (ko) 자연 표현 처리 방법, 처리 및 응답 방법, 디바이스 및 시스템
JP5346327B2 (ja) 対話学習装置、要約装置、対話学習方法、要約方法、プログラム
CN112767917B (zh) 语音识别方法、装置及存储介质
CN116324792A (zh) 与通过从自然语言会话挖掘意图来进行机器人创作相关的系统和方法
CN112214591A (zh) 一种对话预测的方法及装置
CN112632244A (zh) 一种人机通话的优化方法、装置、计算机设备及存储介质
CN115309877A (zh) 对话生成方法、对话模型训练方法及装置
CN111767697B (zh) 文本处理方法、装置、计算机设备以及存储介质
CN112182161A (zh) 一种基于用户对话历史的个性化对话生成方法和系统
WO2023231513A1 (zh) 对话内容的生成方法及装置、存储介质、终端
CN117892237B (zh) 一种基于超图神经网络的多模态对话情绪识别方法及系统
CN110175338B (zh) 一种数据处理方法及装置
CN114974253A (zh) 一种基于人物画像的自然语言解释方法、装置及存储介质
CN114239607A (zh) 一种对话答复方法及装置
CN116306685A (zh) 一种面向电力业务场景的多意图识别方法及系统
CN116561284A (zh) 智能应答方法、装置、电子设备及介质
CN115310429A (zh) 一种多轮倾听对话模型中的数据压缩与高性能计算方法
CN115270719A (zh) 基于多模态信息的文本摘要生成方法、训练方法及其装置
CN111818290B (zh) 一种在线访谈的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant