CN110287297A - 对话答复方法、装置、计算机设备及计算机可读存储介质 - Google Patents
对话答复方法、装置、计算机设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110287297A CN110287297A CN201910430109.1A CN201910430109A CN110287297A CN 110287297 A CN110287297 A CN 110287297A CN 201910430109 A CN201910430109 A CN 201910430109A CN 110287297 A CN110287297 A CN 110287297A
- Authority
- CN
- China
- Prior art keywords
- content
- dialogue
- prediction
- replies
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 51
- 238000012986 modification Methods 0.000 claims abstract description 13
- 230000004048 modification Effects 0.000 claims abstract description 13
- 238000004590 computer program Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 206010034719 Personality change Diseases 0.000 claims description 2
- 210000004218 nerve net Anatomy 0.000 claims description 2
- 238000004891 communication Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明适用于人工智能技术领域,提供了一种对话答复方法、装置、计算机设备及可读存储介质。其中,方法包括:获取当前用户的聊天对象输入的聊天信息,聊天信息包括文字信息和/或语音信息;将文字信息和/或语音信息转化为文本信息;对文本信息中的句子进行语义理解,得到语义理解内容;根据语义理解内容确定场景类别信息;结合场景类别信息,基于神经网络对话预测模型对语义理解内容进行分析,并输出当前对话的预测答复内容;若识别到用户对预测答复内容进行了修改,则将用户对预测答复内容修改后的答复内容确定为用户针对聊天信息的对话答复;若识别到用户选择预测答复内容,则将预测答复内容确定为用户的对话答复,解决了通讯效率低的问题。
Description
技术领域
本发明属于人工智能技术领域,尤其涉及一种对话答复方法、装置、计算机设备及计算机可读存储介质。
背景技术
目前,随着互联网技术的提升,各种即时通讯工具应运而生,例如微信、QQ等即时通讯工具。用户之间通过此类聊天工具进行即时通讯主要是在对话框中手动输入文字作为对话回复内容,从很大程度上促进了人们互相之间的交流互动。
然而,在上述现有的即时通讯工具中,当用户选择采用文字方式进行通讯时,由于需要用户反复输入大量信息(文字和语音)文字内容,而没有智能提示答复的内容,从而导致整个聊天过程的效率较低。因此,现有的即时通讯工具存在通讯效率低的问题。
发明内容
本发明实施例提供了一种对话答复方法、装置、计算机设备及计算机可读存储介质,以解决现有的即时通讯工具存在通讯效率低的问题。
本发明实施例的第一方面提供了一种对话答复方法,包括:
获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;
将所述文字信息和/或语音信息转化为文本信息;
对所述文本信息中的句子进行语义理解,得到语义理解内容;
根据所述语义理解内容确定场景类别信息;
结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;
若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;
若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
本发明实施例的第二方面提供了一种对话答复装置,包括:
获取模块,用于获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;
转化模块,用于将所述文字信息和/或语音信息转化为文本信息;
语义理解模块,用于对所述文本信息中的句子进行语义理解,得到语义理解内容;
确定模块,用于根据所述语义理解内容确定场景类别信息;
分析模块,用于结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;
第一答复模块,用于若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;
第二答复模块,用于若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
本发明实施例的第三方面提供了一种计算机设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;
将所述文字信息和/或语音信息转化为文本信息;
对所述文本信息中的句子进行语义理解,得到语义理解内容;
根据所述语义理解内容确定场景类别信息;
结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;
若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;
若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;
将所述文字信息和/或语音信息转化为文本信息;
对所述文本信息中的句子进行语义理解,得到语义理解内容;
根据所述语义理解内容确定场景类别信息;
结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;
若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;
若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
本发明实施例,通过获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;将所述文字信息和/或语音信息转化为文本信息;对所述文本信息中的句子进行语义理解,得到语义理解内容;根据所述语义理解内容确定场景类别信息;结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。本发明实施例中的神经网络对话预测模型是基于每个用户的对话习惯和内容的个性化的模型,用户在使用过程中只需点选推荐的文字内容,或者进行稍加修改即可发送出去,这样可以非常便捷地沟通,省去了大量输入文字的时间,提高了通讯的效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中对话答复方法的一应用环境示意图;
图2是本发明实施例一提供的对话答复方法的实现流程示意图;
图3是本发明实施例二提供的对话答复装置的示意图;
图4是本发明实施例提供的对话答复装置中确定模块的示意图;
图5是本发明实施例提供的对话答复装置中分析模块的示意图;
图6是本发明实施例提供的对话答复装置的另一个示意图;
图7是本发明实施例提供的对话答复装置中参数更新模块的示意图;
图8是本发明实施例三提供的计算机设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明实施例提供的对话答复方法可应用在如图1的应用环境中,其中,客户端通过网络与服务器进行通信。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
为了说明本发明实施例所提供的对话答复方法,下面通过具体实施例来进行说明。
实施例一:
图2示出了本发明实施例一提供的对话答复方法的实现流程示意图。如图2所示,该对话答复方法具体包括如下步骤101至步骤107,详述如下:
步骤101:获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息。
其中,所述用户是本实施例中需要协助其进行对话回复的用户,例如该用户正在使用聊天工具与聊天对象进行聊天,所述聊天工具包括但不限于微信、短信、QQ等聊天软件。需要说明的是,上述聊天软件安装在客户端。
需要说明的是,所述聊天可以为一对一聊天,群聊,或者其他形式的聊天,在此不作限制。可以理解的是,所述聊天信息一般为文字信息,还可以为语音信息,进一步地,所述聊天信息还包括表情符号和/或图片。
其中,可以通过终端设备获取所述用户与聊天对象最近的聊天信息,一般地,所述聊天信息为与所述用户进行聊天的聊天对象输入的消息。当聊天的形式为群聊时,可以将与多个聊天对象的聊天分割为多个一对一的聊天。例如,所述用户在一个群聊人数为3个人的群里面聊天,则可以将所述用户与两个聊天对象的聊天信息分割为所述用户与两个聊天对象中的一个聊天对象一对一的聊天信息,以及所述用户与两个聊天对象中的另一个聊天对象一对一的聊天信息。
步骤102:将所述文字信息和/或语音信息转化为文本信息。
其中,语义理解内容可以为通过自然语言理解(Natural Language Understand,NLU)技术对该文本信息进行处理后得到的内容。该自然语言理解技术可以通过对用户输入的文本信息进行切词、词性标注和命名实体识别等处理,以获取对应的语义理解内容。该切词处理指将文本信息的汉字序列切分成词序列。在本实施例中,可以根据通用电子词典对语句文本进行切分,保证分出的词语都是正常词汇,如词语不在电子词典内则分出单字。当前后方向都可以成词时,例如“要求神”,会根据统计词频的大小划分,如“要求”词频高则分出“要求/神”,如“求神”词频高则分出“要/求神”。在分出每个分词后,还可以考虑二元组合词,则将邻近的词进行两两组合,例如,增加“庆祝大会”,“大会顺利”,“顺利闭幕”等二元组合词语。优选地,还可以再根据词频对这些二元组合词进行筛选。具体地,预先设置一个筛选的频率阈值,获取各个二元组合词出现的频率,若某个二元组合词出现的频率大于或等于该频率阈值,则保留该二元组合词,若某个二元组合词出现的频率小于该频率阈值,则剔除掉该二元组合词,也即将其视为两个独立的一元词。若我们设定的频率阈值为8,则剔除所有出现次数在8以下的二元组合词。该词性标注指标注文本信息中词的词性,以确定其在对话上下文中的作用。该命名实体识别指在文本信息中识别用于定位并识别人名、地名、机构名、数字和日期等实体的过程。
步骤103:对所述文本信息中的句子进行语义理解,得到语义理解内容。
步骤104:根据所述语义理解内容确定场景类别信息。
其中,步骤104具体包括步骤201、步骤202和步骤203,详述如下:
步骤201:识别所述语义理解内容并提取相应的场景关键词作为语义标签。
对于步骤201,其中,语义标签用于标识场景类别信息所指示的对话的场景类别。语义理解内容中的语义标签可以为TAG标签,即该语义标签可以为概括语义理解内容的主要内容的关键词,该语义标签的类型可以包括:标题标签、描述标签和关键词标签等。
可选地,识别所述语义理解内容中的语义标签的实现方式可以有多种,本发明实施例以如下三种可实现方式为例对其进行说明:
作为识别所述语义理解内容中的语义标签的第一种可实现方式,可以采用分类器识别语义理解内容中的语义标签。
可以将语义理解内容或者根据语义理解内容获取的特征输入至分类器,分类器对输入的信息进行分析后,可将多个预设标签中的一个确定为该输入的信息对应的语义标签,以得到该语义理解内容的语义标签。其中,该分类器可以为但不限于如下分类器:朴素贝叶斯分类器、神经网络分类器和支持向量机分类器。该多个预设标签可以为在分类器训练过程中确定的标签。
示例地,假设分类器中预设标签为“工作”、“学习”、“运动”和“娱乐”,通过向分类器输入“我最近在×××健身房打卡”的聊天信息的语义理解内容,分类器对语义理解内容进行分析后,可将运动的标签确定为该语义理解内容的语义标签。
作为识别所述语义理解内容中的语义标签的第二种可实现方式,可以采用推荐系统识别语义理解内容中的语义标签。
推荐系统可以获取用户输入的历史聊天信息,并根据该历史对话信息分析用户特点,并建立用户特点与语义标签的对应关系。在识别该语义理解内容的语义标签时,推荐系统可以根据输入的语义理解内容确定用户特点,并根据用户特点与语义标签的对应关系确定该语义理解内容的语义标签。其中,该推荐系统可以为:基于内容的推荐系统或基于协同过滤的推荐系统等。
作为识别语义理解内容中的语义标签的第三种可实现方式,可以根据预设的规则集合识别语义理解内容的语义标签。可选地,该规则集合可以表示为:若语义理解内容中包括词A1,则语义理解内容的语义标签为B1;若语义理解内容中包括词A2,则语义理解内容的语义标签为B2;若语义理解内容中包括词A3,则语义理解内容的语义标签为B3。例如:若语义理解内容中包括“冷战”,则语义理解内容的语义标签可以为生气;若语义理解内容中包括“约会”,则语义理解内容的语义标签可以为幸福。需要说明的是,该规则集合的示例仅用于示意性的说明,实际的规则集合不限于此。
步骤202:将所述语义标签与场景类别信息集合进行匹配,确定聊天所在的场景类别信息。
对于步骤202,其中,场景类别信息集合中记载有多个场景类别信息与语义标签的对应关系,根据语义标签查询该场景类别信息集合,可以得到该语义标签对应的场景类别信息。
步骤203:若根据所述文本信息的上下文确定语义标签改变,则更新聊天所在的场景类别信息对应的场景类别向量。
其中,每个场景类别信息可以由场景类别向量表征,每个场景类别向量用于表征对应场景类别信息与其他场景类别信息的关联关系,且场景类别信息与用于表征该场类别景信息的场景向量为一一对应关系。当聊天所在的场景类别信息发生变化时,更新场景类别向量即可,提高了更新的效率。
步骤105:结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容。
其中,结合步骤104确定的场景类别信息,根据该场景类别信息,基于预先训练好的神经网络对话预测模型对步骤103中的语义理解内容进行分析,输出当前对话的预测答复内容。需要说明的是,该预测答复内容可能完全符合用户原本想输入的回复内容,也可能存在相应的偏差。
可选地,步骤105具体包括步骤301、步骤302和步骤303,详述如下:
步骤301:将所述语义理解内容和所述场景类别信息输入神经网络对话预测模型,得到多个预测答复内容,并计算所述多个预测答复内容对应的输出概率。
例如,将所述语义理解内容和所述场景类别信息输入神经网络对话预测模型,得到多个预测答复内容D1、D2、D3、……、D20,分别计算预测答复内容对应的输出概率P1、P2、P3、……、P20。
步骤302:对所述多个预测答复内容的输出概率进行排序,获取概率值在前N位的预测答复内容,所述N为大于零的整数。
承接上例,输出概率P1、P2、P3、……、P20的大小按照从大到小或者从小到大进行排序,获取概率值在前N(例如,N=5)位的预测答复内容。
步骤303:输出所述前N位的预测答复内容。
承接上例,输出前5位的预测答复内容,作为用户对聊天信息的可能的对话回复。
步骤106:若识别到用户对预测答复内容进行了修改,则执行步骤107,若识别到用户选择所述预测答复内容,则执行步骤108。
步骤107:将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复。
步骤108:将所述预测答复内容确定为用户的对话答复。
对于步骤106、步骤107和步骤108,例如,神经网络对话预测模型输出和展示的为“abcde””、“abcdf”和“abcdg”,若用户选择了“abcde”,则直接将“abcde”作为对话答复的内容。若用户选择了“abcdg”,并将“abcdg”调整为“abcdG”,则将“abcdG”修改后的答复内容确定为用户针对所述当前对话的对话答复。
本发明实施例,通过获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;将所述文字信息和/或语音信息转化为文本信息;对所述文本信息中的句子进行语义理解,得到语义理解内容;根据所述语义理解内容确定场景类别信息;结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。本发明实施例中的神经网络对话预测模型是基于每个用户的对话习惯和内容的个性化的模型,用户在使用过程中只需点选推荐的文字内容,或者进行稍加修改即可发送出去,这样可以非常便捷地沟通,省去了大量输入文字的时间,提高了通讯的效率。
作为本发明的一个实施例,在步骤104之前,还可包括步骤401、步骤402、步骤403和步骤404,详述如下:
步骤401:获取模拟用户的对话样本。
具体地,步骤401可包括:
501、获取模拟用户给出的特定目标;所述特定目标包括有本次对话的主题和本次对话的测试标准。
其中,每次对话样本对应的对话的主题只有一个,
502、判断对话是否属于第一轮对话;若属于第一轮对话,则执行步骤503;若不属于第一轮对话,则执行步骤504。
503、获取模拟用户根据特定目标随机给出的对话动作。
504、获取当前对话状态。
505、生成对话样本。
其中,将获取的当前对话状态作为当前对话样本。
506、收集对话样本。
在本实施例中,将对话样本收集整理,使得各个对话样本分开管理,避免混杂。
步骤402:理解所述对话样本的语义信息。
其中,语义理解的实现过程与步骤103的过程相同,在此不再赘述。
步骤403:获取模拟用户的个性化属性信息,将所述语义信息与个性化属性信息组合得到组合信息,并生成与所述组合信息对应的个性化属性向量。
对于步骤403,个性化属性信息包括但不限于所述用户的对话习惯和用语习惯。本步骤中以个性化属性向量的形式表征组合信息,将多样的组合信息向量化,便于后续相关模型的训练。
步骤404:将所述对话样本和所述个性化属性向量输入到神经网络对话预测初始模型中,输出相应的对话策略,基于所述对话策略的达标情况来更新迭代以优化神经网络对话预测初始模型的参数,直至达到预定对话训练结果并得到所述神经网络对话预测模型。
作为本发明的一个实施例,步骤404具体包括步骤601、步骤602、步骤603、步骤604和步骤605,详述如下:
步骤601:制定奖赏函数,并初始化神经网络对话预测初始模型的参数。
步骤602:将所述对话样本中的对话动作、对话状态以及个性化属性向量输入到神经网络对话预测初始模型中,经过运算后的对话策略作为待拟合的输出。
步骤603:根据所述奖赏函数判断所述对话策略对于对话样本的贡献指数,输出与所述贡献指数对应的奖赏值。
在步骤603中,所述奖赏函数的判断过程是当每一轮对话中,若控制器给出的动作符合了模拟用户的目标,给出正奖励,若给出的动作不符合用户的要求,给出负奖励,也就是惩罚,然后控制器将输出的奖赏值结合每次对话的对话策略组成批量式拟合目标进行训练,继而更新神经网络对话预测模型参数;当奖赏函数给出奖赏值后,控制器使用如下的公式来对参数进行更新,其中θ表示需要更新的参数,表示在t时刻对应的策略,μt表示t时刻对应策略的奖励,从而将神经网络对话预测模型中的参数迭代更新。
步骤604:将所述奖赏值结合每次对话的对话策略组成批量式拟合目标进行训练,以更新神经网络对话预测初始模型的参数。
步骤605:将更新后的参数对应的迭代结果与预设目标进行对比,判断迭代结果是否符合预设目标;若是,则完成神经网络对话预测初始模型的参数的迭代更新得到所述神经网络对话预测模型。
对于步骤604和步骤605,该神经网络对话预测模型的操作过程为:该神经网络对话预测模型的目标函数为:πθ)=∑τP(τ;θ)R(τ),其中,τ={s0,u0,s1,u1,...,sH,uH},为一组状态与行为序列; 为序列τ的奖励之和;P(τ;θ),为序列τ出现的概率;∑τP(τ;θ)R(τ)为同时拥有多组路径则取均值。本实施例的目的在于找到最优参数θ,使得maxU(θ)=max∑τP(τ;θ)R(τ),寻找最优参数θ的过程就是在寻找最优策略或者说最优路径,上述寻找最优参数的过程本质是一个优化问题,解决的方法为梯度下降法,关键在于计算目标函数的梯度,并根据梯度来调整更新神经网络对话预测初始模型的参数,当路径最优时,则表明完成神经网络对话预测初始模型的参数的迭代更新,得到所述神经网络对话预测模型。应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例二:
请参考图3,其示出了本发明实施例二提供的对话答复装置30的示意图。所述对话答复装置30,包括:获取模块31,转化模块32,语义理解模块33、确定模块34、分析模块35、第一答复模块36和第二答复模块37。其中,各模块的具体功能如下:
获取模块31,用于获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息。
转化模块32,用于将所述文字信息和/或语音信息转化为文本信息。
语义理解模块33,用于对所述文本信息中的句子进行语义理解,得到语义理解内容。
确定模块34,用于根据所述语义理解内容确定场景类别信息。
分析模块35,用于结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容。
第一答复模块36,用于若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复。
第二答复模块37,用于若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
可选地,如图4所示,确定模块34包括:
识别单元341,用于识别所述语义理解内容并提取相应的场景关键词作为语义标签。
确定单元342,用于将所述语义标签与场景类别信息集合进行匹配,确定聊天所在的场景类别信息。
更新单元343,用于若根据所述文本信息的上下文确定语义标签改变,则更新聊天所在的场景类别信息对应的场景类别向量。
可选地,如图5所示,所述分析模块35包括:
输入单元351,用于将所述语义理解内容和所述场景类别信息输入神经网络对话预测模型,得到多个预测答复内容,并计算所述多个预测答复内容对应的输出概率。
获取单元352,用于对所述多个预测答复内容的输出概率进行排序,获取概率值在前N位的预测答复内容,所述N为大于零的整数。
输出单元353,用于输出所述前N位的预测答复内容。
可选地,如图6所示,对话答复装置30还包括:
对话样本获取模块38,用于获取模拟用户的对话样本。
理解模块39,用于理解所述对话样本的语义信息。
信息获取模块310,用于获取模拟用户的个性化属性信息,将所述语义信息与个性化属性信息组合得到组合信息,并生成与所述组合信息对应的个性化属性向量。
参数更新模块311,用于将所述对话样本和所述个性化属性向量输入到神经网络对话预测初始模型中,输出相应的对话策略,基于所述对话策略的达标情况来更新迭代以优化神经网络对话预测初始模型的参数,直至达到预定对话训练结果并得到所述神经网络对话预测模型。
可选地,如图7所示,参数更新模块311包括:
初始化单元3111,用于制定奖赏函数,并初始化神经网络对话预测初始模型的参数。
运算单元3112,用于将所述对话样本中的对话动作、对话状态以及个性化属性向量输入到神经网络对话预测初始模型中,经过运算后的对话策略作为待拟合的输出。
判断单元3113,用于根据所述奖赏函数判断所述对话策略对于对话样本的贡献指数,输出与所述贡献指数对应的奖赏值。
更新单元3114,用于将所述奖赏值结合每次对话的对话策略组成批量式拟合目标进行训练,以更新神经网络对话预测初始模型的参数。
参数确定单元31115,用于将更新后的参数对应的迭代结果与预设目标进行对比,判断迭代结果是否符合预设目标;若是,则完成神经网络对话预测初始模型的参数的迭代更新得到所述神经网络对话预测模型。
关于对话答复装置的具体限定可以参见上文中对于对话答复方法的限定,在此不再赘述。上述对话答复装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
实施例三:
在本实施例中,提供了一种计算机设备,该计算机设备可以是客户端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储对话答复方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种对话答复方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中对话答复方法的步骤,例如图2所示的步骤101至步骤107。或者,处理器执行计算机程序时实现上述实施例中对话答复装置的各模块/单元的功能,例如图3所示模块31至模块37的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中对话答复方法的步骤,例如图2所示的步骤101至步骤107。或者,计算机程序被处理器执行时实现上述实施例中对话答复装置的各模块/单元的功能,例如图3所示模块31至模块37的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(SyNchliNk)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种对话答复方法,其特征在于,包括:
获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;
将所述文字信息和/或语音信息转化为文本信息;
对所述文本信息中的句子进行语义理解,得到语义理解内容;
根据所述语义理解内容确定场景类别信息;
结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;
若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;
若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
2.根据权利要求1所述的对话答复方法,其特征在于,所述根据所述语义理解内容确定场景类别信息包括:
识别所述语义理解内容并提取相应的场景关键词作为语义标签;
将所述语义标签与场景类别信息集合进行匹配,确定聊天所在的场景类别信息;
若根据所述文本信息的上下文确定语义标签改变,则更新聊天所在的场景类别信息对应的场景类别向量。
3.根据权利要求1所述的对话答复方法,其特征在于,所述结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容包括:
将所述语义理解内容和所述场景类别信息输入神经网络对话预测模型,得到多个预测答复内容,并计算所述多个预测答复内容对应的输出概率;
对所述多个预测答复内容的输出概率进行排序,获取概率值在前N位的预测答复内容,所述N为大于零的整数;
输出所述前N位的预测答复内容。
4.根据权利要求1所述的对话答复方法,其特征在于,在所述根据所述语义理解内容确定场景类别信息之前,还包括根据如下步骤:
获取模拟用户的对话样本;
理解所述对话样本的语义信息;
获取模拟用户的个性化属性信息,将所述语义信息与个性化属性信息组合得到组合信息,并生成与所述组合信息对应的个性化属性向量;
将所述对话样本和所述个性化属性向量输入到神经网络对话预测初始模型中,输出相应的对话策略,基于所述对话策略的达标情况来更新迭代以优化神经网络对话预测初始模型的参数,直至达到预定对话训练结果并得到所述神经网络对话预测模型。
5.根据权利要求4所述的对话答复方法,其特征在于,所述将所述对话样本和所述个性化属性向量输入到神经网络对话预测初始模型中,输出相应的对话策略,基于所述对话策略的达标情况来更新迭代以优化神经网络对话预测初始模型的参数,直至达到预定对话训练结果并得到所述神经网络对话预测模型包括:
制定奖赏函数,并初始化神经网络对话预测初始模型的参数;
将所述对话样本中的对话动作、对话状态以及个性化属性向量输入到神经网络对话预测初始模型中,经过运算后的对话策略作为待拟合的输出;
根据所述奖赏函数判断所述对话策略对于对话样本的贡献指数,输出与所述贡献指数对应的奖赏值;
将所述奖赏值结合每次对话的对话策略组成批量式拟合目标进行训练,以更新神经网络对话预测初始模型的参数;
将更新后的参数对应的迭代结果与预设目标进行对比,判断迭代结果是否符合预设目标;若是,则完成神经网络对话预测初始模型的参数的迭代更新得到所述神经网络对话预测模型。
6.一种对话答复装置,其特征在于,包括:
获取模块,用于获取当前用户的聊天对象输入的聊天信息,所述聊天信息包括文字信息和/或语音信息;
转化模块,用于将所述文字信息和/或语音信息转化为文本信息;
语义理解模块,用于对所述文本信息中的句子进行语义理解,得到语义理解内容;
确定模块,用于根据所述语义理解内容确定场景类别信息;
分析模块,用于结合所述场景类别信息,基于神经网络对话预测模型对所述语义理解内容进行分析,并输出当前对话的预测答复内容;
第一答复模块,用于若识别到用户对预测答复内容进行了修改,则将用户对所述预测答复内容修改后的答复内容确定为用户针对所述聊天信息的对话答复;
第二答复模块,用于若识别到用户选择所述预测答复内容,则将所述预测答复内容确定为用户的对话答复。
7.根据权利要求6所述的对话答复装置,其特征在于,所述确定模块包括:
识别单元,用于识别所述语义理解内容并提取相应的场景关键词作为语义标签;
确定单元,用于将所述语义标签与场景类别信息集合进行匹配,确定聊天所在的场景类别信息;
更新单元,用于若根据所述文本信息的上下文确定语义标签改变,则更新聊天所在的场景类别信息对应的场景类别向量。
8.根据权利要求6所述的对话答复装置,其特征在于,所述分析模块包括:
输入单元,用于将所述语义理解内容和所述场景类别信息输入神经网络对话预测模型,得到多个预测答复内容,并计算所述多个预测答复内容对应的输出概率;
获取单元,用于对所述多个预测答复内容的输出概率进行排序,获取概率值在前N位的预测答复内容,所述N为大于零的整数;
输出单元,用于输出所述前N位的预测答复内容。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910430109.1A CN110287297A (zh) | 2019-05-22 | 2019-05-22 | 对话答复方法、装置、计算机设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910430109.1A CN110287297A (zh) | 2019-05-22 | 2019-05-22 | 对话答复方法、装置、计算机设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110287297A true CN110287297A (zh) | 2019-09-27 |
Family
ID=68002234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910430109.1A Pending CN110287297A (zh) | 2019-05-22 | 2019-05-22 | 对话答复方法、装置、计算机设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110287297A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110931012A (zh) * | 2019-10-12 | 2020-03-27 | 深圳壹账通智能科技有限公司 | 答复消息生成方法、装置、计算机设备和存储介质 |
CN111385188A (zh) * | 2019-11-22 | 2020-07-07 | 百度在线网络技术(北京)有限公司 | 对话元素的推荐方法、装置、电子设备和介质 |
CN111475616A (zh) * | 2020-03-13 | 2020-07-31 | 平安科技(深圳)有限公司 | 基于对话状态预测的多轮对话方法、装置和计算机设备 |
CN111782792A (zh) * | 2020-08-05 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 用于信息处理的方法和装置 |
CN112102070A (zh) * | 2020-09-22 | 2020-12-18 | 支付宝(杭州)信息技术有限公司 | 风险测评方法及装置 |
CN112328849A (zh) * | 2020-11-02 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 用户画像的构建方法、基于用户画像的对话方法及装置 |
CN112783324A (zh) * | 2021-01-14 | 2021-05-11 | 科大讯飞股份有限公司 | 人机交互方法及设备、计算机存储介质 |
CN113420542A (zh) * | 2021-06-23 | 2021-09-21 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN113569572A (zh) * | 2021-02-09 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 文本实体生成方法、模型训练方法及装置 |
CN113688220A (zh) * | 2021-09-02 | 2021-11-23 | 国家电网有限公司客户服务中心 | 一种基于语义理解的文本机器人对话方法及系统 |
CN114661882A (zh) * | 2022-03-30 | 2022-06-24 | 浪潮通用软件有限公司 | 一种机器人聊天管理方法、设备及介质 |
CN114678029A (zh) * | 2022-05-27 | 2022-06-28 | 深圳市人马互动科技有限公司 | 语音处理方法、系统、计算机可读存储介质及程序产品 |
CN115712706A (zh) * | 2022-11-07 | 2023-02-24 | 贝壳找房(北京)科技有限公司 | 一种基于会话确定动作决策的方法及装置 |
CN117196035A (zh) * | 2023-08-31 | 2023-12-08 | 摩尔线程智能科技(北京)有限责任公司 | 回复内容的处理方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951219A (zh) * | 2014-03-25 | 2015-09-30 | 华为技术有限公司 | 一种移动终端文本输入的方法及移动终端 |
CN106297801A (zh) * | 2016-08-16 | 2017-01-04 | 北京云知声信息技术有限公司 | 语音处理方法及装置 |
US20170180276A1 (en) * | 2015-12-21 | 2017-06-22 | Google Inc. | Automatic suggestions and other content for messaging applications |
CN108021572A (zh) * | 2016-11-02 | 2018-05-11 | 腾讯科技(深圳)有限公司 | 回复信息推荐方法和装置 |
CN108874967A (zh) * | 2018-06-07 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 对话状态确定方法及装置、对话系统、终端、存储介质 |
-
2019
- 2019-05-22 CN CN201910430109.1A patent/CN110287297A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951219A (zh) * | 2014-03-25 | 2015-09-30 | 华为技术有限公司 | 一种移动终端文本输入的方法及移动终端 |
US20170180276A1 (en) * | 2015-12-21 | 2017-06-22 | Google Inc. | Automatic suggestions and other content for messaging applications |
CN106297801A (zh) * | 2016-08-16 | 2017-01-04 | 北京云知声信息技术有限公司 | 语音处理方法及装置 |
CN108021572A (zh) * | 2016-11-02 | 2018-05-11 | 腾讯科技(深圳)有限公司 | 回复信息推荐方法和装置 |
CN108874967A (zh) * | 2018-06-07 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 对话状态确定方法及装置、对话系统、终端、存储介质 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110931012A (zh) * | 2019-10-12 | 2020-03-27 | 深圳壹账通智能科技有限公司 | 答复消息生成方法、装置、计算机设备和存储介质 |
CN111385188A (zh) * | 2019-11-22 | 2020-07-07 | 百度在线网络技术(北京)有限公司 | 对话元素的推荐方法、装置、电子设备和介质 |
CN111475616B (zh) * | 2020-03-13 | 2023-08-22 | 平安科技(深圳)有限公司 | 基于对话状态预测的多轮对话方法、装置和计算机设备 |
CN111475616A (zh) * | 2020-03-13 | 2020-07-31 | 平安科技(深圳)有限公司 | 基于对话状态预测的多轮对话方法、装置和计算机设备 |
CN111782792A (zh) * | 2020-08-05 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 用于信息处理的方法和装置 |
CN112102070A (zh) * | 2020-09-22 | 2020-12-18 | 支付宝(杭州)信息技术有限公司 | 风险测评方法及装置 |
CN112328849A (zh) * | 2020-11-02 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 用户画像的构建方法、基于用户画像的对话方法及装置 |
CN112328849B (zh) * | 2020-11-02 | 2024-05-07 | 腾讯科技(深圳)有限公司 | 用户画像的构建方法、基于用户画像的对话方法及装置 |
CN112783324A (zh) * | 2021-01-14 | 2021-05-11 | 科大讯飞股份有限公司 | 人机交互方法及设备、计算机存储介质 |
CN112783324B (zh) * | 2021-01-14 | 2023-12-01 | 科大讯飞股份有限公司 | 人机交互方法及设备、计算机存储介质 |
CN113569572A (zh) * | 2021-02-09 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 文本实体生成方法、模型训练方法及装置 |
CN113569572B (zh) * | 2021-02-09 | 2024-05-24 | 腾讯科技(深圳)有限公司 | 文本实体生成方法、模型训练方法及装置 |
CN113420542A (zh) * | 2021-06-23 | 2021-09-21 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN113420542B (zh) * | 2021-06-23 | 2023-04-18 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN113688220A (zh) * | 2021-09-02 | 2021-11-23 | 国家电网有限公司客户服务中心 | 一种基于语义理解的文本机器人对话方法及系统 |
CN114661882A (zh) * | 2022-03-30 | 2022-06-24 | 浪潮通用软件有限公司 | 一种机器人聊天管理方法、设备及介质 |
CN114678029A (zh) * | 2022-05-27 | 2022-06-28 | 深圳市人马互动科技有限公司 | 语音处理方法、系统、计算机可读存储介质及程序产品 |
CN114678029B (zh) * | 2022-05-27 | 2022-09-02 | 深圳市人马互动科技有限公司 | 语音处理方法、系统、计算机可读存储介质及程序产品 |
CN115712706A (zh) * | 2022-11-07 | 2023-02-24 | 贝壳找房(北京)科技有限公司 | 一种基于会话确定动作决策的方法及装置 |
CN115712706B (zh) * | 2022-11-07 | 2023-09-15 | 贝壳找房(北京)科技有限公司 | 一种基于会话确定动作决策的方法及装置 |
CN117196035A (zh) * | 2023-08-31 | 2023-12-08 | 摩尔线程智能科技(北京)有限责任公司 | 回复内容的处理方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287297A (zh) | 对话答复方法、装置、计算机设备及计算机可读存储介质 | |
CN110334201B (zh) | 一种意图识别方法、装置及系统 | |
CN110046221B (zh) | 一种机器对话方法、装置、计算机设备及存储介质 | |
CN106407178B (zh) | 一种会话摘要生成方法、装置、服务器设备以及终端设备 | |
CN109829039B (zh) | 智能聊天方法、装置、计算机设备及存储介质 | |
CN110717514A (zh) | 会话意图识别方法、装置、计算机设备和存储介质 | |
CN112492111B (zh) | 一种智能语音外呼方法、装置、计算机设备和存储介质 | |
CN112036154B (zh) | 基于问诊对话的电子病历生成方法、装置和计算机设备 | |
CN110674639A (zh) | 一种基于预训练模型的自然语言理解方法 | |
CN109446302A (zh) | 基于机器学习的问答数据处理方法、装置和计算机设备 | |
CN113127624B (zh) | 问答模型的训练方法及装置 | |
CN111222305A (zh) | 一种信息结构化方法和装置 | |
CN111382361A (zh) | 信息推送方法、装置、存储介质和计算机设备 | |
CN113297366B (zh) | 多轮对话的情绪识别模型训练方法、装置、设备及介质 | |
CN109977394A (zh) | 文本模型训练方法、文本分析方法、装置、设备及介质 | |
Windiatmoko et al. | Developing facebook chatbot based on deep learning using rasa framework for university enquiries | |
CN116049360A (zh) | 基于客户画像的智能语音对话场景话术干预方法及系统 | |
Windiatmoko et al. | Developing FB chatbot based on deep learning using RASA framework for university enquiries | |
CN113590078A (zh) | 虚拟形象合成方法、装置、计算设备及存储介质 | |
CN112632252A (zh) | 对话应答方法、装置、计算机设备和存储介质 | |
CN112183106A (zh) | 一种基于音素联想及深度学习的语义理解方法及装置 | |
CN113627194B (zh) | 信息抽取方法及装置、通信消息分类方法及装置 | |
Ali et al. | K-means clustering to improve the accuracy of decision tree response classification | |
Chopde et al. | Chatbot using deep learning | |
CN114969544A (zh) | 基于热点数据的推荐内容生成方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |