CN110516053A - 对话处理方法、设备及计算机存储介质 - Google Patents

对话处理方法、设备及计算机存储介质 Download PDF

Info

Publication number
CN110516053A
CN110516053A CN201910752180.1A CN201910752180A CN110516053A CN 110516053 A CN110516053 A CN 110516053A CN 201910752180 A CN201910752180 A CN 201910752180A CN 110516053 A CN110516053 A CN 110516053A
Authority
CN
China
Prior art keywords
vector
query text
text
descriptor
obtains
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910752180.1A
Other languages
English (en)
Other versions
CN110516053B (zh
Inventor
祝文博
雷欣
李志飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Go Out And Ask (wuhan) Information Technology Co Ltd
Original Assignee
Go Out And Ask (wuhan) Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Go Out And Ask (wuhan) Information Technology Co Ltd filed Critical Go Out And Ask (wuhan) Information Technology Co Ltd
Priority to CN201910752180.1A priority Critical patent/CN110516053B/zh
Publication of CN110516053A publication Critical patent/CN110516053A/zh
Application granted granted Critical
Publication of CN110516053B publication Critical patent/CN110516053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种对话处理方法、设备及计算机存储介质,包括:获得查询文本;对所述查询文本进行主题分析,得到主题词;分别对所述查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;融合所述查询文本向量和主题词向量,获得融合向量;将所述融合向量进行转换,得到对应所述查询文本的应答文本,应用本发明实施例对话处理方法,能够减少对话生成中产生的通用性回复。

Description

对话处理方法、设备及计算机存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对话处理方法、设备及计算机存储介质。
背景技术
对话生成技术作为人工智能的重要发展方向得到了广泛的关注和应用。目前主流的方法包括两种:检索式和自然语言生成。检索式的方法是通过用户输入的句子在语料中进行检索,找到一些相关的回复,对应语料中没有相关的句子时则无法回复用户。使用自然语言生成的方式使用的是端到端(end2end)的框架,最常用的为序列到序列(seq2seq,sequence to sequence),但是基于人们日常对话中出现概率较高的情况,容易产生通用性回复,可能得到“我不知道”、“好吧”、“哈哈”之类的回复。
发明内容
本发明提供一种对话处理方法、设备及计算机存储介质,用于减少对话生成中产生的通用性回复。
本发明一方面提供一种对话处理方法,包括:获得查询文本;对所述查询文本进行主题分析,得到主题词;分别对所述查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;融合所述查询文本向量和主题词向量,获得融合向量;将所述融合向量进行转换,得到对应所述查询文本的应答文本。
在一种可实施方式中,对所述查询文本进行主题分析,包括:对所述查询文本进行词性分析,获得所述查询文本中的实词;利用点互信息对所获得的实词进行主题分析,得到主题词。
在一种可实施方式中,融合所述查询文本向量和主题词向量,包括:根据所述主题词向量与查询文本向量的相似性,计算所述主题词向量的权值;将所述权值联合对应所述主题词,获得联合权值的主题词;将所述联合权值的主题词与所述查询文本向量融合,获得融合向量。
在一种可实施方式中所述融合向量包括若干向量序列;相应的,将所述融合向量进行转换,包括:通过解码器对若干所述向量序列进行逐个解码,得到对应所述查询文本的应答文本。
在一种可实施方式中,通过解码器对若干所述向量序列进行逐个解码,包括:对其中一个所述向量序列进行解码,获得对应该所述向量序列的第一位解码词;结合所述第一解码词和点互信息,对位于该所述向量序列下一位的向量序列进行解码,得到第二位解码词;拼接所述第一位解码词和第二位解码词,得到对应所述查询文本的应答文本。
本发明另一方面提供一种对话处理设备,包括:获得模块,用于获得查询文本;分析模块,用于对所述查询文本进行主题分析,得到主题词;第一转换模块,用于分别对所述查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;融合模块,用于融合所述查询文本向量和主题词向量,获得融合向量;第二转换模块,用于将所述融合向量进行转换,得到对应所述查询文本的应答文本。
在一种可实施方式中,所述分析模块,包括:词性分析子模块,用于对所述查询文本进行词性分析,获得所述查询文本中的实词;主题分析子模块,用于利用点互信息对所获得的实词进行主题分析,得到主题词。
在一种可实施方式中,所述融合模块,包括:计算子模块,用于根据所述主题词向量与查询文本向量的相似性,计算所述主题词向量的权值;联合子模块,用于将所述权值联合对应所述主题词,获得联合权值的主题词;融合子模块,将所述联合权值的主题词与所述查询文本向量融合,获得融合向量。
在一种可实施方式中,所述融合向量包括若干向量序列;相应的,所述第二转换模块,具体用于通过解码器对若干所述向量序列进行逐个解码,得到对应所述查询文本的应答文本。
在一种可实施方式中,所述第二转换模块,包括:解码子模块,用于对其中一个向量序列进行解码,获得对应该向量序列的第一位解码词;结合子模块,用于结合第一解码词和点互信息,对位于该向量序列下一位的向量序列进行解码,得到第二位解码词;拼接子模块,用于拼接所述第一位解码词和所述第二位解码词,得到对应查询文本的应答文本。
本发明实施例另一方面提供一种计算机存储介质,存储介质中存储有计算机可执行指令,当指令被执行时用于执行上述可实施方式中任一项对话处理方法。
本发明实施例提供的对话处理方法、设备及计算机存储介质用于生成针对查询文本的应答文本,其中,主题词经过对查询文本的主题分析获得,如此操作,使应答文本的内容与查询文本的内容之间更加具有针对性,减少应答文本出现通用性回复的概率。
附图说明
图1示出了本发明实施例对话处理方法的流程示意图;
图2示出了本发明实施例对话处理方法中主题分析的流程示意图;
图3示出了本发明实施例对话处理方法中向量融合的流程示意图;
图4示出了本发明实施例对话处理方法中向量解码的流程示意图;
图5示出了本发明实施例一种对话处理设备的模块示意图。
具体实施方式
为使本发明的目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明实施例对话处理方法的流程示意图。
参见图1,本发明实施例一方面提供一种对话处理方法,包括:步骤101,获得查询文本;步骤102,对查询文本进行主题分析,得到主题词;步骤103,分别对查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;步骤104,融合查询文本向量和主题词向量,获得融合向量;步骤105,将融合向量进行转换,得到对应查询文本的应答文本。
本发明实施例提供的对话处理方法用于生成针对主题词的应答文本,其中,主题词经过对查询文本的分析获得,如此操作,使应答文本的内容与查询文本的内容之间更加具有针对性,减少应答文本出现通用性回复的概率。
需要说明的是,本发明实施例提供的对话处理方法既可以应用于自然语言生成的对话系统,也可以应用于检索式语言生成的对话系统。具体的,当用于自然语言生成的对话系统中时,本发明实施例提供的对话处理方法直接应用于对话生成。当应用于检索语言生成的对话系统的时候,本发明实施例提供的对话处理方法可用于作为检索式语料中的问答数据(Key-Value pair,Kv pair)事先进行存储在对话系统中。
具体的,本发明实施例首先获得查询文本,本发明实施例不对查询文本的具体获得方式进行限定。根据需要,查询文本可以通过用户输入获得,也可以由设备从网络数据库中抓取,如抓取来自日志或网络爬取的文本中的文本内容。具体的,当该对话处理方法用于自然语言生成的对话系统时,本发明实施例查询文本可以通过如语音输入、电子设备输入等输入方式获得查询文本,当应用于检索式语言生成的对话系统时,可以采用设备从数据库中抓取文本内容获得查询文本,已达到快速积累数据的效果。查询文本的内容可以是任意的句式。例如,获得的查询文本的内容可以是“北京很好玩。”、“北京哪里好玩?”优选为问句。例如,获得的查询文本的内容可以是“你去过北京大学吗?”
在获得查询文本之后,通过对查询文本进行主题分析,得到主题词。其中,主题词通过对查询文本进行词性分析获得,可通过词性标注的机器学习算法获得的序列模型进行词性分析,包括隐马尔可夫模型、最大熵马尔可夫模型、条件随机场等广义上的马尔可夫模型;也可以通过循环神经网络进行词性分析。通过词性分析能够识别出来查询文本中哪些词是名词,哪些词是动词。优选的,由于名词和动词属于实词,往往具有更多的意义,因此,可以将名词和动词作为主题词使用。例如,根据查询文本“你在北京的哪个大学?”,根据词性分析,可获得的名词和动词包括有“你”、“北京”、“大学”。
获得主题词后,分别对查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量。具体的,该向量转化可以通过编码器实现,编码器为循环神经网络(Recurrent Neural Network,RNN),通过编码器对查询文本进行编码获得查询文本向量,通过编码器对主题词进行编码获得主题词向量。
在获得查询文本向量和主题词向量后,通过融合查询文本向量和主题词向量,获得融合向量。主题词由查询文本进行主题分析获得,因此,查询文本中同样包括主题词,在向量在融合过程中,使融合向量中与主题词相关的向量序列增加。
进而在进行将融合向量进行转换,得到对应查询文本的应答文本的过程中。由于主题词相关的向量序列占比较大,向量转换过程中,转换过程偏向于主题词,进而使得到的应答文本更加偏向于携带或对应有主题词答复,而非通用性回复。
为方便上述实施方式的理解,以下提供一种具体实施场景。
该实施场景中,包括有用于进行对话处理的设备,该设备相当于对话生成模型,包括有主题分析模块、编码器、主题词与文本合成模块和解码器。编码器和解码器是分别对应输入序列和输出序列的两个循环神经网络。对话生成模型选为encoder-decoder结构模型,优选为seq2seq结构的模型。
首先,设备获得查询文本,查询文本为通过来自日志或网络爬取的文本,可以实现查询文本的快速积累。在获得查询文本后,通过主题分析模块对文本进行词性分析,根据词性确定查询文本中的主题词。例如查询文本为“你去过北京大学吗?”,根据词性分析,确定主题词为“北京大学”。之后通过编码器对主题词进行编码获得主题词向量,对查询文本进行编码获得查询文本向量。通过主题词与文本结合模块将主题词向量与查询文本向量融合,获得融合向量,通过解码器对融合向量进行解码,获得的应答文本为“我没去过北京大学”。
在对比实施场景中,用于进行对话处理的设备包括有对话生成模型,对话生成模型包括有编码器和解码器。编码器和解码器是分别对应输入序列和输出序列的两个循环神经网络。对话生成模型选为seq2seq结构的模型。
通过编码器对查询文本“你去过北京大学吗?”进行编码,通过解码去解码后,获得的应答文本为“我不知道”。
当查询文本为“你会唱小星星吗?”时,通过该设备获得的应答文本为“我不知道”。
图2示出了本发明实施例对话处理方法中主题分析的流程示意图。
参见图2,在本发明实施例中,步骤102,对查询文本进行主题分析,包括:步骤1021,对查询文本进行词性分析,获得查询文本中的实词;步骤1022,利用点互信息对所获得的实词进行主题分析,得到主题词。
在进行主题分析时,通过利用点互信息对实词进行主题分析,能够度量名词和动词是不是和指定相关的词,从而使主题词的确定更加精准,进而使应答文本的内容与输入文本之间更加具有针对性。
进一步的,根据点互信息,能够获得与主题词同属主题内的联想内容,例如,当主题词为“北京大学”时,根据点互信息,获得联想内容包括有“北京大学的教学楼”、“北京大学的景点”、“北京大学的分数线”、“北京大学的学科”等。如此,根据点互信息,在进行解码过程中,能够扩充解码器的词汇量,从而使应答文本更加具有趣味性。
图3示出了本发明实施例对话处理方法中向量融合的流程示意图。
参见图3,在本发明实施例中,步骤104,融合查询文本向量和主题词向量,包括:步骤1041,根据主题词向量与查询文本向量的相似性,计算主题词向量的权值;步骤1042,将权值联合对应主题词,获得联合权值的主题词;步骤1043,将联合权值的主题词与查询文本向量融合,获得融合向量。
查询文本向量和主题词向量通过Attention机制进行联合,具体的,根据主题词向量与查询文本向量之间的相似性,通过Attention机制确定主题词向量和查询文本向量的权值,通过Attention机制,在查询文本向量中,通过权重分布使位于查询文本向量的解码偏向于主题词,同时,通过主题词向量与查询文本向量融合,进一步增加主题词在融合向量中的权重,使融合向量对主题词的注意力更高,进而使解码过程中,解码器输出的应答文本对主题词更加具有针对性。需要说明的是,在融合查询文本向量和主题词向量过程中,编码器与解码器两个循环神经网络中的各个权重和偏移项以及嵌入层参数等都是需要同时学习的模型参数。
在本发明实施例中,融合向量包括若干向量序列;相应的,步骤105,将融合向量进行转换,包括:通过解码器对若干向量序列进行逐个解码,得到对应查询文本的应答文本。
应用seq2seq结构的模型,在进行解码过程中,可以采用进行逐个解码,得到对应查询文本的应答文本。优选的,为提高应答文本内容之间的关联性,在进行应答对话处理时,根据融合向量结合上一个生成的词,决定下一个生成的词。即每个向量序列参与所有时刻的运算。
图4示出了本发明实施例对话处理方法中向量解码的流程示意图。
参见图4,在本发明实施例中,通过解码器对若干向量序列进行逐个解码,包括:步骤1051,对其中一个向量序列进行解码,获得对应该向量序列的第一位解码词;步骤1052,结合第一解码词和点互信息,对位于该向量序列下一位的向量序列进行解码,得到第二位解码词;步骤1053,拼接第一位解码词和第二位解码词,得到对应查询文本的应答文本。
具体的,在分别每个对向量序列进行解码过程中,除每个向量序列参与所有时刻的运算之外,还通过引入点互信息,能够扩充解码器的词汇量,使解码得到的应答文本与主题更加接近,进而获得更具有趣味性的应答文本。
具体的,在上述的实施场景中,包括有用于进行对话处理的设备,该设备包括对话生成模型,对话生成模型包括有主题分析模块、编码器、主题词与文本合成模块和解码器。编码器和解码器是分别对应输入序列和输出序列的两个循环神经网络。对话生成模型选为encoder-decoder结构模型,优选为seq2seq结构的模型。对设备的模型进行进一步改造,使主题分析模块还包括点互信息主题分析。
首先,设备获得查询文本,查询文本为通过来自日志或网络爬取的文本,可以实现查询文本的快速积累。在获得查询文本后,通过主题分析模块对文本进行词性分析和点互信息主题分析,根据词性确定查询文本中的主题词。例如查询文本为“你去过北京大学吗?”,根据词性分析,确定主题词为“北京大学”,并通过点互信息扩充解码器的词汇量,如“北京大学的教学楼”、“北京大学的景点”、“北京大学的分数线”、“北京大学的学科”等。之后通过编码器对主题词进行编码获得主题词向量,对查询文本进行编码获得查询文本向量。通过主题词与文本结合模块将主题词向量与查询文本向量融合,获得融合向量,通过解码器对融合向量进行解码,根据扩充的词汇量,结合上一个生成的词,决定下一个生成的词,可获得的应答文本为“我去过北京大学的未名湖。”
当查询文本为“你会唱小星星吗?”时,通过该设备获得的应答文本为“我不会唱小星星。”。
图5示出了本发明实施例一种对话处理设备的模块示意图。
参见图5,本发明实施例另一方面提供一种对话处理设备,包括:获得模块501,用于获得查询文本;分析模块502,用于对查询文本进行主题分析,得到主题词;第一转换模块503,用于分别对查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;融合模块504,用于融合查询文本向量和主题词向量,获得融合向量;第二转换模块505,用于将融合向量进行转换,得到对应查询文本的应答文本。
本发明实施例提供的对话处理设备用于生成针对主题词的应答文本,其中,主题词经过对查询文本的分析获得,如此操作,使应答文本的内容与查询文本的内容之间更加具有针对性,减少应答文本出现通用性回复的概率。
需要说明的是,本发明实施例提供的对话处理设备既可以应用于自然语言生成的对话系统,也可以应用于检索式语言生成的对话系统。具体的,当用于自然语言生成的对话系统中时,本发明实施例提供的对话处理设备直接应用于对话生成。当应用于检索语言生成的对话系统的时候,本发明实施例提供的对话处理设备可用于作为检索式语料中的问答数据(Key-Value pair,Kv pair)事先进行存储在对话系统中。
具体的,该设备通过获得模块获得查询文本,本发明实施例不对查询文本的具体获得方式进行限定。根据需要,查询文本可以通过用户输入获得,也可以由设备从网络数据库中抓取,如抓取来自日志或网络爬取的文本中的文本内容。具体的,当该对话处理设备用于自然语言生成的对话系统时,本发明实施例查询文本可以通过如语音输入、电子设备输入等输入方式获得查询文本,当应用于检索式语言生成的对话系统时,可以采用设备从数据库中抓取文本内容获得查询文本,已达到快速积累数据的效果。查询文本的内容可以是任意的句式。例如,获得的查询文本的内容可以是“北京很好玩。”、“北京哪里好玩?”优选为问句。例如,获得的查询文本的内容可以是“你去过北京大学吗?”
该设备还包括分析模块,通过对查询文本进行主题分析,得到主题词。其中,主题词通过对查询文本进行词性分析获得,可通过词性标注的机器学习算法获得的序列模型进行词性分析,包括隐马尔可夫模型、最大熵马尔可夫模型、条件随机场等广义上的马尔可夫模型;也可以通过循环神经网络进行词性分析。通过词性分析能够识别出来查询文本中哪些词是名词,哪些词是动词。优选的,由于名词和动词属于实词,往往具有更多的意义,因此,可以将名词和动词作为主题词使用。例如,根据查询文本“你在北京的哪个大学?”,根据词性分析,可获得的名词和动词包括有“你”、“北京”、“大学”。
该设备还包括第一转换模块,分别对查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量。具体的,该向量转化可以通过编码器实现,编码器为循环神经网络(Recurrent Neural Network,RNN),通过编码器对查询文本进行编码获得查询文本向量,通过编码器对主题词进行编码获得主题词向量。
该设备还包括融合模块,通过融合查询文本向量和主题词向量,获得融合向量。主题词由查询文本进行主题分析获得,因此,查询文本中同样包括主题词,在向量在融合过程中,使融合向量中与主题词相关的向量序列增加。
该设备还包括第二转换模块,将融合向量进行转换,得到对应查询文本的应答文本的过程中。由于主题词相关的向量序列占比较大,向量转换过程中,转换过程偏向于主题词,进而使得到的应答文本更加偏向于携带或对应有主题词答复,而非通用性回复。
为方便上述实施方式的理解,以下提供一种具体实施场景。
该实施场景中,包括有用于进行对话处理的设备,该设备应用对话生成模型,对话生成模型选为encoder-decoder结构模型,优选为seq2seq结构的模型。
首先,设备通过获得模块获得查询文本,查询文本为通过来自日志或网络爬取的文本,可以实现查询文本的快速积累。通过获得模块获得查询文本后,通过分析模块对文本进行词性分析,根据词性确定查询文本中的主题词。例如查询文本为“你去过北京大学吗?”,根据词性分析,确定主题词为“北京大学”。之后第一转换模块通过编码器对主题词进行编码获得主题词向量,对查询文本进行编码获得查询文本向量。融合模块通过主题词与文本结合模块将主题词向量与查询文本向量融合,获得融合向量,第二转换模块通过解码器对融合向量进行解码,获得的应答文本为“我没去过北京大学”。
在对比实施场景中,用于进行对话处理的设备包括有对话生成模型,对话生成模型包括有编码器和解码器。编码器和解码器是分别对应输入序列和输出序列的两个循环神经网络。对话生成模型选为seq2seq结构的模型。
通过编码器对查询文本“你去过北京大学吗?”进行编码,通过解码去解码后,获得的应答文本为“我不知道”。
当查询文本为“你会唱小星星吗?”时,通过该设备获得的应答文本为“我不知道”。
在本发明实施例中,分析模块502,包括:词性分析子模块5021,用于对查询文本进行词性分析,获得查询文本中的实词;主题分析子模块5022,用于利用点互信息对所获得的实词进行主题分析,得到主题词。
在本发明实施例中,融合模块504,包括:计算子模块5041,用于根据主题词向量与查询文本向量的相似性,计算主题词向量的权值;联合子模块5042,用于将权值联合对应主题词,获得联合权值的主题词;融合子模块5043,将联合权值的主题词与查询文本向量融合,获得融合向量。
在本发明实施例中,融合向量包括若干向量序列;相应的,第二转换模块505,具体用于通过解码器对若干向量序列进行逐个解码,得到对应查询文本的应答文本。
在本发明实施例中,第二转换模块505,包括:解码子模块5051,用于对其中一个向量序列进行解码,获得对应该向量序列的第一位解码词;结合子模块5052,用于结合第一解码词和点互信息,对位于该向量序列下一位的向量序列进行解码,得到第二位解码词;拼接子模块5053,用于拼接第一位解码词和第二位解码词,得到对应查询文本的应答文本。
本发明实施例实施例另一方面提供一种计算机存储介质,存储介质中存储有计算机可执行指令,当指令被执行时用于执行上述可实施方式中任一项对话处理方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种对话处理方法,其特征在于,包括:
获得查询文本;
对所述查询文本进行主题分析,得到主题词;
分别对所述查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;
融合所述查询文本向量和主题词向量,获得融合向量;
将所述融合向量进行转换,得到对应所述查询文本的应答文本。
2.根据权利要求1所述的方法,其特征在于,对所述查询文本进行主题分析,包括:
对所述查询文本进行词性分析,获得所述查询文本中的实词;
利用点互信息对所获得的实词进行主题分析,得到主题词。
3.根据权利要求1所述的方法,其特征在于,融合所述查询文本向量和主题词向量,包括:
根据所述主题词向量与查询文本向量的相似性,计算所述主题词向量的权值;
将所述权值联合对应所述主题词,获得联合权值的主题词;
将所述联合权值的主题词与所述查询文本向量融合,获得融合向量。
4.根据权利要求1所述的方法,其特征在于,所述融合向量包括若干向量序列;
相应的,将所述融合向量进行转换,包括:通过解码器对若干所述向量序列进行逐个解码,得到对应所述查询文本的应答文本。
5.根据权利要求4所述的方法,其特征在于,通过解码器对若干所述向量序列进行逐个解码,包括:
对其中一个所述向量序列进行解码,获得对应该所述向量序列的第一位解码词;
结合所述第一解码词和点互信息,对位于该所述向量序列下一位的向量序列进行解码,得到第二位解码词;
拼接所述第一位解码词和第二位解码词,得到对应所述查询文本的应答文本。
6.一种对话处理设备,其特征在于,包括:
获得模块,用于获得查询文本;
分析模块,用于对所述查询文本进行主题分析,得到主题词;
第一转换模块,用于分别对所述查询文本和主题词进行向量转换,获得对应的查询文本向量和主题词向量;
融合模块,用于融合所述查询文本向量和主题词向量,获得融合向量;
第二转换模块,用于将所述融合向量进行转换,得到对应所述查询文本的应答文本。
7.根据权利要求6所述的设备,其特征在于,所述分析模块,包括:
词性分析子模块,用于对所述查询文本进行词性分析,获得所述查询文本中的实词;
主题分析子模块,用于利用点互信息对所获得的实词进行主题分析,得到主题词。
8.根据权利要求6所述的设备,其特征在于,所述融合模块,包括:
计算子模块,用于根据所述主题词向量与查询文本向量的相似性,计算所述主题词向量的权值;
联合子模块,用于将所述权值联合对应所述主题词,获得联合权值的主题词;
融合子模块,将所述联合权值的主题词与所述查询文本向量融合,获得融合向量。
9.根据权利要求7所述的设备,其特征在于,所述融合向量包括若干向量序列;相应的,所述第二转换模块,具体用于通过解码器对若干所述向量序列进行逐个解码,得到对应所述查询文本的应答文本。
10.一种计算机存储介质,其特征在于,所述存储介质中存储有计算机可执行指令,当所述指令被执行时用于执行权利要求1-5任一项所述对话处理方法。
CN201910752180.1A 2019-08-15 2019-08-15 对话处理方法、设备及计算机存储介质 Active CN110516053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910752180.1A CN110516053B (zh) 2019-08-15 2019-08-15 对话处理方法、设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910752180.1A CN110516053B (zh) 2019-08-15 2019-08-15 对话处理方法、设备及计算机存储介质

Publications (2)

Publication Number Publication Date
CN110516053A true CN110516053A (zh) 2019-11-29
CN110516053B CN110516053B (zh) 2022-08-05

Family

ID=68625993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910752180.1A Active CN110516053B (zh) 2019-08-15 2019-08-15 对话处理方法、设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN110516053B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079448A (zh) * 2019-12-31 2020-04-28 出门问问信息科技有限公司 一种意图识别方法及装置
CN111986675A (zh) * 2020-08-20 2020-11-24 深圳Tcl新技术有限公司 语音对话方法、设备及计算机可读存储介质
CN112287105A (zh) * 2020-09-30 2021-01-29 昆明理工大学 融合标题和正文双向互注意力的涉法新闻相关性分析方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120290950A1 (en) * 2011-05-12 2012-11-15 Jeffrey A. Rapaport Social-topical adaptive networking (stan) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
CN107391623A (zh) * 2017-07-07 2017-11-24 中国人民大学 一种融合多背景知识的知识图谱嵌入方法
CN107515877A (zh) * 2016-06-16 2017-12-26 百度在线网络技术(北京)有限公司 敏感主题词集的生成方法和装置
CN107992473A (zh) * 2017-11-24 2018-05-04 国家计算机网络与信息安全管理中心 基于逐点互信息技术的诈骗信息特征词提取方法及系统
CN108415901A (zh) * 2018-02-07 2018-08-17 大连理工大学 一种基于词向量和上下文信息的短文本主题模型
CN108491514A (zh) * 2018-03-26 2018-09-04 清华大学 对话系统中提问的方法及装置、电子设备、计算机可读介质
CN108763284A (zh) * 2018-04-13 2018-11-06 华南理工大学 一种基于深度学习和主题模型的问答系统实现方法
CN110069611A (zh) * 2019-04-12 2019-07-30 武汉大学 一种主题增强的聊天机器人回复生成方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120290950A1 (en) * 2011-05-12 2012-11-15 Jeffrey A. Rapaport Social-topical adaptive networking (stan) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
CN107515877A (zh) * 2016-06-16 2017-12-26 百度在线网络技术(北京)有限公司 敏感主题词集的生成方法和装置
CN107391623A (zh) * 2017-07-07 2017-11-24 中国人民大学 一种融合多背景知识的知识图谱嵌入方法
CN107992473A (zh) * 2017-11-24 2018-05-04 国家计算机网络与信息安全管理中心 基于逐点互信息技术的诈骗信息特征词提取方法及系统
CN108415901A (zh) * 2018-02-07 2018-08-17 大连理工大学 一种基于词向量和上下文信息的短文本主题模型
CN108491514A (zh) * 2018-03-26 2018-09-04 清华大学 对话系统中提问的方法及装置、电子设备、计算机可读介质
CN108763284A (zh) * 2018-04-13 2018-11-06 华南理工大学 一种基于深度学习和主题模型的问答系统实现方法
CN110069611A (zh) * 2019-04-12 2019-07-30 武汉大学 一种主题增强的聊天机器人回复生成方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN H等: "a survey on dialogue systems:recent advances and new frontiers", 《ACM SIGKDD EXPLORATIONS NEWSLETTER》 *
陈晨等: "基于深度学习的开放领域对话系统研究综述", 《计算机学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079448A (zh) * 2019-12-31 2020-04-28 出门问问信息科技有限公司 一种意图识别方法及装置
CN111986675A (zh) * 2020-08-20 2020-11-24 深圳Tcl新技术有限公司 语音对话方法、设备及计算机可读存储介质
CN112287105A (zh) * 2020-09-30 2021-01-29 昆明理工大学 融合标题和正文双向互注意力的涉法新闻相关性分析方法
CN112287105B (zh) * 2020-09-30 2023-09-12 昆明理工大学 融合标题和正文双向互注意力的涉法新闻相关性分析方法

Also Published As

Publication number Publication date
CN110516053B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
Weston Dialog-based language learning
Fried et al. Speaker-follower models for vision-and-language navigation
Li et al. Dialogue learning with human-in-the-loop
CN108734276B (zh) 一种基于对抗生成网络的模仿学习对话生成方法
CN108417202B (zh) 语音识别方法及系统
CN110472642B (zh) 基于多级注意力的细粒度图像描述方法及系统
Vinyals et al. Show and tell: A neural image caption generator
CN110288665B (zh) 基于卷积神经网络的图像描述方法、计算机可读存储介质、电子设备
Luong et al. Multi-task sequence to sequence learning
CN109977201B (zh) 带情感的机器聊天方法、装置、计算机设备及存储介质
CN106845411A (zh) 一种基于深度学习和概率图模型的视频描述生成方法
CN110516053A (zh) 对话处理方法、设备及计算机存储介质
CN112017645B (zh) 一种语音识别方法及装置
CN112633010A (zh) 基于多头注意力和图卷积网络的方面级情感分析方法及系统
CN110795549B (zh) 短文本对话方法、装置、设备及存储介质
CN113779310B (zh) 一种基于层级表征网络的视频理解文本生成方法
CN110399454B (zh) 一种基于变压器模型和多参照系的文本编码表示方法
CN113035311A (zh) 一种基于多模态注意力机制的医学图像报告自动生成方法
CN112740132A (zh) 简答题评分预测
KR20220060780A (ko) 언어학습을 위한 지식 기반 대화 시스템 및 방법
CN113360618A (zh) 一种基于离线强化学习的智能机器人对话方法及系统
CN116975288A (zh) 文本处理方法及文本处理模型训练方法
CN115438176A (zh) 下游任务模型生成及任务执行的方法和设备
CN112967720B (zh) 少量重口音数据下的端到端语音转文本模型优化方法
Fang et al. Hierarchical attention model for improved machine comprehension of spoken content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant