CN112100353A - 人机对话方法及系统、计算机设备及介质 - Google Patents
人机对话方法及系统、计算机设备及介质 Download PDFInfo
- Publication number
- CN112100353A CN112100353A CN202010966100.5A CN202010966100A CN112100353A CN 112100353 A CN112100353 A CN 112100353A CN 202010966100 A CN202010966100 A CN 202010966100A CN 112100353 A CN112100353 A CN 112100353A
- Authority
- CN
- China
- Prior art keywords
- neural network
- vector
- statement
- current
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 claims abstract description 149
- 238000000605 extraction Methods 0.000 claims abstract description 57
- 239000013598 vector Substances 0.000 claims description 149
- 238000003062 neural network model Methods 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 26
- 230000003993 interaction Effects 0.000 claims description 20
- 230000002457 bidirectional effect Effects 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 239000010410 layer Substances 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000003058 natural language processing Methods 0.000 claims description 14
- 239000002356 single layer Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 125000004122 cyclic group Chemical group 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 description 10
- 229910000792 Monel Inorganic materials 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 241000209490 Nymphaea Species 0.000 description 3
- 235000016791 Nymphaea odorata subsp odorata Nutrition 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 241001441571 Hiodontidae Species 0.000 description 1
- 108050004114 Monellin Proteins 0.000 description 1
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开一种人机对话方法及系统、计算机设备及介质。该方法的一具体实施方式包括:获取用户输入的当前对话语句;将当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体;将当前对话语句、当前对话语句的目标类型及目标实体和知识库数据作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句。该实施方式能够实现主动自然的将人机对话从聊天对话、问答对话、任务型对话等非推荐对话引导到推荐对话,以实现推荐目标。
Description
技术领域
本申请涉及计算机技术领域。更具体地,涉及一种人机对话方法及系统、计算机设备及介质。
背景技术
随着移动互联网和智能终端的快速发展,人机对话的应用越来越广泛。,例如各大互联网公司也推出各自的智能助手Apple Siri、Google Now、微软小娜(MicrosoftCortana)、Facebook M、百度度秘和微软小冰等等,都应用了人机对话功能。目前,现有的人机对话方式涉及到多种类型的对话,比如聊天对话、问答对话、任务型对话等,但这些类型的对话彼此之间是孤立的,主动性、扩展性及丰富性不足,且不符合通常的用户交谈习惯。现有的人机对话技术还需要不断发展和改进,朝着更加拟人化、博学化、并且能够完成更加复杂的任务的方向发展。
发明内容
本申请的目的在于提供一种人机对话方法及系统、计算机设备及介质,以解决现有技术存在的问题中的至少一个。
为达到上述目的,本申请采用下述技术方案:
本申请第一方面提供了一种人机对话方法,包括:
获取用户输入的当前对话语句;
将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体;
将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句。
在一种可能的实现方式中,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
对于当前对话语句为初始对话语句的情况,将所述当前对话语句和预设的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
将所述当前对话语句作为所述第一神经网络模块的第一迭代空洞卷积神经网络模型的输入,通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量;
将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述第一神经网络模块的第二迭代空洞卷积神经网络模型的输入,通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,
所述通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量包括:通过所述第一迭代空洞卷积神经网络模型进行特征提取,由所述第一迭代空洞卷积神经网络模型的池化层生成表征当前对话目标是否完成的第一向量;
所述通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体包括:通过所述第二迭代空洞卷积神经网络模型进行特征提取,由所述第二迭代空洞卷积神经网络模型的全连接层生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句包括:
将所述当前对话语句作为所述第二神经网络模块的自然语言处理模型的输入,通过所述自然语言处理模型进行编码以提取语义,生成第二向量;
将所述当前对话语句的目标类型及目标实体作为所述第二神经网络模块的第一双向门控循环单元模型的输入,通过所述第一双向门控循环单元模型进行编码,生成第三向量;
将所述第二向量与所述第三向量进行合并,得到第四向量;
将所述知识库数据作为所述第二神经网络模块的第二双向门控循环单元模型的输入,通过所述第二双向门控循环单元模型进行编码,生成第五向量;
对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
对所述第五向量与所述第六向量进行合并,得到第七向量;
将所述第七向量作为所述第二神经网络模块的单层神经网络模型的输入,通过所述单层神经网络模型进行分类,生成回复语句。
在一种可能的实现方式中,在所述将所述当前对话语句和知识库数据作为神经网络系统的输入,通过所述神经网络系统进行特征提取及分类,生成回复语句之前,该方法还包括:
利用训练数据训练得到神经网络系统,所述训练数据包括对话序列、候选回复语句、知识库数据和目标推荐序列,所述对话序列包括聊天对话、问答对话和推荐对话。
本申请第二方面提供了一种人机对话系统,包括:
获取模块,用于获取用户输入的当前对话语句;
第一神经网络模块,用于将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体;
第二神经网络模块,用于将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为输入,通过特征提取及分类,生成回复语句。
在一种可能的实现方式中,
所述第一神经网络模块,用于在当前对话语句为初始对话语句时,将所述当前对话语句和预设的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述第一神经网络模块包括:
第一迭代空洞卷积神经网络模型,用于将所述当前对话语句作为输入,通过特征提取,生成表征当前对话目标是否完成的第一向量;
第二迭代空洞卷积神经网络模型,用于将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,
所述第一迭代空洞卷积神经网络模型,用于通过其池化层生成表征当前对话目标是否完成的第一向量;
所述第二迭代空洞卷积神经网络模型,用于通过其全连接层生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述第二神经网络模块包括:
自然语言处理模型,用于将所述当前对话语句作为输入,通过编码以提取语义,生成第二向量;
第一双向门控循环单元模型,用于将所述当前对话语句的目标类型及目标实体作为输入,通过编码,生成第三向量;
第一合并模块,用于将所述第二向量与所述第三向量进行合并,得到第四向量;
第二双向门控循环单元模型,用于将所述知识库数据作为输入,通过编码,生成第五向量;
运算模块,用于对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
第二合并模块,用于对所述第五向量与所述第六向量进行合并,得到第七向量;
单层神经网络模型,用于将所述第七向量作为输入,通过分类,生成回复语句。
本申请第三方面提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本申请第一方面提供的人机对话方法。
本申请第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请第一方面提供的人机对话方法。
本申请的有益效果如下:
本申请所述技术方案能够通过神经网络融合多种类型的对话,实现主动自然的将人机对话从聊天对话、问答对话、任务型对话等非推荐对话引导到推荐对话,并将知识库数据自然融合到对话中,可通过神经网络准确地生成并向用户输出包括聊天语句、回答语句和推荐语句的回复语句,进而基于知识库数据及从用户输入的对话语句分析得到的用户兴趣及时准确地通过一次至多次对话交互实现推荐目标,可提升人机对话的主动性、扩展性及丰富性,从而提升用户体验。
附图说明
下面结合附图对本申请的具体实施方式作进一步详细的说明。
图1示出本申请的一个实施例提供的人机对话方法的流程图。
图2示出对话逻辑的示例图。
图3示出神经网络系统的训练过程示意图。
图4示出神经网络系统的使用过程的示意图。
图5示出实现本申请实施例提供的人机对话系统的计算机系统的结构示意图。
具体实施方式
为了更清楚地说明本申请,下面结合实施例和附图对本申请做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本申请的保护范围。
如图1所示,本申请一个实施例提供了一种人机对话方法,包括:
获取用户输入的当前对话语句;
将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句,其中,回复语句为聊天语句、回答语句或推荐语句。
在一些实施例中,在将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句之前,该方法还包括:
利用训练数据训练得到神经网络系统,训练数据包括对话序列、候选回复语句、知识库数据和目标推荐序列,对话序列包括聊天对话、问答对话和推荐对话。
应理解,本实施例提供的人机对话方法是一种基于神经网络系统的人机对话方法。作为一个机器学习模型,神经网络系统可以分为训练和使用两个阶段。
训练阶段是根据训练数据,通过反向传播算法或者随机梯度下降算法等,最大化训练数据上的似然函数来确定神经网络系统中各网络或模型的参数。使用阶段是基于已经构建的知识库,以用户输入的当前对话语句为神经网络系统的输入,通过神经网络系统的计算,产生回复语句以返回给用户。
为了便于理解,下面从训练阶段开始进行介绍。
首先构建训练数据,训练数据包括:
对话序列ContextX0:{ContextX0,1,ContextX0,2,ContextX0,3……};
候选回复语句Y0:{Y0,1,Y0,2,Y0,3……};
知识库数据Subject,Relation,Object(主体,关系,客体):{SRO1,SRO2,SRO3……};及
目标推荐序列GT0,GE0(Goal-Type0,Goal-Entity0,Goal-Type即目标类型,Goal-Entity即目标实体):{[GT0,1,GE0,1],[GT0,2,GE0,2],[GT0,3,GE0,3]……}。
其中,知识库基于一些“事实”(facts)组成。知识库中包括记录(records)或者“元组(tuple)”。具体地,可以从互联网获取知识库。在本实施例中,知识库数据具体可以由多个三元组构成,可以从百度百科、互动百科、豆瓣等百科知识网站抓取网页,并通过对网页中的表格解析得到结构化的三元组。经过进一步的处理,例如可以包括去噪、合并等处理。最终抽取得到多个三元组,构成知识库。
在一个具体示例中,以本实施例提供的人机对话方法应用于显示装置,以在人机对话过程中实现画作推荐为例:
对话样例例如:
“用户:你好。
显示装置:你好,小明。
用户:你知道谁画的睡莲吗?
显示装置:我知道的,是莫奈。
显示装置:莫奈还是法国画家呢。
用户:他还有什么作品?
显示装置:莫奈还画过日出·印象、干草堆等,想看吗?
用户:想看。
显示装置:请欣赏日出·印象。”
则:
对话序列ContextX0例如包括ContextX0,1“‘你好。’,‘你好,小明。’
‘你知道谁画的睡莲吗?’,‘我知道的,是莫奈。’等。
候选回复语句Y0例如包括Y0,1“我知道的,是莫奈”、Y0,2“莫奈还是法国画家呢。”等。
知识库数据Subject,Relation,Object例如包括SRO1“莫奈,国籍,法国”、SRO2“莫奈,生日,1840年11月14日”、SRO3“莫奈,画派,印象派”、SRO4“莫奈,代表作,日出·印象”、SRO5“莫奈,代表作,干草堆”、SRO6“莫奈,代表作,睡莲”、SRO7“莫奈,代表作,卢昂大教堂”等。
目标推荐序列Goal-Type0,Goal-Entity0例如包括:[GT0,1,GE0,1]“[问答,莫奈]”、[GT0,2,GE0,2]“[画作推荐,莫奈]”、[GT0,3,GE0,3]“[画作点播,莫奈]”等。
本示例中,实现人机的对话逻辑如图2所示,其给出了目标推荐序列的指导。
如图3所示,神经网络系统的结构及训练过程在下面介绍。
在一些实施例中,利用训练数据训练得到神经网络系统包括:
将训练数据中的对话序列中的用户对话语句作为ContextX0和用户对话语句ContextX0之前获取的前序对话语句的目标类型GT0`及目标实体GE0`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT0及目标实体GE0;
将用户对话语句ContextX0、用户对话语句ContextX0的目标类型GT0及目标实体GE0和知识库数据{SRO1,SRO 2,SRO 3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y。
进一步,在一些实施例中,将训练数据中的对话序列中的用户对话语句作为ContextX0和用户对话语句ContextX0之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT及目标实体GE包括:
对于用户对话语句ContextX0为初始对话语句的情况,将用户对话语句ContextX0和预设的目标类型及目标实体作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT0及目标实体GE0。
进一步,在一些实施例中,将训练数据中的对话序列中的用户对话语句作为ContextX0和排在用户对话语句ContextX0之前的前序用户对话语句的目标类型GT0`及目标实体GE0`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT0及目标实体GE0包括:
将用户对话语句ContextX0作为第一神经网络模块的第一迭代空洞卷积神经网络模型IDCNN(Iteration Dilated Convolutions Neural Network)1的输入,通过第一迭代空洞卷积神经网络模型IDCNN1进行特征提取,生成表征当前对话目标是否完成的第一向量IDC-Pool0;进一步,在一些实施例中,由第一迭代空洞卷积神经网络模型IDCNN1的池化层生成表征当前对话目标是否完成的第一向量IDC-Pool0,不同于传统的分类输出,IDCNN1仅仅是用池化后的信息IDC-pool0作为输出,其代表当前话题目标是否完成(例如用户对话语句ContextX0是否表达了“再见”等表征当前对方目标是否完成的文本语义),可由一个30维度的向量进行表示;
将第一向量IDC-Pool0和排在用户对话语句ContextX0之前的前序用户对话语句的目标类型GT0`及目标实体GE0`作为第一神经网络模块的第二迭代空洞卷积神经网络模型IDCNN2的输入,通过第二迭代空洞卷积神经网络模型IDCNN2进行特征提取,生成用户对话语句ContextX0的GT0及目标实体GE0;进一步,在一些实施例中,由第二迭代空洞卷积神经网络模型IDCNN2的全连接层生成用户对话语句ContextX0的目标类型GT0及目标实体GE0;在一个具体示例中,将第一向量IDC-Pool0和排在用户对话语句ContextX0之前的前序用户对话语句的目标类型GT0`及目标实体GE0`转化为嵌入向量(embedding)之后作为第二迭代空洞卷积神经网络模型IDCNN2的输入,第二迭代空洞卷积神经网络模型IDCNN2的全连接层用多标签分类输出用户对话语句ContextX0的目标类型GT0及目标实体GE0,将第一迭代空洞卷积神经网络模型IDCNN1与第二迭代空洞卷积神经网络模型IDCNN2链接到一起,然后以端到端的方式进行训练,最后由第二迭代空洞卷积神经网络模型IDCNN2的全连接层输出用户对话语句ContextX0的目标类型GT0及目标实体GE0。
进一步,在一些实施例中,将用户对话语句ContextX0、用户对话语句ContextX0的目标类型GT0及目标实体GE0和知识库数据{SRO1,SRO 2,SRO3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y包括:
将用户对话语句ContextX0和反向传播的回复语句Y作为第二神经网络模块的自然语言处理模型的输入,通过自然语言处理模型进行编码以提取语义,生成第二向量Xy0;在一些实施例中,自然语言处理模型采用BERT(Bidirectional Encoder Representationsfrom Transformers,来自变换器的双向编码器表征量)模型,其编码器(Encoder)对输入的用户对话语句ContextX0和反向传播的回复语句Y进行编码以提取语义,生成第二向量Xy0;
将用户对话语句ContextX0的目标类型GT0及目标实体GE0作为第二神经网络模块的第一双向门控循环单元模型Bi-GRU(Bi-Gate Recurrent Unit)1的输入,通过第一双向门控循环单元模型Bi-GRU1进行编码,以进行向量的长短对齐,生成第三向量Gc0;
将第二向量Xy0与第三向量Gc0进行合并,得到第四向量Con10;在一个具体示例中,通过第一合并模块Concat1将第二向量Xy0与第三向量Gc0进行合并以得到第四向量Con10;
将知识库数据SRO1,SRO2,SRO3……作为第二神经网络模块的第二双向门控循环单元模型Bi-GRU2的输入,通过第二双向门控循环单元模型Bi-GRU2进行编码,以进行向量的长短对齐,生成第五向量SRO-encoder;
对第四向量Con10和第五向量SRO-encoder进行注意力机制运算,得到第六向量Kc0;在一个具体示例中,通过注意力机制运算模块Attention对第四向量Con10和第五向量SRO-encoder进行注意力机制运算以得到第六向量Kc0,其中,注意力机制运算模块Attention可对输入的第四向量Con10和第五向量SRO-encoder进行点乘运算,以实现融合,得到第六向量Kc0;
对第五向量SRO-encoder与第六向量Kc0进行合并,得到第七向量Con20;在一个具体示例中,通过第二合并模块Concat2将第五向量SRO-encoder与第六向量Kc0进行合并以得到第七向量Con20;
将第七向量Con20作为第二神经网络模块的单层神经网络模型的输入,通过单层神经网络模型进行分类,生成回复语句Y;在一个具体示例中,单层神经网络模型将输入的第七向量Con20与候选回复Y0进行比较以得到最接近的回复语句Y。
以上详细介绍了神经网络系统的训练阶段。使用阶段与训练阶段的原理类似,如图4所示,下面介绍使用过程。
在一些实施例中,如图1所示,将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句包括:
将当前对话语句作为ContextX和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE;
将当前对话语句ContextX、当前对话语句ContextX的目标类型GT及目标实体GE和知识库数据{SRO1,SRO2,SRO3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y。
进一步,在一些实施例中,将当前对话语句ContextX和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE包括:
对于当前对话语句ContextX为初始对话语句的情况,将当前对话语句ContextX和预设的目标类型及目标实体作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE。
进一步,在一些实施例中,将当前对话语句ContextX和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE包括:
将当前对话语句ContextX作为第一神经网络模块的第一迭代空洞卷积神经网络模型IDCNN1的输入,通过第一迭代空洞卷积神经网络模型IDCNN1进行特征提取,生成表征当前对话目标是否完成的第一向量IDC-Pool;进一步,在一些实施例中,由第一迭代空洞卷积神经网络模型IDCNN1的池化层生成表征当前对话目标是否完成的第一向量IDC-Pool;
将第一向量IDC-Pool和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为第一神经网络模块的第二迭代空洞卷积神经网络模型IDCNN2的输入,通过第二迭代空洞卷积神经网络模型IDCNN2进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE;进一步,在一些实施例中,由第二迭代空洞卷积神经网络模型IDCNN2的全连接层生成当前对话语句ContextX的目标类型GT及目标实体GE。
在一些实施例中,将当前对话语句ContextX、当前对话语句ContextX的目标类型GT及目标实体GE和知识库数据{SRO1,SRO2,SRO3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y包括:
将当前对话语句ContextX作为第二神经网络模块的自然语言处理模型的输入,通过自然语言处理模型进行编码以提取语义,生成第二向量X;在一个具体示例中,自然语言处理模型采用BERT模型,其编码器(Encoder)对输入的当前对话语句ContextX进行编码以提取语义,生成第二向量X;
将当前对话语句ContextX的目标类型GT及目标实体GE作为第二神经网络模块的第一双向门控循环单元模型Bi-GRU1的输入,通过第一双向门控循环单元模型Bi-GRU1进行编码,以进行向量的长短对齐,生成第三向量Gc;
将第二向量X与第三向量Gc进行合并,得到第四向量Con1;在一个具体示例中,通过第一合并模块Concat1将第二向量X与第三向量Gc进行合并以得到第四向量Con1;
将知识库数据SRO1,SRO2,SRO3……作为第二神经网络模块的第二双向门控循环单元模型Bi-GRU2的输入,通过第二双向门控循环单元模型Bi-GRU2进行编码,以进行向量的长短对齐,生成第五向量SRO-encoder;
对第四向量Con1和第五向量SRO-encoder进行注意力机制运算,得到第六向量Kc;在一个具体示例中,通过注意力机制运算模块Attention对第四向量Con1和第五向量SRO-encoder进行注意力机制运算以得到第六向量Kc,其中,注意力机制运算模块Attention可对输入的第四向量Con1和第五向量SRO-encoder进行点乘运算,以实现融合,得到第六向量Kc;
对第五向量SRO-encoder与第六向量Kc进行合并,得到第七向量Con2;在一个具体示例中,通过第二合并模块Concat2将第五向量SRO-encoder与第六向量Kc进行合并以得到第七向量Con2;
将第七向量Con2作为第二神经网络模块的单层神经网络模型的输入,通过单层神经网络模型进行分类,生成回复语句Y并返回给用户。
综上,本实施例提供的人机对话方法,能够通过神经网络融合多种类型的对话,实现主动自然的将人机对话从聊天对话、问答对话、任务型对话等非推荐对话引导到推荐对话,并将知识库数据自然融合到对话中,可通过神经网络准确地生成并向用户输出包括聊天语句、回答语句和推荐语句的回复语句,进而基于知识库数据及从用户输入的对话语句分析得到的用户兴趣及时准确地通过一次至多次对话交互实现推荐目标,可提升人机对话的主动性、扩展性及丰富性,从而提升用户体验。
本申请的另一个实施例提供了一种人机对话系统,包括:
获取模块,用于获取用户输入的当前对话语句;
神经网络系统,用于将当前对话语句和知识库数据作为输入,通过特征提取及分类,生成回复语句,回复语句为聊天语句、回答语句或推荐语句。
在一些实施例中,神经网络系统包括:
第一神经网络模块,用于将当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体;
第二神经网络模块,用于将当前对话语句、当前对话语句的目标类型及目标实体和知识库数据作为输入,通过特征提取及分类,生成回复语句。
在一些实施例中,
第一神经网络模块,用于在当前对话语句为初始对话语句时,将当前对话语句和预设的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一些实施例中,第一神经网络模块包括:
第一迭代空洞卷积神经网络模型IDCNN1,用于将当前对话语句作为输入,通过特征提取,生成表征当前对话目标是否完成的第一向量IDC-Pool;
第二迭代空洞卷积神经网络模型IDCNN2,用于将第一向量IDC-Pool和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一些实施例中,
第一迭代空洞卷积神经网络模型IDCNN1,用于通过其池化层生成表征当前对话目标是否完成的第一向量IDC-Pool;
第二迭代空洞卷积神经网络模型IDCNN2,用于通过其全连接层生成当前对话语句的目标类型及目标实体。
在一些实施例中,第二神经网络模块包括:
自然语言处理模型,用于将当前对话语句作为输入,通过编码以提取语义,生成第二向量Xy;在一个具体示例中,自然语言处理模型为BERT模型;
第一双向门控循环单元模型Bi-GRU1,用于将当前对话语句的目标类型及目标实体作为输入,通过编码,生成第三向量Gc;
第一合并模块Concat1,用于将第二向量Xy与第三向量Gc进行合并,得到第四向量Con1;
第二双向门控循环单元模型Bi-GRU2,用于将知识库数据作为输入,通过编码,生成第五向量Kg-encoder;
注意力机制运算模块Attention,用于对第四向量Con1和第五向量Kg-encoder进行注意力机制运算,得到第六向量Kc;
第二合并模块Concat2,用于对第五向量Kg-encoder与第六向量Kc进行合并,得到第七向量Con2;
单层神经网络模型,用于将第七向量Con2作为输入,通过分类,生成回复语句Y。
需要说明的是,本实施例提供的人机对话系统的原理及工作流程与上述人机对话方法相似,相关之处可以参照上述说明,在此不再赘述。
上述实施例提供的人机对话系统可以计算机设备实现,计算机设备可以是各种电子设备,包括但不限于个人电脑、平板电脑、服务器等等。
另外,上述实施例提供的人机对话系统还可以相互配合的终端设备和服务器实现。例如,平板电脑接收用户语音或文字输入的对话语句后发送至服务器,部署神经网络系统的服务器生成回复语句后发送至平板电脑,由平板电脑播放或显示给用户。其中,平板电脑与服务器通过网络进行通信,该网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。上述所称的“接收”的具体实现对应于用户使用平板电脑的方式。例如,用户使用键盘或触控屏向平板电脑输入对话语句,则平板电脑接收用户所输入的对话语句;例如,用户通过在平板电脑的应用程序GUI界面上通过鼠标点选、键盘操作、触控等方式输入对话语句,则平板电脑捕获这些操作从而接收用户所输入的对话语句;例如,用户通过语音的方式输入对话语句,则平板电脑通过语音转文本的方法接收用户所输入的对话语句。
如图5所示,适于用来实现上述实施例提供的人机对话系统的计算机系统,包括中央处理模块(CPU),其可以根据存储在只读存储器(ROM)中的程序或者从存储部分加载到随机访问存储器(RAM)中的程序而执行各种适当的动作和处理。在RAM中,还存储有计算机系统操作所需的各种程序和数据。CPU、ROM以及RAM通过总线被此相连。输入/输入(I/O)接口也连接至总线。
以下部件连接至I/O接口:包括键盘、鼠标等的输入部分;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至I/O接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
特别地,根据本实施例,上文流程图描述的过程可以被实现为计算机软件程序。例如,本实施例包括一种计算机程序产品,其包括有形地包含在计算机可读介质上的计算机程序,上述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。
附图中的流程图和示意图,图示了本实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或示意图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,示意图和/或流程图中的每个方框、以及示意和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本实施例还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中上述装置中所包含的非易失性计算机存储介质,也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当上述一个或者多个程序被一个设备执行时,使得上述设备:获取用户输入的当前对话语句;将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句,其中,回复语句为聊天语句、回答语句或推荐语句。
需要说明的是,在本申请的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
显然,本申请的上述实施例仅仅是为清楚地说明本申请所作的举例,而并非是对本申请的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本申请的技术方案所引伸出的显而易见的变化或变动仍处于本申请的保护范围之列。
Claims (13)
1.一种人机对话方法,其特征在于,包括:
获取用户输入的当前对话语句;
将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体;
将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句。
2.根据权利要求1所述的人机对话方法,其特征在于,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
对于当前对话语句为初始对话语句的情况,将所述当前对话语句和预设的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体。
3.根据权利要求1所述的人机对话方法,其特征在于,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
将所述当前对话语句作为所述第一神经网络模块的第一迭代空洞卷积神经网络模型的输入,通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量;
将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述第一神经网络模块的第二迭代空洞卷积神经网络模型的输入,通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体。
4.根据权利要求3所述的人机对话方法,其特征在于,
所述通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量包括:通过所述第一迭代空洞卷积神经网络模型进行特征提取,由所述第一迭代空洞卷积神经网络模型的池化层生成表征当前对话目标是否完成的第一向量;
所述通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体包括:通过所述第二迭代空洞卷积神经网络模型进行特征提取,由所述第二迭代空洞卷积神经网络模型的全连接层生成当前对话语句的目标类型及目标实体。
5.根据权利要求1所述的人机对话方法,其特征在于,所述将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句包括:
将所述当前对话语句作为所述第二神经网络模块的自然语言处理模型的输入,通过所述自然语言处理模型进行编码以提取语义,生成第二向量;
将所述当前对话语句的目标类型及目标实体作为所述第二神经网络模块的第一双向门控循环单元模型的输入,通过所述第一双向门控循环单元模型进行编码,生成第三向量;
将所述第二向量与所述第三向量进行合并,得到第四向量;
将所述知识库数据作为所述第二神经网络模块的第二双向门控循环单元模型的输入,通过所述第二双向门控循环单元模型进行编码,生成第五向量;
对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
对所述第五向量与所述第六向量进行合并,得到第七向量;
将所述第七向量作为所述第二神经网络模块的单层神经网络模型的输入,通过所述单层神经网络模型进行分类,生成回复语句。
6.根据权利要求1所述的人机对话方法,其特征在于,在所述将所述当前对话语句和知识库数据作为神经网络系统的输入,通过所述神经网络系统进行特征提取及分类,生成回复语句之前,该方法还包括:
利用训练数据训练得到神经网络系统,所述训练数据包括对话序列、候选回复语句、知识库数据和目标推荐序列,所述对话序列包括聊天对话、问答对话和推荐对话。
7.一种人机对话系统,其特征在于,包括:
获取模块,用于获取用户输入的当前对话语句;
第一神经网络模块,用于将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体;
第二神经网络模块,用于将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为输入,通过特征提取及分类,生成回复语句。
8.根据权利要求7所述的人机对话系统,其特征在于,
所述第一神经网络模块,用于在当前对话语句为初始对话语句时,将所述当前对话语句和预设的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
9.根据权利要求7所述的人机对话系统,其特征在于,所述第一神经网络模块包括:
第一迭代空洞卷积神经网络模型,用于将所述当前对话语句作为输入,通过特征提取,生成表征当前对话目标是否完成的第一向量;
第二迭代空洞卷积神经网络模型,用于将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
10.根据权利要求9所述的人机对话系统,其特征在于,
所述第一迭代空洞卷积神经网络模型,用于通过其池化层生成表征当前对话目标是否完成的第一向量;
所述第二迭代空洞卷积神经网络模型,用于通过其全连接层生成当前对话语句的目标类型及目标实体。
11.根据权利要求7所述的人机对话系统,其特征在于,所述第二神经网络模块包括:
自然语言处理模型,用于将所述当前对话语句作为输入,通过编码以提取语义,生成第二向量;
第一双向门控循环单元模型,用于将所述当前对话语句的目标类型及目标实体作为输入,通过编码,生成第三向量;
第一合并模块,用于将所述第二向量与所述第三向量进行合并,得到第四向量;
第二双向门控循环单元模型,用于将所述知识库数据作为输入,通过编码,生成第五向量;
运算模块,用于对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
第二合并模块,用于对所述第五向量与所述第六向量进行合并,得到第七向量;
单层神经网络模型,用于将所述第七向量作为输入,通过分类,生成回复语句。
12.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010966100.5A CN112100353B (zh) | 2020-09-15 | 2020-09-15 | 人机对话方法及系统、计算机设备及介质 |
US17/331,056 US11947920B2 (en) | 2020-09-15 | 2021-05-26 | Man-machine dialogue method and system, computer device and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010966100.5A CN112100353B (zh) | 2020-09-15 | 2020-09-15 | 人机对话方法及系统、计算机设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112100353A true CN112100353A (zh) | 2020-12-18 |
CN112100353B CN112100353B (zh) | 2024-06-07 |
Family
ID=73758593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010966100.5A Active CN112100353B (zh) | 2020-09-15 | 2020-09-15 | 人机对话方法及系统、计算机设备及介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11947920B2 (zh) |
CN (1) | CN112100353B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023061443A1 (zh) * | 2021-10-15 | 2023-04-20 | 华为技术有限公司 | 一种确定回复语句的方法及装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115309877B (zh) * | 2022-08-03 | 2023-05-30 | 北京百度网讯科技有限公司 | 对话生成方法、对话模型训练方法及装置 |
CN115169367B (zh) * | 2022-09-06 | 2022-12-09 | 杭州远传新业科技股份有限公司 | 对话生成方法及装置、存储介质 |
CN115497465A (zh) * | 2022-09-06 | 2022-12-20 | 平安银行股份有限公司 | 语音交互方法、装置、电子设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202476A (zh) * | 2016-07-14 | 2016-12-07 | 广州安望信息科技有限公司 | 一种基于知识图谱的人机对话的方法及装置 |
JP2018010610A (ja) * | 2016-07-01 | 2018-01-18 | パナソニックIpマネジメント株式会社 | エージェント装置、対話システム、対話方法及びプログラム |
CN110347792A (zh) * | 2019-06-25 | 2019-10-18 | 腾讯科技(深圳)有限公司 | 对话生成方法及装置、存储介质、电子设备 |
CN111125330A (zh) * | 2019-12-19 | 2020-05-08 | 厦门快商通科技股份有限公司 | 一种基于人机对话的智能问答方法和装置以及设备 |
CN111191016A (zh) * | 2019-12-27 | 2020-05-22 | 车智互联(北京)科技有限公司 | 一种多轮对话处理方法、装置及计算设备 |
CN111339781A (zh) * | 2020-02-10 | 2020-06-26 | 科大讯飞华南人工智能研究院(广州)有限公司 | 意图识别方法、装置、电子设备和存储介质 |
CN111581375A (zh) * | 2020-04-01 | 2020-08-25 | 车智互联(北京)科技有限公司 | 对话意图类型识别方法、多轮对话方法、装置及计算设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10678816B2 (en) * | 2017-08-23 | 2020-06-09 | Rsvp Technologies Inc. | Single-entity-single-relation question answering systems, and methods |
US11120059B2 (en) * | 2018-06-27 | 2021-09-14 | Adobe Inc. | Conversational query answering system |
CN109815482B (zh) * | 2018-12-17 | 2023-05-23 | 北京百度网讯科技有限公司 | 一种新闻交互的方法、装置、设备和计算机存储介质 |
US20220130378A1 (en) * | 2018-12-27 | 2022-04-28 | Telepathy Labs, Inc. | System and method for communicating with a user with speech processing |
WO2020172329A1 (en) * | 2019-02-19 | 2020-08-27 | Google Llc | Learning to extract entities from conversations with neural networks |
US11651158B2 (en) * | 2020-08-13 | 2023-05-16 | Salesforce, Inc. | Entity resolution for chatbot conversations |
-
2020
- 2020-09-15 CN CN202010966100.5A patent/CN112100353B/zh active Active
-
2021
- 2021-05-26 US US17/331,056 patent/US11947920B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018010610A (ja) * | 2016-07-01 | 2018-01-18 | パナソニックIpマネジメント株式会社 | エージェント装置、対話システム、対話方法及びプログラム |
CN106202476A (zh) * | 2016-07-14 | 2016-12-07 | 广州安望信息科技有限公司 | 一种基于知识图谱的人机对话的方法及装置 |
CN110347792A (zh) * | 2019-06-25 | 2019-10-18 | 腾讯科技(深圳)有限公司 | 对话生成方法及装置、存储介质、电子设备 |
CN111125330A (zh) * | 2019-12-19 | 2020-05-08 | 厦门快商通科技股份有限公司 | 一种基于人机对话的智能问答方法和装置以及设备 |
CN111191016A (zh) * | 2019-12-27 | 2020-05-22 | 车智互联(北京)科技有限公司 | 一种多轮对话处理方法、装置及计算设备 |
CN111339781A (zh) * | 2020-02-10 | 2020-06-26 | 科大讯飞华南人工智能研究院(广州)有限公司 | 意图识别方法、装置、电子设备和存储介质 |
CN111581375A (zh) * | 2020-04-01 | 2020-08-25 | 车智互联(北京)科技有限公司 | 对话意图类型识别方法、多轮对话方法、装置及计算设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023061443A1 (zh) * | 2021-10-15 | 2023-04-20 | 华为技术有限公司 | 一种确定回复语句的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US11947920B2 (en) | 2024-04-02 |
US20220083742A1 (en) | 2022-03-17 |
CN112100353B (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Thorat et al. | A review on implementation issues of rule-based chatbot systems | |
CN109241255B (zh) | 一种基于深度学习的意图识别方法 | |
CN111625635A (zh) | 问答处理、语言模型的训练方法、装置、设备及存储介质 | |
CN112100353A (zh) | 人机对话方法及系统、计算机设备及介质 | |
CN107609092B (zh) | 智能应答方法和装置 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
CN112487173B (zh) | 人机对话方法、设备和存储介质 | |
CN111241245B (zh) | 人机交互处理方法、装置及电子设备 | |
CN110019742B (zh) | 用于处理信息的方法和装置 | |
CN111666380A (zh) | 一种智能呼叫方法、装置、设备和介质 | |
CN115309877B (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN112214601B (zh) | 一种社交短文本情感分类方法、装置及存储介质 | |
CN114970522B (zh) | 语言模型的预训练方法、装置、设备、存储介质 | |
CN109815485B (zh) | 一种微博短文本情感极性识别的方法、装置及存储介质 | |
US20220358292A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
CN116127020A (zh) | 生成式大语言模型训练方法以及基于模型的搜索方法 | |
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
JP2021111334A (ja) | 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器 | |
WO2021135457A1 (zh) | 基于循环神经网络的情绪识别方法、装置及存储介质 | |
CN113160819B (zh) | 用于输出动画的方法、装置、设备、介质和产品 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
WO2020052061A1 (zh) | 用于处理信息的方法和装置 | |
CN117521675A (zh) | 基于大语言模型的信息处理方法、装置、设备及存储介质 | |
CN112364148A (zh) | 一种基于深度学习方法的生成型聊天机器人 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |