CN112100353A - 人机对话方法及系统、计算机设备及介质 - Google Patents

人机对话方法及系统、计算机设备及介质 Download PDF

Info

Publication number
CN112100353A
CN112100353A CN202010966100.5A CN202010966100A CN112100353A CN 112100353 A CN112100353 A CN 112100353A CN 202010966100 A CN202010966100 A CN 202010966100A CN 112100353 A CN112100353 A CN 112100353A
Authority
CN
China
Prior art keywords
neural network
vector
statement
current
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010966100.5A
Other languages
English (en)
Other versions
CN112100353B (zh
Inventor
梁天新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN202010966100.5A priority Critical patent/CN112100353B/zh
Publication of CN112100353A publication Critical patent/CN112100353A/zh
Priority to US17/331,056 priority patent/US11947920B2/en
Application granted granted Critical
Publication of CN112100353B publication Critical patent/CN112100353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开一种人机对话方法及系统、计算机设备及介质。该方法的一具体实施方式包括:获取用户输入的当前对话语句;将当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体;将当前对话语句、当前对话语句的目标类型及目标实体和知识库数据作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句。该实施方式能够实现主动自然的将人机对话从聊天对话、问答对话、任务型对话等非推荐对话引导到推荐对话,以实现推荐目标。

Description

人机对话方法及系统、计算机设备及介质
技术领域
本申请涉及计算机技术领域。更具体地,涉及一种人机对话方法及系统、计算机设备及介质。
背景技术
随着移动互联网和智能终端的快速发展,人机对话的应用越来越广泛。,例如各大互联网公司也推出各自的智能助手Apple Siri、Google Now、微软小娜(MicrosoftCortana)、Facebook M、百度度秘和微软小冰等等,都应用了人机对话功能。目前,现有的人机对话方式涉及到多种类型的对话,比如聊天对话、问答对话、任务型对话等,但这些类型的对话彼此之间是孤立的,主动性、扩展性及丰富性不足,且不符合通常的用户交谈习惯。现有的人机对话技术还需要不断发展和改进,朝着更加拟人化、博学化、并且能够完成更加复杂的任务的方向发展。
发明内容
本申请的目的在于提供一种人机对话方法及系统、计算机设备及介质,以解决现有技术存在的问题中的至少一个。
为达到上述目的,本申请采用下述技术方案:
本申请第一方面提供了一种人机对话方法,包括:
获取用户输入的当前对话语句;
将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体;
将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句。
在一种可能的实现方式中,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
对于当前对话语句为初始对话语句的情况,将所述当前对话语句和预设的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
将所述当前对话语句作为所述第一神经网络模块的第一迭代空洞卷积神经网络模型的输入,通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量;
将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述第一神经网络模块的第二迭代空洞卷积神经网络模型的输入,通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,
所述通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量包括:通过所述第一迭代空洞卷积神经网络模型进行特征提取,由所述第一迭代空洞卷积神经网络模型的池化层生成表征当前对话目标是否完成的第一向量;
所述通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体包括:通过所述第二迭代空洞卷积神经网络模型进行特征提取,由所述第二迭代空洞卷积神经网络模型的全连接层生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句包括:
将所述当前对话语句作为所述第二神经网络模块的自然语言处理模型的输入,通过所述自然语言处理模型进行编码以提取语义,生成第二向量;
将所述当前对话语句的目标类型及目标实体作为所述第二神经网络模块的第一双向门控循环单元模型的输入,通过所述第一双向门控循环单元模型进行编码,生成第三向量;
将所述第二向量与所述第三向量进行合并,得到第四向量;
将所述知识库数据作为所述第二神经网络模块的第二双向门控循环单元模型的输入,通过所述第二双向门控循环单元模型进行编码,生成第五向量;
对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
对所述第五向量与所述第六向量进行合并,得到第七向量;
将所述第七向量作为所述第二神经网络模块的单层神经网络模型的输入,通过所述单层神经网络模型进行分类,生成回复语句。
在一种可能的实现方式中,在所述将所述当前对话语句和知识库数据作为神经网络系统的输入,通过所述神经网络系统进行特征提取及分类,生成回复语句之前,该方法还包括:
利用训练数据训练得到神经网络系统,所述训练数据包括对话序列、候选回复语句、知识库数据和目标推荐序列,所述对话序列包括聊天对话、问答对话和推荐对话。
本申请第二方面提供了一种人机对话系统,包括:
获取模块,用于获取用户输入的当前对话语句;
第一神经网络模块,用于将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体;
第二神经网络模块,用于将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为输入,通过特征提取及分类,生成回复语句。
在一种可能的实现方式中,
所述第一神经网络模块,用于在当前对话语句为初始对话语句时,将所述当前对话语句和预设的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述第一神经网络模块包括:
第一迭代空洞卷积神经网络模型,用于将所述当前对话语句作为输入,通过特征提取,生成表征当前对话目标是否完成的第一向量;
第二迭代空洞卷积神经网络模型,用于将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,
所述第一迭代空洞卷积神经网络模型,用于通过其池化层生成表征当前对话目标是否完成的第一向量;
所述第二迭代空洞卷积神经网络模型,用于通过其全连接层生成当前对话语句的目标类型及目标实体。
在一种可能的实现方式中,所述第二神经网络模块包括:
自然语言处理模型,用于将所述当前对话语句作为输入,通过编码以提取语义,生成第二向量;
第一双向门控循环单元模型,用于将所述当前对话语句的目标类型及目标实体作为输入,通过编码,生成第三向量;
第一合并模块,用于将所述第二向量与所述第三向量进行合并,得到第四向量;
第二双向门控循环单元模型,用于将所述知识库数据作为输入,通过编码,生成第五向量;
运算模块,用于对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
第二合并模块,用于对所述第五向量与所述第六向量进行合并,得到第七向量;
单层神经网络模型,用于将所述第七向量作为输入,通过分类,生成回复语句。
本申请第三方面提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本申请第一方面提供的人机对话方法。
本申请第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请第一方面提供的人机对话方法。
本申请的有益效果如下:
本申请所述技术方案能够通过神经网络融合多种类型的对话,实现主动自然的将人机对话从聊天对话、问答对话、任务型对话等非推荐对话引导到推荐对话,并将知识库数据自然融合到对话中,可通过神经网络准确地生成并向用户输出包括聊天语句、回答语句和推荐语句的回复语句,进而基于知识库数据及从用户输入的对话语句分析得到的用户兴趣及时准确地通过一次至多次对话交互实现推荐目标,可提升人机对话的主动性、扩展性及丰富性,从而提升用户体验。
附图说明
下面结合附图对本申请的具体实施方式作进一步详细的说明。
图1示出本申请的一个实施例提供的人机对话方法的流程图。
图2示出对话逻辑的示例图。
图3示出神经网络系统的训练过程示意图。
图4示出神经网络系统的使用过程的示意图。
图5示出实现本申请实施例提供的人机对话系统的计算机系统的结构示意图。
具体实施方式
为了更清楚地说明本申请,下面结合实施例和附图对本申请做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本申请的保护范围。
如图1所示,本申请一个实施例提供了一种人机对话方法,包括:
获取用户输入的当前对话语句;
将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句,其中,回复语句为聊天语句、回答语句或推荐语句。
在一些实施例中,在将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句之前,该方法还包括:
利用训练数据训练得到神经网络系统,训练数据包括对话序列、候选回复语句、知识库数据和目标推荐序列,对话序列包括聊天对话、问答对话和推荐对话。
应理解,本实施例提供的人机对话方法是一种基于神经网络系统的人机对话方法。作为一个机器学习模型,神经网络系统可以分为训练和使用两个阶段。
训练阶段是根据训练数据,通过反向传播算法或者随机梯度下降算法等,最大化训练数据上的似然函数来确定神经网络系统中各网络或模型的参数。使用阶段是基于已经构建的知识库,以用户输入的当前对话语句为神经网络系统的输入,通过神经网络系统的计算,产生回复语句以返回给用户。
为了便于理解,下面从训练阶段开始进行介绍。
首先构建训练数据,训练数据包括:
对话序列ContextX0:{ContextX0,1,ContextX0,2,ContextX0,3……};
候选回复语句Y0:{Y0,1,Y0,2,Y0,3……};
知识库数据Subject,Relation,Object(主体,关系,客体):{SRO1,SRO2,SRO3……};及
目标推荐序列GT0,GE0(Goal-Type0,Goal-Entity0,Goal-Type即目标类型,Goal-Entity即目标实体):{[GT0,1,GE0,1],[GT0,2,GE0,2],[GT0,3,GE0,3]……}。
其中,知识库基于一些“事实”(facts)组成。知识库中包括记录(records)或者“元组(tuple)”。具体地,可以从互联网获取知识库。在本实施例中,知识库数据具体可以由多个三元组构成,可以从百度百科、互动百科、豆瓣等百科知识网站抓取网页,并通过对网页中的表格解析得到结构化的三元组。经过进一步的处理,例如可以包括去噪、合并等处理。最终抽取得到多个三元组,构成知识库。
在一个具体示例中,以本实施例提供的人机对话方法应用于显示装置,以在人机对话过程中实现画作推荐为例:
对话样例例如:
“用户:你好。
显示装置:你好,小明。
用户:你知道谁画的睡莲吗?
显示装置:我知道的,是莫奈。
显示装置:莫奈还是法国画家呢。
用户:他还有什么作品?
显示装置:莫奈还画过日出·印象、干草堆等,想看吗?
用户:想看。
显示装置:请欣赏日出·印象。”
则:
对话序列ContextX0例如包括ContextX0,1“‘你好。’,‘你好,小明。’
‘你知道谁画的睡莲吗?’,‘我知道的,是莫奈。’等。
候选回复语句Y0例如包括Y0,1“我知道的,是莫奈”、Y0,2“莫奈还是法国画家呢。”等。
知识库数据Subject,Relation,Object例如包括SRO1“莫奈,国籍,法国”、SRO2“莫奈,生日,1840年11月14日”、SRO3“莫奈,画派,印象派”、SRO4“莫奈,代表作,日出·印象”、SRO5“莫奈,代表作,干草堆”、SRO6“莫奈,代表作,睡莲”、SRO7“莫奈,代表作,卢昂大教堂”等。
目标推荐序列Goal-Type0,Goal-Entity0例如包括:[GT0,1,GE0,1]“[问答,莫奈]”、[GT0,2,GE0,2]“[画作推荐,莫奈]”、[GT0,3,GE0,3]“[画作点播,莫奈]”等。
本示例中,实现人机的对话逻辑如图2所示,其给出了目标推荐序列的指导。
如图3所示,神经网络系统的结构及训练过程在下面介绍。
在一些实施例中,利用训练数据训练得到神经网络系统包括:
将训练数据中的对话序列中的用户对话语句作为ContextX0和用户对话语句ContextX0之前获取的前序对话语句的目标类型GT0`及目标实体GE0`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT0及目标实体GE0
将用户对话语句ContextX0、用户对话语句ContextX0的目标类型GT0及目标实体GE0和知识库数据{SRO1,SRO 2,SRO 3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y。
进一步,在一些实施例中,将训练数据中的对话序列中的用户对话语句作为ContextX0和用户对话语句ContextX0之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT及目标实体GE包括:
对于用户对话语句ContextX0为初始对话语句的情况,将用户对话语句ContextX0和预设的目标类型及目标实体作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT0及目标实体GE0
进一步,在一些实施例中,将训练数据中的对话序列中的用户对话语句作为ContextX0和排在用户对话语句ContextX0之前的前序用户对话语句的目标类型GT0`及目标实体GE0`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成用户对话语句ContextX0的目标类型GT0及目标实体GE0包括:
将用户对话语句ContextX0作为第一神经网络模块的第一迭代空洞卷积神经网络模型IDCNN(Iteration Dilated Convolutions Neural Network)1的输入,通过第一迭代空洞卷积神经网络模型IDCNN1进行特征提取,生成表征当前对话目标是否完成的第一向量IDC-Pool0;进一步,在一些实施例中,由第一迭代空洞卷积神经网络模型IDCNN1的池化层生成表征当前对话目标是否完成的第一向量IDC-Pool0,不同于传统的分类输出,IDCNN1仅仅是用池化后的信息IDC-pool0作为输出,其代表当前话题目标是否完成(例如用户对话语句ContextX0是否表达了“再见”等表征当前对方目标是否完成的文本语义),可由一个30维度的向量进行表示;
将第一向量IDC-Pool0和排在用户对话语句ContextX0之前的前序用户对话语句的目标类型GT0`及目标实体GE0`作为第一神经网络模块的第二迭代空洞卷积神经网络模型IDCNN2的输入,通过第二迭代空洞卷积神经网络模型IDCNN2进行特征提取,生成用户对话语句ContextX0的GT0及目标实体GE0;进一步,在一些实施例中,由第二迭代空洞卷积神经网络模型IDCNN2的全连接层生成用户对话语句ContextX0的目标类型GT0及目标实体GE0;在一个具体示例中,将第一向量IDC-Pool0和排在用户对话语句ContextX0之前的前序用户对话语句的目标类型GT0`及目标实体GE0`转化为嵌入向量(embedding)之后作为第二迭代空洞卷积神经网络模型IDCNN2的输入,第二迭代空洞卷积神经网络模型IDCNN2的全连接层用多标签分类输出用户对话语句ContextX0的目标类型GT0及目标实体GE0,将第一迭代空洞卷积神经网络模型IDCNN1与第二迭代空洞卷积神经网络模型IDCNN2链接到一起,然后以端到端的方式进行训练,最后由第二迭代空洞卷积神经网络模型IDCNN2的全连接层输出用户对话语句ContextX0的目标类型GT0及目标实体GE0
进一步,在一些实施例中,将用户对话语句ContextX0、用户对话语句ContextX0的目标类型GT0及目标实体GE0和知识库数据{SRO1,SRO 2,SRO3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y包括:
将用户对话语句ContextX0和反向传播的回复语句Y作为第二神经网络模块的自然语言处理模型的输入,通过自然语言处理模型进行编码以提取语义,生成第二向量Xy0;在一些实施例中,自然语言处理模型采用BERT(Bidirectional Encoder Representationsfrom Transformers,来自变换器的双向编码器表征量)模型,其编码器(Encoder)对输入的用户对话语句ContextX0和反向传播的回复语句Y进行编码以提取语义,生成第二向量Xy0
将用户对话语句ContextX0的目标类型GT0及目标实体GE0作为第二神经网络模块的第一双向门控循环单元模型Bi-GRU(Bi-Gate Recurrent Unit)1的输入,通过第一双向门控循环单元模型Bi-GRU1进行编码,以进行向量的长短对齐,生成第三向量Gc0
将第二向量Xy0与第三向量Gc0进行合并,得到第四向量Con10;在一个具体示例中,通过第一合并模块Concat1将第二向量Xy0与第三向量Gc0进行合并以得到第四向量Con10
将知识库数据SRO1,SRO2,SRO3……作为第二神经网络模块的第二双向门控循环单元模型Bi-GRU2的输入,通过第二双向门控循环单元模型Bi-GRU2进行编码,以进行向量的长短对齐,生成第五向量SRO-encoder;
对第四向量Con10和第五向量SRO-encoder进行注意力机制运算,得到第六向量Kc0;在一个具体示例中,通过注意力机制运算模块Attention对第四向量Con10和第五向量SRO-encoder进行注意力机制运算以得到第六向量Kc0,其中,注意力机制运算模块Attention可对输入的第四向量Con10和第五向量SRO-encoder进行点乘运算,以实现融合,得到第六向量Kc0
对第五向量SRO-encoder与第六向量Kc0进行合并,得到第七向量Con20;在一个具体示例中,通过第二合并模块Concat2将第五向量SRO-encoder与第六向量Kc0进行合并以得到第七向量Con20
将第七向量Con20作为第二神经网络模块的单层神经网络模型的输入,通过单层神经网络模型进行分类,生成回复语句Y;在一个具体示例中,单层神经网络模型将输入的第七向量Con20与候选回复Y0进行比较以得到最接近的回复语句Y。
以上详细介绍了神经网络系统的训练阶段。使用阶段与训练阶段的原理类似,如图4所示,下面介绍使用过程。
在一些实施例中,如图1所示,将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句包括:
将当前对话语句作为ContextX和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE;
将当前对话语句ContextX、当前对话语句ContextX的目标类型GT及目标实体GE和知识库数据{SRO1,SRO2,SRO3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y。
进一步,在一些实施例中,将当前对话语句ContextX和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE包括:
对于当前对话语句ContextX为初始对话语句的情况,将当前对话语句ContextX和预设的目标类型及目标实体作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE。
进一步,在一些实施例中,将当前对话语句ContextX和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为神经网络系统的第一神经网络模块的输入,通过第一神经网络模块进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE包括:
将当前对话语句ContextX作为第一神经网络模块的第一迭代空洞卷积神经网络模型IDCNN1的输入,通过第一迭代空洞卷积神经网络模型IDCNN1进行特征提取,生成表征当前对话目标是否完成的第一向量IDC-Pool;进一步,在一些实施例中,由第一迭代空洞卷积神经网络模型IDCNN1的池化层生成表征当前对话目标是否完成的第一向量IDC-Pool;
将第一向量IDC-Pool和在当前对话语句ContextX之前获取的前序对话语句的目标类型GT`及目标实体GE`作为第一神经网络模块的第二迭代空洞卷积神经网络模型IDCNN2的输入,通过第二迭代空洞卷积神经网络模型IDCNN2进行特征提取,生成当前对话语句ContextX的目标类型GT及目标实体GE;进一步,在一些实施例中,由第二迭代空洞卷积神经网络模型IDCNN2的全连接层生成当前对话语句ContextX的目标类型GT及目标实体GE。
在一些实施例中,将当前对话语句ContextX、当前对话语句ContextX的目标类型GT及目标实体GE和知识库数据{SRO1,SRO2,SRO3……}作为神经网络系统的第二神经网络模块的输入,通过第二神经网络模块进行特征提取及分类,生成回复语句Y包括:
将当前对话语句ContextX作为第二神经网络模块的自然语言处理模型的输入,通过自然语言处理模型进行编码以提取语义,生成第二向量X;在一个具体示例中,自然语言处理模型采用BERT模型,其编码器(Encoder)对输入的当前对话语句ContextX进行编码以提取语义,生成第二向量X;
将当前对话语句ContextX的目标类型GT及目标实体GE作为第二神经网络模块的第一双向门控循环单元模型Bi-GRU1的输入,通过第一双向门控循环单元模型Bi-GRU1进行编码,以进行向量的长短对齐,生成第三向量Gc;
将第二向量X与第三向量Gc进行合并,得到第四向量Con1;在一个具体示例中,通过第一合并模块Concat1将第二向量X与第三向量Gc进行合并以得到第四向量Con1;
将知识库数据SRO1,SRO2,SRO3……作为第二神经网络模块的第二双向门控循环单元模型Bi-GRU2的输入,通过第二双向门控循环单元模型Bi-GRU2进行编码,以进行向量的长短对齐,生成第五向量SRO-encoder;
对第四向量Con1和第五向量SRO-encoder进行注意力机制运算,得到第六向量Kc;在一个具体示例中,通过注意力机制运算模块Attention对第四向量Con1和第五向量SRO-encoder进行注意力机制运算以得到第六向量Kc,其中,注意力机制运算模块Attention可对输入的第四向量Con1和第五向量SRO-encoder进行点乘运算,以实现融合,得到第六向量Kc;
对第五向量SRO-encoder与第六向量Kc进行合并,得到第七向量Con2;在一个具体示例中,通过第二合并模块Concat2将第五向量SRO-encoder与第六向量Kc进行合并以得到第七向量Con2;
将第七向量Con2作为第二神经网络模块的单层神经网络模型的输入,通过单层神经网络模型进行分类,生成回复语句Y并返回给用户。
综上,本实施例提供的人机对话方法,能够通过神经网络融合多种类型的对话,实现主动自然的将人机对话从聊天对话、问答对话、任务型对话等非推荐对话引导到推荐对话,并将知识库数据自然融合到对话中,可通过神经网络准确地生成并向用户输出包括聊天语句、回答语句和推荐语句的回复语句,进而基于知识库数据及从用户输入的对话语句分析得到的用户兴趣及时准确地通过一次至多次对话交互实现推荐目标,可提升人机对话的主动性、扩展性及丰富性,从而提升用户体验。
本申请的另一个实施例提供了一种人机对话系统,包括:
获取模块,用于获取用户输入的当前对话语句;
神经网络系统,用于将当前对话语句和知识库数据作为输入,通过特征提取及分类,生成回复语句,回复语句为聊天语句、回答语句或推荐语句。
在一些实施例中,神经网络系统包括:
第一神经网络模块,用于将当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体;
第二神经网络模块,用于将当前对话语句、当前对话语句的目标类型及目标实体和知识库数据作为输入,通过特征提取及分类,生成回复语句。
在一些实施例中,
第一神经网络模块,用于在当前对话语句为初始对话语句时,将当前对话语句和预设的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一些实施例中,第一神经网络模块包括:
第一迭代空洞卷积神经网络模型IDCNN1,用于将当前对话语句作为输入,通过特征提取,生成表征当前对话目标是否完成的第一向量IDC-Pool;
第二迭代空洞卷积神经网络模型IDCNN2,用于将第一向量IDC-Pool和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
在一些实施例中,
第一迭代空洞卷积神经网络模型IDCNN1,用于通过其池化层生成表征当前对话目标是否完成的第一向量IDC-Pool;
第二迭代空洞卷积神经网络模型IDCNN2,用于通过其全连接层生成当前对话语句的目标类型及目标实体。
在一些实施例中,第二神经网络模块包括:
自然语言处理模型,用于将当前对话语句作为输入,通过编码以提取语义,生成第二向量Xy;在一个具体示例中,自然语言处理模型为BERT模型;
第一双向门控循环单元模型Bi-GRU1,用于将当前对话语句的目标类型及目标实体作为输入,通过编码,生成第三向量Gc;
第一合并模块Concat1,用于将第二向量Xy与第三向量Gc进行合并,得到第四向量Con1;
第二双向门控循环单元模型Bi-GRU2,用于将知识库数据作为输入,通过编码,生成第五向量Kg-encoder;
注意力机制运算模块Attention,用于对第四向量Con1和第五向量Kg-encoder进行注意力机制运算,得到第六向量Kc;
第二合并模块Concat2,用于对第五向量Kg-encoder与第六向量Kc进行合并,得到第七向量Con2;
单层神经网络模型,用于将第七向量Con2作为输入,通过分类,生成回复语句Y。
需要说明的是,本实施例提供的人机对话系统的原理及工作流程与上述人机对话方法相似,相关之处可以参照上述说明,在此不再赘述。
上述实施例提供的人机对话系统可以计算机设备实现,计算机设备可以是各种电子设备,包括但不限于个人电脑、平板电脑、服务器等等。
另外,上述实施例提供的人机对话系统还可以相互配合的终端设备和服务器实现。例如,平板电脑接收用户语音或文字输入的对话语句后发送至服务器,部署神经网络系统的服务器生成回复语句后发送至平板电脑,由平板电脑播放或显示给用户。其中,平板电脑与服务器通过网络进行通信,该网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。上述所称的“接收”的具体实现对应于用户使用平板电脑的方式。例如,用户使用键盘或触控屏向平板电脑输入对话语句,则平板电脑接收用户所输入的对话语句;例如,用户通过在平板电脑的应用程序GUI界面上通过鼠标点选、键盘操作、触控等方式输入对话语句,则平板电脑捕获这些操作从而接收用户所输入的对话语句;例如,用户通过语音的方式输入对话语句,则平板电脑通过语音转文本的方法接收用户所输入的对话语句。
如图5所示,适于用来实现上述实施例提供的人机对话系统的计算机系统,包括中央处理模块(CPU),其可以根据存储在只读存储器(ROM)中的程序或者从存储部分加载到随机访问存储器(RAM)中的程序而执行各种适当的动作和处理。在RAM中,还存储有计算机系统操作所需的各种程序和数据。CPU、ROM以及RAM通过总线被此相连。输入/输入(I/O)接口也连接至总线。
以下部件连接至I/O接口:包括键盘、鼠标等的输入部分;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至I/O接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
特别地,根据本实施例,上文流程图描述的过程可以被实现为计算机软件程序。例如,本实施例包括一种计算机程序产品,其包括有形地包含在计算机可读介质上的计算机程序,上述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。
附图中的流程图和示意图,图示了本实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或示意图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,示意图和/或流程图中的每个方框、以及示意和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本实施例还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中上述装置中所包含的非易失性计算机存储介质,也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当上述一个或者多个程序被一个设备执行时,使得上述设备:获取用户输入的当前对话语句;将当前对话语句和知识库数据作为神经网络系统的输入,通过神经网络系统进行特征提取及分类,生成回复语句,其中,回复语句为聊天语句、回答语句或推荐语句。
需要说明的是,在本申请的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
显然,本申请的上述实施例仅仅是为清楚地说明本申请所作的举例,而并非是对本申请的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本申请的技术方案所引伸出的显而易见的变化或变动仍处于本申请的保护范围之列。

Claims (13)

1.一种人机对话方法,其特征在于,包括:
获取用户输入的当前对话语句;
将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体;
将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句。
2.根据权利要求1所述的人机对话方法,其特征在于,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
对于当前对话语句为初始对话语句的情况,将所述当前对话语句和预设的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体。
3.根据权利要求1所述的人机对话方法,其特征在于,所述将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述神经网络系统的第一神经网络模块的输入,通过所述第一神经网络模块进行特征提取,生成当前对话语句的目标类型及目标实体包括:
将所述当前对话语句作为所述第一神经网络模块的第一迭代空洞卷积神经网络模型的输入,通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量;
将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为所述第一神经网络模块的第二迭代空洞卷积神经网络模型的输入,通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体。
4.根据权利要求3所述的人机对话方法,其特征在于,
所述通过所述第一迭代空洞卷积神经网络模型进行特征提取,生成表征当前对话目标是否完成的第一向量包括:通过所述第一迭代空洞卷积神经网络模型进行特征提取,由所述第一迭代空洞卷积神经网络模型的池化层生成表征当前对话目标是否完成的第一向量;
所述通过所述第二迭代空洞卷积神经网络模型进行特征提取,生成当前对话语句的目标类型及目标实体包括:通过所述第二迭代空洞卷积神经网络模型进行特征提取,由所述第二迭代空洞卷积神经网络模型的全连接层生成当前对话语句的目标类型及目标实体。
5.根据权利要求1所述的人机对话方法,其特征在于,所述将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为所述神经网络系统的第二神经网络模块的输入,通过所述第二神经网络模块进行特征提取及分类,生成回复语句包括:
将所述当前对话语句作为所述第二神经网络模块的自然语言处理模型的输入,通过所述自然语言处理模型进行编码以提取语义,生成第二向量;
将所述当前对话语句的目标类型及目标实体作为所述第二神经网络模块的第一双向门控循环单元模型的输入,通过所述第一双向门控循环单元模型进行编码,生成第三向量;
将所述第二向量与所述第三向量进行合并,得到第四向量;
将所述知识库数据作为所述第二神经网络模块的第二双向门控循环单元模型的输入,通过所述第二双向门控循环单元模型进行编码,生成第五向量;
对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
对所述第五向量与所述第六向量进行合并,得到第七向量;
将所述第七向量作为所述第二神经网络模块的单层神经网络模型的输入,通过所述单层神经网络模型进行分类,生成回复语句。
6.根据权利要求1所述的人机对话方法,其特征在于,在所述将所述当前对话语句和知识库数据作为神经网络系统的输入,通过所述神经网络系统进行特征提取及分类,生成回复语句之前,该方法还包括:
利用训练数据训练得到神经网络系统,所述训练数据包括对话序列、候选回复语句、知识库数据和目标推荐序列,所述对话序列包括聊天对话、问答对话和推荐对话。
7.一种人机对话系统,其特征在于,包括:
获取模块,用于获取用户输入的当前对话语句;
第一神经网络模块,用于将所述当前对话语句和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体;
第二神经网络模块,用于将所述当前对话语句、所述当前对话语句的目标类型及目标实体和知识库数据作为输入,通过特征提取及分类,生成回复语句。
8.根据权利要求7所述的人机对话系统,其特征在于,
所述第一神经网络模块,用于在当前对话语句为初始对话语句时,将所述当前对话语句和预设的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
9.根据权利要求7所述的人机对话系统,其特征在于,所述第一神经网络模块包括:
第一迭代空洞卷积神经网络模型,用于将所述当前对话语句作为输入,通过特征提取,生成表征当前对话目标是否完成的第一向量;
第二迭代空洞卷积神经网络模型,用于将所述第一向量和在当前对话语句之前获取的前序对话语句的目标类型及目标实体作为输入,通过特征提取,生成当前对话语句的目标类型及目标实体。
10.根据权利要求9所述的人机对话系统,其特征在于,
所述第一迭代空洞卷积神经网络模型,用于通过其池化层生成表征当前对话目标是否完成的第一向量;
所述第二迭代空洞卷积神经网络模型,用于通过其全连接层生成当前对话语句的目标类型及目标实体。
11.根据权利要求7所述的人机对话系统,其特征在于,所述第二神经网络模块包括:
自然语言处理模型,用于将所述当前对话语句作为输入,通过编码以提取语义,生成第二向量;
第一双向门控循环单元模型,用于将所述当前对话语句的目标类型及目标实体作为输入,通过编码,生成第三向量;
第一合并模块,用于将所述第二向量与所述第三向量进行合并,得到第四向量;
第二双向门控循环单元模型,用于将所述知识库数据作为输入,通过编码,生成第五向量;
运算模块,用于对所述第四向量和所述第五向量进行注意力机制运算,得到第六向量;
第二合并模块,用于对所述第五向量与所述第六向量进行合并,得到第七向量;
单层神经网络模型,用于将所述第七向量作为输入,通过分类,生成回复语句。
12.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
CN202010966100.5A 2020-09-15 2020-09-15 人机对话方法及系统、计算机设备及介质 Active CN112100353B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010966100.5A CN112100353B (zh) 2020-09-15 2020-09-15 人机对话方法及系统、计算机设备及介质
US17/331,056 US11947920B2 (en) 2020-09-15 2021-05-26 Man-machine dialogue method and system, computer device and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010966100.5A CN112100353B (zh) 2020-09-15 2020-09-15 人机对话方法及系统、计算机设备及介质

Publications (2)

Publication Number Publication Date
CN112100353A true CN112100353A (zh) 2020-12-18
CN112100353B CN112100353B (zh) 2024-06-07

Family

ID=73758593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010966100.5A Active CN112100353B (zh) 2020-09-15 2020-09-15 人机对话方法及系统、计算机设备及介质

Country Status (2)

Country Link
US (1) US11947920B2 (zh)
CN (1) CN112100353B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023061443A1 (zh) * 2021-10-15 2023-04-20 华为技术有限公司 一种确定回复语句的方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115309877B (zh) * 2022-08-03 2023-05-30 北京百度网讯科技有限公司 对话生成方法、对话模型训练方法及装置
CN115169367B (zh) * 2022-09-06 2022-12-09 杭州远传新业科技股份有限公司 对话生成方法及装置、存储介质
CN115497465A (zh) * 2022-09-06 2022-12-20 平安银行股份有限公司 语音交互方法、装置、电子设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202476A (zh) * 2016-07-14 2016-12-07 广州安望信息科技有限公司 一种基于知识图谱的人机对话的方法及装置
JP2018010610A (ja) * 2016-07-01 2018-01-18 パナソニックIpマネジメント株式会社 エージェント装置、対話システム、対話方法及びプログラム
CN110347792A (zh) * 2019-06-25 2019-10-18 腾讯科技(深圳)有限公司 对话生成方法及装置、存储介质、电子设备
CN111125330A (zh) * 2019-12-19 2020-05-08 厦门快商通科技股份有限公司 一种基于人机对话的智能问答方法和装置以及设备
CN111191016A (zh) * 2019-12-27 2020-05-22 车智互联(北京)科技有限公司 一种多轮对话处理方法、装置及计算设备
CN111339781A (zh) * 2020-02-10 2020-06-26 科大讯飞华南人工智能研究院(广州)有限公司 意图识别方法、装置、电子设备和存储介质
CN111581375A (zh) * 2020-04-01 2020-08-25 车智互联(北京)科技有限公司 对话意图类型识别方法、多轮对话方法、装置及计算设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678816B2 (en) * 2017-08-23 2020-06-09 Rsvp Technologies Inc. Single-entity-single-relation question answering systems, and methods
US11120059B2 (en) * 2018-06-27 2021-09-14 Adobe Inc. Conversational query answering system
CN109815482B (zh) * 2018-12-17 2023-05-23 北京百度网讯科技有限公司 一种新闻交互的方法、装置、设备和计算机存储介质
US20220130378A1 (en) * 2018-12-27 2022-04-28 Telepathy Labs, Inc. System and method for communicating with a user with speech processing
WO2020172329A1 (en) * 2019-02-19 2020-08-27 Google Llc Learning to extract entities from conversations with neural networks
US11651158B2 (en) * 2020-08-13 2023-05-16 Salesforce, Inc. Entity resolution for chatbot conversations

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010610A (ja) * 2016-07-01 2018-01-18 パナソニックIpマネジメント株式会社 エージェント装置、対話システム、対話方法及びプログラム
CN106202476A (zh) * 2016-07-14 2016-12-07 广州安望信息科技有限公司 一种基于知识图谱的人机对话的方法及装置
CN110347792A (zh) * 2019-06-25 2019-10-18 腾讯科技(深圳)有限公司 对话生成方法及装置、存储介质、电子设备
CN111125330A (zh) * 2019-12-19 2020-05-08 厦门快商通科技股份有限公司 一种基于人机对话的智能问答方法和装置以及设备
CN111191016A (zh) * 2019-12-27 2020-05-22 车智互联(北京)科技有限公司 一种多轮对话处理方法、装置及计算设备
CN111339781A (zh) * 2020-02-10 2020-06-26 科大讯飞华南人工智能研究院(广州)有限公司 意图识别方法、装置、电子设备和存储介质
CN111581375A (zh) * 2020-04-01 2020-08-25 车智互联(北京)科技有限公司 对话意图类型识别方法、多轮对话方法、装置及计算设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023061443A1 (zh) * 2021-10-15 2023-04-20 华为技术有限公司 一种确定回复语句的方法及装置

Also Published As

Publication number Publication date
US11947920B2 (en) 2024-04-02
US20220083742A1 (en) 2022-03-17
CN112100353B (zh) 2024-06-07

Similar Documents

Publication Publication Date Title
Thorat et al. A review on implementation issues of rule-based chatbot systems
CN109241255B (zh) 一种基于深度学习的意图识别方法
CN111625635A (zh) 问答处理、语言模型的训练方法、装置、设备及存储介质
CN112100353A (zh) 人机对话方法及系统、计算机设备及介质
CN107609092B (zh) 智能应答方法和装置
CN111428010B (zh) 人机智能问答的方法和装置
CN112487173B (zh) 人机对话方法、设备和存储介质
CN111241245B (zh) 人机交互处理方法、装置及电子设备
CN110019742B (zh) 用于处理信息的方法和装置
CN111666380A (zh) 一种智能呼叫方法、装置、设备和介质
CN115309877B (zh) 对话生成方法、对话模型训练方法及装置
CN112214601B (zh) 一种社交短文本情感分类方法、装置及存储介质
CN114970522B (zh) 语言模型的预训练方法、装置、设备、存储介质
CN109815485B (zh) 一种微博短文本情感极性识别的方法、装置及存储介质
US20220358292A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN116127020A (zh) 生成式大语言模型训练方法以及基于模型的搜索方法
CN111414561B (zh) 用于呈现信息的方法和装置
JP2021111334A (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
WO2021135457A1 (zh) 基于循环神经网络的情绪识别方法、装置及存储介质
CN113160819B (zh) 用于输出动画的方法、装置、设备、介质和产品
CN112632244A (zh) 一种人机通话的优化方法、装置、计算机设备及存储介质
WO2020052061A1 (zh) 用于处理信息的方法和装置
CN117521675A (zh) 基于大语言模型的信息处理方法、装置、设备及存储介质
CN112364148A (zh) 一种基于深度学习方法的生成型聊天机器人
CN112910761B (zh) 即时通讯方法、装置、设备、存储介质以及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant