CN108388944A - Lstm神经网络芯片及其使用方法 - Google Patents

Lstm神经网络芯片及其使用方法 Download PDF

Info

Publication number
CN108388944A
CN108388944A CN201810249289.9A CN201810249289A CN108388944A CN 108388944 A CN108388944 A CN 108388944A CN 201810249289 A CN201810249289 A CN 201810249289A CN 108388944 A CN108388944 A CN 108388944A
Authority
CN
China
Prior art keywords
neural network
attention
submodels
score
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810249289.9A
Other languages
English (en)
Other versions
CN108388944B (zh
Inventor
于涌
陈云霁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Publication of CN108388944A publication Critical patent/CN108388944A/zh
Application granted granted Critical
Publication of CN108388944B publication Critical patent/CN108388944B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Neurology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种基于深度神经网络的自动聊天方法,包括以下步骤:获取用户输入信息,并经深度神经网络编码器生成固定长度向量;所述固定长度向量输入多个attention子模型之后分别输出分数;以及对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。本公开还提供了一种基于深度神经网络的自动聊天机器人。本公开基于深度神经网络的自动聊天方法及机器人保证了聊天过程中答复信息的准确性,使得聊天内容更切合实际。

Description

LSTM神经网络芯片及其使用方法
技术领域
本公开涉及人工智能技术领域,尤其涉及一种基于深度神经网络的自动聊天方法及机器人。
背景技术
近年来,随着人工智能的迅速发展,聊天机器人也受到了学术界和工业界的广泛关注。
但是,传统的聊天机器人也存在着面临着很多问题,例如对话无法产生具体的含义,前后文没有承接逻辑,无法满足使用需求。
特别是,目前我国正在快速进入老龄化社会。在未来社会,如何养老将会是一个巨大的社会与经济问题。现在的养老模式多采用护理人员陪伴老人聊天的方式,从而达到为老人提供陪伴聊天服务,提供老年人情感上的慰藉。而人工的去和老年人聊天将会占用大量的人力物力,如果将和老年人聊天这一服务使用聊天机器人完成,将会有巨大的经济和社会效益。然而传统的聊天机器人无法很好的满足老年人的情感需要。老年人会发现自己在和机器对话,从而不喜欢这些聊天。
发明内容
(一)要解决的技术问题
为了解决或者至少部分缓解上述技术问题,本公开提供了一种基于深度神经网络的自动聊天方法及机器人。
(二)技术方案
根据本公开的一个方面,提供了一种基于深度神经网络的自动聊天方法,包括以下步骤:获取用户输入信息,并经深度神经网络编码器生成固定长度向量;所述固定长度向量输入attention模型之后输出分数;以及根据所述分数判定经由attention模型或自然模型生成与所述输入信息对应的答复信息;其中,若所述分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经由attention模型生成与所述输入信息对应的答复信息。
在一些实施例中,所述attention模型为包括一或多个神经网络层的深度神经网络,所述固定长度向量输入attention模型之后输出全部可能答复信息所对应的分数,选择最高分数所对应的答复信息作为最终答复信息。
在一些实施例中,所述attention模型中包括全连接层和softmax层;所述固定长度向量在attention模型中作向量/矩阵乘法和/或加法运算从而输出所述分数。
在一些实施例中,所述attention模型包括多个attention子模型,分别采用不同类别预料训练而成;该多个attention子模型并联连接,固定长度向量分别输入所述多个attention子模型中的神经网络后输出多个分数,若所述多个分数中的最高分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经attention模型生成与所述输入信息对应的答复信息。
在一些实施例中,所述多个attention子模型包括:第一attention子模型,其包括全连接层神经网络、softmax层神经网络及卷积层神经网络,采用日常生活类别语料进行训练;第二attention子模型,其包括卷积层、全连接层、池化层及batch norm层神经网络,采用时事新闻类别语料进行训练;第三attention子模型,其包括全连接层神经网络、池化层神经网络、softmax层神经网络及卷积层神经网络,采用心灵情感类别语料进行训练。
在一些实施例中,所述attention模型包括多个attention子模型;在经由attention模型生成与所述输入信息对应的答复信息时,对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为生成答复信息的最终模型。
在一些实施例中,利用N-GRAM、WFST生成所述语言模型;在语言模型中,使用A*搜索、束搜索生成与所述输入信息对应的答复信息。
在一些实施例中,所述自然模型以文字的形式生成答复信息,语言模型在每一次迭代中产生所有待选文字新的分数,由此迭代完成后会生成一个时间序列上的所有文字的搜索空间,在该搜索空间中根据编码器产生的固定长度向量得到最终唯一的输出结果。
根据本公开的另一个方面,提供了一种基于深度神经网络的自动聊天机器人,包括:预处理模块,用于获取用户输入信息,并通过一深度神经网络编码器对所述输入信息进行预处理,生成固定长度向量;处理模块:用于接收所述固定长度向量,并利用attention模型输出分数;以及判定及生成模块,用于根据所述分数判定经由attention模型或自然模型生成与所述输入信息对应的答复信息;其中,若所述分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经由attention模型生成与所述输入信息对应的答复信息。
在一些实施例中,所述attention模型为包括一或多个神经网络层的深度神经网络,所述固定长度向量输入attention模型之后输出全部可能答复信息所对应的分数,选择最高分数所对应的答复信息作为最终答复信息。
根据本公开的另一个方面,提供了一种基于深度神经网络的自动聊天方法,包括以下步骤:获取用户输入信息,并经深度神经网络编码器生成固定长度向量;所述固定长度向量输入多个attention子模型之后分别输出分数;以及对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。
在一些实施例中,所述多个attention子模型分别采用不同类别预料训练而成。
在一些实施例中,所述多个attention子模型并联连接,各所述attention子模型为包括一或多个神经网络层的深度神经网络。
在一些实施例中,所述attention子模型中包括全连接层和sofimax层;所述固定长度向量在attention子模型中作向量/矩阵乘法和/或加法运算从而输出所述分数。
在一些实施例中,所述固定长度向量输入所述作为最终模型的所述attention子模型之后输出全部可能答复信息所对应的分数,选择全部可能答复信息所对应的分数中的最高分数所对应的答复信息作为最终答复信息。
在一些实施例中,所述多个attention子模型包括:第一attention子模型,其包括全连接层神经网络、softmax层神经网络及卷积层神经网络,采用日常生活类别语料进行训练;第二attention子模型,其包括卷积层、全连接层、池化层及batch norm层神经网络,采用时事新闻类别语料进行训练;第三attention子模型,其包括全连接层神经网络、池化层神经网络、sofimax层神经网络及卷积层神经网络,采用心灵情感类别语料进行训练。
在一些实施例中,在对所述多个attention子模型输出的分数进行比较的步骤之后,还包括:在所述最高分数小于一分数阈值时,利用语言模型生成与所述输入信息对应的答复信息。
在一些实施例中,利用N-GRAM、WFST生成所述语言模型;在所述语言模型中,使用A*搜索、束搜索生成与所述输入信息对应的答复信息。
根据本公开的另一个方面,还提供了一种基于深度神经网络的自动聊天机器人,包括:预处理模块,用于获取用户输入信息,并通过一深度神经网络编码器对所述输入信息进行预处理,生成固定长度向量;处理模块:用于接收所述固定长度向量,并利用多个attention子模型分别输出分数;以及判定及生成模块,用于对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。
在一些实施例中,所述多个attention子模型分别采用不同类别预料训练而成。
(三)有益效果
从上述技术方案可以看出,本公开基于深度神经网络的自动聊天方法及机器人至少具有以下有益效果其中之一:
(1)由于本公开自动聊天方法及机器人为基于深度神经网络的自动聊天机器人,因而可以通过训练过程中更新权值,保证了聊天过程中答复信息的准确性,使对话更加真实。
(2)本公开由于本公开自动聊天方法及机器人,根据attention模型输出的分数或判定经由attention模型或自然模型生成与所述输入信息对应的答复信息,充分考虑了聊天过程中输入信息的具体内容,并对其常用及生僻性进行区分,然后分别采用不同的模型来生成答复信息,使得聊天内容更切合实际。
(3)随着人工智能技术,特别是深度神经网络技术的发展,智能聊天机器人正逐步越来越多的活跃在人们的日常生活中,本公开将传统的人工陪伴聊天通过最新的人工智能技术将之自动化,有效的解决了人工成本的同时带来极高的经济效益,将传统需要人来完成的任务通过技术手段赋予了计算机聊天的功能。
(4)本公开充分考虑了聊天对象群体的聊天内容特点,例如针对老年人这一群体,可以结合老年人聊天的特点对其输入信息进行区分,引入了attention模型和语言模型共同处理LSTM神经网络处理后的固定长度向量;利用attention模型处理老年人聊天中较常出现的语料,使用语言模型处理老年人聊天中较少出现的语料,并使用分数作为使用attention模型还是语言模型的判定,使得聊天内容更切合实际;可以做到聊天过程中含有逻辑等具体含义的功能,更加满足老年人的情感需要,使他们愿意和聊天机器人对话。
附图说明
图1是本公开神经网络训练过程示意图。
图2是本公开自动聊天方法流程图。
图3是本公开自动聊天机器人方块图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开作进一步的详细说明。
需要说明的是,在附图或说明书描述中,相似或相同的部分都使用相同的图号。附图中未绘示或描述的实现方式,为所属技术领域中普通技术人员所知的形式。另外,虽然本文可提供包含特定值的参数的示范,但应了解,参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应的值。此外,以下实施例中提到的方向用语,例如“上”、“下”、“前”、“后”、“左”、“右”等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本公开。
本公开提供了一种基于深度神经网络的自动聊天方法,所述基于深度神经网络的自动聊天方法包括以下步骤:
S1,获取用户输入信息,并经深度神经网络编码器生成固定长度向量;
S2,所述固定长度向量输入attention模型之后输出分数;以及
S3,根据所述分数判定经由attention模型或自然模型生成与所述输入信息对应的答复信息。
其中,若所述分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经由attention模型生成与所述输入信息对应的答复信息。
所述attention模型中可以为包括一或多个神经网络层的深度神经网络。所述固定长度向量输入attention模型之后输出全部可能答复信息所对应的分数,选择最高分数所对应的答复信息作为最终答复信息。可选的,所述attention模型中包括全连接层神经网络和softmax层神经网络;所述固定长度向量在attention模型中作向量/矩阵乘法和/或加法运算从而输出所述分数。
进一步的,所述attention模型包括多个attention子模型,分别采用不同类别预料训练而成。相应的,在所述attention模型包括多个attention子模型时,所述基于深度神经网络的自动聊天方法中,固定长度向量输入多个attention子模型之后分别输出分数;对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。
具体的,所述多个attention子模型并联连接,固定长度向量分别输入所述多个attention子模型中的神经网络后输出多个分数,若所述多个分数中的最高分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经attention模型生成与所述输入信息对应的答复信息。
所述attention模型包括的各子模型采用不同类别的语料集合进行训练,这些不同类别的语料集合可根据对聊天机器人的使用对象的聊天内容统计结果来确定。例如对多个使用对象在一定时间段内的聊天内容进行统计,确定出最常用的多个语料类别。举例来说,所述多个attention子模型可包括:第一attention子模型,其包括全连接层神经网络、softmax层神经网络及卷积层神经网络,采用日常生活类别语料进行训练;第二attention子模型,其包括卷积层、全连接层、池化层及batch norm层神经网络,采用时事新闻类别语料进行训练;第三attention子模型,其包括全连接层神经网络、池化层神经网络、softmax层神经网络及卷积层神经网络,采用心灵情感类别语料进行训练。若所述attention模型包括多个attention子模型,那么在经由attention模型生成与所述输入信息对应的答复信息时,可以对所述多个attention子模型输出的分进行比较,选择最高分数所对应的attention子模型作为生成答复信息的最终模型。由此,通过对各attention模型结构的设置,训练预料集合的设置,及答复信息的最终模型的选定,使得生成的答复信息更准确,更符合实际,更好的满足了使用对象的需求。
具体的,利用N-GRAM、WFST生成所述语言模型;在语言模型中,使用A*搜索、束搜索生成与所述输入信息对应的答复信息。
更具体而言,所述自然模型以文字的形式生成答复信息,语言模型在每一次迭代中产生所有待选文字新的分数,由此迭代完成后会生成一个时间序列上的所有文字的搜索空间,在该搜索空间中根据编码器产生的固定长度向量得到最终唯一的输出结果。
下面以老年人这一适用对象群体为例,详细介绍本公开基于深度神经网络的自动聊天过程。
深度神经网络算法分为训练过程和使用过程两部分。在训练过程中,使用历史收集的老年人聊天数据,即老年人和真实人对话的文字信息数据作为训练集训练本深度神经网络助老聊天机器人。具体为:输入:老年人用户输入的文字形式的自然语言。中间处理:编码器编码,及解码器解码;输出及更新:根据输出结果与真实结果对比,更新神经网络的权值。
其中,编码器接收用户输入并产生的固定长度的向量,固定长度的向量进入解码器解码产生目的回复语言词库中,每个单词的概率,一般而言,语料库中有几个单词便有几个神经元,每个神经元中由数字来表示分数,神经元的总数目是一定的,因此网络的输出便为每个神经元的分数(或)。所述编码器可以是包括卷积层、全连接层、池化层及batch norm层的LSTM神经网络。本LSTM(长短期记忆网络)神经网络结合聊天特点,即当前一句话的聊天内容是和之前的几句话相关的这一特点,设计了对应的LSTM神经网络,即本网络会将最近出现的输入作为次级输入迭代的送入LSTM神经网络中。如图1所示,在神经网络的训练过程中时间顺序上输入语言分成Xt-1,Xt,Xt+1三个片段,并对每一句话产生对应神经网络结果即固定长度的向量(ht-1、ht、ht+1)同时将这句话作为输出送入到下一次迭代中。即图1中前一个方框都会引入到下一个方框中的输入(图1中三个方框内部结构可相同,即未示出的第一方框及第三方框内部结构可与第二方框示出的内部结构相同)。在训练过程中,得到的神经网络的输出与预先准备的数据集求绝对平均误差(AAE)或者最小二乘误差(LSE)产生的误差通过方向传播算法(BP)产生梯度。训练过程中使用梯度更新LSTM中的权值。不断迭代该LSTM神经网络降低误差后产生实际使用的聊天机器人LSTM部分。
另外,结合老年人聊天重复用语较多的情况,例如儿女的名字、或者印象较深的事件,在老年人的对话中在一段事件内这些话语会反复出现。因此本聊天机器人引入了attention模型对于较多出现的聊天语句进行单独编码。attention模型实现具体某些的较多出现聊天语句的对应关系,具体的,该实现通过全连接层神经网络、sofimax层神经网络、矩阵乘法、矩阵加法完成。
Attention模型是针对老年人日常聊天的常用话语为标的的深度神经网络。该神经网络结构上可以为全连接层神经网络后接一softmax网络层。具体使用上,预先对老年人日常聊天情况进行统计,得到老年人聊天过程中经常出现的聊天对应关系。使用该数据对attention模型进行训练。不同的语料集合训练出多个attention模型。例如使用谈论家长里短语料、谈论饮食起居语料、谈论时事新闻语料便可以训练出三个不同的attention模型
将上述系列操作定义为attention,可以多个attention相互串连、并联、跳跃式串连等排列组合方式为新的attention。具体为:将老年人说话用语中的不同类别话语训练出不同的attention模型。例如:使用谈论邻里关系的语料训练出一个全连接层后接softmax层的神经网络attentionl,使用谈论早饭午饭晚饭的语料训练出一个神经网络attention2,使用谈论亲朋好友的语料训练出一个神经网络attention3。在具体使用上一个老人说的话语经过上述的神经网络编码器生成的固定长度向量后可以同时进入attention1、attention2、attention3生成三个对应应答,根据每个应答的分数选择最后的attention模型对应应答。
对于老年人对话请求中较为生僻的内容,可能无法从attention模型中找到对应的聊天应答的编码后向量,即上述attention模型中求得的分数小于某一个阈值或者求得的高斯距离大于某一个阈值时,即判定该内容为生僻内容。对于这些内容引入语言模型存储先验知识与束搜索、A*算法等排序算法结合生成目标回复结果。预先的自然语言处理中的先验知识建立对应的语言模型。通过语言模型迭代的产生所有待选文字的分数,在每一次迭代中产生所有待选文字新的分数,由此迭代完成后会生成一个时间序列上的所有文字的搜索空间,在该空间中根据编码器产生的固定长度的向量得到最终唯一的语输出结果。具体的,可以由WFST或者n-gram算法实现语言模型,之后产生回复的自然语言,用文字等方式输出出来。在训练过程中该语言会和训练集中相对应的语言求出误差。产生的误差经由BP(反向传播算法)返回给神经网络的各个神经元作为梯度更新对应神经元的权值。该过程经过反复迭代,不断跟新神经网络的权值,是最后的神经网络产生的结果与训练集中的结果相近,则完成神经网络的训练,训练结束后该神经网络就是一个完整的助老聊天机器人。
对于该聊天机器人的工作过程,如图2所示。具体为:老年人输入的文字形式的自然语言。中间处理:中间处理过程为输入的老年人输入的文字形式的自然语言先经过LSTM神经网络编码器生成一个固定长度的向量之后,通过attention模型、语言模型生成答复信息。
对文字长度不确定的自然语言短语,此短语通常为文字形式表示的老年人聊天对话中的老年人说出的一句话。该短语经过前文所述的预先训练好的LSTM神经网络后,生成一个长度固定的向量。之后该向量进入attention模型中。若是同时进入若干个并行的attention模型之后,经过attention模型中的神经网络生成若干个对应输出结果与分数,选择分数最高的一组结果作为输出。
如果上述多个分数中的所有分数均低于某一个阈值或者。则LSTM神经网络产生的固定长度的向量(不使用attention模型产生的结果),进入语言模型中,通过上文中利用N-GRAM、WFST技术生成的语言模型中使用A*搜索、束搜索等搜索算法生成该短语对应的聊天应答短语。最后通过文字的形式生成出来,作为老年人的本次对话的应答。下一次老年人的对话将再次输入到LSTM神经网络模型中,在进行一次上述过程。由此迭代的使用本聊天机器人,一问一答的产生对话,老年人(用户)在问,聊天机器人在答,最终实现老年人助老聊天的功能。
本公开还提供了一种基于深度神经网络的自动聊天机器人,如图3所示,所述自动聊天机器人,包括:
预处理模块,用于获取用户输入信息,并通过一深度神经网络编码器对所述输入信息进行预处理,生成固定长度向量;
处理模块:用于接收所述固定长度向量,并利用attention模型输出分数;以及
判定及生成模块,用于根据所述分数判定经由attention模型或自然模型生成与所述输入信息对应的答复信息。
其中,若所述分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经由attention模型生成与所述输入信息对应的答复信息。
所述attention模型为包括一或多个神经网络层的深度神经网络,所述固定长度向量输入attention模型之后输出全部可能答复信息所对应的分数,选择最高分数所对应的答复信息作为最终答复信息。
在所述attention模型包括多个attention子模型时,所述处理模块:用于接收所述固定长度向量,并利用多个attention子模型分别输出分数;以及判定及生成模块,用于对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。
以上所述的具体实施例,对本公开的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本公开的具体实施例而已,并不用于限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (10)

1.一种基于深度神经网络的自动聊天方法,包括以下步骤:
获取用户输入信息,并经深度神经网络编码器生成固定长度向量;
所述固定长度向量输入多个attention子模型之后分别输出分数;以及
对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。
2.根据权利要求1所述的基于深度神经网络的自动聊天方法,其中,所述多个attention子模型分别采用不同类别预料训练而成。
3.根据权利要求1所述的基于深度神经网络的自动聊天方法,其中,所述多个attention子模型并联连接,各所述attention子模型为包括一或多个神经网络层的深度神经网络。
4.根据权利要求3所述的基于深度神经网络的自动聊天方法,其中,所述attention子模型中包括全连接层和softmax层;所述固定长度向量在attention子模型中作向量/矩阵乘法和/或加法运算从而输出所述分数。
5.根据权利要求1所述的基于深度神经网络的自动聊天方法,其中,所述固定长度向量输入所述作为最终模型的所述attention子模型之后输出全部可能答复信息所对应的分数,选择全部可能答复信息所对应的分数中的最高分数所对应的答复信息作为最终答复信息。
6.根据权利要求1所述的基于深度神经网络的自动聊天方法,其中,所述多个attention子模型包括:
第一attention子模型,其包括全连接层神经网络、softmax层神经网络及卷积层神经网络,采用日常生活类别语料进行训练;
第二attention子模型,其包括卷积层、全连接层、池化层及batch norm层神经网络,采用时事新闻类别语料进行训练;
第三attention子模型,其包括全连接层神经网络、池化层神经网络、softmax层神经网络及卷积层神经网络,采用心灵情感类别语料进行训练。
7.根据权利要求1所述的基于深度神经网络的自动聊天方法,在对所述多个attention子模型输出的分数进行比较的步骤之后,还包括:在所述最高分数小于一分数阈值时,利用语言模型生成与所述输入信息对应的答复信息。
8.根据权利要求7所述的基于深度神经网络的自动聊天方法,其中,利用N-GRAM、WFST生成所述语言模型;在所述语言模型中,使用A*搜索、束搜索生成与所述输入信息对应的答复信息。
9.一种基于深度神经网络的自动聊天机器人,包括:
预处理模块,用于获取用户输入信息,并通过一深度神经网络编码器对所述输入信息进行预处理,生成固定长度向量;
处理模块:用于接收所述固定长度向量,并利用多个attention子模型分别输出分数;以及
判定及生成模块,用于对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。
10.根据权利要求9所述的基于深度神经网络的自动聊天机器人,其中,所述多个attention子模型分别采用不同类别预料训练而成。
CN201810249289.9A 2017-11-30 2018-03-23 一种基于深度神经网络的自动聊天方法和机器人 Active CN108388944B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711240373 2017-11-30
CN2017112403736 2017-11-30

Publications (2)

Publication Number Publication Date
CN108388944A true CN108388944A (zh) 2018-08-10
CN108388944B CN108388944B (zh) 2019-10-18

Family

ID=63001070

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810249289.9A Active CN108388944B (zh) 2017-11-30 2018-03-23 一种基于深度神经网络的自动聊天方法和机器人
CN201810249286.5A Active CN108364066B (zh) 2017-11-30 2018-03-23 基于n-gram和wfst模型的人工神经网络芯片及其应用方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201810249286.5A Active CN108364066B (zh) 2017-11-30 2018-03-23 基于n-gram和wfst模型的人工神经网络芯片及其应用方法

Country Status (1)

Country Link
CN (2) CN108388944B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255020A (zh) * 2018-09-11 2019-01-22 浙江大学 一种利用卷积对话生成模型解决对话生成任务的方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901878B (zh) 2019-02-25 2021-07-23 北京灵汐科技有限公司 一种类脑计算芯片及计算设备
CN110309287B (zh) * 2019-07-08 2021-07-06 北京邮电大学 建模对话轮次信息的检索式闲聊对话打分方法
CN110491394B (zh) * 2019-09-12 2022-06-17 北京百度网讯科技有限公司 唤醒语料的获取方法和装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809103A (zh) * 2015-04-29 2015-07-29 北京京东尚科信息技术有限公司 一种人机对话的语义分析方法及系统
US20160350653A1 (en) * 2015-06-01 2016-12-01 Salesforce.Com, Inc. Dynamic Memory Network
CN106503066A (zh) * 2016-09-29 2017-03-15 北京百度网讯科技有限公司 基于人工智能的处理搜索结果方法和装置
CN106682387A (zh) * 2016-10-26 2017-05-17 百度国际科技(深圳)有限公司 用于输出信息的方法和装置
CN106776578A (zh) * 2017-01-03 2017-05-31 竹间智能科技(上海)有限公司 用于提升对话系统对话性能的方法及装置
CN106951468A (zh) * 2017-03-02 2017-07-14 腾讯科技(深圳)有限公司 对话生成方法及装置
CN107025283A (zh) * 2017-04-05 2017-08-08 竹间智能科技(上海)有限公司 基于用户资料进行候选答案排序的回答方法及系统
CN107273487A (zh) * 2017-06-13 2017-10-20 北京百度网讯科技有限公司 基于人工智能的聊天数据的生成方法、装置及计算机设备
CN107329996A (zh) * 2017-06-08 2017-11-07 三峡大学 一种基于模糊神经网络的聊天机器人系统与聊天方法
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法
CN107766506A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学 一种基于层次化注意力机制的多轮对话模型构建方法
CN107798126A (zh) * 2017-11-13 2018-03-13 北京邮电大学 基于知识库的问答处理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220641B (zh) * 2016-03-22 2020-06-26 华南理工大学 一种基于深度学习的多语言文本分类方法
US9984772B2 (en) * 2016-04-07 2018-05-29 Siemens Healthcare Gmbh Image analytics question answering
CN107133209B (zh) * 2017-03-29 2020-11-03 北京百度网讯科技有限公司 基于人工智能的评论生成方法及装置、设备与可读介质
CN107358948B (zh) * 2017-06-27 2020-06-09 上海交通大学 基于注意力模型的语言输入关联性检测方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809103A (zh) * 2015-04-29 2015-07-29 北京京东尚科信息技术有限公司 一种人机对话的语义分析方法及系统
US20160350653A1 (en) * 2015-06-01 2016-12-01 Salesforce.Com, Inc. Dynamic Memory Network
CN106503066A (zh) * 2016-09-29 2017-03-15 北京百度网讯科技有限公司 基于人工智能的处理搜索结果方法和装置
CN106682387A (zh) * 2016-10-26 2017-05-17 百度国际科技(深圳)有限公司 用于输出信息的方法和装置
CN106776578A (zh) * 2017-01-03 2017-05-31 竹间智能科技(上海)有限公司 用于提升对话系统对话性能的方法及装置
CN106951468A (zh) * 2017-03-02 2017-07-14 腾讯科技(深圳)有限公司 对话生成方法及装置
CN107025283A (zh) * 2017-04-05 2017-08-08 竹间智能科技(上海)有限公司 基于用户资料进行候选答案排序的回答方法及系统
CN107329996A (zh) * 2017-06-08 2017-11-07 三峡大学 一种基于模糊神经网络的聊天机器人系统与聊天方法
CN107273487A (zh) * 2017-06-13 2017-10-20 北京百度网讯科技有限公司 基于人工智能的聊天数据的生成方法、装置及计算机设备
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法
CN107766506A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学 一种基于层次化注意力机制的多轮对话模型构建方法
CN107798126A (zh) * 2017-11-13 2018-03-13 北京邮电大学 基于知识库的问答处理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255020A (zh) * 2018-09-11 2019-01-22 浙江大学 一种利用卷积对话生成模型解决对话生成任务的方法
CN109255020B (zh) * 2018-09-11 2022-04-01 浙江大学 一种利用卷积对话生成模型解决对话生成任务的方法

Also Published As

Publication number Publication date
CN108364066A (zh) 2018-08-03
CN108364066B (zh) 2019-11-08
CN108388944B (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN108388944B (zh) 一种基于深度神经网络的自动聊天方法和机器人
CN107562863A (zh) 聊天机器人回复自动生成方法及系统
CN109241255A (zh) 一种基于深度学习的意图识别方法
CN107870964B (zh) 一种应用于答案融合系统的语句排序方法及系统
CN107301168A (zh) 智能机器人及其情绪交互方法、系统
CN106875940B (zh) 一种基于神经网络的机器自学习构建知识图谱训练方法
CN111008293A (zh) 基于结构化语义表示的视觉问答方法
CN110222163A (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN106682387A (zh) 用于输出信息的方法和装置
CN107679225B (zh) 一种基于关键词的回复生成方法
CN109635108A (zh) 一种基于人机交互的远程监督实体关系抽取方法
CN106980650A (zh) 一种面向Twitter观点分类的情感增强词嵌入学习方法
CN114429122B (zh) 一种基于循环注意力的方面级情感分析系统和方法
CN110059220A (zh) 一种基于深度学习与贝叶斯概率矩阵分解的电影推荐方法
CN114398976A (zh) 基于bert与门控类注意力增强网络的机器阅读理解方法
CN108733838A (zh) 基于多极情感分析的用户行为预测系统及其方法
CN107291701A (zh) 一种机器语言生成方法及装置
CN115130538A (zh) 文本分类模型的训练方法、文本处理的方法、设备及介质
CN117494727A (zh) 用于大语言模型的去偏倚方法
CN115905487A (zh) 文档问答方法、系统、电子设备及存储介质
CN110297894A (zh) 一种基于辅助网络的智能对话生成方法
CN112000793B (zh) 一种面向人机交互的对话目标规划方法
Carcassi et al. The emergence of monotone quantifiers via iterated learning
CN113065324A (zh) 一种基于结构化三元组和锚定模板的文本生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant