CN109145103A - 一种基于双通道rnn的人机交互意图判断方法 - Google Patents

一种基于双通道rnn的人机交互意图判断方法 Download PDF

Info

Publication number
CN109145103A
CN109145103A CN201811049723.5A CN201811049723A CN109145103A CN 109145103 A CN109145103 A CN 109145103A CN 201811049723 A CN201811049723 A CN 201811049723A CN 109145103 A CN109145103 A CN 109145103A
Authority
CN
China
Prior art keywords
word
wordrnn
charrnn
sentence
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811049723.5A
Other languages
English (en)
Inventor
乐雨泉
李贤�
段礼强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Ting Yun Intelligent Technology Co Ltd
Original Assignee
Suzhou Ting Yun Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Ting Yun Intelligent Technology Co Ltd filed Critical Suzhou Ting Yun Intelligent Technology Co Ltd
Priority to CN201811049723.5A priority Critical patent/CN109145103A/zh
Publication of CN109145103A publication Critical patent/CN109145103A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于双通道RNN的人机交互意图判断方法,包括以下步骤:步骤1:使用word2vec工具用整个维基百科中文语料预训练字向量,并同理训练一份词向量;步骤2:CharRNN处理:通过分字处理模块将句子按字切分,然后按照序列输入CharRNN模块;步骤3:WordRNN处理:通过分词处理模块将句子按字切分,然后按照序列输入WordRNN模块;步骤4:输入到全连接层进行统一处理得到输出:将CharRNN捕捉到的信息和WordRNN捕捉到的信息拼接之后进行全连接处理;本发明中CharRNN模块负责处理按字切分的句子序列,CharRNN捕捉句子字序列的语义信息,WordRNN模块负责处理按词切分的句子序列,WordRNN捕捉句子词序列的语义信息,最后输入到全连接层统一处理得到输出,更大程度的挖掘话语句子的信息,从而精准的判断用户话语是否表达了Music领域的相关意图。

Description

一种基于双通道RNN的人机交互意图判断方法
技术领域
本发明涉及多媒体分析技术领域,具体涉及一种基于双通道RNN的人机交互意图判断方法。
背景技术
对话系统是人机交互的一种相当重要的形式,也是自然语言处理过程中的一个关键的研究方向。在Music领域,能否正确判断用户的某条话语是否表达一个Music领域内的意图是一个很基础但是也很重要的任务,在很多地方比如语音助手、Music平台都有很丰富的应用场景。对于用户某条话语,在实际对话系统中,用户的一条话语往往存在相当大的歧义和模糊,要判断其是否表达了Music意图显得十分困难。在中文领域,很多方法首先对句子进行分词,提出特征期望获取更好的句子语义表征;或者将每一个字当做独立个体对待,这些方法都没有充分利用句子的语义特征。本发明提出了一种基于双通道RNN的Music意图识别方法,CharRNN模块负责处理按字切分的句子序列,WordRNN模块负责处理按词切分的句子序列,最后输入到全连接层进行统一处理得到输出,输出为二分类结果。
现在常用处理方法分为两大类,一类为传统机器学习方法,通常使用TF-IDF(词频-逆文档频率)方法将句子表示成一维向量,TF表示词频,IDF表示逆文档频率,然后放入传统机器学习算法如支持向量机、随机森林进行分类,从而得到意图判断结果。另一类方法为深度学习方法,目前经常用于处理句子这一类时序数据的是循环神经网络(RNN)技术,RNN能很好的处理捕捉句子的词序信息。但是目前RNN在处理句子序列时,要么将句子中的词当做最小单元,要么将句子中的字当做独立的单元。
RNN处理详细过程如下:
ht=f(Uxt+Wht-1)
y=sig mod(VhT)
其中xt是第t时刻的输入,ht是第t时刻隐藏状态,ht由上一层的隐藏状态和本层的输入共同决定,f通常为非线性的激活函数,比如tanh。由于每一层的ht都会向后一直传递,所以理论上ht能够捕捉到前面每一层的信息,U,W,V为变换矩阵。hT为序列最后一个时刻的隐藏状态,y为最终输出,从而实现分类,分类为正类的表示此话语句子表达了Music意图,分类为负类表示此话语没有表达Music意图。
RNN把每个词作为一个时间节点,把词向量作为每个单元的输入特征,计算后每个单元有个状态特征以及输出特征,当RNN过完整个句子序列输出最后一个时刻的输出特征,整个特征会接一个全连接层,最后加上激活函数实现二分类。
传统机器学习方法,此方法首先需要将句子向量化,然后放入传统机器学习算法如支持向量机、随机森林进行分类,从而得到意图判断结果。传统的方法将句子表征成one-hot或者将通过TF-IDF方法将句子表示成一维向量,这种表示方法无法考虑到词序信息。另一类方法为深度学习方法,目前经常用于处理句子这一类时序数据的是循环神经网络(RNN)技术,RNN能很好的处理捕捉句子的词序信息。但是目前RNN在处理句子序列时,要么将句子中的词当做最小单元,要么将句子中的字当做独立的单元。无论是那种方式,都会丢失某些信息,这对判断本来就比较短的用户话语句子是否表达了Music意图是很不利的。
发明内容
本发明目的是:提供一种基于双通道RNN的人机交互意图判断方法。
本发明的技术方案是:一种基于双通道RNN的人机交互意图判断方法,包括以下步骤:
步骤1:使用word2vec工具用整个维基百科中文语料预训练字向量,并同理训练一份词向量;
步骤2::CharRNN处理:通过分字处理模块将句子按字切分,然后按照序列输入CharRNN模块;
步骤3:WordRNN处理:通过分词处理模块将句子按字切分,然后按照序列输入WordRNN模块;
步骤4:输入到全连接层进行统一处理得到输出:将CharRNN捕捉到的信息和WordRNN捕捉到的信息拼接之后进行全连接处理,采用公式y=sigmod(U[hT;h'T]),其中[hT;h'T]表示将CharRNN和WordRNN输出的信息进行拼接,sigmod为激活函数,y为最终输出。
进一步的:所述步骤2中的CharRNN处理采用公式为ht=f(Ucct+Wcht-1),其中ct是第t时刻的字向量输入,所述字向量为所述步骤1中所得的预训练字向量,ht是CharRNN第t时刻隐藏状态,f为非线性的激活函数,Uc和Wc均为CharRNN的变换矩阵,hT为字序列最后一个时刻的隐藏状态。
进一步的:所述步骤2中WordRNN处理采用公式为h′t=f(Uwwt+Wwh′t-1),其中wt是第t时刻词向量输入,ht′是WordRNN第t时刻隐藏状态,f通常为非线性的激活函数,Uw,Ww为WordRNN的变换矩阵,h'T为词序列最后一个时刻的隐藏状态。
进一步的:所述步骤4中的y输出为1时,则判断该话语句子表达了Music领域相关意图,所述y输出为0时,则判断该话语句子没有表达Music领域相关意图。
与现有技术相比,本发明的优点是:本发明提出了一种基于双通道RNN的人机交互意图判断方法,CharRNN模块负责处理按字切分的句子序列,CharRNN能捕捉句子字序列的语义信息,WordRNN模块负责处理按词切分的句子序列,WordRNN能捕捉句子词序列的语义信息,最后输入到全连接层进行统一处理得到输出,这样能更大程度的挖掘话语句子的信息,从而能够更精准的判断用户话语是否表达了Music领域的相关意图。
附图说明
下面结合附图及实施例对本发明作进一步描述:
图1为本发明的流程图;
具体实施方式
实施例:如图1所示,训练过程:
训练数据集类型如下:
请播放周杰伦的双节棍 1
今天要去世界之窗玩 0
.......
“请播放周杰伦的双节棍”处理:
首先进行分字处理和分词处理得到:
字序列:请 播 放 周 杰 伦 的 双 节 棍
词序列:请 播放 周杰伦 的 双节棍
将字序列对应的字向量依次输入CharRNN得到字序列的语义信息hT,将词序列对应的词向量依次输入WordRNN得到词序列的语义信息h'T,通过全连接层y=sigmod(U[hT;h'T]),得到预测值y,而话语句子的真是值为y',要优化的目标为最小化损失函数:L=ylogy'+(1-y)log(1-y')。对所有的训练样本都进行类似操作,最后训练得到模型。
预测过程:
对于新的话语句子:唱一首稻香
首先进行分字处理和分词处理得到:
字序列:唱 一 首 稻 香
词序列:唱 一首 稻香
将字序列对应的字向量依次输入CharRNN得到字序列的语义信息hT,将词序列对应的词向量依次输入WordRNN得到词序列的语义信息h'T,通过全连接层y=sigmod(U[hT;h'T]),得到预测值y为1,表示话语句子表达了Music领域的相关意图。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,凡根据本发明主要技术方案的精神实质所做的修饰,都应涵盖在本发明的保护范围之内。

Claims (4)

1.一种基于双通道RNN的人机交互意图判断方法,其特征在于:包括以下步骤:
步骤1:使用word2vec工具用整个维基百科中文语料预训练字向量,并同理训练一份词向量;
步骤2::CharRNN处理:通过分字处理模块将句子按字切分,然后按照序列输入CharRNN模块;
步骤3:WordRNN处理:通过分词处理模块将句子按字切分,然后按照序列输入WordRNN模块;
步骤4:输入到全连接层进行统一处理得到输出:将CharRNN捕捉到的信息和WordRNN捕捉到的信息拼接之后进行全连接处理,采用公式y=sigmod(U[hT;h'T]),其中[hT;h'T]表示将CharRNN和WordRNN输出的信息进行拼接,sigmod为激活函数,y为最终输出。
2.根据权利要求1所述的一种基于双通道RNN的人机交互意图判断方法,其特征在于:所述步骤2中的CharRNN处理采用公式为ht=f(Ucct+Wcht-1),其中ct是第t时刻的字向量输入,所述字向量为所述步骤1中所得的预训练字向量,ht是CharRNN第t时刻隐藏状态,f为非线性的激活函数,Uc和Wc均为CharRNN的变换矩阵,hT为字序列最后一个时刻的隐藏状态。
3.根据权利要求1所述的一种基于双通道RNN的人机交互意图判断方法,其特征在于:所述步骤2中WordRNN处理采用公式为h′t=f(Uwwt+Wwh′t-1),其中wt是第t时刻词向量输入,h′t是WordRNN第t时刻隐藏状态,f通常为非线性的激活函数,Uw,Ww为WordRNN的变换矩阵,h'T为词序列最后一个时刻的隐藏状态。
4.根据权利要求1所述的一种基于双通道RNN的人机交互意图判断方法,其特征在于:所述步骤4中的y输出为1时,则判断该话语句子表达了Music领域相关意图,所述y输出为0时,则判断该话语句子没有表达Music领域相关意图。
CN201811049723.5A 2018-09-10 2018-09-10 一种基于双通道rnn的人机交互意图判断方法 Pending CN109145103A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811049723.5A CN109145103A (zh) 2018-09-10 2018-09-10 一种基于双通道rnn的人机交互意图判断方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811049723.5A CN109145103A (zh) 2018-09-10 2018-09-10 一种基于双通道rnn的人机交互意图判断方法

Publications (1)

Publication Number Publication Date
CN109145103A true CN109145103A (zh) 2019-01-04

Family

ID=64823951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811049723.5A Pending CN109145103A (zh) 2018-09-10 2018-09-10 一种基于双通道rnn的人机交互意图判断方法

Country Status (1)

Country Link
CN (1) CN109145103A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815456A (zh) * 2019-02-13 2019-05-28 北京航空航天大学 一种基于字符对编码的词向量存储空间压缩的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0359780A (ja) * 1989-07-28 1991-03-14 Mamoru Tanaka 連想型ニューラルネット
CN108132931A (zh) * 2018-01-12 2018-06-08 北京神州泰岳软件股份有限公司 一种文本语义匹配的方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0359780A (ja) * 1989-07-28 1991-03-14 Mamoru Tanaka 連想型ニューラルネット
CN108132931A (zh) * 2018-01-12 2018-06-08 北京神州泰岳软件股份有限公司 一种文本语义匹配的方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佚名: "使用Keras进行深度学习:(五)RNN和双向RNN讲解及实践", 《HTTP://WWW.TENSORFLOWNEWS.COM》 *
李平: "双通道卷积神经网络在文本情感分析中的应用", 《计算机应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815456A (zh) * 2019-02-13 2019-05-28 北京航空航天大学 一种基于字符对编码的词向量存储空间压缩的方法

Similar Documents

Publication Publication Date Title
CN110110062B (zh) 机器智能问答方法、装置与电子设备
CN107480122B (zh) 人工智能交互方法及人工智能交互装置
CN111339305B (zh) 文本分类方法、装置、电子设备及存储介质
CN110609891A (zh) 一种基于上下文感知图神经网络的视觉对话生成方法
CN110502753A (zh) 一种基于语义增强的深度学习情感分析模型及其分析方法
CN111581361A (zh) 一种意图识别方法及装置
CN110851594A (zh) 一种基于多通道深度学习模型的文本分类方法及其装置
CN111866004B (zh) 安全评估方法、装置、计算机系统和介质
CN112036705A (zh) 一种质检结果数据获取方法、装置及设备
CN111858878B (zh) 从自然语言文本中自动提取答案的方法、系统及存储介质
CN112632244A (zh) 一种人机通话的优化方法、装置、计算机设备及存储介质
CN103678318B (zh) 多词单元提取方法和设备及人工神经网络训练方法和设备
US20230073602A1 (en) System of and method for automatically detecting sarcasm of a batch of text
CN111738018A (zh) 一种意图理解方法、装置、设备及存储介质
CN114913590B (zh) 一种数据的情感识别方法、装置、设备及可读存储介质
CN114579743A (zh) 基于注意力的文本分类方法、装置及计算机可读介质
CN116662552A (zh) 金融文本数据分类方法、装置、终端设备及介质
CN114817478A (zh) 基于文本的问答方法、装置、计算机设备及存储介质
CN112860907B (zh) 一种情感分类方法及设备
CN113761377A (zh) 基于注意力机制多特征融合的虚假信息检测方法、装置、电子设备及存储介质
CN109145103A (zh) 一种基于双通道rnn的人机交互意图判断方法
CN109408621B (zh) 对话情感分析方法和系统
CN113886529B (zh) 一种面向网络安全领域的信息抽取方法及其系统
WO2023173554A1 (zh) 坐席违规话术识别方法、装置、电子设备、存储介质
CN114239565A (zh) 一种基于深度学习的情绪原因识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190104

RJ01 Rejection of invention patent application after publication