CN108831450A - 一种基于用户情绪识别的虚拟机器人人机交互方法 - Google Patents
一种基于用户情绪识别的虚拟机器人人机交互方法 Download PDFInfo
- Publication number
- CN108831450A CN108831450A CN201810286725.XA CN201810286725A CN108831450A CN 108831450 A CN108831450 A CN 108831450A CN 201810286725 A CN201810286725 A CN 201810286725A CN 108831450 A CN108831450 A CN 108831450A
- Authority
- CN
- China
- Prior art keywords
- emotion
- user
- virtual robot
- data set
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 119
- 230000003993 interaction Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 17
- 230000036651 mood Effects 0.000 claims abstract description 9
- 230000008909 emotion recognition Effects 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 19
- 206010063659 Aversion Diseases 0.000 claims description 8
- 230000007935 neutral effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000013480 data collection Methods 0.000 abstract 2
- 238000013135 deep learning Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 208000013875 Heart injury Diseases 0.000 description 1
- 206010049976 Impatience Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/086—Recognition of spelled words
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于用户情绪识别的虚拟机器人人机交互方法,包括:采集用户的每一条语音数据,构建情感数据集,并对采集到的用户语音数据进行情绪类型划分;根据划分后的情绪类型,搭建情绪感知器;将情感数据集划分为训练数据集和测试数据集,利用训练数据集对情绪感知器进行训练;训练完成后,将测试数据集导入情绪感知器,并根据情绪感知器的测试结果,通过情绪引导算法对虚拟机器人的回复话语进行引导和调整。本发明在大数据的支撑下,其情绪识别的准确率大幅提高;能够有效地检测用户情绪并调整虚拟机器人人机交互方式,提升人机交互的积极性和趣味性,从而大幅提升人机交互体验。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种基于用户情绪识别的虚拟机器人人机交互方法。
背景技术
传统的人机交互方法,仅仅是机器人针对用户问话的表面意思进行回答,并没有对用户问话中包含的情感信息进行分析,由于无法对用户的情感信息及时进行捕捉从而大大降低了人机交互的积极性。
高兴、伤心、悲观、乐观、厌恶等情绪是用户日常所表现出的最常见的几类情感信息,也是用来评估用户心理活动水平的重要因素。认知心理学研究表明,负面情绪对人的行为动作有消极影响。一个自动识别用户情感的系统会在很多领域发挥重大的作用,例如人机交互系统通过对用户的负面情绪进行疏导可以让用户的心里恢复平静,避免用户可能产生的过激行为等。
语音数据是一种反映和体现用户情绪的重要方式,通过对语音数据进行分析,可以有效地检测出用户的情绪信息。目前,用于情绪信息检测的语音情感识别方法大多是对音频信息进行简单处理之后,通过高斯混合模型(GMM)分类器对每一类情感数据进行训练和识别,但是这类训练器的准确率往往较低且能表达出的情绪信息量较贫乏,人机交互体验感较差。因此,如何利用深度学习的方法来进行用户智能情绪识别并调整人机交互方式是目前急需解决的技术难题。
发明内容
本发明所要解决的技术问题是现有的情感分类器准确率较低,识别出来的用户情绪信息量有限,人机交互体验感较差。
为了解决上述技术问题,本发明所采用的技术方案是提供一种基于用户情绪识别的虚拟机器人人机交互方法,包括以下步骤:
采集用户的每一条语音数据,构建情感数据集,并对采集到的用户语音数据进行情绪类型划分;
根据划分后的情绪类型,搭建情绪感知器;
将情感数据集划分为训练数据集和测试数据集,利用训练数据集对情绪感知器进行训练;
训练完成后,将测试数据集导入情绪感知器,并根据情绪感知器的测试结果,通过情绪引导算法对虚拟机器人的回复话语进行引导和调整。
优选地,采用TensorFlow搭建情绪感知器,情绪感知器包括输入层和输出层,其中,输入层分为五层,每层均包括多个LSTM单元;输出层采用softmax分类器,用于对用户情绪信息进行分类识别。
优选地,情绪感知器的输出参数为:
Ei={Hi,Si,Pi,Oi,Di,Ni}
其中,Ei表示情感数据向量;i表示情绪类型识别的样本序列;H,S,P,O,D,N分别表示高兴、伤心、悲观、乐观、厌恶、中性六类情绪类型;
softmax分类器表示为:
其中,i表示情绪类型识别的样本序列;j=1,…,i;n表示样本大小;
样本特征向量x属于第j个情绪类型的概率为:
优选地,通过编码器将情感数据向量Ei={Hi,Si,Pi,Oi,Di,Ni}编码为隐向量,通过注意力机制结合情绪感知器模型,引导生成不同的会话,其引导框架具体为:
其中,eij=η(si-1,hj);η为采用双曲正切函数tanh做激活单元的多层感知器;
情绪感知器输入层的数据集为:
其中,Xi为用户的问话,Yi为用户的回复,Ei为用户的问话Xi所表述的情绪;
将解码过程信息向量以及用户的问话Xi所表述的情绪Ei嵌入到情绪感知器模型中,其组合权重如下:
定义生成概率:
p(yi)=pV(yi)+pE(yi)
其中,Si=f(yi-1,si-1,Ci,oi),v为用户响应的词汇,f为LSTM单元,
优选地,在情绪类型划分前,首先对采集到的每条语音数据分别进行语音识别,并转化成文本向量。
优选地,采用word2vec的方式进行文本转向量。
优选地,情感数据集中的数据结构包括:语言识别后的文本转向量、音频数据、音频的频带能量、短时能量、基音及基音的一阶差分。
优选地,情绪类型划分为高兴、伤心、悲观、乐观、厌恶和中性六种类型。
本发明提出的一种基于用户情绪识别的虚拟机器人人机交互方法,采用基于多层LSTM搭建情绪感知器的深度学习方法对用户情绪进行识别,获得用户语音的基本情绪,最后引导虚拟机器人根据识别出的用户情绪生成回复话语,从而实现虚拟机器人与用户在当前情绪下进行积极对话。本发明在大数据的支撑下,其情绪识别的准确率大幅提高;能够有效地检测用户情绪并调整虚拟机器人人机交互方式,提升人机交互的积极性和趣味性,从而大幅提升人机交互体验。
附图说明
图1为本发明中一种基于用户情绪识别的虚拟机器人人机交互方法流程图;
图2为本发明中基于多层LSTM搭建情绪感知器的深度学习结构。
具体实施方式
为了解决现有的情感分类器准确率较低,识别出来的用户情绪信息量有限,人机交互体验感较差的问题。本发明提出了一种基于用户情绪识别的虚拟机器人人机交互方法,采用基于多层LSTM搭建情绪感知器的深度学习方法对用户情绪进行识别,获得用户语音的基本情绪,最后引导虚拟机器人根据识别出的用户情绪生成回复话语,从而实现虚拟机器人与用户在当前情绪下进行积极对话。本发明在大数据的支撑下,其情绪识别的准确率大幅提高;能够有效地检测用户情绪并调整虚拟机器人人机交互方式,提升人机交互的积极性和趣味性,从而大幅提升人机交互体验。
下面结合说明书附图和具体实施方式对本发明做出详细的说明。
本发明实施例提供了一种基于用户情绪识别的虚拟机器人人机交互方法,如图1所示,包括以下步骤:
S1、采集用户的每一条语音数据,构建情感数据集,并对采集到的用户语音数据进行情绪类型划分,情绪类型具体划分为高兴、伤心、悲观、乐观、厌恶和中性等。
采集日常生活工作中人们在不同场景不同情绪类型下的语音数据,在情绪类型划分前,首先对采集到的每条语音数据分别进行语音识别,并转化成文本向量,其中,文本转向量采用word2vec的方式。
情感数据集中的数据结构包括:语言识别后的文本转向量、音频数据、音频的频带能量、短时能量、基音及基音的一阶差分。
S2、根据划分后的情绪类型,搭建情绪感知器。
具体地,采用TensorFlow(谷歌基于DistBelief进行研发的第二代人工智能学习系统)搭建情绪感知器,如图2所示,情绪感知器包括输入层和输出层,其中,输入层总共分为五层,每层均包括512个LSTM单元;输出层采用softmax分类器,用于对用户情绪信息进行分类识别。
情绪感知器的输出参数为:
Ei={Hi,Si,Pi,Oi,Di,Ni}
其中,Ei表示情感数据向量;i表示情绪类型识别的样本序列;H,S,P,O,D,N分别表示高兴、伤心、悲观、乐观、厌恶、中性六类情绪类型。
softmax分类器可表示为:
其中,i表示情绪类型识别的样本序列;j=1,…,i;n表示样本大小;
则样本特征向量x属于第j个情绪类型的概率为:
S3、将情感数据集划分为训练数据集和测试数据集,利用训练数据集对情绪感知器进行训练。
S4、训练完成后,当情绪感知器的识别准确率达到预设阈值时,将测试数据集导入情绪感知器,观察情绪感知器的测试结果。
将采集到的情感数据集以7:3的比例划分为训练数据集和测试数据集,利用训练数据集对情绪感知器进行训练,检测其性能,其识别准确率具体如表一所示,其测试结果具体如表二所示。
表一、情绪感知器的识别准确率。
测试样本 | 高兴(%) | 伤心(%) | 悲观(%) | 乐观(%) | 厌恶(%) | 中性(%) |
高兴 | 80 | 1 | 2 | 5 | 2 | 10 |
伤心 | 2 | 78 | 12 | 2 | 3 | 3 |
悲观 | 1 | 3 | 79 | 1 | 2 | 14 |
乐观 | 8 | 2 | 2 | 83 | 3 | 2 |
厌恶 | 9 | 1 | 1 | 3 | 75 | 11 |
中性 | 10 | 2 | 3 | 3 | 4 | 78 |
表二、情绪感知器的测试结果。
由表一分析可知80%左右的情绪能被情绪感知器模型准确分类,而错误分类的样本主要集中在中性情绪类别。上述试验结果表明情绪感知器模型的识别结果是有效、可靠的。
S5、根据情绪感知器的测试结果,通过情绪引导算法对虚拟机器人的回复话语进行调整,引导虚拟机器人回复相应的话语。
具体地,通过编码器将情感数据向量Ei={Hi,Si,Pi,Oi,Di,Ni}编码为隐向量,通过注意力机制结合情绪感知器模型,引导生成不同的会话,其引导框架具体为:
其中,eij=η(si-1,hj);η为采用双曲正切函数tanh做激活单元的多层感知器。
情绪感知器输入层的数据集为:
其中,Xi为用户的问话,Yi为用户的回复,Ei为用户的问话Xi所表述的情绪。
将解码过程信息向量以及用户的问话Xi所表述的情绪Ei嵌入到情绪感知器模型中,其组合权重如下:
定义生成概率:
p(yi)=pV(yi)+pE(yi)
其中,Si=f(yi-1,si-1,Ci,oi),v为用户响应的词汇,f为LSTM单元,
本发明不局限于上述最佳实施方式,任何人在本发明的启示下作出的结构变化,凡是与本发明具有相同或相近的技术方案,均落入本发明的保护范围之内。
Claims (8)
1.一种基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,包括以下步骤:
采集用户的每一条语音数据,构建情感数据集,并对采集到的用户语音数据进行情绪类型划分;
根据划分后的情绪类型,搭建情绪感知器;
将情感数据集划分为训练数据集和测试数据集,利用训练数据集对情绪感知器进行训练;
训练完成后,将测试数据集导入情绪感知器,并根据情绪感知器的测试结果,通过情绪引导算法对虚拟机器人的回复话语进行引导和调整。
2.如权利要求1所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,采用TensorFlow搭建情绪感知器,情绪感知器包括输入层和输出层,其中,输入层分为五层,每层均包括多个LSTM单元;输出层采用softmax分类器,用于对用户情绪信息进行分类识别。
3.如权利要求2所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,情绪感知器的输出参数为:
Ei={Hi,Si,Pi,Oi,Di,Ni}
其中,Ei表示情感数据向量;i表示情绪类型识别的样本序列;H,S,P,O,D,N分别表示高兴、伤心、悲观、乐观、厌恶、中性六类情绪类型;
softmax分类器表示为:
其中,i表示情绪类型识别的样本序列;j=1,…,i;n表示样本大小;
样本特征向量x属于第j个情绪类型的概率为:
4.如权利要求3所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,通过编码器将情感数据向量Ei={Hi,Si,Pi,Oi,Di,Ni}编码为隐向量,通过注意力机制结合情绪感知器模型,引导生成不同的会话,其引导框架具体为:
其中,η为采用双曲正切函数tanh做激活单元的多层感知器;
情绪感知器输入层的数据集为:
其中,Xi为用户的问话,Yi为用户的回复,Ei为用户的问话Xi所表述的情绪;
将解码过程信息向量以及用户的问话Xi所表述的情绪Ei嵌入到情绪感知器模型中,其组合权重如下:
定义生成概率:
p(yi)=pV(yi)+pE(yi)
其中,Si=f(yi-1,si-1,Ci,oi),v为用户响应的词汇,f为LSTM单元,
5.如权利要求1所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,在情绪类型划分前,首先对采集到的每条语音数据分别进行语音识别,并转化成文本向量。
6.如权利要求5所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,采用word2vec的方式进行文本转向量。
7.如权利要求1所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,情感数据集中的数据结构包括:语言识别后的文本转向量、音频数据、音频的频带能量、短时能量、基音及基音的一阶差分。
8.如权利要求1所述的基于用户情绪识别的虚拟机器人人机交互方法,其特征在于,情绪类型划分为高兴、伤心、悲观、乐观、厌恶和中性六种类型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810286725.XA CN108831450A (zh) | 2018-03-30 | 2018-03-30 | 一种基于用户情绪识别的虚拟机器人人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810286725.XA CN108831450A (zh) | 2018-03-30 | 2018-03-30 | 一种基于用户情绪识别的虚拟机器人人机交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108831450A true CN108831450A (zh) | 2018-11-16 |
Family
ID=64155112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810286725.XA Pending CN108831450A (zh) | 2018-03-30 | 2018-03-30 | 一种基于用户情绪识别的虚拟机器人人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108831450A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109918650A (zh) * | 2019-02-03 | 2019-06-21 | 北京大学 | 自动生成采访稿的采访智能机器人装置及智能采访方法 |
CN109961152A (zh) * | 2019-03-14 | 2019-07-02 | 广州多益网络股份有限公司 | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 |
CN110299149A (zh) * | 2019-06-18 | 2019-10-01 | 电子科技大学 | 一种基于注意力机制的语音增强算法 |
CN110400579A (zh) * | 2019-06-25 | 2019-11-01 | 华东理工大学 | 基于方向自注意力机制和双向长短时网络的语音情感识别 |
CN110689177A (zh) * | 2019-09-17 | 2020-01-14 | 北京三快在线科技有限公司 | 订单准备时间的预测方法和装置,电子设备及存储介质 |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887721A (zh) * | 2010-07-19 | 2010-11-17 | 东南大学 | 一种基于心电信号与语音信号的双模态情感识别方法 |
CN101894550A (zh) * | 2010-07-19 | 2010-11-24 | 东南大学 | 基于情感对特征优化的语音情感分类方法 |
CN103021406A (zh) * | 2012-12-18 | 2013-04-03 | 台州学院 | 基于压缩感知的鲁棒性语音情感识别方法 |
CN103258532A (zh) * | 2012-11-28 | 2013-08-21 | 河海大学常州校区 | 一种基于模糊支持向量机的汉语语音情感识别方法 |
CN103531198A (zh) * | 2013-11-01 | 2014-01-22 | 东南大学 | 一种基于伪说话人聚类的语音情感特征规整化方法 |
CN104538028A (zh) * | 2014-12-25 | 2015-04-22 | 清华大学 | 一种基于深度长短期记忆循环神经网络的连续语音识别方法 |
CN104598644A (zh) * | 2015-02-12 | 2015-05-06 | 腾讯科技(深圳)有限公司 | 用户喜好标签挖掘方法和装置 |
CN104867489A (zh) * | 2015-04-27 | 2015-08-26 | 苏州大学张家港工业技术研究院 | 一种模拟真人朗读发音的方法及系统 |
CN105427869A (zh) * | 2015-11-02 | 2016-03-23 | 北京大学 | 一种基于深度学习的会话情感自动分析方法 |
CN105719664A (zh) * | 2016-01-14 | 2016-06-29 | 盐城工学院 | 基于似然概率模糊熵的紧张状态下语音情绪自动识别方法 |
CN105929964A (zh) * | 2016-05-10 | 2016-09-07 | 海信集团有限公司 | 人机交互方法及装置 |
CN106504772A (zh) * | 2016-11-04 | 2017-03-15 | 东南大学 | 基于重要性权重支持向量机分类器的语音情感识别方法 |
CN106782602A (zh) * | 2016-12-01 | 2017-05-31 | 南京邮电大学 | 基于长短时间记忆网络和卷积神经网络的语音情感识别方法 |
CN106847309A (zh) * | 2017-01-09 | 2017-06-13 | 华南理工大学 | 一种语音情感识别方法 |
CN106844750A (zh) * | 2017-02-16 | 2017-06-13 | 深圳追科技有限公司 | 一种基于客服机器人中情感安抚的人机交互方法及系统 |
CN106910497A (zh) * | 2015-12-22 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 一种中文词语发音预测方法及装置 |
CN107133224A (zh) * | 2017-04-25 | 2017-09-05 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN107247700A (zh) * | 2017-04-27 | 2017-10-13 | 北京捷通华声科技股份有限公司 | 一种添加文本标注的方法及装置 |
CN107562784A (zh) * | 2017-07-25 | 2018-01-09 | 同济大学 | 基于ResLCNN模型的短文本分类方法 |
CN107645523A (zh) * | 2016-07-21 | 2018-01-30 | 北京快乐智慧科技有限责任公司 | 一种情绪交互的方法和系统 |
CN107731233A (zh) * | 2017-11-03 | 2018-02-23 | 王华锋 | 一种基于rnn的声纹识别方法 |
-
2018
- 2018-03-30 CN CN201810286725.XA patent/CN108831450A/zh active Pending
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887721A (zh) * | 2010-07-19 | 2010-11-17 | 东南大学 | 一种基于心电信号与语音信号的双模态情感识别方法 |
CN101894550A (zh) * | 2010-07-19 | 2010-11-24 | 东南大学 | 基于情感对特征优化的语音情感分类方法 |
CN103258532A (zh) * | 2012-11-28 | 2013-08-21 | 河海大学常州校区 | 一种基于模糊支持向量机的汉语语音情感识别方法 |
CN103021406A (zh) * | 2012-12-18 | 2013-04-03 | 台州学院 | 基于压缩感知的鲁棒性语音情感识别方法 |
CN103531198A (zh) * | 2013-11-01 | 2014-01-22 | 东南大学 | 一种基于伪说话人聚类的语音情感特征规整化方法 |
CN104538028A (zh) * | 2014-12-25 | 2015-04-22 | 清华大学 | 一种基于深度长短期记忆循环神经网络的连续语音识别方法 |
CN104598644A (zh) * | 2015-02-12 | 2015-05-06 | 腾讯科技(深圳)有限公司 | 用户喜好标签挖掘方法和装置 |
CN104867489A (zh) * | 2015-04-27 | 2015-08-26 | 苏州大学张家港工业技术研究院 | 一种模拟真人朗读发音的方法及系统 |
CN105427869A (zh) * | 2015-11-02 | 2016-03-23 | 北京大学 | 一种基于深度学习的会话情感自动分析方法 |
CN106910497A (zh) * | 2015-12-22 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 一种中文词语发音预测方法及装置 |
CN105719664A (zh) * | 2016-01-14 | 2016-06-29 | 盐城工学院 | 基于似然概率模糊熵的紧张状态下语音情绪自动识别方法 |
CN105929964A (zh) * | 2016-05-10 | 2016-09-07 | 海信集团有限公司 | 人机交互方法及装置 |
CN107645523A (zh) * | 2016-07-21 | 2018-01-30 | 北京快乐智慧科技有限责任公司 | 一种情绪交互的方法和系统 |
CN106504772A (zh) * | 2016-11-04 | 2017-03-15 | 东南大学 | 基于重要性权重支持向量机分类器的语音情感识别方法 |
CN106782602A (zh) * | 2016-12-01 | 2017-05-31 | 南京邮电大学 | 基于长短时间记忆网络和卷积神经网络的语音情感识别方法 |
CN106847309A (zh) * | 2017-01-09 | 2017-06-13 | 华南理工大学 | 一种语音情感识别方法 |
CN106844750A (zh) * | 2017-02-16 | 2017-06-13 | 深圳追科技有限公司 | 一种基于客服机器人中情感安抚的人机交互方法及系统 |
CN107133224A (zh) * | 2017-04-25 | 2017-09-05 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN107247700A (zh) * | 2017-04-27 | 2017-10-13 | 北京捷通华声科技股份有限公司 | 一种添加文本标注的方法及装置 |
CN107562784A (zh) * | 2017-07-25 | 2018-01-09 | 同济大学 | 基于ResLCNN模型的短文本分类方法 |
CN107731233A (zh) * | 2017-11-03 | 2018-02-23 | 王华锋 | 一种基于rnn的声纹识别方法 |
Non-Patent Citations (2)
Title |
---|
CHEN XING,WEI WU,ET AL.: "Topic Aware Neural Response Generation", 《PROCEEDINGS OF THE THIRTY-FIRST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 * |
塞巴斯蒂安·拉施卡(SEBASTIAN RASCHKA): "《PYTHON机器学习,外文题名 :Python machine learning》", 31 May 2017, 中文版:机械工业出版社,外文版:PACKT PUBLISHING LTD * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109918650A (zh) * | 2019-02-03 | 2019-06-21 | 北京大学 | 自动生成采访稿的采访智能机器人装置及智能采访方法 |
CN109961152A (zh) * | 2019-03-14 | 2019-07-02 | 广州多益网络股份有限公司 | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 |
CN110299149A (zh) * | 2019-06-18 | 2019-10-01 | 电子科技大学 | 一种基于注意力机制的语音增强算法 |
CN110400579A (zh) * | 2019-06-25 | 2019-11-01 | 华东理工大学 | 基于方向自注意力机制和双向长短时网络的语音情感识别 |
CN110689177A (zh) * | 2019-09-17 | 2020-01-14 | 北京三快在线科技有限公司 | 订单准备时间的预测方法和装置,电子设备及存储介质 |
CN110689177B (zh) * | 2019-09-17 | 2020-11-20 | 北京三快在线科技有限公司 | 订单准备时间的预测方法和装置,电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108831450A (zh) | 一种基于用户情绪识别的虚拟机器人人机交互方法 | |
CN110675859B (zh) | 结合语音与文本的多情感识别方法、系统、介质及设备 | |
Liu et al. | Group gated fusion on attention-based bidirectional alignment for multimodal emotion recognition | |
Li et al. | Speech emotion recognition using 1d cnn with no attention | |
CN107256392A (zh) | 一种联合图像、语音的全面情绪识别方法 | |
Ghai et al. | Emotion recognition on speech signals using machine learning | |
CN104538027B (zh) | 语音社交媒体的情绪传播量化方法及系统 | |
CN104008754A (zh) | 一种基于半监督特征选择的语音情感识别方法 | |
CN113066499A (zh) | 一种陆空通话说话人身份识别方法及装置 | |
Iqbal et al. | Mfcc and machine learning based speech emotion recognition over tess and iemocap datasets | |
Susithra et al. | Speech based emotion recognition and gender identification using FNN and CNN Models | |
Kuang et al. | Simplified inverse filter tracked affective acoustic signals classification incorporating deep convolutional neural networks | |
Elbarougy | Speech emotion recognition based on voiced emotion unit | |
Sasidharan Rajeswari et al. | Speech Emotion Recognition Using Machine Learning Techniques | |
Singh et al. | Speaker Recognition Assessment in a Continuous System for Speaker Identification | |
Ullah et al. | Speech emotion recognition using deep neural networks | |
Zou et al. | Detecting practical speech emotion in a cognitive task | |
CN116168824A (zh) | 多模态精神疾病评估方法、计算机设备和存储介质 | |
Aggarwal et al. | Application of genetically optimized neural networks for hindi speech recognition system | |
Ataollahi et al. | Laughter classification using 3D convolutional neural networks | |
Kumar et al. | Machine learning technique-based emotion classification using speech signals | |
Elbarougy et al. | Feature selection method for real-time speech emotion recognition | |
Chintalapudi et al. | Speech emotion recognition using deep learning | |
Yadav et al. | Speech emotion classification using machine learning | |
Durrani et al. | Transfer learning based speech affect recognition in Urdu |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211129 Address after: 310000 201-1, unit 1, building 6, Haizhi center, Cangqian street, Yuhang District, Hangzhou City, Zhejiang Province Applicant after: HANGZHOU MJOYS BIG DATA TECHNOLOGY Co.,Ltd. Address before: 310000 room 1306, building 1, No. 998, Wenyi West Road, Yuhang District, Hangzhou City, Zhejiang Province Applicant before: HANGZHOU BIRDDODO INTELLIGENT TECHNOLOGY Co.,Ltd. |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181116 |