CN106297826A - 语音情感辨识系统及方法 - Google Patents
语音情感辨识系统及方法 Download PDFInfo
- Publication number
- CN106297826A CN106297826A CN201610687274.1A CN201610687274A CN106297826A CN 106297826 A CN106297826 A CN 106297826A CN 201610687274 A CN201610687274 A CN 201610687274A CN 106297826 A CN106297826 A CN 106297826A
- Authority
- CN
- China
- Prior art keywords
- emotion
- voice signal
- emotion identification
- identification result
- grader
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title abstract description 9
- 230000008451 emotion Effects 0.000 claims abstract description 218
- 239000000284 extract Substances 0.000 claims description 12
- 238000012850 discrimination method Methods 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 6
- 230000008909 emotion recognition Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013095 identification testing Methods 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种语音情感辨识系统及方法,其中,系统包括:语音接收器,第一情感辨识子系统,第二情感辨识子系统,情感输出器;语音接收器,用于接收语音信号;第一情感辨识子系统,用于根据语音信号获取第一情感辨识结果;第二情感辨识子系统,用于根据语音信号获取第二情感辨识结果;情感输出器,用于根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。本发明提供的语音情感辨识系统及方法,从多个角度对语音信号进行分析,可以提高语音情感辨识率。
Description
技术领域
本发明涉及一种语音情感辨识系统及方法。
背景技术
语音情感辨识是指机器接收人类发出的语音信号,并对该语音信号中的情感进行辨识,从而更加灵活地执行人类发出的指令。
目前,语音情感辨识系统通常采用对语音信号的声学特征进行统计计算与分析,从而判断出语音信号的情感,其缺点在于,情感辨识率低。
发明内容
本发明要解决的技术问题是提供一种语音情感辨识系统及方法,从语音信号的声学韵律特征对语音信号的情感进行辨识,同时还将语音信号转换成文本序列,并从文本序列中提取语义标签以实现对语音信号进行情感辨识,再将通过声学韵律特征获得的辨识结果与通过语义标签获得的辨识结果进行加权和计算,以获得最终的语音信号的辨识结果,从多个角度对语音信号进行分析,可以提高语音情感辨识率。
为解决上述技术问题,本发明提供的技术方案是:
一方面,提供一种语音情感辨识系统,包括:语音接收器,第一情感辨识子系统,第二情感辨识子系统,情感输出器;语音接收器,用于接收语音信号;第一情感辨识子系统,用于根据语音信号获取第一情感辨识结果;第二情感辨识子系统,用于根据语音信号获取第二情感辨识结果;情感输出器,用于根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
进一步地,第一情感辨识子系统,具体包括,情感显著性分割器,第一情感辨识器;情感显著性分割器,用于对语音接收器的语音信号提取声学韵律特征;第一情感辨识器,用于根据声学韵律特征获取语音信号的第一情感辨识结果;第二情感辨识子系统,具体包括,语音识别器,语义标签提取器,第二情感辨识器;语音识别器,用于将语音接收器的语音信号转换成文字序列;语义标签提取器,用于提取文字序列中的语义标签;第二情感辨识器,用于根据语义标签获取语音信号的第二情感辨识结果;情感输出器,用于根据第一情感辨识结果和第二情感辨识结果的加权和,确定出语音信号的情感状态。
进一步地,第一情感辨识器,包括,预先训练好的分类器和分类器选择模块;分类器包括GMM分类器,SVM分类器和MLP分类器;分类器选择模块,用于根据GMM分类器,SVM分类器,MLP分类器分别对语音信号的情感识别置信度,从GMM分类器,SVM分类器,和MLP分类器中确定出一个最佳分类器;分类器,用于根据声学韵律特征获取语音信号的第一情感辨识结果。
进一步地,第二情感辨识器,根据语义标签获取语音信号的第二情感辨识结果,具体包括,第二情感辨识器,根据语义标签提取文字序列的情感关联规则,并将情感关联规则与预先获取的情感关联规则库进行匹配,以获得语音信号的第二情感辨识结果。
进一步地,声学韵律特征包括,音高、强度、音质,声谱和倒谱。
进一步地,语义标签为根据互联网数据库的语义标签库提取的文字序列的语义信息。
进一步地,还包括人格特征存储器,人格特征存储器连接于第一情感辨识子系统和第二情感辨识子系统,用于存储说话者的人格特征信息。
另一方面,提供一种语音情感辨识方法,包括:
语音接收器接收语音信号;第一情感辨识子系统根据语音信号获取第一情感辨识结果;第二情感辨识子系统根据语音信号获取第二情感辨识结果;情感输出器根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
进一步地,第一情感辨识子系统根据语音信号获取第一情感辨识结果,具体包括:对语音接收器的语音信号提取声学韵律特征;根据声学韵律特征获取语音信号的第一情感辨识结果;第二情感辨识子系统根据语音信号获取第二情感辨识结果,具体包括:将语音接收器的语音信号转换成文字序列;提取文字序列中的语义标签;根据语义标签获取语音信号的第二情感辨识结果;情感输出器根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态,具体包括:根据第一情感辨识结果和第二情感辨识结果的加权和,确定出语音信号的情感状态。
进一步地,声学韵律特征包括,音高、强度、音质,声谱和倒谱;语义标签为根据互联网数据库的语义标签库提取的文字序列的语义信息。
本发明提供的语音情感辨识系统及方法,语音接收器接收语音信号;第一情感辨识子系统根据语音信号获取第一情感辨识结果,且与此同时,第二情感辨识子系统根据语音信号获取第二情感辨识结果;最后情感输出器,根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
本发明中,第一情感子系统是通过提取语音信号的声学韵律特征对语音信号的情感进行辨识;第二情感子系统是通过将语音信号转换成文本序列,并从文本序列中提取语义标签以实现对语音信号进行情感辨识;最后情感输出器将通过声学韵律特征获得的辨识结果与通过语义标签获得的辨识结果进行加权和计算,以获得最终的语音信号的辨识结果,从多个角度对语音信号进行分析,可以提高对语音信号的情感辨识率。
附图说明
图1是本发明提供的语音情感辨识系统的框图;
图2是本发明提供的语音情感辨识系统的又一框图;
图3是本发明提供的语音情感辨识方法的流程图;
图4是本发明提供的语音情感辨识方法的又一流程图。
具体实施方式
下面通过具体的实施例进一步说明本发明,但是,应当理解为,这些实施例仅仅是用于更详细具体地说明之用,而不应理解为用于以任何形式限制本发明。
实施例一
结合图1,本实施例提供的语音情感辨识系统,包括:语音接收器1,第一情感辨识子系统2,第二情感辨识子系统3,情感输出器4;语音接收器1,用于接收语音信号;第一情感辨识子系统2,用于根据语音信号获取第一情感辨识结果;第二情感辨识子系统3,用于根据语音信号获取第二情感辨识结果;情感输出器4,用于根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
优选地,如图2所示地,第一情感辨识子系统2,具体包括,情感显著性分割器201,第一情感辨识器202;情感显著性分割器201,用于对语音接收器1的语音信号提取声学韵律特征;第一情感辨识器202,用于根据声学韵律特征获取语音信号的第一情感辨识结果;第二情感辨识子系统3,具体包括,语音识别器301,语义标签提取器302,第二情感辨识器303;语音识别器301,用于将语音接收器1的语音信号转换成文字序列;语义标签提取器302,用于提取文字序列中的语义标签;第二情感辨识器303,用于根据语义标签获取语音信号的第二情感辨识结果;情感输出器4,用于根据第一情感辨识结果和第二情感辨识结果的加权和,确定出语音信号的情感状态。
本发明实施例提供的语音情感辨识系统,语音接收器1接收语音信号;第一情感辨识子系统2根据语音信号获取第一情感辨识结果,且与此同时,第二情感辨识子系统3根据语音信号获取第二情感辨识结果;最后情感输出器4,根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
本发明实施例中,第一情感子系统是通过提取语音信号的声学韵律特征对语音信号的情感进行辨识;第二情感子系统是通过将语音信号转换成文本序列,并从文本序列中提取语义标签以实现对语音信号进行情感辨识;最后情感输出器4将通过声学韵律特征获得的辨识结果与通过语义标签获得的辨识结果进行加权和计算,以获得最终的语音信号的辨识结果,从多个角度对语音信号进行分析,可以提高对语音信号的情感辨识率。
进一步优选地,第一情感辨识器202,包括,预先训练好的分类器和分类器选择模块;分类器包括GMM分类器,SVM分类器和MLP分类器;分类器选择模块,用于根据GMM分类器,SVM分类器,MLP分类器分别对语音信号的情感识别置信度,从GMM分类器,SVM分类器,和MLP分类器中确定出一个最佳分类器;分类器,用于根据声学韵律特征获取语音信号的第一情感辨识结果。
本实施例中,分类器是通过采用公用的语料库中的声学韵律特征训练而成,用于对语音情感状态进行分类识别,从而实现情感辨识。本实施例中训练了三种分类器,高斯混合模型(Gaussian Mixture Model,GMM)分类器,支持向量机(Support Vector Machine,SVM)分类器和多层感知(MultiLayer Perceptron,MLP)分类器,由于一种分类器不能对所有的情感状态都表现出很好的鲁棒性。例如,GMM分类器不能识别中性情感状态,但是MLP分类器却对中性情感状态表现了较高的鲁棒性。也就是说,将多种方法进行一定程度的融合能够比单一方法取得更佳的情感辨识效果。
进一步优选地,第二情感辨识器303,根据语义标签获取语音信号的第二情感辨识结果,具体包括,第二情感辨识器303,根据语义标签提取文字序列的情感关联规则,并将情感关联规则与预先获取的情感关联规则库进行匹配,以获得语音信号的第二情感辨识结果。
本实施例中,在训练阶段,通过采用语料库进行训练,获取一个情感关联规则库,从而在对语音信号进行测试时,只需要提取出文字序列的语义标签,并提取语义标签中的情感关联规则,并将所提取的情感关联规则与情感关联规则库进行匹配计算,从而确定出被测语音信号所对应的情感状态。
优选地,声学韵律特征包括,音高、强度、音质,声谱和倒谱。此外,需要说明的是,还可以采用其他的声学韵律特征,例如,共振峰(Formants),需要结合实际需要进行声学韵律特征的提取,本实施例不做具体限定。
进一步优选地,语义标签为根据互联网数据库的语义标签库提取的文字序列的语义信息。本实施例在训练阶段,是根据互联网数据库(例如,中国知网),提取出一个语义标签库,如此,在对语音信号进行情感辨识测试时,通过提取与语义标签库吻合的语义标签即可。同时,利用所提取的语义标签进行后续的语音情感辨识。
进一步优选地,还包括人格特征存储器,人格特征存储器连接于第一情感辨识子系统2和第二情感辨识子系统3,用于存储说话者的人格特征信息。
本实施例中的人格特征存储器,用于存储某些特定的说话者的人格特征信息,其中,该人格特征信息的获取是通过让说话者完成艾森克人格问卷(Eysenck PersonalityQuestionnaire,EPQ),从而自动判断说话者的独特的人格特征。本实施例中,存储说话者的人格特征信息的作用在于,可以在对某一个说话者个体事先进行EPQ测试从而获得该说话者个体的人格特征,并将该人格特征进行存储,之后,当对该说话者发出的语音信号进行测试时,通过结合所存储的人格特征,可以更好地辨识该说话者发出的语音的情感状态,情感辨识率更高。
实施例二
结合图3,本实施例提供一种语音情感辨识方法,包括:
步骤S1:语音接收器1接收语音信号;
步骤S2:第一情感辨识子系统2根据语音信号获取第一情感辨识结果;
步骤S3:第二情感辨识子系统3根据语音信号获取第二情感辨识结果;
步骤S4:情感输出器4根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
优选地,如图4所示地,第一情感辨识子系统2根据语音信号获取第一情感辨识结果,具体包括:
步骤S2.1:对语音接收器1的语音信号提取声学韵律特征;
步骤S2.2:根据声学韵律特征获取语音信号的第一情感辨识结果;
第二情感辨识子系统3根据语音信号获取第二情感辨识结果,具体包括:
步骤S3.1:将语音接收器1的语音信号转换成文字序列;
步骤S3.2:提取文字序列中的语义标签;
步骤S3.3:根据语义标签获取语音信号的第二情感辨识结果;
情感输出器4根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态,具体包括:
步骤S4:根据第一情感辨识结果和第二情感辨识结果的加权和,确定出语音信号的情感状态。
本发明实施例提供的语音情感辨识方法,语音接收器1接收语音信号;第一情感辨识子系统2根据语音信号获取第一情感辨识结果,且与此同时,第二情感辨识子系统3根据语音信号获取第二情感辨识结果;最后情感输出器4,根据第一情感辨识结果和第二情感辨识结果,确定出语音信号的情感状态。
本发明实施例中,第一情感子系统是通过提取语音信号的声学韵律特征对语音信号的情感进行辨识;第二情感子系统是通过将语音信号转换成文本序列,并从文本序列中提取语义标签以实现对语音信号进行情感辨识;最后情感输出器4将通过声学韵律特征获得的辨识结果与通过语义标签获得的辨识结果进行加权和计算,以获得最终的语音信号的辨识结果,从多个角度对语音信号进行分析,可以提高对语音信号的情感辨识率。
进一步优选地,声学韵律特征包括,音高、强度、音质,声谱和倒谱;语义标签为根据互联网数据库的语义标签库提取的文字序列的语义信息。
需要说明的是,还可以采用其他的声学韵律特征,例如,共振峰(Formants),需要结合实际需要进行声学韵律特征的提取,本实施例不做具体限定。
此外,语义标签为根据互联网数据库的语义标签库提取的文字序列的语义信息。本实施例在训练阶段,是根据互联网数据库(例如,中国知网),提取出一个语义标签库,如此,在对语音信号进行情感辨识测试时,通过提取与语义标签库吻合的语义标签即可。同时,利用所提取的语义标签进行后续的语音情感辨识。
进一步优选地,还包括人格特征存储器,人格特征存储器连接于第一情感辨识子系统2和第二情感辨识子系统3,用于存储说话者的人格特征信息。
本实施例中的人格特征存储器,用于存储某些特定的说话者的人格特征信息,其中,该人格特征信息的获取是通过让说话者完成艾森克人格问卷(Eysenck PersonalityQuestionnaire,EPQ),从而自动判断说话者的独特的人格特征。本实施例中,存储说话者的人格特征信息的作用在于,可以在对某一个说话者个体事先进行EPQ测试从而获得该说话者个体的人格特征,并将该人格特征进行存储,之后,当对该说话者发出的语音信号进行测试时,通过结合所存储的人格特征,可以更好地辨识该说话者发出的语音的情感状态,情感辨识率更高。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。
Claims (10)
1.一种语音情感辨识系统,其特征在于,包括:语音接收器,第一情感辨识子系统,第二情感辨识子系统,情感输出器;
所述语音接收器,用于接收语音信号;
所述第一情感辨识子系统,用于根据所述语音信号获取第一情感辨识结果;
所述第二情感辨识子系统,用于根据所述语音信号获取第二情感辨识结果;
所述情感输出器,用于根据所述第一情感辨识结果和所述第二情感辨识结果,确定出所述语音信号的情感状态。
2.根据权利要求1所述的语音情感辨识系统,其特征在于,
所述第一情感辨识子系统,具体包括,情感显著性分割器,第一情感辨识器;
所述情感显著性分割器,用于对所述语音接收器的所述语音信号提取声学韵律特征;
所述第一情感辨识器,用于根据所述声学韵律特征获取所述语音信号的所述第一情感辨识结果;
所述第二情感辨识子系统,具体包括,语音识别器,语义标签提取器,第二情感辨识器;
所述语音识别器,用于将所述语音接收器的所述语音信号转换成文字序列;
所述语义标签提取器,用于提取所述文字序列中的语义标签;
所述第二情感辨识器,用于根据所述语义标签获取所述语音信号的所述第二情感辨识结果;
所述情感输出器,用于根据所述第一情感辨识结果和所述第二情感辨识结果的加权和,确定出所述语音信号的情感状态。
3.根据权利要求1或2所述的语音情感辨识系统,其特征在于,
所述第一情感辨识器,包括,预先训练好的分类器和分类器选择模块;
所述分类器包括GMM分类器,SVM分类器和MLP分类器;
所述分类器选择模块,用于根据所述GMM分类器,所述SVM分类器,所述MLP分类器分别对所述语音信号的情感识别置信度,从所述GMM分类器,SVM分类器,和MLP分类器中确定出一个最佳分类器;
所述分类器,用于根据所述声学韵律特征获取所述语音信号的所述第一情感辨识结果。
4.根据权利要求2所述的语音情感辨识系统,其特征在于,所述第二情感辨识器,根据所述语义标签获取所述语音信号的所述第二情感辨识结果,具体包括,
所述第二情感辨识器,根据所述语义标签提取所述文字序列的情感关联规则,并将所述情感关联规则与预先获取的情感关联规则库进行匹配,以获得所述语音信号的所述第二情感辨识结果。
5.根据权利要求2所述的语音情感辨识系统,其特征在于,所述声学韵律特征包括,音高、强度、音质,声谱和倒谱。
6.根据权利要求2所述的语音情感辨识系统,其特征在于,所述语义标签为根据互联网数据库的语义标签库提取的所述文字序列的语义信息。
7.根据权利要求1或2所述的语音情感辨识系统,其特征在于,还包括人格特征存储器,所述人格特征存储器连接于所述第一情感辨识子系统和第二情感辨识子系统,用于存储说话者的人格特征信息。
8.一种语音情感辨识方法,其特征在于,包括:
语音接收器接收语音信号;
第一情感辨识子系统根据所述语音信号获取第一情感辨识结果;
第二情感辨识子系统根据所述语音信号获取第二情感辨识结果;
情感输出器根据所述第一情感辨识结果和所述第二情感辨识结果,确定出所述语音信号的情感状态。
9.根据权利要求8所述的语音情感辨识方法,其特征在于,
所述第一情感辨识子系统根据所述语音信号获取第一情感辨识结果,具体包括,
对所述语音接收器的所述语音信号提取声学韵律特征;
根据所述声学韵律特征获取所述语音信号的所述第一情感辨识结果;
所述第二情感辨识子系统根据所述语音信号获取第二情感辨识结果,具体包括,
将所述语音接收器的所述语音信号转换成文字序列;
提取所述文字序列中的语义标签;
根据所述语义标签获取所述语音信号的所述第二情感辨识结果;
所述情感输出器根据所述第一情感辨识结果和所述第二情感辨识结果,确定出所述语音信号的情感状态,具体包括,
根据所述第一情感辨识结果和所述第二情感辨识结果的加权和,确定出所述语音信号的情感状态。
10.根据权利要求8或9所述的语音情感辨识方法,其特征在于,
所述声学韵律特征包括,音高、强度、音质,声谱和倒谱;
所述语义标签为根据互联网数据库的语义标签库提取的所述文字序列的语义信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610687274.1A CN106297826A (zh) | 2016-08-18 | 2016-08-18 | 语音情感辨识系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610687274.1A CN106297826A (zh) | 2016-08-18 | 2016-08-18 | 语音情感辨识系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106297826A true CN106297826A (zh) | 2017-01-04 |
Family
ID=57661551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610687274.1A Pending CN106297826A (zh) | 2016-08-18 | 2016-08-18 | 语音情感辨识系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106297826A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107086041A (zh) * | 2017-03-27 | 2017-08-22 | 竹间智能科技(上海)有限公司 | 基于加密计算的语音情感分析方法及装置 |
CN107204195A (zh) * | 2017-05-19 | 2017-09-26 | 四川新网银行股份有限公司 | 一种基于情绪分析的智能质检方法 |
CN107293309A (zh) * | 2017-05-19 | 2017-10-24 | 四川新网银行股份有限公司 | 一种基于客户情绪分析提升舆情监控效率的方法 |
CN107944008A (zh) * | 2017-12-08 | 2018-04-20 | 神思电子技术股份有限公司 | 一种针对自然语言进行情绪识别的方法 |
CN107945790A (zh) * | 2018-01-03 | 2018-04-20 | 京东方科技集团股份有限公司 | 一种情感识别方法和情感识别系统 |
CN108010516A (zh) * | 2017-12-04 | 2018-05-08 | 广州势必可赢网络科技有限公司 | 一种语义独立的语音情绪特征识别方法及装置 |
CN108039181A (zh) * | 2017-11-02 | 2018-05-15 | 北京捷通华声科技股份有限公司 | 一种声音信号的情感信息分析方法和装置 |
CN108305641A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305642A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305643A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108962255A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 语音会话的情绪识别方法、装置、服务器和存储介质 |
WO2019001458A1 (zh) * | 2017-06-30 | 2019-01-03 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN109192225A (zh) * | 2018-09-28 | 2019-01-11 | 清华大学 | 语音情感识别和标注的方法及装置 |
CN109215679A (zh) * | 2018-08-06 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 基于用户情绪的对话方法和装置 |
CN109254669A (zh) * | 2017-07-12 | 2019-01-22 | 腾讯科技(深圳)有限公司 | 一种表情图片输入方法、装置、电子设备及系统 |
CN110297928A (zh) * | 2019-07-02 | 2019-10-01 | 百度在线网络技术(北京)有限公司 | 表情图片的推荐方法、装置、设备和存储介质 |
CN110473571A (zh) * | 2019-07-26 | 2019-11-19 | 北京影谱科技股份有限公司 | 基于短视频语音的情感识别方法和装置 |
WO2020233504A1 (en) * | 2019-05-17 | 2020-11-26 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for emotion recognition |
CN115240657A (zh) * | 2022-07-27 | 2022-10-25 | 深圳华策辉弘科技有限公司 | 一种语音处理方法、装置、设备及存储介质 |
CN115862675A (zh) * | 2023-02-10 | 2023-03-28 | 之江实验室 | 一种情感识别方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930735A (zh) * | 2009-06-23 | 2010-12-29 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN102723078A (zh) * | 2012-07-03 | 2012-10-10 | 武汉科技大学 | 基于自然言语理解的语音情感识别方法 |
CN103456314A (zh) * | 2013-09-03 | 2013-12-18 | 广州创维平面显示科技有限公司 | 一种情感识别方法以及装置 |
US20140172431A1 (en) * | 2012-12-13 | 2014-06-19 | National Chiao Tung University | Music playing system and music playing method based on speech emotion recognition |
CN104055529A (zh) * | 2014-06-19 | 2014-09-24 | 西南大学 | 一种计算情感心电信号标度指数的方法 |
CN105334743A (zh) * | 2015-11-18 | 2016-02-17 | 深圳创维-Rgb电子有限公司 | 一种基于情感识别的智能家居控制方法及其系统 |
CN105609117A (zh) * | 2016-02-19 | 2016-05-25 | 郑洪亮 | 一种识别语音情感的装置和方法 |
-
2016
- 2016-08-18 CN CN201610687274.1A patent/CN106297826A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930735A (zh) * | 2009-06-23 | 2010-12-29 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN102723078A (zh) * | 2012-07-03 | 2012-10-10 | 武汉科技大学 | 基于自然言语理解的语音情感识别方法 |
US20140172431A1 (en) * | 2012-12-13 | 2014-06-19 | National Chiao Tung University | Music playing system and music playing method based on speech emotion recognition |
CN103456314A (zh) * | 2013-09-03 | 2013-12-18 | 广州创维平面显示科技有限公司 | 一种情感识别方法以及装置 |
CN104055529A (zh) * | 2014-06-19 | 2014-09-24 | 西南大学 | 一种计算情感心电信号标度指数的方法 |
CN105334743A (zh) * | 2015-11-18 | 2016-02-17 | 深圳创维-Rgb电子有限公司 | 一种基于情感识别的智能家居控制方法及其系统 |
CN105609117A (zh) * | 2016-02-19 | 2016-05-25 | 郑洪亮 | 一种识别语音情感的装置和方法 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107086041A (zh) * | 2017-03-27 | 2017-08-22 | 竹间智能科技(上海)有限公司 | 基于加密计算的语音情感分析方法及装置 |
CN107204195A (zh) * | 2017-05-19 | 2017-09-26 | 四川新网银行股份有限公司 | 一种基于情绪分析的智能质检方法 |
CN107293309A (zh) * | 2017-05-19 | 2017-10-24 | 四川新网银行股份有限公司 | 一种基于客户情绪分析提升舆情监控效率的方法 |
WO2019001458A1 (zh) * | 2017-06-30 | 2019-01-03 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305641B (zh) * | 2017-06-30 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305643B (zh) * | 2017-06-30 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305642B (zh) * | 2017-06-30 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305641A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305642A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305643A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN109254669A (zh) * | 2017-07-12 | 2019-01-22 | 腾讯科技(深圳)有限公司 | 一种表情图片输入方法、装置、电子设备及系统 |
CN108039181A (zh) * | 2017-11-02 | 2018-05-15 | 北京捷通华声科技股份有限公司 | 一种声音信号的情感信息分析方法和装置 |
CN108010516A (zh) * | 2017-12-04 | 2018-05-08 | 广州势必可赢网络科技有限公司 | 一种语义独立的语音情绪特征识别方法及装置 |
CN107944008A (zh) * | 2017-12-08 | 2018-04-20 | 神思电子技术股份有限公司 | 一种针对自然语言进行情绪识别的方法 |
CN107945790A (zh) * | 2018-01-03 | 2018-04-20 | 京东方科技集团股份有限公司 | 一种情感识别方法和情感识别系统 |
CN108962255A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 语音会话的情绪识别方法、装置、服务器和存储介质 |
CN109215679A (zh) * | 2018-08-06 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 基于用户情绪的对话方法和装置 |
US11062708B2 (en) | 2018-08-06 | 2021-07-13 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for dialoguing based on a mood of a user |
CN109192225A (zh) * | 2018-09-28 | 2019-01-11 | 清华大学 | 语音情感识别和标注的方法及装置 |
WO2020233504A1 (en) * | 2019-05-17 | 2020-11-26 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for emotion recognition |
CN110297928A (zh) * | 2019-07-02 | 2019-10-01 | 百度在线网络技术(北京)有限公司 | 表情图片的推荐方法、装置、设备和存储介质 |
CN110473571A (zh) * | 2019-07-26 | 2019-11-19 | 北京影谱科技股份有限公司 | 基于短视频语音的情感识别方法和装置 |
CN115240657A (zh) * | 2022-07-27 | 2022-10-25 | 深圳华策辉弘科技有限公司 | 一种语音处理方法、装置、设备及存储介质 |
CN115862675A (zh) * | 2023-02-10 | 2023-03-28 | 之江实验室 | 一种情感识别方法、装置、设备及存储介质 |
CN115862675B (zh) * | 2023-02-10 | 2023-05-05 | 之江实验室 | 一种情感识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106297826A (zh) | 语音情感辨识系统及方法 | |
CN102332263B (zh) | 一种基于近邻原则合成情感模型的说话人识别方法 | |
CN108806667A (zh) | 基于神经网络的语音与情绪的同步识别方法 | |
EP1800293A4 (en) | SPEECH LANGUAGE IDENTIFICATION SYSTEM AND METHODS OF TRAINING AND OPERATING THE SYSTEM | |
CN109508402A (zh) | 违规用语检测方法及装置 | |
Ahsiah et al. | Tajweed checking system to support recitation | |
Yusnita et al. | Malaysian English accents identification using LPC and formant analysis | |
CN112466316A (zh) | 一种基于生成对抗网络的零样本语音转换系统 | |
CN105845141A (zh) | 基于信道鲁棒的说话人确认模型及说话人确认方法和装置 | |
KR20160059265A (ko) | 신뢰도 측점 점수를 고려한 음향 모델 학습 방법 및 장치 | |
Kurzekar et al. | Continuous speech recognition system: A review | |
CN110111778A (zh) | 一种语音处理方法、装置、存储介质及电子设备 | |
Ranjan et al. | An i-vector plda based gender identification approach for severely distorted and multilingual darpa rats data | |
CN106297769B (zh) | 一种应用于语种识别的鉴别性特征提取方法 | |
Chen et al. | Speech emotion classification using acoustic features | |
Koudounas et al. | Italic: An italian intent classification dataset | |
Farooq et al. | Mispronunciation detection in articulation points of Arabic letters using machine learning | |
CN113990288B (zh) | 一种语音客服自动生成部署语音合成模型的方法 | |
Prakash et al. | Analysis of emotion recognition system through speech signal using KNN & GMM classifier | |
Ladde et al. | Use of multiple classifier system for gender driven speech emotion recognition | |
Casale et al. | Analysis of robustness of attributes selection applied to speech emotion recognition | |
CN115762471A (zh) | 一种语音合成方法、装置、设备及存储介质 | |
Kostoulas et al. | Enhancing emotion recognition from speech through feature selection | |
Chakraborty et al. | Spontaneous speech emotion recognition using prior knowledge | |
Liu et al. | Supra-Segmental Feature Based Speaker Trait Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
CB03 | Change of inventor or designer information |
Inventor after: Jian Renxian Inventor after: Sun Tingwei Inventor after: Wu Anxiang Inventor after: Guo Yingshu Inventor before: Sun Tingwei Inventor before: Wu Anxiang Inventor before: Guo Yingshu |
|
COR | Change of bibliographic data | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170104 |