CN109352666A - 一种基于机器语音对话的情感发泄方法及系统 - Google Patents
一种基于机器语音对话的情感发泄方法及系统 Download PDFInfo
- Publication number
- CN109352666A CN109352666A CN201811261168.2A CN201811261168A CN109352666A CN 109352666 A CN109352666 A CN 109352666A CN 201811261168 A CN201811261168 A CN 201811261168A CN 109352666 A CN109352666 A CN 109352666A
- Authority
- CN
- China
- Prior art keywords
- emotion
- voice
- module
- vent
- emotional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 130
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000002996 emotional effect Effects 0.000 claims abstract description 94
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 230000036541 health Effects 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 14
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 238000013145 classification model Methods 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 2
- 230000003321 amplification Effects 0.000 claims 1
- 238000003199 nucleic acid amplification method Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013022 venting Methods 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000027534 Emotional disease Diseases 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Hospice & Palliative Care (AREA)
- Mechanical Engineering (AREA)
- Child & Adolescent Psychology (AREA)
- Robotics (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于机器语音对话的情感发泄方法,包括以下步骤;采集用户发泄情感时的语音;语音情感分类;若情感分类为健康,则播放音乐和幽默笑话;若情感分类为不健康,则利用情感发泄对话语音知识库实现情感发泄对话语音推理,生成合适的情感发泄对话语音;播放情感发泄对话语音。本发明还公开了一种基于机器语音对话的情感发泄系统,包括:语音信号采集模块,语音情感特征抽取模块、语音情感分类模块、语音情感分类模型模块、情感发泄对话语音推理模块、情感发泄对话语音播放模块和音乐和幽默笑话语音播放模块。本发明效果是用户发泄情感自然,发泄效果好。
Description
技术领域
本发明涉及通信技术领域,更具体的说是涉及一种基于机器语音对话的情感发泄方法及系统。
背景技术
情感状态体现了心理的健康状态,目前很多人都面临心理压力,或多或少会出现一些心理情感问题,具体表现为烦躁,焦虑,抑郁,生气等。但是对于心理学知识缺乏的人很难觉察到这些情感状态,也找不到合适的发泄方式。借助信息技术,自动监测并提供合适的发泄方式有利于恢复心理健康。其中语音包含了丰富的情感信息,是理解和检测情感的重要途径,通过语音分析就可以实现人类情感状态判别,进而提供合适的发泄方法。
心理学研究表明与他人激烈争吵是一种很有效的情感发泄方法,如果局限于需要发泄情绪的人的范围,而不影响他人,那么为这类人提供一种可以激烈争吵的环境是合适的。目前有通过人与人激烈争吵的方法来发泄情绪,但没有发现人与机器激烈争吵的情感发泄方法。
因此,本发明提供了基于机器语音对话的情感发泄方法及系统,其自动采集用户语音,系统自动分析、判断语音情感,理解语音内容,然后用对应的语音与用户对话。
发明内容
有鉴于此,本发明提供了一种基于机器语音对话的情感发泄方法及系统,系统能够理解用户发泄情感时的说话语音,并自动生成合适的对话语音,与用户激烈争吵,配合用户实现情感发泄。
为了实现上述目的,本发明采用如下技术方案:一种基于机器语音对话的情感发泄方法,包括以下步骤:
(1)语音信号采集:将用户说话的语音进行采集,并保存;
(2)语音情感特征抽取:将保存的语音抽取特征,转化为语音的特征向量;
(3)语音情感分类:利用语音情感分类模型与特征向量的匹配,得出用户心理情感类别;
(4)发泄内容推送:对得到的用户心理类别进行判断,
若用户语音情感不健康,则对情感发泄的语音内容进行推理,然后从语音情感发泄对话知识库中调用合适的情感发泄对话语音;
若用户语音情感健康,则从音乐和幽默笑话语音知识库中调用合适的音乐和幽默笑话。
优选的,在上述一种基于语音对话的情感发泄方法中,所述语音情感分类模型的获取过程包含以下步骤:
(a)采集N个语音及其对应的情感类别;
(b)构造每种情感对应语音的特征向量;
(c)构造训练数据,以语音特征向量为输入,其对应的情感类别为输出,构成训练样本集合;
(d)采用训练样本集合,学习语音情感分类模型;
(e)以M倍交叉验证方式选择语音情感分类模型的合适参数,进而获得对应参数的语音情感分类模型。
优选的,在上述一种基于语音对话的情感发泄方法中,判断用户的心理情感类别是否为突发情感,如果是突发情感则发送语音提醒用户注意控制情绪;其中所述突发的情感为愤怒、厌恶或恐惧。
优选的,在上述一种基于语音对话的情感发泄方法中,所述步骤(3)语音情感分类的方法采用支持向量机。
优选的,在上述一种基于语音对话的情感发泄方法中,所述步骤(4)对语音情感进行了判断,只对情感不健康的语音,利用情感发泄对话语音推理模块实现对语音的推理,然后从语音情感发泄对话知识库中调用合适的情感发泄对话语音。
优选的,在上述一种基于语音对话的情感发泄方法中,所述步骤(4)对语音情感进行了判断,对情感健康的,从音乐和幽默笑话语音知识库中选择音乐和幽默笑话,然后推送选择的音乐和幽默笑话语音给用户。
一种基于机器语音对话的情感发泄系统,包括:语音信号采集模块,语音情感特征抽取模块、语音情感分类模块、语音情感分类模型模块、情感发泄对话语音推理模块、情感发泄对话语音播放模块、音乐和幽默笑话语音播放模块;其中所述语音信号采集模块的输出端与所述语音情感特征抽取模块的输入端连接;所述语音情感特征抽取模块和所述语音情感分类模型模块的输出端均与所述语音情感分类模块的输入端相连;所述语音情感分类模块的输出端分别与所述情感发泄对话语音推理模块和乐和幽默笑话语音播放模块的输入端连接;所述情感发泄对话语音推理模块的输出端与所述情感发泄对话语音播放模块的输入端连接。
优选的,在上述一种基于语音对话的情感发泄系统中,还包括:语音情感学习样本库、音乐和幽默笑话语音知识库和情感发泄对话语音知识库;其中所述语音情感学习样本库连接于所述语音情感分类模型模块;所述音乐和幽默笑话语音知识库连接于所述音乐和幽默笑话语音播放模块;所述情感发泄对话语音知识库连接于所述情感发泄语音推理模块。
优选的,在上述一种机器语音对话的情感发泄系统中,所述语音情感学习样本库、音乐和幽默笑话语音知识库和情感发泄对话语音知识库实时联网更新。
有益效果
与现有技术相比,本发明的一种基于机器语音对话的情感发泄方法及手机具有以下优点:
1、通过与机器实现情感发泄语音对话,能说出任何难听的话而不用难为情,这样用户的情感发泄更自然,更激烈,发泄效果更好;
2、机器只向情感需要发泄的用户播放情感发泄对话语音,使得情感发泄更准确,发泄效果更好;
3、机器对情感健康的用户不播放情感发泄对话语音,而是播放音乐和幽默笑话,这样情感健康的用户也能使用,应用更广泛;
4将系统安装在机器中,实现机器情感发泄语音对话,可以在任何时候、任何地点,例如在没有人的地方用语音大喊发泄情绪,使用方便。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明情感发泄方法的流程图。
图2附图为本发明情感发泄系统的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种基于机器语音对话的情感发泄方法及系统,系统能够理解用户发泄情感时的说话语音,并自动生成合适的对话语音,与用户激烈争吵,配合用户实现情感发泄。
参阅附图1,一种基于机器语音对话的情感发泄方法,具体包括以下步骤:
第1步:语音信号采集:通过拾音器采集用户发泄情感时的说话语音,并保存为MP3音频文件。
第2步:语音情感特征抽取:提取MP3音频文件的语音情感特征,形成一个语音情感特征向量。语音情感特征包括短时过零率,短时能量,基音频率,共振峰,谐波噪声比,MFCC参数,一阶MFCC参数,二阶MFCC参数,LPC倒谱系数,线性预测系数,子带能量,和频率中心的平均值,标准方差,最大值,和最小值。然后采用支持向量机作为语音情感分类器,对语音情感特征向量分类,判断的情感类别为2类:健康(高兴、惊讶和平静),不健康(愤怒、悲伤、厌恶、恐惧)。
支持向量机分类器需要训练,其训练过程包括以下骤:①获取大量的情感语音文件及其情感类别,对每个语音文件抽取语音情感特征,形成语音情感特征向量,将语音情感特征向量及其对应的情感类别作为训练样本。②在训练样本集上训练支持向量机分类器,保存训练结果,以便在语音情感分类时使用。
第3步:语音情感分类:利用语音情感分类模型与特征向量匹配,得出用户心理情感类别。
第4步:发泄内容推送:
若用户发泄情感时的说话语音的情感类别被分类为健康类别,则从音乐和幽默笑话语音知识库中选择音乐和幽默笑话,并向用户播放。
本实施案例采用的音乐和幽默笑话语音知识库的格式如下:
本实施案例采用简单的方法选择音乐和幽默笑话播放,它从音乐和幽默笑话语音知识库随机抽取记录播放。
若用户发泄情感时的说话语音的情感类别被分类为不健康类别,则利用情感发泄对话语音知识库实现情感发泄对话语音知识推理,生成合适的情感发泄对话语音。情感发泄对话语音知识库是由领域专家预先建立,其中的每个知识样本包含了用户发泄情感时的说话语音及其对应的机器对话语音。
本实施案例采用的情感发泄对话语音知识库格式如下:
本实施案例采用如下方法实现情感发泄对话语音知识推理,具体步骤为:①根据当前用户发泄情感时的说话语音,从情感发泄对话语音知识库中搜索最相似的k个样本,相似性根据语音特征向量之间的距离计算。②从k个样本中随机选择一个样本,读取此样本所包含的机器对话语音作为情感发泄对话语音知识推理的结果,这里k=5。
请参阅附图2,一种基于机器语音对话的情感发泄系统,系统包括:一个语音情感学习样本库,一个音乐和幽默笑话语音知识库,一个情感发泄对话语音知识库。系统还包含:语音信号采集模块,语音情感特征抽取模块、语音情感分类模块、语音情感分类模型模块、情感发泄对话语音推理模块、情感发泄对话语音播放模块和音乐和幽默笑话语音播放模块。其中:语音信号采集模块的输出端与语音情感特征抽取模块的输入端连接;语音情感特征抽取模块和所音情感分类模型模块的输出端均与语音情感分类模块的输入端相连;语音情感分类模块的输出端分别与情感发泄对话语音推理模块和乐和幽默笑话语音播放模块的输入端连接;情感发泄对话语音推理模块的输出端与情感发泄对话语音播放模块的输入端连接。
1)语音信号采集模块,通过控制手机的拾音器,采集用户发泄情感时候的说话语音。
2)语音情感特征抽取模块,对语音信号采集模块采集的用户发泄情感时的说话语音进行预处理,获得预处理后的语音;对采集并预处理后的语音抽取特征,用特征向量表示用户发泄情感时的说话语音。
3)语音情感分类模型模块,以语音情感学习样本库为训练集,训练支持向量机分类器,获得语音情感的支持向量机分类模型。
4)语音情感分类模块,采用语音情感分类模型模块训练获得的支持向量机分类模型对语音情感特征抽取模块构造的特征向量进行情感分类,获得情感是否健康的判断结果。
5)音乐和幽默笑话语音播放模块,当语音情感分类模块判断为健康类别时,从音乐和幽默笑话语音知识库中选择音乐和幽默笑话,并向用户播放。
6)情感发泄对话语音推理模块,当语音情感分类模块判断为不健康类别时,利用情感发泄对话语音知识库实现情感发泄对话语音知识推理,生成合适的情感发泄对话语音。
7)情感发泄对话语音播放模块,向用户播放情感发泄对话语音推理模块生成的情感发泄对话语音。
本实施案例中的系统可安装在Android智能手机。Android平台提供了应用程序框架,提供了拾音器等传感器、语音识别、桌面组件开发、Android游戏引擎设计、Android应用优化等各类开发工具,提供了对音频、视频和图片等多媒体的支持,提供了用于结构化数据存储的关系型数据库SQLite。本实施案例采用Android的SDK来编写程序,实现用户情感发泄时的说话语音的采集、处理和保存,以及支持向量机分类器,用SQLite3来实现语音情感学习样本库、音乐和幽默笑话语音知识库,情感发泄对话语音知识库等数据的管理。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种基于机器语音对话的情感发泄方法,其特征在于,包括以下步骤:
(1)语音信号采集:将用户说话的语音进行采集,并保存;
(2)语音情感特征抽取:将保存的语音抽取特征,转化为语音的特征向量;
(3)语音情感分类:利用语音情感分类模型与特征向量的匹配,得出用户心理情感类别;
(4)发泄内容推送:对得到的用户心理类别进行判断,
若用户语音情感不健康,则对情感发泄的语音内容进行推理,然后从语音情感发泄对话知识库中调用合适的情感发泄对话语音;
若用户语音情感健康,则从音乐和幽默笑话语音知识库中调用合适的音乐和幽默笑话。
2.根据权利要求1所述的一种基于语音对话的情感发泄方法,其特征在于,所述语音情感分类模型的获取过程包含以下步骤:
(a)采集N个语音及其对应的情感类别;
(b)构造每种情感对应语音的特征向量;
(c)构造训练数据,以语音特征向量为输入,其对应的情感类别为输出,构成训练样本集合;
(d)采用训练样本集合,学习语音情感分类模型;
(e)以M倍交叉验证方式选择语音情感分类模型的合适参数,进而获得对应参数的语音情感分类模型。
3.根据权利要求1所述的一种基于语音对话的情感发泄方法,其特征在于,判断用户的心理情感类别是否为突发情感,如果是突发情感则发送语音提醒用户注意控制情绪;其中所述突发的情感为愤怒、厌恶或恐惧。
4.根据权利要求1所述的一种基于语音对话的情感发泄方法,其特征在于,所述步骤(3)语音情感分类的方法采用支持向量机。
5.根据权利要求1~4任一所述的一种基于语音对话的情感发泄方法,其特征在于,所述步骤(4)对语音情感进行了判断,只对情感不健康的语音,利用情感发泄对话语音推理模块实现对语音的推理,然后从语音情感发泄对话知识库中调用合适的情感发泄对话语音。
6.根据权利要求5所述的一种基于语音对话的情感发泄方法,其特征在于,所述的步骤(4)对语音情感进行了判断,对情感健康的,从音乐和幽默笑话语音知识库中选择音乐和幽默笑话,然后推送给用户。
7.一种基于机器语音对话的情感发泄系统,其特征在于,包括:语音信号采集模块,语音情感特征抽取模块、语音情感分类模块、语音情感分类模型模块、情感发泄对话语音推理模块、情感发泄对话语音播放模块、音乐和幽默笑话语音播放模块;其中所述语音信号采集模块的输出端与所述语音情感特征抽取模块的输入端连接;所述语音情感特征抽取模块和所述语音情感分类模型模块的输出端均与所述语音情感分类模块的输入端相连;所述语音情感分类模块的输出端分别与所述情感发泄对话语音推理模块和乐和幽默笑话语音播放模块的输入端连接;所述情感发泄对话语音推理模块的输出端与所述情感发泄对话语音播放模块的输入端连接。
8.根据权利要求7所述的一种机器语音对话的情感发泄系统,其特征在于,还包括:语音情感学习样本库、音乐和幽默笑话语音知识库和情感发泄对话语音知识库;其中所述语音情感学习样本库连接于所述语音情感分类模型模块;所述音乐和幽默笑话语音知识库连接于所述音乐和幽默笑话语音播放模块;所述情感发泄对话语音知识库连接于所述情感发泄语音推理模块。
9.根据权利要求8所述的一种机器语音对话的情感发泄系统,其特征在于,所述语音情感学习样本库、音乐和幽默笑话语音知识库和情感发泄对话语音知识库实时联网更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811261168.2A CN109352666A (zh) | 2018-10-26 | 2018-10-26 | 一种基于机器语音对话的情感发泄方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811261168.2A CN109352666A (zh) | 2018-10-26 | 2018-10-26 | 一种基于机器语音对话的情感发泄方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109352666A true CN109352666A (zh) | 2019-02-19 |
Family
ID=65346772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811261168.2A Pending CN109352666A (zh) | 2018-10-26 | 2018-10-26 | 一种基于机器语音对话的情感发泄方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109352666A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110890096A (zh) * | 2019-10-12 | 2020-03-17 | 深圳供电局有限公司 | 一种基于语音分析的智能语音系统及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093752A (zh) * | 2013-01-16 | 2013-05-08 | 华南理工大学 | 一种基于手机语音的情感分析方法及其系统 |
CN104346336A (zh) * | 2013-07-23 | 2015-02-11 | 广州华久信息科技有限公司 | 一种基于机器文本对骂的情感发泄方法及系统 |
CN104754110A (zh) * | 2013-12-31 | 2015-07-01 | 广州华久信息科技有限公司 | 一种基于机器语音对话的情感发泄方法及手机 |
CN105609117A (zh) * | 2016-02-19 | 2016-05-25 | 郑洪亮 | 一种识别语音情感的装置和方法 |
US9569424B2 (en) * | 2013-02-21 | 2017-02-14 | Nuance Communications, Inc. | Emotion detection in voicemail |
CN106855879A (zh) * | 2016-12-14 | 2017-06-16 | 竹间智能科技(上海)有限公司 | 人工智能心理与音乐咨询的机器人 |
CN107195312A (zh) * | 2017-05-05 | 2017-09-22 | 深圳信息职业技术学院 | 情绪宣泄模式的确定方法、装置、终端设备和存储介质 |
US20180005646A1 (en) * | 2014-12-04 | 2018-01-04 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
CN107825429A (zh) * | 2016-09-15 | 2018-03-23 | 富士施乐株式会社 | 对话装置和方法 |
-
2018
- 2018-10-26 CN CN201811261168.2A patent/CN109352666A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093752A (zh) * | 2013-01-16 | 2013-05-08 | 华南理工大学 | 一种基于手机语音的情感分析方法及其系统 |
US9569424B2 (en) * | 2013-02-21 | 2017-02-14 | Nuance Communications, Inc. | Emotion detection in voicemail |
CN104346336A (zh) * | 2013-07-23 | 2015-02-11 | 广州华久信息科技有限公司 | 一种基于机器文本对骂的情感发泄方法及系统 |
CN104754110A (zh) * | 2013-12-31 | 2015-07-01 | 广州华久信息科技有限公司 | 一种基于机器语音对话的情感发泄方法及手机 |
US20180005646A1 (en) * | 2014-12-04 | 2018-01-04 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
CN105609117A (zh) * | 2016-02-19 | 2016-05-25 | 郑洪亮 | 一种识别语音情感的装置和方法 |
CN107825429A (zh) * | 2016-09-15 | 2018-03-23 | 富士施乐株式会社 | 对话装置和方法 |
CN106855879A (zh) * | 2016-12-14 | 2017-06-16 | 竹间智能科技(上海)有限公司 | 人工智能心理与音乐咨询的机器人 |
CN107195312A (zh) * | 2017-05-05 | 2017-09-22 | 深圳信息职业技术学院 | 情绪宣泄模式的确定方法、装置、终端设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110890096A (zh) * | 2019-10-12 | 2020-03-17 | 深圳供电局有限公司 | 一种基于语音分析的智能语音系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108536802B (zh) | 基于儿童情绪的交互方法及装置 | |
Eyben et al. | The Geneva minimalistic acoustic parameter set (GeMAPS) for voice research and affective computing | |
Casale et al. | Speech emotion classification using machine learning algorithms | |
US10991384B2 (en) | Method for automatic affective state inference and an automated affective state inference system | |
US8595005B2 (en) | System and method for recognizing emotional state from a speech signal | |
CN104778945B (zh) | 响应自然语言语音口头表达的系统和方法 | |
Sezgin et al. | Perceptual audio features for emotion detection | |
CN100351899C (zh) | 网络环境中语音处理的中间体 | |
CN109189980A (zh) | 与用户进行语音交互的方法和电子设备 | |
Aloufi et al. | Emotionless: Privacy-preserving speech analysis for voice assistants | |
CN110148427A (zh) | 音频处理方法、装置、系统、存储介质、终端及服务器 | |
CN104700843A (zh) | 一种年龄识别的方法及装置 | |
CN110475170A (zh) | 耳机播放状态的控制方法、装置、移动终端及存储介质 | |
CN104538043A (zh) | 一种通话中实时情感提示装置 | |
KR20010062754A (ko) | 대화 프로세싱 장치 및 방법, 및 이를 위한 기록 매체 | |
CN110689261A (zh) | 服务质量评测产品定制平台及方法 | |
CN111179965A (zh) | 一种宠物情绪识别方法及系统 | |
Babel et al. | 19 Producing Linguistic Variation Socially Meaningful | |
Hamsa et al. | An enhanced emotion recognition algorithm using pitch correlogram, deep sparse matrix representation and random forest classifier | |
CN104754110A (zh) | 一种基于机器语音对话的情感发泄方法及手机 | |
CN109352666A (zh) | 一种基于机器语音对话的情感发泄方法及系统 | |
CN112435669B (zh) | 一种机器人多轮对话语音交互方法、系统和终端设备 | |
CN115132204B (zh) | 一种语音处理方法、设备、存储介质及计算机程序产品 | |
CN115910111A (zh) | 语音交互方法、装置、智能设备及计算机可读存储介质 | |
Labedzka | Exploring Roboticness and Applicability of Voices to Social Robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190219 |
|
RJ01 | Rejection of invention patent application after publication |