CN109274819A - 通话时用户情绪调整方法、装置、移动终端及存储介质 - Google Patents
通话时用户情绪调整方法、装置、移动终端及存储介质 Download PDFInfo
- Publication number
- CN109274819A CN109274819A CN201811064965.1A CN201811064965A CN109274819A CN 109274819 A CN109274819 A CN 109274819A CN 201811064965 A CN201811064965 A CN 201811064965A CN 109274819 A CN109274819 A CN 109274819A
- Authority
- CN
- China
- Prior art keywords
- mobile terminal
- call
- voice
- terminal user
- emotional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 230000002996 emotional effect Effects 0.000 claims abstract description 187
- 230000008859 change Effects 0.000 claims abstract description 59
- 230000036651 mood Effects 0.000 claims abstract description 35
- 238000004590 computer program Methods 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 7
- 230000006854 communication Effects 0.000 abstract description 12
- 238000004891 communication Methods 0.000 abstract description 11
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 206010054196 Affect lability Diseases 0.000 description 1
- 241000208340 Araliaceae Species 0.000 description 1
- 206010027940 Mood altered Diseases 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 208000010340 Sleep Deprivation Diseases 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007510 mood change Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephone Function (AREA)
Abstract
本发明适用于通信技术领域,提供了一种通话时用户情绪调整方法、装置、移动终端及存储介质,该方法包括:通过获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态,根据确定的移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声,从而在通话时根据通话用户的情绪对输出到通话对端的通话语音进行调整,提高了移动终端的智能化程度,提升了移动终端的通话时的用户体验。
Description
技术领域
本发明属于通信技术领域,尤其涉及一种通话时用户情绪调整方法、装置、移动终端及存储介质。
背景技术
情绪表达直接影响着人们的生活和工作,随着现代生活节奏的加快,人们的压力越大越大,超负荷工作、户外活动减少、睡眠不足等原因导致人们的情绪多变,特别是负面情绪的增多,如果人们在工作和生活中对负面情绪不加以控制,不但影响家庭和谐,还会影响人际关系。
移动终端,特别是手机作为现代人日常交流最常用的通讯工具之一,人们难免会在不良情绪的影响下通话,或者在通话过程中情绪发生变化,如果没有及时意识到情绪异常并加以控制,极易造成无谓的语言冲突而影响人际关系。而现有技术中,移动终端不能有效对通话双方在通话时的情绪进行分析和调整。
发明内容
本发明的目的在于提供一种通话时用户情绪调整方法、装置、移动终端及存储介质,旨在解决由于现有技术不能准确地对通话双方在通话时的情绪进行分析和调整的问题。
一方面,本发明提供了一种通话时用户情绪调整方法,所述方法包括下述步骤:
获取移动终端用户通话时的语音,根据所述移动终端用户通话时的语音,获取所述端移动终端用户通话时的情绪特征参数;
将所述情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定所述移动终端用户通话时的情绪状态;
根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
优选地,根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤之前,还包括:
接收与所述移动终端通话的对端移动终端的通话语音,根据所述对端移动终端的通话语音,获取所述对端移动终端用户通话时的情绪特征参数;
将所述对端移动终端用户的所述情绪特征参数与所述预设情绪种类对应的情绪特征参数进行匹配,确定所述对端移动终端用户通话时的情绪状态;
根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤,包括:
根据确定的所述移动终端用户通话时的情绪状态以及所述对端移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
进一步优选地,根据确定的所述移动终端用户通话时的情绪状态以及所述对端移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤,包括:
当所述移动终端用户和所述对端移动终端用户通话时的情绪状态均为生气状态时,提高所述移动终端用户的通话语音频率。
优选地,根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤,包括:
当所述移动终端用户通话时的情绪状态被判断为消极情绪状态时,将所述移动终端的通话语音频率调整为所述移动终端用户平静状态时的语音频率。
另一方面,本发明提供了一种通话时用户情绪调整装置,所述装置包括:
情绪参数获取单元,用于获取移动终端用户通话时的语音,根据所述移动终端用户通话时的语音,获取所述端移动终端用户通话时的情绪特征参数;
情绪判断单元,用于将所述情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定所述移动终端用户通话时的情绪状态;以及
通话变声单元,用于根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
优选地,所述装置还包括:
对端情绪参数获取单元,用于接收与所述移动终端通话的对端移动终端的通话语音,根据所述对端移动终端的通话语音,获取所述对端移动终端用户通话时的情绪特征参数;以及
对端情绪判断单元,用于将所述对端移动终端用户的所述情绪特征参数与所述预设情绪种类对应的情绪特征参数进行匹配,确定所述对端移动终端用户通话时的情绪状态;
所述通话变声单元包括:
第一通话变声单元,用于根据确定的所述移动终端用户通话时的情绪状态以及所述对端移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
进一步优选地,所述第一通话变声单元包括:
频率变声单元,用于当所述移动终端用户和所述对端移动终端用户通话时的情绪状态均为生气状态时,提高所述移动终端用户的通话语音频率。
优选地,所述通话变声单元包括:
第二通话变声单元,用于当所述移动终端用户通话时的情绪状态被判断为消极情绪状态时,将所述移动终端的通话语音频率调整为所述移动终端用户平静状态时的语音频率。
另一方面,本发明还提供了一种移动终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述方法的步骤。
另一方面,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上所述方法的步骤。
本发明通过获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态,根据确定的移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声,从而在通话时根据通话用户的情绪对输出到通话对端的通话语音进行调整,提高了移动终端的智能化程度,提升了移动终端的通话时的用户体验。
附图说明
图1是本发明实施例一提供的通话时用户情绪调整方法的实现流程图;
图2是本发明实施例二提供的通话时用户情绪调整方法的实现流程图;
图3是本发明实施例三提供的通话时用户情绪调整装置的实现流程图;
图4是本发明实施例四提供的通话时用户情绪调整装置的结构示意图;以及
图5是本发明实施例五提供的移动终端的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明实施例一提供的通话时用户情绪调整方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数。
本发明实施例适用于移动终端,该移动终端可以为智能手机或智能手表。当移动终端用户进行通话时,移动终端可对接收到的或获取的用户通话时语音进行分段处理,提取语音信号中的基频、共振峰、语速、短时能量、时长作为情绪特征参数,并将从每一段语音信号中提取的情绪特征参数进行量化,得到每段语音的情绪特征参数的具体数值。
在步骤S102中,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态。
在本发明实施例中,情绪种类可以包括欢快情绪、平和或平静情绪、消极情绪,消极情绪又可以包括沮丧、生气,移动终端可预先建立不同情绪种类与对应情绪特征参数之间的关联关系,从而根据情绪特征参数获取对应的情绪种类,以实现情绪识别。优选地,基于男女语音特征的差异,分别预先建立男女性不同情绪种类与对应情绪特征参数之间的关联关系,以提高移动终端用户通话时情绪状态判断的准确性。此时,直接将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态。
在将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配之前,优选地,采集用户日常通话时不同情绪状态下的语音,获取多种情绪状态下对应的情绪特征参数,并作为样本对预先建立的情绪种类识别模型进行学习训练,以得到训练好的情绪种类识别模型。这样,在将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配、确定移动终端用户通话时的情绪状态时,可利用训练后的情绪种类识别模型确定用户通话时的情绪状态。当然,也可使用通用情绪种类识别模型确定移动终端用户通话时的情绪状态。
在步骤S103中,根据确定的移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声。
在本发明实施例中,对移动终端的通话语音进行变声的方式可以有多种,可以对语音的频率、音色、音调和/或强度等进行变化,以实现变声,通过对语音这些特征不同组合的变化,可以得到不同的变声或变声效果,例如,欢快效果、平和效果、搞笑效果。优选地,当移动终端用户通话时的情绪状态被判断为消极情绪状态时,将移动终端的通话语音频率调整为移动终端用户平静或平和状态时的语音频率,从而减少消极情绪给与其通话的联系人带来影响。例如,当确定移动终端用户通话时的情绪状态为生气情绪时,将移动终端的通话语音变为平和或滑稽的语调,缓解情绪给双方带来的不必要冲突或给对方带来不必要的影响。
实施例二:
图2示出了本发明实施例二提供的一种通话时用户情绪调整方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S201中,获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数。
本发明实施例适用于移动终端,该移动终端可以为智能手机或智能手表。当移动终端用户进行通话时,移动终端可对接收到的或获取的用户通话时语音进行分段处理,提取语音信号中的基频、共振峰、语速、短时能量、时长作为情绪特征参数,并将从每一段语音信号中提取的情绪特征参数进行量化,得到每段语音的情绪特征参数的具体数值。
在步骤S202中,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态。
在本发明实施例中,情绪种类可以包括欢快情绪、平和或平静情绪、消极情绪,消极情绪又可以包括沮丧、生气,移动终端可预先建立不同情绪种类与对应情绪特征参数之间的关联关系,从而根据情绪特征参数获取对应的情绪种类,以实现情绪识别。优选地,基于男女语音特征的差异,分别预先建立男女性不同情绪种类与对应情绪特征参数之间的关联关系,以提高移动终端用户通话时情绪状态判断的准确性。此时,直接将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态。
在将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配之前,优选地,采集用户日常通话时不同情绪状态下的语音,获取多种情绪状态下对应的情绪特征参数,并作为样本对预先建立的情绪种类识别模型进行学习训练,以得到训练好的情绪种类识别模型。这样,在将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态时,可利用训练后的情绪种类识别模型确定用户通话时的情绪状态。
在步骤S203中,接收与移动终端通话的对端移动终端的通话语音,根据对端移动终端的通话语音,获取对端移动终端用户通话时的情绪特征参数。
考虑到通话时的用户情绪是通话双方情绪决定的,因此,在本发明实施例中,在对移动终端的通话语音进行变声之前,获取对端移动终端用户通话时的情绪特征参数,这样,在后续对移动移动终端用户进行变声时,结合对端移动终端用户通话时的情绪,实现用户通话时语音的差异化变声,可进一步提高变声的适用性。
在步骤S204中,将对端移动终端用户的情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定对端移动终端用户通话时的情绪状态。
在本发明实施例中,移动终端可预先建立不同情绪种类与对应情绪特征参数之间的关联关系,从而根据情绪特征参数获取对应的情绪种类,以实现情绪识别。优选地,基于男女语音特征的差异,分别预先建立男女性不同情绪种类与对应情绪特征参数之间的关联关系,以提高移动终端用户通话时情绪状态判断的准确性。此时,可直接将对端移动终端用户的情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定对端移动终端用户通话时的情绪状态。当然,也可使用训练好的通用情绪种类识别模型确定对端移动终端用户通话时的情绪状态。
在步骤S205中,根据确定的移动终端用户通话时的情绪状态以及对端移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声。
在本发明实施例中,对移动终端的通话语音进行变声的方式可以有多种,可以对语音的频率、音色、音调和/或强度等进行变化,以实现变声,通过对语音这些特征不同组合的变化,可以得到不同的变声或变声效果。
在对移动终端的通话语音进行变声时,优选地,当移动终端用户和对端移动终端用户通话时的情绪状态均为生气状态时,提高移动终端用户的通话语音频率,将移动终端的通话语音变为平和或滑稽的语调,缓解情绪给双方带来的不必要冲突或给对方带来不必要的影响。
在本发明实施例中,通获取端移动终端用户和对端移动终端用户通话时的情绪特征参数,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户和对端用户通话时的情绪状态,当移动终端用户和对端移动终端用户通话时的情绪状态均为生气状态时,提高移动终端用户的通话语音频率,从而在通话时根据通话双方用户的情绪对输出到通话对端的通话语音进行调整,提高了移动终端的智能化程度,提升了移动终端的通话时的用户体验。
实施例三:
图3示出了本发明实施例三提供的通话时用户情绪调整装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
情绪参数获取单元31,用于获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数。
在本发明实施例中,移动终端可以为智能手机或智能手表,当移动终端用户进行通话时,移动终端可对接收到的或获取的用户通话时语音进行分段处理,提取语音信号中的基频、共振峰、语速、短时能量、时长作为情绪特征参数,并将从每一段语音信号中提取的情绪特征参数进行量化,得到每段语音的情绪特征参数的具体数值。
情绪判断单元32,用于将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态。
在本发明实施例中,情绪种类可以包括欢快情绪、平和或平静情绪、消极情绪,消极情绪又可以包括沮丧、生气,移动终端可预先建立不同情绪种类与对应情绪特征参数之间的关联关系,从而根据情绪特征参数获取对应的情绪种类,以实现情绪识别。优选地,基于男女语音特征的差异,分别预先建立男女性不同情绪种类与对应情绪特征参数之间的关联关系,以提高移动终端用户通话时情绪状态判断的准确性。此时,直接将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态。
在将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配之前,优选地,采集用户日常通话时不同情绪状态下的语音,获取多种情绪状态下对应的情绪特征参数,并作为样本对预先建立的情绪种类识别模型进行学习训练,以得到训练好的情绪种类识别模型。这样,在将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配、确定移动终端用户通话时的情绪状态时,可利用训练后的情绪种类识别模型确定用户通话时的情绪状态。当然,也可使用通用情绪种类识别模型确定移动终端用户通话时的情绪状态。
通话变声单元33,用于根据确定的移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声。
在本发明实施例中,对移动终端的通话语音进行变声的方式可以有多种,可以对语音的频率、音色、音调和/或强度等进行变化,以实现变声,通过对语音这些特征不同组合的变化,可以得到不同的变声或变声效果,例如,欢快效果、平和效果、搞笑效果。优选地,当移动终端用户通话时的情绪状态被判断为消极情绪状态时,将移动终端的通话语音频率调整为移动终端用户平静或平和状态时的语音频率,从而减少消极情绪给与其通话的联系人带来影响。例如,当确定移动终端用户通话时的情绪状态为生气情绪时,将移动终端的通话语音变为平和或滑稽的语调,缓解情绪给双方带来的不必要冲突或给对方带来不必要的影响。
在本发明实施例中,通话情绪调整装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。
实施例四:
图4示出了本发明实施例四提供的通话时用户情绪调整装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
情绪参数获取单元41,用于获取移动终端用户通话时的语音,根据所述移动终端用户通话时的语音,获取所述端移动终端用户通话时的情绪特征参数;
情绪判断单元42,用于将所述情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定所述移动终端用户通话时的情绪状态;
对端情绪参数获取单元43,用于接收与所述移动终端通话的对端移动终端的通话语音,根据所述对端移动终端的通话语音,获取所述对端移动终端用户通话时的情绪特征参数;
对端情绪判断单元44,用于将所述对端移动终端用户的所述情绪特征参数与所述预设情绪种类对应的情绪特征参数进行匹配,确定所述对端移动终端用户通话时的情绪状态;以及
通话变声单元45,通话变声单元45包括第一通话变声单元451,用于根据确定的移动终端用户通话时的情绪状态以及对端移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声。
优选地,第一通话变声单元451包括:
频率变声单元,用于当移动终端用户和对端移动终端用户通话时的情绪状态均为生气状态时,提高移动终端用户的通话语音频率。
优选地,通话变声单元45包括第二通话变声单元,用于当移动终端用户通话时的情绪状态被判断为消极情绪状态时,将移动终端的通话语音频率调整为移动终端用户平静状态时的语音频率。
在本发明实施例中,通话情绪调整装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。通话时用户情绪调整装置的各单元的具体实施方式可参考前述方法实施例的描述,在此不再赘述。
实施例五:
图5示出了本发明实施例五提供的移动终端的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
本发明实施例的移动终端5包括处理器50、存储器51以及存储在存储器51中并可在处理器50上运行的计算机程序52。该处理器50执行计算机程序52时实现上述各方法实施例中的步骤,例如图1所示的步骤S101至S103。或者,处理器50执行计算机程序52时实现上述各装置实施例中各单元的功能,例如图3所示单元31至33的功能。
在本发明实施例中,该处理器50执行计算机程序52时通过获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态,根据确定的移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声,从而在通话时根据通话用户的情绪对输出到通话对端的通话语音进行调整,提高了移动终端的智能化程度,提升了移动终端的通话时的用户体验。
实施例六:
在本发明实施例中,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法实施例中的步骤,例如,图1所示的步骤S101至S103。或者,该计算机程序被处理器执行时实现上述各装置实施例中各单元的功能,例如图3所示单元31至33的功能。
在本发明实施例中,该计算机程序被处理器执行时通过获取移动终端用户通话时的语音,根据移动终端用户通话时的语音,获取端移动终端用户通话时的情绪特征参数,将情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定移动终端用户通话时的情绪状态,根据确定的移动终端用户通话时的情绪状态,对移动终端的通话语音进行变声,从而在通话时根据通话用户的情绪对输出到通话对端的通话语音进行调整,提高了移动终端的智能化程度,提升了移动终端的通话时的用户体验。
本发明实施例的计算机可读存储介质可以包括能够携带计算机程序代码的任何实体或装置、记录介质,例如,ROM/RAM、磁盘、光盘、闪存等存储器。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种通话时用户情绪调整方法,其特征在于,所述方法包括下述步骤:
获取移动终端用户通话时的语音,根据所述移动终端用户通话时的语音,获取所述端移动终端用户通话时的情绪特征参数;
将所述情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定所述移动终端用户通话时的情绪状态;
根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
2.如权利要求1所述的方法,其特征在于,
根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤之前,还包括:
接收与所述移动终端通话的对端移动终端的通话语音,根据所述对端移动终端的通话语音,获取所述对端移动终端用户通话时的情绪特征参数;
将所述对端移动终端用户的所述情绪特征参数与所述预设情绪种类对应的情绪特征参数进行匹配,确定所述对端移动终端用户通话时的情绪状态;
根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤,包括:
根据确定的所述移动终端用户通话时的情绪状态以及所述对端移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
3.如权利要求2所述的方法,其特征在于,根据确定的所述移动终端用户通话时的情绪状态以及所述对端移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤,包括:
当所述移动终端用户和所述对端移动终端用户通话时的情绪状态均为生气状态时,提高所述移动终端用户的通话语音频率。
4.如权利要求1所述的方法,其特征在于,根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声的步骤,包括:
当所述移动终端用户通话时的情绪状态被判断为消极情绪状态时,将所述移动终端的通话语音频率调整为所述移动终端用户平静状态时的语音频率。
5.一种通话时用户情绪调整装置,其特征在于,所述装置包括:
情绪参数获取单元,用于获取移动终端用户通话时的语音,根据所述移动终端用户通话时的语音,获取所述端移动终端用户通话时的情绪特征参数;
情绪判断单元,用于将所述情绪特征参数与预设情绪种类对应的情绪特征参数进行匹配,确定所述移动终端用户通话时的情绪状态;以及
通话变声单元,用于根据确定的所述移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
6.如权利要求5所述的装置,其特征在于,
所述装置还包括:
对端情绪参数获取单元,用于接收与所述移动终端通话的对端移动终端的通话语音,根据所述对端移动终端的通话语音,获取所述对端移动终端用户通话时的情绪特征参数;以及
对端情绪判断单元,用于将所述对端移动终端用户的所述情绪特征参数与所述预设情绪种类对应的情绪特征参数进行匹配,确定所述对端移动终端用户通话时的情绪状态;
所述通话变声单元包括:
第一通话变声单元,用于根据确定的所述移动终端用户通话时的情绪状态以及所述对端移动终端用户通话时的情绪状态,对所述移动终端的通话语音进行变声。
7.如权利要求6所述的装置,其特征在于,所述第一通话变声单元包括:
频率变声单元,用于当所述移动终端用户和所述对端移动终端用户通话时的情绪状态均为生气状态时,提高所述移动终端用户的通话语音频率。
8.如权利要求5所述的装置,其特征在于,所述通话变声单元包括:
第二通话变声单元,用于当所述移动终端用户通话时的情绪状态被判断为消极情绪状态时,将所述移动终端的通话语音频率调整为所述移动终端用户平静状态时的语音频率。
9.一种移动终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811064965.1A CN109274819A (zh) | 2018-09-13 | 2018-09-13 | 通话时用户情绪调整方法、装置、移动终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811064965.1A CN109274819A (zh) | 2018-09-13 | 2018-09-13 | 通话时用户情绪调整方法、装置、移动终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109274819A true CN109274819A (zh) | 2019-01-25 |
Family
ID=65188833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811064965.1A Pending CN109274819A (zh) | 2018-09-13 | 2018-09-13 | 通话时用户情绪调整方法、装置、移动终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109274819A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977411A (zh) * | 2019-03-28 | 2019-07-05 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN110047517A (zh) * | 2019-04-24 | 2019-07-23 | 京东方科技集团股份有限公司 | 语音情感识别方法、问答方法及计算机设备 |
WO2021169170A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | 基于大数据的语音生成方法、装置、设备及介质 |
CN114222302A (zh) * | 2021-12-13 | 2022-03-22 | 北京声智科技有限公司 | 针对异常通话的呼叫方法、装置、电子设备及存储介质 |
CN115460317A (zh) * | 2022-09-05 | 2022-12-09 | 西安万像电子科技有限公司 | 一种情绪识别及语音反馈方法、装置、介质及电子设备 |
US11749270B2 (en) * | 2020-03-19 | 2023-09-05 | Yahoo Japan Corporation | Output apparatus, output method and non-transitory computer-readable recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050264425A1 (en) * | 2004-06-01 | 2005-12-01 | Nobuo Sato | Crisis monitoring system |
CN103903627A (zh) * | 2012-12-27 | 2014-07-02 | 中兴通讯股份有限公司 | 一种语音数据的传输方法及装置 |
CN103916536A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 用于移动终端中的用户界面方法和系统 |
CN105991847A (zh) * | 2015-02-16 | 2016-10-05 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
-
2018
- 2018-09-13 CN CN201811064965.1A patent/CN109274819A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050264425A1 (en) * | 2004-06-01 | 2005-12-01 | Nobuo Sato | Crisis monitoring system |
CN103903627A (zh) * | 2012-12-27 | 2014-07-02 | 中兴通讯股份有限公司 | 一种语音数据的传输方法及装置 |
CN103916536A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 用于移动终端中的用户界面方法和系统 |
CN105991847A (zh) * | 2015-02-16 | 2016-10-05 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977411A (zh) * | 2019-03-28 | 2019-07-05 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN109977411B (zh) * | 2019-03-28 | 2022-03-25 | 联想(北京)有限公司 | 一种数据处理方法、装置及电子设备 |
CN110047517A (zh) * | 2019-04-24 | 2019-07-23 | 京东方科技集团股份有限公司 | 语音情感识别方法、问答方法及计算机设备 |
WO2021169170A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | 基于大数据的语音生成方法、装置、设备及介质 |
US11749270B2 (en) * | 2020-03-19 | 2023-09-05 | Yahoo Japan Corporation | Output apparatus, output method and non-transitory computer-readable recording medium |
CN114222302A (zh) * | 2021-12-13 | 2022-03-22 | 北京声智科技有限公司 | 针对异常通话的呼叫方法、装置、电子设备及存储介质 |
CN115460317A (zh) * | 2022-09-05 | 2022-12-09 | 西安万像电子科技有限公司 | 一种情绪识别及语音反馈方法、装置、介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109274819A (zh) | 通话时用户情绪调整方法、装置、移动终端及存储介质 | |
CN107481718B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN106504768B (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN104538043A (zh) | 一种通话中实时情感提示装置 | |
CN105869626B (zh) | 一种语速自动调节的方法及终端 | |
CN102509547B (zh) | 基于矢量量化的声纹识别方法及系统 | |
CN103458056B (zh) | 自动外呼系统基于自动分类技术的语音意图判定系统 | |
CN108900725A (zh) | 一种声纹识别方法、装置、终端设备及存储介质 | |
CN110149441A (zh) | 骚扰电话拦截方法、装置、设备及存储介质 | |
CN109189980A (zh) | 与用户进行语音交互的方法和电子设备 | |
CN110415701A (zh) | 唇语的识别方法及其装置 | |
CN109410952A (zh) | 一种语音唤醒方法、装置及系统 | |
CN101740036A (zh) | 通话音量自动调节方法及装置 | |
CN102324232A (zh) | 基于高斯混合模型的声纹识别方法及系统 | |
CN110534133B (zh) | 一种语音情感识别系统及语音情感识别方法 | |
CN109741746A (zh) | 机器人高度拟人化语音交互算法、情感交流算法及机器人 | |
CN101540170B (zh) | 一种基于仿生模式识别的声纹识别方法 | |
CN109872713A (zh) | 一种语音唤醒方法及装置 | |
CN110310668A (zh) | 静音检测方法、系统、设备及计算机可读存储介质 | |
CN110198381A (zh) | 一种识别ai来电的方法及装置 | |
CN107705791A (zh) | 基于声纹识别的来电身份确认方法、装置和声纹识别系统 | |
CN108899033A (zh) | 一种确定说话人特征的方法及装置 | |
CN110289002A (zh) | 一种端到端的说话人聚类方法及系统 | |
CN105679323B (zh) | 一种号码发现方法及系统 | |
CN109994106A (zh) | 一种语音处理方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190125 |