CN107919138A - 一种语音中的情绪处理方法及移动终端 - Google Patents
一种语音中的情绪处理方法及移动终端 Download PDFInfo
- Publication number
- CN107919138A CN107919138A CN201711239891.6A CN201711239891A CN107919138A CN 107919138 A CN107919138 A CN 107919138A CN 201711239891 A CN201711239891 A CN 201711239891A CN 107919138 A CN107919138 A CN 107919138A
- Authority
- CN
- China
- Prior art keywords
- user
- sound bite
- data
- mood
- voice data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000036651 mood Effects 0.000 title claims abstract description 148
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 230000008451 emotion Effects 0.000 claims abstract description 74
- 230000006854 communication Effects 0.000 claims abstract description 40
- 238000004891 communication Methods 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 21
- 230000005540 biological transmission Effects 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims description 9
- 230000009286 beneficial effect Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 210000004243 sweat Anatomy 0.000 description 4
- 210000001260 vocal cord Anatomy 0.000 description 4
- 230000001755 vocal effect Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010054196 Affect lability Diseases 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/69—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供了一种语音中的情绪处理方法及移动终端,其中,所述方法包括:根据用户录入的语音数据建立所述用户的情绪数据库;基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。可通过在发送语音数据之前对语音数据进行情绪处理,避免接收方接收到不利于沟通的语音数据,达到了提高沟通效率的有益效果。
Description
技术领域
本发明涉及移动终端技术领域,尤其涉及一种语音中的情绪处理方法及移动终端。
背景技术
随着手机、平板电脑等具有语音通话功能的移动终端的迅速发展,用户可以很方便的进行远距离通话。
在实际应用中,远距离通话主要通过移动终端接收用户的语音数据;然后,对语音数据进行编码之后,通过通信网络发送至移动终端的接收端;最后,在接收端接收到该语音数据后进行解码,从而使得接收端用户可以听到发送方用户的语音信息,最终实现两方通话。
然而,上述通话过程中若存在语言冲突,则会导致沟通失败;尤其对于工作上的沟通,甚至会导致经济损失。
发明内容
本发明实施例提供一种语音中的情绪处理方法及移动终端,以解决现有技术中存在的语音通话沟通效率低的问题。
一方面,本发明实施例公开了一种语音中的情绪处理方法,应用于移动终端,包括:
根据用户录入的语音数据建立所述用户的情绪数据库;
基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;
对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;
将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
另一方面,本发明实施例还公开了一种移动终端,包括:
情绪数据库建立模块,用于根据用户录入的语音数据建立所述用户的情绪数据库;
待处理语音片段识别模块,用于基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;
语音处理模块,用于对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;
发送模块,用于将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
再一方面,本发明实施例还公开了一种移动终端,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上任一项所述的语音中的情绪处理方法的步骤。
最后一方面,本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的语音中的情绪处理方法的步骤。
在本发明实施例中,根据用户录入的语音数据建立所述用户的情绪数据库;基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。可通过在发送语音数据之前对语音数据进行情绪处理,避免接收方接收到不利于沟通的语音数据,达到了提高沟通效率的有益效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例一中的第一种语音中的情绪处理方法的步骤流程图;
图1A示出了本发明实施例一中的第二种语音中的情绪处理方法的步骤流程图;
图1B示出了本发明实施例一中的第三种语音中的情绪处理方法的步骤流程图;
图1C示出了本发明实施例一中的第四种语音中的情绪处理方法的步骤流程图;图2示出了本发明实施例二中的第一种移动终端的结构框图;
图2A示出了本发明实施例二中的第二种移动终端的结构框图;
图2B示出了本发明实施例二中的第三种移动终端的结构框图;
图2C示出了本发明实施例二中的第四种移动终端的结构框图;
图3示出了实现本发明各个实施例的一种移动终端的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面通过列举几个具体的实施例详细介绍本发明提供的一种语音中的情绪处理方法及移动终端。
实施例一
参照图1,示出了本发明实施例一的一种语音中的情绪处理方法的步骤流程图,具体可以包括如下步骤:
步骤101,根据用户录入的语音数据建立所述用户的情绪数据库。
本发明实施例可以通过对用户的语音数据进行分析,建立情绪数据库,从而情绪数据库中的各情绪数据针对各用户而不同。例如,对于平时说话声音较大的用户,用于判断该用户情绪异常的平均音量较大;对于平时说话语速较快的用户,用于判断该用户情绪异常的平均语速较快。
在实际应用中,情绪数据库对应当前移动终端,保存在移动终端的指定路径下。情绪数据库保存了允许使用该移动终端进行通话的授权用户的情绪数据,从而可以根据用户的性格分别建立情绪数据,保证情绪数据的准确性更好。此外,还可以根据情绪数据库进行身份识别,若情绪数据库中不存在一用户的情绪数据时,不允许该用户使用该移动终端进行通话,甚至其他功能;只有情绪数据库中存在情绪数据的用户才可以使用移动终端进行通话。
具体地,建立情绪数据库可以包括如下步骤:
首先,接收用户录入的语音数据,并确定所述语音数据的音色特征。
其中,音色为不同的声音频率表现在波形上的特性,不同物体的震动均具有自己的特点。同理,由于人类的声音是声带震动产生的,从而不同人的声带震动频率不同导致声音不同。因此,人声音的音色可以作为人的身份标识。
综上,音色特征可以为声带的振动频率。具体地,可以通过语音数据对应的波形确定声音的震动频率,得到对应的音色特征。
然后,对于所述语音数据确定至少一个情绪数据。
其中,负面情绪词可以通过收集语言中所有不礼貌的词语得到,不针对具体某个人。
平均语速与用户的性格相关,对于平时说话比较快的用户,平均语速值要比说话慢的用户平均语速大,从而需要根据具体用户确定平均语速。具体地,可以根据用户在正常状态下的语音数据统计得到。
平均音量与用户的性格相关,对于平时说话声音比较大的用户,平均音量要比说话声音小的用户平均音量大,从而需要根据具体用户确定平均音量。具体地,可以根据用户在正常状态下的语音数据统计得到。
本发明实施例可以通过用户的说话习惯,从而更加准确的确定用户情绪,进而更加准确的进行情绪处理。
最后,将所述音色特征和所述至少一个情绪数据保存至情绪数据库中。
本发明实施例将代表用户身份的音色特征和对应的情绪数据保存至情绪数据库中,从而在可以根据音色特征对用户进行识别,并获取对应的情绪数据。
具体地,将音色特征作为主键,用于检索,情绪数据作为存储数据。可以理解,每个用户的情绪数据对应一条记录,M个用户被授权使用移动终端进行通话时,该移动终端的情绪数据库对应M条情绪数据记录。
例如,四个授权用户的情绪数据存储至情绪数据库中时的格式可以如下:
{{F1,{“StrA1,StrA2,StrA3,StrA4”,S1,V1}},{F2,{“StrA1,StrA2,StrA3,StrA4”,S2,V2}},{F3,{“StrA1,StrA2,StrA3,StrA4”,S3,V3}},{F4,{“StrA1,StrA2,StrA3,StrA4”,S4,V4}}}。其中,F1,F2,F3,F4分别为四个用户的音色特征,具体地,可以为用户声带的震动频率;“StrA1,StrA2,StrA3,StrA4”为负面情绪词;S1、S2、S3、S4分别为四个用户的平均语速,V1、V2、V3、V4分别为四个用户的平均音量。
步骤102,基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据。
本发明实施例适用于各种具有语音通话功能的移动终端以及应用软件。例如,手机、平板电脑、安装在移动终端或平板电脑上的微信、QQ等通信软件。
具体地,在通话过程中,移动终端接收到用户的语音数据,并在发送之前检测语音数据中代表负面情绪的数据。其中,负面情绪的数据包括但不限于负面词汇、负面表达方式等。例如,负面词汇主要包括一些骂人的词汇或短句等,负面表达方式可以为声音大、语速快等。
可选的,在本发明的另一种实施例中,在步骤102之前还包括:
步骤A1,识别所述接收端与所述发送端的语音通话频率。
在实际应用中,当接收端和发送端进行一次通话时,记录通话次数,并计算出一定周期内的通话频率。其中,一定周期可以为年、月、周等。可以理解,对于一移动终端A和移动终端B的通话次数,包括该移动终端A发起的通话次数,也包括移动终端B发起的通话次数。
步骤A2,若所述语音通话频率小于第一预设值,则基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别。
其中,第一预设值可以根据实际应用场景设定,本发明实施例对其不加以限制。
具体地,当语音通话频率小于第一预设值时,对原始语音数据进行处理;当语音通话频率大于等于第一预设值时,不对原始语音数据进行处理。
对于经常通话的用户,认为双方用户比较熟悉,本发明实施例对于其语音数据不进行语音处理,从而达到降低语音处理成本的有益效果。
具体地,步骤102按照如下步骤实现:
首先,确定发送之前的原始语音数据的音色特征。
然后,根据所述音色特征从所述情绪数据库中获取对应的情绪数据。
具体地,通过该音色特征与情绪数据库中的音色特征进行对比,当完全匹配时,则对应的情绪数据为目标情绪数据。
例如,对于步骤101中的情绪数据库,当一用户的音色特征为F2时,则通过与情绪数据库中的音色进行对比,得到的目标情绪数据为{“StrA1,StrA2,StrA3,StrA4”,S2,V2},即负面情绪词为“StrA1,StrA2,StrA3,StrA4”,平均语速为S2,平均音量为V2。
最后,通过所述对应的情绪数据,识别出所述原始语音数据中对应的待处理语音片段。
具体地,根据各情绪数据的类型分别识别原始语音数据中的待处理语音片段。
可以理解,在本发明实施例中,可以通过多个维度、以及方式识别代表负面情绪的数据,从而更全面、更准确的识别到负面情绪的数据。
可选地,如图1A所示,所述情绪数据库包括所述用户负面情绪词库,步骤102可以包括子步骤1021A至1021C:
子步骤1021A,识别所述原始语音数据中的负面情绪词汇。
在实际应用中,可以通过常规情绪词汇数据库初步识别原始语音数据中的负面情绪词汇。
子步骤1021B,判断所述负面情绪词汇是否在所述用户负面情绪词库中。
其中,用户负面情绪词库保存用户经常说的负面情绪词,可理解为口头禅,并非用户真实负面情绪表达。例如,对于从情绪数据库中得到的用户负面情绪词库为“StrA1,StrA2,StrA3,StrA4”,若子步骤1021A判断得到原始语音数据中包括的负面情绪词汇为“StrA4”,从而,StrA4对于该用户而言不为负面情绪词汇,从而该语音片段不为待处理语音片段;若子步骤1021A判断得到原始语音数据中包括的负面情绪词汇为“StrA5”,则StrA5对于该用户而言为负面情绪词汇,从而该语音片段为待处理语音片段。
子步骤1021C,若否,确认包含所述负面情绪词汇的语音片段为所述待处理语音片段。
本实施方式可以通过负面词汇识别出当前通话是否顺利,并对非用户常用的负面词汇所在的语音片段进行处理,从而降低了言辞冲突,提高了沟通效率。预先根据不同用户的负面词汇不同建立不同的情绪数据,从而更加准确的对语音数据进行情绪处理。
可选的,如图1B所示,上述情绪数据库包括所述用户平均音量,步骤102包括子步骤1022A至1022C:
子步骤1022A,确定所述原始语音数据中各语音片段的语速。
本发明实施例可以将原始语音数据按照标点符号等,划分为多个语音片段,从而判断各语音片段的语速是否正常。
具体地,可以统计单位时间内的字数,其中,单位时间可以为秒、分等。
子步骤1022B,将各语音片段的语速与所述用户平均语速进行对比。
本发明实施例可以通过将语音片段的语速与平均语速进行对比得到该语音片段是否为待处理语音片段。当一语音片段的语速大于用户平均语速时,确定该语音片段为待处理语音片段;否则,该语音片段不为待处理语音片段。
子步骤1022C,确认各语音片段中语速大于所述用户平均语速的语音片段为所述待处理语音片段。
本发明实施例可以通过语速识别出当前通话是否顺利,并对语速较大的语音片段进行处理,从而降低了言辞冲突,提高了沟通效率。预先根据不同用户的语速不同建立不同的情绪数据,从而更加准确的对语音数据进行情绪处理。
可选的,如图1C所示,上述情绪数据库包括所述用户平均音量,步骤102包括子步骤1023A至1023C:
子步骤1023A,确定所述原始语音数据中各语音片段的音量。
具体地,可以从语音数据的波形图中获取音量,可以为当前语音片段的平均音量,当语音片段划分至最小单位时,可以为各个点的当前音量。
子步骤1023B,将各语音片段的音量与所述用户平均音量进行对比。
可以通过将语音片段的音量与平均音量进行对比得到该语音片段是否为待处理语音片段。当一语音片段的音量大于用户平均音量时,确定该语音片段为待处理语音片段;否则,该语音片段不为待处理语音片段。
子步骤1023C,确认各语音片段中音量大于所述用户平均音量的语音片段为所述待处理语音片段。
本实施方式可以通过音量识别出当前通话是否顺利,并对音量较大的语音片段进行处理,从而降低了言辞冲突,提高了沟通效率。预先根据不同用户的音量不同建立不同的情绪数据,从而更加准确的对语音数据进行情绪处理。
步骤103,对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据。
在本实施方式中,针对不同类型的待处理语音片段,采用不同方式进行情绪处理。例如,对于负面词汇,可以删除;对于音量大的语音数据,降低音量;对于语速快的语音数据,放缓语速。
可选地,在本发明的一种实施例中,步骤103按照如下步骤实现:
首先,删除所述原始语音数据中的所述负面情绪词。
本发明实施例可通过删除负面情绪词,使得语音数据中不包含不礼貌的词语,从而避免言语冲突导致沟通失败。
然后,降低所述快语速语音片段的语速。
本发明实施例可通过降低语速,使得语音更加平和,从而避免言语冲突导致沟通失败。
具体地,可以将语速降低至平均语速上下。
最后,降低所述大音量语音片段的音量。
本发明实施例可通过降低音量,避免言语冲突导致沟通失败。
具体地,可以将音量降低至平均音量上下。
在实际应用中,由于人在言辞激烈时往往会伴随心率、汗液流量超出正常值,从而还可以通过预先检测心率、汗液流量,提示用户平稳情绪,进而尽量避免出现言语冲突,也可以降低情绪处理复杂度,提高情绪处理速度。具体地,根据外部设备获取的人体状态数据,确定人体状态是否异常;若异常,则提示用户进行情绪调整。
其中,外部设备可以为检测人体状态的所有设备,例如:手环、手表、心率测试仪等。
在实际应用中,当人处于激动等情绪不稳定状态时言辞会比较激烈,容易引起语言冲突。从而可以通过手环测试或心率测试仪等测试汗液、心率等人体状态数据,从而可以判断出人体是否处于非正常状态。例如,当汗液流失超过预设阈值、或心率超过正常范围,则表示人体处于非正常状态。
需要注意的是,外部设备需要和负责用户通话的移动终端之间进行通信,从而将检测到的数据发送至移动终端。在实际应用中,外部设备往往可以通过蓝牙等功能与绑定的移动终端进行通信。可以理解,本发明实施例对外部设备和移动终端之间的通信方式不加以限制。
在本发明实施例中,移动终端通过人体状态数据判断人体是否处于正常状态。
步骤104,将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
在实际应用中,经过处理之后的语音数据可以经过用户确认之后发送给接收端,也可以直接发送至接收端,本发明实施例对其不加以限制。具体地,可以将处理之后的语音数据播放,从而用户点击确认之后发送;若用户选择取消发送处理之后的语音数据,或在指定时间段内未点击确认,则将原始语音数据发送。
可以理解,在实际应用中,处理之后的语音数据在发送之前需要进行编码,从而可以在通信网络中传输;在接收端通过解码之后进行播放,从而用户听到处理之后的语音信息,可以避免由于语音信息中包含不礼貌词句和表达,导致沟通失败的问题。
在本发明实施例中,根据用户录入的语音数据建立所述用户的情绪数据库;基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。可通过在发送语音数据之前对语音数据进行情绪处理,避免接收方接收到不利于沟通的语音数据,达到了提高沟通效率有益效果。
实施例二
参照图2,示出了本发明实施例二的一种移动终端的结构框图。
所述移动终端200包括:情绪数据库建立模块201、待处理语音片段识别模块202、语音处理模块203、发送模块204。
下面分别详细介绍各模块的功能以及各模块之间的交互关系。
情绪数据库建立模块201,用于根据用户录入的语音数据建立所述用户的情绪数据库。
待处理语音片段识别模块202,用于基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据。可选地,如图2A所示,在本发明实施例中,上述情绪数据库包括所述用户负面情绪词库,上述待处理语音片段识别模块202,包括:
情绪词汇识别子模块2021A,用于识别所述原始语音数据中的负面情绪词汇。
情绪词汇判断子模块2021B,用于判断所述负面情绪词汇是否在所述用户负面情绪词库中。
第一待处理语音片段识别子模块2021C,用于若否,确认包含所述负面情绪词汇的语音片段为所述待处理语音片段。
可选地,如图2B所示,在本发明实施例中,上述情绪数据库包括所述用户平均语速,上述待处理语音片段识别模块202,包括:
语速确定子模块2022A,用于确定所述原始语音数据中各语音片段的语速。
语速判断子模块2022B,用于将各语音片段的语速与所述用户平均语速进行对比。
第二待处理语音片段识别子模块2022C,用于确认各语音片段中语速大于所述用户平均语速的语音片段为所述待处理语音片段。
可选地,如图2C所示,在本发明实施例中,上述情绪数据库包括所述用户平均音量,上述待处理语音片段识别模块202,包括:
音量确定子模块2023A,用于确定所述原始语音数据中各语音片段的音量。
音量判断子模块2023B,用于将各语音片段的音量与所述用户平均音量进行对比。
第三待处理语音片段识别子模块2023C,用于确认各语音片段中音量大于所述用户平均音量的语音片段为所述待处理语音片段。
语音处理模块203,用于对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据。
发送模块204,用于将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
可选地,在本发明的另一种实施例中,还包括:
通话频率识别模块,用于识别所述接收端与所述发送端的语音通话频率。
确定识别子模块,用于若所述语音通话频率小于第一预设值,则基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别。
在本发明实施例中,根据用户录入的语音数据建立所述用户的情绪数据库;基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。可通过在发送语音数据之前对语音数据进行情绪处理,避免接收方接收到不利于沟通的语音数据,达到了提高沟通效率的有益效果。
实施例二是方法实施例一对应的装置实施例,详细说明可以参照实施例一,在此不再赘述。
实施例三
图3为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端300包括但不限于:射频单元301、网络模块302、音频输出单元303、输入单元304、传感器305、显示单元306、用户输入单元307、接口单元308、存储器309、处理器310、以及电源311等部件。本领域技术人员可以理解,图3中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,移动终端包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
处理器310,用于根据用户录入的语音数据建立所述用户的情绪数据库;基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
可见,在本发明实施例中,根据用户录入的语音数据建立所述用户的情绪数据库;基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。可通过在发送语音数据之前对语音数据进行情绪处理,避免接收方接收到不利于沟通的语音数据,达到了提高沟通效率的有益效果。
应理解的是,本发明实施例中,射频单元301可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器310处理;另外,将上行的数据发送给基站。通常,射频单元301包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元301还可以通过无线通信系统与网络和其他设备通信。
移动终端通过网络模块302为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元303可以将射频单元301或网络模块302接收的或者在存储器309中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元303还可以提供与移动终端300执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元303包括扬声器、蜂鸣器以及受话器等。
输入单元304用于接收音频或视频信号。输入单元304可以包括图形处理器(Graphics Processing Unit,GPU)3041和麦克风3042,图形处理器3041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元306上。经图形处理器3041处理后的图像帧可以存储在存储器309(或其它存储介质)中或者经由射频单元301或网络模块302进行发送。麦克风3042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元301发送到移动通信基站的格式输出。
移动终端300还包括至少一种传感器305,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板3061的亮度,接近传感器可在移动终端300移动到耳边时,关闭显示面板3061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器305还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元306用于显示由用户输入的信息或提供给用户的信息。显示单元306可包括显示面板3061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板3061。
用户输入单元307可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元307包括触控面板3071以及其他输入设备3072。触控面板3071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板3071上或在触控面板3071附近的操作)。触控面板3071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器310,接收处理器310发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板3071。除了触控面板3071,用户输入单元307还可以包括其他输入设备3072。具体地,其他输入设备3072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板3071可覆盖在显示面板3061上,当触控面板3071检测到在其上或附近的触摸操作后,传送给处理器310以确定触摸事件的类型,随后处理器310根据触摸事件的类型在显示面板3061上提供相应的视觉输出。虽然在图3中,触控面板3071与显示面板3061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板3071与显示面板3061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元308为外部装置与移动终端300连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元308可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端300内的一个或多个元件或者可以用于在移动终端300和外部装置之间传输数据。
存储器309可用于存储软件程序以及各种数据。存储器309可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器309可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器310是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器309内的软件程序和/或模块,以及调用存储在存储器309内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器310可包括一个或多个处理单元;优选的,处理器310可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器310中。
移动终端300还可以包括给各个部件供电的电源311(比如电池),优选的,电源311可以通过电源管理系统与处理器310逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,移动终端300包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种移动终端,包括处理器310,存储器309,存储在存储器309上并可在所述处理器310上运行的计算机程序,该计算机程序被处理器310执行时实现上述语音中的情绪处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述语音中的情绪处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (11)
1.一种语音中的情绪处理方法,应用于移动终端,其特征在于,所述方法包括:
根据用户录入的语音数据建立所述用户的情绪数据库;
基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;
对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
2.根据权利要求1所述的方法,其特征在于,在所述基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别的步骤之前,还包括:
识别所述接收端与所述发送端的语音通话频率;
若所述语音通话频率小于第一预设值,则基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别。
3.根据权利要求1所述的方法,其特征在于,所述情绪数据库包括所述用户负面情绪词库,所述对发送之前的所述用户的原始语音数据进行待处理语音片段的识别的步骤,包括:
识别所述原始语音数据中的负面情绪词汇;
判断所述负面情绪词汇是否在所述用户负面情绪词库中;
若否,确认包含所述负面情绪词汇的语音片段为所述待处理语音片段。
4.根据权利要求1所述的方法,其特征在于,所述情绪数据库包括所述用户平均语速,所述对发送之前的所述用户的原始语音数据进行待处理语音片段的识别的步骤,包括:
确定所述原始语音数据中各语音片段的语速;
将各语音片段的语速与所述用户平均语速进行对比;
确认各语音片段中语速大于所述用户平均语速的语音片段为所述待处理语音片段。
5.根据权利要求1所述的方法,其特征在于,所述情绪数据库包括所述用户平均音量,所述对发送之前的所述用户的原始语音数据进行待处理语音片段的识别的步骤,包括:
确定所述原始语音数据中各语音片段的音量;
将各语音片段的音量与所述用户平均音量进行对比;
确认各语音片段中音量大于所述用户平均音量的语音片段为所述待处理语音片段。
6.一种移动终端,其特征在于,包括:
情绪数据库建立模块,用于根据用户录入的语音数据建立所述用户的情绪数据库;
待处理语音片段识别模块,用于基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别,所述情绪数据包括以下至少一种:所述用户负面情绪词库、所述用户平均语速和所述用户平均音量,所述待处理语音片段包括负面情绪数据;
语音处理模块,用于对原始语音数据中待处理语音片段的负面情绪数据进行处理,生成待发送语音数据;
发送模块,用于将所述待发送语音数据替换所述原始语音数据发送至所述语音通话的接收端。
7.根据权利要求6所述的移动终端,其特征在于,还包括:
通话频率识别模块,用于识别所述接收端与所述发送端的语音通话频率;
确定识别子模块,用于若所述语音通话频率小于第一预设值,则基于所述情绪数据库中的情绪数据,对发送之前的所述用户的原始语音数据进行待处理语音片段的识别。
8.根据权利要求6所述的移动终端,其特征在于,所述情绪数据库包括所述用户负面情绪词库,所述待处理语音片段识别模块,包括:
情绪词汇识别子模块,用于识别所述原始语音数据中的负面情绪词汇;
情绪词汇判断子模块,用于判断所述负面情绪词汇是否在所述用户负面情绪词库中;
第一待处理语音片段识别子模块,用于若否,确认包含所述负面情绪词汇的语音片段为所述待处理语音片段。
9.根据权利要求6所述的移动终端,其特征在于,所述情绪数据库包括所述用户平均语速,所述待处理语音片段识别模块,包括:
语速确定子模块,用于确定所述原始语音数据中各语音片段的语速;
语速判断子模块,用于将各语音片段的语速与所述用户平均语速进行对比;
第二待处理语音片段识别子模块,用于确认各语音片段中语速大于所述用户平均语速的语音片段为所述待处理语音片段。
10.根据权利要求6所述的移动终端,其特征在于,所述情绪数据库包括所述用户平均音量,所述待处理语音片段识别模块,包括:
音量确定子模块,用于确定所述原始语音数据中各语音片段的音量;
音量判断子模块,用于将各语音片段的音量与所述用户平均音量进行对比;
第三待处理语音片段识别子模块,用于确认各语音片段中音量大于所述用户平均音量的语音片段为所述待处理语音片段。
11.一种移动终端,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5任一项所述的语音中的情绪处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711239891.6A CN107919138B (zh) | 2017-11-30 | 2017-11-30 | 一种语音中的情绪处理方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711239891.6A CN107919138B (zh) | 2017-11-30 | 2017-11-30 | 一种语音中的情绪处理方法及移动终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107919138A true CN107919138A (zh) | 2018-04-17 |
CN107919138B CN107919138B (zh) | 2021-01-08 |
Family
ID=61897174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711239891.6A Active CN107919138B (zh) | 2017-11-30 | 2017-11-30 | 一种语音中的情绪处理方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107919138B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900706A (zh) * | 2018-06-27 | 2018-11-27 | 维沃移动通信有限公司 | 一种通话语音调整方法及移动终端 |
CN109215683A (zh) * | 2018-08-10 | 2019-01-15 | 维沃移动通信有限公司 | 一种提示方法及终端 |
CN109256151A (zh) * | 2018-11-21 | 2019-01-22 | 努比亚技术有限公司 | 通话语音调控方法、装置、移动终端及可读存储介质 |
CN109714248A (zh) * | 2018-12-26 | 2019-05-03 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN111816213A (zh) * | 2020-07-10 | 2020-10-23 | 深圳小辣椒科技有限责任公司 | 一种基于语音识别的情绪分析方法及系统 |
CN111951832A (zh) * | 2020-08-24 | 2020-11-17 | 上海茂声智能科技有限公司 | 一种语音分析用户对话情绪的方法及装置 |
CN112860213A (zh) * | 2021-03-09 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 音频的处理方法、存储介质及电子设备 |
CN118427777A (zh) * | 2024-07-02 | 2024-08-02 | 广州美术学院 | 基于人工智能的心理语言学数据挖掘集成平台 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1387349A2 (en) * | 2002-07-02 | 2004-02-04 | Pioneer Corporation | Voice recognition/response system, voice recognition/response program and recording medium for same |
US20070208569A1 (en) * | 2006-03-03 | 2007-09-06 | Balan Subramanian | Communicating across voice and text channels with emotion preservation |
CN102184731A (zh) * | 2011-05-12 | 2011-09-14 | 北京航空航天大学 | 一种韵律类和音质类参数相结合的情感语音转换方法 |
CN102831891A (zh) * | 2011-06-13 | 2012-12-19 | 富士通株式会社 | 一种语音数据处理方法及系统 |
CN103685673A (zh) * | 2012-09-20 | 2014-03-26 | 索尼公司 | 信号处理设备和存储介质 |
CN104299622A (zh) * | 2014-09-23 | 2015-01-21 | 深圳市金立通信设备有限公司 | 一种音频处理方法 |
CN104616666A (zh) * | 2015-03-03 | 2015-05-13 | 广东小天才科技有限公司 | 一种基于语音分析改善对话沟通效果的方法及装置 |
CN105244023A (zh) * | 2015-11-09 | 2016-01-13 | 上海语知义信息技术有限公司 | 课堂教学中教师情绪的提醒系统及方法 |
CN105448300A (zh) * | 2015-11-12 | 2016-03-30 | 小米科技有限责任公司 | 用于通话的方法及装置 |
CN105681546A (zh) * | 2015-12-30 | 2016-06-15 | 宇龙计算机通信科技(深圳)有限公司 | 一种语音处理的方法、装置以及终端 |
CN106469297A (zh) * | 2016-08-31 | 2017-03-01 | 北京小米移动软件有限公司 | 情绪识别方法、装置和终端设备 |
CN106782517A (zh) * | 2016-12-15 | 2017-05-31 | 咪咕数字传媒有限公司 | 一种语音音频关键词过滤方法及装置 |
CN106790942A (zh) * | 2016-12-28 | 2017-05-31 | 努比亚技术有限公司 | 语音信息智能保存方法及装置 |
CN106992013A (zh) * | 2016-01-20 | 2017-07-28 | 哈曼国际工业有限公司 | 语音情感修改 |
CN107085717A (zh) * | 2017-05-24 | 2017-08-22 | 努比亚技术有限公司 | 一种家庭监控方法、服务端及计算机可读存储介质 |
CN107343095A (zh) * | 2017-06-30 | 2017-11-10 | 广东欧珀移动通信有限公司 | 通话音量控制方法、装置、存储介质及终端 |
-
2017
- 2017-11-30 CN CN201711239891.6A patent/CN107919138B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1387349A2 (en) * | 2002-07-02 | 2004-02-04 | Pioneer Corporation | Voice recognition/response system, voice recognition/response program and recording medium for same |
US20070208569A1 (en) * | 2006-03-03 | 2007-09-06 | Balan Subramanian | Communicating across voice and text channels with emotion preservation |
CN102184731A (zh) * | 2011-05-12 | 2011-09-14 | 北京航空航天大学 | 一种韵律类和音质类参数相结合的情感语音转换方法 |
CN102831891A (zh) * | 2011-06-13 | 2012-12-19 | 富士通株式会社 | 一种语音数据处理方法及系统 |
CN103685673A (zh) * | 2012-09-20 | 2014-03-26 | 索尼公司 | 信号处理设备和存储介质 |
CN104299622A (zh) * | 2014-09-23 | 2015-01-21 | 深圳市金立通信设备有限公司 | 一种音频处理方法 |
CN104616666A (zh) * | 2015-03-03 | 2015-05-13 | 广东小天才科技有限公司 | 一种基于语音分析改善对话沟通效果的方法及装置 |
CN105244023A (zh) * | 2015-11-09 | 2016-01-13 | 上海语知义信息技术有限公司 | 课堂教学中教师情绪的提醒系统及方法 |
CN105448300A (zh) * | 2015-11-12 | 2016-03-30 | 小米科技有限责任公司 | 用于通话的方法及装置 |
CN105681546A (zh) * | 2015-12-30 | 2016-06-15 | 宇龙计算机通信科技(深圳)有限公司 | 一种语音处理的方法、装置以及终端 |
CN106992013A (zh) * | 2016-01-20 | 2017-07-28 | 哈曼国际工业有限公司 | 语音情感修改 |
CN106469297A (zh) * | 2016-08-31 | 2017-03-01 | 北京小米移动软件有限公司 | 情绪识别方法、装置和终端设备 |
CN106782517A (zh) * | 2016-12-15 | 2017-05-31 | 咪咕数字传媒有限公司 | 一种语音音频关键词过滤方法及装置 |
CN106790942A (zh) * | 2016-12-28 | 2017-05-31 | 努比亚技术有限公司 | 语音信息智能保存方法及装置 |
CN107085717A (zh) * | 2017-05-24 | 2017-08-22 | 努比亚技术有限公司 | 一种家庭监控方法、服务端及计算机可读存储介质 |
CN107343095A (zh) * | 2017-06-30 | 2017-11-10 | 广东欧珀移动通信有限公司 | 通话音量控制方法、装置、存储介质及终端 |
Non-Patent Citations (1)
Title |
---|
班超帆: "软判决修正下的语音增强算法在数字信号处理器上的实现与优化", 《计算机应用》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900706A (zh) * | 2018-06-27 | 2018-11-27 | 维沃移动通信有限公司 | 一种通话语音调整方法及移动终端 |
CN109215683B (zh) * | 2018-08-10 | 2021-09-14 | 维沃移动通信有限公司 | 一种提示方法及终端 |
CN109215683A (zh) * | 2018-08-10 | 2019-01-15 | 维沃移动通信有限公司 | 一种提示方法及终端 |
CN109256151A (zh) * | 2018-11-21 | 2019-01-22 | 努比亚技术有限公司 | 通话语音调控方法、装置、移动终端及可读存储介质 |
CN109256151B (zh) * | 2018-11-21 | 2023-06-27 | 努比亚技术有限公司 | 通话语音调控方法、装置、移动终端及可读存储介质 |
CN109714248A (zh) * | 2018-12-26 | 2019-05-03 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN109714248B (zh) * | 2018-12-26 | 2021-05-18 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN111816213A (zh) * | 2020-07-10 | 2020-10-23 | 深圳小辣椒科技有限责任公司 | 一种基于语音识别的情绪分析方法及系统 |
CN111951832A (zh) * | 2020-08-24 | 2020-11-17 | 上海茂声智能科技有限公司 | 一种语音分析用户对话情绪的方法及装置 |
CN112860213A (zh) * | 2021-03-09 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 音频的处理方法、存储介质及电子设备 |
CN112860213B (zh) * | 2021-03-09 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 音频的处理方法和装置、存储介质及电子设备 |
CN118427777A (zh) * | 2024-07-02 | 2024-08-02 | 广州美术学院 | 基于人工智能的心理语言学数据挖掘集成平台 |
CN118427777B (zh) * | 2024-07-02 | 2024-09-13 | 广州美术学院 | 基于人工智能的心理语言学数据挖掘集成平台 |
Also Published As
Publication number | Publication date |
---|---|
CN107919138B (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107919138A (zh) | 一种语音中的情绪处理方法及移动终端 | |
CN107799125A (zh) | 一种语音识别方法、移动终端及计算机可读存储介质 | |
CN108540655B (zh) | 一种来电显示处理方法及移动终端 | |
CN108712566A (zh) | 一种语音助手唤醒方法及移动终端 | |
CN109215683B (zh) | 一种提示方法及终端 | |
CN110177296A (zh) | 一种视频播放方法及移动终端 | |
CN108566484A (zh) | 消息处理方法、终端设备及计算机可读存储介质 | |
CN108989558A (zh) | 终端通话的方法及装置 | |
CN108418948A (zh) | 一种提醒方法、移动终端以及计算机存储介质 | |
CN109993821A (zh) | 一种表情播放方法及移动终端 | |
CN108512992A (zh) | 一种信息处理方法及装置 | |
CN107623794A (zh) | 一种语音数据的处理方法、装置及移动终端 | |
CN110012172A (zh) | 一种来电处理方法及终端设备 | |
CN109412932A (zh) | 一种截屏方法和终端 | |
CN108521501A (zh) | 语音输入方法及移动终端 | |
WO2021103449A1 (zh) | 交互方法、移动终端及可读存储介质 | |
CN108009031A (zh) | 一种应用程序的控制方法及移动终端 | |
CN111491058A (zh) | 工作模式的控制方法、电子设备和存储介质 | |
CN109981443A (zh) | 语音交互方法、装置及终端设备 | |
CN109743454A (zh) | 一种通话处理方法及移动终端 | |
CN109348035A (zh) | 一种电话号码的识别方法和终端设备 | |
CN108650392A (zh) | 一种通话录音方法及移动终端 | |
CN108093119A (zh) | 一种陌生来电号码的标记方法及移动终端 | |
CN108416002A (zh) | 一种人机交互方法及移动终端 | |
CN110392158A (zh) | 一种消息处理方法、装置以及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |