CN113012717A - 一种基于语音识别情绪反馈信息推荐系统及方法 - Google Patents
一种基于语音识别情绪反馈信息推荐系统及方法 Download PDFInfo
- Publication number
- CN113012717A CN113012717A CN202110198145.7A CN202110198145A CN113012717A CN 113012717 A CN113012717 A CN 113012717A CN 202110198145 A CN202110198145 A CN 202110198145A CN 113012717 A CN113012717 A CN 113012717A
- Authority
- CN
- China
- Prior art keywords
- voice
- emotion
- module
- information
- output end
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000002996 emotional effect Effects 0.000 title claims description 18
- 230000008451 emotion Effects 0.000 claims abstract description 51
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000004458 analytical method Methods 0.000 claims abstract description 23
- 230000008909 emotion recognition Effects 0.000 claims abstract description 20
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000005070 sampling Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 claims description 7
- 238000009432 framing Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 6
- 230000008447 perception Effects 0.000 abstract description 4
- 238000001228 spectrum Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000011161 development Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004870 electrical engineering Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2805—Home Audio Video Interoperability [HAVI] networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明公开了一种基于语音识别情绪反馈信息推荐系统及方法,涉及语音识别技术领域,为解决现有的语音识别系统无法捕捉说话人所表达的情绪差异,感知较差,从而影响信息传递效果的问题。所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接,所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块。
Description
技术领域
本发明涉及语音识别技术领域,具体为一种基于语音识别情绪反馈信息推荐系统及方法。
背景技术
语音识别是计算语言学的跨学科子领域,利用其开发方法和技术,能够通过计算机识别和翻译口语。也被称为自动语音识别技术(ASR),计算机语音识别或语音到文本(STT)技术。它融合了语言学、计算机科学和电气工程领域的知识和研究,随着科技的发展,语音识别的应用越来越普及,现阶段的语音识别交互技术多为解决用户在日常生活中的便利问题,例如沟通便利、交流便利、办公便利等,伴随着科学技术的飞速发展和人们对计算机依赖性的不断增加,如何使计算机对气氛和环境等因素具有更强的感知能力,从而分析说话人的情绪和态度,将成为计算机语音情绪识别技术发展的新目标。
但是,现有的语音识别系统无法捕捉说话人所表达的情绪差异,感知较差,从而影响信息传递效果;因此,不满足现有的需求,对此我们提出了一种基于语音识别情绪反馈信息推荐系统及方法。
发明内容
本发明的目的在于提供一种基于语音识别情绪反馈信息推荐系统及方法,以解决上述背景技术中提出的现有的语音识别系统无法捕捉说话人所表达的情绪差异,感知较差,从而影响信息传递效果的问题。
为实现上述目的,本发明提供如下技术方案:一种基于语音识别情绪反馈信息推荐系统,包括语音输入、数据处理模块、情绪识别系统、特征参数提取模块、信息反馈模块和信息推荐系统,所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接。
优选的,所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块。
优选的,所述语音信号预处理的输出端与情绪模板数据库的输入端连接,所述情绪模板数据库的输出端与算法分析系统的输入端连接,所述算法分析系统的输出端与结果输出模块的输入端连接。
优选的,所述信息推荐系统包括电视前端子系统、智能语音音响和智能声控灯。
优选的,所述信息推荐系统的输出端与电视前端子系统的输入端连接,所述信息推荐系统的输出端与智能语音音响的输入端连接,所述信息推荐系统的输出端与智能声控灯的输入端连接。
优选的,所述语音信号预处理包括采样、预滤波、量化、端点检测、加窗、预加重。
优选的,所述特征参数提取模块包括动态特征提取和频谱特征提取。
一种基于语音识别情绪反馈信息推荐系统的方法,包括如下步骤:
步骤一:用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出;
步骤二:特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算;
步骤三:信息反馈模块将情绪特征的数据实时反馈至信息推荐系统;
步骤四:信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
与现有技术相比,本发明的有益效果是:
1、本发明对系统中的语音进行预处理和特征参数提取,预处理包括采样、预滤波、量化、端点检测、加窗、预加重等部分,特征参数提取模块的提取包括动态特征提取和频谱特征提取,达到了去除掉背景噪声和不重要的信息的目的,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,动态特征提取主要指特征幅度、能量、过零率、共振峰频率的提取,提取出计算语音的声学相关参数,来进行情绪特征的计算,以保证语音情绪识别的实时实现,并相应的建立特征情绪模板数据库,当模板库建立完成后,在对用户的语音进行情绪识别时,可将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,从而将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,进行数据的保存和输出;
2、本发明通过信息反馈模块将情绪特征的数据实时反馈至信息推荐系统,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,能够捕捉说话人所表达的情绪差异,感知情绪,并相应的调节电视节目推荐、歌曲推荐以及适当的光源,从而提高信息传递效果以及信息传递质量,能够在第一时间反馈信息安抚和回应用户的情绪特征。
附图说明
图1为本发明的一种基于语音识别情绪反馈信息推荐系统的工作原理图;
图2为本发明的数据处理模块的工作原理图;
图3为本发明的信息推荐系统的工作原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
请参阅图1-3,本发明提供的一种实施例:一种基于语音识别情绪反馈信息推荐系统,包括语音输入、数据处理模块、情绪识别系统、特征参数提取模块、信息反馈模块和信息推荐系统,所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接,用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,提取出计算语音的声学相关参数,进行情绪特征的计算,信息反馈模块将情绪特征的数据实时反馈至信息推荐系统,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
进一步,所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块,结果输出模块进行数据的保存和输出。
进一步,所述语音信号预处理的输出端与情绪模板数据库的输入端连接,所述情绪模板数据库的输出端与算法分析系统的输入端连接,所述算法分析系统的输出端与结果输出模块的输入端连接,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果。
进一步,所述信息推荐系统包括电视前端子系统、智能语音音响和智能声控灯,进行信息推荐。
进一步,所述信息推荐系统的输出端与电视前端子系统的输入端连接,所述信息推荐系统的输出端与智能语音音响的输入端连接,所述信息推荐系统的输出端与智能声控灯的输入端连接,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,能够捕捉说话人所表达的情绪差异,感知情绪,并相应的调节电视节目推荐、歌曲推荐以及适当的光源,从而提高信息传递效果以及信息传递质量,能够在第一时间反馈信息安抚和回应用户的情绪特征。
进一步,所述语音信号预处理包括采样、预滤波、量化、端点检测、加窗、预加重,语音信号滤波、采样以及量化是通过计算机对语音数据进行分析,并把用户输入语音转换成数字信号,预加重是为了提高语音中的高频部分,使语音信号的频谱更加平滑,这样能够保证从低频到高频这段频带中,采用相同的信噪比来计算频谱,使频谱的分析和声道参数的分析更加的方便快捷,端点检测是将除噪声后的语音分离出来,确定语音的开始和结束部分,短时能量可用于区分浊音和轻音,用于区分无声和有声的分界,用于区分声母和韵母的分界,短时平均过零率是语音信号中的一帧语音在波形穿过零电平时的次数,离散信号的过零是指相邻的取样值发生了符号的改变,过零分析是关于时域分析中最容易的一种方式,针对比较连续的语音信号,过零就说明是时域波形穿过了时间轴,所谓的过零率就是指样本改变符号的次数,产生过零的速率是信号频率量的一个简单度量。
进一步,所述特征参数提取模块包括动态特征提取和频谱特征提取,动态特征指单维的短时特征有幅度、过零率和共振峰频率,频谱特征频率倒谱系数可用于反映人耳的听觉特性,语音信号滤波、采样以及量化是通过计算机对语音数据进行分析,并且把用户输入的语音信号转换成数字信号。
一种基于语音识别情绪反馈信息推荐系统的方法,包括如下步骤:
步骤一:用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出;
步骤二:特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算;
步骤三:信息反馈模块将情绪特征的数据实时反馈至信息推荐系统;
步骤四:信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
工作原理:使用时,用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出,特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算,动态特征指单维的短时特征有幅度、过零率和共振峰频率,频谱特征频率倒谱系数可用于反映人耳的听觉特性,语音信号滤波、采样以及量化是通过计算机对语音数据进行分析,并把用户输入语音转换成数字信号,预加重是为了提高语音中的高频部分,使语音信号的频谱更加平滑,这样能够保证从低频到高频这段频带中,采用相同的信噪比来计算频谱,使频谱的分析和声道参数的分析更加的方便快捷,端点检测是将除噪声后的语音分离出来,确定语音的开始和结束部分,短时能量可用于区分浊音和轻音,用于区分无声和有声的分界,用于区分声母和韵母的分界,短时平均过零率是语音信号中的一帧语音在波形穿过零电平时的次数,离散信号的过零是指相邻的取样值发生了符号的改变,过零分析是关于时域分析中最容易的一种方式,针对比较连续的语音信号,过零就说明是时域波形穿过了时间轴,所谓过零率就是指样本改变符号的次数,产生过零的速率是信号频率量的一个简单度量,信息反馈模块将情绪特征的数据实时反馈至信息推荐系统,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,能够捕捉说话人所表达的情绪差异,感知情绪,并相应的调节电视节目推荐、歌曲推荐以及适当的光源,从而提高信息传递效果以及信息传递质量,能够在第一时间反馈信息安抚和回应用户的情绪特征。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (8)
1.一种基于语音识别情绪反馈信息推荐系统,包括语音输入、数据处理模块、情绪识别系统、特征参数提取模块、信息反馈模块和信息推荐系统,其特征在于:所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接。
2.根据权利要求1所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块。
3.根据权利要求2所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述语音信号预处理的输出端与情绪模板数据库的输入端连接,所述情绪模板数据库的输出端与算法分析系统的输入端连接,所述算法分析系统的输出端与结果输出模块的输入端连接。
4.根据权利要求1所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述信息推荐系统包括电视前端子系统、智能语音音响和智能声控灯。
5.根据权利要求4所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述信息推荐系统的输出端与电视前端子系统的输入端连接,所述信息推荐系统的输出端与智能语音音响的输入端连接,所述信息推荐系统的输出端与智能声控灯的输入端连接。
6.根据权利要求2所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述语音信号预处理包括采样、预滤波、量化、端点检测、加窗、预加重。
7.根据权利要求1所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述特征参数提取模块包括动态特征提取和频谱特征提取。
8.一种基于语音识别情绪反馈信息推荐系统的方法,基于权利要求1-7任意一项一种基于语音识别情绪反馈信息推荐系统实现,其特征在于,包括如下步骤:
步骤一:用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出;
步骤二:特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算;
步骤三:信息反馈模块将情绪特征的数据实时反馈至信息推荐系统;
步骤四:信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110198145.7A CN113012717A (zh) | 2021-02-22 | 2021-02-22 | 一种基于语音识别情绪反馈信息推荐系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110198145.7A CN113012717A (zh) | 2021-02-22 | 2021-02-22 | 一种基于语音识别情绪反馈信息推荐系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113012717A true CN113012717A (zh) | 2021-06-22 |
Family
ID=76406211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110198145.7A Pending CN113012717A (zh) | 2021-02-22 | 2021-02-22 | 一种基于语音识别情绪反馈信息推荐系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113012717A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999534A (zh) * | 2022-06-10 | 2022-09-02 | 中国第一汽车股份有限公司 | 一种车载音乐的播放控制方法、装置、设备和存储介质 |
CN115396389A (zh) * | 2022-07-07 | 2022-11-25 | 深圳市华汇数据服务有限公司 | 一种基于情绪能量感知的物联网信息技术客服服务系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570496A (zh) * | 2016-11-22 | 2017-04-19 | 上海智臻智能网络科技股份有限公司 | 情绪识别方法和装置以及智能交互方法和设备 |
CN106803423A (zh) * | 2016-12-27 | 2017-06-06 | 智车优行科技(北京)有限公司 | 基于用户情绪状态的人机交互语音控制方法、装置及车辆 |
CN107562850A (zh) * | 2017-08-28 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 音乐推荐方法、装置、设备及存储介质 |
CN108882454A (zh) * | 2018-07-20 | 2018-11-23 | 佛山科学技术学院 | 一种基于情绪判断的智能语音识别交互照明方法及系统 |
CN109190459A (zh) * | 2018-07-20 | 2019-01-11 | 上海博泰悦臻电子设备制造有限公司 | 一种车主情绪识别及调节方法、存储介质及车载系统 |
CN111976732A (zh) * | 2019-05-23 | 2020-11-24 | 上海博泰悦臻网络技术服务有限公司 | 基于车主情绪的车辆控制方法、系统及车载终端 |
-
2021
- 2021-02-22 CN CN202110198145.7A patent/CN113012717A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570496A (zh) * | 2016-11-22 | 2017-04-19 | 上海智臻智能网络科技股份有限公司 | 情绪识别方法和装置以及智能交互方法和设备 |
CN106803423A (zh) * | 2016-12-27 | 2017-06-06 | 智车优行科技(北京)有限公司 | 基于用户情绪状态的人机交互语音控制方法、装置及车辆 |
CN107562850A (zh) * | 2017-08-28 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 音乐推荐方法、装置、设备及存储介质 |
CN108882454A (zh) * | 2018-07-20 | 2018-11-23 | 佛山科学技术学院 | 一种基于情绪判断的智能语音识别交互照明方法及系统 |
CN109190459A (zh) * | 2018-07-20 | 2019-01-11 | 上海博泰悦臻电子设备制造有限公司 | 一种车主情绪识别及调节方法、存储介质及车载系统 |
CN111976732A (zh) * | 2019-05-23 | 2020-11-24 | 上海博泰悦臻网络技术服务有限公司 | 基于车主情绪的车辆控制方法、系统及车载终端 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999534A (zh) * | 2022-06-10 | 2022-09-02 | 中国第一汽车股份有限公司 | 一种车载音乐的播放控制方法、装置、设备和存储介质 |
CN115396389A (zh) * | 2022-07-07 | 2022-11-25 | 深圳市华汇数据服务有限公司 | 一种基于情绪能量感知的物联网信息技术客服服务系统 |
CN115396389B (zh) * | 2022-07-07 | 2023-09-22 | 深圳市华汇数据服务有限公司 | 一种基于情绪能量感知的物联网信息技术客服服务系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Pitch‐based gender identification with two‐stage classification | |
CN102543073B (zh) | 一种沪语语音识别信息处理方法 | |
US9129605B2 (en) | Automated voice and speech labeling | |
CN108305639B (zh) | 语音情感识别方法、计算机可读存储介质、终端 | |
CN109801645B (zh) | 一种乐音识别方法 | |
CN113012717A (zh) | 一种基于语音识别情绪反馈信息推荐系统及方法 | |
CN111508498A (zh) | 对话式语音识别方法、系统、电子设备和存储介质 | |
CN109036470B (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
CN110516102A (zh) | 一种基于语谱图识别的歌词时间戳生成方法 | |
CN116665669A (zh) | 一种基于人工智能的语音交互方法及系统 | |
WO2019232867A1 (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
Ghosal et al. | Automatic male-female voice discrimination | |
Benetos et al. | Auditory spectrum-based pitched instrument onset detection | |
Nancy et al. | Audio based emotion recognition using Mel frequency Cepstral coefficient and support vector machine | |
CN111833869B (zh) | 一种应用于城市大脑的语音交互方法及系统 | |
CN114913844A (zh) | 一种基音归一化重构的广播语种识别方法 | |
CN114550741A (zh) | 一种语义识别的方法和系统 | |
CN114512133A (zh) | 发声对象识别方法、装置、服务器及存储介质 | |
CN113436649B (zh) | 一种语音情感标定辅助方法及系统 | |
Yue et al. | Speaker age recognition based on isolated words by using SVM | |
Yao et al. | [Retracted] Research on Segmentation Experience of Music Signal Improved Based on Maximization of Negative Entropy | |
JPH01255000A (ja) | 音声認識システムに使用されるテンプレートに雑音を選択的に付加するための装置及び方法 | |
Dutta et al. | A hierarchical approach for silence/speech/music classification | |
Hosain et al. | Deep-Learning-Based Speech Emotion Recognition Using Synthetic Bone-Conducted Speech | |
Li et al. | Research on isolated word recognition algorithm based on machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210622 |
|
RJ01 | Rejection of invention patent application after publication |