CN113012717A - 一种基于语音识别情绪反馈信息推荐系统及方法 - Google Patents

一种基于语音识别情绪反馈信息推荐系统及方法 Download PDF

Info

Publication number
CN113012717A
CN113012717A CN202110198145.7A CN202110198145A CN113012717A CN 113012717 A CN113012717 A CN 113012717A CN 202110198145 A CN202110198145 A CN 202110198145A CN 113012717 A CN113012717 A CN 113012717A
Authority
CN
China
Prior art keywords
voice
emotion
module
information
output end
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110198145.7A
Other languages
English (en)
Inventor
杨树才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ea Intelligent Technology Co ltd
Original Assignee
Shanghai Ea Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ea Intelligent Technology Co ltd filed Critical Shanghai Ea Intelligent Technology Co ltd
Priority to CN202110198145.7A priority Critical patent/CN113012717A/zh
Publication of CN113012717A publication Critical patent/CN113012717A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2805Home Audio Video Interoperability [HAVI] networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明公开了一种基于语音识别情绪反馈信息推荐系统及方法,涉及语音识别技术领域,为解决现有的语音识别系统无法捕捉说话人所表达的情绪差异,感知较差,从而影响信息传递效果的问题。所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接,所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块。

Description

一种基于语音识别情绪反馈信息推荐系统及方法
技术领域
本发明涉及语音识别技术领域,具体为一种基于语音识别情绪反馈信息推荐系统及方法。
背景技术
语音识别是计算语言学的跨学科子领域,利用其开发方法和技术,能够通过计算机识别和翻译口语。也被称为自动语音识别技术(ASR),计算机语音识别或语音到文本(STT)技术。它融合了语言学、计算机科学和电气工程领域的知识和研究,随着科技的发展,语音识别的应用越来越普及,现阶段的语音识别交互技术多为解决用户在日常生活中的便利问题,例如沟通便利、交流便利、办公便利等,伴随着科学技术的飞速发展和人们对计算机依赖性的不断增加,如何使计算机对气氛和环境等因素具有更强的感知能力,从而分析说话人的情绪和态度,将成为计算机语音情绪识别技术发展的新目标。
但是,现有的语音识别系统无法捕捉说话人所表达的情绪差异,感知较差,从而影响信息传递效果;因此,不满足现有的需求,对此我们提出了一种基于语音识别情绪反馈信息推荐系统及方法。
发明内容
本发明的目的在于提供一种基于语音识别情绪反馈信息推荐系统及方法,以解决上述背景技术中提出的现有的语音识别系统无法捕捉说话人所表达的情绪差异,感知较差,从而影响信息传递效果的问题。
为实现上述目的,本发明提供如下技术方案:一种基于语音识别情绪反馈信息推荐系统,包括语音输入、数据处理模块、情绪识别系统、特征参数提取模块、信息反馈模块和信息推荐系统,所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接。
优选的,所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块。
优选的,所述语音信号预处理的输出端与情绪模板数据库的输入端连接,所述情绪模板数据库的输出端与算法分析系统的输入端连接,所述算法分析系统的输出端与结果输出模块的输入端连接。
优选的,所述信息推荐系统包括电视前端子系统、智能语音音响和智能声控灯。
优选的,所述信息推荐系统的输出端与电视前端子系统的输入端连接,所述信息推荐系统的输出端与智能语音音响的输入端连接,所述信息推荐系统的输出端与智能声控灯的输入端连接。
优选的,所述语音信号预处理包括采样、预滤波、量化、端点检测、加窗、预加重。
优选的,所述特征参数提取模块包括动态特征提取和频谱特征提取。
一种基于语音识别情绪反馈信息推荐系统的方法,包括如下步骤:
步骤一:用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出;
步骤二:特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算;
步骤三:信息反馈模块将情绪特征的数据实时反馈至信息推荐系统;
步骤四:信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
与现有技术相比,本发明的有益效果是:
1、本发明对系统中的语音进行预处理和特征参数提取,预处理包括采样、预滤波、量化、端点检测、加窗、预加重等部分,特征参数提取模块的提取包括动态特征提取和频谱特征提取,达到了去除掉背景噪声和不重要的信息的目的,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,动态特征提取主要指特征幅度、能量、过零率、共振峰频率的提取,提取出计算语音的声学相关参数,来进行情绪特征的计算,以保证语音情绪识别的实时实现,并相应的建立特征情绪模板数据库,当模板库建立完成后,在对用户的语音进行情绪识别时,可将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,从而将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,进行数据的保存和输出;
2、本发明通过信息反馈模块将情绪特征的数据实时反馈至信息推荐系统,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,能够捕捉说话人所表达的情绪差异,感知情绪,并相应的调节电视节目推荐、歌曲推荐以及适当的光源,从而提高信息传递效果以及信息传递质量,能够在第一时间反馈信息安抚和回应用户的情绪特征。
附图说明
图1为本发明的一种基于语音识别情绪反馈信息推荐系统的工作原理图;
图2为本发明的数据处理模块的工作原理图;
图3为本发明的信息推荐系统的工作原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
请参阅图1-3,本发明提供的一种实施例:一种基于语音识别情绪反馈信息推荐系统,包括语音输入、数据处理模块、情绪识别系统、特征参数提取模块、信息反馈模块和信息推荐系统,所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接,用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,提取出计算语音的声学相关参数,进行情绪特征的计算,信息反馈模块将情绪特征的数据实时反馈至信息推荐系统,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
进一步,所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块,结果输出模块进行数据的保存和输出。
进一步,所述语音信号预处理的输出端与情绪模板数据库的输入端连接,所述情绪模板数据库的输出端与算法分析系统的输入端连接,所述算法分析系统的输出端与结果输出模块的输入端连接,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果。
进一步,所述信息推荐系统包括电视前端子系统、智能语音音响和智能声控灯,进行信息推荐。
进一步,所述信息推荐系统的输出端与电视前端子系统的输入端连接,所述信息推荐系统的输出端与智能语音音响的输入端连接,所述信息推荐系统的输出端与智能声控灯的输入端连接,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,能够捕捉说话人所表达的情绪差异,感知情绪,并相应的调节电视节目推荐、歌曲推荐以及适当的光源,从而提高信息传递效果以及信息传递质量,能够在第一时间反馈信息安抚和回应用户的情绪特征。
进一步,所述语音信号预处理包括采样、预滤波、量化、端点检测、加窗、预加重,语音信号滤波、采样以及量化是通过计算机对语音数据进行分析,并把用户输入语音转换成数字信号,预加重是为了提高语音中的高频部分,使语音信号的频谱更加平滑,这样能够保证从低频到高频这段频带中,采用相同的信噪比来计算频谱,使频谱的分析和声道参数的分析更加的方便快捷,端点检测是将除噪声后的语音分离出来,确定语音的开始和结束部分,短时能量可用于区分浊音和轻音,用于区分无声和有声的分界,用于区分声母和韵母的分界,短时平均过零率是语音信号中的一帧语音在波形穿过零电平时的次数,离散信号的过零是指相邻的取样值发生了符号的改变,过零分析是关于时域分析中最容易的一种方式,针对比较连续的语音信号,过零就说明是时域波形穿过了时间轴,所谓的过零率就是指样本改变符号的次数,产生过零的速率是信号频率量的一个简单度量。
进一步,所述特征参数提取模块包括动态特征提取和频谱特征提取,动态特征指单维的短时特征有幅度、过零率和共振峰频率,频谱特征频率倒谱系数可用于反映人耳的听觉特性,语音信号滤波、采样以及量化是通过计算机对语音数据进行分析,并且把用户输入的语音信号转换成数字信号。
一种基于语音识别情绪反馈信息推荐系统的方法,包括如下步骤:
步骤一:用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出;
步骤二:特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算;
步骤三:信息反馈模块将情绪特征的数据实时反馈至信息推荐系统;
步骤四:信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
工作原理:使用时,用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出,特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算,动态特征指单维的短时特征有幅度、过零率和共振峰频率,频谱特征频率倒谱系数可用于反映人耳的听觉特性,语音信号滤波、采样以及量化是通过计算机对语音数据进行分析,并把用户输入语音转换成数字信号,预加重是为了提高语音中的高频部分,使语音信号的频谱更加平滑,这样能够保证从低频到高频这段频带中,采用相同的信噪比来计算频谱,使频谱的分析和声道参数的分析更加的方便快捷,端点检测是将除噪声后的语音分离出来,确定语音的开始和结束部分,短时能量可用于区分浊音和轻音,用于区分无声和有声的分界,用于区分声母和韵母的分界,短时平均过零率是语音信号中的一帧语音在波形穿过零电平时的次数,离散信号的过零是指相邻的取样值发生了符号的改变,过零分析是关于时域分析中最容易的一种方式,针对比较连续的语音信号,过零就说明是时域波形穿过了时间轴,所谓过零率就是指样本改变符号的次数,产生过零的速率是信号频率量的一个简单度量,信息反馈模块将情绪特征的数据实时反馈至信息推荐系统,信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,能够捕捉说话人所表达的情绪差异,感知情绪,并相应的调节电视节目推荐、歌曲推荐以及适当的光源,从而提高信息传递效果以及信息传递质量,能够在第一时间反馈信息安抚和回应用户的情绪特征。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。

Claims (8)

1.一种基于语音识别情绪反馈信息推荐系统,包括语音输入、数据处理模块、情绪识别系统、特征参数提取模块、信息反馈模块和信息推荐系统,其特征在于:所述语音输入的输出端与数据处理模块的输入端连接,所述数据处理模块的输出端与情绪识别系统的输入端连接,所述情绪识别系统的输出端与特征参数提取模块的输入端连接,所述特征参数提取模块的输出端与信息反馈模块的输入端连接,所述信息反馈模块的输出端与信息推荐系统的输入端连接。
2.根据权利要求1所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述数据处理模块包括语音信号预处理、情绪模板数据库、算法分析系统和结果输出模块。
3.根据权利要求2所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述语音信号预处理的输出端与情绪模板数据库的输入端连接,所述情绪模板数据库的输出端与算法分析系统的输入端连接,所述算法分析系统的输出端与结果输出模块的输入端连接。
4.根据权利要求1所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述信息推荐系统包括电视前端子系统、智能语音音响和智能声控灯。
5.根据权利要求4所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述信息推荐系统的输出端与电视前端子系统的输入端连接,所述信息推荐系统的输出端与智能语音音响的输入端连接,所述信息推荐系统的输出端与智能声控灯的输入端连接。
6.根据权利要求2所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述语音信号预处理包括采样、预滤波、量化、端点检测、加窗、预加重。
7.根据权利要求1所述的一种基于语音识别情绪反馈信息推荐系统,其特征在于:所述特征参数提取模块包括动态特征提取和频谱特征提取。
8.一种基于语音识别情绪反馈信息推荐系统的方法,基于权利要求1-7任意一项一种基于语音识别情绪反馈信息推荐系统实现,其特征在于,包括如下步骤:
步骤一:用户说话进行语音输入,数据处理模块对语音进行语音信号预处理,进行采样、预滤波、量化、端点检测、加窗、预加重,算法分析系统将用户输入语音的矢量序列与情绪模板数据库中的模板数据进行相似度的比对,将匹配出的相似度最高的模板数据所在的情绪类别当做情绪识别结果,结果输出模块进行数据的保存和输出;
步骤二:特征参数提取模块进行动态特征提取和频谱特征提取,消除背景噪音和不重要的信息,对用户的语音进行端点检测,判断语音的起始位置即有效范围,对语音信号进行分帧和预加重处理,提取出计算语音的声学相关参数,进行情绪特征的计算;
步骤三:信息反馈模块将情绪特征的数据实时反馈至信息推荐系统;
步骤四:信息推荐系统控制电视前端子系统、智能语音音响和智能声控灯感知用户当前的语音情绪,并相应的调节电视节目推荐、歌曲推荐和适当的光源。
CN202110198145.7A 2021-02-22 2021-02-22 一种基于语音识别情绪反馈信息推荐系统及方法 Pending CN113012717A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110198145.7A CN113012717A (zh) 2021-02-22 2021-02-22 一种基于语音识别情绪反馈信息推荐系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110198145.7A CN113012717A (zh) 2021-02-22 2021-02-22 一种基于语音识别情绪反馈信息推荐系统及方法

Publications (1)

Publication Number Publication Date
CN113012717A true CN113012717A (zh) 2021-06-22

Family

ID=76406211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110198145.7A Pending CN113012717A (zh) 2021-02-22 2021-02-22 一种基于语音识别情绪反馈信息推荐系统及方法

Country Status (1)

Country Link
CN (1) CN113012717A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999534A (zh) * 2022-06-10 2022-09-02 中国第一汽车股份有限公司 一种车载音乐的播放控制方法、装置、设备和存储介质
CN115396389A (zh) * 2022-07-07 2022-11-25 深圳市华汇数据服务有限公司 一种基于情绪能量感知的物联网信息技术客服服务系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备
CN106803423A (zh) * 2016-12-27 2017-06-06 智车优行科技(北京)有限公司 基于用户情绪状态的人机交互语音控制方法、装置及车辆
CN107562850A (zh) * 2017-08-28 2018-01-09 百度在线网络技术(北京)有限公司 音乐推荐方法、装置、设备及存储介质
CN108882454A (zh) * 2018-07-20 2018-11-23 佛山科学技术学院 一种基于情绪判断的智能语音识别交互照明方法及系统
CN109190459A (zh) * 2018-07-20 2019-01-11 上海博泰悦臻电子设备制造有限公司 一种车主情绪识别及调节方法、存储介质及车载系统
CN111976732A (zh) * 2019-05-23 2020-11-24 上海博泰悦臻网络技术服务有限公司 基于车主情绪的车辆控制方法、系统及车载终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备
CN106803423A (zh) * 2016-12-27 2017-06-06 智车优行科技(北京)有限公司 基于用户情绪状态的人机交互语音控制方法、装置及车辆
CN107562850A (zh) * 2017-08-28 2018-01-09 百度在线网络技术(北京)有限公司 音乐推荐方法、装置、设备及存储介质
CN108882454A (zh) * 2018-07-20 2018-11-23 佛山科学技术学院 一种基于情绪判断的智能语音识别交互照明方法及系统
CN109190459A (zh) * 2018-07-20 2019-01-11 上海博泰悦臻电子设备制造有限公司 一种车主情绪识别及调节方法、存储介质及车载系统
CN111976732A (zh) * 2019-05-23 2020-11-24 上海博泰悦臻网络技术服务有限公司 基于车主情绪的车辆控制方法、系统及车载终端

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999534A (zh) * 2022-06-10 2022-09-02 中国第一汽车股份有限公司 一种车载音乐的播放控制方法、装置、设备和存储介质
CN115396389A (zh) * 2022-07-07 2022-11-25 深圳市华汇数据服务有限公司 一种基于情绪能量感知的物联网信息技术客服服务系统
CN115396389B (zh) * 2022-07-07 2023-09-22 深圳市华汇数据服务有限公司 一种基于情绪能量感知的物联网信息技术客服服务系统

Similar Documents

Publication Publication Date Title
Hu et al. Pitch‐based gender identification with two‐stage classification
CN102543073B (zh) 一种沪语语音识别信息处理方法
US9129605B2 (en) Automated voice and speech labeling
CN108305639B (zh) 语音情感识别方法、计算机可读存储介质、终端
CN109801645B (zh) 一种乐音识别方法
CN113012717A (zh) 一种基于语音识别情绪反馈信息推荐系统及方法
CN111508498A (zh) 对话式语音识别方法、系统、电子设备和存储介质
CN109036470B (zh) 语音区分方法、装置、计算机设备及存储介质
CN110516102A (zh) 一种基于语谱图识别的歌词时间戳生成方法
CN116665669A (zh) 一种基于人工智能的语音交互方法及系统
WO2019232867A1 (zh) 语音区分方法、装置、计算机设备及存储介质
Ghosal et al. Automatic male-female voice discrimination
Benetos et al. Auditory spectrum-based pitched instrument onset detection
Nancy et al. Audio based emotion recognition using Mel frequency Cepstral coefficient and support vector machine
CN111833869B (zh) 一种应用于城市大脑的语音交互方法及系统
CN114913844A (zh) 一种基音归一化重构的广播语种识别方法
CN114550741A (zh) 一种语义识别的方法和系统
CN114512133A (zh) 发声对象识别方法、装置、服务器及存储介质
CN113436649B (zh) 一种语音情感标定辅助方法及系统
Yue et al. Speaker age recognition based on isolated words by using SVM
Yao et al. [Retracted] Research on Segmentation Experience of Music Signal Improved Based on Maximization of Negative Entropy
JPH01255000A (ja) 音声認識システムに使用されるテンプレートに雑音を選択的に付加するための装置及び方法
Dutta et al. A hierarchical approach for silence/speech/music classification
Hosain et al. Deep-Learning-Based Speech Emotion Recognition Using Synthetic Bone-Conducted Speech
Li et al. Research on isolated word recognition algorithm based on machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210622

RJ01 Rejection of invention patent application after publication