CN110619894B - 基于语音波形图的情绪识别方法、装置和系统 - Google Patents
基于语音波形图的情绪识别方法、装置和系统 Download PDFInfo
- Publication number
- CN110619894B CN110619894B CN201910941959.8A CN201910941959A CN110619894B CN 110619894 B CN110619894 B CN 110619894B CN 201910941959 A CN201910941959 A CN 201910941959A CN 110619894 B CN110619894 B CN 110619894B
- Authority
- CN
- China
- Prior art keywords
- emotion
- speech
- voice
- user
- waveform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010586 diagram Methods 0.000 title claims abstract description 52
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000008451 emotion Effects 0.000 claims abstract description 69
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 22
- 238000013145 classification model Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 2
- 230000004044 response Effects 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于语音波形图的情绪识别方法、装置、系统和计算机可读介质,其中方法包括:实时接收用户的语音输入;对所述语音输入进行连续采样,获得用户的语音波形图;将所述语音波形图输入情绪判断模型,对用户的情绪进行识别。本发明能够对用户的情绪进行识别,随着用户的情绪变化调整调整语音机器人应答策略,有效的减少用户投诉的数量。
Description
技术领域
本发明涉及计算机信息处理领域,具体而言,涉及一种基于语音波形图的情绪识别方法、装置和系统。
背景技术
客户服务中心是企业与用户沟通的主要桥梁,提升用户满意度的主要渠道。以前客户服务中心主要以人工客服为主,由专业的客服人员为用户进行服务。
随着计算机信息处理技术的发展,越来越多的客户服务中心开始采用语音机器人来为用户进行服务,缓解人工客服等待时间过长的问题。
所谓语音机器人是指通过对用户语音进行识别、语义理解并产生对话回复内容并通过实时播放对话回复内容的技术。但目前语音机器人普遍存在无法对用户的情绪进行识别,沟通策略没有随着用户情绪的变化进行调整,导致用户的投诉增多的问题。
发明内容
本发明旨在解决现有用户信息查询方式查询时间不易控制,给用户体验较差的问题。
为了解决上述技术问题,本发明第一方面提出一种基于语音波形图的情绪识别方法,情绪识别方法包括:
实时接收用户的语音输入;
对所述语音输入进行连续采样,获得用户的语音波形图;
将所述语音波形图输入情绪判断模型,对用户的情绪进行识别。
根据本发明的一种优选实施方式,所述情绪判断模型由历史用户语音波形图和情绪标定值数据训练而成。
根据本发明的一种优选实施方式,所述语音波形图是由语音的能量值在时间维度的图形展示。
根据本发明的一种优选实施方式,所述语音波形图是由语音的能量值在频率维度的图形展示。
根据本发明的一种优选实施方式,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上连续的语音波形图。
根据本发明的一种优选实施方式,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上重叠的语音波形图。
根据本发明的一种优选实施方式,所述的情绪标定值是用于标定用户是否存在特定情绪。
本发明的第二方面提出一种基于语音波形图的情绪识别装置,情绪识别装置包括:
语音接收模块,用于实时接收用户的语音输入;
连续采样模块,用于对所述语音输入进行连续采样,获得用户的语音波形图;
情绪识别模块,用于将所述语音波形图输入情绪判断模型,对用户的情绪进行识别。
根据本发明的一种优选实施方式,所述情绪判断模型由历史用户语音波形图和情绪标定值数据训练而成。
根据本发明的一种优选实施方式,所述语音波形图是由语音的能量值在时间维度的图形展示。
根据本发明的一种优选实施方式,所述语音波形图是由语音的能量值在频率维度的图形展示。
根据本发明的一种优选实施方式,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上连续的语音波形图。
根据本发明的一种优选实施方式,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上重叠的语音波形图。
根据本发明的一种优选实施方式,所述的情绪标定值是用于标定用户是否存在特定情绪。
本发明的第三方面提出一种基于语音波形图的情绪识别系统,包括:
存储单元,用于存储计算机可执行程序;
处理单元,用于读取所述存储单元中的计算机可执行程序,以执行所述的基于语音波形图的情绪识别方法。
本发明的第四方面提出一种计算机可读介质,用于存储计算机可读程序,其特征在于,所述计算机可读程序用于执行所述的基于语音波形图的情绪识别方法。
采用该技术方案,通过识别用户的情绪,随时判断用户的情绪波动,当用户情绪波动较大时,调解语音机器人应答策略,避免用户情绪波动进一步加剧导致投诉情况的发生。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1是本发明实施例中基于语音波形图的情绪识别方法的流程示意图;
图2A是本发明的一个实施例在时域上的语音波形图;
图2B是本发明的一个实施例在800ms内的时域语音波形图;
图2C是图2A中的语音波形图经连续切割后得到的若干片断图像;
图3是本发明的一个实施例两段不同语音的频率语音波形图;
图4是本发明实施例中基于语音波形图的情绪识别装置的结构示意图;
图5是本发明实施例中基于语音波形脉冲的图片的情绪识别结构的框架示意图;
图6是本发明实施例中计算机可读存储介质的结构示意图。
具体实施方式
现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理单元装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
本发明主要应用于语音机器人。如前所述,目前的语音机器人无法从用户的语音中识别出用户的情绪,从而无法作出相应的应对策略。为了解决该问题,本发明提出结合语音转换图形的技术和利用图形特征进行人工智能的识别的方式来识别用户的情绪的方法。
图1是本发明的基于语音波形脉冲的图片的情绪识别方法的流程图,如图1所示,本发明方法具有如下步骤:
S1、实时接收用户的语音输入。
在实际的语音机器人应用中,用户与语音机器人的对话通常要求具有实时性,由此,本发明的方法要求在语音机器人与用户进行对话过程中,实时接收用户的语音输入,由此能够实时地识别用户语音,包括语音的内容含义和情绪。
S2、对所述语音输入进行连续采样,获得用户的语音波形图。
接收自用户的语音输入通常是模拟音频数据,但也可能是数字音频数据,数字音频数据通常具有一定的压缩率。在接收到用户语音输入之后,一方面,语音机器人对该音频数据进行语音转文字的内容识别,在识别内容之后还需要利用语义理解引擎对其进行语义理解。与现有技术不同的时,在上述过程中,本发明还实时地将该音频数据转化为数据处理装置能够处理的图形数据,以在后续的步骤中对该图形进行识别以获取情绪信息。
在本发明中,所述的图形数据是指对输入语音进行处理后得到的语音波形图。
一种实施方式是,所述语音波形图是由语音的能量值在时间维度的图形展示。语音数据可以通过语音能量的波形图的方式进行展示,其中之一就是在时域上的展示。也就是说,我们可以根据一段语音在时间上的能量高低展示为图形模式。
图2A是本发明的一个实施例的在时域上的波形图。如图2A所示,该图中展示了从0至600ms的时间内一段语音的时域波形图,可见,不同的语音将呈现出不同的波形。
此外,图2A展示的是连续曲线的图片,如果时域范围取得较长,其也可能显示为区块的图片,如图2B所示。在该图中显示了800ms内的时域语音波形图。在其他的实施方式中,也可以采用填充算法将线条图转换为区块图。本发明不限于具体的图形展示方法。
无论是对于模拟音频数据还是数据音频数据,都需要对音频数据进行重采样。优选地,本发明使用VAD算法对语音输入进行检测,获得声波波形。语音活动检测VAD算法,又称语音端点检测算法或语音边界检测算法。在本实施方式中,由于环境噪音、设备噪音等等噪音的影响,用户的语音输入往往不仅仅包括用户的声音,还会包括用户所处环境的噪音,如果不将这些噪音滤除,会对分析结果造成影响。因此采用VAD算法标注所述音频数据中的语音段和非语音段,并利用标注结果去除音频数据中的非语音段,对用户的语音输入进行检测,滤除环境噪声,仅仅保留用户的人声,并转化成声波波形。
VAD算法中的具体算法有很多种,本发明优选采用高斯混合GMM模型算法进行人声检测。在其他实施方式中,还可以采用VAD算法中的其他算法。
为了将语音波形图转换为机器学习模型能够识别的格式,本发是需要对语音波形图进行切分。也就是说,将所述语音波形图以预定时间窗口上进行划分,使得用户的语音输入产生在时间上连续的语音波形图。例如,我们可以以一个时间窗口连续地划分语音波形图,由此生成一个个连续的语音波形图片断。该时间窗口的长度可以是预定的,例如25ms,50ms,100ms,200ms等。
在上述技术方案的基础上进一步地,对所述声波波形进行连续采样具体为:设置滑动窗口长度为采样周期,设置滑动窗口重叠长度,使用重叠式滑动窗口对所述声波波形进行切割,得到一系列的波形采样。如图2C所示,其为图2A中的语音波形图经连续切割后得到的若干片断图像。
在另一实施方式中,用户的语音输入也可以产生在时间上重叠的语音波形图。为了避免连续图片中遗漏相关的边续图片信息,本发明可以采用重叠式切分的方式,例如,对于图2A所示的波形图,可以切割成0ms-50ms、25ms-75ms、50ms-100ms、75-125ms……。
对上述切割后的图像,可以存为jpg格式的文件。在其他实施方式中,也可以转化为其他格式的图像文件。在其他实施方式中,还将转换好的图像表示成一个向量,用于输入情绪判断模型。
此外,根据本发明的另一种实施方式,所述语音波形图是由语音的能量值在频率维度的图形展示。用户的情况变化有时不仅体现在声量的变化,也体现在声调频率的变化,因此,基于频率维度的语音波形图在情绪识别上也是有意义的。
图3显示的两段不同语音的频率语音波形图。与时域上的语音波形图类似,频域上的波形图也可以也可以转换为图像。但不同的时,在频域上的波形图并非是在时域上切割而成,而是通过在时间上的预定时间窗口内的语音进行频域变化而成。除此之外,其他的处理方式与时域上相同。
S3、将所述语音波形图输入情绪判断模型,对用户的情绪进行识别。
所述的情绪判断模型是基于图像识别的分类模型,例如基于KNN算法的模型。本发明不限于具体的图像识别分类模型,例如也可以是RNN循环神经网络模型。
所述情绪判断模型需要由历史的语音波形图和情绪标定值数据进行训练而成。本发明将历史用户语音进行情绪标定,然后将相应的语音转换成模型需要的语音波形图,将该语音波形图和情绪标定值作为训练数据。
在具体实施例中,例如将与语音机器人对话的历史用户语音作为训练数据,将涉及到用户因投诉而产生激动情绪的语音标注为1,将未因投诉而产生激动情绪的语音标注为0。在其他的应用场合,也可以根据不同的情绪识别要求进行特定的标定。
在其他实施方式中,当用户情绪激动被标注被1时,需要调整语音机器人对话策略。调整的语音机器人对话策略包括但不限于调整语速,调整语调,调整话术等。从而平复用户的情绪,避免用户情绪过于激动,进而导致投诉情况的发生。
需要说明的是,所述情绪判断模型的输入图像可以一个语音波形图片断图像,也可以是连续的多个语音波形图片断图像。更多的输入图像可能能够提高模型识别的准确性,但同时也会增加处理的时间,因此在实际应用中需要进行适当的选择。
如图4所示,在本实施例中还提供了一种基于语音波形图的情绪识别装置400,包括:
语音接收模块401,用于实时接收用户的语音输入。
在实际的语音机器人应用中,用户与语音机器人的对话通常要求具有实时性,由此,本发明的方法要求在语音机器人与用户进行对话过程中,实时接收用户的语音输入,由此能够实时地识别用户语音,包括语音的内容含义和情绪。
连续采样模块402,用于对所述语音输入进行连续采样,获得用户的语音波形图。
接收自用户的语音输入通常是模拟音频数据,但也可能是数字音频数据,数字音频数据通常具有一定的压缩率。在接收到用户语音输入之后,一方面,语音机器人对该音频数据进行语音转文字的内容识别,在识别内容之后还需要利用语义理解引擎对其进行语义理解。与现有技术不同的时,在上述过程中,本发明还实时地将该音频数据转化为数据处理装置能够处理的图形数据,以在后续的步骤中对该图形进行识别以获取情绪信息。
在本发明中,所述的图形数据是指对输入语音进行处理后得到的语音波形图。
一种实施方式是,所述语音波形图是由语音的能量值在时间维度的图形展示。语音数据可以通过语音能量的波形图的方式进行展示,其中之一就是在时域上的展示。也就是说,我们可以根据一段语音在时间上的能量高低展示为图形模式。
无论是对于模拟音频数据还是数据音频数据,都需要对音频数据进行重采样。优选地,本发明使用VAD算法对语音输入进行检测,获得声波波形。语音活动检测VAD算法,又称语音端点检测算法或语音边界检测算法。在本实施方式中,由于环境噪音、设备噪音等等噪音的影响,用户的语音输入往往不仅仅包括用户的声音,还会包括用户所处环境的噪音,如果不将这些噪音滤除,会对分析结果造成影响。因此采用VAD算法标注所述音频数据中的语音段和非语音段,并利用标注结果去除音频数据中的非语音段,对用户的语音输入进行检测,滤除环境噪声,仅仅保留用户的人声,并转化成声波波形。
VAD算法中的具体算法有很多种,本发明优选采用高斯混合GMM模型算法进行人声检测。在其他实施方式中,还可以采用VAD算法中的其他算法。
为了将语音波形图转换为机器学习模型能够识别的格式,本发是需要对语音波形图进行切分。也就是说,将所述语音波形图以预定时间窗口上进行划分,使得用户的语音输入产生在时间上连续的语音波形图。例如,我们可以以一个时间窗口连续地划分语音波形图,由此生成一个个连续的语音波形图片断。该时间窗口的长度可以是预定的,例如25ms,50ms,100ms,200ms等。
在上述技术方案的基础上进一步地,对所述声波波形进行连续采样具体为:设置滑动窗口长度为采样周期,设置滑动窗口重叠长度,使用重叠式滑动窗口对所述声波波形进行切割,得到一系列的波形采样。如图2C所示,其为图2A中的语音波形图经连续切割后得到的若干片断图像。
在另一实施方式中,用户的语音输入也可以产生在时间上重叠的语音波形图。为了避免连续图片中遗漏相关的边续图片信息,本发明可以采用重叠式切分的方式,例如,对于图2A所示的波形图,可以切割成0ms-50ms、25ms-75ms、50ms-100ms、75-125ms……。
对上述切割后的图像,可以存为jpg格式的文件。在其他实施方式中,也可以转化为其他格式的图像文件。在其他实施方式中,还将转换好的图像表示成一个向量,用于输入情绪判断模型。
此外,根据本发明的另一种实施方式,所述语音波形图是由语音的能量值在频率维度的图形展示。用户的情况变化有时不仅体现在声量的变化,也体现在声调频率的变化,因此,基于频率维度的语音波形图在情绪识别上也是有意义的。
情绪识别模块403,用于将所述语音波形图输入情绪判断模型,对用户的情绪进行识别。
所述的情绪判断模型是基于图像识别的分类模型,例如基于KNN算法的模型。本发明不限于具体的图像识别分类模型,例如也可以是RNN循环神经网络模型。
所述情绪判断模型需要由历史的语音波形图和情绪标定值数据进行训练而成。本发明将历史用户语音进行情绪标定,然后将相应的语音转换成模型需要的语音波形图,将该语音波形图和情绪标定值作为训练数据。
在具体实施例中,例如将与语音机器人对话的历史用户语音作为训练数据,将涉及到用户因投诉而产生激动情绪的语音标注为1,将未因投诉而产生激动情绪的语音标注为0。在其他的应用场合,也可以根据不同的情绪识别要求进行特定的标定。
在其他实施方式中,当用户情绪激动被标注被1时,需要调整语音机器人对话策略。调整的语音机器人对话策略包括但不限于调整语速,调整语调,调整话术等。从而平复用户的情绪,避免用户情绪过于激动,进而导致投诉情况的发生。
需要说明的是,所述情绪判断模型的输入图像可以一个语音波形图片断图像,也可以是连续的多个语音波形图片断图像。更多的输入图像可能能够提高模型识别的准确性,但同时也会增加处理的时间,因此在实际应用中需要进行适当的选择。
如图5所示,本发明的一个实施例中还公开一种基于语音波形图的情绪识别系统500,图5显示的情绪识别系统仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
基于语音波形图的情绪识别系统500,包括存储单元520,用于存储计算机可执行程序;处理单元510,用于读取所述存储单元中的计算机可执行程序,以执行本发明各种实施方式的步骤。
在本实施方式中基于语音波形图的情绪识别系统500还包括,连接不同系统组件(包括存储单元520和处理单元510)的总线530、显示单元540等。
其中,所述存储单元520存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元510执行,使得所述处理单元510执行本发明各种实施方式的步骤。例如,所述处理单元510可以执行如图1所示的步骤。
所述存储单元520可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)5201和/或高速缓存存储单元5202,还可以进一步包括只读存储单元(ROM)5203。所述存储单元520还可以包括具有一组(至少一个)程序模块5205的程序/实用工具5204,这样的程序模块5205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线530可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
基于语音波形图的情绪识别系统500也可以与一个或多个外部设备570(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备570通过输入/输出(I/O)接口550进行与处理单元510进行交互,还可以通过网络适配器560与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)进行。网络适配器560可以通过总线530与基于语音波形图的情绪识别系统500的其它模块通信。应当明白,尽管图中未示出,基于语音波形图的情绪识别系统500中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
图6是本发明的一个计算机可读介质实施例的示意图。如图6所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储单元(RAM)、只读存储单元(ROM)、可擦式可编程只读存储单元(EPROM或闪存)、光纤、便携式紧凑盘只读存储单元(CD-ROM)、光存储单元件、磁存储单元件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:
S1、实时接收用户的语音输入;
S2、对所述语音输入进行连续采样,获得用户的语音波形图;
S3、将所述语音波形图输入情绪判断模型,对用户的情绪进行识别。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理单元或者数字信号处理单元(DSP)等通用数据处理设备来实现本发明的一些或者全部功能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (16)
1.一种基于语音波形图的情绪识别方法,其特征在于,
实时接收用户的语音输入;
对所述语音输入进行连续采样,将语音输入转换为语音的能量值在时间维度的波形图,通过重叠式切分,获得时间上重叠的图像形式的用户的语音波形图;
将所述语音波形图输入情绪判断模型,对用户的情绪进行识别,所述的情绪判断模型是基于图像识别的分类模型。
2.如权利要求1所述的情绪识别方法,其特征在于,所述情绪判断模型由历史用户语音波形图和情绪标定值数据训练而成。
3.如权利要求1所述的情绪识别方法,其特征在于,所述语音波形图是由语音的能量值在时间维度的图形展示。
4.如权利要求1所述的情绪识别方法,其特征在于,所述语音波形图是由语音的能量值在频率维度的图形展示。
5.如权利要求3或4所述的情绪识别方法,其特征在于,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上连续的语音波形图。
6.如权利要求3或4所述的情绪识别方法,其特征在于,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上重叠的语音波形图。
7.如权利要求1所述的情绪识别方法,其特征在于,所述的情绪标定值是用于标定用户是否存在特定情绪。
8.一种基于语音波形图的情绪识别装置,其特征在于,
语音接收模块,用于实时接收用户的语音输入;
连续采样模块,用于对所述语音输入进行连续采样,将语音输入转换为语音的能量值在时间维度的波形图,通过重叠式切分,获得时间上重叠的用户的语音波形图;将所述语音波形图转化为图像;
情绪识别模块,用于将所述语音波形图的图像输入情绪判断模型,对用户的情绪进行识别,所述的情绪判断模型是基于图像识别的分类模型。
9.如权利要求8所述的情绪识别装置,其特征在于,所述情绪判断模型由历史用户语音波形图和情绪标定值数据训练而成。
10.如权利要求8所述的情绪识别装置,其特征在于,所述语音波形图是由语音的能量值在时间维度的图形展示。
11.如权利要求8所述的情绪识别装置,其特征在于,所述语音波形图是由语音的能量值在频率维度的图形展示。
12.如权利要求10或11所述的情绪识别装置,其特征在于,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上连续的语音波形图。
13.如权利要求10或11所述的情绪识别装置,其特征在于,所述语音波形图是在预定时间窗口内产生的语音输入获得的,用户的语音输入产生在时间上重叠的语音波形图。
14.如权利要求8所述的情绪识别装置,其特征在于,所述的情绪标定值是用于标定用户是否存在特定情绪。
15.一种基于语音波形图的情绪识别系统,其特征在于,包括:
存储单元,用于存储计算机可执行程序;
处理单元,用于读取所述存储单元中的计算机可执行程序,以执行权利要求1至7中任一项所述的基于语音波形图的情绪识别方法。
16.一种计算机可读介质,用于存储计算机可读程序,其特征在于,所述计算机可读程序用于执行权利要求1至7中任一项所述的基于语音波形图的情绪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910941959.8A CN110619894B (zh) | 2019-09-30 | 2019-09-30 | 基于语音波形图的情绪识别方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910941959.8A CN110619894B (zh) | 2019-09-30 | 2019-09-30 | 基于语音波形图的情绪识别方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110619894A CN110619894A (zh) | 2019-12-27 |
CN110619894B true CN110619894B (zh) | 2023-06-27 |
Family
ID=68925187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910941959.8A Active CN110619894B (zh) | 2019-09-30 | 2019-09-30 | 基于语音波形图的情绪识别方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110619894B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111432161B (zh) * | 2020-04-29 | 2022-02-01 | 随锐科技集团股份有限公司 | 一种音频状态可视化播放和反馈方法、装置及终端 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102099853A (zh) * | 2009-03-16 | 2011-06-15 | 富士通株式会社 | 用于识别语音情感变化的设备和方法 |
CN102208186A (zh) * | 2011-05-16 | 2011-10-05 | 南宁向明信息科技有限责任公司 | 汉语语音识别方法 |
KR101480668B1 (ko) * | 2014-03-21 | 2015-01-26 | 충남대학교산학협력단 | 음성을 이용한 감정 인식 어플리케이션이 구비된 단말기 및 그 제어방법 |
KR20160116586A (ko) * | 2015-03-30 | 2016-10-10 | 한국전자통신연구원 | 사용자 감정 인식 방법 및 장치 |
CN108962255A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 语音会话的情绪识别方法、装置、服务器和存储介质 |
-
2019
- 2019-09-30 CN CN201910941959.8A patent/CN110619894B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102099853A (zh) * | 2009-03-16 | 2011-06-15 | 富士通株式会社 | 用于识别语音情感变化的设备和方法 |
CN102208186A (zh) * | 2011-05-16 | 2011-10-05 | 南宁向明信息科技有限责任公司 | 汉语语音识别方法 |
KR101480668B1 (ko) * | 2014-03-21 | 2015-01-26 | 충남대학교산학협력단 | 음성을 이용한 감정 인식 어플리케이션이 구비된 단말기 및 그 제어방법 |
KR20160116586A (ko) * | 2015-03-30 | 2016-10-10 | 한국전자통신연구원 | 사용자 감정 인식 방법 및 장치 |
CN108962255A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 语音会话的情绪识别方法、装置、服务器和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110619894A (zh) | 2019-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108962255B (zh) | 语音会话的情绪识别方法、装置、服务器和存储介质 | |
CN110648691B (zh) | 基于语音的能量值的情绪识别方法、装置和系统 | |
Eyben | Real-time speech and music classification by large audio feature space extraction | |
EP2387031B1 (en) | Methods and systems for grammar fitness evaluation as speech recognition error predictor | |
CN101930735B (zh) | 语音情感识别设备和进行语音情感识别的方法 | |
US20180366107A1 (en) | Method and device for training acoustic model, computer device and storage medium | |
CN110706690A (zh) | 语音识别方法及其装置 | |
CN105474311A (zh) | 基于听觉场景分析及语音模型化的语音信号分离及合成 | |
CN112101045B (zh) | 一种多模态语义完整性识别方法、装置及电子设备 | |
CN111901627B (zh) | 视频处理方法、装置、存储介质及电子设备 | |
US11810546B2 (en) | Sample generation method and apparatus | |
CN114330371A (zh) | 基于提示学习的会话意图识别方法、装置和电子设备 | |
CN113129867A (zh) | 语音识别模型的训练方法、语音识别方法、装置和设备 | |
CN110782916B (zh) | 一种多模态的投诉识别方法、装置和系统 | |
CN110619894B (zh) | 基于语音波形图的情绪识别方法、装置和系统 | |
Grewal et al. | Isolated word recognition system for English language | |
CN116580698A (zh) | 基于人工智能的语音合成方法、装置、计算机设备及介质 | |
CN112101046B (zh) | 一种基于通话行为的会话分析方法、装置和系统 | |
CN112017668B (zh) | 一种基于实时情感检测的智能语音对话方法、装置和系统 | |
US11250853B2 (en) | Sarcasm-sensitive spoken dialog system | |
CN113763992A (zh) | 语音测评方法、装置、计算机设备和存储介质 | |
CN113781996A (zh) | 一种语音合成模型训练方法、装置及电子设备 | |
Narain et al. | Impact of emotions to analyze gender through speech | |
JP2020134719A (ja) | 翻訳装置、翻訳方法、および翻訳プログラム | |
CN117275458B (zh) | 智能客服的语音生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |