CN110288974B - 基于语音的情绪识别方法及装置 - Google Patents
基于语音的情绪识别方法及装置 Download PDFInfo
- Publication number
- CN110288974B CN110288974B CN201810227173.5A CN201810227173A CN110288974B CN 110288974 B CN110288974 B CN 110288974B CN 201810227173 A CN201810227173 A CN 201810227173A CN 110288974 B CN110288974 B CN 110288974B
- Authority
- CN
- China
- Prior art keywords
- feature
- features
- audio
- speech
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008451 emotion Effects 0.000 claims abstract description 41
- 238000013528 artificial neural network Methods 0.000 claims description 63
- 238000013178 mathematical model Methods 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 38
- 238000013527 convolutional neural network Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 26
- 230000003068 static effect Effects 0.000 claims description 20
- 230000007246 mechanism Effects 0.000 claims description 16
- 125000004122 cyclic group Chemical group 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 9
- 238000001228 spectrum Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 230000036651 mood Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000037433 frameshift Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
一种基于语音的情绪识别方法和装置,其中基于语音的情绪识别方法包括:从语音数据提取具有时间顺序的n个音频特征;基于n个音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征;以及基于n个识别特征,确定所述语音的情绪,其中,n为大于1的自然数。
Description
技术领域
本公开涉及电子技术领域,更具体地,涉及一种基于语音的情绪识别方法及装置。
背景技术
语音是人的发音器官发出的具有一定社会意义的声音,人们通过语音进行交流,传达自己的想法和情绪。而情绪能够在一定程度上反映出说话人的状态信息,因此,基于语音的情绪识别能够在例如电话服务、测谎和安检等多个领域起到关键作用。
在实现本发明构思的过程中,发明人发现现有技术中至少存在如下问题:传统的情绪识别方法在进行特征提取时,需要依赖于高层次的特征提取和组合,且在特征提取过程中会丢失部分的原始数字音频信息,例如丢失语音数据中多个语音段之间的关联关系或特征提取不准确,导致最终的情绪识别准确率出现瓶颈。
发明内容
有鉴于此,本公开提供了一种基于语音的情绪识别方法及装置。
本公开的一个方面提供了一种基于语音的情绪识别方法,包括:从语音数据提取具有时间顺序的n个音频特征;基于n个音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征;以及基于n个识别特征,确定所述语音的情绪,其中,n为大于1的自然数。
根据本公开的实施例,上述从语音数据提取具有时间顺序的n个音频特征包括:将语音数据分为具有时间顺序的m个语音段;以及从具有时间顺序的m个语音段提取具有时间顺序的n个音频特征,m为大于1的自然数,且m≥n。
根据本公开的实施例,每个音频特征包括:采用静态数学模型,自m个语音段的至少一个语音段提取的第一特征;以及采用动态数学模型,自m个语音段的至少一个语音段提取的第二特征。其中,该动态数学模型基于卷积神经网络建立,n个音频特征分别自不同语音段提取,每个音频特征包括的第一特征与第二特征自相同语音段提取。
根据本公开的实施例,上述基于n个识别特征,确定语音的情绪包括:基于预设的注意力机制,将n个识别特征根据权重组合得到参考特征,该预设的注意力机制规定有所述权重;以及基于所述参考特征,确定所述语音的情绪。
根据本公开的实施例,采用循环神经网络依次提取得到上述n个识别特征。
根据本公开的实施例,采用深度神经网络确定所述语音的情绪。
本公开的另一个方面提供了一种基于语音的情绪识别装置,包括:音频特征提取模块,从语音数据提取具有时间顺序的n个音频特征;识别特征提取模块,基于n个音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征;以及情绪识别模块,基于n个识别特征,确定所述语音的情绪,其中,n为大于1的自然数。
根据本公开的实施例,上述音频特征提取模块包括语音数据处理单元和提取单元。其中,语音数据处理单元用于将所述语音数据分为具有时间顺序的m个语音段;提取单元用于从具有时间顺序的m个语音段提取具有时间顺序的n个音频特征,m为大于1的自然数,且m≥n。
根据本公开的实施例,上述每个音频特征包括:采用静态数学模型,自m个语音段的至少一个语音段提取的第一特征;以及采用动态数学模型,自m个语音段的至少一个语音段提取的第二特征,其中,动态数学模型基于卷积神经网络建立,n个音频特征分别自不同语音段提取,每个音频特征的第一特征与第二特征自相同语音段提取。
根据本公开的实施例,上述情绪识别模块包括识别特征组合单元和识别单元,其中,识别特征组合单元用于基于预设的注意力机制,将n个识别特征根据权重组合得到参考特征,该预设的注意力机制规定有所述权重;识别单元用于基于参考特征,确定语音的情绪。
根据本公开的实施例,上述识别特征提取模块采用循环神经网络依次提取得到n个识别特征。
根据本公开的实施例,上述情绪识别模块采用深度神经网络确定语音的情绪。
本公开的另一个方面提供了一种基于语音的情绪识别装置,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行上述的基于语音的情绪识别方法。
本公开的另一个方面提供了一种计算机可读介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述的基于语音的情绪识别方法。
根据本公开的实施例,可以至少部分的解决现有技术中特征提取时丢失部分的原始数字音频信息的问题,并因此提高语音情绪识别的准确性,使得语音情绪识别在电话服务、测谎和安检等多个领域起到关键作用。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的基于语音的情绪识别方法和装置的应用场景图;
图2A~图2C示意性示出了根据本公开实施例的基于语音的情绪识别方法的流程图;
图3示意性示出了根据本公开实施例的卷积神经网络的结构示意图;
图4示意性示出了根据本公开实施例的长短时记忆网络的结构示意图;
图5示意性示出了根据本公开实施例的深度神经网络的结构示意图;
图6A~图6C示意性示出了根据本公开实施例的基于语音的情绪识别装置的框图;
图7示意性示出了根据本公开实施例的适于实现基于语音的情绪识别装置的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。这里使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
本公开的实施例提供了一种基于语音的情绪识别方法和装置。该方法包括:从语音数据提取具有时间顺序的n个音频特征;基于n个音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征;以及基于n个识别特征,确定所述语音的情绪,其中,n为大于1的自然数。
图1示意性示出了根据本公开实施例的基于语音的情绪识别方法和装置的应用场景图。需要注意的是,图1所示仅为可以应用本公开实施例的应用场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103自带有麦克风,还可以外接麦克风,或外接其他终端设备,以通过外接麦克风或外接终端设备接收音频数据,或者该终端设备101、102、103还可以预先存储有音频文件,以基于该音频文件得到语音数据,从而进行情绪识别。终端设备101、102、103包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
根据语音数据进行情绪识别例如可通过传统的模式进行识别,首先需要以帧(由语音数据分成的单个语音段)为单位采用静态数学模型提取语音数据的相关特征(例如MFCC、音频能量、过零率等特征),然后以该提取的特征作为网络模型(经由经典的机器学习方法训练好的,例如SVM模型或LR模型)的输入确定该语音的情绪。但是,此种方法无法处理长度不固定的特征,因此,在对音频文件进行预处理得到语音数据时,需要将音频文件处理为同等长度的文件,较长的需要裁减掉、较短的需要再尾部补零,因此,不可避免的会导致部分原始音频信息的丢失,且该训练好的网络模型应用于不同场景时,结果会很不靠谱。
根据语音数据进行情绪识别例如还可采用神经网络进行,该方法具有更强的抽象能力,可以直接以原语音数据或原语音数据经由傅里叶变换得到的声谱特征作为原始输入,而不需要再事先采用静态数学模型进行MFCC等特征的提取,特别是在训练数据较充分的情况下,神经网络方法可以表现出比传统网络模型更好的性能。但在进行情绪识别时,通常仅采用单一的卷积神经网络、循环神经网络或深度神经网络。由于音频文件是随时间展开的序列数据,上下文是相关联的,因此虽然卷积神经网络的优势在于更强的特征提取能力,但对于上下文相关联的序列信息的处理能力较弱;而循环神经网络虽然在处理序列数据上有优势,可以学到上下文相关联的信息,但其特征提取能力远不如卷积神经网络;深度神经网络则仅擅长于基于特征进行分类。因此,现有技术中采用单一神经网络进行语音情绪识别时,不可避免的具有局限性。
本公开实施例在特征提取时,先采用卷积神经网络对语音数据分成的多个语音段进行音频特征的逐个提取,并将提取得到的多个音频特征依次作为循环神经网络的输入,基于每一个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,输出与该每一个音频特征相对应的识别特征,则该识别特征为综合卷积神经网络与循环神经网络得到的,该识别特征的准确率高,且综合考虑了语音的长时相关性,因此基于该识别特征进行情绪分类时,分类结果更准确。
需要说明的是,本公开实施例所提供的基于语音的情绪识别方法一般可以由终端设备101、102、103或服务器105执行。相应地,本公开实施例所提供的基于语音的情绪识别装置一般可以设置于终端设备101、102、103中或服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2A~图2C示意性示出了根据本公开实施例的基于语音的情绪识别方法的流程图。
如图2A所示,该方法包括操作S210~操作S230。
在操作S210,从语音数据提取具有时间顺序的n个音频特征。其中,n为大于1的自然数。
根据本公开的实施例,所述语音数据可以是预先存储的,也可以是通过麦克风或终端设备等音频设备实时获取的。由于人们在进行交流时,个人情绪会体现在语音中,这是由于语音的声调、频谱、语速等特征会根据个人情绪不同而不同,因此,通过自语音数据中提取此些音频特征,可以一定程度上反应出该说话人的情绪。
如图2B所示,该操作S210可包括操作S211和操作S212。
在操作S211,将所述语音数据分为具有时间顺序的m个语音段。
原始语音文件解析后即为随时间展开的序列语音数据,在对该语音数据进行提取时,由于语音数据为短时平稳信号,所以需要按时间顺序将语音数据进行分段处理,以便将每一个语音段当成平稳信号处理。
根据本公开的实施例,为了减少时间上相邻的语音段之间的变化,相邻的语音段之间需要取重叠,例如每一语音段的长度例如可以为20ms~30ms,则帧移可以取该语音段长度的25%~50%,以代表相邻两个语音段之间的时间间隔。例如,若每一语音段的长度取25ms,帧移取10ms,则相邻两个语音段之间的重叠率为60%。
在操作S212,从具有时间顺序的m个语音段提取具有时间顺序的n个音频特征。其中,m为大于1的自然数,且m≥n。
根据本公开的实施例,该n个音频特征的每一个可以是经由卷积神经网络提取得到的,该卷积神经网络的输入可以直接为该m个语音段,也可以为该m个语音段经由短时傅里叶变换后得到的对应于每一个语音段的声谱特征,若每一个语音段的长度取25ms,则该声谱特征为257维的向量。
根据本公开的实施例,该m个语音段依次经由卷积神经网络提取特征,在提取时,该卷积神经网络输入一个语音段,可对应的输出一个音频特征;也可输入两个或多个语音段,对应的输出一个音频特征,自该m个语音段提取得到的音频特征个数取决于该卷积神经网络的训练规则。
根据本公开的实施例,该n个音频特征的每一个还可以包括:经由静态数学模型,自m个语音段的至少一个语音段提取的第一特征;以及采用动态数学模型,自m个所述语音段的至少一个语音段提取的第二特征。其中,n个音频特征分别自不同语音段提取,且每个音频特征包括的第一特征与第二特征自相同语音段提取。
根据本公开的实施例,上述的静态数学模型为现有技术中语音识别中常用的不具有可变参量的数学模型,用于自该m个语音段中提取例如MFCC(Mel频率倒谱系数)、音频能量及过零率等特征。静态数学模型例如可以是倒谱模型,具体为对该m个语音段进行傅里叶变换后经对数运算后再进行逆傅里叶变换。可以理解的是,以上静态数学模型的具体类型及提取到的具体特征仅作为示例以用于理解本公开,本公开实施例不对其进行限定。
根据本公开的实施例,上述的动态数学模型为基于卷积神经网络建立的,该卷积神经网络由大量的训练数据训练得到,具体地,该卷积神经网络例如可以具有多个卷积组,每个卷积组包括一个卷积层和一个池化层,该m个语音段或该m个语音段经由短时傅里叶变换后得到的对应于每一个语音段的声谱特征经由该多个卷积组逐层提取特征,其中,卷积层进行卷积处理的各个权值在该卷积神经网络对输入数据做处理的过程中逐渐优化,与该卷积层紧连的池化层则用于对该卷积层的输出进行降维处理。
图3示意性示出了根据本公开实施例的卷积神经网络的结构示意图。
如图3所示,针对257维向量的声谱特征,上述卷积神经网络可包括两个卷积组,其中,第一卷积组中卷积层的卷积核大小为5*5,特征图的个数为3,池化层的尺寸为2*2,则,该257维的声谱特征经由该第一卷积组中的池化层后维度减半;第二卷积组中卷积层的卷积核大小同样为5*5,特征图的个数为6,池化层的尺寸为2*2,则该第一卷积组中池化层输出的129维的数据经由该第二卷积组中的池化层后维度减半,最终得到6*65*65的第二特征表示。可以理解的是,上述卷积神经网络的结构仅作为示例以用于理解本公开,本公开并不对卷积组的数量、每个卷积层的特征图个数、大小及池化层的尺寸进行限定,本领域技术人员可根据实际需求进行的设定。
根据本公开的实施例,所述音频特征可以是静态数学模型提取的第一特征与动态数学模型提取的第二特征拼接形成的,则,由于不同的数学模型提取的特征具有不同的倾向性,例如第一特征更便于识别语音段的性别特征,而第二特征更便于识别语音段的声调特征等,则通过该两种方式提取得到的特征拼接形成的音频特征,能够更加全面的反应语音段的特征。
根据本公开的实施例,采用该动态数学模型作为所述静态数学模型的补充进行特征提取,其提取的第二特征可能包括第一特征、或包括第一特征的部分特征、或者不包括第一特征。从而避免了现有技术中仅采用静态数学模型提取特征时,对于不同的应用场景,需要通过多次试验,对静态数学模型进行多次修正的耗时费力的工作,使得本公开实施例的提取音频特征的方法针对不同的任务具有更强的泛化能力;且该静态数学模型与动态数学模型互相作为补充,能够进一步的准确提取音频特征,从而使得情绪识别结果更加准确。
在参考图2A中的操作S220中,基于n个所述音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征。
根据本公开的实施例,该n个识别特征为采用循环神经网络依次提取得到的,具体地,先以第1个音频特征作为神经网络的输入,输出第1个识别特征;然后以该第1个识别特征及第2个音频特征作为神经网络的输入,输出第2个识别特征,以此类推,循环得到所述n个识别特征,则得到的第i个识别特征是基于第i个音频特征及在时间顺序上位于该第i个音频特征之前的其他音频特征得到的。
由于该n个识别特征是基于循环神经网络得到的,则该识别特征是考虑到了前后语音段的关联性而提取的,因此,能够进一步提高特征提取的准确率,从而利于后续情绪识别分类时准确率的提高;再者,该音频特征是经由卷积神经网络提取得到的,该音频特征相较于传统模式提取的特征,该音频特征具有更小的频域变化,自适应更强,作为该循环神经网络的输入,能够提高循环神经网络的性能。
图4示意性示出了根据本公开实施例的长短时记忆网络的结构示意图。
根据本公开的实施例,上述循环神经网络可以为如图4所示的长短时记忆网络(Long Short-Term Memory,LSTM),该长短时记忆网络的链式形式可理解为包括多个LSTM单元,该LSTM单元的个数与音频特征的个数相同。
如图4所示,每个LSTM单元包括“输入门”、“遗忘门”、“记忆门”及“输出门”。
其中,“输入门”用于输入第i个音频特征,及经由前一LSTM输出的第i-1个识别特征。
上述经由“输入门”输入的第i个音频特征及第i-1个识别特征经由“遗忘门”的sigmoid神经网络层后被额外赋予0-1之间的数值,以表示其通过量,其中0代表“不允许任何量通过”,1代表“允许任意量通过”。由于音频特征与识别特征均可由多维向量表示,则该多维向量中的每一维均被赋予额外数值0-1,且该多维向量的不同维被赋予的额外数值可能不同。则通过该“遗忘门”的sigmoid神经网络层,可过滤得到需要被丢弃的信息,该需要被丢弃的信息传递到“遗忘门”以被丢弃,其中,该被丢弃的信息为输入特征中根据当前处理被认为无用的无效特征。
上述经由“输入门”输入的第i个音频特征及第i-1个识别特征经由“记忆门”的sigmoid神经网络层后被额外赋予0-1之间的数值,同样代表其通过量,同时,该输入的第i个音频特征及第i-1个识别特征还经由“记忆门”的tanh层创建一个新的候选值向量,该候选值向量与经由sigmoid神经网络层后被允许通过的特征部分经由乘法门处理后作为新的待记忆特征i,该新的待记忆特征i与上一LSTM单元的记忆门记忆的第i-1个记忆特征经由加法门处理得到第i个记忆特征,并经由记忆门记忆。其中,上述第i个记忆特征即为输入特征中根据当前处理被认为需要保留的有效特征。
上述经由“输入门”输入的第i个音频特征及第i-1个识别特征经由“输出门”的sigmoid神经网络层后被额外赋予0-1之间的数值,同样代表其通过量,该经由sigmoid神经网络层后被允许通过的特征部分与所述第i个记忆特征经由“输出门”的tanh层通过乘法门处理后得到第i个识别特征,以通过“输出门”输出,该输出的第i个识别特征作为下一LSTM单元的输入,同时还可直接输出。其中,该第i个识别特征即为输入特征中根据当前处理被认为的关键特征。
可以理解的是,上述sigmoid神经网络层与tanh层分别采用sigmoid激活函数与tanh激活函数对特征进行处理。其中,经由sigmoid激活函数处理后输出的特征能够用于更细微的分类判断,而经由tanh激活函数处理后输出的特征能够用于相差明显的分类判断;该些激活函数中的各参数为经由预训练得到的,且在处理过程中,该些参数能够逐次优化,以趋向于最优。
上述LSTM单元输出的识别特征由于为经由sigmoid激活函数处理后的特征与经由tanh激活函数处理后的特征相乘得到的,该识别特征相较于传统模式提取的特征,更够更加全面准确的反映原语音数据的特征,从而便于提高情绪识别时分类的准确性。
在参考图2A中的操作S230中,基于n个所述识别特征,确定所述语音的情绪。
根据本公开的实施例,上述确定语音的情绪可通过预训练好的深度神经网络进行。
根据本公开的实施例,该深度神经网络的输入可以为n个识别特征,深度神经网络根据该n个识别特征及其预先设置的情绪种类(例如包括高兴、悲伤、平静和生气等种类),输出该n个识别特征代表的语音属于每一类情绪的概率,从而根据该概率确定该语音的情绪。此种情况下,由于输入为n个识别特征,因此,识别结果较准确,但考虑到该n个识别特征同时输入深度神经网络,相当于输入的为高维数据,深度神经网络需要对该高维输入数据进行计算,因此计算负担较大。
根据本公开的实施例,当该n个识别特征为经由循环神经网络处理得到时,还可以仅根据循环神经网络在时间顺序上最后输出的识别特征进行语音情绪的确定。此种情况下,虽然深度神经网络的计算负担较小,但对语音情绪的分类识别比较依赖于识别特征的质量,对于复杂的分类任务,分类结果表现较差。
为了避免上述情况,根据本公开的实施例,如图2C所示,参考图2A中的操作S230例如可包括操作S231~S232。
在操作S231,基于预设的注意力机制,将n个所述识别特征根据权重组合得到参考特征。其中,该预设的注意力机制规定有所述权重。
其中,注意力机制用于“去伪存真”,通过结构化的选取输入的特征,使得任务处理中更专注于找到输入的特征数据中显著的与当前需求相关的有用信息。
对于本公开,该注意力机制能够根据n个识别特征及该n个识别特征时序上的结构关系,为每个识别特征分配不同的权重,例如,对于情绪识别起到关键作用的识别特征则分配较大的权重,对于情绪识别所起作用不大的识别特征则分配较小的权重,以组合得到参考特征。
在操作S232,基于所述参考特征,确定所述语音的情绪。
根据本公开的实施例,采用深度神经网络进行语音情绪的识别确定时,以上述通过注意力机制得到的参考特征作为输入,相较于以n个识别特征作为输入的情况,输入数据的维度明显减小,因此能够减小深度神经网络的计算负担;相较于以循环神经网络在时间顺序上最后输出的识别特征作为输入的情况,由于输入的参考特征质量高,因此能够提升最终的情绪分类准确率。
图5示意性示出了根据本公开实施例的深度神经网络的结构示意图。
根据本公开的实施例,如图5所示,上述的深度神经网络包括输入层、隐藏层及输出层,上述参考特征输入该深度神经网络的输入层,通过隐藏层对该参考特征进行识别处理,该隐藏层例如可使用softmax函数对该参考特征所属的情绪类别进行分类预测,并通过输出层输出所述语音属于每一类情感的概率,其中,该输出层的节点个数等于分类的类别个数。
根据本公开的实施例,上述基于语音的情绪识别方法例如可结合卷积神经网络、循环神经网络和深度神经网络(即CLDNN)进行情绪识别,其中,卷积神经网络的输入为原语音数据经由短时傅里叶变换得到的声谱特征,输出为音频特征;循环神经网络的输入为音频特征,用于对具有时间顺序的音频特征进行序列化建模,输出为识别特征;深度神经网络的输入为识别特征,用于根据该识别特征确定语音的情绪,输出为该语音的情绪属于每个情绪分类的几率。则本公开实施例的情绪识别方法,由于结合了卷积神经网络、循环神经网络和深度神经网络三者的优点,因此能够构建出更加适合应用于语音情绪识别场景的CLDNN分类模型。
根据本公开的实施例,在循环神经网络与深度神经网络经由预设的注意力机制网络连接,以对n个识别特征依据权重组合得到参考特征,则该参考特征为深度神经网络的输入。
根据本公开的实施例,在对上述的CLDNN分类模型进行训练时,由于每个人对语音中情感色彩的判断结果可能不一致,因此在对神经网络的输出结果进行人工标注时,应该由多个不同类型的人对同一段音频给出自己的判断结果,再由多个判断结果中选出最有可能性的一类结果作为数据的标签,以使神经网络根据该标签对其各参数进行自适应的调整。
图6A~图6C示意性示出了根据本公开实施例的基于语音的情绪识别装置的框图。
如图6A所示,该装置600包括音频特征提取模块610、识别特征提取模块620及情绪识别模块630。
音频特征提取模块610,从语音数据提取具有时间顺序的n个音频特征,其中,n为大于1的自然数。根据本公开的实施例,音频特征提取模块610例如可以执行上文参考图2A描述的操作S210,在此不再赘述。
根据本公开的实施例,如图6B所示,音频特征提取模块610包括语音数据处理单元611和提取单元612,其中,语音数据处理单元611用于将所述语音数据分为具有时间顺序的m个语音段,其中,m为大于1的自然数,且m≥n;提取单元612用于从具有时间顺序的m个语音段提取具有时间顺序的n个所述音频特征。根据本公开的实施例,语音数据处理单元611例如可以执行上文参考图2B描述的操作S211,提取单元612例如可以执行上文参考图2B描述的操作S212,在此不再赘述。
根据本公开的实施例,上述n个音频特征中的每个音频特征包括:采用静态数学模型,自m个所述语音段的至少一个语音段提取的第一特征;以及采用动态数学模型,自m个所述语音段的至少一个语音段提取的第二特征。其中,动态数学模型基于卷积神经网络建立,n个音频特征分别自不同语音段提取,每个音频特征包括的第一特征与第二特征自相同语音段提取。
识别特征提取模块620,基于n个音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征。根据本公开的实施例,识别特征提取模块620例如可以执行上文参考图2A描述的操作S220,在此不再赘述。
根据本公开实施例,识别特征提取模块620采用循环神经网络依次提取得到n个识别特征,具体例如可采用长短时记忆网络依次提取得到该n个识别特征。
情绪识别模块630,基于n个识别特征,确定所述语音的情绪。根据本公开的实施例,情绪识别模块630例如可以执行上文参考图2A描述的操作S230,在此不再赘述。
根据本公开的实施例,如图6C所示,情绪识别模块630可包括识别特征组合单元631和识别单元632。其中,识别特征组合单元631用于基于预设的注意力机制,将n个所述识别特征根据权重组合得到参考特征,所述预设的注意力机制规定有所述权重;识别单元632用于基于参考特征,确定所述语音的情绪。根据本公开的实施例,识别特征组合单元631例如可以执行上文参考图2C描述的操作S231,识别单元632例如可以执行上文参考图2C描述的操作S232,在此不再赘述。
根据本公开的实施例,情绪识别模块630采用深度神经网络确定语音的情绪,具体为情绪识别模块630中的识别单元632采用深度神经网络确定语音的情绪。
可以理解的是,音频特征提取模块610、识别特征提取模块620、情绪识别模块630、语音数据处理单元611、提取单元612、识别特征组合单元631以及识别单元632可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,音频特征提取模块610、识别特征提取模块620、情绪识别模块630、语音数据处理单元611、提取单元612、识别特征组合单元631以及识别单元632中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以以对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式的适当组合来实现。或者,音频特征提取模块610、识别特征提取模块620、情绪识别模块630、语音数据处理单元611、提取单元612、识别特征组合单元631以及识别单元632的至少一个可以至少被部分地实现为计算机程序模块,当该程序被计算机运行时,可以执行相应模块的功能。
图7示意性示出了根据本公开实施例的适于实现基于语音的情绪识别装置的方框图。图7示出的计算机系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,根据本公开实施例的计算机系统700包括处理器701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。处理器701例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器701还可以包括用于缓存用途的板载处理器。处理器701可以包括用于执行参考图2A~图2C描述的根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 703中,存储有系统700操作所需的各种程序和数据。处理器701、ROM 702以及RAM 703通过总线704彼此相连。处理器701通过执行ROM 702和/或RAM 703中的程序来执行以上参考图2A~图2C描述的基于语音的情绪识别方法的各种操作。需要注意,所述程序也可以存储在除ROM 702和RAM 703以外的一个或多个存储器中。处理器701也可以通过执行存储在所述一个或多个存储器中的程序来执行以上参考图2A~图2C描述的基于语音的情绪识别方法的各种操作。
根据本公开的实施例,系统700还可以包括输入/输出(I/O)接口705,输入/输出(I/O)接口705也连接至总线704。系统700还可以包括连接至I/O接口705的以下部件中的一项或多项:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
根据本公开的实施例,上文参考流程图描述的方法可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被处理器701执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。根据本公开的实施例,计算机可读介质可以包括上文描述的ROM 702和/或RAM 703和/或ROM 702和RAM 703以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备执行参考图2A~参考图2C描述的基于语音的情绪识别方法。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (10)
1.一种基于语音的情绪识别方法,包括:
从语音数据提取具有时间顺序的n个音频特征;
基于n个所述音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征,其中,所述n个识别特征是采用循环神经网络依次提取得到的;以及
基于n个所述识别特征,确定所述语音的情绪,其中,n为大于1的自然数;
其中,从语音数据提取具有时间顺序的n个音频特征包括:
将所述语音数据分为具有时间顺序的m个语音段;以及
从具有时间顺序的m个语音段提取具有时间顺序的n个所述音频特征,m为大于1的自然数,且m≥n,其中,每个所述音频特征是静态数学模型提取的第一特征与动态数学模型提取的第二特征拼接形成的,所述静态数学模型为不具有可变参量的数学模型,所述动态数学模型基于卷积神经网络建立,n个所述音频特征分别自不同语音段提取,每个所述音频特征包括的所述第一特征与所述第二特征自相同语音段提取。
2. 根据权利要求1所述的方法,其中,每个所述音频特征包括:
采用所述静态数学模型,自m个所述语音段的至少一个语音段提取的所述第一特征;以及
采用所述动态数学模型,自m个所述语音段的至少一个语音段提取的所述第二特征。
3. 根据权利要求1所述的方法,其中,基于n个所述识别特征,确定所述语音的情绪包括:
基于预设的注意力机制,将n个所述识别特征根据权重组合得到参考特征,所述预设的注意力机制规定有所述权重;以及
基于所述参考特征,确定所述语音的情绪。
4.根据权利要求1~3中任一项所述的方法,其中,采用深度神经网络确定所述语音的情绪。
5.一种基于语音的情绪识别装置,包括:
音频特征提取模块,从语音数据提取具有时间顺序的n个音频特征,其中,每个所述音频特征是静态数学模型提取的第一特征与动态数学模型提取的第二特征拼接形成的;
识别特征提取模块,基于n个所述音频特征中的每个音频特征及在时间顺序上位于该音频特征之前的其他音频特征,获得n个识别特征,其中,所述n个识别特征是采用循环神经网络依次提取得到的;以及
情绪识别模块,基于n个所述识别特征,确定所述语音的情绪,其中,n为大于1的自然数;
其中,所述音频特征提取模块包括:
语音数据处理单元,将所述语音数据分为具有时间顺序的m个语音段;以及
提取单元,从具有时间顺序的m个语音段提取具有时间顺序的n个所述音频特征,m为大于1的自然数,且m≥n,所述静态数学模型为不具有可变参量的数学模型,所述动态数学模型基于卷积神经网络建立,n个所述音频特征分别自不同语音段提取,每个所述音频特征包括的所述第一特征与所述第二特征自相同语音段提取。
6. 根据权利要求5所述的装置,其中,每个所述音频特征包括:
采用所述静态数学模型,自m个所述语音段的至少一个语音段提取的所述第一特征;以及
采用所述动态数学模型,自m个所述语音段的至少一个语音段提取的所述第二特征。
7. 根据权利要求5所述的装置,其中,所述情绪识别模块包括:
识别特征组合单元:基于预设的注意力机制,将n个所述识别特征根据权重组合得到参考特征,所述预设的注意力机制规定有所述权重;以及
识别单元,基于所述参考特征,确定所述语音的情绪。
8.根据权利要求5~7中任一项所述的装置,其中,所述情绪识别模块采用深度神经网络确定所述语音的情绪。
9.一种基于语音的情绪识别装置,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~4任意一项所述的方法。
10.一种计算机可读介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行权利要求1~4任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810227173.5A CN110288974B (zh) | 2018-03-19 | 2018-03-19 | 基于语音的情绪识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810227173.5A CN110288974B (zh) | 2018-03-19 | 2018-03-19 | 基于语音的情绪识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110288974A CN110288974A (zh) | 2019-09-27 |
CN110288974B true CN110288974B (zh) | 2024-04-05 |
Family
ID=68001109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810227173.5A Active CN110288974B (zh) | 2018-03-19 | 2018-03-19 | 基于语音的情绪识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110288974B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429946A (zh) * | 2020-03-03 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、介质及电子设备 |
CN113780546A (zh) * | 2020-05-21 | 2021-12-10 | 华为技术有限公司 | 一种评估女性情绪的方法及相关装置、设备 |
CN112466336B (zh) * | 2020-11-19 | 2023-05-05 | 平安科技(深圳)有限公司 | 基于语音的情绪识别方法、装置、设备及存储介质 |
CN113806586B (zh) * | 2021-11-18 | 2022-03-15 | 腾讯科技(深圳)有限公司 | 数据处理方法、计算机设备以及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6151571A (en) * | 1999-08-31 | 2000-11-21 | Andersen Consulting | System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
CN105513591A (zh) * | 2015-12-21 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 用lstm循环神经网络模型进行语音识别的方法和装置 |
CN106340309A (zh) * | 2016-08-23 | 2017-01-18 | 南京大空翼信息技术有限公司 | 一种基于深度学习的狗叫情感识别方法及装置 |
CN106847309A (zh) * | 2017-01-09 | 2017-06-13 | 华南理工大学 | 一种语音情感识别方法 |
CN107452405A (zh) * | 2017-08-16 | 2017-12-08 | 北京易真学思教育科技有限公司 | 一种根据语音内容进行数据评价的方法及装置 |
CN107731233A (zh) * | 2017-11-03 | 2018-02-23 | 王华锋 | 一种基于rnn的声纹识别方法 |
CN107799165A (zh) * | 2017-09-18 | 2018-03-13 | 华南理工大学 | 一种基于虚拟现实技术的心理评估方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7590538B2 (en) * | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
-
2018
- 2018-03-19 CN CN201810227173.5A patent/CN110288974B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6151571A (en) * | 1999-08-31 | 2000-11-21 | Andersen Consulting | System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
CN105513591A (zh) * | 2015-12-21 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 用lstm循环神经网络模型进行语音识别的方法和装置 |
CN106340309A (zh) * | 2016-08-23 | 2017-01-18 | 南京大空翼信息技术有限公司 | 一种基于深度学习的狗叫情感识别方法及装置 |
CN106847309A (zh) * | 2017-01-09 | 2017-06-13 | 华南理工大学 | 一种语音情感识别方法 |
CN107452405A (zh) * | 2017-08-16 | 2017-12-08 | 北京易真学思教育科技有限公司 | 一种根据语音内容进行数据评价的方法及装置 |
CN107799165A (zh) * | 2017-09-18 | 2018-03-13 | 华南理工大学 | 一种基于虚拟现实技术的心理评估方法 |
CN107731233A (zh) * | 2017-11-03 | 2018-02-23 | 王华锋 | 一种基于rnn的声纹识别方法 |
Non-Patent Citations (1)
Title |
---|
基于卷积神经网络和长短时记忆神经网络的非特定人语音情感识别算法;姚增伟;刘炜煌;王梓豪;刘雅倩;潘家辉;;新型工业化(02);第68-74页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110288974A (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110288974B (zh) | 基于语音的情绪识别方法及装置 | |
US11705096B2 (en) | Autonomous generation of melody | |
US9818409B2 (en) | Context-dependent modeling of phonemes | |
US20220121906A1 (en) | Task-aware neural network architecture search | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
CN110555714A (zh) | 用于输出信息的方法和装置 | |
US20230154467A1 (en) | Sequence-to-sequence speech recognition with latency threshold | |
CN112530408A (zh) | 用于识别语音的方法、装置、电子设备和介质 | |
US11574637B1 (en) | Spoken language understanding models | |
US11741941B2 (en) | Configurable neural speech synthesis | |
CN113160819B (zh) | 用于输出动画的方法、装置、设备、介质和产品 | |
CN111831826A (zh) | 跨领域的文本分类模型的训练方法、分类方法以及装置 | |
CN111444379B (zh) | 音频的特征向量生成方法及音频片段表示模型的训练方法 | |
CN117413262A (zh) | 基于经训练的生成式摘要模型确定用于通信转录的主题标签 | |
Chen et al. | Component tying for mixture model adaptation in personalization of music emotion recognition | |
CN111667069A (zh) | 预训练模型压缩方法、装置和电子设备 | |
CN109101956B (zh) | 用于处理图像的方法和装置 | |
CN108962226B (zh) | 用于检测语音的端点的方法和装置 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
CN110675865B (zh) | 用于训练混合语言识别模型的方法和装置 | |
CN109670111B (zh) | 用于推送信息的方法和装置 | |
CN111090740A (zh) | 一种用于对话系统的知识图谱生成方法 | |
WO2023144386A1 (en) | Generating data items using off-the-shelf guided generative diffusion processes | |
CN111858916A (zh) | 用于聚类句子的方法和装置 | |
CN115640398A (zh) | 评论生成模型训练方法、评论生成方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |