CN108962247A - 基于渐进式神经网络多维语音信息识别系统及其方法 - Google Patents

基于渐进式神经网络多维语音信息识别系统及其方法 Download PDF

Info

Publication number
CN108962247A
CN108962247A CN201810915685.0A CN201810915685A CN108962247A CN 108962247 A CN108962247 A CN 108962247A CN 201810915685 A CN201810915685 A CN 201810915685A CN 108962247 A CN108962247 A CN 108962247A
Authority
CN
China
Prior art keywords
neural network
layer
identification
recognition
gender
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810915685.0A
Other languages
English (en)
Other versions
CN108962247B (zh
Inventor
陈海霞
杨震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201810915685.0A priority Critical patent/CN108962247B/zh
Publication of CN108962247A publication Critical patent/CN108962247A/zh
Application granted granted Critical
Publication of CN108962247B publication Critical patent/CN108962247B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于渐进式神经网络的多维语音信息识别系统及其方法,在基线系统的基础上,引入渐进式神经网络,所述基线系统以i‑vector特征向量作为输入,其包括三个SNN识别模型,分别进行性别识别、情感信息识别和身份信息识别,在性别识别的基础上,渐进式神经网络将性别相关的情感信息识别的SNN识别模型和性别相关的身份信息识别的SNN识别模型结合在一起,信息相互迁移,构建得到识别系统。

Description

基于渐进式神经网络多维语音信息识别系统及其方法
技术领域
本发明属于多维语音信息识别技术领域,具体涉及一种基于渐进式神经网络的多维语音信息识别系统及其方法来识别多种语音信息,具体为性别、情感和说话人身份信息。
背景技术
语音信号是人类之间进行信息传递和交流的主要工具,日常情景下一个说话人的语音往往不但传达语义信息同时也携带了说话者的情绪状态,身份,地理位置,性别等信息。这意味着我们收集的语音信号实际上是一个混合了多种信息的信号。但目前语音识别研究主要集中在识别单一信息,不利于理解语音的真实含义。多维说话人信息的同时识别研究是人机交互的一个迫切任务。然而,当前的研究技术中很少有识别系统能够同时识别说话者的身份,年龄,性别和情感等多维信息。在以前的研究工作中,我们创造性地构建了基于性别相关多维信息识别的基线系统作为多维识别的参考模型,证明了多维信息同时识别的可行性和有效性。然而,这项工作没有充分利用单任务语音信息之间的相关性。
发明内容
本发明根据现有基线系统技术的不足,提出了一种基于渐进式神经网络的多维语音信息识别系统及其方法,将来自其他辅助语音信息识别任务的知识,迁移学习到另一个语音信息识别模型中,进而来增强情感、身份模型的识别性能,实现多维语音信息的识别。
本发明公开了一种基于渐进式神经网络的多维语音信息识别系统,在基线系统的基础上,引入渐进式神经网络,所述基线系统以i-vector特征向量作为输入,利用SNN模型,进行性别、情感、身份多维信息的识别,在性别识别的基础上,渐进式神经网络将性别相关的情感信息识别和性别相关的身份信息识别结合在一起,信息相互迁移,构建得到识别系统。
给定一个说话人语音序列O={ο1,ο2,L,οn},n表示输入的语音特征帧数,提取的i-vector特征向量用φ来表示为:
其中,L为后验方差:
其中,其中I是单位矩阵,T为从训练集中学习得到的变异矩阵,是一个CF×M的矩阵,C是通用背景模型中混合的数量,F是声学特征向量的维数,M 是矢量变量的大小;
Nc是通过对整个语音序列上的帧γc(t)求和,得到的第c个高斯计算的零阶统计量,如下所示:
Fc是关于UBM的以均值μc为中心,以协方差Σc为白化的一阶统计量。
所述渐进式神经网络为单一的多层神经网络模型,第i层隐层的输出为ni是第i层的神经元个数,当切换到神经网络主任务时,前一个神经网络第i-1层的输出hi-1 (1)和当前神经网络i-1层的输出hi-1 (2)同时作为输入,通过横向连接的方式接入到当前神经网络的第i层中,第i层输出为hi (2),第k个神经网络的表达式为:
其中,是第k列的第i层的权重矩阵,是第k列的第i层的偏差系数矩阵,是从第j列的第i-1层到第k列的第i层的横向连接,h0是神经网络的输入特征向量,f(·)是对激励向量进行元素级计算的激活函数。
本发明还公开了一种基于渐进式神经网络的多维语音信息识别方法,包括以下步骤:
S1:对整个语音数据库提取i-vector特征向量,配置神经网络模型参数,隐含层采用激活函数处理,通过前向传播的方式,对特征向量进行预训练,采用梯度下降法反向传播不断对权重参数进行微调,最后获得性别识别的分类结果;
S2:在训练集中,针对整个男性语音样本,在性别识别的基础上,利用渐进式神经网络完成情感识别和身份识别的相互迁移学习,输出男性情感分类标签;针对整个女性语音样本,在性别识别的基础上,利用渐进式神经网络完成情感识别和身份识别的相互迁移学习,输出女性情感分类标签;
S3:整合多维语音识别的结果;
其中,所述S2中,身份识别信息和情感识别相互迁移学习时,把情感识别作为主任务,身份识别作为辅助任务,构造一个用来训练辅助任务的神经网络,固定上一个任务的神经网络的参数,添加一个随机初始化的新模型,作为第二个多层的神经网络,将训练辅助任务的神经网络的每一层通过横向连接的方式接入到第二个多层的神经网络主任务的每一层作为额外输入,使用反向传播学习第二个多层的神经网络的参数,通过soft-max层进行分类得到识别结果。
所述S1中,提取i-vector特征向量,具体实施如下:在梅尔频率倒谱系数特征的基础上,结合高斯混合模型,通过最大后验概率标准对通用背景模型进行训练,同时利用通用背景模型调整每个语句以获得相同比例的另一个高斯混合模型,通过投影到总体子空间矩阵中提取固定长度的i-vector语音特征。
有益效果:本发明与现有技术相比,具有以下优点:本发明在基线系统的基础上,引入i-vector特征向量,使用i-vector特征大大提高了分类和回归问题的准确性,并引用了渐进式神经网络技术(ProgNets),首先通过ProgNets“冻结”源神经网络训练的任务,并使用它们隐含层的中间表示作为新网络的输入来训练当前主任务,这使得ProgNets 能够克服基线系统中SNN传统方法相关的限制,包括一系列关于初始化模型的挑战,通过冻结并保留源任务权重来防止SNN方法中存在的遗忘效应;在本发明中,在性别识别的基础上,利用ProgNets技术将性别相关的情感识别SNN模型和性别相关的身份识别SNN模型结合在一起,在识别某单一语音信息时,能充分利用了其他语音信息识别的相关信息,进而提高识别效率。
附图说明
图1为基线系统框图;
图2为ProgNets技术原理框图;
图3为基于ProgNets多维语音信息识别系统框图;
图4为单维SNN模型、基线系统和ProgNets多维语音信息识别系统比较图;
图5为性别相关的基线系统和ProgNets系统多维语音信息识别对比图。
具体实施方式
下面结合附图和实施例对本发明提出的基于ProgNets的多维语音信息识别方法进行详细的说明:
本实施例中使用的语料库是KSU-Emotions,语料库有两个阶段,本实施例选择第二个阶段进行研究,该语料库使用14名(7名男性和7名女性)演讲者模拟五种情绪(中性,悲伤,快乐,惊讶和愤怒),每种情绪有336个句子,总共有1680个句子,第二阶段语料的语料大小约为2小时21分。
为更好的估计多维说话人信息的识别效果,本实施例采用基于i-vector的自适应方法来提取特征,在梅尔频率倒谱系数(MFCC)特征的基础上,结合高斯混合模型(GMM),并通过最大后验概率标准对通用背景模型(Universal Background Model,UBM)进行训练,同时利用通用背景模型调整每个语句以获得相同比例的另一个高斯混合模型 (GMM),通过投影到总体子空间矩阵中提取固定长度的i-vector语音特征。
给定一个说话人语音序列O={ο1,ο2,L,οn},n表示输入的语音特征帧数,提取的i-vector特征向量用φ来表示为:
式(1)中,L为后验方差:
式(2)中,其中I是单位矩阵,T为从训练集中学习得到的变异矩阵,是一个CF×M的矩阵,C是UBM中混合的数量,F是声学特征向量的维数,M是矢量变量的大小,通过使M比CF小来实现维度的减小;I-vector特征提取器的核心是从训练集中学习得到变异矩阵T;
{Nc,Fc}是基于UBM计算的Baum Welch统计量,Nc是通过对整个序列上的帧γc(t)求和,得到的第c个高斯计算的零阶统计量,如下所示:
Fc是关于UBM的以均值μc为中心,以协方差Σc为白化的一阶统计量。
图1为基线系统模型示意图,引用i-vector特征向量作为基线系统的输入,包含三种SNN模型的soft-max识别器,它们将性别分类器,情感分类器和说话人身份分类器集成并组合到一个系统中,基线系统的具体实现步骤如下:
1-A.通过配置神经网络模型参数,对隐含层采用激活函数处理,通过前向传播的方式,对特征向量进行预训练,采用梯度下降法反向传播不断对权重参数进行微调,最后获得性别识别的分类结果;
1-B.在性别识别的基础上,将语音样本为男性和女性两部分,标签为情感标签和身份标签,选取训练集,通过神经网络模型对性别相关的身份模型进行训练,对性别相关的情感识别模型进行训练;
1-C.在训练阶段,保存性别相关的神经网络情感模型,性别相关的神经网络身份模型;
1-D.在识别阶段,针对测试集中的语音样本,提取特征,输入神经网络中,最后和保存的模型进行比较,根据神经网络最后一层soft-max函数进行语音不同信息的分类,分类结果和情感标签、身份标签进行对比,最终获得识别的结果。最后整理性别识别、情感识别均值、身份识别均值的结果,实现多维语音信息的识别。
图2为ProgNets技术原理框图,ProgNets是由单一的神经网络模型开始的,一个具有L层SNN模型,第i层隐层的输出为其中,ni是第i层的神经元个数。当切换到主神经网络任务的时候,固定住前一个神经网络每层隐层的输出,前一个神经网络第i-1层的输出hi-1 (1)和当前神经网络i-1层的输出hi-1 (2)同时作为输入,通过横向连接的方式接入到当前神经网络的第i层中,第i层输出为hi (2),第k个神经网络的表达式为:
其中,是第k列的第i层的权重矩阵,是第k列的第i层的偏差系数矩阵,是从第j列的第i-1层到第k列的第i层的横向连接,h0是网络的输入特征向量,f(·)是对激励向量进行元素级计算的激活函数,通常情况下,采用 sigmoid函数:
f(x)=1/(1+e-x) (6)
简而言之,为了能使用前一个网络训练的经验,将之前网络的每一层的输出,与当前任务的网络每一层的输出一起输入到下一层。具体实现步骤如下:
2-A.构造一个神经网络,用来训练辅助任务;
2-B.固定上一个任务的神经网络的参数,添加一个随机初始化的新模型,作为第二个多层的神经网络;
2-C.将辅助任务神经网络的每一层都连接到第二个的神经网络主任务的每一层作为额外输入,神经网络主任务每一层除了原始的输入,还加上辅助任务对应层的输入;
2-D.使用反向传播学习第二个神经网络的参数,最后通过soft-max层进行分类得到识别结果。
总的来说,就是把前一个的神经网络的信息融合到当前神经网络的输入信息中,然后训练,训练的结果与没有加源神经网络的方法对比,如果效果改进了,说明前面的神经网络对当前神经网络有用,知识有迁移。这种技术的优势是保留之前的训练,不至于像SNN模型中微调那样更改原来的网络,而且每一层的特征信息都能得到迁移,缺点就是随着神经网络任务增加,参数的数量也急剧增加。
本实施例在上述基线系统的基础上,引入ProgNets技术,将性别相关的情感识别SNN模型和性别相关的身份识别SNN模型结合在一起,信息相互迁移,构建得到基于ProgNets的多维说话人识别系统,如图3所示。系统模型实现的具体步骤如下:
3-A.对整个语料库提取i-vector特征向量,配置神经网络模型参数,跟基线系统第一步一样,通过预训练和微调,实现性别识别的分类结果,输出性别分类标签。
3-B.在训练集中选择整个男性语音样本,在性别识别的基础上,利用ProgNets完成情感识别和身份识别的相互迁移学习。当把身份识别信息迁移到情感识别时,把男性相关的情感识别作为主识别任务,男性相关的身份识别模型作为辅助任务,利用 ProgNets将两个SNN模型结合起来,最后情感识别的结果就是目标任务的识别结果,不但利用到了性别相关的影响,同时利用到身份识别的相关信息,这种渐进式神经网络具有记忆功能,避免了身份识别模型训练中的信息的丢失,可以让神经网络学习到更多的语音原始特征的信息,从而提高语音识别的效果,最终输出男性情感分类标签。
3-C.针对整个女性语音样本,利用ProgNets完成女性相关的身份识别到情感识别的迁移学习,输出女性情感分类标签,女性相关的身份识别到情感识别的迁移学习,输出女性身份分类标签。
3-D.整合多维语音识别的结果,分别将男性和女性语音识别结果整合起来,三个不同的输出标签代表该系统中的分类结果。
本实施例采用KSU语音数据库,分别针对单维的SNN语音识别模型、性别相关的基线系统和性别相关的ProgNets系统进行实验,比较三种系统的优略,同时分析不同性别下,情感识别、身份识别的差异性。
在提取i-vector特征向量时,首先提取出18维的MFCC,包括其一阶和二阶导数的能量,一共54维特征向量,训练UBM模型,执行10次EM算法迭代,对于所有训练集和测试集的语音信号,提取固定维度的200维i-vector特征向量。
由于KSU-Emotion数据库中的数据量较小,针对低资源多维语音信息识别,本实施例采用四层浅层神经网络系统,分别是输入层,两个隐层和最后输出层,为了让三种识别模型在相同的平台进行比较,把前三层网络分别设置为200,50,200个神经元节点。在单维SNN语音识别模型和基线系统中,最后一层的节点根据不同单个任务的类别确定,2个节点用于性别识别任务;5个节点用于情感识别任务;14个节点分别用于说话人识别任务。不同的是基线系统中的情感、身份识别是在性别相关的基础上。
在ProgNets系统中,当把性别相关身份识别迁移到性别相关情感识别时,网络配置分别为说话人识别200-50-200-14,情绪识别200-100-400-5。当把性别相关情感识别迁移到性别相关身份识别时,网络配置分别为说话人识别200-50-200-5,情绪识别 200-100-400-14。这里在基线系统和ProgNets系统中,性别识别任务的输入特征是基于整个语料库提取的i-vector,情感识别任务和身份识别任务,是基于性别相关的语料库提取出的i-vector。在训练过程中,将L2正则化中的惩罚因子设置为0.0001,最小批量大小设置为100。为了使网络系统更加优化,使用指数衰减法获得学习率,初始值设置为0.03,总共执行了500次迭代。这些参数配置都用于单维SNN语音识别模型、基线系统和ProgNets系统。
本实施例在Tensorflow下进行仿真实验,在三种语音信息识别系统下,对比语音性别、情感、身份的识别结果,识别结果如图4所示。
从图4中,可以看到,基线和ProgNets两种多维语音信息识别系统明显优于单维的SNN语音识别模型,进一步验证了多维语音信息识别技术研究的实用性,在以往的研究中,性别识别技术基本已经成熟,在三种语音识别系统实验中,性别识别的结果都接近 100%。对性别识别的研究没有多少意义。因此,本发明研究的重点是,针对两种多维识别系统,比较性别相关的情感识别和身份识别的识别性能,实验数据记录在表1中。
表1:单维SNN模型、基线系统和ProgNets多维语音信息识别系统比较
从表1中,可以看到,当利用ProgNets技术,把身份识别信息迁移学习到情感识别模型时,针对说话人情感识别,ProgNets系统明显优于基线系统,平均提升了1.9%(ProgNets 79.31%vs基线77.41%),这表明,说话人身份识别的模型知识,对情感识别是有很大帮助。当把情感识别信息迁移到身份识别中时,平均提升了0.92%(ProgNets87.82%vs基线86.9%),情感识别的模型对说话人身份识别有帮助,但是并不是特别显著,这说明身份识别的结果对情感识别的帮助大于情感识别对身份识别的帮助,ProgNets 技术相比身份识别,对提高情感识别更加有效。
图5分析了在不同性别下的语音信息识别,ProgNets系统和相比基线系统改进的程度。图中可以看出,在进行性别相关的情感识别时,关于男性语音和女性语音,ProgNets系统相比于基线系统得到显著的提升(男1.39%vs女2.41%)。在进行性别相关的身份识别时,ProgNets系统相比于基线系统也提升了(男0.61%vs女1.22%)。ProgNets技术对女性语音信号的识别性能的提升明显优于男性语音信号。

Claims (5)

1.一种基于渐进式神经网络的多维语音信息识别系统,其特征在于:在基线系统的基础上,引入渐进式神经网络,所述基线系统以i-vector特征向量作为输入,利用SNN模型,进行性别、情感、身份多维信息的识别,在性别识别的基础上,渐进式神经网络将性别相关的情感信息识别和性别相关的身份信息识别结合在一起,信息相互迁移,构建得到识别系统。
2.根据权利要求1所述的一种基于渐进式神经网络的多维语音信息识别系统,其特征在于:给定一个说话人语音序列O={ο1,ο2,L,οn},n表示输入的语音特征帧数,提取的i-vector特征向量用φ来表示为:
其中,L为后验方差:
其中,其中I是单位矩阵,T为从训练集中学习得到的变异矩阵,是一个CF×M的矩阵,C是通用背景模型中混合的数量,F是声学特征向量的维数,M是矢量变量的大小;
Nc是通过对整个语音序列上的帧γc(t)求和,得到的第c个高斯计算的零阶统计量,如下所示:
Fc是关于UBM的以均值μc为中心,以协方差Σc为白化的一阶统计量。
3.根据权利要求1或2所述的一种基于渐进式神经网络的多维语音信息识别系统,其特征在于:所述渐进式神经网络为单一的多层神经网络模型,第i层隐层的输出为ni是第i层的神经元个数,当切换到神经网络主任务时,前一个神经网络第i-1层的输出hi-1 (1)和当前神经网络i-1层的输出hi-1 (2)同时作为输入,通过横向连接的方式接入到当前神经网络的第i层中,第i层输出为hi (2),第k个神经网络的表达式为:
其中,是第k列的第i层的权重矩阵,是第k列的第i层的偏差系数矩阵,是从第j列的第i-1层到第k列的第i层的横向连接,h0是神经网络的输入特征向量,f(·)是对激励向量进行元素级计算的激活函数。
4.一种基于渐进式神经网络的多维语音信息识别方法,其特征在于:包括以下步骤:
S1:对整个语音数据库提取i-vector特征向量,配置神经网络模型参数,隐含层采用激活函数处理,通过前向传播的方式,对特征向量进行预训练,采用梯度下降法反向传播不断对权重参数进行微调,最后获得性别识别的分类结果;
S2:在训练集中,针对整个男性语音样本,在性别识别的基础上,利用渐进式神经网络完成情感识别和身份识别的相互迁移学习,输出男性情感分类标签;针对整个女性语音样本,在性别识别的基础上,利用渐进式神经网络完成情感识别和身份识别的相互迁移学习,输出女性情感分类标签;
S3:整合多维语音识别的结果;
其中,所述S2中,身份识别信息和情感识别相互迁移学习时,把情感识别作为主任务,身份识别作为辅助任务,构造一个用来训练辅助任务的神经网络,固定上一个任务的神经网络的参数,添加一个随机初始化的新模型,作为第二个多层的神经网络,将训练辅助任务的神经网络的每一层通过横向连接的方式接入到第二个多层的神经网络主任务的每一层作为额外输入,使用反向传播学习第二个多层的神经网络的参数,通过soft-max层进行分类得到识别结果。
5.根据权利要求4所述的一种基于渐进式神经网络的多维语音信息识别方法,其特征在于:所述S1中,提取i-vector特征向量,具体实施如下:在梅尔频率倒谱系数特征的基础上,结合高斯混合模型,通过最大后验概率标准对通用背景模型进行训练,同时利用通用背景模型调整每个语句以获得相同比例的另一个高斯混合模型,通过投影到总体子空间矩阵中提取固定长度的i-vector语音特征。
CN201810915685.0A 2018-08-13 2018-08-13 基于渐进式神经网络多维语音信息识别系统及其方法 Active CN108962247B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810915685.0A CN108962247B (zh) 2018-08-13 2018-08-13 基于渐进式神经网络多维语音信息识别系统及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810915685.0A CN108962247B (zh) 2018-08-13 2018-08-13 基于渐进式神经网络多维语音信息识别系统及其方法

Publications (2)

Publication Number Publication Date
CN108962247A true CN108962247A (zh) 2018-12-07
CN108962247B CN108962247B (zh) 2023-01-31

Family

ID=64469273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810915685.0A Active CN108962247B (zh) 2018-08-13 2018-08-13 基于渐进式神经网络多维语音信息识别系统及其方法

Country Status (1)

Country Link
CN (1) CN108962247B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523995A (zh) * 2018-12-26 2019-03-26 出门问问信息科技有限公司 语音识别方法、语音识别装置、可读存储介质和电子设备
CN110021308A (zh) * 2019-05-16 2019-07-16 北京百度网讯科技有限公司 语音情绪识别方法、装置、计算机设备和存储介质
CN110428843A (zh) * 2019-03-11 2019-11-08 杭州雄迈信息技术有限公司 一种语音性别识别深度学习方法
CN110427472A (zh) * 2019-08-02 2019-11-08 深圳追一科技有限公司 智能客服匹配的方法、装置、终端设备及存储介质
CN111179915A (zh) * 2019-12-30 2020-05-19 苏州思必驰信息科技有限公司 基于语音的年龄识别方法及装置
CN112233668A (zh) * 2020-10-21 2021-01-15 中国人民解放军海军工程大学 一种基于神经网络的语音指令及身份识别方法
WO2021017296A1 (zh) * 2019-08-01 2021-02-04 平安科技(深圳)有限公司 信息识别的方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106104406A (zh) * 2014-03-06 2016-11-09 前进公司 神经网络及神经网络训练的方法
CN107688850A (zh) * 2017-08-08 2018-02-13 北京深鉴科技有限公司 一种深度神经网络压缩方法
CN108229681A (zh) * 2017-12-28 2018-06-29 郑州云海信息技术有限公司 一种神经网络模型压缩方法、系统、装置及可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106104406A (zh) * 2014-03-06 2016-11-09 前进公司 神经网络及神经网络训练的方法
CN107688850A (zh) * 2017-08-08 2018-02-13 北京深鉴科技有限公司 一种深度神经网络压缩方法
CN108229681A (zh) * 2017-12-28 2018-06-29 郑州云海信息技术有限公司 一种神经网络模型压缩方法、系统、装置及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
文仕学等: "渐进学习语音增强方法在语音识别中的应用", 《小型微型计算机系统》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523995A (zh) * 2018-12-26 2019-03-26 出门问问信息科技有限公司 语音识别方法、语音识别装置、可读存储介质和电子设备
CN110428843A (zh) * 2019-03-11 2019-11-08 杭州雄迈信息技术有限公司 一种语音性别识别深度学习方法
CN110428843B (zh) * 2019-03-11 2021-09-07 杭州巨峰科技有限公司 一种语音性别识别深度学习方法
CN110021308A (zh) * 2019-05-16 2019-07-16 北京百度网讯科技有限公司 语音情绪识别方法、装置、计算机设备和存储介质
CN110021308B (zh) * 2019-05-16 2021-05-18 北京百度网讯科技有限公司 语音情绪识别方法、装置、计算机设备和存储介质
WO2021017296A1 (zh) * 2019-08-01 2021-02-04 平安科技(深圳)有限公司 信息识别的方法、装置、设备及存储介质
CN110427472A (zh) * 2019-08-02 2019-11-08 深圳追一科技有限公司 智能客服匹配的方法、装置、终端设备及存储介质
CN111179915A (zh) * 2019-12-30 2020-05-19 苏州思必驰信息科技有限公司 基于语音的年龄识别方法及装置
CN112233668A (zh) * 2020-10-21 2021-01-15 中国人民解放军海军工程大学 一种基于神经网络的语音指令及身份识别方法
CN112233668B (zh) * 2020-10-21 2023-04-07 中国人民解放军海军工程大学 一种基于神经网络的语音指令及身份识别方法

Also Published As

Publication number Publication date
CN108962247B (zh) 2023-01-31

Similar Documents

Publication Publication Date Title
CN108962247B (zh) 基于渐进式神经网络多维语音信息识别系统及其方法
Venkataramanan et al. Emotion recognition from speech
CN108597541B (zh) 一种增强愤怒与开心识别的语音情感识别方法及系统
CN110400579B (zh) 基于方向自注意力机制和双向长短时网络的语音情感识别
Nakashika et al. Voice conversion in high-order eigen space using deep belief nets.
Tang et al. An End-to-End Deep Learning Framework for Speech Emotion Recognition of Atypical Individuals.
CN110534133B (zh) 一种语音情感识别系统及语音情感识别方法
Pei et al. Multimodal dimensional affect recognition using deep bidirectional long short-term memory recurrent neural networks
Sadeghi et al. Optimal MFCC features extraction by differential evolution algorithm for speaker recognition
Cao et al. Speaker-independent speech emotion recognition based on random forest feature selection algorithm
Jiang et al. Speech Emotion Recognition Using Deep Convolutional Neural Network and Simple Recurrent Unit.
CN113571095B (zh) 基于嵌套深度神经网络的语音情感识别方法和系统
Prachi et al. Deep learning based speaker recognition system with cnn and lstm techniques
Eom et al. Speech Emotion Recognition Using 2D-CNN with Mel-Frequency Cepstrum Coefficients.
Jie Speech emotion recognition based on convolutional neural network
Ramoji et al. Neural PLDA modeling for end-to-end speaker verification
Kumar et al. Designing neural speaker embeddings with meta learning
Liu et al. Emotional feature selection of speaker-independent speech based on correlation analysis and fisher
Ladde et al. Use of multiple classifier system for gender driven speech emotion recognition
Angadi et al. Hybrid deep network scheme for emotion recognition in speech
Cen et al. Speech emotion recognition using canonical correlation analysis and probabilistic neural network
Reshma et al. A survey on speech emotion recognition
Ullah et al. Speech emotion recognition using deep neural networks
Lian et al. Domain adversarial learning for emotion recognition
Anindya et al. Development of Indonesian speech recognition with deep neural network for robotic command

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant