CN112331187B - 多任务语音识别模型训练方法、多任务语音识别方法 - Google Patents

多任务语音识别模型训练方法、多任务语音识别方法 Download PDF

Info

Publication number
CN112331187B
CN112331187B CN202011327809.7A CN202011327809A CN112331187B CN 112331187 B CN112331187 B CN 112331187B CN 202011327809 A CN202011327809 A CN 202011327809A CN 112331187 B CN112331187 B CN 112331187B
Authority
CN
China
Prior art keywords
layer
sample audio
linear
task
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011327809.7A
Other languages
English (en)
Other versions
CN112331187A (zh
Inventor
赵飞
黄厚军
钱彦旻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sipic Technology Co Ltd
Original Assignee
Sipic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sipic Technology Co Ltd filed Critical Sipic Technology Co Ltd
Priority to CN202011327809.7A priority Critical patent/CN112331187B/zh
Publication of CN112331187A publication Critical patent/CN112331187A/zh
Application granted granted Critical
Publication of CN112331187B publication Critical patent/CN112331187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开一种多任务语音识别模型训练方法,其中多任务语音识别模型包括卷积层、最大池化层、线性变换层、映射层和多个子任务线性分类层,该方法包括:根据样本音频获取样本音频频谱特征;将样本音频频谱特征输入至卷积层进行卷积处理;通过最大池化层对卷积处理后的所述样本音频频谱特征进行最大池化操作以获得对应于样本音频的句子级别表征信息;通过线性池化层对句子级别表征信息进行线性变化;通过映射层根据线性变化结果对多个子任务线性分类层的参数进行更新。本发明在保证各个子任务性能的前提下,一个模型解决了语音中所包含的多种副信息识别问题,减少了服务端占用的内存和计算量,更加方便的服务用户,满足用户不同的需求。

Description

多任务语音识别模型训练方法、多任务语音识别方法
技术领域
本发明涉及人工智能技术领域,尤其涉及一种多任务语音识别模型训练方法、多任务语音识别方法及电子设备。
背景技术
语音副信息识别指的是语音的性别识别、年龄识别、情感识别等。给定一段音频,通过这项技术来预测这段音频所包含的说话人的性别、年龄、以及情感内容。准确的语音副信息识别器在实际的生产生活中有很大的应用范围,包括电影电视的内容推荐,客服场景下客服服务质量的评测,智能音箱带情感的问答系统。
但是现有技术中的语音副信息识别器均是单任务单模型的形式,即音频同时输入多个不同模型(例如,性别识别模型、年龄识别模型和情感识别模型)然后输出多个不同模型的预测结果,导致计算量增加,延时增加。
发明内容
本发明实施例提供一种多任务语音识别模型训练方法、多任务语音识别方法及电子设备,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种多任务语音识别模型训练方法,所述多任务语音识别模型包括卷积层、最大池化层、线性变换层、映射层和多个子任务线性分类层,所述方法包括:
根据样本音频获取样本音频频谱特征;
将所述样本音频频谱特征输入至卷积层进行卷积处理;
通过所述最大池化层对卷积处理后的所述样本音频频谱特征进行最大池化操作以获得对应于所述样本音频的句子级别表征信息;
通过所述线性池化层对所述句子级别表征信息进行线性变化;
通过所述映射层根据线性变化结果对所述多个子任务线性分类层的参数进行更新。
第二方面,本发明实施例提供一种多任务语音识别方法,包括:接收将待识别音频;利用本发明任一实施例所述的多任务语音识别模型对所述待识别音频进行识别处理,以得到多种语音识别任务结果。
第三方面,本发明实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项多任务语音识别方法。
第四方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明上述任一项多任务语音识别方法。
第五方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项多任务语音识别方法。
本发明实施例的有益效果在于:在保证各个子任务性能的前提下,一个模型解决了语音中所包含的多种副信息识别问题,减少了服务端占用的内存和计算量,更加方便的服务用户,满足用户不同的需求。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的多任务语音识别模型训练方法的一实施例的流程图;
图2为本发明的多任务语音识别模型训练方法的另一实施例的流程图;
图3为本发明的多任务语音识别模型一实施例的结构示意图;
图4为本发明的多任务语音识别方法的一实施例的流程图;
图5为本发明的电子设备的一实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/ 或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/ 或线程中,并且元件可以在一台计算机上本地化和/ 或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/ 或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/ 或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
如图1所示,本发明的实施例提供一种多任务语音识别模型训练方法,其特征在于,所述多任务语音识别模型包括卷积层、最大池化层、线性变换层、映射层和多个子任务线性分类层,所述方法包括:
S10、根据样本音频获取样本音频频谱特征;示例性地,特征提取的过程中,用到了训练语音识别产生的Alignment(对齐)工具或者VAD(Voice Activity Detection,语音活动检测)工具,目的是提取音频中包含人声的有用信息。使用kaldi特征提取工具将音频提取特征并保存在本地,使用时直接按顺序读取即可。
S20、将所述样本音频频谱特征输入至卷积层进行卷积处理;
S30、通过所述最大池化层对卷积处理后的所述样本音频频谱特征进行最大池化操作以获得对应于所述样本音频的句子级别表征信息;
S40、通过所述线性池化层对所述句子级别表征信息进行线性变化;
S50、通过所述映射层根据线性变化结果对所述多个子任务线性分类层的参数进行更新。
示例性地,在多任务语音识别模型的训练过程中采用交大的batchsize,同时不同任务的数据量相当,并且预先做好了随机打乱处理,从而每个batch会极大程度的包含这三个任务的数据。
本实施例中的多任务语音识别模型训练方法可以为一种多任务语音副信息识别方法,在保证各个子任务性能的前提下,一个模型解决了语音中所包含的多种副信息识别问题。并能够根据客户的具体需求提供不同的识别结果。减少了服务端占用的内存和计算量,更加方便的服务用户,满足用户不同的需求。
在一些实施例中,多个子任务线性分类层至少包括性别子任务线性分类层、年龄子任务线性分类层和情感子任务线性分类层中的两者。样本音频随机取自训练样本音频库,所述训练样本音频库包括有多条性别样本音频、多条年龄样本音频和多条情感样本音频。
本实施例中的多任务语音识别模型训练方法可以为一种多任务语音副信息识别方法,在保证各个子任务性能的前提下,一个模型解决了语音中所包含的性别、年龄、情感的副信息识别问题。并能根据客户的具体需求提供不同的识别结果。减少了服务端占用的内存和计算量,更加方便的服务用户,满足用户不同的需求。
在一些实施例中,通过所述映射层根据线性变化结果对所述多个子任务线性分类层的参数进行更新包括:通过所述映射层采用for循环来根据线性对变化结果对所述多个子任务线性分类层的参数进行更新。示例性地,映射层通过不同任务的任务编号,采用循环的方式对多个子任务线性分类层的参数进行更新操作。本实施例中通过对于公用部分网络结构,分类层通过for循环,使得不同任务的数据优化不同的任务分类层的参数。
如图2所示为本发明的多任务语音识别模型训练方法的另一实施例的流程图,在该实施例中,在根据样本音频获取样本音频频谱特征之前还包括:
S01、对所述样本音频进行语音活动检测以获取样本语音音频。
示例性地,语音活动检测所采用的是端点检测(Voice Activity Detection,VAD)方法。音频端点检测就是从连续的语音流中检测出有效的语音段,它包括两个方面,检测出有效语音的起始点即前端点,检测出有效语音的结束点即后端点。在语音应用中进行语音的端点检测是很必要的,首先很简单的一点,就是在存储或传输语音的场景下,从连续的语音流中分离出有效语音,可以降低存储或传输的数据量。其次是在有些应用场景中,使用端点检测可以简化人机交互,比如在录音的场景中,语音后端点检测可以省略结束录音的操作。
S02、对所述样本语音音频进行降噪处理。
示例性地,将样本语音音频的段背景噪声进行分帧,并按照帧的先后顺序进行分组,每组的帧数可以为10或其他值,组的数量一般不少于5,随后对每组背景噪声数据帧使用傅里叶变换得到其频谱,再将各频谱求平均后得到背景噪声的频谱。同理获取样本语音音频的频谱。得到噪声的频谱和样本语音音频的频谱后,用含噪语音(即,样本语音音频)的频谱减去噪音频谱后得到降噪后语音的频谱,再使用傅里叶逆变换转回到时域中,从而得到降噪后的语音数据。
在一些实施例中,根据样本音频获取样本音频频谱特征包括:根据对应于所述样本音频的降噪处理结果获取样本音频频谱特征。
如图3所示,采用多任务语音识别模型训练方法训练得到的多任务语音识别模型中,卷积层包括顺序连接的第一至第四子卷积层。线性变换层包括第一至第二子线性变化层。
在本实施例中,采用多任务语音识别模型训练方法训练得到的多任务语音识别模型可以为多任务副信息识别网络(如图3所示),Fbank(Filter bank,滤波器组)特征经过4次卷积操作后进行maxpooling(最大池化)操作,将帧级别的特征转换成句子级别的表征,然后通多两次线性变换后接一个projection(映射)层,其中,projection里通过for循环对不同任务的数据更新不同子任务线性分类层的参数。
在一些实施例中,我们在训练和使用的过程中均采用跳多帧的方式,保证性能满足要求的同时,延时也能达到要求。
在一些实施例中,本发明还提供一种多任务语音识别方法,该方法包括:接收将待识别音频;利用前述任一实施例所述的多任务语音识别模型对所述待识别音频进行识别处理,以得到多种语音识别任务结果。
如图4所示,为本发明的多任务语音识别方法的一实施例的流程图,在该实施例中包括以下步骤:
步骤1:通过设备的麦克风获取音频信息,并采用语音活动检测实时检测人声。
步骤2:将麦克风收集到的音频经过前端语音信号处理模块得到较为纯净的音频。
步骤3:将语音的时域信息经过短时傅里叶变换等操作转换成频域的语音频谱特征信息。
步骤4:将语音频谱特征信息经过副信息识别器输出网络预测的性别、年龄和情感的结果。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项多任务语音识别方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项多任务语音识别方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行多任务语音识别方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现多任务语音识别方法。
图5是本申请另一实施例提供的执行多任务语音识别方法的电子设备的硬件结构示意图,如图5所示,该设备包括:
一个或多个处理器510以及存储器520,图5中以一个处理器510为例。
执行多任务语音识别方法的设备还可以包括:输入装置530和输出装置540。
处理器510、存储器520、输入装置530和输出装置540可以通过总线或者其他方式连接,图5中以通过总线连接为例。
存储器520作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的多任务语音识别方法对应的程序指令/模块。处理器510通过运行存储在存储器520中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例多任务语音识别方法。
存储器520可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据多任务语音识别装置的使用所创建的数据等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器520可选包括相对于处理器510远程设置的存储器,这些远程存储器可以通过网络连接至多任务语音识别装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置530可接收输入的数字或字符信息,以及产生与多任务语音识别装置的用户设置以及功能控制有关的信号。输出装置540可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器520中,当被所述一个或者多个处理器510执行时,执行上述任意方法实施例中的多任务语音识别方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (7)

1.一种多任务语音识别模型训练方法,其特征在于,所述多任务语音识别模型包括卷积层、最大池化层、线性变换层、映射层和多个子任务线性分类层,所述方法包括:
根据样本音频获取样本音频频谱特征;
将所述样本音频频谱特征输入至卷积层进行卷积处理;
通过所述最大池化层对卷积处理后的所述样本音频频谱特征进行最大池化操作以获得对应于所述样本音频的句子级别表征信息;
通过所述线性变换层对所述句子级别表征信息进行线性变化;
通过所述映射层根据线性变化结果对所述多个子任务线性分类层的参数进行更新,
其中,所述线性变换层包括第一至第二子线性变化层,两次线性变换后的结果接入所述映射层,
其中,所述通过所述映射层根据线性变化结果对所述多个子任务线性分类层的参数进行更新包括:
通过所述映射层采用for循环来根据线性对变化结果对所述多个子任务线性分类层的参数进行更新。
2.根据权利要求1所述的方法,其特征在于,在根据样本音频获取样本音频频谱特征之前还包括:
对所述样本音频进行语音活动检测以获取样本语音音频;
对所述样本语音音频进行降噪处理;
所述根据样本音频获取样本音频频谱特征包括:
根据对应于所述样本音频的降噪处理结果获取样本音频频谱特征。
3.根据权利要求1所述的方法,其特征在于,所述卷积层包括顺序连接的第一至第四子卷积层。
4.根据权利要求1所述的方法,其特征在于,所述多个子任务线性分类层至少包括性别子任务线性分类层、年龄子任务线性分类层和情感子任务线性分类层中的两者。
5.根据权利要求1所述的方法,其特征在于,所述样本音频随机取自训练样本音频库,所述训练样本音频库包括有多条性别样本音频、多条年龄样本音频和多条情感样本音频。
6.一种多任务语音识别方法,其特征在于,所述方法包括:
接收将待识别音频;
利用权利要求1-5任一项所述的多任务语音识别模型对所述待识别音频进行识别处理,以得到多种语音识别任务结果。
7.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求6所述方法的步骤。
CN202011327809.7A 2020-11-24 2020-11-24 多任务语音识别模型训练方法、多任务语音识别方法 Active CN112331187B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011327809.7A CN112331187B (zh) 2020-11-24 2020-11-24 多任务语音识别模型训练方法、多任务语音识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011327809.7A CN112331187B (zh) 2020-11-24 2020-11-24 多任务语音识别模型训练方法、多任务语音识别方法

Publications (2)

Publication Number Publication Date
CN112331187A CN112331187A (zh) 2021-02-05
CN112331187B true CN112331187B (zh) 2023-01-13

Family

ID=74322286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011327809.7A Active CN112331187B (zh) 2020-11-24 2020-11-24 多任务语音识别模型训练方法、多任务语音识别方法

Country Status (1)

Country Link
CN (1) CN112331187B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113782000B (zh) * 2021-09-29 2022-04-12 北京中科智加科技有限公司 一种基于多任务的语种识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578775B (zh) * 2017-09-07 2021-02-12 四川大学 一种基于深度神经网络的多分类语音方法
WO2019225801A1 (ko) * 2018-05-23 2019-11-28 한국과학기술원 사용자의 음성 신호를 기반으로 감정, 나이 및 성별을 동시에 인식하는 방법 및 시스템
CN111179915A (zh) * 2019-12-30 2020-05-19 苏州思必驰信息科技有限公司 基于语音的年龄识别方法及装置
CN111243602B (zh) * 2020-01-06 2023-06-06 天津大学 基于性别、国籍和情感信息的声纹识别方法

Also Published As

Publication number Publication date
CN112331187A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
CN109473123B (zh) 语音活动检测方法及装置
CN108630193B (zh) 语音识别方法及装置
CN110956957B (zh) 语音增强模型的训练方法及系统
CN111049996B (zh) 多场景语音识别方法及装置、和应用其的智能客服系统
US20230069197A1 (en) Method, apparatus, device and storage medium for training video recognition model
CN111081280B (zh) 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法
CN109473104B (zh) 语音识别网络延时优化方法及装置
EP3234946A1 (en) System and method of automatic speech recognition using parallel processing for weighted finite state transducer-based speech decoding
CN113921022B (zh) 音频信号分离方法、装置、存储介质和电子设备
CN109947971B (zh) 图像检索方法、装置、电子设备及存储介质
CN113555032B (zh) 多说话人场景识别及网络训练方法、装置
CN113763977A (zh) 消除回声信号的方法、装置、计算设备和存储介质
CN111722696B (zh) 用于低功耗设备的语音数据处理方法和装置
CN111243604B (zh) 支持多唤醒词的说话人识别神经网络模型的训练方法、说话人识别方法及系统
CN112331187B (zh) 多任务语音识别模型训练方法、多任务语音识别方法
CN113823313A (zh) 语音处理方法、装置、设备以及存储介质
CN110675865B (zh) 用于训练混合语言识别模型的方法和装置
CN113763968B (zh) 用于识别语音的方法、装置、设备、介质和产品
CN110838307B (zh) 语音消息处理方法及装置
CN112002339B (zh) 语音降噪方法和装置、计算机可读的存储介质及电子装置
CN111899738A (zh) 对话生成方法、装置及存储介质
CN110634475B (zh) 语音识别方法、装置、电子设备和计算机可读存储介质
CN110516043A (zh) 用于问答系统的答案生成方法和装置
CN112542157A (zh) 语音处理方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant after: Sipic Technology Co.,Ltd.

Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant before: AI SPEECH Co.,Ltd.

GR01 Patent grant
GR01 Patent grant