CN111312224B - 语音分割模型的训练方法、装置和电子设备 - Google Patents

语音分割模型的训练方法、装置和电子设备 Download PDF

Info

Publication number
CN111312224B
CN111312224B CN202010106843.5A CN202010106843A CN111312224B CN 111312224 B CN111312224 B CN 111312224B CN 202010106843 A CN202010106843 A CN 202010106843A CN 111312224 B CN111312224 B CN 111312224B
Authority
CN
China
Prior art keywords
voice
segmentation model
speech
original
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010106843.5A
Other languages
English (en)
Other versions
CN111312224A (zh
Inventor
王超
冯大航
陈孝良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing SoundAI Technology Co Ltd
Original Assignee
Beijing SoundAI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing SoundAI Technology Co Ltd filed Critical Beijing SoundAI Technology Co Ltd
Priority to CN202010106843.5A priority Critical patent/CN111312224B/zh
Publication of CN111312224A publication Critical patent/CN111312224A/zh
Application granted granted Critical
Publication of CN111312224B publication Critical patent/CN111312224B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本公开实施例公开了一种语音分割模型的训练方法、装置、电子设备和计算机可读存储介质。其中该语音分割模型的训练方法包括:获取样本语音文件的原始语音图;获取所述原始语音图中的标注信息;初始化模型参数;将所述原始语音图输入所述语音分割模型中得到所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的特征图得到;根据目标函数计算所述预测信息和所述标注信息的误差并更新所述语音分割模型的参数;将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程。上述方法通过原始语音图像训练语音分割模型,解决了现有技术中由于语音信号复杂导致的语音分割不准的技术问题。

Description

语音分割模型的训练方法、装置和电子设备
技术领域
本公开涉及语音分割领域,尤其涉及一种语音分割模型的训练方法、装置、电子设备及计算机可读存储介质。
背景技术
作为一种人机交互的手段,语音识别技术在解放人类双手方面意义重大。随着各种智能音箱的出现,语音交互成为了互联网入口的新价值所在,越来越多的智能设备加入了语音识别的潮流,成为人与设备沟通的桥梁。语音分割技术是语音识别技术中的一个分支,其用于从一段语音中按照时间段分成不同的类别,如在一段语音中分割出非同时说话的人的语音,语音的端点检测以及唤醒词对齐等等,都属于语音分割的范畴。
现有技术中的语音分割分为基于切分单元对齐的方法和基于切分单元边界检测的方法。基于切分单元对齐的方法需要被切分语音对应的音素或音节关联的先验知识,例如包含的音素/音节个数,是受限的方式。而基于边界检测的方法大多只利用语音信号本身抽取的特征来进行边界检测。
然而语音信号的特征比较复杂,因此语音分割的准确度仍然比较低,成为亟待解决的问题。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开实施例提供一种语音分割模型的训练方法,包括:
获取样本语音文件的原始语音图;
获取目标语音在所述原始语音图中的标注信息;
初始化语音分割模型的模型参数;
将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;
根据目标函数计算所述预测信息和所述标注信息的误差;
根据所述误差更新所述语音分割模型的参数;
将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
进一步的,所述获取样本语音文件的原始语音图,包括:
获取样本语音文件;
将所述样本语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成样本语音文件原始语音图。
进一步的,所述将所述样本语音文件划分为多个语音帧,包括:
获取语音帧长度α以及语音帧移动间隔β;
以样本语音文件的头部为起点抽取多个语音帧,其中每个语音帧的长度为α,相邻两个语音帧的起点相隔为β。
进一步的,所述提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图,包括:
对所述多个语音帧中的每一个进行短时傅里叶变换,得到多个频率特征点;
将所述多个频率特征点按照语音帧的顺序组成原始语音图。
进一步的,所述标注信息包括:标注位置信息和标注类别信息,所述预测信息包括:预测位置信息和预测类别信息。
进一步的,所述标注位置信息包括所述目标语音在所述原始语音图中的一对标注边界点,所述标注类别信息包括所述目标语音在多个类别中的标注概率;所述预测位置信息包括目标语音在所述原始语音图中的多对预测边界点的位置信息,所述预测类别信息包括所述目标语音在多个类别中的预测概率。
进一步的,所述将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,包括:
将所述原始语音图输入所述语音分割模型中;
所述语音分割模型输出多个不同尺度的第一特征图;
在所述第一特征图上生成多对默认边界点;
对所述第一特征图进行卷积计算得到多个一维向量,其中所述一维向量中每个元素对应一对默认边界点,所述每个元素的值为所述目标语音的预测信息。
进一步的,所述在所述第一特征图上生成多对默认边界点,包括:
以第一特征图上每组横坐标相同的像素点为中线生成多对默认边界点,其中每个中线所对应的默认边界点的对数相同。
进一步的,所述对所述第一特征图进行卷积计算得到多个一维向量,包括:
使用(C+2)*K个卷积核对所述第一特征图进行卷积得到(C+2)*K个1*N的一维向量,其中K为每个所述中线所对应的默认边界点的对数,C为目标语音的分类的个数,N为所述中线的个数。
进一步的,所述根据目标函数计算所述预测信息和所述标注信息的误差,包括:
将所述一维向量中的元素的值以及所述标注信息输入所述目标函数计算所述预测信息和所述标注信息的误差。
第二方面,本公开实施例提供一种语音分割方法,包括:
获取待识别语音文件;
将所述待识别语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成待识别语音文件的原始语音图;
将所述待识别语音文件的原始语音图输入语音分割模型,其中所述语音分割模型是由第一方面所述的语音分割模型的训练方法训练得到的;
所述语音分割模型输出目标语音在所述原始语音图中的位置信息以及类别信息。
第三方面,本公开实施例提供一种语音分割模型的训练装置,包括:
原始语音图获取模块,用于获取样本语音文件的原始语音图;
标注信息获取模块,用于获取目标语音在所述原始语音图中的标注信息;
参数初始化模块,用于初始化语音分割模型的模型参数;
预测信息获取模块,用于将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;
误差计算模块,用于根据目标函数计算所述预测信息和所述标注信息的误差;
参数更新模块,用于根据所述误差更新所述语音分割模型的参数;
参数迭代模块,用于将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
进一步的,所述原始语音图获取模块,还用于:
获取样本语音文件;
将所述样本语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图。
进一步的,所述将所述样本语音文件划分为多个语音帧,包括:
获取语音帧长度α以及语音帧移动间隔β;
以样本语音文件的头部为起点抽取多个语音帧,其中每个语音帧的长度为α,相邻两个语音帧的起点相隔为β。
进一步的,所述提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图,包括:
对所述多个语音帧中的每一个进行短时傅里叶变换,得到多个频率特征点;
将所述多个频率特征点按照语音帧的顺序组成原始语音图。
进一步的,所述标注信息包括:标注位置信息和标注类别信息,所述预测信息包括:预测位置信息和预测类别信息。
进一步的,所述标注位置信息包括所述目标语音在所述原始语音图中的一对标注边界点,所述标注类别信息包括所述目标语音在多个类别中的标注概率;所述预测位置信息包括目标语音在所述原始语音图中的多对预测边界点的位置信息,所述预测类别信息包括所述目标语音在多个类别中的预测概率。
进一步的,所述预测信息获取模块,还用于:
将所述原始语音图输入所述语音分割模型中;
所述语音分割模型输出多个不同尺度的第一特征图;
在所述第一特征图上生成多对默认边界点;
对所述第一特征图进行卷积计算得到多个一维向量,其中所述一维向量中每个元素对应一对默认边界点,所述每个元素的值为所述目标语音的预测信息。
进一步的,所述预测信息获取模块在所述第一特征图上生成多对默认边界点,包括:
以第一特征图上每组横坐标相同的像素点为中线生成多对默认边界点,其中每个中线所对应的默认边界点的对数相同。
进一步的,所述预测信息获取模块对所述第一特征图进行卷积计算得到多个一维向量包括:
使用(C+2)*K个卷积核对所述第一特征图进行卷积得到(C+2)*K个1*N的一维向量,其中K为每个所述中线所对应的默认边界点的对数,C为目标语音的分类的个数,N为所述中线的个数。
进一步的,所述误差计算模块,还用于:
将所述一维向量中的元素的值以及所述标注信息输入所述目标函数计算所述预测信息和所述标注信息的误差。
第四方面,本公开实施例提供一种语音分割装置,包括:
语音文件获取模块,用于获取待识别语音文件;
分帧模块,用于将所述待识别语音文件划分为多个语音帧;
原始语音图生成模块,用于提取所述多个语音帧中的语音特征点生成待识别语音文件的原始语音图;
输入模块,用于将所述待识别语音文件的原始语音图输入语音分割模型,其中所述语音分割模型是由上述的语音分割模型的训练方法训练得到的;
输出模块,用于所述语音分割模型输出所述目标语音在所述原始语音图中的位置信息以及类别信息。
第五方面,本公开实施例提供一种电子设备,包括:存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述处理器运行时实现上述第一方面或第二方面的方法。
第六方面,本公开实施例提供一种非暂态计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机执行上述第一方面或第二方面的方法。
本公开实施例公开了一种语音分割模型的训练方法、装置、电子设备和计算机可读存储介质。其中该语音分割模型的训练方法包括:获取样本语音文件的原始语音图;获取目标语音在所述原始语音图中的标注信息;初始化语音分割模型的模型参数;将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;根据目标函数计算所述预测信息和所述标注信息的误差;根据所述误差更新所述语音分割模型的参数;将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。上述方法通过将语音信号转换为原始语音图,并使用原始语音图像训练语音分割模型,解决了现有技术中由于语音信号复杂导致的语音分割不准的技术问题。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例的应用场景示意图;
图2为本公开实施例提供的语音分割模型的训练方法的流程示意图;
图3为本公开实施例所提供的语音分割模型的训练方法中步骤S201的一个具体实施方式的示意图;
图4为本公开实施例中的语音文件中所划分的多个语音帧的示意图;
图5a-5b为本公开实施例提供的语音分割模型的训练方法的原始语音图的生成示意图;
图6为本公开实施例提供的语音分割模型的训练方法中标注位置信息的示意图;
图7为本公开实施例提供的语音分割模型的结构示意图;
图8为本公开实施例提供的语音分割模型的训练方法中生成默认边界点的示意图;
图9为本公开实施例提供的语音分割模型输出的特征向量的示意图;
图10为本公开实施例提供的语音分割模型的训练装置的实施例的结构示意图;
图11为根据本公开实施例提供的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1为本公开实施例的应用场景示意图。如图1所示,用户101向终端设备102输入语音,终端设备102可以为智能手机、智能音箱、智能家电等任何可以接收所述自然语言输入的终端装置,终端装置102与语音识别设备103通过网络连接,其中,语音识别设备103可以是计算设备式计算机或者智能终端等等;其中,终端设备102与语音识别设备103进行通信所依赖的网络可以是无线网络,例如5G网络和wifi网络等,还可以是有线网络,例如光纤网络。在该应用场景下,用户101说出语音,终端设备102采集语音并将语音发送至语音识别设备103,如果语音识别设备103分割识别出目标语音,则终端设备102执行所述目标语音所对应的功能。
可以理解的,上述语音识别设备103和所述终端设备102可以设置在一起,即终端设备102可以集成语音识别功能,这样用户的语音输入可以直接在终端设备102中识别。当语音被识别出来之后,根据所述语音,所述终端设备102可以执行与所述语音相关的功能。
图2为本公开实施例提供的语音分割模型的训练方法实施例的流程图,本实施例提供的该语音分割模型的训练方法可以由一语音分割模型的训练装置来执行,该语音分割模型的训练装置可以实现为软件,或者实现为软件和硬件的组合,该语音分割模型的训练装置可以集成设置在语音分割模型的训练系统中的某设备中,比如语音分割模型的训练服务器或者语音分割模型的训练终端设备中。如图2所示,该方法包括如下步骤:
步骤S201,获取样本语音文件的原始语音图;
在该实施例中,在训练所述语音分割模型之前,需要将样本语音文件进行处理,为了使用图像特征来进行语音分割,需要将样本语音文件处理成图像。
可选的,如图3所示,所述步骤S201,还包括:
步骤S301,获取样本语音文件;
步骤S302,将所述样本语音文件划分为多个语音帧;
步骤S303,提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图。
在本公开中,所述样本语音文件为样本集合中的语音文件,所述多个语音帧可以是多个首尾相连不重叠的语音帧也可以是多个有部分重叠的语音帧。
可选的,所述步骤S302包括:
获取语音帧长度α以及语音帧移动间隔β;
以样本语音文件的头部为起点抽取多个语音帧,其中每个语音帧的长度为α,相邻两个语音帧的起点相隔为β。
图4所示为多个语音帧的一个示例。如图4所示,AF为语音文件的两个端点,A表示语音文件的开始,F表示语音文件的结束,在该示例中,通过分帧操作将该语音文件划分为3个语音帧,分别为AB、CD和EF,其中AB和CD有重叠区域CB,CD和EF有重叠区域ED。语音文件的长度一般使用毫秒(ms)来表示,一般认为输入语音信号为在10ms-30ms内短时平稳的信号,因此在一个实例中,取语音帧长度为25ms,取语音帧移动间隔为10ms,对应图4中的示例,则AB=CD=EF=25ms,AC=CE=10ms,则长度为AF=45ms的语音文件被分为长度为25,移动间隔为10ms的3个语音帧。
在步骤S303中,对划分出来的多个语音帧中的每个语音帧提取其中的特征,形成特征点,所述特征点可以包括在该语音帧中的语音的频率、幅度等信息。
可选的,所述步骤S303包括:对所述多个语音帧中的每一个进行短时傅里叶变换,得到多个频率特征点;将所述多个频率特征点按照语音帧的顺序组成原始语音图。
所述多个语音帧中的每一个,都表示一段语音信号,该语音信号可以表示为XY坐标空间上的二维图像上的像素点的集合,所述音频信号为一个一维数组,其长度有音频长度和采样率决定,比如采样率为16KHz,表示一秒钟内采样16000个点,这时如果语音信号的长度为10s,则语音文件中有160000个值,值的大小为语音的振幅。使用短时傅里叶变换,将所述语音信号从时域信号转换成频域信号,在使用短时傅里叶变换时,需要使用一个参数H确定针对多少个点进行短时傅里叶变换,如H=512,则在每个语音帧中对512个点进行短时傅里叶变换,又由于傅里叶变换具有对称性,当H为偶数时取H/2+1个点,当H为奇数时,取(H+1)/2个点,比如H为512时最后会得到257个值。将得到的点组成一维列向量,作为原始语音图中的一列向量,将每个语音帧均做上述短时傅里叶变换处理,得到多个列向量,将所述多个列向量按照语音帧的顺序排列,得到所述原始语音图,其中所述特征图在XY坐标空间上的二维图像上的横坐标表示语音帧的顺序,即时间;所述特征图在XY坐标空间上的二维图像的纵坐标表示特征点的频率;所述特征点的灰度值表示特征点的振幅。上述过程如图5a-图5b所示,其中图5a为对一个语音帧进行短时傅里叶变换的示意图,其将时域上的信号图像转换为频域上的信号图像,转换之后为一个以高度表示频率的灰度图,每个小方块表示一个特征点,其灰度值表示该点的振幅;如图5b所示为所有的语音帧均做了短时傅里叶变换之后所生成的原始语音图,其横坐标表示时间(语音帧在语音文件中的序列),纵坐标表示特征点的频率,特征点的灰度表示特征点的振幅。
步骤S202,获取目标语音在所述原始语音图中的标注信息;
在得到所述语音的特征图之后,还需要得到所述原始语音图的标注信息,所述标注信息能够在所述原始语音图中唯一标注所要分割出的目标语音。
可选的,所述标注信息至少包括目标语音在所述原始语音图中的标注位置信息以及标注类别信息,其中所述标注位置信息包括所述目标语音在所述原始语音图中的一对标注边界点,所述标注类别信息包括所述目标语音在多个类别中的标注概率。可以理解的,由于原始语音图的一列特征点对应一个语音帧,因此对目标语音位置的分割只需要两个X轴上的点即可,如图6所示,其中X轴上的两个点X1和X2即可标注出一个目标语音,目标语音在所述原始语音图上为X1和X2之间所代表的语音帧,X1和X2即为所述目标语音的一对边界点。另外还需要标注目标语音的类型,如语音和噪音,第一个人的语音和第二个人的语音等等,示例性的,可以使用一个向量来表示目标语音在多个类别中的标注概率,所述向量中的元素的个数为类别的数量,每个元素对应一种类别,所述目标语音属于哪个种类,哪个种类所对应的元素的值为1,其他元素的值为0。
可以理解的,所述标注信息可以是自动标注的或者是人工标注的,本公开不限定标注信息的生成形式,在此不再赘述。
步骤S203,初始化语音分割模型的模型参数;
可以理解的,所述语音分割模型可以是卷积神经网络等各种网络模型。所述参数可以包括模型中各层的卷积核中的权重、偏置量等等。示例性的,所述语音分割模型包括多个卷积层、多个池化层以及多个全连接层。
所述可选的,所述初始化语音分割模型的模型参数包括将所述参数赋值为预设的值或者随机生成所述参数的初始值。
步骤S204,将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息;
其中,所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到。
可选的,所述语音分割模型中包括一个基础模型和多个卷积层,其中基础模型可以为任何卷积神经网络。如图7所示,为一个语音分割模型的示意图,其中701为在步骤S201中获取到的原始语音图,其被输入到语音分割模型中,所述语音分割模型分为两大部分,一部分为基础模型701,示例性的,所述基础模型701可以为任何一种卷积神经网络,所述原始语音图经过该基础模型可以得到一个所述原始语音图的特征图,之后所述原始语音图的特征图被输入卷积层703,得到原始语音图像的另一个特征图,依次类推,卷积层704和卷积层705也会分别得到一个原始语音图像的特征图,这些特征图即为第一特征图,由于每个卷积层的卷积核不同,因此可以得到4个尺度不同的第一特征图,所述的尺度为第一特征图的维度,示例性的,所述基础模型702输出的第一特征图为38*38*512的特征图,所述卷积层703输出的第一特征图为19*19*1024的特征图,所述卷积层704输出的第一特征图为5*5*256的特征图,所述卷积层705输出的第一特征图为1*1*128的特征图。这些特征图经过检测层706可以得到所述目标语音的预测信息。可以理解的,上述语音分割模型的结构以及第一特征图的维度均为举例,不构成对本公开的限制,实际上任何层数的卷积层和任何维度的特征图都可以应用到本公开中,在此不再赘述。
在该实施例中,所述预测信息至少包括预测位置信息和预测类别信息。其中,所述预测位置信息包括目标语音在所述原始语音图中的多对预测边界点的位置信息,所述预测类别信息包括所述目标语音在多个类别中的预测概率。
可选的,所述步骤S204包括:将所述原始语音图输入所述语音分割模型中;所述语音分割模型输出多个不同尺度的第一特征图;在所述第一特征图上生成多对默认边界点;对所述第一特征图进行卷积计算得到多个一维向量,其中所述一维向量中每个元素对应一对默认边界点,所述每个元素的值为所述目标语音的预测信息。其中,所述默认边界点为预先设置好位置信息的点,其设置原则为:尺度越小的第一特征图上的一对默认边界点之间的距离越大。这是由于,尺度较小的特征图可以用于识别较长的目标语音,而尺度较大的特征图可以用来识别较短的目标语音。在生成多对默认边界点之后,对所述第一特征图使用多个卷积核进行卷积得到多个一维向量,其中一维向量中的每个元素对应一对默认边界点,每个元素的值为其对应的一对默认边界点所对应的预测位置信息和预测类别信息。
可选的,所述在所述第一特征图上生成多对默认边界点,包括:以第一特征图上每组横坐标相同的像素点为中线生成多对默认边界点,其中每个中线所对应的默认边界点的对数相同。如图8所示为生成默认边界点的示意图,其中特征图801为所述的第一特征图,其中802为第一特征图801中横坐标相同的一组像素点,这些像素点一起构成一条竖直的线段,如803所示,在所述像素点所构成竖直线段的两侧生成多对默认边界点,且每对默认边界点到所述竖直线段的距离均相等,每个竖直线段所对应的多对默认边界点所形成的线段的长度不同。对于第一特征图中每组横坐标想用的像素点均按照相同的长度生成多对默认边界点,如图8中所示的示例中,对每组竖直像素生成与其对应的2对默认边界点,则由于一共有5组竖直像素,则一共需要生成10对默认边界点。对每个第一特征图执行上述操作以生成多对默认边界点。如图8所示,所述默认边界点可以通过比例关系映射到所述原始语音图上,这样可以在生成预测位置信息的时候,将默认边界点的位置信息作为锚点信息使用。
可选的,所述对所述第一特征图进行卷积计算得到多个一维向量,包括:
使用(C+2)*K个卷积核对所述第一特征图进行卷积得到(C+2)*K个1*N的一维向量,其中K为每个所述中线所对应的默认边界点的对数,C为目标语音的分类的个数,N为所述中线的个数。其中的2表示一对边界点中的两个边界点的位置信息,具体的其可以是边界点在横轴上的坐标,由于纵坐标为0,因此每个点只用一个横坐标即可表示。C为分类信息中的类别的个数,K为每个中线所对应的默认边界点的对数,在上述示例中K为2。假设在上述示例中,分类信息中的类别个数为4,则一共需要(2+4)*2=12个卷积核。设第一特征图为一个M*N*P的特征图,其中M、N、P分别为所述第一特征图的高度、宽度和深度,每个卷积核为M*3*P的卷积核,通过填充(padding),以步进为1进行卷积,得到12个1*N的一维向量,这12个一维向量可以组成一个1*N*12的特征向量,所述特征向量中的每个元素对应所述中线所对应的两个边界点,每个元素的深度为12,其中深度方向上的4个值表示两对默认边界点的预测位置信息,另外8个值表示两对默认边界点的预测类别信息。如图9所示,为特征向量所表示的预测信息的示意图,预测信息为一个一维特征向量,其元素在深度方向上的值分别表示两个预测边界点的边界点位置的预测位置信息以及两个预测边界点所表示的类别的预测类别信息。
步骤S205,根据目标函数计算所述预测信息和所述标注信息的误差;
在该实施例中,预先设置一个目标函数作为所述语音分割模型的总损失函数,通过该目标函数计算预测信息和所述标注信息的误差。
可选的,在所述步骤S204中得到一维向量的情况下,所述步骤S205包括:
将所述一维向量中的元素的值以及所述标注信息输入所述目标函数计算所述预测信息和所述标注信息的误差。
示例性的,可以使用如下函数作为所述语音分割模型的目标函数:
Figure BDA0002388280190000111
其中,
Figure BDA0002388280190000112
其中,
Figure BDA0002388280190000113
Figure BDA0002388280190000114
其中,
Figure BDA0002388280190000115
其中
Figure BDA0002388280190000116
由上述目标函数可以看出,目标函数包括两部分,分别为位置目标函数Lloc(x,l,g)和类别目标函数Lconf(x,c);其中N为默认边界点对中的正样本的数量,所述的正样本为默认边界点对与标注的边界点对的重合度大于预设阈值的默认边界点对,所述的重合度为所述默认边界点对所连成的线段与所述标注边界点对所连成的线段的重合度。
在Lloc(x,l,g)中,
Figure BDA0002388280190000117
为指标参数,其取值为0或1,当
Figure BDA0002388280190000118
时表示第i对默认边界点与第j对标注边界点匹配,且标准边界点的类别为p;Pos表示正样本,也就是说位置信息的误差只针对正样本计算;cx1和cx2表示一对边界点的中的两个边界点的横坐标;
Figure BDA0002388280190000119
Figure BDA00023882801900001110
表示标注边界点对的两个横坐标,
Figure BDA00023882801900001111
Figure BDA00023882801900001112
表示默认边界点对的两个横坐标;
Figure BDA0002388280190000121
Figure BDA0002388280190000122
表示所述语音分割模型的两个预测位置信息,根据上述公式可以从
Figure BDA0002388280190000123
Figure BDA0002388280190000124
计算出两个预测边界点的横坐标
Figure BDA0002388280190000125
Figure BDA0002388280190000126
在Lconf(x,c)中,
Figure BDA0002388280190000127
表示预测类别为P的概率;
Figure BDA0002388280190000128
表示预测类别为背景(即不包括目标语音)的概率。α为权重系数,示例性的,α=1。
步骤S206,根据所述误差更新所述语音分割模型的参数;
在该实施例中,当所述误差大于或等于预设的第一阈值时,计算所述参数的调整值。示例性的,所述调整值可以根据梯度下降法或者牛顿法等方法计算;将所述参数减去所述调整值得到更新后的参数。
步骤S207,将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
在该步骤中,将所述原始语音图继续输入所述语音分割模型,此时的语音分割模型中的参数为更新后的参数,继续执行所述步骤S204-步骤S206,直至所述误差小于第一阈值为止。此时的所述语音分割模型的参数即为训练好的参数,所述语音分割模型的训练结束。
可以理解的,也可以不设置所述第一阈值,而直接设置迭代次数,此时训练结束的条件即为迭代次数达到预设的次数,在此不再赘述。
训练好的语音分割模型通过原始语音图预测出目标语音的边界点的位置信息以及目标语音的类型,由此可以适用于非同时说话的人的语音分割、语音的端点检测以及唤醒词对齐等等场景。且其使用了基于图像的模型,其复杂度大大小于基于语音信号的模型,而准确度有所提高。
在一个实施例中,本公开还公开了一种语音分割方法,包括:
获取待识别语音文件;
将所述待识别语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成待识别语音文件的原始语音图;
将所述待识别语音文件的原始语音图输入语音分割模型,其中所述语音分割模型是所述的语音分割模型的训练方法训练得到的;
所述语音分割模型输出目标语音在所述原始语音图中的位置信息以及类别信息。
在本公开中,所述输入语音文件通过音频源获取。可选的,该步骤中的音频源为各种音频采集装置,典型的音频采集装置如各种形式的麦克风,麦克风从环境中采集语音将其转换成语音文件。在该步骤中从所述音频采集装置中获取转换好的音频文件。典型的,如图1所示,所述终端设备102包括音频采集装置,如麦克风,通过麦克风可以采集到所述终端设备所在的环境中的语音。
可选的,该步骤中的音频源为存储所述语音文件的存储空间。所述存储空间可以为本地存储空间或者远程存储空间,在该可选实施例中,获取输入语音文件需要首先获取所述存储空间的地址,之后从所述存储空间中获取所述语音文件。
上述步骤中,得到待识别语音文件的原始语音图的步骤的详细过程与上述训练过程中相同,均是将语音信号处理为语音的特征图,以便输入基于图像的语音分割模型中以输出目标语音的位置以及类别。具体可以参见步骤S201-步骤S203中的描述,在此不再赘述。
可以理解的,在使用过程中,上述语音分割模型输出的预测边界点的位置信息可能包括多个,如语音分割模型输出了Q对预测边界点的位置信息,此时还需要对所述Q对位置信息进行处理以得到最终的一对预测边界点。对类别均为P的R个预测边界点,其中R∈Q,按照其预测的概率值进行排序,保留前Z对预测边界点,其中Z为预设的值;选取这Z对预测边界点中概率值最大的一对预测边界点,遍历剩余的预测边界点,如果和概率最大的预测边界点的重合度大于一预设阈值,则将该预测边界点删除;从未处理的预测边界点中继续选取一个概率最大的,重复上述过程,最后剩下的一对预测边界点即为最终的预测边界点。
本公开实施例公开了一种语音分割模型的训练方法、装置、电子设备和计算机可读存储介质。其中该语音分割模型的训练方法包括:获取样本语音文件的原始语音图;获取目标语音在所述原始语音图中的标注信息;初始化语音分割模型的模型参数;将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;根据目标函数计算所述预测信息和所述标注信息的误差;根据所述误差更新所述语音分割模型的参数;将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。上述方法通过将语音信号转换为原始语音图,并使用原始语音图像训练语音分割模型,解决了现有技术中由于语音信号复杂导致的语音分割不准的技术问题。
在上文中,虽然按照上述的顺序描述了上述方法实施例中的各个步骤,本领域技术人员应清楚,本公开实施例中的步骤并不必然按照上述顺序执行,其也可以倒序、并行、交叉等其他顺序执行,而且,在上述步骤的基础上,本领域技术人员也可以再加入其他步骤,这些明显变型或等同替换的方式也应包含在本公开的保护范围之内,在此不再赘述。
图10为本公开实施例提供的语音分割模型的训练装置实施例的结构示意图,如图10所示,该装置1000包括:原始语音图获取模块1001、标注信息获取模块1002、参数初始化模块1003、预测信息获取模块1004、误差计算模块1005、参数更新模块1006和参数迭代模块1007。其中,
原始语音图获取模块1001,用于获取样本语音文件的原始语音图;
标注信息获取模块1002,用于获取目标语音在所述原始语音图中的标注信息;
参数初始化模块1003,用于初始化语音分割模型的模型参数;
预测信息获取模块1004,用于将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;
误差计算模块1005,用于根据目标函数计算所述预测信息和所述标注信息的误差;
参数更新模块1006,用于根据所述误差更新所述语音分割模型的参数;
参数迭代模块1007,用于将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
进一步的,所述原始语音图获取模块1001,还用于:
获取样本语音文件;
将所述样本语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图。
进一步的,所述将所述样本语音文件划分为多个语音帧,包括:
获取语音帧长度α以及语音帧移动间隔β;
以样本语音文件的头部为起点抽取多个语音帧,其中每个语音帧的长度为α,相邻两个语音帧的起点相隔为β。
进一步的,所述提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图,包括:
对所述多个语音帧中的每一个进行短时傅里叶变换,得到多个频率特征点;
将所述多个频率特征点按照语音帧的顺序组成原始语音图。
进一步的,所述标注信息包括:标注位置信息和标注类别信息,所述预测信息包括:预测位置信息和预测类别信息。
进一步的,所述标注位置信息包括所述目标语音在所述原始语音图中的一对标注边界点,所述标注类别信息包括所述目标语音在多个类别中的标注概率;所述预测位置信息包括目标语音在所述原始语音图中的多对预测边界点的位置信息,所述预测类别信息包括所述目标语音在多个类别中的预测概率。
进一步的,所述预测信息获取模块1004,还用于:
将所述原始语音图输入所述语音分割模型中;
所述语音分割模型输出多个不同尺度的第一特征图;
在所述第一特征图上生成多对默认边界点;
对所述第一特征图进行卷积计算得到多个一维向量,其中所述一维向量中每个元素对应一对默认边界点,所述每个元素的值为所述目标语音的预测信息。
进一步的,所述预测信息获取模块1004在所述第一特征图上生成多对默认边界点,包括:
以第一特征图上每组横坐标相同的像素点为中线生成多对默认边界点,其中每个中线所对应的默认边界点的对数相同。
进一步的,所述预测信息获取模块1004对所述第一特征图进行卷积计算得到多个一维向量包括:
使用(C+2)*K个卷积核对所述第一特征图进行卷积得到(C+2)*K个1*N的一维向量,其中K为每个所述中线所对应的默认边界点的对数,C为目标语音的分类的个数,N为所述中线的个数。
进一步的,所述误差计算模块1005,还用于:
将所述一维向量中的元素的值以及所述标注信息输入所述目标函数计算所述预测信息和所述标注信息的误差。
图10所示装置可以执行图1-图9所示实施例的方法,本实施例未详细描述的部分,可参考对图1-图9所示实施例的相关说明。该技术方案的执行过程和技术效果参见图1-图9所示实施例中的描述,在此不再赘述。
本公开实施例还公开了一种语音分割装置,包括:
语音文件获取模块,用于获取待识别语音文件;
分帧模块,用于将所述待识别语音文件划分为多个语音帧;
原始语音图生成模块,用于提取所述多个语音帧中的语音特征点生成待识别语音文件的原始语音图;
输入模块,用于将所述待识别语音文件的原始语音图输入语音分割模型,其中所述语音分割模型是由上述的语音分割模型的训练方法训练得到的;
输出模块,用于所述语音分割模型输出所述目标语音在所述原始语音图中的位置信息以及类别信息。
下面参考图11,其示出了适于用来实现本公开实施例的电子设备1100的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图11示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1100可以包括处理装置(例如中央处理器、图形处理器等)1101,其可以根据存储在只读存储器(ROM)1102中的程序或者从存储装置1108加载到随机访问存储器(RAM)1103中的程序而执行各种适当的动作和处理。在RAM 1103中,还存储有电子设备1100操作所需的各种程序和数据。处理装置1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
通常,以下装置可以连接至I/O接口1105:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1106;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1107;包括例如磁带、硬盘等的存储装置1108;以及通信装置1109。通信装置1109可以允许电子设备1100与其他设备进行无线或有线通信以交换数据。虽然图11示出了具有各种装置的电子设备1100,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1109从网络上被下载和安装,或者从存储装置1108被安装,或者从ROM 1102被安装。在该计算机程序被处理装置1101执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取样本语音文件的原始语音图;获取目标语音在所述原始语音图中的标注信息;初始化语音分割模型的模型参数;将所述原始语音图输入所述语音分割模型中得到所述语音分割模型输出的所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;根据目标函数计算所述预测信息和所述标注信息的误差;根据所述误差更新所述语音分割模型的参数;将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (13)

1.一种语音分割模型的训练方法,其特征在于,所述方法包括:
获取样本语音文件的原始语音图;
获取目标语音在所述原始语音图中的标注信息;
初始化语音分割模型的模型参数;
将所述原始语音图输入所述语音分割模型中;
所述语音分割模型输出多个不同尺度的第一特征图;
以第一特征图上每组横坐标相同的像素点为中线生成多对默认边界点,其中每个中线所对应的默认边界点的对数相同;
对所述第一特征图进行卷积计算得到多个一维向量,其中所述一维向量中每个元素对应一对默认边界点,所述每个元素的值为所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;
根据目标函数计算所述预测信息和所述标注信息的误差;
根据所述误差更新所述语音分割模型的参数;
将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
2.如权利要求1所述的语音分割模型的训练方法,其特征在于,所述获取样本语音文件的原始语音图,包括:
获取样本语音文件;
将所述样本语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图。
3.如权利要求2所述的语音分割模型的训练方法,其特征在于,所述将所述样本语音文件划分为多个语音帧,包括:
获取语音帧长度α以及语音帧移动间隔β;
以样本语音文件的头部为起点抽取多个语音帧,其中每个语音帧的长度为α,相邻两个语音帧的起点相隔为β。
4.如权利要求2所述的语音分割模型的训练方法,其特征在于,所述提取所述多个语音帧中的语音特征点生成样本语音文件的原始语音图,包括:
对所述多个语音帧中的每一个进行短时傅里叶变换,得到多个频率特征点;
将所述多个频率特征点按照语音帧的顺序组成原始语音图。
5.如权利要求1所述的语音分割模型的训练方法,其特征在于,所述标注信息包括:标注位置信息和标注类别信息,所述预测信息包括:预测位置信息和预测类别信息。
6.如权利要求5所述的语音分割模型的训练方法,其特征在于,所述标注位置信息包括所述目标语音在所述原始语音图中的一对标注边界点,所述标注类别信息包括所述目标语音在多个类别中的标注概率;所述预测位置信息包括目标语音在所述原始语音图中的多对预测边界点的位置信息,所述预测类别信息包括所述目标语音在多个类别中的预测概率。
7.如权利要求1所述的语音分割模型的训练方法,其特征在于,所述对所述第一特征图进行卷积计算得到多个一维向量,包括:
使用(C+2)*K个卷积核对所述第一特征图进行卷积得到(C+2)*K个1*N的一维向量,其中K为每个所述中线所对应的默认边界点的对数,C为目标语音的分类的个数,N为所述中线的个数。
8.如权利要求7所述的语音分割模型的训练方法,其特征在于,所述根据目标函数计算所述预测信息和所述标注信息的误差,包括:
将所述一维向量中的元素的值以及所述标注信息输入所述目标函数计算所述预测信息和所述标注信息的误差。
9.一种语音分割方法,包括:
获取待识别语音文件;
将所述待识别语音文件划分为多个语音帧;
提取所述多个语音帧中的语音特征点生成待识别语音文件的原始语音图;
将所述待识别语音文件的原始语音图输入语音分割模型,其中所述语音分割模型是由权利要求1-8中任意一项所述的语音分割模型的训练方法训练得到的;
所述语音分割模型输出目标语音在所述原始语音图中的位置信息以及类别信息。
10.一种语音分割模型的训练装置,包括:
原始语音图获取模块,用于获取样本语音文件的原始语音图;
标注信息获取模块,用于获取目标语音在所述原始语音图中的标注信息;
参数初始化模块,用于初始化语音分割模型的模型参数;
预测信息获取模块,用于将所述原始语音图输入所述语音分割模型中;所述语音分割模型输出多个不同尺度的第一特征图;以第一特征图上每组横坐标相同的像素点为中线生成多对默认边界点,其中每个中线所对应的默认边界点的对数相同;对所述第一特征图进行卷积计算得到多个一维向量,其中所述一维向量中每个元素对应一对默认边界点,所述每个元素的值为所述目标语音的预测信息,其中所述目标语音的预测信息通过所述语音分割模型所输出的多个尺度不同的第一特征图得到;
误差计算模块,用于根据目标函数计算所述预测信息和所述标注信息的误差;
参数更新模块,用于根据所述误差更新所述语音分割模型的参数;
参数迭代模块,用于将所述原始语音图输入更新参数后的语音分割模型中以迭代上述参数更新的过程直至所述误差小于第一阈值。
11.一种语音分割装置,包括:
语音文件获取模块,用于获取待识别语音文件;
分帧模块,用于将所述待识别语音文件划分为多个语音帧;
原始语音图生成模块,用于提取所述多个语音帧中的语音特征点生成待识别语音文件的原始语音图;
输入模块,用于将所述待识别语音文件的原始语音图输入语音分割模型,其中所述语音分割模型是由权利要求1-8中任意一项所述的语音分割模型的训练方法训练得到的;
输出模块,用于所述语音分割模型输出所述目标语音在所述原始语音图中的位置信息以及类别信息。
12.一种电子设备,包括:
存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述处理器运行时实现根据权利要求1-8中任意一项所述的语音分割模型的训练方法或权利要求9所述的语音分割方法。
13.一种非暂态计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机执行根据权利要求1-8中任意一项所述的语音分割模型的训练方法或权利要求9所述的语音分割方法。
CN202010106843.5A 2020-02-20 2020-02-20 语音分割模型的训练方法、装置和电子设备 Active CN111312224B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010106843.5A CN111312224B (zh) 2020-02-20 2020-02-20 语音分割模型的训练方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010106843.5A CN111312224B (zh) 2020-02-20 2020-02-20 语音分割模型的训练方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN111312224A CN111312224A (zh) 2020-06-19
CN111312224B true CN111312224B (zh) 2023-04-21

Family

ID=71147202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010106843.5A Active CN111312224B (zh) 2020-02-20 2020-02-20 语音分割模型的训练方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN111312224B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112951200B (zh) * 2021-01-28 2024-03-12 北京达佳互联信息技术有限公司 语音合成模型的训练方法、装置、计算机设备及存储介质
CN114203166B (zh) * 2021-12-10 2023-03-31 零犀(北京)科技有限公司 基于人机对话的训练数据的生成方法、装置和设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107393526A (zh) * 2017-07-19 2017-11-24 腾讯科技(深圳)有限公司 语音静音检测方法、装置、计算机设备和存储介质
CN107680611A (zh) * 2017-09-13 2018-02-09 电子科技大学 基于卷积神经网络的单通道声音分离方法
CN108053836A (zh) * 2018-01-18 2018-05-18 成都嗨翻屋文化传播有限公司 一种基于深度学习的音频自动化标注方法
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN108596184A (zh) * 2018-04-25 2018-09-28 清华大学深圳研究生院 图像语义分割模型的训练方法、可读存储介质及电子设备
CN109616097A (zh) * 2019-01-04 2019-04-12 平安科技(深圳)有限公司 语音数据处理方法、装置、设备及存储介质
WO2019113130A1 (en) * 2017-12-05 2019-06-13 Synaptics Incorporated Voice activity detection systems and methods
CN110534123A (zh) * 2019-07-22 2019-12-03 中国科学院自动化研究所 语音增强方法、装置、存储介质、电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8756061B2 (en) * 2011-04-01 2014-06-17 Sony Computer Entertainment Inc. Speech syllable/vowel/phone boundary detection using auditory attention cues

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107393526A (zh) * 2017-07-19 2017-11-24 腾讯科技(深圳)有限公司 语音静音检测方法、装置、计算机设备和存储介质
CN107680611A (zh) * 2017-09-13 2018-02-09 电子科技大学 基于卷积神经网络的单通道声音分离方法
WO2019113130A1 (en) * 2017-12-05 2019-06-13 Synaptics Incorporated Voice activity detection systems and methods
CN108053836A (zh) * 2018-01-18 2018-05-18 成都嗨翻屋文化传播有限公司 一种基于深度学习的音频自动化标注方法
CN108596184A (zh) * 2018-04-25 2018-09-28 清华大学深圳研究生院 图像语义分割模型的训练方法、可读存储介质及电子设备
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN109616097A (zh) * 2019-01-04 2019-04-12 平安科技(深圳)有限公司 语音数据处理方法、装置、设备及存储介质
CN110534123A (zh) * 2019-07-22 2019-12-03 中国科学院自动化研究所 语音增强方法、装置、存储介质、电子设备

Also Published As

Publication number Publication date
CN111312224A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN110413812B (zh) 神经网络模型的训练方法、装置、电子设备及存储介质
CN112183120A (zh) 语音翻译方法、装置、设备和存储介质
CN112668588B (zh) 车位信息生成方法、装置、设备和计算机可读介质
CN113436620B (zh) 语音识别模型的训练方法、语音识别方法、装置、介质及设备
CN110826567B (zh) 光学字符识别方法、装置、设备及存储介质
CN113327599B (zh) 语音识别方法、装置、介质及电子设备
CN111597825B (zh) 语音翻译方法、装置、可读介质及电子设备
CN111883117B (zh) 语音唤醒方法及装置
CN113033580B (zh) 图像处理方法、装置、存储介质及电子设备
CN112766284B (zh) 图像识别方法和装置、存储介质和电子设备
CN112883968B (zh) 图像字符识别方法、装置、介质及电子设备
CN111312224B (zh) 语音分割模型的训练方法、装置和电子设备
CN113449070A (zh) 多模态数据检索方法、装置、介质及电子设备
CN111312223B (zh) 语音分割模型的训练方法、装置和电子设备
CN111128131B (zh) 语音识别方法、装置、电子设备及计算机可读存储介质
CN114429658A (zh) 人脸关键点信息获取方法、生成人脸动画的方法及装置
CN112752118B (zh) 视频生成方法、装置、设备及存储介质
CN116913258B (zh) 语音信号识别方法、装置、电子设备和计算机可读介质
CN115984868A (zh) 文本处理方法、装置、介质及设备
CN113593527B (zh) 一种生成声学特征、语音模型训练、语音识别方法及装置
CN114004229A (zh) 文本识别方法、装置、可读介质及电子设备
CN114724164A (zh) 文本识别方法、装置、介质及设备
CN111914535B (zh) 一种单词识别方法、装置、计算机设备和存储介质
CN111460214B (zh) 分类模型训练方法、音频分类方法、装置、介质及设备
CN113902838A (zh) 动画生成方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant