CN113192487B - 支持多语言混合的语音识别方法、装置、设备及存储介质 - Google Patents
支持多语言混合的语音识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113192487B CN113192487B CN202110481677.1A CN202110481677A CN113192487B CN 113192487 B CN113192487 B CN 113192487B CN 202110481677 A CN202110481677 A CN 202110481677A CN 113192487 B CN113192487 B CN 113192487B
- Authority
- CN
- China
- Prior art keywords
- voice
- training data
- training
- features
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 137
- 238000003062 neural network model Methods 0.000 claims abstract description 42
- 230000015654 memory Effects 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 5
- 238000010183 spectrum analysis Methods 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims 2
- 230000006403 short-term memory Effects 0.000 claims 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000012512 characterization method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能,提供一种支持多语言混合的语音识别方法,包括:获取训练数据的语音特征;通过至少两个平行网络获取与所述语音特征分别对应的高维特征;对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;通过所述语音识别模型对待识别的多语言混合信号进行语音识别。本发明可以提高多语言混合语音的识别精度。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种支持多语言混合的语音识别的方法、装置、设备、电子设备及计算机可读存储介质。
背景技术
伴随着人工智能技术的发展,越来越多的智能硬件进入人们的生活,而语音输入作为人机交互中最自然、最便捷的方式,逐渐成为主流的交互方式。因此,语音识别的性能直接决定了交互质量的高低。同时,由于全球化的不断深入,不同地区的文化、语言交流日益频繁,人们的语音中经常混合着不同语种,如普通话-英语、粤语-英语、普通话-粤语等。目前的语音识别系统在单一语种的识别任务上具备较好的性能,但在多语种混合识别的场景中还有很大的提升空间。
目前,能够实现多语种混合语音识别的技术方案主要包括以下几种:1、基于两套单一语种的声学建模单元,先采用两个支持单一语种的语音识别模型分别对语音进行识别,再结合语种分类器对识别结果进行选取、整合;2、将上述方法中的单一语种识别模型进行合并,进行参数共享,共享后的模型依然具有两个语种的输出,同样使用语种分类器对识别结果进行选取、整合;3、将两套单一语种的声学建模单元进行合并,使用一个统一的识别模型对语音进行识别,不再需要语种分类器,输出结果即为混合语音的识别结果。
在上述各方案中,方案1和方案2需要依赖高质量的语种分类器,且计算资源消耗较大,而方案3虽然系统设计简单,计算复杂度较小,但对于语种的区分度不够,尤其对于相近的发音单元,以及在训练语料中时长占比较少的语种,其识别性能普遍较差,导致识别精度低,效果差。
发明内容
本发明提供一种支持多语言混合的语音识别方法、装置、设备、电子设备及计算机可读存储介质,其主要目的在于提高多语言混合的语音识别的准确度。
为实现上述目的,本发明提供的一种支持多语言混合的语音识别方法,其特征在于,所述方法包括:
获取训练数据的语音特征;
通过至少两个平行网络获取与所述语音特征分别对应的高维特征;
对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;
基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;
通过所述语音识别模型对待识别的多语言混合信号进行语音识别。
可选地,所述获取训练数据的语音特征的步骤包括:
对所述训练数据进行频谱分析,获取与所述训练数据对应的语谱图;
利用预设卷积神经网络对所述语谱图进行特征提取,获取与所述训练数据对应的所述语音特征。
可选地,所述获取训练数据的语音特征的步骤包括:
预先训练语音特征提取模型;
将所述训练数据输入所述语音特征提取模型,通过所述语音特征提取模型对所述训练数据进行编码,以获取所述训练数据的隐层特征;
对所述隐层特征进行非线性空间映射,获取与所述训练数据对应的所述语音特征。
可选地,所述训练数据包括有标注的语音信号数据以及无标注的语音信号数据;
所述有标注的语音信号数据采用数据集或语料库中的标注数据,或者人工、标注模型完成标注的标注数据。
可选地,所述通过至少两个平行网络获取与所述语音特征分别对应的高维特征的步骤包括:
基于预设的单一语种的语料一,获取与所述语料一对应的语音特征一,基于所述语音特征一训练所述平行网络中的一个网络;同时,
基于预设的另一语种的语料二,获取与所述语料二对应的语音特征二,基于所述语音特征二训练所述平行网络中的另一网络,循环执行上述步骤,直至所有平行网络训练完成;
基于训练完成的平行网络,获取与所述训练数据的语音特征分别对应的高维特征。
可选地,所述对所述平行网络输出的高维特征进行特征拼接的步骤包括:
对各高维特征进行加和平拼接和/或串联拼接;并且,
所述各高维特征在所述拼接特征中的占比可调。
可选地,所述通过所述语音识别模型对待识别的多语言混合信号进行语音识别的识别结果包括:
所述待识别的多语言混合信号中不同语种的发音单元进行合并,且所述各不同语种之间相互独立;或者,
所述待识别的多语言混合信号中不同语种且相似度符合预设要求的发音单元重新映射到共同的目标发音单元,形成不同语种的部分独立和部分融合;
或者,所述待识别的多语言混合信号中不同语种全部映射到预设通用发音规则上,形成不同语种的完全融合。
可选地,所述语音识别模型包括长短期记忆网络、双向长短期记忆网络、卷积神经网络中的至少一种或至少两组的组合。
为了解决上述问题,本发明还提供一种支持多语言混合的语音识别装置,所述装置包括:
语音特征获取单元,用于获取训练数据的语音特征;
高维特征获取单元,用于通过至少两个平行网络获取与所述语音特征分别对应的高维特征;
拼接特征获取单元,用于对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;
语音识别模型形成单元,用于基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;
语音识别单元,用于通过所述语音识别模型对待识别的多语言混合信号进行语音识别。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的支持多语言混合的语音识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的支持多语言混合的语音识别方法。
本发明实施例通过获取训练数据的语音特征,然后通过至少两个平行网络获取与语音特征分别对应的高维特征,对平行网络输出的高维特征进行特征拼接,并获取与训练数据对应的拼接特征;基于拼接特征训练神经网络模型,直至神经网络模型收敛至预设范围内,形成语音识别模型;通过语音识别模型对待识别的多语言混合信号进行语音识别,能够实现对多语种混合语音的高准确度语音识别,识别准确度高、计算消耗小、可适用范围广。
附图说明
图1为本发明一实施例提供的支持多语言混合的语音识别方法的流程示意图;
图2为本发明一实施例提供的神经网络模型的结构图;
图3为本发明一实施例提供的支持多语言混合的语音识别装置的模块示意图;
图4为本发明一实施例提供的实现支持多语言混合的语音识别方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种支持多语言混合的语音识别方法。参照图1所示,为本发明一实施例提供的支持多语言混合的语音识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本发明实施例中,支持多语言混合的语音识别方法主要包括:获取训练数据的语音特征;通过至少两个平行网络获取与所述语音特征分别对应的高维特征;对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;通过所述语音识别模型对待识别的多语言混合信号进行语音识别,能够基于当前语音特征的声学概率分布,进行后续的语音识别解码过程,能够实现对多语种混合语音的高准确度语音识别。
具体地,支持多语言混合的语音识别方法包括以下步骤:
S110:获取训练数据的语音特征。
在获取语音特征的过程中存在多种方式,在本发明的具体实施方式中,所述获取训练数据的语音特征的步骤可以包括:
1、对所述训练数据进行频谱分析,获取与所述训练数据对应的语谱图;
2、利用预设卷积神经网络对所述语谱图进行特征提取,获取与所述训练数据对应的所述语音特征。
其中,上述预设卷积神经网络可包括TDNN(Time Delay Neural Network,时间延迟网络)、WaveNet(一维卷积神经网络)等多种类型的具有深度结构的前馈神经网络,能够实现对语谱图进行特征提取均可,本发明并不对卷积神经网路进行具体限制。
或者,还可以采用其他方式获取该语音特征,例如,获取训练数据的语音特征的步骤包括:
1、预先训练语音特征提取模型;
2、将所述训练数据输入所述语音特征提取模型,通过所述语音特征提取模型对所述训练数据进行编码,以获取所述训练数据的隐层特征;
3、对所述隐层特征进行非线性空间映射,获取与所述训练数据对应的所述语音特征。
具体地,此处的隐层特征用于对语音数据进行整体上的全面表达。随即对隐层特征进行非线性空间映射,从而将隐层特征映射到新的空间,得到语音特征。通过非线性空间映射,可以使得输出的语音特征对于特征表达具有更强的拟合性,从而实现更加准确的特征表征。在此过程中,语音特征提取模型无需对训练数据,即语音数据进行降维即可实现语音特征的表征,因此避免了由于人为降维带来的高维特征损失。
此外,所述训练数据包括有标注的语音信号数据以及无标注的语音信号数据;所述有标注的语音信号数据采用数据集或语料库中的标注数据,或者人工、标注模型完成标注的标注数据。需要说明的是,有标注的语音信号数据可以采用现有数据集或语料库中的数据,也可以进行人工或模型进行标注。其中,在对语音数据进行标注时,可以训练标注模型,标注模型可采用长短期记忆网络模型、双向长短期记忆网络模型、条件随机场模型、双向编码器表征模型中的一种模型或至少两组的组合模型等。
S120:通过至少两个平行网络获取与所述语音特征分别对应的高维特征。
具体地,通过至少两个平行网络获取与所述语音特征分别对应的高维特征的步骤包括:
S121:基于预设的单一语种的语料一,获取与所述语料一对应的语音特征一,基于所述语音特征一训练所述平行网络中的一个网络;同时,
S122:基于预设的另一语种的语料二,获取与所述语料二对应的语音特征二,基于所述语音特征二训练所述平行网络中的另一网络。
循环执行上述步骤,直至所有平行网络训练完成,上述平行网络主要是指相互平行的多个神经网络结构,多个神经网络结构之间相互平行,分别对语音特征进行处理,通过平行网络获取对应的高纬度特征,相互平行的神经网络的个数或大小可根据具体的应用场景或者需求进行设置及调整。
S123:基于训练完成的平行网络,获取与所述训练数据的语音特征分别对应的高维特征。
可知,所述平行网络分别采用不同的单一语种的训练语料进行预训练,用于提升识别模型对两个语种的鉴别能力,用于后续的语音识别解码过程中。
S130:对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征。
其中,对各高维特征进行加和平拼接和/或串联拼接;并且,所述各高维特征在所述拼接特征中的占比可调。换言之,对上述步骤获取的所有高维特征分别进行特征拼接,该特征拼接包括对各高维特征进行串联或者对各高维特征进行加和处理等,形成与训练数据对应的拼接特征。即特征拼接包括串联拼接、加和拼接等。
具体地,在对各高维特征进行拼接之前,为了保证各高维特征的合理占比,可以对部分高维特征进行降维或者其他处理。
S140:基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型。
其中,神经网络模型可以理解为包括步骤S120中的平行网络和连接在平行网络上的下层共享网络层,该拼接特征输入至下层共享网络层中,并进行重复训练,直至所述神经网络模型的误差收敛在预设范围内,完成语音识别模型的训练过程。
具体地,本发明的神经网络模型的示意结构可如图2神经网络模型的结构所示,包括语料库corpus、和语料库连接的两个平行网络,两个平行网络分别包括输入层input和依次连接的若干个隐藏层hidden layer,两个平行网络的最后一层的隐藏层的输出共同连接至下层共享网络的联合层joint中,然后通过多个隐藏层hidden layer从output layer(输出层)输出与训练数据对应的语音识别结果。
其中,预设范围主要是指神经网络模型的误差范围,该误差可包括模型输出的MSE((Mean Squared Error,均方差)误差函数、交叉熵误差函数,或多种误差函数的结合等,预设范围的大小可根据神经网络模型的训练要求或适用场景进行设定或调整,本发明并不对该预设范围进行具体限定。
需要说明的是,各平行网络的层数可以设置为相同或者不同,例如,可以基于两种语种在实际场景中出现的行对频率,调整各平行网络的相对大小,保证特定语种的识别性能,实现计算资源消耗与模型性能之间的平衡;同理,下层共享网络层的大小也可以根据具体的应用场景或者识别需求进行调整。
在本发明的另一实施方式中,也可以根据获取的训练数据的语音特征,预训练平行网络,并拼接训练后的各平行网络,该拼接后的各平行网络可作为语音识别模型的神经网络模型的一部分,即各平行网络通过训练数据中的单一的语种分别进行预训练后再拼接,拼接后的网络进一步与神经网络模型的下层共享网络层进行连接即可。
S150:通过所述语音识别模型对待识别的多语言混合信号进行语音识别。
在该步骤中,所述通过所述语音识别模型对待识别的多语言混合信号进行语音识别的识别结果包括:
所述待识别的多语言混合信号中不同语种的发音单元进行合并,且所述各不同语种之间相互独立;或者,
所述待识别的多语言混合信号中不同语种且相似度符合预设要求的发音单元重新映射到共同的目标发音单元,形成不同语种的部分独立和部分融合;
或者,所述待识别的多语言混合信号中不同语种全部映射到预设通用发音规则上,形成不同语种的完全融合。
具体地,通过语音识别模型输出的识别结果包括三种情况,第一种情况:将待识别的声音信号中的不同的语种的发音单元进行合并,各语种之间保持独立;第二种情况,将相似的不同的语种的发音单元重新映射至一个共同的发音单元,实现两种不同语种的声音信号的部分独立,部分融合;其中,映射规则可根据应用场景进行人为设定;第三种情况,预先设定一套通用的发音规则(例如,国际音标),分别将不同的语种均映射到一个通用的发音规则上,形成一个完全融合的发音单元。
针对上述各个不同情况的识别结果,均可以在语音识别模型的训练过程中通过训练来实现,具体可根据神经网络模型的训练参数或具体结构进行设定,神经网络模型也可采用长短期记忆网络(LSTM)、双向长短期记忆网络(BiLSTM)、卷积神经网路(CNN)等网络中的一种或至少两组组合而成。
如图3所示,是本发明支持多语言混合的语音识别装置的功能模块图。
本发明所述支持多语言混合的语音识别装置100可以安装于电子设备中。根据实现的功能,所述支持多语言混合的语音识别装置可以包括语音特征获取单元101、高维特征获取单元102、拼接特征获取单元103、语音识别模型形成单元104、语音识别单元105。本发所述单元也可以称之为模块,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
具体地,语音特征获取单元101,用于获取训练数据的语音特征。
其中,在获取语音特征的过程中存在多种方式,在本发明的具体实施方式中,所述获取训练数据的语音特征的步骤可以包括:
1、对所述训练数据进行频谱分析,获取与所述训练数据对应的语谱图;
2、利用预设卷积神经网络对所述语谱图进行特征提取,获取与所述训练数据对应的所述语音特征。
或者,还可以采用其他方式获取该语音特征,例如,获取训练数据的语音特征的步骤包括:
1、预先训练语音特征提取模型;
2、将所述训练数据输入所述语音特征提取模型,通过所述语音特征提取模型对所述训练数据进行编码,以获取所述训练数据的隐层特征;
3、对所述隐层特征进行非线性空间映射,获取与所述训练数据对应的所述语音特征。
具体地,此处的隐层特征用于对语音数据进行整体上的全面表达。随即对隐层特征进行非线性空间映射,从而将隐层特征映射到新的空间,得到语音特征。通过非线性空间映射,可以使得输出的语音特征对于特征表达具有更强的拟合性,从而实现更加准确的特征表征。在此过程中,语音特征提取模型无需对训练数据,即语音数据进行降维即可实现语音特征的表征,因此避免了由于人为降维带来的高维特征损失。
此外,所述训练数据包括有标注的语音信号数据以及无标注的语音信号数据;所述有标注的语音信号数据采用数据集或语料库中的标注数据,或者人工、标注模型完成标注的标注数据。需要说明的是,有标注的语音信号数据可以采用现有数据集或语料库中的数据,也可以进行人工或模型进行标注。其中,在对语音数据进行标注时,可以训练标注模型,标注模型可采用长短期记忆网络模型、双向长短期记忆网络模型、条件随机场模型、双向编码器表征模型中的一种模型或至少两组的组合模型等。
高维特征获取单元102,用于通过至少两个平行网络获取与所述语音特征分别对应的高维特征。
具体地,该单元102进一步包括:
S121:基于预设的单一语种的语料一,获取与所述语料一对应的语音特征一,基于所述语音特征一训练所述平行网络中的一个网络;同时,
S122:基于预设的另一语种的语料二,获取与所述语料二对应的语音特征二,基于所述语音特征二训练所述平行网络中的另一网络。
循环执行上述步骤,直至所有平行网络训练完成,平行网络的个数或大小可根据具体的应用场景或者需求进行设置及调整。
S123:基于训练完成的平行网络,获取与所述训练数据的语音特征分别对应的高维特征。
可知,所述平行网络分别采用不同的单一语种的训练语料进行预训练,用于提升识别模型对两个语种的鉴别能力,用于后续的语音识别解码过程中。
拼接特征获取单元103,用于对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征。
其中,对各高维特征进行加和平拼接和/或串联拼接;并且,所述各高维特征在所述拼接特征中的占比可调。换言之,对上述步骤获取的所有高维特征分别进行特征拼接,该特征拼接包括对各高维特征进行串联或者对各高维特征进行加和处理等,形成与训练数据对应的拼接特征。即特征拼接包括串联拼接、加和拼接等。
具体地,在对各高维特征进行拼接之前,为了保证各高维特征的合理占比,可以对部分高维特征进行降维或者其他处理。
语音识别模型形成单元104,用于基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型。
其中,神经网络模型可以理解为包括步骤S120中的平行网络和连接在平行网络上的下层共享网络层,该拼接特征输入至下层共享网络层中,并进行重复训练,直至所述神经网络模型的误差收敛在预设范围内,完成语音识别模型的训练过程。
具体地,本发明的神经网络模型的示意结构可如图2神经网络模型的结构所示,包括和语料库连接的两个平行网络,两个平行网络的输出层共同连接至下层共享网络的joint层中,然后通过多个隐藏层从output layer(输出层)输出与训练数据对应的语音识别结果。
需要说明的是,各平行网络的层数可以设置为相同或者不同,例如,可以基于两种语种在实际场景中出现的行对频率,调整各平行网络的相对大小,保证特定语种的识别性能,实现计算资源消耗与模型性能之间的平衡;同理,下层共享网络层的大小也可以根据具体的应用场景或者识别需求进行调整。
在本发明的另一实施方式中,也可以根据获取的训练数据的语音特征,预训练平行网络,并拼接训练后的各平行网络,该拼接后的各平行网络可作为语音识别模型的神经网络模型的一部分,即各平行网络通过训练数据中的单一的语种分别进行预训练后再拼接,拼接后的网络进一步与神经网络模型的下层共享网络层进行连接即可。
语音识别单元105,用于通过所述语音识别模型对待识别的多语言混合信号进行语音识别。
具体地,通过语音识别模型输出的识别结果包括三种情况,第一种情况:将待识别的声音信号中的不同的语种的发音单元进行合并,各语种之间保持独立;第二种情况,将相似的不同的语种的发音单元重新映射至一个共同的发音单元,实现两种不同语种的声音信号的部分独立,部分融合;其中,映射规则可根据应用场景进行人为设定;第三种情况,预先设定一套通用的发音规则(例如,国际音标),分别将不同的语种均映射到一个通用的发音规则上,形成一个完全融合的发音单元。
针对上述各个不同情况的识别结果,均可以在语音识别模型的训练过程中通过训练来实现,具体可根据神经网络模型的训练参数或具体结构进行设定,神经网络模型也可采用长短期记忆网络(LSTM)、双向长短期记忆网络(BiLSTM)、卷积神经网路(CNN)等网络中的一种或至少两组组合而成。
如图4所示,是本发明实现支持多语言混合的语音识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如支持多语言混合的语音识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如支持多语言混合的语音识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如支持多语言混合的语音识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的支持多语言混合的语音识别程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取训练数据的语音特征;
通过至少两个平行网络获取与所述语音特征分别对应的高维特征;
对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;
基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;
通过所述语音识别模型对待识别的多语言混合信号进行语音识别。
可选地,所述获取训练数据的语音特征的步骤包括:
对所述训练数据进行频谱分析,获取与所述训练数据对应的语谱图;
利用预设卷积神经网络对所述语谱图进行特征提取,获取与所述训练数据对应的所述语音特征。
可选地,所述获取训练数据的语音特征的步骤包括:
预先训练语音特征提取模型;
将所述训练数据输入所述语音特征提取模型,通过所述语音特征提取模型对所述训练数据进行编码,以获取所述训练数据的隐层特征;
对所述隐层特征进行非线性空间映射,获取与所述训练数据对应的所述语音特征。
可选地,所述训练数据包括有标注的语音信号数据以及无标注的语音信号数据;
所述有标注的语音信号数据采用数据集或语料库中的标注数据,或者人工、标注模型完成标注的标注数据。
可选地,所述通过至少两个平行网络获取与所述语音特征分别对应的高维特征的步骤包括:
基于预设的单一语种的语料一,获取与所述语料一对应的语音特征一,基于所述语音特征一训练所述平行网络中的一个网络;同时,
基于预设的另一语种的语料二,获取与所述语料二对应的语音特征二,基于所述语音特征二训练所述平行网络中的另一网络,循环执行上述步骤,直至所有平行网络训练完成;
基于训练完成的平行网络,获取与所述训练数据的语音特征分别对应的高维特征。
可选地,所述对所述平行网络输出的高维特征进行特征拼接的步骤包括:
对各高维特征进行加和平拼接和/或串联拼接;并且,
所述各高维特征在所述拼接特征中的占比可调。
可选地,所述通过所述语音识别模型对待识别的多语言混合信号进行语音识别的识别结果包括:
所述待识别的多语言混合信号中不同语种的发音单元进行合并,且所述各不同语种之间相互独立;或者,
所述待识别的多语言混合信号中不同语种且相似度符合预设要求的发音单元重新映射到共同的目标发音单元,形成不同语种的部分独立和部分融合;
或者,所述待识别的多语言混合信号中不同语种全部映射到预设通用发音规则上,形成不同语种的完全融合。
可选地,所述语音识别模型包括长短期记忆网络、双向长短期记忆网络、卷积神经网络中的至少一种或至少两组的组合。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
所述计算机可读存储介质中存储有至少一个指令,至少一个指令被电子设备中的处理器执行以实现上述所述的支持多语言混合的语音识别方法。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种支持多语言混合的语音识别方法,其特征在于,所述方法包括:
获取训练数据的语音特征;
通过至少两个平行网络获取与所述语音特征分别对应的高维特征;
对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;
基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;
通过所述语音识别模型对待识别的多语言混合信号进行语音识别;
所述通过至少两个平行网络获取与所述语音特征分别对应的高维特征的步骤包括:
基于预设的单一语种的语料一,获取与所述语料一对应的语音特征一,基于所述语音特征一训练所述平行网络中的一个网络;同时,
基于预设的另一语种的语料二,获取与所述语料二对应的语音特征二,基于所述语音特征二训练所述平行网络中的另一网络,循环执行上述步骤,直至所有平行网络训练完成;
基于训练完成的平行网络,获取与所述训练数据的语音特征分别对应的高维特征;
所述神经网络模型包括语料库以及与语料库连接的两个平行网络,所述两个平行网络分别包括输入层和依次连接的若干个隐藏层,所述两个平行网络的最后一层的隐藏层的输出,共同连接至下层共享网络的联合层中,然后通过多个隐藏层从输出层输出与所述训练数据对应的语音识别结果。
2.如权利要求1所述的支持多语言混合的语音识别方法,其特征在于,所述获取训练数据的语音特征的步骤包括:
对所述训练数据进行频谱分析,获取与所述训练数据对应的语谱图;
利用预设卷积神经网络对所述语谱图进行特征提取,获取与所述训练数据对应的所述语音特征。
3.如权利要求1所述的支持多语言混合的语音识别方法,其特征在于,所述获取训练数据的语音特征的步骤包括:
预先训练语音特征提取模型;
将所述训练数据输入所述语音特征提取模型,通过所述语音特征提取模型对所述训练数据进行编码,以获取所述训练数据的隐层特征;
对所述隐层特征进行非线性空间映射,获取与所述训练数据对应的所述语音特征。
4.如权利要求1所述的支持多语言混合的语音识别方法,其特征在于,
所述训练数据包括有标注的语音信号数据以及无标注的语音信号数据;
所述有标注的语音信号数据采用数据集或语料库中的标注数据,或者人工、标注模型完成标注的标注数据。
5.如权利要求1所述的支持多语言混合的语音识别方法,其特征在于,所述对所述平行网络输出的高维特征进行特征拼接的步骤包括:
对各高维特征进行加和平拼接和/或串联拼接;并且,
所述各高维特征在所述拼接特征中的占比可调。
6.如权利要求1所述的支持多语言混合的语音识别方法,其特征在于,所述通过所述语音识别模型对待识别的多语言混合信号进行语音识别的识别结果包括:
所述待识别的多语言混合信号中不同语种的发音单元进行合并,且各不同语种之间相互独立;或者,
所述待识别的多语言混合信号中不同语种且相似度符合预设要求的发音单元重新映射到共同的目标发音单元,形成不同语种的部分独立和部分融合;
或者,所述待识别的多语言混合信号中不同语种全部映射到预设通用发音规则上,形成不同语种的完全融合。
7.如权利要求1所述的支持多语言混合的语音识别方法,其特征在于,
所述语音识别模型包括长短期记忆网络、双向长短期记忆网络、卷积神经网络中的至少一种或至少两组的组合。
8.一种支持多语言混合的语音识别装置,其特征在于,所述装置包括:
语音特征获取单元,用于获取训练数据的语音特征;
高维特征获取单元,用于通过至少两个平行网络获取与所述语音特征分别对应的高维特征;
拼接特征获取单元,用于对所述平行网络输出的高维特征进行特征拼接,并获取与所述训练数据对应的拼接特征;
语音识别模型形成单元,用于基于所述拼接特征训练神经网络模型,直至所述神经网络模型收敛至预设范围内,形成语音识别模型;
语音识别单元,用于通过所述语音识别模型对待识别的多语言混合信号进行语音识别;
所述神经网络模型包括语料库以及与语料库连接的两个平行网络,所述两个平行网络分别包括输入层和依次连接的若干个隐藏层,所述两个平行网络的最后一层的隐藏层的输出,共同连接至下层共享网络的联合层中,然后通过多个隐藏层从输出层输出与所述训练数据对应的语音识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一所述的支持多语言混合的语音识别方法中的步骤。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一所述的支持多语言混合的语音识别方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110481677.1A CN113192487B (zh) | 2021-04-30 | 2021-04-30 | 支持多语言混合的语音识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110481677.1A CN113192487B (zh) | 2021-04-30 | 2021-04-30 | 支持多语言混合的语音识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113192487A CN113192487A (zh) | 2021-07-30 |
CN113192487B true CN113192487B (zh) | 2024-05-03 |
Family
ID=76983106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110481677.1A Active CN113192487B (zh) | 2021-04-30 | 2021-04-30 | 支持多语言混合的语音识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113192487B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305616A (zh) * | 2018-01-16 | 2018-07-20 | 国家计算机网络与信息安全管理中心 | 一种基于长短时特征提取的音频场景识别方法及装置 |
CN109003601A (zh) * | 2018-08-31 | 2018-12-14 | 北京工商大学 | 一种针对低资源土家语的跨语言端到端语音识别方法 |
CN109388795A (zh) * | 2017-08-07 | 2019-02-26 | 芋头科技(杭州)有限公司 | 一种命名实体识别方法、语言识别方法及系统 |
CN110570876A (zh) * | 2019-07-30 | 2019-12-13 | 平安科技(深圳)有限公司 | 歌声合成方法、装置、计算机设备和存储介质 |
CN111210805A (zh) * | 2018-11-05 | 2020-05-29 | 北京嘀嘀无限科技发展有限公司 | 一种语种鉴别模型训练方法、装置及语种鉴别方法和装置 |
CN111540367A (zh) * | 2020-04-17 | 2020-08-14 | 合肥讯飞数码科技有限公司 | 语音特征提取方法、装置、电子设备和存储介质 |
CN111816169A (zh) * | 2020-07-23 | 2020-10-23 | 苏州思必驰信息科技有限公司 | 中英语种混杂语音识别模型训练方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665823B2 (en) * | 2013-12-06 | 2017-05-30 | International Business Machines Corporation | Method and system for joint training of hybrid neural networks for acoustic modeling in automatic speech recognition |
CN105869624B (zh) * | 2016-03-29 | 2019-05-10 | 腾讯科技(深圳)有限公司 | 数字语音识别中语音解码网络的构建方法及装置 |
-
2021
- 2021-04-30 CN CN202110481677.1A patent/CN113192487B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388795A (zh) * | 2017-08-07 | 2019-02-26 | 芋头科技(杭州)有限公司 | 一种命名实体识别方法、语言识别方法及系统 |
CN108305616A (zh) * | 2018-01-16 | 2018-07-20 | 国家计算机网络与信息安全管理中心 | 一种基于长短时特征提取的音频场景识别方法及装置 |
CN109003601A (zh) * | 2018-08-31 | 2018-12-14 | 北京工商大学 | 一种针对低资源土家语的跨语言端到端语音识别方法 |
CN111210805A (zh) * | 2018-11-05 | 2020-05-29 | 北京嘀嘀无限科技发展有限公司 | 一种语种鉴别模型训练方法、装置及语种鉴别方法和装置 |
CN110570876A (zh) * | 2019-07-30 | 2019-12-13 | 平安科技(深圳)有限公司 | 歌声合成方法、装置、计算机设备和存储介质 |
CN111540367A (zh) * | 2020-04-17 | 2020-08-14 | 合肥讯飞数码科技有限公司 | 语音特征提取方法、装置、电子设备和存储介质 |
CN111816169A (zh) * | 2020-07-23 | 2020-10-23 | 苏州思必驰信息科技有限公司 | 中英语种混杂语音识别模型训练方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113192487A (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107220235B (zh) | 基于人工智能的语音识别纠错方法、装置及存储介质 | |
CN112086086B (zh) | 语音合成方法、装置、设备及计算机可读存储介质 | |
WO2020186778A1 (zh) | 错词纠正方法、装置、计算机装置及存储介质 | |
CN111754978B (zh) | 韵律层级标注方法、装置、设备和存储介质 | |
CN112185348B (zh) | 多语种语音识别方法、装置及电子设备 | |
CN112100349A (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
JP2022177220A (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
CN110781663B (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
JP2022177242A (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
CN110472688A (zh) | 图像描述的方法及装置、图像描述模型的训练方法及装置 | |
CN114416934B (zh) | 多模态的对话生成模型的训练方法、装置及电子设备 | |
CN112507706B (zh) | 知识预训练模型的训练方法、装置和电子设备 | |
CN113450759A (zh) | 语音生成方法、装置、电子设备以及存储介质 | |
CN113096242A (zh) | 虚拟主播生成方法、装置、电子设备及存储介质 | |
CN110851601A (zh) | 基于分层注意力机制的跨领域情感分类系统及方法 | |
CN112463942A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN113360001A (zh) | 输入文本的处理方法、装置、电子设备和存储介质 | |
CN114662484A (zh) | 语义识别方法、装置、电子设备及可读存储介质 | |
CN114610855B (zh) | 对话回复生成方法、装置、电子设备及存储介质 | |
CN113870835A (zh) | 基于人工智能的语音合成方法、装置、设备及存储介质 | |
CN115359323A (zh) | 图像的文本信息生成方法和深度学习模型的训练方法 | |
CN114155832A (zh) | 基于深度学习的语音识别方法、装置、设备及介质 | |
CN113935331A (zh) | 异常语义截断检测方法、装置、设备及介质 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN117290515A (zh) | 文本标注模型的训练方法、文生图方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |