CN111798868B - 语音强制对齐模型评价方法、装置、电子设备及存储介质 - Google Patents
语音强制对齐模型评价方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111798868B CN111798868B CN202010925650.2A CN202010925650A CN111798868B CN 111798868 B CN111798868 B CN 111798868B CN 202010925650 A CN202010925650 A CN 202010925650A CN 111798868 B CN111798868 B CN 111798868B
- Authority
- CN
- China
- Prior art keywords
- phoneme
- score
- combination
- alignment model
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000012360 testing method Methods 0.000 claims abstract description 24
- 230000004927 fusion Effects 0.000 claims description 57
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 claims description 49
- 238000012937 correction Methods 0.000 claims description 49
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Auxiliary Devices For Music (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本发明实施例提供了一种语音强制对齐模型评价方法、装置、电子设备及存储介质,语音强制对齐模型评价方法包括:利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个音素的时间准确性得分;根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。本发明实施例所提供的语音强制对齐模型评价方法、装置、电子设备及存储介质,可以在较低成本的基础上,实现对语音强制对齐模型的准确性评价。
Description
技术领域
本发明实施例涉及计算机领域,尤其涉及一种语音强制对齐模型评价方法、装置、电子设备及存储介质。
背景技术
随着计算机技术和深度学习技术的发展,语音合成技术成为一个重要的研究方向,并得到广泛以用,比如:语音播报、语音导航以及智能音箱等。
在语音合成中,需要对语音合成模型进行训练,以提高语音合成的性能,为了实现对于语音合成模型的训练,需要得到训练语音的音素时间点,而为了得到音素时间点,一般利用语音强制对齐技术(即机器标注)获取,语音强制对齐技术是通过强制对齐模型确定音素时间点的技术,其中强制对齐模型利用语音样本和与语音样本对应的文本标注样本训练得到。
然而,通过强制对齐模型得到的音素时间点是否准确,或者经过优化后,强制对齐模型得到的音素时间点是否好于优化前,都需要进行评价,为此,或者通过人工复验的方式进行主观的评价,或者利用后续的语音合成过程,只改变优化前和优化后的对齐时间,通过合成的语音进行主观打分,这需要消耗大量的人工成本和时间成本。
为此,如何在较低成本的基础上,实现对语音强制对齐模型的准确性评价,就成为亟需解决的技术问题。
发明内容
本发明实施例提供一种语音强制对齐模型评价方法、装置、电子设备及存储介质,以在较低成本的基础上,实现对语音强制对齐模型的准确性评价。
为解决上述问题,本发明实施例提供一种语音强制对齐模型评价方法,包括:
利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;
根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,其中,所述时间准确性得分为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度;
根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
为解决上述问题,本发明实施例提供一种语音强制对齐模型评价装置,包括:
音素序列及预测起止时间获取单元,适于利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;
音素时间准确性得分获取单元,适于根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,其中,所述时间准确性得分为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度;
模型时间准确性得分获取单元,适于根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
为解决上述问题,本发明实施例提供一种存储介质,所述存储介质存储有适于语音强制对齐模型评价的程序,以实现如前述任一项所述的语音强制对齐模型评价方法。
为解决上述问题,本发明实施例提供一种电子设备,包括至少一个存储器和至少一个处理器;所述存储器存储有程序,所述处理器调用所述程序,以执行如前述任一项所述的语音强制对齐模型评价方法。
与现有技术相比,本发明的技术方案具有以下优点:
本发明实施例所提供的语音强制对齐模型评价方法、装置、电子设备及存储介质,其中,语音强制对齐模型评价方法,包括首先将测试集的各段音频和与音频对应的文本输入待评价语音强制对齐模型,利用待评价语音强制对齐模型获取每段音频对应的音素序列,以及各个音素序列的各个音素的预测起止时间,然后根据预测起止时间和预先已知的对应音素的基准起止时间,获取各个所述音素的时间准确性得分,基于各个音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分,实现对待评价语音强制对齐模型的评价。可以看出,本发明实施例所提供的语音强制对齐模型评价方法,在对待评价语音强制对齐模型的评价时,基于各个音素的预测起止时间和基准起止时间的接近程度,就可以得到各个音素的时间准确性得分,进而得到待评价语音强制对齐模型的时间准确性得分,无需在每次通过语音强制对齐模型获取到预测起止时间时,再利用人工方式进行复验,或者通过后续的语音合成得到的语音进行验证,可以简化对强制对齐模型的准确性评价的难度,同时还可以降低对强制对齐模型的准确性评价所需的人工成本和时间成本,提高效率。
可选方案中,本发明实施例所提供的语音强制对齐模型评价方法,还对各个音素执行首先确定当前音素,并构建当前音素的音素组合,得到各个音素的音素组合,各个音素的音素组合的组合方式相同,然后,在获取待评价语音强制对齐模型的时间准确性得分时,根据当前音素中音素组合的各个音素的时间准确性得分,获取当前音素的时间准确性修正得分,得到所述音素序列的各个音素的时间准确性修正得分,根据音素序列的各个音素的时间准确性修正得分获取待评价语音强制对齐模型的时间准确性得分。这样,本发明实施例所提供的语音强制对齐模型评价方法,利用与当前音素相邻的至少一个音素的时间准确性得分对当前音素的时间准确性得分进行修正,利用了当前音素的上下文信息,将当前音素受与其相邻的音素的影响考虑在内,使得所得到的当前音素的时间准确性得分得以修正,从而具有更高的准确性。
可选方案中,本发明实施例所提供的语音强制对齐模型评价方法,为了获取各个所述音素的时间准确性得分,首先获取同一音素的预测起止时间和基准起止时间的起止时间交集和起止时间并集,然后通过起止时间交集和起止时间并集的比值,获取对应音素的时间准确性得分。这样,起止时间交集可以表示预测起止时间和基准起止时间的重合量,起止时间并集可以表示预测起止时间和基准起止时间的最大整体量,利用起止时间交集和起止时间并集的比值可以将预测起止时间的重和程度准确地表示,从而实现对音素时间准确性得分的获取,并且音素时间准确性得分能够准确地表示预测起止时间和基准起止时间的接近程度。
附图说明
图1是本发明实施例所提供的语音强制对齐模型评价方法的一流程示意图;
图2为本发明实施例所提供的语音强制对齐模型评价方法的获取各个音素的时间准确性得分步骤的一流程示意图;
图3为本发明实施例所提供的语音强制对齐模型评价方法的另一流程示意图;
图4为本发明实施例所提供的语音强制对齐模型评价方法的又一流程示意图;
图5为本发明实施例所提供的待评价语音强制对齐模型的时间准确性得分的获取步骤的一流程示意图;
图6是本发明实施例所提供的语音强制对齐模型评价装置的一框图;
图7是本发明实施例提供的电子设备一种可选硬件设备架构。
具体实施方式
现有技术中,在对语音强制对齐模型进行评价时,通过人工复验的方式或者利用后续的语音合成,通过对合成的语音的主观打分,消耗大量的人工成本和时间成本。
为了在较低成本的基础上,实现对语音强制对齐模型的准确性评价,本发明实施例提供了一种语音强制对齐模型评价方法,包括:
利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;
根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,其中,所述时间准确性得分为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度;
根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
从而,本发明实施例所提供的语音强制对齐模型评价方法,包括首先将测试集的各段音频和与音频对应的文本输入待评价语音强制对齐模型,利用待评价语音强制对齐模型获取每段音频对应的音素序列,以及各个音素序列的各个音素的预测起止时间,然后根据预测起止时间和已知的对应音素的基准起止时间,获取各个所述音素的时间准确性得分,基于各个音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分,实现对待评价语音强制对齐模型的评价。
可以看出,本发明实施例所提供的语音强制对齐模型评价方法,在对待评价语音强制对齐模型的评价时,基于各个音素的预测起止时间和基准起止时间的接近程度,就可以得到各个音素的时间准确性得分,进而得到待评价语音强制对齐模型的时间准确性得分,无需在每次通过语音强制对齐模型获取到预测起止时间时,再利用人工方式进行复验,或者通过后续的语音合成得到的语音进行验证,可以简化对强制对齐模型的准确性评价的难度,同时还可以降低对强制对齐模型的准确性评价所需的人工成本和时间成本,提高效率。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1是本发明实施例所提供的语音强制对齐模型评价方法的一流程示意图。
如图中所示,本发明实施例所提供的语音强制对齐模型评价方法,包括以下步骤:
步骤S10:利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间。
容易理解的是,本发明实施例所提供的语音强制对齐模型评价方法,用于对待评价语音强制对齐模型的语音强制对齐效果进行评价,因此需要首先建立需要评价的语音强制对齐模型或者获取已经建立的语音强制对齐模型,即待评价语音强制对齐模型。
将测试集的各段音频和与各段音频对应的文本输入待评价语音强制对齐模型,从而得到分别与每段音频对应的音素序列,以及每段音素序列的各个音素的预测起止时间。
当然,预测起止时间可以包括从预测起始时刻到预测结束时刻的时间跨度。
具体地,待评价语音强制对齐模型可以包括GMM模型(高斯混合模型)和维特比(viterbi)解码模型,将测试集的各段音频和与各段音频对应的文本输入GMM模型,得到未解码的音素序列和预测起止时间,然后经过维特比解码模型进行解码,得到解码后的音素序列和预测起止时间。
步骤S11:根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分。
可以理解的是,时间准确性得分即为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度。
其中,基准起止时间是指用于作为评价基准的音素起止时间,可以通过人工标注的方式获取。
通过比较同一音素的预测起止时间和基准起止时间接近程度,得到该音素的时间准确性得分,直至得到各个音素的时间准确性得分。
在一种具体实施方式中,为了方便各个音素的时间准确性得分的获取,请参考图2,图2为本发明实施例所提供的语音强制对齐模型评价方法的获取各个音素的时间准确性得分步骤的一流程示意图。
如图中所示,本发明实施例所提供的语音强制对齐模型评价方法,可以通过以下步骤获取各个音素的时间准确性得分。
步骤S110:根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的所述预测起止时间和所述基准起止时间的起止时间交集和起止时间并集。
容易理解的是,所述音素的所述预测起止时间和所述基准起止时间的起止时间交集是指同一音素的预测起止时间和基准起止时间的重叠时间,所述音素的所述预测起止时间和所述基准起止时间的起止时间并集是指同一音素的预测起止时间和基准起止时间的整体时间。
为方便理解,现举例如下:
比如对于音素“b”,假设预测起止时间是从第3ms到第5ms,基准起止时间是从第4ms到第6ms,那么起止时间交集为从第4ms到第5ms,起止时间并集为从第3ms到第6ms。
步骤S111:获取各个所述音素的所述起止时间交集与所述起止时间并集的比值,得到各个所述音素的时间准确性得分。
得到各个音素的起止时间交集和起止时间并集后,进一步获取二者的比值,得到各个音素的时间准确性得分。
如前述例子,音素“b”的时间准确性得分即为:第4ms到第5ms/第3ms到第6ms,为1/3。
可以理解的是,某个音素的起止时间交集与起止时间并集的比值分数越大,那么待评价语音强制对齐模型在该音素的准确性越高。
这样,起止时间交集可以表示预测起止时间和基准起止时间的重合量,起止时间并集可以表示预测起止时间和基准起止时间的最大整体量,利用起止时间交集和起止时间并集的比值可以将预测起止时间的重和程度准确地表示,从而实现对音素时间准确性得分的获取,并且音素时间准确性得分能够准确地表示预测起止时间和基准起止时间的接近程度。
步骤S12:根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
得到测试集的各个音素的时间准确性得分后,进一步通过各个音素的时间准确性得分就可以获取待评价语音强制对齐模型的时间准确性得分。
在一种具体实施方式中,可以直接将测试集的各个音素的时间准确性得分进行相加,获取待评价语音强制对齐模型的时间准确性得分。
容易理解的是,各个音素的时间准确性得分越高,待评价语音强制对齐模型的时间准确性得分也就越高,待评价语音强制对齐模型的强制对齐效果也就越好,从而实现对于不同的语音强制对齐模型的对齐效果的评价,或者对于参数调整前后的语音强制对齐模型的对齐效果的评价。
可以看出,本发明实施例所提供的语音强制对齐模型评价方法,在对待评价语音强制对齐模型的评价时,基于各个音素的预测起止时间和基准起止时间的接近程度,就可以得到各个音素的时间准确性得分,进而得到待评价语音强制对齐模型的时间准确性得分,无需在每次通过语音强制对齐模型获取到预测起止时间时,再利用人工方式进行复验,或者通过后续的语音合成得到的语音进行验证,可以简化对强制对齐模型的准确性评价的难度,同时还可以降低对强制对齐模型的准确性评价所需的人工成本和时间成本,提高效率。
为了进一步提高对语音强制对齐模型评价的准确性,本发明实施例还提供另一种语音强制对齐模型评价方法,请参考图3,图3为本发明实施例所提供的语音强制对齐模型评价方法的另一流程示意图。
本发明实施例所提供的语音强制对齐模型评价方法包括:
步骤S20:利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间。
步骤S20的具体内容请参考图1关于步骤S10的描述,在此不再赘述。
步骤S21:根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分。
步骤S21的具体内容请参考图1关于步骤S11的描述,在此不再赘述。
步骤S22:确定当前音素,构建所述当前音素的音素组合,获取各个音素的音素组合。
当然,音素组合包括所述当前音素和与当前音素临近的至少一个音素,并且各个音素的音素组合的组合方式相同
得到测试集的各段音频的音素序列后,确定所述音素序列中一音素为当前音素,然后确定当前音素临近的至少一个音素,与当前音素共同组成音素组合,从而得到所述音素序列中所述当前音素对应的音素组合,逐一确定所述音素序列中各个音素为当前音素,从而得到所述音素序列中各个音素对应的音素组合。
可以理解的是,如果音素组合由2个音素构建组成,那么音素序列的每个音素都会构建由2个音素组成的音素组合,并且组合方式也相同,可以确定位于当前音素前的相邻音素和当前音素组成音素组合,当然也可以确定位于当前音素后的相邻音素和当前音素组成音素组合,如果音素组合由3个音素构建组成,那么音素序列的每个音素都会构建由3个音素组成的音素组合,并且组合方式也相同,可以则确定当前音素前后相邻的音素和当前音素组成音素组合,如果音素组合由4个音素构建组成,那么音素序列的每个音素都会构建由4个音素组成的音素组合,并且组合方式也相同,可以则确定当前音素前的2个音素和当前音素后的一个音素和当前音素组成音素组合,当然也可以选择当前音素前的1个音素和当前音素后的2个音素。
比如,对于“jintian”这样一组音素序列,确定“t”为当前音素时,如果音素组合由2个音素构建组成,则当前音素“t”的音素组合可以为“int”或“tian”,可以任选其一为当前音素“t”的一个音素组合,也可以都作为当前音素“t”的音素组合;如果音素组合由3个音素构建组成,则当前音素“t”的音素组合可以为“intian”;如果音素组合由4个音素构建组成,则当前音素“t”的音素组合可以为为“jintian”或“intian+silence”,任选其一为当前音素“t”的一个音素组合,也可以都作为当前音素“t”的音素组合。
当然,还可以将由2个音素构建组成音素组合、由3个音素构建组成的音素组合、由4个音素构建组成的音素组合都作为同一个音素的音素组合。
由于每个音素的起止时间会受与其相邻的音素的影响,将当前音素,与临近的音素考虑在内,形成音素组合,可以为后续对当前音素的时间准确定得分提供修正。
步骤S23:根据各个所述音素组合中的各个音素的时间准确性得分,获取各个所述音素组合中当前音素的时间准确性修正得分,得到所述音素序列的各个音素的时间准确性修正得分。
得到各个音素的音素组合后,利用当前音素对应的音素组合中的各个音素的时间准确性得分,获取当前音素的时间准确性修正得分。
如前所示事例,音素组合由3个音素构建组成,则当前音素“t”的音素组合为“intian”为例,当前音素t的时间准确性修正得分可以为:
Score(t)‘= Score(in)+ Score(t) +Score(ian)/3。
步骤S24:根据所述音素序列的各个音素的时间准确性修正得分,获取所述待评价语音强制对齐模型的时间准确性得分。
步骤S24的具体内容可以参考图1所示的步骤S12的内容,只是利用各个音素的时间准确性修正得分替换各个音素的时间准确性得分,其他内容不再赘述。
这样,本发明实施例所提供的语音强制对齐模型评价方法,利用与当前音素相邻的至少一个音素的时间准确性得分对当前音素的时间准确性得分进行修正,利用了当前音素的上下文信息,将当前音素受与其相邻的音素的影响考虑在内,使得所得到的当前音素的时间准确性得分得以修正,从而具有更高的准确性。
为了进一步提高评价的准确性,本发明实施例还提供另一种语音强制对齐模型评价方法,请参考图4,图4为本发明实施例所提供的语音强制对齐模型评价方法的又一流程示意图。
如图中所示,本发明实施例所提供的语音强制对齐模型评价方法包括:
步骤S30:利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间。
步骤S30的具体内容请参考图1关于步骤S10的描述,在此不再赘述。
步骤S31:根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分。
步骤S31的具体内容请参考图1关于步骤S11的描述,在此不再赘述。
步骤S32:确定当前音素,构建所述当前音素的音素组合,获取各个音素的音素组合。
步骤S32的具体内容请参考图3关于步骤S22的描述,在此不再赘述。
步骤S33:根据所述音素组合中的各音素的发音方式对所述音素组合进行分类,得到所述音素组合的组合类别,并根据各个音素组合的组合类别,确定同一组合类别的音素组合的数量以及对应的组合权重。
在得到各个当前音素的音素组合后,根据音素组合的各个音素的发音方式进行分类。相邻音素的不同发音方式对于当前音素的参数会有一定的影响,因此可以根据音素组合的各个音素的发音方式进行分类,确定各个音素组合的组合类别,然后根据音素组合的组合类别,可以确定同类音素组合的数量,进而获取某类别音素组合的组合权重,进一步根据组合权重可以获取每个音素的权重得分,降低由于基于测试集所得到的音素数量的不同而导致的待评价语音强制对齐模型的时间准确性得分的差别,提高本发明实施例所提供的语音强制对齐模型评价方法的评价准确性。
具体地,所述发音方式可以根据声母和韵母分别进行划分,包括声母发音方式和韵母发音方式,其中,所述声母发音方式包括根据发音部位分类的部位发音方式和根据发音方法分类的方法发音方式,所述韵母发音方式包括根据结构分类的结构发音方式和根据口型分类的口型发音方式。
其中声母发音方式的具体分类可以参考表1:
表1 声母发音方式
韵母发音方式的具体分类可以参考表2:
表2 韵母发音方式
当然,所述发音方式可以根据其他语言的发音进行划分,比如:英语。
当基于拼音发音方式进行划分,具体进行分组时,可以将声母和韵母的发音方式进行组合,得到具体分类类别,比如:二音素组合:双唇音+鼻韵母、鼻韵母+唇齿音;三音素组合:双唇音+鼻韵母+唇齿音、单韵母+双唇音+单韵母、或者单韵母开口呼+双唇音塞音+单韵母齐齿呼;四音素组合:单韵母+双唇音+单韵母+双唇音。
这样,将发音方式分类与声母和韵母的发音方式相结合,可以更为方便地实现发音方式分类,降低发音方式分类的难度。得到各个组合类别后,进一步获取各个音素组合的组合权重,具体地,组合权重为同一组合类别的音素组合的数量与所述音素序列中音素总量的比值。
为方便理解,现进行举例说明,当某个音素序列包括100个音素时,如果每个音素形成一个音素组合,那么就会形成100个音素组合,可以根据每个音素组合的各个音素的发音方式确定组合类别,然后对每个音素组合进行分类,假设可以共形成3个组合类别。
然后可以统计各个组合类别中的音素组合的数量,假设其中第一个组合类别有20个,第二个组合类别有45个,第三个音素组合有35个,进而可以根据各个组合类别中各个音素组合的数量确定组合权重,比如:第一类组合类别的组合权重可以为20/100=0.2,第二类组合类别的组合权重可以为45/100=0.45,第二类组合类别的组合权重可以为35/100=0.35。
步骤S34:根据所述当前音素的音素组合中的各个音素的时间准确性得分,获取所述当前音素的时间准确性修正得分。
步骤S34的具体内容,请参考图3所示的步骤S23的描述,在此不再赘述。
并且步骤S33和步骤S34的执行顺序不做限制,也可以先获取时间准确性修正得分再获取组合权重。
步骤S35:根据各个音素的时间准确性修正得分和分别与各个所述音素对应的所述音素组合的组合权重,获取各个所述音素的权重得分。
基于步骤S33得到的组合权重和步骤S34得到的时间准确性修正得分,获取音素的权重得分。
当然组合权重和时间准确性修正得分为基于相同的音素的相同的音素组合获取,二者之间具有相互对应关系。
具体地,通过将组合权重与时间准确性修正得分相乘,获取各个所述音素的权重得分。
步骤S36:根据所述音素序列的各个音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
得到各个音素的权重得分后,进而可以通过各个音素的权重得分获取待评价语音强制对齐模型的时间准确性得分。
具体地,待评价语音强制对齐模型的时间准确性得分通过以下公式获取:
Score模型=W1*Score1+ W2*Score2…+Wn*Scoren
其中:Score模型为待评价语音强制对齐模型的时间准确性得分;
Wn为第n个音素的组合权重;
Scoren为第n个音素的时间准确性修正得分。
权重得分的获取,可以降低由于通过不同的待评价语音强制对齐模型所预测的音素序列的音素数量的不同而造成的待评价语音强制对齐模型的时间准确性得分的影响,进一步提高评价的准确性。
在另一种实施例中,为进一步提高对当前音素的时间准确定得分的修正,可以为同一个音素构建多个音素组合,具体地,各个音素的音素组合可以包括2个音素组成的二音素组合和3个音素组成的三音素组合,当然二音素组合包括当前音素和与当前音素直接相邻的一个音素,三音素组合包括当前音素和与当前音素直接相邻的两个音素,则分别计算各个音素组合的当前音素的时间准确性修正得分,从而得到同一个音素的多个时间准确性修正得分,包括二音素时间准确性修正得分和三音素时间准确性修正得分,并分别获取该音素的二音素组合类别和三音素组合类别,以及二音素组合权重和三音素组合权重,并获取二音素权重得分和三音素权重得分。
在此情况下,为了保证待评价语音强制对齐模型的时间准确性得分的获取,请参考图5,图5为本发明实施例所提供的待评价语音强制对齐模型的时间准确性得分的获取步骤的一流程示意图,获取所述待评价语音强制对齐模型的时间准确性得分的步骤可以包括:
步骤S361:根据所述当前音素的所述二音素权重得分和所述三音素权重得分获取所述当前音素的融合权重得分。
在一种具体实施方式中,所述融合权重得分可以通过以下公式获取:
score=v2*score’’+ v3*score”’;
其中:v2+v3=1,且v3>v2;
score为融合权重得分;
score2为二音素权重得分;
v2为二音素融合因子;
score”’为三音素权重得分;
v3为三音素融合因子。
这样可以简单地实现同一个音素不同权重得分的融合,并且三音素融合因子大于二音素融合因子可以凸出三音素组合的影响,进一步提高准确性。
步骤S362:根据所述音素序列的各个音素的融合权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
得到融合权重得分,就可以获取待评价语音强制对齐模型的时间准确性得分,具体内容请参考图1步骤S12的描述,在此不再赘述。
当然,在另一种具体实施方式中,每个音素也可以有3个音素组合,除了2个音素组成的二音素组合和3个音素组成的三音素组合外,还包括4个音素组成的四音素组合,那么还获取该音素的四音素组合类别和四音素组合权重,以及四音素权重得分,所述根据所述音素序列的各个音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分的步骤可以包括:
根据所述当前音素的所述二音素权重得分、所述三音素权重得分和所述四音素权重得分获取所述当前音素的融合权重得分;
根据所述音素序列的各个音素的融合权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
在一种具体实施方式中,所述融合权重得分可以通过以下公式获取:
score=v2*score’’+ v3*score”’+ v4*score””;
其中:v2+v3+v4=1,且v3>v2,v3>v4;
score为融合权重得分;
score2为二音素权重得分;
v2为二音素融合因子;
score”’为三音素权重得分;
v3为三音素融合因子;
score””为四音素权重得分;
v4为四音素融合因子。
这样可以简单地实现同一个音素不同权重得分的融合,并且三音素融合因子大于二音素融合因子,且三音素融合因子大于四音素融合因子可以凸出三音素组合的影响,进一步提高准确性。
下面对本发明实施例提供的语音强制对齐模型评价装置进行介绍,下文描述的语音强制对齐模型评价装置可以认为是,电子设备(如:PC)为分别实现本发明实施例提供的语音强制对齐模型评价方法所需设置的功能模块架构。下文描述的语音强制对齐模型评价装置的内容,可分别与上文描述的语音强制对齐模型评价方法的内容相互对应参照。
图6是本发明实施例所提供的语音强制对齐模型评价装置的一框图,该语音强制对齐模型评价装置即可应用于客户端,也可应用于服务器端,参考图6,该语音强制对齐模型评价装置可以包括:
音素序列及预测起止时间获取单元100,适于利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;
音素时间准确性得分获取单元110,适于根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,其中,所述时间准确性得分为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度;
模型时间准确性得分获取单元120,适于根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
容易理解的是,本发明实施例所提供的语音强制对齐模型评价装置,将测试集的各段音频和与各段音频对应的文本输入待评价语音强制对齐模型,从而得到分别与每段音频对应的音素序列,以及每段音素序列的各个音素的预测起止时间。
当然,预测起止时间可以包括从预测起始时刻到预测结束时刻的时间跨度。
具体地,待评价语音强制对齐模型可以包括GMM模型(高斯混合模型)和维特比(viterbi)解码模型,将测试集的各段音频和与各段音频对应的文本输入GMM模型,得到未解码的音素序列和预测起止时间,然后经过维特比解码模型进行解码,得到解码后的音素序列和预测起止时间。
可以理解的是,时间准确性得分即为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度。
其中,基准起止时间是指用于作为评价基准的音素起止时间,可以通过人工标注的方式获取。
通过比较同一音素的预测起止时间和基准起止时间接近程度,得到该音素的时间准确性得分,直至得到各个音素的时间准确性得分。
其中,音素时间准确性得分获取单元110,适于根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,包括:
根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的所述预测起止时间和所述基准起止时间的起止时间交集和起止时间并集;
获取各个所述音素的所述起止时间交集与所述起止时间并集的比值,得到各个所述音素的时间准确性得分。
容易理解的是,所述音素的所述预测起止时间和所述基准起止时间的起止时间交集是指同一音素的预测起止时间和基准起止时间的重叠时间,所述音素的所述预测起止时间和所述基准起止时间的起止时间并集是指同一音素的预测起止时间和基准起止时间的整体时间。
得到各个音素的起止时间交集和起止时间并集后,进一步获取二者的比值,得到各个音素的时间准确性得分。
可以理解的是,某个音素的起止时间交集与起止时间并集的比值分数越大,那么待评价语音强制对齐模型在该音素的准确性越高。
这样,起止时间交集可以表示预测起止时间和基准起止时间的重合量,起止时间并集可以表示预测起止时间和基准起止时间的最大整体量,利用起止时间交集和起止时间并集的比值可以将预测起止时间的重和程度准确地表示,从而实现对音素时间准确性得分的获取,并且音素时间准确性得分能够准确地表示预测起止时间和基准起止时间的接近程度。
得到测试集的各个音素的时间准确性得分后,模型时间准确性得分获取单元120,通过各个音素的时间准确性得分就可以获取待评价语音强制对齐模型的时间准确性得分。
在一种具体实施方式中,可以直接将测试集的各个音素的时间准确性得分进行相加,获取待评价语音强制对齐模型的时间准确性得分。
容易理解的是,各个音素的时间准确性得分越高,待评价语音强制对齐模型的时间准确性得分也就越高,待评价语音强制对齐模型的强制对齐效果也就越好,从而实现对于不同的语音强制对齐模型的对齐效果的评价,或者对于参数调整前后的语音强制对齐模型的对齐效果的评价。
可以看出,本发明实施例所提供的语音强制对齐模型评价装置,在对待评价语音强制对齐模型的评价时,基于各个音素的预测起止时间和基准起止时间的接近程度,就可以得到各个音素的时间准确性得分,进而得到待评价语音强制对齐模型的时间准确性得分,无需在每次通过语音强制对齐模型获取到预测起止时间时,再利用人工方式进行复验,或者通过后续的语音合成得到的语音进行验证,可以简化对强制对齐模型的准确性评价的难度,同时还可以降低对强制对齐模型的准确性评价所需的人工成本和时间成本,提高效率。
为了进一步提高对语音强制对齐模型评价的准确性,本发明实施例还提供一种语音强制对齐模型评价装置。
如图6所示,本发明实施例所提供的语音强制对齐模型评价装置还包括:
音素组合获取单元130,适于确定当前音素,构建所述当前音素的音素组合,获取各个音素的音素组合。
音素组合包括所述当前音素和与所述当前音素临近的至少一个音素,各个音素的音素组合的组合方式相同。
得到测试集的各段音频的音素序列后,确定所述音素序列中一音素为当前音素,然后确定当前音素临近的至少一个音素,与当前音素共同组成音素组合,从而得到所述音素序列中所述当前音素对应的音素组合,逐一确定所述音素序列中各个音素为当前音素,从而得到所述音素序列中各个音素对应的音素组合。
可以理解的是,如果音素组合由2个音素组成,可以则确定位于当前音素前的相邻音素和当前音素组成音素组合,当然也可以确定位于当前音素后的相邻音素和当前音素组成音素组合,如果音素组合由3个音素组成,可以则确定当前音素前后相邻的音素和当前音素组成音素组合,如果音素组合由4个音素组成,可以则确定当前音素前的2个音素和当前音素后的一个音素和当前音素组成音素组合,当然也可以选择当前音素前的1个音素和当前音素后的2个音素。
由于每个音素的起止时间会受与其相邻的音素的影响,将当前音素,与临近的音素考虑在内,形成音素组合,可以为后续对当前音素的时间准确定得分提供修正。
所述模型时间准确性得分获取单元120,适于根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分,包括:
根据各个所述音素组合中的各个音素的时间准确性得分,获取各个所述音素组合中当前音素的时间准确性修正得分,得到所述音素序列的各个音素的时间准确性修正得分;
根据所述音素序列的各个音素的时间准确性修正得分,获取所述待评价语音强制对齐模型的时间准确性得分。
得到各个音素的音素组合后,利用每个音素构建有1个音素组合时,利用当前音素对应的音素组合中的各个音素的时间准确性得分,获取当前音素的时间准确性修正得分。
如音素组合包括3个音素,当前音素“t”的音素组合为“intian”,当前音素t的时间准确性修正得分可以为:
Score(t)‘= Score(in)+ Score(t) +Score(ian)/3。
然后,利用各个音素的时间准确性修正得分获取待评价语音强制对齐模型的时间准确性得分。
这样,本发明实施例所提供的语音强制对齐模型评价装置,利用与当前音素相邻的至少一个音素的时间准确性得分对当前音素的时间准确性得分进行修正,利用了当前音素的上下文信息,将当前音素受与其相邻的音素的影响考虑在内,使得所得到的当前音素的时间准确性得分得以修正,从而具有更高的准确性。
为了进一步提高评价的准确性,本发明实施例所提供的语音强制对齐模型评价装置,还包括:
组合权重获取单元140,适于根据所述音素组合中的各音素的发音方式对所述音素组合进行分类,得到所述音素组合的组合类别,并根据各个音素组合的组合类别,确定同一组合类别的音素组合的数量以及对应的组合权重;
模型时间准确性得分120,适于根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分还包括:
根据所述音素序列的各个音素的时间准确性修正得分,获取所述待评价语音强制对齐模型的时间准确性得分;
根据各个音素的时间准确性修正得分和分别与各个所述音素对应的所述音素组合的组合权重,获取各个所述音素的权重得分;
根据所述音素序列的各个音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
在得到各个当前音素的音素组合后,根据音素组合的各个音素的发音方式进行分类。相邻音素的不同发音方式对于当前音素的参数会有一定的影响,因此可以根据音素组合的各个音素的发音方式进行分类,确定各个音素组合的组合类别,然后根据音素组合的组合类别,可以确定同类音素组合的数量,进而获取某类别音素组合的组合权重,进一步根据组合权重可以获取每个音素的权重得分,降低由于基于测试集所得到的音素数量的不同而导致的待评价语音强制对齐模型的时间准确性得分的差别,提高本发明实施例所提供的语音强制对齐模型评价方法的评价准确性。具体地,所述发音方式可以根据声母和韵母分别进行划分,包括声母发音方式和韵母发音方式,其中,所述声母发音方式包括根据发音部位分类的部位发音方式和根据发音方法分类的方法发音方式,所述韵母发音方式包括根据结构分类的结构发音方式和根据口型分类的口型发音方式。
这样,将发音方式分类与声母和韵母的发音方式相结合,可以更为方便地实现发音方式分类,降低发音方式分类的难度。
得到各个组合类别后,进一步获取各个音素组合的组合权重,具体地,所述组合权重为同一组合类别的音素组合的数量与所述音素序列中音素总量的比值。
为方便理解,现进行举例说明,当某个音素序列包括100个音素时,如果每个音素形成一个音素组合,那么就会形成100个音素组合,可以根据每个音素组合的各个音素的发音方式确定组合类别,然后对每个音素组合进行分类,假设可以共形成3个组合类别。
然后可以统计各个组合类别中的音素组合的数量,假设其中第一个组合类别有20个,第二个组合类别有45个,第三个音素组合有35个,进而可以根据各个组合类别中各个音素组合的数量确定组合权重,比如:第一类组合类别的组合权重可以为20/100=0.2,第二类组合类别的组合权重可以为45/100=0.45,第二类组合类别的组合权重可以为35/100=0.35。
然后,基于组合权重和时间准确性修正得分,获取音素的权重得分。
当然组合权重和时间准确性修正得分为基于相同的音素的相同的音素组合获取,二者之间具有相互对应关系。
具体地,通过将组合权重与时间准确性修正得分相乘,获取各个所述音素的权重得分。
得到各个音素的权重得分后,进而可以通过各个音素的权重得分获取待评价语音强制对齐模型的时间准确性得分。
具体地,待评价语音强制对齐模型的时间准确性得分通过以下公式获取:
Score模型=W1*Score1+ W2*Score2…+Wn*Scoren
其中:Score模型为待评价语音强制对齐模型的时间准确性得分;
Wn为第n个音素的组合权重;
Scoren为第n个音素的时间准确性修正得分。
权重得分的获取,可以降低由于通过不同的待评价语音强制对齐模型所预测的音素序列的音素数量的不同而造成的待评价语音强制对齐模型的时间准确性得分的影响,进一步提高评价的准确性。
在另一种实施例中,为了提高评价的准确性,还可以构建同一个音素的多个音素组合,各个音素的音素组合可以包括2个音素组成的二音素组合和3个音素组成的三音素组合,当然二音素组合包括当前音素和与当前音素直接相邻的一个音素,三音素组合包括当前音素和与当前音素直接相邻的两个音素。
为同一个音素构建多个音素组合,可以利用多个音素组合进一步提高对当前音素的时间准确定得分的修正。
当同一个音素包括多个音素组合时,则需分别计算各个音素组合的当前音素的时间准确性修正得分,从而得到同一个音素的多个时间准确性修正得分。
当同一个音素同时具有至少两个音素组合时,比如:二音素组合和三音素组合时,则分别获取该音素的二音素组合类别和三音素组合类别,以及二音素组合权重和三音素组合权重。
当同一个音素同时构建有二音素组合、三音素组合时,组合权重包括二音素组合权重和三音素组合权重,时间准确性修正得分包括二音素时间准确性修正得分和三音素时间准确性修正得分,所得到的权重得分则包括二音素权重得分和三音素权重得分。
容易理解的是,当同一个音素的权重得分包括二音素权重得分和三音素权重时,为了保证待评价语音强制对齐模型的时间准确性得分的获取,本发明实施例所提供的语音强制对齐模型的评价装置的模型时间准确性得分获取单元120,适于根据各个所述音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分,包括:
适于根据所述当前音素的所述二音素权重得分和所述三音素权重得分获取所述当前音素的融合权重得分;
根据所述音素序列的各个音素的融合权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
在一种具体实施方式中,所述融合权重得分可以通过以下公式获取:
Score=v2*score’’+ v3*score”’;
其中:v2+v3=1,且v3>v2;
score为融合权重得分;
score’’为二音素权重得分;
v2为二音素融合因子;
score”’为三音素权重得分;
v3为三音素融合因子。
这样可以简单地实现同一个音素不同权重得分的融合,并且三音素融合因子大于二音素融合因子可以凸出三音素组合的影响,进一步提高准确性。
得到融合权重得分,再进一步取待评价语音强制对齐模型的时间准确性得分。
当然,在另一种具体实施方式中,为提高准确性,音素组合获取单元130还可以对每个音素构建有3个音素组合,除了2个音素组成的二音素组合和3个音素组成的三音素组合外,还构建包括4个音素组成的四音素组合,组合权重获取单元140,还适于获取该音素的四音素组合类别和四音素组合权重,模型时间准确性得分120,获取四音素权重得分,还包括:
根据所述当前音素的所述二音素权重得分、所述三音素权重得分和所述四音素权重得分获取所述当前音素的融合权重得分;
根据所述音素序列的各个音素的融合权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
在一种具体实施方式中,所述融合权重得分可以通过以下公式获取:
score=v2*score’’+ v3* score”’+ v4*score””;
其中:v2+v3+v4=1,且v3>v2,v3>v4;
score为融合权重得分;
score’’为二音素权重得分;
v2为二音素融合因子;
score”’为三音素权重得分;
v3为三音素融合因子;
score””为四音素权重得分;
v4为四音素融合因子。
这样可以简单地实现同一个音素不同权重得分的融合,并且三音素融合因子大于二音素融合因子,且三音素融合因子大于四音素融合因子可以凸出三音素组合的影响,进一步提高准确性。
当然,本发明实施例还提供一种电子设备,本发明实施例提供的电子设备可以通过程序形式装载上述所述的程序模块架构,以实现本发明实施例提供的语音强制对齐模型评价方法;该硬件电子设备可以应用于具体数据处理能力的电子设备,该电子设备可以为:例如终端设备或者服务器设备。
可选的,图7示出了本发明实施例提供的一种可选硬件设备架构,可以包括:至少一个存储器3和至少一个处理器1;所述存储器存储有程序,所述处理器调用所述程序,以执行前述的语音强制对齐模型评价方法,另外,至少一个通信接口2和至少一个通信总线4;处理器1和存储器3可以位于同一电子设备,例如处理器1和存储器3可以位于服务器设备或者终端设备;处理器1和存储器3也可以位于不同的电子设备。
作为本发明实施例公开内容的一种可选实现,存储器3可以存储程序,处理器1可调用所述程序,以执行本发明上述实施例提供的语音强制对齐模型评价方法。
本发明实施例中,电子设备可以是能够进行语音强制对齐模型评价的平板电脑、笔记本电脑等设备。
在本发明实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;显然,图7所示的处理器1、通信接口2、存储器3和通信总线4的通信连接示意仅是可选的一种方式;
可选的,通信接口2可以为通信模块的接口,如GSM模块的接口;
处理器1可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。
需要说明的是,上述的设备还可以包括与本发明实施例公开内容可能并不是必需的其他器件(未示出);鉴于这些其他器件对于理解本发明实施例公开内容可能并不是必需,本发明实施例对此不进行逐一介绍。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,当该指令被处理器执行时可以实现如上所述语音强制对齐模型评价方法。
本发明实施例所提供的存储介质所存储的计算机可执行指令,在对待评价语音强制对齐模型的评价时,基于各个音素的预测起止时间和基准起止时间的接近程度,就可以得到各个音素的时间准确性得分,进而得到待评价语音强制对齐模型的时间准确性得分,无需在每次通过语音强制对齐模型获取到预测起止时间时,再利用人工方式进行复验,或者通过后续的语音合成得到的语音进行验证,可以简化对强制对齐模型的准确性评价的难度,同时还可以降低对强制对齐模型的准确性评价所需的人工成本和时间成本,提高效率。
上述本发明的实施方式是本发明的元件和特征的组合。除非另外提及,否则所述元件或特征可被视为选择性的。各个元件或特征可在不与其它元件或特征组合的情况下实践。另外,本发明的实施方式可通过组合部分元件和/或特征来构造。本发明的实施方式中所描述的操作顺序可重新排列。任一实施方式的一些构造可被包括在另一实施方式中,并且可用另一实施方式的对应构造代替。对于本领域技术人员而言明显的是,所附权利要求中彼此没有明确引用关系的权利要求可组合成本发明的实施方式,或者可在提交本申请之后的修改中作为新的权利要求包括。
本发明的实施方式可通过例如硬件、固件、软件或其组合的各种手段来实现。在硬件配置方式中,根据本发明示例性实施方式的方法可通过一个或更多个专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理器件(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器等来实现。
在固件或软件配置方式中,本发明的实施方式可以模块、过程、功能等形式实现。软件代码可存储在存储器单元中并由处理器执行。存储器单元位于处理器的内部或外部,并可经由各种己知手段向处理器发送数据以及从处理器接收数据。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是符合与本文所公开的原理和新颖特点相一致的最宽的范围。
虽然本发明实施例披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种变动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (14)
1.一种语音强制对齐模型评价方法,其特征在于,包括:
利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;
根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,其中,所述时间准确性得分为各个所述音素的所述预测起止时间与对应的所述基准起止时间的接近程度;
根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
2.如权利要求1所述的语音强制对齐模型评价方法,其特征在于,所述根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分的步骤之前,还包括:
确定当前音素,构建所述当前音素的音素组合,获取各个音素的音素组合,所述音素组合包括所述当前音素和与所述当前音素临近的至少一个音素,各个音素的音素组合的组合方式相同;
所述根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分的步骤包括:
根据各个所述音素组合中的各个音素的时间准确性得分,获取各个所述音素组合中当前音素的时间准确性修正得分,得到所述音素序列的各个音素的时间准确性修正得分;
根据所述音素序列的各个音素的时间准确性修正得分,获取所述待评价语音强制对齐模型的时间准确性得分。
3.如权利要求2所述的语音强制对齐模型评价方法,其特征在于,所述确定当前音素,构建所述当前音素的音素组合,获取各个音素的音素组合的步骤之后,还包括:
根据所述音素组合中的各音素的发音方式对所述音素组合进行分类,得到所述音素组合的组合类别,并根据各个音素组合的组合类别,确定同一组合类别的音素组合的数量以及对应的组合权重,其中,所述组合权重为同一组合类别的音素组合的数量与所述音素序列中音素总量的比值;
所述根据所述音素序列的各个音素的时间准确性修正得分,获取所述待评价语音强制对齐模型的时间准确性得分的步骤包括:
根据各个音素的时间准确性修正得分和所述音素对应的所述音素组合的组合权重,获取各个所述音素的权重得分;
根据所述音素序列的各个音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
4.如权利要求3所述的语音强制对齐模型评价方法,其特征在于,所述当前音素的音素组合包括二音素组合和三音素组合,所述二音素组合包括所述当前音素和与所述当前音素直接相邻的一个音素,所述三音素组合包括所述当前音素和与所述当前音素直接相邻的两个音素;
所述组合类别包括各个二音素组合类别和各个三音素组合类别,所述组合权重包括与各个所述二音素组合类别对应的二音素组合权重和与各个所述三音素组合类别对应的三音素组合权重,所述时间准确性修正得分包括各个所述当前音素的二音素时间准确性修正得分和三音素时间准确性修正得分,所述权重得分包括各个所述当前音素的二音素权重得分和三音素权重得分;
所述根据所述音素序列的各个音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分的步骤包括:
根据所述当前音素的所述二音素权重得分和所述三音素权重得分获取所述当前音素的融合权重得分;
根据所述音素序列的各个音素的融合权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
5.如权利要求4所述的语音强制对齐模型评价方法,其特征在于,所述二音素组合包括所述当前音素和所述当前音素前的音素。
6.如权利要求4所述的语音强制对齐模型评价方法,其特征在于,所述融合权重得分通过以下公式获取:
score=v2*score’’+ v3*score”’;
其中:v2+v3=1,且v3>v2;
score为融合权重得分;
score’’为二音素权重得分;
v2为二音素融合因子;
score”’为三音素权重得分;
v3为三音素融合因子。
7.如权利要求4所述的语音强制对齐模型评价方法,其特征在于,所述当前音素的音素组合还包括四音素组合,所述四音素组合包括所述当前音素和与所述当前音素临近的三个音素;
所述组合类别还包括各个四音素组合类别,所述组合权重还包括与各个所述四音素组合类别对应的四音素组合权重,所述时间准确性修正得分还包括各个所述当前音素的四音素时间准确性修正得分,所述权重得分还包括各个所述当前音素的四音素权重得分;
所述根据所述音素序列的各个音素的权重得分,获取所述待评价语音强制对齐模型的时间准确性得分的步骤包括:
根据所述当前音素的所述二音素权重得分、所述三音素权重得分和所述四音素组合获取所述当前音素的融合权重得分;
根据所述音素序列的各个音素的融合权重得分,获取所述待评价语音强制对齐模型的时间准确性得分。
8.如权利要求7所述的语音强制对齐模型评价方法,其特征在于,所述融合权重得分通过以下公式获取:
score=v2*score’’+ v3*score”’+ v4*score””;
其中:v2+v3+v4=1,且v3>v2,v3>v4;
score为融合权重得分;
score’’为二音素权重得分;
v2为二音素融合因子;
score”’为三音素权重得分;
v3为三音素融合因子;
score””为四音素权重得分;
v4为四音素融合因子。
9.如权利要求3-8任一项所述的语音强制对齐模型评价方法,其特征在于,所述待评价语音强制对齐模型的时间准确性得分通过以下公式获取:
Score模型=W1*Score1+ W2*Score2…+Wn*Scoren
其中:Score模型为待评价语音强制对齐模型的时间准确性得分;
Wn为第n个音素的组合权重;
Scoren为第n个音素的时间准确性修正得分。
10.如权利要求3-8任一项所述的语音强制对齐模型评价方法,其特征在于,所述发音方式包括声母发音方式和韵母发音方式,所述声母发音方式包括根据发音部位分类的部位发音方式和根据发音方法分类的方法发音方式,所述韵母发音方式包括根据结构分类的结构发音方式和根据口型分类的口型发音方式。
11.如权利要求1-8任一项所述的语音强制对齐模型评价方法,其特征在于,所述根据所述预测起止时间和已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分的步骤包括:
根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的所述预测起止时间和所述基准起止时间的起止时间交集和起止时间并集;
获取各个所述音素的所述起止时间交集与所述起止时间并集的比值,得到各个所述音素的时间准确性得分。
12.一种语音强制对齐模型评价装置,其特征在于,包括:
音素序列及预测起止时间获取单元,适于利用待评价语音强制对齐模型,根据测试集的各段音频和与各段所述音频对应的文本,获取每段所述音频所对应的音素序列和所述音素序列的各个音素的预测起止时间;
音素时间准确性得分获取单元,适于根据所述预测起止时间和预先已知的所述音素序列的各个所述音素的基准起止时间,获取各个所述音素的时间准确性得分,其中,所述时间准确性得分为各个所述音素对应的所述预测起止时间与对应的所述基准起止时间的接近程度;
模型时间准确性得分获取单元,适于根据各个所述音素的时间准确性得分,获取所述待评价语音强制对齐模型的时间准确性得分。
13.一种存储介质,其特征在于,所述存储介质存储有适于语音强制对齐模型评价的程序,以实现如权利要求1-11任一项所述的语音强制对齐模型评价方法。
14.一种执行语音强制对齐模型评价方法的电子设备,其特征在于,包括至少一个存储器和至少一个处理器;所述存储器存储有程序,所述处理器调用所述程序,以执行如权利要求1-11任一项所述的语音强制对齐模型评价方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010925650.2A CN111798868B (zh) | 2020-09-07 | 2020-09-07 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
PCT/CN2021/108899 WO2022048354A1 (zh) | 2020-09-07 | 2021-07-28 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
AU2021336957A AU2021336957B2 (en) | 2020-09-07 | 2021-07-28 | Method for evaluating a speech forced alignment model, electronic device, and storage medium |
CA3194051A CA3194051C (en) | 2020-09-07 | 2021-07-28 | Method for evaluating a speech forced alignment model, electronic device, and storage medium |
US18/178,813 US11749257B2 (en) | 2020-09-07 | 2023-03-06 | Method for evaluating a speech forced alignment model, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010925650.2A CN111798868B (zh) | 2020-09-07 | 2020-09-07 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111798868A CN111798868A (zh) | 2020-10-20 |
CN111798868B true CN111798868B (zh) | 2020-12-08 |
Family
ID=72834301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010925650.2A Active CN111798868B (zh) | 2020-09-07 | 2020-09-07 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11749257B2 (zh) |
CN (1) | CN111798868B (zh) |
AU (1) | AU2021336957B2 (zh) |
CA (1) | CA3194051C (zh) |
WO (1) | WO2022048354A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112466272B (zh) * | 2020-10-23 | 2023-01-17 | 浙江同花顺智能科技有限公司 | 一种语音合成模型的评价方法、装置、设备及存储介质 |
US11798527B2 (en) | 2020-08-19 | 2023-10-24 | Zhejiang Tonghu Ashun Intelligent Technology Co., Ltd. | Systems and methods for synthesizing speech |
CN111798868B (zh) * | 2020-09-07 | 2020-12-08 | 北京世纪好未来教育科技有限公司 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
CN112420015B (zh) * | 2020-11-18 | 2024-07-19 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频合成方法、装置、设备及计算机可读存储介质 |
CN112542159B (zh) * | 2020-12-01 | 2024-04-09 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种数据处理方法以及设备 |
CN112908308B (zh) * | 2021-02-02 | 2024-05-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频处理方法、装置、设备及介质 |
CN112992184B (zh) * | 2021-04-20 | 2021-09-10 | 北京世纪好未来教育科技有限公司 | 一种发音评测方法、装置、电子设备和存储介质 |
CN117095672B (zh) * | 2023-07-12 | 2024-07-30 | 支付宝(杭州)信息技术有限公司 | 一种数字人唇形生成方法及装置 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5333275A (en) * | 1992-06-23 | 1994-07-26 | Wheatley Barbara J | System and method for time aligning speech |
US7216079B1 (en) * | 1999-11-02 | 2007-05-08 | Speechworks International, Inc. | Method and apparatus for discriminative training of acoustic models of a speech recognition system |
US7146319B2 (en) * | 2003-03-31 | 2006-12-05 | Novauris Technologies Ltd. | Phonetically based speech recognition system and method |
WO2009158581A2 (en) * | 2008-06-27 | 2009-12-30 | Adpassage, Inc. | System and method for spoken topic or criterion recognition in digital media and contextual advertising |
CN101651788B (zh) * | 2008-12-26 | 2012-11-21 | 中国科学院声学研究所 | 一种在线语音文本对齐系统及方法 |
US8321218B2 (en) * | 2009-06-19 | 2012-11-27 | L.N.T.S. Linguistech Solutions Ltd | Searching in audio speech |
US11062615B1 (en) * | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
US8729374B2 (en) * | 2011-07-22 | 2014-05-20 | Howling Technology | Method and apparatus for converting a spoken voice to a singing voice sung in the manner of a target singer |
NZ730641A (en) * | 2012-08-24 | 2018-08-31 | Interactive Intelligence Inc | Method and system for selectively biased linear discriminant analysis in automatic speech recognition systems |
JP2014240940A (ja) * | 2013-06-12 | 2014-12-25 | 株式会社東芝 | 書き起こし支援装置、方法、及びプログラム |
US9418650B2 (en) * | 2013-09-25 | 2016-08-16 | Verizon Patent And Licensing Inc. | Training speech recognition using captions |
US9947322B2 (en) * | 2015-02-26 | 2018-04-17 | Arizona Board Of Regents Acting For And On Behalf Of Northern Arizona University | Systems and methods for automated evaluation of human speech |
US9336782B1 (en) * | 2015-06-29 | 2016-05-10 | Vocalid, Inc. | Distributed collection and processing of voice bank data |
US9558734B2 (en) * | 2015-06-29 | 2017-01-31 | Vocalid, Inc. | Aging a text-to-speech voice |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
US10706873B2 (en) * | 2015-09-18 | 2020-07-07 | Sri International | Real-time speaker state analytics platform |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
WO2017112813A1 (en) * | 2015-12-22 | 2017-06-29 | Sri International | Multi-lingual virtual personal assistant |
US10043519B2 (en) * | 2016-09-02 | 2018-08-07 | Tim Schlippe | Generation of text from an audio speech signal |
US11443646B2 (en) * | 2017-12-22 | 2022-09-13 | Fathom Technologies, LLC | E-Reader interface system with audio and highlighting synchronization for digital books |
CN108510978B (zh) | 2018-04-18 | 2020-08-21 | 中国人民解放军62315部队 | 一种应用于语种识别的英语声学模型的建模方法及系统 |
CN109903752B (zh) * | 2018-05-28 | 2021-04-20 | 华为技术有限公司 | 对齐语音的方法和装置 |
WO2020027394A1 (ko) * | 2018-08-02 | 2020-02-06 | 미디어젠 주식회사 | 음소 단위 발음 정확성 평가 장치 및 평가 방법 |
US11887622B2 (en) * | 2018-09-14 | 2024-01-30 | United States Department Of Veteran Affairs | Mental health diagnostics using audio data |
CN109377981B (zh) * | 2018-11-22 | 2021-07-23 | 四川长虹电器股份有限公司 | 音素对齐的方法及装置 |
CN109326277B (zh) * | 2018-12-05 | 2022-02-08 | 四川长虹电器股份有限公司 | 半监督的音素强制对齐模型建立方法及系统 |
CN109545243B (zh) * | 2019-01-23 | 2022-09-02 | 北京猎户星空科技有限公司 | 发音质量评价方法、装置、电子设备及存储介质 |
CN111105785B (zh) | 2019-12-17 | 2023-06-16 | 广州多益网络股份有限公司 | 一种文本韵律边界识别的方法及装置 |
CN111312231B (zh) * | 2020-05-14 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 音频检测方法、装置、电子设备及可读存储介质 |
CN111798868B (zh) * | 2020-09-07 | 2020-12-08 | 北京世纪好未来教育科技有限公司 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-07 CN CN202010925650.2A patent/CN111798868B/zh active Active
-
2021
- 2021-07-28 AU AU2021336957A patent/AU2021336957B2/en active Active
- 2021-07-28 CA CA3194051A patent/CA3194051C/en active Active
- 2021-07-28 WO PCT/CN2021/108899 patent/WO2022048354A1/zh active Application Filing
-
2023
- 2023-03-06 US US18/178,813 patent/US11749257B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2022048354A1 (zh) | 2022-03-10 |
AU2021336957B2 (en) | 2023-09-28 |
CA3194051C (en) | 2023-11-07 |
US20230206902A1 (en) | 2023-06-29 |
CN111798868A (zh) | 2020-10-20 |
CA3194051A1 (en) | 2022-03-10 |
AU2021336957A1 (en) | 2023-05-04 |
US11749257B2 (en) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111798868B (zh) | 语音强制对齐模型评价方法、装置、电子设备及存储介质 | |
CN110543552B (zh) | 对话交互方法、装置及电子设备 | |
CN112185348B (zh) | 多语种语音识别方法、装置及电子设备 | |
US9396724B2 (en) | Method and apparatus for building a language model | |
TWI666558B (zh) | 語意分析方法、語意分析系統及非暫態電腦可讀取媒體 | |
US11282498B2 (en) | Speech synthesis method and speech synthesis apparatus | |
CN108711421A (zh) | 一种语音识别声学模型建立方法及装置和电子设备 | |
US20120290298A1 (en) | System and method for optimizing speech recognition and natural language parameters with user feedback | |
CN111552777B (zh) | 一种音频识别方法、装置、电子设备及存储介质 | |
WO2014190732A1 (en) | Method and apparatus for building a language model | |
US20150302848A1 (en) | Speech retrieval method, speech retrieval apparatus, and program for speech retrieval apparatus | |
CN109036471B (zh) | 语音端点检测方法及设备 | |
CN110188353B (zh) | 文本纠错方法及装置 | |
US6393398B1 (en) | Continuous speech recognizing apparatus and a recording medium thereof | |
CN111435592B (zh) | 一种语音识别方法、装置及终端设备 | |
CN111369974A (zh) | 一种方言发音标注方法、语言识别方法及相关装置 | |
CN110600002B (zh) | 语音合成方法、装置及电子设备 | |
CN112562640B (zh) | 多语言语音识别方法、装置、系统及计算机可读存储介质 | |
CN106601254A (zh) | 信息输入方法和装置及计算设备 | |
CN109522550A (zh) | 文本信息纠错方法、装置、计算机设备和存储介质 | |
CN109166569B (zh) | 音素误标注的检测方法和装置 | |
WO2014183411A1 (en) | Method, apparatus and speech synthesis system for classifying unvoiced and voiced sound | |
CN106847273B (zh) | 语音识别的唤醒词选择方法及装置 | |
TW201919040A (zh) | 聲控方法及系統 | |
CN107894882A (zh) | 一种移动终端的语音输入方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |