CN110265001A - 用于语音识别训练的语料筛选方法、装置及计算机设备 - Google Patents
用于语音识别训练的语料筛选方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN110265001A CN110265001A CN201910372331.0A CN201910372331A CN110265001A CN 110265001 A CN110265001 A CN 110265001A CN 201910372331 A CN201910372331 A CN 201910372331A CN 110265001 A CN110265001 A CN 110265001A
- Authority
- CN
- China
- Prior art keywords
- word
- corpus
- segment
- sequence
- discrimination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 122
- 238000012216 screening Methods 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000003860 storage Methods 0.000 claims abstract description 29
- 238000003780 insertion Methods 0.000 claims description 20
- 230000037431 insertion Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 239000000203 mixture Substances 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 17
- 241000196324 Embryophyta Species 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 238000012217 deletion Methods 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002035 prolonged effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例提供了一种用于语音识别训练的语料筛选方法、装置、计算机设备及计算机可读存储介质。本申请实施例属于语音识别技术领域,通过对语料进行分时间戳标注以得到第一语料集,使用第一语料集对语音识别模型进行训练以得到第一语音识别模型,通过第一语音识别模型对第一语料集中的每个语料片段进行解码以得到每个语料片段对应的第一词序列,将每个第一词序列和每个第一词序列对应的标准词序列进行比对以统计每个语料片段的第一词识别率,对每个语料片段的第一词识别率是否满足第一词识别率预设条件进行判断,将满足第一词识别率预设条件的第一词识别率对应的语料片段进行存储以形成筛选后的第二语料集,能有效筛选出准确度较高的训练语料。
Description
技术领域
本申请涉及语音识别技术领域,尤其涉及一种用于语音识别训练的语料筛选方法、装置、计算机设备及计算机可读存储介质。
背景技术
一个好的语音识别模型离不开标记质量良好的标记语料,但是通过各种渠道采集和收集的语料通常无法保证其标记的准确性,因此直接使用收集的语料进行语音识别模型的训练,其中标记不正确的语料不仅对训练无益,而且会降低语音识别模型的准确性。
发明内容
本申请实施例提供了一种用于语音识别训练的语料筛选方法、装置、计算机设备及计算机可读存储介质,能够解决传统技术中语音识别时由于语料的不准确导致语音识别模型准确性不高的问题。
第一方面,本申请实施例提供了一种用于语音识别训练的语料筛选方法,所述方法包括:对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集;使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型;通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列;将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率;对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
第二方面,本申请实施例还提供了一种用于语音识别训练的语料筛选装置,包括:标注单元,用于对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集;第一训练单元,用于使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型;第一解码单元,用于通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列;第一统计单元,用于将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率;第一判断单元,用于对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;第一筛选单元,用于将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
第三方面,本申请实施例还提供了一种计算机设备,其包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现所述用于语音识别训练的语料筛选方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器执行所述用于语音识别训练的语料筛选方法。
本申请实施例提供了一种用于语音识别训练的语料筛选方法、装置、计算机设备及计算机可读存储介质。本申请实施例对语音识别模型进行训练时,预先对进行语音识别模型训练的语料进行筛选,对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集,使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型,通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列,将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率,对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断,将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集,通过上述筛选过程可以有效筛选出标注准确度较高的满足要求的训练语料,使用标注准确度较高的有效训练语料训练语音识别模型以提高语音识别训练系统的准确性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的用于语音识别训练的语料筛选方法的应用场景示意图;
图2为本申请实施例提供的用于语音识别训练的语料筛选方法的流程示意图;
图3为本申请实施例提供的用于语音识别训练的语料筛选中将语料进行分时间戳标注的示意图;
图4为本申请实施例提供的用于语音识别训练的语料筛选方法中语音识别原理流程图;
图5为本申请实施例提供的用于语音识别训练的语料筛选方法中声音编码示意图;
图6为本申请实施例提供的用于语音识别训练的语料筛选装置的示意性框图;
图7为本申请实施例提供的用于语音识别训练的语料筛选装置的另一个示意性框图;以及
图8为本申请实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1,图1为本申请实施例提供的用于语音识别训练的语料筛选方法的应用场景示意图。所述应用场景包括:
(1)终端,终端也可以称为前端,通过终端采集或者收集训练语音识别模型的语料,所述终端可以为笔记本电脑、智能手表、平板电脑或者台式电脑等电子设备,图1中的终端与服务器连接。
(2)服务器,服务器进行语音识别,服务器可以为单台服务器、服务器集群或者云服务器,服务器若为服务器集群还可以包括主服务器和从服务器。
请继续参阅图1,如图1所示,在本申请实施例中,主要以服务器端执行用于语音识别训练的语料筛选方法的步骤为例来解释本申请用于语音识别训练的语料筛选方法的技术方案,图1中的各个主体工作过程如下:终端采集或者收集进行语音识别模型训练的语料,并将语料发送至服务器以使服务器对语料进行筛选;服务器对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集,使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型,通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列,将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率,对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断,将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集,使用第二语料集对语音识别模型进行训练以提高语音识别模型训练的准确性。
需要说明的是,本申请实施例中的用于语音识别训练的语料筛选方法可以应用于终端,也可以应用于服务器,只要在服务器对语音进行识别前对训练语料进行处理即可。同时,本申请实施例中的用于语音识别训练的语料筛选方法的应用环境并不局限于图1所示的应用环境,也可以将用于语音识别训练的语料筛选方法及语音识别一起应用在终端等计算机设备中,只要在计算机设备进行语音识别前进行即可,上述用于语音识别训练的语料筛选方法的应用场景仅仅用于说明本申请技术方案,并不用于限定本申请技术方案,上述连接关系还可以有其他形式。
图2为本申请实施例提供的用于语音识别训练的语料筛选方法的示意性流程图。该用于语音识别训练的语料筛选方法应用于图1中服务器中,以完成用于语音识别训练的语料筛选方法的全部或者部分功能。
请参阅图2,图2是本申请实施例提供的用于语音识别训练的语料筛选方法的流程示意图。如图2所示,该方法包括以下步骤S210-S270:
S210、对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集。
其中,语料片段,又可以称为分段,英文为Segment,是指使用时间戳对语料进行标注得到的语料标注段,每一个标注段是一个Segment。训练语音识别模型的语料一般包括语音及该语音对应的文字,通过对语音识别模型识别出来的词序列和该语音对应的文字进行比对以判断该语音识别模型进行语音识别的准确性。对语料进行标注,又可以称为对语料进行标记,是指将语音和语音表达的文字对应匹配起来。一般情况下,一段文字对应一段标准发音的语音,也就是一段文字是对应一段标准语音的,但是在实际语音识别中,由于每个人的发音不同和/或背景环境的多样性,即使是同一段文字,不同的人产生的语音是不一样的,会导致文字和语音不完全一致匹配。比如,对同一段文字内容,不同的人用语音表达出来,由于发音不同,或者背景噪声的不同,会形成不同的语音,当进行语音识别时,虽然原本是同一段文字,但是由于不同人的发音或者背景环境的不同形成的语音差异,进行语音识别时会由于语音的差异识别出来不同的文字内容。但进行语音识别模型的训练时,要尽可能使用语音和文字完全匹配一致的语料进行语音识别模型的训练,才能训练出识别效果比较好的语音识别模型,其中,语料中包含的语音和语音表达的文字匹配的准确度称为该语料的标注准确度,或者称为该语料的标记准确度。
时间戳,英文为Timestamp,是一个能表示一份数据在某个特定时间之前已经存在的、完整的、可验证的数据,通常是一个字符序列,唯一地标识某一刻的时间。
具体地,用于语音识别模型训练的语料,一般包含语音及该语音对应的文字,一般称训练语音识别模型的语料为标注语料或者标记语料。为了录音的便利性,一种语料标记的方式是对一段长语音进行分时间戳标注,每一个标注段是一个Segment,将长语音的训练语料进行分时间戳标注形成多个标注段,一个标注段对应一个语料片段,一个语料片段包含语音及该语音对应的文字描述,就可以获得多个根据所述时间戳进行分段的多段语料片段,并将多个语料片段组成语音识别训练语料的第一语料集。请参阅图3,图3为本申请实施例提供的用于语音识别训练的语料筛选中将语料进行分时间戳标注的示意图,如图3所示,通过五个时间戳将语料L标注为5分段,也就是通过时间戳1至时间戳5将语料L分为五段语料片段,五段语料片段组成第一语料集。
进一步地,给视频及音频打时间戳的方法分别包括:
1.)视频时间戳。
pts=inc++*(1000/fps);
其中,pts是指显示时间;inc是一个静态的,初始值为0,每次打完时间戳inc加1;fps(每秒传输帧数(Frames Per Second))是速度单位。
其中,FFMpeg,英文为FastForward Mpeg,是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。
2)音频时间戳。
pts=inc++*(frame_size*1000/sample_rate);
其中,pts是指显示时间;inc是一个静态的,初始值为0,每次打完时间戳inc加1;frame_size就是屏幕的实际分辨率;sample_rate是指抽样率,又称为样本率或者采样速度,采样频率是指将模拟声音波形进行数字化时,每秒钟抽取声波幅度样本的次数。
在不同编程语言中均可以获取现在的Unix时间戳(又可以称为Unix timestamp),比如,Java中采取time方法,JavaScript中采取方法为:
Math.round(newDate().getTime()/1000)getTime(),返回数值的单位是毫秒。
S220、使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型。
其中,语音识别,英文为Automatic Speech Recognition,一般简称ASR,是将声音转化为文字的过程。
具体地,语音识别系统包括语音识别模型,语音识别系统不仅包括语音识别模型,还包括对语音识别模型提供服务支持的其他一些相关内容。使用第一语料集中原始的所有通过分时间戳标注的语料片段进行语音识别模型训练,也就是将Segment方式标记的训练语料输入至语音识别模型,语音识别模型获取所述Segment方式标记的训练语料后,将所述Segment方式标记的训练语料从模拟信号经过采样和量化处理,转换成数字化语音信号,以完成所述Segment方式标记的训练语料的特征提取,实现语音识别中对所述Segment方式标记的训练语料的编码,以便语音识别模型再将获得的数字化语音信号转换输出为模拟语音信号,实现语音识别中对所述Segment方式标记的训练语料数字化信号的解码,将所述Segment方式标记的训练语料由模拟信号转换为数字信号,再将数字信号转换为模拟信号,从而实现语音识别,获得当前语音识别模型ASR,通过所述Segment方式标记的训练语料的原始模拟信号和经过语音识别模型转换后的模拟信号的对比,判断语音识别模型对语句识别的准确度。其中,对语音识别模型进行训练的过程是语音识别模型根据训练语料对语音识别模型中参数进行自动调整的过程,语音识别模型根据训练语料的不同会自动调整语音识别模型中的参数以适应训练语料数据和模型的匹配,因此,使用不同的训练语料对语音识别模型的每一次训练都会引起语音识别模型中参数的变化,比如,基于深度神经网络(DNN)的语音识别声学建模,不但不同的网络结构以及优化策略可以极大提升声学模型的性能,在结合深度神经网络的语音识别模型中,而且可以使用训练语料通过有监督学习的方式训练语音识别模型,每一次训练语料的不同,都会导致语音识别模型中参数的改变,所以在本申请实施例中,通过迭代的方式进行语音识别模型的训练的过程中,每一次训练语料的筛选都会引起语音识别模型中参数的调整,进而引起语音识别模型的优化。
进一步地,请参阅图4,图4为本申请实施例提供的用于语音识别训练的语料筛选方法中语音识别原理流程图,每一次对语音识别模型的训练都会经过以下过程,在以下训练语料模型的过程中,根据训练语料的不同会引起语音识别模型中参数的改变,从而实现对语音识别模型的调整和优化以提高语音识别模型对语音识别的准确性。如图4所示,语音识别原理流程包括以下过程:
1)语音输入,也就是获取语音,比如,获取采集或者收集的训练语音语料;
2)编码,也就是对输入的语音进行编码,通过编码对语音进行特征提取,比如,对语音语料进行编码提取;
3)解码。通过声学模型和语言模型对提取的语音特征进行解码,所述声学模型经训练数据1训练以达到满足要求的效果,所述语言模型经训练数据2训练以达到满足要求的效果,语音识别是把语音声波转换成文字,给定目标语音的训练数据,可以训练一个识别的统计模型;
4)文字输出。将声学模型和语言模型解码的语音特征转换为文字输出,比如,将训练语音语料为文字以实现语音识别,从而实现将语音转换为文字的语音识别。
其中,声学模型,英文为Acoustic model,目前的主流系统多采用隐马尔科夫模型进行建模。
语言模型是根据语言客观事实而进行的语言抽象数学建模,是一种对应关系。语言模型与语言客观事实之间的关系,如同数学上的抽象直线与具体直线之间的关系。
声音编码就是将模拟语音信号转换成数字化语音信号的过程,将模拟连续的声音信号转换成数字信号这个过程叫做音频数字化。请参阅图5,图5为本申请实施例提供的用于语音识别训练的语料筛选方法中声音编码示意图,如图5所示,它一般需要完成采集,量化,编码三个步骤。
声音解码就是将数字化语音信号转换输出为模拟语音信号的过程,解码的过程就是在给定声学特征的情况下,找到最可能对应的词组的过程。
S230、通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列。
具体地,在使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型后,再通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别,也就是在每个语料片段声学特征的情况下,找到每个语料片段最可能对应的词组以得到所述每个语料片段对应的第一词序列。
S240、将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率。
其中,词识别率是指语音识别模型对每个语料片段进行语音识别,对每个语料片段识别正确的词或者识别错误的词占该语料片段对应的标准词序列中总词数量的比例,词识别率包括词错误率和词正确率。
词错误率,英文为Word ErrorRate,简称为WER,是指对每个语料片段识别错误的词占该语料片段对应的标准词序列中总词数量的比例。
词正确率是指对每个语料片段识别正确的词占该语料片段对应的标准词序列中总词数量的比例。
具体地,将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词错误率或者第一词正确率。
进一步地,在一个实施例中,所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词错误率的步骤包括:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到所述第一词错误率。
具体地,为了使识别出来的词序列和标准的词序列之间保持一致,需要进行替换、删除或者插入某些词,这些插入、替换或删除的词的总个数,除以标准的词序列中词的总个数的百分比,即为WER。
公式为:
Accuracy=100-WER% (2)
其中,S,为英文Substitution的缩写,指替换词,是指为了使识别出来的词序列和标准的词序列之间保持一致,需要进行替换的词;
D,为英文Deletion的缩写,指删除词,是指为了使识别出来的词序列和标准的词序列之间保持一致,需要进行删除的词;
I,为英文Insertion的缩写,指插入词,是指为了使识别出来的词序列和标准的词序列之间保持一致,需要进行插入的词;
N,为英文Number的缩写,是指单词数量,是指标准的词序列中单词的数量;
Accuracy为准确率,又可以称为正确率,也就是语音识别中被准确识别的词。
S250、对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;
S260、将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集;
S270、将不满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段过滤掉。
其中,第一词识别率预设条件是指满足第一词识别率预设阈值的条件。比如,若第一词识别率为第一词错误率,所述第一词识别率预设条件为小于或者等于第一预设词错误率阈值,若所第一词识别率为第一词正确率,所述第一词识别率预设条件为大于或者等于第一预设词正确率阈值。
具体地,设定一个词识别率预设阈值对语料片段进行过滤筛选,以过滤掉不符合标注准确度要求的训练语料片段,筛选出符合标注准确度要求的语料片段,从而获得有效的训练语料。通过对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断,可以获知对所述语料片段的识别是否准确,进而判断对该语料片段的标注是否准确,也就是该语料片段是否是高质量的语料片段。若所述第一词识别率满足所述第一词识别率预设条件,也就是该语料片段满足标注准确度的要求,保留并存储所述第一词识别率对应的所述语料片段,形成筛选后的第二语料集,也就是将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集,作为最终筛选获得的有效语句,进一步通过筛选出的有效语句训练语音识别模型,若所述第一词识别率不满足所述第一词识别率预设条件,也就是该语料片段不满足标注准确度的要求,过滤掉所述第一词识别率对应的所述语料片段,将不满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段剔除,以完成对语音识别模型训练语料的筛选。
本申请实施例对语音识别模型进行训练时,预先对进行语音识别模型训练的语料进行筛选,对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集,使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型,通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列,将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率,对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断,将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集,通过上述筛选过程可以有效筛选出标注准确度较高的满足要求的训练语料,使用标注准确度较高的有效训练语料训练语音识别模型以提高语音识别训练系统的准确性。
在一个实施例中,所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤之后,还包括:
使用所述第二语料集对所述第一语音识别模型进行训练以得到第二语音识别模型;
通过所述第二语音识别模型对所述第二语料集中的每个所述语料片段进行识别以得到每个所述语料片段的第二词序列;
将每个所述第二词序列和每个所述第二词序列对应的标准词序列进行比对以统计每个所述语料片段的第二词识别率,所述第二词识别率包括词错误率或者词正确率;
对每个所述语料片段的所述第二词识别率是否满足第二词识别率预设条件进行判断;
将满足所述第二词识别率预设条件的所述第二词识别率所对应的所述语料片段进行存储以形成筛选后的第三语料集;
迭代上述步骤直至得到满足预设词识别率预设条件的所有所述语料片段以形成筛选后的语料集。
具体地,使用经第一次筛选后的语料片段重新训练语音识别模型,也就是使用所述第二语料集对所述第一语音识别模型进行训练以得到第二语音识别模型,通过所述第二语音识别模型对所述第二语料集中的每个所述语料片段进行识别以得到每个所述语料片段的第二词序列,将每个所述第二词序列和每个所述第二词序列对应的标准词序列进行比对以统计每个所述语料片段的第二词识别率,所述第二词识别率包括词错误率或者词正确率,对每个所述语料片段的所述第二词识别率是否满足第二词识别率预设条件进行判断,将满足所述第二词识别率预设条件的所述第二词识别率所对应的所述语料片段进行存储以形成筛选后的第三语料集,迭代上述步骤直至得到满足预设词识别率预设条件的所有所述语料片段以形成筛选后的语料集,直至最终获取满足要求的语料。比如,若要求对语料的WER阈值小于5%,则筛选出WER阈值小于5%的语料,可以有效筛选出以segment形式标记的语料,获得标注准确度满足要求的训练语料,从而提高训练语音识别模型时的准确性。本申请实施例提供的语音识别中语料迭代筛选方法,通过将语音识别训练和解码以筛选语料,再次使用筛选出的语料进行语音识别模型的训练,反复迭代,最终获得准确率高的筛选后语料,可以有效筛选出以Segment形式标记的语料,获得标注准确度满足要求的训练语料。
在一个实施例中,所述第一词识别率为第一词错误率;
所述对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤包括:
对每个所述语料片段的所述第一词错误率是否小于或者等于第一预设词错误率阈值进行判断;
所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤包括:
将满足所述第一词错误率小于或者等于所述第一预设词错误率阈值的所述第一词错误率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
具体地,所述第一词识别率为第一词错误率,对每个所述语料片段的所述第一词错误率是否小于或者等于第一预设词错误率阈值进行判断,将满足所述第一词错误率小于或者等于所述第一预设词错误率阈值的所述第一词错误率所对应的所述语料片段进行存储以形成筛选后的第二语料集,若所述语料片段的所述第一词错误率大于所述第一预设词错误率阈值,过滤掉所述第一词错误率对应的所述语料片段以剔除不符合要求的语料片段,具体计算方式可以参照第一个实施例中的公式(1)。设定一个WER阈值对segment进行过滤筛选,比如,设定WER阈值为25%,词错误率大于25%的过滤掉,留下词错误率小于或者等于25%的训练语料,从而获取满足要求的语料。
在一个实施例中,所第一词识别率为第一词正确率;
所述对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤包括:
对每个所述语料片段的所述第一词正确率是否大于或者等于第一预设词正确率阈值进行判断;
所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤包括:
将满足所述第一词正确率大于或者等于所述第一预设词正确率阈值的所述第一词正确率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
具体地,不仅可以根据语料片段识别出词的词错误率过滤掉不符合要求的语料片段以筛选出符合要求的语料片段,还可以根据语料片段识别出的词的词正确率直接筛选出符合要求的语料片段,也就是所述第一词识别率为第一词正确率,对每个所述语料片段的所述第一词正确率是否大于或者等于第一预设词正确率阈值进行判断,若所述语料片段的所述第一词正确率大于或者等于所述第一预设词正确率阈值,保留并存储所有所述第一词正确率对应的所述语料片段以形成筛选后的第二语料集,若所述语料片段的所述第一词正确率小于所述第一预设词正确率阈值,过滤掉所述第一词正确率对应的所述语料片段以剔除不符合要求的语料片段,从而筛选出符合要求的有效语料片段作为最终的训练语料。
在一个实施例中,所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词正确率的步骤包括:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的匹配词;
计算所述匹配与所述标准词序列中词数量的比值以得到第一词正确率;
或者,所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词正确率的步骤包括:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到第一词错误率;
根据所述第一词错误率获得对应所述语料片段的第一词正确率。
具体地,统计每个所述语料片段的第一词正确率有以下两种方式:
(1)直接统计。
具体地,将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的匹配词,就是识别正确的词,或者称为识别准确的词,计算所述匹配词与所述标准词序列中词数量的比值以得到第一词正确率。
(2)间接统计。
具体地,先统计词错误率,根据词错误率,统计出词正确率,也就是将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词,计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到第一词错误率,根据所述第一词错误率获得对应所述语料片段的第一词正确率,具体计算方式可以参照第一个实施例中的公式(1)和公式(2)。
在一个实施例中,所述对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集的步骤之前,还包括:
获取多个携带有预设顺序标识的语料段,所述语料段由语料按照预设大小进行切割获取;
所述对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集的步骤包括:
采用分布式系统通过并行方式对每个所述语料段分别进行分时间戳标注以得到根据所述时间戳进行分段并且携带有所述预设顺序标识的多段语料片段组成的第一语料集。
其中,预设顺序标识是指用来描述语料段在整个长语音语料中的位置的标识。包括顺序编号,比如A、B、C或者1、2、3等方式。
具体地,对于长语音语料,作为一个音频文件进行语料筛选会由于该音频文件太大而降低筛选的效率,可以按照预设大小将语料进行切割以获取多个语料段,所述语料段中携带有预设顺序标识以描述该语料段在长语音语料中的位置,以方便后续识别该语料段。将语料按照预设大小进行切割以获取多个携带有预设顺序标识的语料段,采用分布式系统通过并行方式对每个所述语料段分别进行分时间戳标注,得到根据所述时间戳进行分段并且携带有所述预设顺序标识的每个语料段包含的多段语料片段,再将各个语料段的多个语料片段组成第一语料集,再对第一语料集中的语料片段进行筛选。对语料进行切割,在不同的编程语言中可以使用不同的方法,比如,在C语言中,可以使用C语言中字符串切割函数Split进行切割,JAVA中可以使用CUT方法进行切割。
进一步地,对语料进行切割前,还可以通过语音活动检测以消除语料中的静音期信号。其中,语音活动检测,英文为Voice Activity Detection,缩写为VAD。VAD可以从声音信号流里识别和消除长时间的静音期,引入VAD来消除语料中的静音期信号,从语料中消除长时间的静音期,可以进一步提高语料的准确性,从而进一步提高语料的质量,通过提高语料的质量以进一步提高有效语料训练语音识别模型的准确度。
需要说明的是,上述各个实施例所述的用于语音识别训练的语料筛选方法,可以根据需要将不同实施例中包含的技术特征重新进行组合,以获取组合后的实施方案,但都在本申请要求的保护范围之内。
请参阅图6,图6为本申请实施例提供的用于语音识别训练的语料筛选装置的示意性框图。对应于上述用于语音识别训练的语料筛选方法,本申请实施例还提供一种用于语音识别训练的语料筛选装置。如图6所示,该用于语音识别训练的语料筛选装置包括用于执行上述用于语音识别训练的语料筛选方法的单元,该装置可以被配置于服务器等计算机设备中。具体地,请参阅图6,该用于语音识别训练的语料筛选装置600包括标注单元601、第一训练单元602、第一解码单元603、第一统计单元604、第一判断单元605及第一筛选单元606。
其中,标注单元601,用于对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集;
第一训练单元602,用于使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型;
第一解码单元603,用于通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列;
第一统计单元604,用于将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率;
第一判断单元605,用于对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;
第一筛选单元606,用于将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
请参阅图7,图7为本申请实施例提供的用于语音识别训练的语料筛选装置的另一个示意性框图。如图7所示,在该实施例中,所述用于语音识别训练的语料筛选装置600还包括:
第二训练单元607,用于使用所述第二语料集对所述第一语音识别模型进行训练以得到第二语音识别模型;
第二解码单元608,用于通过所述第二语音识别模型对所述第二语料集中的每个所述语料片段进行识别以得到每个所述语料片段的第二词序列;
第二统计单元609,用于将每个所述第二词序列和每个所述第二词序列对应的标准词序列进行比对以统计每个所述语料片段的第二词识别率,所述第二词识别率包括词错误率或者词正确率;
第二判断单元610,用于对每个所述语料片段的所述第二词识别率是否满足第二词识别率预设条件进行判断;
第二筛选单元611,用于将满足所述第二词识别率预设条件的所述第二词识别率所对应的所述语料片段进行存储以形成筛选后的第三语料集;
迭代单元612,用于迭代上述步骤直至得到满足预设词识别率预设条件的所有所述语料片段以形成筛选后的语料集。
在一个实施例中,所述第一词识别率为第一词错误率;
所述第一判断单元605,用于对每个所述语料片段的所述第一词错误率是否小于或者等于第一预设词错误率阈值进行判断;
所述第一筛选单元606,用于将满足所述第一词错误率小于或者等于所述第一预设词错误率阈值的所述第一词错误率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
在一个实施例中,所述第一统计单元604包括:
第一比对子单元,用于将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算子单元,用于计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到所述第一词错误率。
在一个实施例中,所第一词识别率为第一词正确率;
所述第一判断单元605,用于对每个所述语料片段的所述第一词正确率是否大于或者等于第一预设词正确率阈值进行判断;
所述第一筛选单元606,用于将满足所述第一词正确率大于或者等于所述第一预设词正确率阈值的所述第一词正确率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
在一个实施例中,所述第一统计单元604包括:
第二比对子单元,用于将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的匹配词;
第二计算子单元,用于计算所述匹配词与所述标准词序列中词数量的比值以得到第一词正确率;
或者,所述第一统计单元604包括:
第三比对子单元,用于将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
第三计算子单元,用于计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到第一词错误率;
获得子单元,用于根据所述第一词错误率获得对应所述语料片段的第一词正确率。
请继续参阅图7,如图7所示,在该实施例中,所述用于语音识别训练的语料筛选装置600还包括:
获取单元613,用于获取多个携带有预设顺序标识的语料段,所述语料段由语料按照预设大小进行切割获取;
所述标注单元601,用于采用分布式系统通过并行方式对每个所述语料段分别进行分时间戳标注以得到根据所述时间戳进行分段并且携带有所述预设顺序标识的多段语料片段组成的第一语料集。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述用于语音识别训练的语料筛选装置和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
同时,上述用于语音识别训练的语料筛选装置中各个单元的划分和连接方式仅用于举例说明,在其他实施例中,可将用于语音识别训练的语料筛选装置按照需要划分为不同的单元,也可将用于语音识别训练的语料筛选装置中各单元采取不同的连接顺序和方式,以完成上述用于语音识别训练的语料筛选装置的全部或部分功能。
上述用于语音识别训练的语料筛选装置可以实现为一种计算机程序的形式,该计算机程序可以在如图8所示的计算机设备上运行。
请参阅图8,图8是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备800可以是台式机电脑或者服务器等计算机设备,也可以是其他设备中的组件或者部件。
参阅图8,该计算机设备800包括通过系统总线801连接的处理器802、存储器和网络接口805,其中,存储器可以包括非易失性存储介质803和内存储器804。
该非易失性存储介质803可存储操作系统8031和计算机程序8032。该计算机程序8032被执行时,可使得处理器802执行一种上述用于语音识别训练的语料筛选方法。
该处理器802用于提供计算和控制能力,以支撑整个计算机设备800的运行。
该内存储器804为非易失性存储介质803中的计算机程序8032的运行提供环境,该计算机程序8032被处理器802执行时,可使得处理器802执行一种上述用于语音识别训练的语料筛选方法。
该网络接口805用于与其它设备进行网络通信。本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备800的限定,具体的计算机设备800可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图8所示实施例一致,在此不再赘述。
其中,所述处理器802用于运行存储在存储器中的计算机程序8032,以实现如下步骤:对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集;使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型;通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列;将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率;对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
在一实施例中,所述处理器802在实现所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤之后,还实现以下步骤:
使用所述第二语料集对所述第一语音识别模型进行训练以得到第二语音识别模型;
通过所述第二语音识别模型对所述第二语料集中的每个所述语料片段进行识别以得到每个所述语料片段的第二词序列;
将每个所述第二词序列和每个所述第二词序列对应的标准词序列进行比对以统计每个所述语料片段的第二词识别率,所述第二词识别率包括词错误率或者词正确率;
对每个所述语料片段的所述第二词识别率是否满足第二词识别率预设条件进行判断;
将满足所述第二词识别率预设条件的所述第二词识别率所对应的所述语料片段进行存储以形成筛选后的第三语料集;
迭代上述步骤直至得到满足预设词识别率预设条件的所有所述语料片段以形成筛选后的语料集。
在一实施例中,所述处理器802在实现对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤时,所述第一词识别率为第一词错误率;
所述处理器802在实现所述对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤时,具体实现以下步骤:
对每个所述语料片段的所述第一词错误率是否小于或者等于第一预设词错误率阈值进行判断;
所述处理器802在实现所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤时,具体实现以下步骤:
将满足所述第一词错误率小于或者等于所述第一预设词错误率阈值的所述第一词错误率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
在一实施例中,所述处理器802在实现所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词错误率的步骤时,具体实现以下步骤:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到所述第一词错误率。
在一实施例中,所述处理器802在实现对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤时,所第一词识别率为第一词正确率;
所述处理器802在实现所述对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤时,具体实现以下步骤:
对每个所述语料片段的所述第一词正确率是否大于或者等于第一预设词正确率阈值进行判断;
所述处理器802在实现所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤时,具体实现以下步骤:
将满足所述第一词正确率大于或者等于所述第一预设词正确率阈值的所述第一词正确率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
在一实施例中,所述处理器802在实现所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词正确率的步骤时,具体实现以下步骤:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的匹配词;
计算所述匹配词与所述标准词序列中词数量的比值以得到第一词正确率;
或者,所述处理器802在实现所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词正确率的步骤时,具体实现以下步骤:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到第一词错误率;
根据所述第一词错误率获得对应所述语料片段的第一词正确率。
在一实施例中,所述处理器802在实现所述对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集的步骤之前,还实现以下步骤:
获取多个携带有预设顺序标识的语料段,所述语料段由语料按照预设大小进行切割获取;
所述对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集的步骤包括:
采用分布式系统通过并行方式对每个所述语料段分别进行分时间戳标注以得到根据所述时间戳进行分段并且携带有所述预设顺序标识的多段语料片段组成的第一语料集。
应当理解,在本申请实施例中,处理器802可以是中央处理单元(CentralProcessing Unit,CPU),该处理器802还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来完成,该计算机程序可存储于一计算机可读存储介质。该计算机程序被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本申请还提供一种计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时使处理器执行如下步骤:
一种计算机程序产品,当其在计算机上运行时,使得计算机执行以上各实施例中所描述的用于语音识别训练的语料筛选方法的步骤。
所述计算机可读存储介质可以是前述设备的内部存储单元,例如设备的硬盘或内存。所述计算机可读存储介质也可以是所述设备的外部存储设备,例如所述设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述计算机可读存储介质还可以既包括所述设备的内部存储单元也包括外部存储设备。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述计算机可读存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本申请实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本申请实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,终端,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
以上所述,仅为本申请的具体实施方式,但本申请明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种用于语音识别训练的语料筛选方法,其特征在于,所述方法包括:
对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集;
使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型;
通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列;
将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率;
对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;
将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
2.根据权利要求1所述用于语音识别训练的语料筛选方法,其特征在于,所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤之后,还包括:
使用所述第二语料集对所述第一语音识别模型进行训练以得到第二语音识别模型;
通过所述第二语音识别模型对所述第二语料集中的每个所述语料片段进行识别以得到每个所述语料片段的第二词序列;
将每个所述第二词序列和每个所述第二词序列对应的标准词序列进行比对以统计每个所述语料片段的第二词识别率,所述第二词识别率包括词错误率或者词正确率;
对每个所述语料片段的所述第二词识别率是否满足第二词识别率预设条件进行判断;
将满足所述第二词识别率预设条件的所述第二词识别率所对应的所述语料片段进行存储以形成筛选后的第三语料集;
迭代上述步骤直至得到满足预设词识别率预设条件的所有所述语料片段以形成筛选后的语料集。
3.根据权利要求1或者2所述用于语音识别训练的语料筛选方法,其特征在于,所述第一词识别率为第一词错误率;
所述对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤包括:
对每个所述语料片段的所述第一词错误率是否小于或者等于第一预设词错误率阈值进行判断;
所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤包括:
将满足所述第一词错误率小于或者等于所述第一预设词错误率阈值的所述第一词错误率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
4.根据权利要求3所述用于语音识别训练的语料筛选方法,其特征在于,所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词错误率的步骤包括:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到所述第一词错误率。
5.根据权利要求1或者2所述用于语音识别训练的语料筛选方法,其特征在于,所第一词识别率为第一词正确率;
所述对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断的步骤包括:
对每个所述语料片段的所述第一词正确率是否大于或者等于第一预设词正确率阈值进行判断;
所述将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集的步骤包括:
将满足所述第一词正确率大于或者等于所述第一预设词正确率阈值的所述第一词正确率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
6.根据权利要求5所述用于语音识别训练的语料筛选方法,其特征在于,所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词正确率的步骤包括:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的匹配词;
计算所述匹配词与所述标准词序列中词数量的比值以得到第一词正确率;
或者,所述将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词正确率的步骤包括:
将每个所述第一词序列和每个所述第一词序列对应的标准词序列中对应的词按照词序列的顺序逐个比对以得到所述第一词序列调整成所述标准词序列的插入词、替换词及删除词;
计算所述插入词、所述替换词及所述删除词的数量之和与所述标准词序列中词数量的比值以得到第一词错误率;
根据所述第一词错误率获得对应所述语料片段的第一词正确率。
7.根据权利要求1或者2所述用于语音识别训练的语料筛选方法,其特征在于,所述对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集的步骤之前,还包括:
获取多个携带有预设顺序标识的语料段,所述语料段由语料按照预设大小进行切割获取;
所述对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集的步骤包括:
采用分布式系统通过并行方式对每个所述语料段分别进行分时间戳标注以得到根据所述时间戳进行分段并且携带有所述预设顺序标识的多段语料片段组成的第一语料集。
8.一种用于语音识别训练的语料筛选装置,其特征在于,包括:
标注单元,用于对语料进行分时间戳标注以得到多段语料片段,并将多段所述语料片段组成第一语料集;
第一训练单元,用于使用所述第一语料集对语音识别模型进行训练以得到第一语音识别模型;
第一解码单元,用于通过所述第一语音识别模型对所述第一语料集中的每个所述语料片段进行识别以得到每个所述语料片段对应的第一词序列;
第一统计单元,用于将每个所述第一词序列和每个所述第一词序列对应的标准词序列进行比对以统计每个所述语料片段的第一词识别率,所述第一词识别率包括词错误率或者词正确率;
第一判断单元,用于对每个所述语料片段的所述第一词识别率是否满足第一词识别率预设条件进行判断;
第一筛选单元,用于将满足所述第一词识别率预设条件的所述第一词识别率所对应的所述语料片段进行存储以形成筛选后的第二语料集。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器以及与所述存储器相连的处理器;所述存储器用于存储计算机程序;所述处理器用于运行所述存储器中存储的计算机程序,以执行如权利要求1-7任一项所述用于语音识别训练的语料筛选方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器执行如权利要求1-7中任一项所述用于语音识别训练的语料筛选方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910372331.0A CN110265001B (zh) | 2019-05-06 | 2019-05-06 | 用于语音识别训练的语料筛选方法、装置及计算机设备 |
PCT/CN2019/103470 WO2020224121A1 (zh) | 2019-05-06 | 2019-08-30 | 用于语音识别训练的语料筛选方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910372331.0A CN110265001B (zh) | 2019-05-06 | 2019-05-06 | 用于语音识别训练的语料筛选方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110265001A true CN110265001A (zh) | 2019-09-20 |
CN110265001B CN110265001B (zh) | 2023-06-23 |
Family
ID=67914304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910372331.0A Active CN110265001B (zh) | 2019-05-06 | 2019-05-06 | 用于语音识别训练的语料筛选方法、装置及计算机设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110265001B (zh) |
WO (1) | WO2020224121A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091834A (zh) * | 2019-12-23 | 2020-05-01 | 科大讯飞股份有限公司 | 文本与音频对齐方法及相关产品 |
CN111091812A (zh) * | 2019-11-26 | 2020-05-01 | 苏州思必驰信息科技有限公司 | 小语种语料的生成方法及系统 |
CN111739519A (zh) * | 2020-06-16 | 2020-10-02 | 平安科技(深圳)有限公司 | 基于语音识别的对话管理处理方法、装置、设备及介质 |
CN112435656A (zh) * | 2020-12-11 | 2021-03-02 | 平安科技(深圳)有限公司 | 模型训练方法、语音识别方法、装置、设备及存储介质 |
CN115240659A (zh) * | 2022-09-21 | 2022-10-25 | 深圳市北科瑞声科技股份有限公司 | 分类模型训练方法、装置、计算机设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139816B (zh) * | 2021-04-26 | 2024-07-16 | 北京沃东天骏信息技术有限公司 | 信息处理方法、装置、电子设备和存储介质 |
CN113362800B (zh) * | 2021-06-02 | 2024-09-20 | 深圳云知声信息技术有限公司 | 用于语音合成语料库的建立方法、装置、设备和介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN203456091U (zh) * | 2013-04-03 | 2014-02-26 | 中金数据系统有限公司 | 语音语料库的构建系统 |
CN107481718A (zh) * | 2017-09-20 | 2017-12-15 | 广东欧珀移动通信有限公司 | 语音识别方法、装置、存储介质及电子设备 |
CN108242234A (zh) * | 2018-01-10 | 2018-07-03 | 腾讯科技(深圳)有限公司 | 语音识别模型生成方法及其设备、存储介质、电子设备 |
CN108305619A (zh) * | 2017-03-10 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 语音数据集训练方法和装置 |
CN108389577A (zh) * | 2018-02-12 | 2018-08-10 | 广州视源电子科技股份有限公司 | 优化语音识别声学模型的方法、系统、设备及存储介质 |
WO2019014607A1 (en) * | 2017-07-14 | 2019-01-17 | Alibaba Group Holding Limited | METHOD AND APPARATUS FOR SCREEN SCREENING, AND METHOD AND APPARATUS FOR SEARCHING SERVICE OBJECT DATA |
CN109637537A (zh) * | 2018-12-28 | 2019-04-16 | 北京声智科技有限公司 | 一种自动获取标注数据优化自定义唤醒模型的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989081B (zh) * | 2015-02-11 | 2019-09-24 | 联想(北京)有限公司 | 一种语料处理方法和装置 |
CN108711421B (zh) * | 2017-04-10 | 2020-12-25 | 北京猎户星空科技有限公司 | 一种语音识别声学模型建立方法及装置和电子设备 |
CN109388743B (zh) * | 2017-08-11 | 2021-11-23 | 阿里巴巴集团控股有限公司 | 语言模型的确定方法和装置 |
-
2019
- 2019-05-06 CN CN201910372331.0A patent/CN110265001B/zh active Active
- 2019-08-30 WO PCT/CN2019/103470 patent/WO2020224121A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN203456091U (zh) * | 2013-04-03 | 2014-02-26 | 中金数据系统有限公司 | 语音语料库的构建系统 |
CN108305619A (zh) * | 2017-03-10 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 语音数据集训练方法和装置 |
WO2019014607A1 (en) * | 2017-07-14 | 2019-01-17 | Alibaba Group Holding Limited | METHOD AND APPARATUS FOR SCREEN SCREENING, AND METHOD AND APPARATUS FOR SEARCHING SERVICE OBJECT DATA |
CN107481718A (zh) * | 2017-09-20 | 2017-12-15 | 广东欧珀移动通信有限公司 | 语音识别方法、装置、存储介质及电子设备 |
CN108242234A (zh) * | 2018-01-10 | 2018-07-03 | 腾讯科技(深圳)有限公司 | 语音识别模型生成方法及其设备、存储介质、电子设备 |
CN108389577A (zh) * | 2018-02-12 | 2018-08-10 | 广州视源电子科技股份有限公司 | 优化语音识别声学模型的方法、系统、设备及存储介质 |
CN109637537A (zh) * | 2018-12-28 | 2019-04-16 | 北京声智科技有限公司 | 一种自动获取标注数据优化自定义唤醒模型的方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091812A (zh) * | 2019-11-26 | 2020-05-01 | 苏州思必驰信息科技有限公司 | 小语种语料的生成方法及系统 |
CN111091812B (zh) * | 2019-11-26 | 2022-05-17 | 思必驰科技股份有限公司 | 小语种语料的生成方法及系统 |
CN111091834A (zh) * | 2019-12-23 | 2020-05-01 | 科大讯飞股份有限公司 | 文本与音频对齐方法及相关产品 |
CN111091834B (zh) * | 2019-12-23 | 2022-09-06 | 科大讯飞股份有限公司 | 文本与音频对齐方法及相关产品 |
CN111739519A (zh) * | 2020-06-16 | 2020-10-02 | 平安科技(深圳)有限公司 | 基于语音识别的对话管理处理方法、装置、设备及介质 |
CN111739519B (zh) * | 2020-06-16 | 2024-08-02 | 平安科技(深圳)有限公司 | 基于语音识别的对话管理处理方法、装置、设备及介质 |
CN112435656A (zh) * | 2020-12-11 | 2021-03-02 | 平安科技(深圳)有限公司 | 模型训练方法、语音识别方法、装置、设备及存储介质 |
CN112435656B (zh) * | 2020-12-11 | 2024-03-01 | 平安科技(深圳)有限公司 | 模型训练方法、语音识别方法、装置、设备及存储介质 |
CN115240659A (zh) * | 2022-09-21 | 2022-10-25 | 深圳市北科瑞声科技股份有限公司 | 分类模型训练方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020224121A1 (zh) | 2020-11-12 |
CN110265001B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110263322B (zh) | 用于语音识别的音频语料筛选方法、装置及计算机设备 | |
CN110265001A (zh) | 用于语音识别训练的语料筛选方法、装置及计算机设备 | |
CN110648658B (zh) | 一种语音识别模型的生成方法、装置及电子设备 | |
WO2020024690A1 (zh) | 语音标注方法、装置及设备 | |
CN103065620B (zh) | 在手机上或网页上接收用户输入的文字并实时合成为个性化声音的方法 | |
Reddy et al. | A web application for automated dialect analysis | |
CN105427858A (zh) | 实现语音自动分类的方法及系统 | |
CN109960810A (zh) | 一种实体对齐方法及装置 | |
CN105869658B (zh) | 一种采用非线性特征的语音端点检测方法 | |
CN108549628A (zh) | 流式自然语言信息的断句装置及方法 | |
CN109791616A (zh) | 自动语音识别 | |
CN117095694A (zh) | 一种基于标签层级结构属性关系的鸟类鸣声识别方法 | |
CN110738986A (zh) | 一种长语音标注装置及方法 | |
CN109472021A (zh) | 基于深度学习的医学文献中关键句筛选方法及装置 | |
CN110782915A (zh) | 一种基于深度学习的波形音乐成分分离方法 | |
Ling | An acoustic model for English speech recognition based on deep learning | |
CN110853627B (zh) | 用于语音标注的方法及系统 | |
CN109300468A (zh) | 一种语音标注方法及装置 | |
CN112581937A (zh) | 一种语音指令的获得方法及装置 | |
CN111785236A (zh) | 一种基于动机提取模型与神经网络的自动作曲方法 | |
CN110390937A (zh) | 一种基于ArcFace loss算法的跨信道声纹识别方法 | |
Cohen | Segmenting speech using dynamic programming | |
CN109376224A (zh) | 语料过滤方法与装置 | |
CN110600010B (zh) | 一种语料提取方法及装置 | |
Georgescu et al. | Progress on automatic annotation of speech corpora using complementary ASR systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |