CN112599148A - 一种语音识别方法及装置 - Google Patents
一种语音识别方法及装置 Download PDFInfo
- Publication number
- CN112599148A CN112599148A CN202011624401.6A CN202011624401A CN112599148A CN 112599148 A CN112599148 A CN 112599148A CN 202011624401 A CN202011624401 A CN 202011624401A CN 112599148 A CN112599148 A CN 112599148A
- Authority
- CN
- China
- Prior art keywords
- audio data
- speech
- speech rate
- rate
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000008859 change Effects 0.000 claims abstract description 18
- 238000004590 computer program Methods 0.000 claims description 20
- 238000009432 framing Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 12
- 230000008030 elimination Effects 0.000 claims description 6
- 238000003379 elimination reaction Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000012549 training Methods 0.000 abstract description 19
- 230000008569 process Effects 0.000 description 11
- 238000001228 spectrum Methods 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000037433 frameshift Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
- G10L21/043—Time compression or expansion by changing speed
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明适用于语音识别技术领域,提供了一种语音识别方法及装置,该方法包括:对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速;基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后的第二音频数据,所述第二音频数据的语速与所述基准语速一致;对所述第二音频数据进行语音识别,获取语音识别结果。本发明通过对音频数据的语速进行调整后再进行语音识别,由于音频数据的语速与基准语速一致,因此可以极大减少语音识别模型的训练数据,从而节省音频数据资源和训练时间成本。
Description
技术领域
本发明属于语音识别技术领域,尤其涉及一种语音识别方法及装置。
背景技术
随着语音识别技术的发展,语音识别技术的应用领域越来越广泛,在进行语音识别时也会遇到各种问题,例如不同音频数据的语速不同,或者音频数据中包含背景噪声等,都会影响语音识别的效果。
为了增加语音识别模型的鲁棒性,现有技术中通常会搜集尽可能多样性的音频数据参与语音识别模型的训练,以提高语音识别模型的识别准确度。然而,在进行语音识别模型的训练时,需要搜集大量的音频数据,同时随着音频数据量的增加,语音识别模型的训练时间也极大增加,从而需要耗费大量的音频数据资源和训练时间。
发明内容
有鉴于此,本发明实施例提供了一种语音识别方法及装置,以解决现有技术中进行语音识别模型训练时需要消耗大量音频数据资源和训练时间的技术问题。
本发明实施例的第一方面,提供了一种语音识别方法,包括:
对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速;
基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后的第二音频数据,所述第二音频数据的语速与所述基准语速一致;
对所述第二音频数据进行语音识别,获取语音识别结果。
在一个实施例中,所述对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速的步骤,包括:
对获取的第一音频数据进行分帧,以获得所述第一音频数据对应的帧序列音频数据;
基于每帧所述音频数据,获取所述第一音频数据的元音数量;
基于所述元音数量和所述第一音频数据的时长,确定所述第一音频数据的初始语速。
在一个实施例中,所述基于每帧所述音频数据,获取所述第一音频数据的元音数量的步骤,包括:
基于每帧所述音频数据的幅值,获取每帧所述音频数据的能量值;
基于帧序列中每帧所述音频数据的能量值,确定获取所述第一音频数据的元音数量。
在一个实施例中,所述基于每帧所述音频数据的幅值,获取每帧所述音频数据的能量值的步骤中,所述音频数据的能量值的计算方式为:
其中,E为每帧所述音频数据的能量;
N为每帧所述音频数据的采样点数量;
x(n)为每个采样点的幅值。
在一个实施例中,所述基于帧序列中每帧所述音频数据的能量值,确定获取所述第一音频数据的元音数量的步骤中,根据帧序列音频数据中的能量峰值的数量确定所述第一音频数据的元音数量。
在一个实施例中,所述对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速的步骤前,还包括:
对获取的原始音频数据进行预处理,以获取第一音频数据,所述预处理至少包括语音降噪、混响消除、回声消除中的一种。
在一个实施例中,所述基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后的音频数据,所述音频数据的语速与所述基准语速一致的步骤,包括:
基于基准语速和所述初始语速,确定所述初始语速与所述基准语速的比值为调整值;
根据所述调整值对所述第一音频数据进行语音变速处理,以使得调整后的音频数据的语速与所述基准语速一致。
本发明实施例的第二方面,提供了一种语音识别装置,包括:
语速获取模块,用于对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速;
语速调整模块,用于基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后音频数据,所述调整后音频数据的语速与所述基准语速一致;
语音识别模块,用于对所述调整后音频数据进行语音识别,获取语音识别结果。
本发明实施例的第三方面,提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述语音识别方法的步骤。
本发明实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述语音识别方法的步骤。
本发明实施例与现有技术相比存在的有益效果至少在于:本发明实施例对获取的音频数据,首先获取该音频数据的初始语速,并根据初始语速和语音识别模型的基准语速对该音频数据进行语音变速,以使得调整后的音频数据的语速与基准语速一致,再将该调整后的音频数据输入语音识别模型中进行语音识别。由于最终输入语音识别模型的音频数据的语速与基准语速一致,因此可以极大减少语音识别模型的训练数据,从而节省音频数据资源和训练时间成本。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例提供的语音识别方法的实现流程示意图一;
图2是本发明实施例提供的语音识别方法的实现流程示意图二;
图3是本发明实施例提供的语音识别方法中对获取的第一音频数据进行语速识别的实现流程示意图;
图4是本发明实施例提供的语音识别方法中对第一音频数据进行语音变速处理的实现流程示意图;
图5是本发明实施例提供的语音识别装置的示意图;
图6是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
在进行语音识别时,通常需要搜集音频数据对语音识别模型进行训练,以获得经过训练的语音识别模型,并通过该语音识别模型对音频数据进行处理,以获得语音识别结果。实际在对音频数据进行语音识别时,音频数据会存在各种问题,例如不同的音频数据语速不同,导致语音识别效果不佳。由于语音识别模型的识别准确度与训练数据相关,训练数据越丰富,则语音识别模型的识别准确度越高。因此,为了提高语音识别模型的识别准确度,通常采用的做法是搜集大量的音频数据进行模型训练,以使得语音识别模型能够识别不同语速的音频数据。然而,这种方式存在诸多问题:一方面,需要搜集大量不同语速的音频数据资源,不但增加了音频数据资源的搜集难度,而且需要耗费大量的时间;另一方面,随着音频数据量的增加,语音识别模型的训练时间也极大增加,导致训练周期变长。
为了解决不同语速的音频数据的语音识别问题,请参阅图1,本发明实施例提出了一种全新的语音识别方法,包括如下步骤:
步骤S10:对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速。
在本实施例中,第一音频数据可以是通过麦克风或者麦克风阵列所采集的音频数据,也可以是通过其他方式所获得的音频数据,例如可以是获取的音频测试样本等。音频数据的语速为单位时长内元音的数量,例如可以是每秒内元音的数量。通过对第一音频数据中元音数量的识别,可以获得第一音频数据的初始语速。
步骤S20:基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后的第二音频数据,所述第二音频数据的语速与所述基准语速一致。
对于语音识别模型,在训练时可以采用语速一致的训练数据进行训练,该语速则为基准语速。在通过语音识别模型对获取的音频数据进行语音识别时,由于获取的音频数据(第一音频数据)的初始语速与基准语速可能不一致,因此需要将第一音频数据的初始语速与基准语速进行比较,并根据基准语速对第一音频数据的进行变速处理以调整语速,使得调整后的第一音频数据的语速与基准语速一致。
步骤S30:对所述第二音频数据进行语音识别,获取语音识别结果。
由于经过语速调整的音频数据的语速与基准语速一致,此时通过语音识别模型对音频数据进行语音识别时可以获得准确度更高的语音识别结果。可以理解的是,此时对第二音频数据进行语音识别的语音识别模型可以是任何类型的经过训练的语音识别模型,此处不做限制。
本发明实施例提供的语音识别方法的有益效果至少在于:本发明实施例对获取的音频数据,首先获取该音频数据的初始语速,并根据初始语速和语音识别模型的基准语速对该音频数据进行语音变速,以使得调整后的音频数据的语速与基准语速一致,再将该调整后的音频数据输入语音识别模型中进行语音识别。由于最终输入语音识别模型的音频数据的语速与基准语速一致,因此可以极大减少语音识别模型的训练数据,从而节省音频数据资源和训练时间成本。
请参阅图2,在一个实施例中,为了提高音频数据的质量,本实施例在步骤S10之前,还包括:
步骤S01:对获取的原始音频数据进行预处理,以获取第一音频数据,所述预处理至少包括语音降噪、混响消除、回声消除中的一种。
在本实施例中,原始音频数据可以是直接通过麦克风或者麦克风阵列采集的原始音频数据,也可以是获取的原始音频测试样本等,这些原始音频数据通常包含了各种各样的噪声,这些噪声会对语音信号产生很大的干扰,因此需要进行语音增强。语音增强是指当语音信号被各种噪声干扰、甚至淹没后,从噪声北京中提取有用的语音信号,抑制或者降低噪声干扰。进行语音增强的方式至少包括语音降噪、混响消除、回声消除等。根据语音信号和噪声的特点,可以采用谱相减法、维纳滤波、卡尔曼滤波等方法来进行语音增强。
请参阅图3,进一步地,步骤S10中对获取的第一音频数据进行语速识别,包括:
步骤S101:对获取的第一音频数据进行分帧,以获得所述第一音频数据对应的帧序列音频数据。
语音信号是一种随时间变化的信号,主要分为浊音和清音两大类。浊音的基音周期、清浊音信号幅度和声道参数等都随时间而缓慢变化。由于发声器官的惯性运动,一般认为在一小段时间里(一般为10ms~30ms)的语音信号近似不变,具有短时平稳性,从而可以对语音信号分帧处理。语音信号的分帧是采用可移动的有限长度窗口进行加权的方法来实现的,通常每秒的帧数为33~100帧,可以根据情况进行设置。在进行分帧时,为了确保帧与帧之间过渡平滑,保持连续性,一般要采用交叠分段的方法,即相邻帧之间具有部分重叠,前一帧和后一帧的交叠部分称为帧移,帧移与帧长的比值一般取0~1/2帧长。例如,确定帧长为25ms,帧移可以为10ms。通过对第一音频数据进行分帧,可以获得时间帧序列的音频数据。
步骤S102:基于每帧所述音频数据,获取所述第一音频数据的元音数量。
音素是语音发音的最小单位,包括元音和辅音。其中,元音是音节的主干,其能量和长度在音节中都占主要部分,而辅音通常只出现在音节的前端、后端或者前后两端,整体能量占比较小。元音的一个重要声学特性就是共振峰,通过检测音频数据中共振峰的位置和数量,就可以获得该音频数据中元音的数量。本实施例在获取第一音频数据的元音数量时,可以包括如下步骤:
基于每帧所述音频数据的幅值,获取每帧所述音频数据的能量值。其中,每帧音频数据的能量值的计算方式为:
其中,E为每帧所述音频数据的能量,N为每帧所述音频数据的采样点数量,x(n)为每个采样点的幅值。通过对每帧内所有采样点幅值的平方求和后取平均,即可获得该帧音频数据的能量值。
基于帧序列中每帧所述音频数据的能量值,确定获取所述第一音频数据的元音数量。在获得了帧序列中每帧音频数据的能量值后,对帧序列进行峰值检测(例如可以采用MATLAB中的findpeaks函数来获取峰值点),每一个峰值对应一个元音,峰值的数量即为元音的数量。
步骤S103:基于所述元音数量和所述第一音频数据的时长,确定所述第一音频数据的初始语速。
由于音频数据的语速为单位时长内元音的数量,通过元音数量除以第一音频数据的时长,则可以获得每秒音频数据内元音的数量,即为第一音频数据的初始语速。
请参阅图4,进一步地,步骤S20中对所述第一音频数据进行语音变速处理,包括:
步骤S201:基于基准语速和所述初始语速,确定所述初始语速与所述基准语速的比值为调整值。
在获取了第一音频数据的初始语速后,需要将初始语速与基准语速进行比较,以获取初始语速与基准语速之间的差距,从而确定调整值Rn,调整值为初始语速/基准语速。
步骤S202:根据所述调整值对所述第一音频数据进行语音变速处理,以使得调整后的音频数据的语速与所述基准语速一致。
在进行语音变速处理时,首先判断调整值Rn是否在预设范围内,如果调整值Rn在预设范围内,则意味着第一音频数据的初始语速与基准语速可能完全相同,也可能有些许微小差别,此时认为初始语速与基准语速一致,可以不对初始语速进行调整。如果调整值Rn不在预设范围内,则意味着第一音频数据的初始语速与基准语速差别较大,需要对其进行语音变速处理,以确保两者一致。在进行语音变速处理时,可以采用ffmpeg开源工具来进行操作,例如可以调整第一音频数据采样率、进行重采样、差值等,从而使得调整后的第一音频数据的语速满足要求。可以理解的是,在对第一音频数据进行语音变速处理后,获得了第二音频数据,通过获取第二音频数据的语速,并将该语速与基准语速比较,获取调整值,可以判断第二音频数据的语速是否与基准语速一致;如果不一致,则根据新的调整值对第二音频数据的语速进行调整,直到最后获取的音频数据的语速与基准语速一致为止。
进一步地,步骤S30中对所述第二音频数据进行语音识别时,对第二音频数据进行数据预处理,然后提取声学特征,再通过解码器得到状态序列,并转换为对应的识别结果,一般是通过词典将音素序列转换为词序列,并用语言模型进行规整约束,最后得到语音识别结果。其中,数据预处理包括:对输入的数字语音信号进行预加重,其目的是为了对语音的高频部分进行加重,去除口唇辐射的影响,增加语音的高频分辨率;进行预加重数字滤波处理后,接下来进行加窗分帧处理,分帧即为将语音信号分为多帧,通常帧长为20ms~40ms,可选为25ms,从而可以获得25ms长度的音频。加窗是对每帧音频信号加汉宁窗(Hanning)或海明窗(Hamming),可以消除各帧两端可能造成的信号不连续,以平滑信号。声学特征包括FBank特征或者MFCC特征。其中,FBank特征的提取过程包括:对加窗的信号进行短时傅里叶变换,得到其频谱,然后求频谱平方,即能量谱,将每个滤波频带内的能量进行叠加,得到每个滤波器输出的功率谱,将每个滤波器输出取对数,得到对应频带的对数功率谱,即可得到FBank特征。MFCC特征提取过程包括:对加窗的信号进行短时傅里叶变换,得到其频谱,然后求频谱平方,即能量谱,将每个滤波频带内的能量进行叠加,得到每个滤波器输出的功率谱,将每个滤波器输出取对数,得到对应频带的对数功率谱,并进行反离散余弦变换,得到MFCC系数,并进一步计算MFCC特征值,可以得到静态特征。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
请参阅图5,基于相同的发明构思,本发明实施例还提供了一种语音识别装置,包括语速获取模块41、语速调整模块42和语音识别模块43。其中,语速获取模块41用于对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速;语速调整模块42用于基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后音频数据,所述调整后音频数据的语速与所述基准语速一致;语音识别模块43用于对所述调整后音频数据进行语音识别,获取语音识别结果。
进一步地,语音识别装置还包括预处理模块40,预处理模块40用于对获取的原始音频数据进行预处理,以获取第一音频数据,所述预处理至少包括语音降噪、混响消除、回声消除中的一种。
进一步地,语速获取模块41包括分帧单元、元音获取单元以及语速获取单元。其中,分帧单元用于对获取的第一音频数据进行分帧,以获得所述第一音频数据对应的帧序列音频数据;元音获取单元基于每帧所述音频数据,获取所述第一音频数据的元音数量;语速获取单元基于所述元音数量和所述第一音频数据的时长,确定所述第一音频数据的初始语速。
进一步地,语速调整模块42包括调整值获取单元和变速处理单元。其中,调整值获取单元基于基准语速和所述初始语速,确定所述初始语速与所述基准语速的比值为调整值;变速处理单元用于根据所述调整值对所述第一音频数据进行语音变速处理,以使得调整后的音频数据的语速与所述基准语速一致。
图6是本发明一实施例提供的终端设备的示意图。如图6所示,该实施例的终端设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62,例如语音识别程序。所述处理器60执行所述计算机程序62时实现上述各个语音识别方法实施例中的步骤,例如图1所示的步骤S10至S30。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块41至43的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述终端设备6中的执行过程。
所述终端设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的示例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61也可以是所述终端设备6的外部存储设备,例如所述终端设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端设备所需的其它程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种语音识别方法,其特征在于,包括:
对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速;
基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后的第二音频数据,所述第二音频数据的语速与所述基准语速一致;
对所述第二音频数据进行语音识别,获取语音识别结果。
2.如权利要求1所述的语音识别方法,其特征在于,所述对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速的步骤,包括:
对获取的第一音频数据进行分帧,以获得所述第一音频数据对应的帧序列音频数据;
基于每帧所述音频数据,获取所述第一音频数据的元音数量;
基于所述元音数量和所述第一音频数据的时长,确定所述第一音频数据的初始语速。
3.如权利要求2所述的语音识别方法,其特征在于,所述基于每帧所述音频数据,获取所述第一音频数据的元音数量的步骤,包括:
基于每帧所述音频数据的幅值,获取每帧所述音频数据的能量值;
基于帧序列中每帧所述音频数据的能量值,确定获取所述第一音频数据的元音数量。
5.如权利要求3所述的语音识别方法,其特征在于,所述基于帧序列中每帧所述音频数据的能量值,确定获取所述第一音频数据的元音数量的步骤中,根据帧序列音频数据中的能量峰值的数量确定所述第一音频数据的元音数量。
6.如权利要求1所述的语音识别方法,其特征在于,所述对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速的步骤前,还包括:
对获取的原始音频数据进行预处理,以获取第一音频数据,所述预处理至少包括语音降噪、混响消除、回声消除中的一种。
7.如权利要求1所述的语音识别方法,其特征在于,所述基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后的音频数据,所述音频数据的语速与所述基准语速一致的步骤,包括:
基于基准语速和所述初始语速,确定所述初始语速与所述基准语速的比值为调整值;
根据所述调整值对所述第一音频数据进行语音变速处理,以使得调整后的音频数据的语速与所述基准语速一致。
8.一种语音识别装置,其特征在于,包括:
语速获取模块,用于对获取的第一音频数据进行语速识别,获取所述第一音频数据的初始语速;
语速调整模块,用于基于基准语速和所述初始语速,对所述第一音频数据进行语音变速处理,获得调整后音频数据,所述调整后音频数据的语速与所述基准语速一致;
语音识别模块,用于对所述调整后音频数据进行语音识别,获取语音识别结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述语音识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述语音识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011624401.6A CN112599148A (zh) | 2020-12-31 | 2020-12-31 | 一种语音识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011624401.6A CN112599148A (zh) | 2020-12-31 | 2020-12-31 | 一种语音识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112599148A true CN112599148A (zh) | 2021-04-02 |
Family
ID=75206571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011624401.6A Pending CN112599148A (zh) | 2020-12-31 | 2020-12-31 | 一种语音识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112599148A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113314144A (zh) * | 2021-05-19 | 2021-08-27 | 中国南方电网有限责任公司超高压输电公司广州局 | 声音识别及电力设备故障预警方法、系统、终端及介质 |
CN116778950A (zh) * | 2023-08-18 | 2023-09-19 | 玖益(深圳)医疗科技有限公司 | 用于音频数据传输的采样率匹配方法、系统及存储介质 |
WO2024101668A1 (ko) * | 2022-11-11 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN118098243A (zh) * | 2024-04-26 | 2024-05-28 | 深译信息科技(珠海)有限公司 | 音频转化方法、装置及相关设备 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07295588A (ja) * | 1994-04-21 | 1995-11-10 | Nippon Hoso Kyokai <Nhk> | 発話速度推定方法 |
CN1512485A (zh) * | 2002-12-31 | 2004-07-14 | 北京天朗语音科技有限公司 | 语速自适应的语音识别系统 |
CN101320560A (zh) * | 2008-07-01 | 2008-12-10 | 上海大学 | 语音识别系统应用采样速率转化提高识别率的方法 |
JP2015172622A (ja) * | 2014-03-11 | 2015-10-01 | 日本電気株式会社 | 音声出力装置および音声出力方法 |
CN105989839A (zh) * | 2015-06-03 | 2016-10-05 | 乐视致新电子科技(天津)有限公司 | 语音识别方法和装置 |
CN107767869A (zh) * | 2017-09-26 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
CN107785011A (zh) * | 2017-09-15 | 2018-03-09 | 北京理工大学 | 语速估计模型的训练、语速估计方法、装置、设备及介质 |
US20180166071A1 (en) * | 2016-12-08 | 2018-06-14 | Electronics And Telecommunications Research Institute | Method of automatically classifying speaking rate and speech recognition system using the same |
CN109448752A (zh) * | 2018-11-28 | 2019-03-08 | 广州市百果园信息技术有限公司 | 音频数据的处理方法、装置、设备及存储介质 |
CN109671433A (zh) * | 2019-01-10 | 2019-04-23 | 腾讯科技(深圳)有限公司 | 一种关键词的检测方法以及相关装置 |
CN110619888A (zh) * | 2019-09-30 | 2019-12-27 | 北京淇瑀信息科技有限公司 | 一种ai语音速率调整方法、装置及电子设备 |
CN111145730A (zh) * | 2019-12-30 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 语音识别模型的优化方法及系统 |
CN111179910A (zh) * | 2019-12-17 | 2020-05-19 | 深圳追一科技有限公司 | 语速识别方法和装置、服务器、计算机可读存储介质 |
CN111356010A (zh) * | 2020-04-01 | 2020-06-30 | 上海依图信息技术有限公司 | 一种获取音频最适播放速度的方法与系统 |
CN112037775A (zh) * | 2020-09-08 | 2020-12-04 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、设备及存储介质 |
-
2020
- 2020-12-31 CN CN202011624401.6A patent/CN112599148A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07295588A (ja) * | 1994-04-21 | 1995-11-10 | Nippon Hoso Kyokai <Nhk> | 発話速度推定方法 |
CN1512485A (zh) * | 2002-12-31 | 2004-07-14 | 北京天朗语音科技有限公司 | 语速自适应的语音识别系统 |
CN101320560A (zh) * | 2008-07-01 | 2008-12-10 | 上海大学 | 语音识别系统应用采样速率转化提高识别率的方法 |
JP2015172622A (ja) * | 2014-03-11 | 2015-10-01 | 日本電気株式会社 | 音声出力装置および音声出力方法 |
CN105989839A (zh) * | 2015-06-03 | 2016-10-05 | 乐视致新电子科技(天津)有限公司 | 语音识别方法和装置 |
US20180166071A1 (en) * | 2016-12-08 | 2018-06-14 | Electronics And Telecommunications Research Institute | Method of automatically classifying speaking rate and speech recognition system using the same |
CN107785011A (zh) * | 2017-09-15 | 2018-03-09 | 北京理工大学 | 语速估计模型的训练、语速估计方法、装置、设备及介质 |
CN107767869A (zh) * | 2017-09-26 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
CN109448752A (zh) * | 2018-11-28 | 2019-03-08 | 广州市百果园信息技术有限公司 | 音频数据的处理方法、装置、设备及存储介质 |
CN109671433A (zh) * | 2019-01-10 | 2019-04-23 | 腾讯科技(深圳)有限公司 | 一种关键词的检测方法以及相关装置 |
CN110619888A (zh) * | 2019-09-30 | 2019-12-27 | 北京淇瑀信息科技有限公司 | 一种ai语音速率调整方法、装置及电子设备 |
CN111179910A (zh) * | 2019-12-17 | 2020-05-19 | 深圳追一科技有限公司 | 语速识别方法和装置、服务器、计算机可读存储介质 |
CN111145730A (zh) * | 2019-12-30 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 语音识别模型的优化方法及系统 |
CN111356010A (zh) * | 2020-04-01 | 2020-06-30 | 上海依图信息技术有限公司 | 一种获取音频最适播放速度的方法与系统 |
CN112037775A (zh) * | 2020-09-08 | 2020-12-04 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、设备及存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113314144A (zh) * | 2021-05-19 | 2021-08-27 | 中国南方电网有限责任公司超高压输电公司广州局 | 声音识别及电力设备故障预警方法、系统、终端及介质 |
WO2024101668A1 (ko) * | 2022-11-11 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN116778950A (zh) * | 2023-08-18 | 2023-09-19 | 玖益(深圳)医疗科技有限公司 | 用于音频数据传输的采样率匹配方法、系统及存储介质 |
CN116778950B (zh) * | 2023-08-18 | 2023-11-17 | 玖益(深圳)医疗科技有限公司 | 用于音频数据传输的采样率匹配方法、系统及存储介质 |
CN118098243A (zh) * | 2024-04-26 | 2024-05-28 | 深译信息科技(珠海)有限公司 | 音频转化方法、装置及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106486131B (zh) | 一种语音去噪的方法及装置 | |
CN112599148A (zh) | 一种语音识别方法及装置 | |
CN110021307B (zh) | 音频校验方法、装置、存储介质及电子设备 | |
CN110459205B (zh) | 语音识别方法及装置、计算机可存储介质 | |
US20210193149A1 (en) | Method, apparatus and device for voiceprint recognition, and medium | |
CN109256138B (zh) | 身份验证方法、终端设备及计算机可读存储介质 | |
CN108305639B (zh) | 语音情感识别方法、计算机可读存储介质、终端 | |
US10032462B2 (en) | Method and system for suppressing noise in speech signals in hearing aids and speech communication devices | |
CN108847253B (zh) | 车辆型号识别方法、装置、计算机设备及存储介质 | |
CN108682432B (zh) | 语音情感识别装置 | |
CN109036437A (zh) | 口音识别方法、装置、计算机装置及计算机可读存储介质 | |
US9076446B2 (en) | Method and apparatus for robust speaker and speech recognition | |
CN108922514B (zh) | 一种基于低频对数谱的鲁棒特征提取方法 | |
CN111863008A (zh) | 一种音频降噪方法、装置及存储介质 | |
CN115223583A (zh) | 一种语音增强方法、装置、设备及介质 | |
CN117935789A (zh) | 语音识别方法及系统、设备、存储介质 | |
CN113035216B (zh) | 麦克风阵列语音的增强方法、及其相关设备 | |
CN110875037A (zh) | 语音数据处理方法、装置及电子设备 | |
CN111489739A (zh) | 音素识别方法、装置及计算机可读存储介质 | |
JP4571871B2 (ja) | 音声信号分析方法およびこの分析方法を実施する装置、この音声信号分析装置を用いた音声認識装置、この分析方法を実行するプログラムおよびその記憶媒体 | |
CN112397087B (zh) | 共振峰包络估计、语音处理方法及装置、存储介质、终端 | |
CN115762540A (zh) | 多维度的rnn的语音降噪方法、装置、设备及介质 | |
Mallidi et al. | Robust speaker recognition using spectro-temporal autoregressive models. | |
Singh et al. | A comparative study of recognition of speech using improved MFCC algorithms and Rasta filters | |
Lu et al. | Temporal contrast normalization and edge-preserved smoothing of temporal modulation structures of speech for robust speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |