CN108022587B - 语音识别方法、装置、计算机设备和存储介质 - Google Patents

语音识别方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN108022587B
CN108022587B CN201711349803.8A CN201711349803A CN108022587B CN 108022587 B CN108022587 B CN 108022587B CN 201711349803 A CN201711349803 A CN 201711349803A CN 108022587 B CN108022587 B CN 108022587B
Authority
CN
China
Prior art keywords
neural network
layer
network
recognized
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711349803.8A
Other languages
English (en)
Other versions
CN108022587A (zh
Inventor
张伟彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Digital Miracle Technology Co.,Ltd.
Voiceai Technologies Co ltd
Original Assignee
Voiceai Technologies Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Voiceai Technologies Co ltd filed Critical Voiceai Technologies Co ltd
Priority to CN201711349803.8A priority Critical patent/CN108022587B/zh
Publication of CN108022587A publication Critical patent/CN108022587A/zh
Application granted granted Critical
Publication of CN108022587B publication Critical patent/CN108022587B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种语言识别方法、装置、计算机设备和存储介质,上述方法通过从带下采样的延时神经网络的网络层中获取目标网络层;对所述目标网络层添加第二神经网络,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,所述第二神经网络包括至少一层网络;获取待识别语音数据,将所述待识别语音数据输入所述带下采样的延时神经网络中,通过所述带下采样的延时神经网络和所述第二神经网络对所述待识别语音进行识别,得到对应的语音识别结果。通过将带下采样的延时神经网络和第二神经网络共同对语音数据进行识别得到更好语音识别结果。

Description

语音识别方法、装置、计算机设备和存储介质
技术领域
本申请涉及音频处理技术领域,特别是涉及一种语音识别方法、装置、计算机设备和存储介质。
背景技术
语音识别技术,广泛来说是指语意识别和声纹识别;从狭义上来说指语音语义的理解识别,也称为自动语音识别。语音识别技术是一种利用计算机将数字语音识别成文字的技术,近年来,语音识别技术取得了很大的进步,在很多领域有广泛的应用。
完整的语音识别系统包括语音采样模块、特征提取模块和识别模块。特征提取模块是将输入的数字语音信号转换成识别系统用到的声学特征,语音识别器利用声学模型、词典以及语音模型,根据输入的声学特征,搜索出最佳的识别结果。声学模型作为整个识别系统最为核心的部分,故声学模型的好坏影响整个语音识别系统的性能。现代语音识别系统中,基本都是采用隐马尔科夫模型—深度神经网络作为声学模型,通过该声学模型进行语音识别依旧存在识别率低下的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种提升语音识别率的语音识别方法、装置、计算机设备和存储介质。
一种语音识别方法,包括:从带下采样的延时神经网络的网络层中获取目标网络层;对所述目标网络层添加第二神经网络,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,所述第二神经网络包括至少一层网络;获取待识别语音数据,将所述待识别语音数据输入所述带下采样的延时神经网络中,通过所述带下采样的延时神经网络和所述第二神经网络对所述待识别语音进行识别,得到对应的语音识别结果。
在其中一个实施例中,对所述目标网络层添加第二神经网络的步骤,包括:
当所述第二神经网络为一层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的每一个神经元进行连接;或当所述第二神经网络为多层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的第一层网络的每一个神经元进行连接,所述第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。
在其中一个实施例中,所述待识别语音数据为多个语音帧组成,获取待识别语音数据的步骤,包括:获取原始待识别语音数据;对所述原始待识别语音数据进行预加重;将预加重后的所述原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据。
在其中一个实施例中,对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据的步骤之后,还包括:对所述待识别语音进行端点检测,进行端点检测的步骤包括:计算变换后的每帧语音的能量值;当检测到当前帧之前的连续多帧语音的能量值低于预设能量阈值,且当前帧后续多帧语音的能量值高于预设能量阈值,则所述能量值增大的位置为语音的起始端点;当检测到当前帧前的后续连续多帧语音的能量值低于预设能量阈值,且当前帧之前的连续多帧语音的能量值高于预设能量阈值,则所述能量值减小的位置为语音的结束端点。
在其中一个实施例中,所述目标层网络与添加在所述目标层网络中的所述第二神经网络,在所述目标层中实现参数共享,所述参数共享为对于不同时间的输入信号,都采用相同的网络参数进行处理。
一种语音识别装置,包括:
目标网络层获取模块,用于从带下采样的延时神经网络的网络层中获取目标网络层;
第二神经网络添加模块,用于对所述目标网络层添加第二神经网络,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,所述第二神经网络包括至少一层网络;
语音识别模块,用于获取待识别语音数据,将所述待识别语音数据输入所述带下采样的延时神经网络中,通过所述带下采样的延时神经网络和所述第二神经网络对所述待识别语音进行识别,得到对应的语音识别结果。
在其中一个实施例中,第二神经网络添加模块包括:
第一添加单元,用于当所述第二神经网络为一层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的每一个神经元进行连接;
第二添加单元,用于当所述第二神经网络为多层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的第一层网络的每一个神经元进行连接,所述第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。
在其中一个实施例中,语音识别模块包括:
原始数据获取单元,用于获取原始待识别语音数据;
预处理单元,用于对原始待识别语音数据进行预加重,将预加重后的原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的原始待识别语音数据进行变换得到多个语音帧组成的待识别语音数据。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行执行上述语音识别方法的步骤。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述语音识别方法的步骤。
上述语音识别方法、装置、计算机设备和存储介质。上述方法通过从带下采样的延时神经网络的网络层中获取目标网络层;对所述目标网络层添加第二神经网络,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,所述第二神经网络包括至少一层网络;获取待识别语音数据,将所述待识别语音数据输入所述带下采样的延时神经网络中,通过所述带下采样的延时神经网络和所述第二神经网络对所述待识别语音进行识别,得到对应的语音识别结果。通过配置能够进行长时间语音检测的带下采样的延时神经网络,即将第二神经网络添加到目标网络层中,对目标网络层中的待识别语音数据做二次处理,即对提取到的待识别语音数据中的语音特征进行分类,得到更为准确的语音特征,提高语音识别的准确率。
附图说明
图1为一个实施例中语音识别方法的应用环境图;
图2为一个实施例中计算机设备的结构框图;
图3为一个实施例中语音识别方法的流程示意图;
图4为一个实施例中带下采样的延时神经网络的结构示意图;
图5为一个实施例中添加了第二神经网络的带下采样的延时神经网络的结构示意图;
图6为一个实施例中第二神经网络添加的流程示意图;
图7为一个实施例中语音检测识别步骤的流程示意图;
图8为一个实施例中端点检测步骤的流程示意图;
图9为一个实施例中语音识别装置的结构框图;
图10为另一个实施例中第二神经网络添加模块的结构框图;
图11为一个实施例中语音识别模块的结构框图;
图12为另一个实施例中语音识别模块的结构框图;
图13为一个实施例中端点检测单元的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中语音识别方法的应用环境图。参照图1,该语音识别方法应用于语音识别系统。该语音识别系统包括终端110和服务器120。终端110和服务器120通过网络连接。终端110具体可以是台式终端或移动终端,移动终端具体可以手机、平板电脑、笔记本电脑等中的至少一种。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
图2为一个实施例中计算机设备的内部结构示意图。参照图2,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器、显示器和网络接口。其中,该计算机设备的非易失性存储介质可存储操作系统和实现打开历史单据装置的计算机程序,该计算机程序被执行时,可使得处理器执行一种打开历史单据方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行语音识别的方法。计算机设备的网络接口用于进行网络通信。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸屏,也可以是计算机设备外壳上设备的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。触摸层与显示屏构成触控屏。
图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,如图3所示,提供了一种语音识别方法。参照图3,该语音识别方法具体包括如下步骤:
S202,从带下采样的延时神经网络的网络层中获取目标网络层。
其中,下采样就是抽取,即从样本中抽取出部分样本。带下采样的延时神经网络是对延时神经网络中的每一层都进行采样,也就是从原来的每一层网络处理后的输出中,抽取其中部分数据作为下一层网络的输入。带下采样的延时神经网络的结构如图4所述,其中,图4中的一个方块表示神经网络处理模块(包含多个神经网络处理单元),t表示时间,实线表示带下采样的延时神经网络的实际连接,虚线表示不带下采样的延时神经网络的连接方式,最底层的是输入层,这里一个方块表示一帧变换后的语音信号。根据实际应用,可以采取不同的下采样方法,导致跟图1不一样的网络结构,但都是带下采样的延时神经网络结构并不对具体的下采样方法做限制。图4中同一水平线的方框为同一层的网络,每一层神经网络的参数都是共享的(也就是同一水平线,不同的实线方框都采用同样的参数,只是不同的方框采用不同的输入),以保证网络参数的最小化。目标网络层为上述带下采样的延时神经网络的某一层或者所有层,用于添加新的神经网络的网络层。具体地,从带下采样的神经网络中的多层网络中选取其中一层或者多层网络层用于添加新的神经网络,也就是对目标网络层进行拓展,得到新的网络结构。如图5所示,第二神经网络包含DNN1和DNN2,图中的TDNN1表示的带下采样延时神经网络的目标网络层。新添加的第二神经网络跟原来目标网络层构成新的带下采样的延时神经网络的一层,并且在新的带下采样的延时神经网络的一层中,所有参数都是共享的。
步骤S204,对目标网络层添加第二神经网络,将目标网络层的输出数据作为第二神经网络的输入数据,第二神经网络包括至少一层网络。
其中,第二神经网络包括但不限于随机深度神经网络、前馈神经网络等。添加第二神经网络能够增加网络的深度,提取更为抽象的特征。第二神经网络的层数可以根据待识别语音数据的数据量设置。具体地,将第二神经网络添加到目标网络层中得到新的神经网络,使得带下采样的神经网络的目标层和第二神经网络构成的同一层度数据的过处理过程包含多个线性和多个非线性处理过程。在新的神经网络中将目标网络层的输出数据作为第二神经网络的输入数据。
步骤S206,获取待识别语音数据,将待识别语音数据输入带下采样的延时神经网络中,通过带下采样的延时神经网络和第二神经网络对待识别语音进行识别,得到对应的语音识别结果。
其中,待识别语音数据是通过语音特征提取的语音帧数据,将待识别语音数据输入带下采样的延时神经网络中,通过带下采样的延时神经网络和第二神经网络对待识别语音数据进行识别得到对应的语音识别结果。该语音识别结果为语音对应的文字结果。在对语音数据进行识别之间通常都会对语音进行预处理,其中预处理包括不限于去噪、分帧、加重等。
上述语音识别方法,通过将语音识别数据输入包括了两个神经网络的网络中,通过带下采样的神经网络和第二神经网络的同时处理,带下采样的神经网络能够对较长时间的语音数据进行有效建模。增加第二神经网络能够提升目标网络层对输入特征的抽象和概括能力得到更为抽象和更优质的语音特征。通过处理更为长时间的语音数据和提取更为优质的特征提升语音数据的识别率,得到更为准备的识别结果。
在一个实施例中,步骤S204包括,
其中,目标网络层和第二神经网络的连接方式为全连接,也就是目标网络层的每一个神经元输出的数据作为第二神经网络的输入数据。当第二神经网络为一层神经网络时,就将目标网络层的中的每一个神经元与第二神经网络中的每一个神经元进行连接。当第二神经网络为多层神经网络时,将目标网络层的中的每一个神经元与第二神经网络中的第一层网络的每一个神经元进行连接,第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。将第二神经网络的与目标网络层进行全连接是为了对带下采样的延时神经网络目标网络层中提取的特征进行分类得到更为准确的分类特征。
在一个实施例中,如图7所示,步骤S206包括:
步骤S2062,获取原始待识别语音数据。
其中,原始待识别语音数据是对语音采集装置采集到的语音数据进行处理后数字化得到对应的语音信号。获取待识别语音信号,采集语音数据是为了后续的语音识别工作做准备。
步骤S2064,对原始待识别语音数据进行预加重。
其中,语音信号的预加重,目的是为了对语音的高频部分进行加重,去除口唇辐射的影响,增加语音的高频分辨率。具体地,对原始待识别语音数据进行预加重,得到更为优质的原始待识别语音数据。
步骤S2066,将预加重后的原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的原始待识别语音数据进行变换得到多个语音帧组成的待识别语音数据。
其中,语音信号具有短时平稳性(10--30ms内可以认为语音信号近似不变),这样就可以把语音信号分成短段进行处理,语音信号的分帧是采用可移动的有限长度的窗口进行加权的方法来实现的。具体地,对预加重后的原始待识别语音数据通过移动有限长度的窗口实现分帧,每一帧的时间长度一致,相邻两帧的语音帧数据会有重叠的部分。将语音帧进行变换得到语音帧对应的语音信息。有各个语音帧组成待识别语音数据。
在一个实施例中,如图8所示,在步骤S2066中对原始待识别语音数据进行加窗分帧之后,还包括:
步骤S2068,对原始待识别语音进行端点检测。
其中,语音的端点检测是语音识别和语音处理的一个基本环节,也是语音识别研究的一个热点领域。短剑测得主要目的是从输入的语音中对语音和非语音部分进行区分。目前,端点检测技术主要是根据语音的一些时域或频域特征进行区分常见的语音端点检测方法主要分为基于频域、基于时域、基于频域和时域相结合或基于模型端点检测方法。其中基于频域的方法主要包括:谱熵、频域子带、自适应子波、基频等。基于频域的检测方法其参数的抗噪性比时域要好,但计算的复杂度会比较高。基于时域的检测方法包括时域能量大小、时域平均过零率短时相关性分析、能量变化率、对数能量、子带能量、高斯混合模型假设检验。基于频域和时域的结合的方法主要包括基于频域和时域相结合自适应能量子带的谱熵检测的端点检测方法。基于模型的检测端点检测方法主要包括隐马尔可夫模型用分布表达语音的分布情况。深度神经网络主要训练噪声模型。
其中,进行端点检测的步骤包括:
步骤S20682,计算变换后的每帧语音的能量值。
其中,语音信号的能量随着时间变化比较明显,一般轻音部分的能量比浊音部分的能量小得多,窗函数的选择对短时能量表示方法的特点起决定作用。计算语音信号的能量值,通过语音信号的能量值判断语音信号的端点。
步骤S20684,当检测到当前帧之前的连续多帧语音的能量值低于预设能量阈值,且当前帧后续多帧语音的能量值高于预设能量阈值,则所述能量值增大的位置为语音的起始端点。
其中,语音信号的端点分期前端点和后端点也称为起始端点和结束端点,起始端点是开始采集到有效的语音信号的端点。具体地,前端点根据端点前的语音信号能量值比端点后的语音信号的能量低,将能量突然变大的地方作为语音信号的前端点。
步骤S20686,当检测到当前帧前的后续连续多帧语音的能量值低于预设能量阈值,且当前帧之前的连续多帧语音的能量值高于预设能量阈值,则所述能量值减小的位置为语音的结束端点。
其中,结束端点为语音信号结束的临界点,也就是该段语音已经结束。通过根据端点前的语音信号能量值比端点后的语音信号的能量高,将能量突然变小的地方作为语音信号的结束端点。
对语音进行端点检测能够将对语音中的自动打断进行判断、去掉语音中的静音成分、获取输入语音中有效语音或去除噪声对语音进行增强。
在一个实施例中,如图4所示,带下采样的延时神经网络中每一层网络,也同一水平上的方框之间的参数是共享的,如图6所示,第二神经网络的参数与目标网络层的参数在同一层之中是共享的(即图5中每一个实线方框所代表的一个神经网络处理模块由原来的一层变成多层,多层的参数在同一水平线上是共享的,只是输入不相同)。第二神经网络采用同样的参数对目标网络的输出数据进行进一步的处理。
在一个实施例中,如图9所示,一种语音识别装置,包括:
目标网络层获取模块202,用于从带下采样的延时神经网络的网络层中获取目标网络层。
第二神经网络添加模块204,用于对所述目标网络层添加第二神经网络,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,所述第二神经网络包括至少一层网络。
语音识别模块206,用于获取待识别语音数据,将所述待识别语音数据输入所述带下采样的延时神经网络中,通过所述带下采样的延时神经网络和所述第二神经网络对所述待识别语音进行识别,得到对应的语音识别结果。
在一个实施例中,如图10所示,第二神经网络添加模块204包括:
第一添加单元2042,用于当所述第二神经网络为一层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的每一个神经元进行连接;
第二添加单元2044,用于当所述第二神经网络为多层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的第一层网络的每一个神经元进行连接,所述第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。
在一个实施例中,如图11所示,语音识别模块206包括:
原始数据获取单元2062,用于获取原始待识别语音数据;
预处理单元2064,用于对原始待识别语音数据进行预加重,将预加重后的原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的原始待识别语音数据进行变换得到多个语音帧组成的待识别语音数据。
在一个实施例中,如图12所示,语音识别模块206还包括:
语音端点检测单元2066,用于加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据进行语音端点检测。如图12所示,语音端点检测单元2066,包括:
能量值计算子单元20662,用于计算变换后的每帧语音的能量值。
端点检测子单元20664,用于当检测到当前帧之前的连续多帧语音的能量值低于预设能量阈值,且当前帧后续多帧语音的能量值高于预设能量阈值,则所述能量值增大的位置为语音的起始端点。当检测到当前帧前的后续连续多帧语音的能量值低于预设能量阈值,且当前帧之前的连续多帧语音的能量值高于预设能量阈值,则所述能量值减小的位置为语音的结束端点。
在一个实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:从带下采样的延时神经网络的网络层中获取目标网络层;对所述目标网络层添加第二神经网络,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,所述第二神经网络包括至少一层网络;获取待识别语音数据,将所述待识别语音数据输入所述带下采样的延时神经网络中,通过所述带下采样的延时神经网络和所述第二神经网络对所述待识别语音进行识别,得到对应的语音识别结果。
在一个实施例中,所述程序被处理器执行时执行的对所述目标网络层添加第二神经网络,包括:当所述第二神经网络为一层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的每一个神经元进行连接;或当所述第二神经网络为多层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的第一层网络的每一个神经元进行连接,所述第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。
在一个实施例中,所述程序被处理器执行时执行的所述待识别语音数据为多个语音帧组成,获取待识别语音数据的步骤,包括:获取原始待识别语音数据;对所述原始待识别语音数据进行预加重;将预加重后的所述原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据。
在一个实施例中,对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据的步骤之后,所述程序被处理器执行时还用于执行:对所述待识别语音进行端点检测,进行端点检测的步骤包括:计算变换后的每帧语音的能量值;当检测到当前帧之前的连续多帧语音的能量值低于预设能量阈值,且当前帧后续多帧语音的能量值高于预设能量阈值,则所述能量值增大的位置为语音的起始端点;当检测到当前帧前的后续连续多帧语音的能量值低于预设能量阈值,且当前帧之前的连续多帧语音的能量值高于预设能量阈值,则所述能量值减小的位置为语音的结束端点。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种语音识别方法,所述方法包括:
从带下采样的延时神经网络的网络层中获取目标网络层;
对所述目标网络层添加第二神经网络以增加网络的深度从而提取更为抽象的特征,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,构成新的带下采样的延时神经网络,所述第二神经网络包括至少一层网络;所述第二神经网络包括随机深度神经网络或前馈神经网络;所述目标网络层与所述第二神经网络,在所述目标网络层所在的整个延时神经网络层中实现参数共享,所述参数共享为对于不同时间的输入信号,都采用相同的网络参数进行处理;
获取待识别语音数据,将所述待识别语音数据输入所述新的带下采样的延时神经网络中,使得所述新的带下采样的延时神经网络通过至少一个线性处理过程以及至少一个非线性处理过程对所述待识别语音进行识别,得到对应的语音识别结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述目标网络层添加第二神经网络的步骤,包括:
当所述第二神经网络为一层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的每一个神经元进行连接;或
当所述第二神经网络为多层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的第一层网络的每一个神经元进行连接,所述第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。
3.根据权利要求1所述的方法,其特征在于,所述待识别语音数据为多个语音帧组成,获取待识别语音数据的步骤,包括:
获取原始待识别语音数据;
对所述原始待识别语音数据进行预加重;
将预加重后的所述原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据。
4.根据权利要求3所述的方法,其特征在于,所述对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据的步骤之后,还包括:
对所述待识别语音进行端点检测,进行端点检测的步骤包括:
计算变换后的每帧语音的能量值;
当检测到当前帧之前的连续多帧语音的能量值低于预设能量阈值,且当前帧后续多帧语音的能量值高于预设能量阈值,则所述能量值增大的位置为语音的起始端点;
当检测到当前帧前的后续连续多帧语音的能量值低于预设能量阈值,且当前帧之前的连续多帧语音的能量值高于预设能量阈值,则所述能量值减小的位置为语音的结束端点。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述待识别语音数据的数据量设置所述第二神经网络的层数。
6.一种语音识别装置,其特征在于,所述装置包括:
目标网络层获取模块,用于从带下采样的延时神经网络的网络层中获取目标网络层;
第二神经网络添加模块,用于对所述目标网络层添加第二神经网络以增加网络的深度从而提取更为抽象的特征,将所述目标网络层的输出数据作为所述第二神经网络的输入数据,构成新的带下采样的延时神经网络,所述第二神经网络包括至少一层网络;所述第二神经网络包括随机深度神经网络或前馈神经网络;所述目标网络层与所述第二神经网络,在所述目标网络层所在的整个延时神经网络层中实现参数共享,所述参数共享为对于不同时间的输入信号,都采用相同的网络参数进行处理;
语音识别模块,用于获取待识别语音数据,将所述待识别语音数据输入所述新的带下采样的延时神经网络中,通过所述新的带下采样的延时神经网络通过至少一个线性处理过程以及至少一个非线性处理过程对所述待识别语音进行识别,得到对应的语音识别结果。
7.根据权利要求6所述的装置,其特征在于,所述第二神经网络添加模块包括:
第一添加单元,用于当所述第二神经网络为一层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的每一个神经元进行连接;
第二添加单元,用于当所述第二神经网络为多层神经网络时,将所述目标网络层的中的每一个神经元与所述第二神经网络中的第一层网络的每一个神经元进行连接,所述第二神经网络中相邻两层网络中下一层网络的每一个神经元与上一层网络的每一个神经元进行连接。
8.根据权利要求6中所述的装置,其特征在于,所述语音识别模块包括:
原始数据获取单元,用于获取原始待识别语音数据;
预处理单元,用于对所述原始待识别语音数据进行预加重,将预加重后的所述原始待识别语音数据进行加窗分帧处理,对加窗分帧之后的所述原始待识别语音数据进行变换得到多个语音帧组成的所述待识别语音数据。
9.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至5中任一项所述方法的步骤。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至5中任一项所述方法的步骤。
CN201711349803.8A 2017-12-15 2017-12-15 语音识别方法、装置、计算机设备和存储介质 Active CN108022587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711349803.8A CN108022587B (zh) 2017-12-15 2017-12-15 语音识别方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711349803.8A CN108022587B (zh) 2017-12-15 2017-12-15 语音识别方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN108022587A CN108022587A (zh) 2018-05-11
CN108022587B true CN108022587B (zh) 2021-03-05

Family

ID=62073734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711349803.8A Active CN108022587B (zh) 2017-12-15 2017-12-15 语音识别方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN108022587B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110767236A (zh) * 2018-07-10 2020-02-07 上海智臻智能网络科技股份有限公司 一种语音识别方法和装置
CN109065033B (zh) * 2018-09-19 2021-03-30 华南理工大学 一种基于随机深度时延神经网络模型的自动语音识别方法
CN109147774B (zh) * 2018-09-19 2021-07-20 华南理工大学 一种改进的延时神经网络声学模型
CN111613231A (zh) * 2019-02-26 2020-09-01 广州慧睿思通信息科技有限公司 语音数据处理方法、装置、计算机设备和存储介质
CN110299132B (zh) * 2019-06-26 2021-11-02 京东数字科技控股有限公司 一种语音数字识别方法和装置
CN110534100A (zh) * 2019-08-27 2019-12-03 北京海天瑞声科技股份有限公司 一种基于语音识别的中文语音校对方法和装置
CN112561056A (zh) * 2020-12-07 2021-03-26 北京百度网讯科技有限公司 神经网络模型的训练方法、装置、电子设备和存储介质
CN112735388B (zh) * 2020-12-28 2021-11-09 马上消费金融股份有限公司 网络模型训练方法、语音识别处理方法及相关设备
CN112863497B (zh) * 2020-12-31 2022-10-21 思必驰科技股份有限公司 语音识别的方法及装置、电子设备和计算机可读存储介质
CN112992191B (zh) * 2021-05-12 2021-11-05 北京世纪好未来教育科技有限公司 语音端点检测方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6799171B1 (en) * 1998-09-01 2004-09-28 Swisscom Ag Applicator and method for combating pests, especially cockroaches
CN103559879A (zh) * 2013-11-08 2014-02-05 安徽科大讯飞信息科技股份有限公司 语种识别系统中声学特征提取方法及装置
CN105118502A (zh) * 2015-07-14 2015-12-02 百度在线网络技术(北京)有限公司 语音识别系统的端点检测方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107195299A (zh) * 2016-03-14 2017-09-22 株式会社东芝 训练神经网络声学模型的方法和装置及语音识别方法和装置
CN107346659B (zh) * 2017-06-05 2020-06-23 百度在线网络技术(北京)有限公司 基于人工智能的语音识别方法、装置及终端

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6799171B1 (en) * 1998-09-01 2004-09-28 Swisscom Ag Applicator and method for combating pests, especially cockroaches
CN103559879A (zh) * 2013-11-08 2014-02-05 安徽科大讯飞信息科技股份有限公司 语种识别系统中声学特征提取方法及装置
CN105118502A (zh) * 2015-07-14 2015-12-02 百度在线网络技术(北京)有限公司 语音识别系统的端点检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A time delay neural network architecture for efficient modeling of long temporal contexts;Vijayaditya Peddinti, Daniel Povey, etc;《conference of international speech communication association》;20151231;正文第1-4节、附图1 *

Also Published As

Publication number Publication date
CN108022587A (zh) 2018-05-11

Similar Documents

Publication Publication Date Title
CN108022587B (zh) 语音识别方法、装置、计算机设备和存储介质
KR102339594B1 (ko) 객체 인식 방법, 컴퓨터 디바이스 및 컴퓨터 판독 가능 저장 매체
CN109256150B (zh) 基于机器学习的语音情感识别系统及方法
CN108198547B (zh) 语音端点检测方法、装置、计算机设备和存储介质
CN105976809B (zh) 基于语音和面部表情的双模态情感融合的识别方法及系统
CN108877775B (zh) 语音数据处理方法、装置、计算机设备及存储介质
CN111145786A (zh) 语音情感识别方法和装置、服务器、计算机可读存储介质
KR20180065759A (ko) 자동 발화속도 분류 방법 및 이를 이용한 음성인식 시스템
CN110177182B (zh) 敏感数据处理方法、装置、计算机设备及存储介质
CN104021789A (zh) 一种利用短时时频值的自适应端点检测方法
CN113327626B (zh) 语音降噪方法、装置、设备及存储介质
CN108305639B (zh) 语音情感识别方法、计算机可读存储介质、终端
CN109903752B (zh) 对齐语音的方法和装置
CN112992191B (zh) 语音端点检测方法、装置、电子设备及可读存储介质
CN111179910A (zh) 语速识别方法和装置、服务器、计算机可读存储介质
CN108172214A (zh) 一种基于Mel域的小波语音识别特征参数提取方法
CN112802498B (zh) 语音检测方法、装置、计算机设备和存储介质
KR101122591B1 (ko) 핵심어 인식에 의한 음성 인식 장치 및 방법
KR101122590B1 (ko) 음성 데이터 분할에 의한 음성 인식 장치 및 방법
Wang et al. Automatic audio segmentation using the generalized likelihood ratio
Leow et al. Language-resource independent speech segmentation using cues from a spectrogram image
CN110197657A (zh) 一种基于余弦相似度的动态音声特征提取方法
CN113808573B (zh) 基于混合域注意力与时序自注意力的方言分类方法及系统
CN104240705A (zh) 一种保险箱语音识别智能锁系统
Tang et al. Speech Recognition in High Noise Environment.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230710

Address after: 518000 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong

Patentee after: VOICEAI TECHNOLOGIES Co.,Ltd.

Patentee after: Shenzhen Digital Miracle Technology Co.,Ltd.

Address before: 518000 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong

Patentee before: VOICEAI TECHNOLOGIES Co.,Ltd.

TR01 Transfer of patent right