CN113707156B - 一种用于车载的语音识别方法及系统 - Google Patents

一种用于车载的语音识别方法及系统 Download PDF

Info

Publication number
CN113707156B
CN113707156B CN202110903450.1A CN202110903450A CN113707156B CN 113707156 B CN113707156 B CN 113707156B CN 202110903450 A CN202110903450 A CN 202110903450A CN 113707156 B CN113707156 B CN 113707156B
Authority
CN
China
Prior art keywords
voice
algorithm
driver
signal
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110903450.1A
Other languages
English (en)
Other versions
CN113707156A (zh
Inventor
王博
汤淑琴
龙腾
毛晗
王奥博
朱瑞
曾庆蓉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN202110903450.1A priority Critical patent/CN113707156B/zh
Publication of CN113707156A publication Critical patent/CN113707156A/zh
Application granted granted Critical
Publication of CN113707156B publication Critical patent/CN113707156B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

本发明公开了一种用于车载的语音识别方法及系统,其中的方法包括:采集当前的语音音频信号;对采集的语音音频信号进行预处理,对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测;采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;通过音节分割算法将待识别语音信号分割成单独词语;采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,本发明可以实现语音指令的个性化识别,并提高识别的准确性。

Description

一种用于车载的语音识别方法及系统
技术领域
本发明涉及语音识别技术领域,具体涉及一种用于车载的语音识别方法及系统。
背景技术
为方便用户的使用,目前的车载终端集成了语音识别等交互功能。通过接收并识别用户发出的语音指令,可以执行该语音指令对应的车载动作,例如用户发送语音命令“打开蓝牙”,车载终端可以识别该指令,执行与“打开蓝牙”对应的开蓝牙的车载动作,但是当车上有多个人说话时,车载终端无法确认出语音指令的发出者,使得语音识别不够准确,容易发生误操作。
发明内容
本发明提供了一种用于车载的语音识别方法及系统,解决了现有技术中识别准确率不高的技术问题。
为了解决上述技术问题,本发明第一方面提供了一种用于车载的语音识别方法,包括:
S1:采集当前的语音音频信号;
S2:对采集的语音音频信号进行预处理,具体包括:采用回声消除算法抑制采集的语音音频信号中的车载环境自噪声;
S3:对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测,提取出语音段;
S4:采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;
S5:通过音节分割算法将待识别语音信号分割成单独词语;
S6:采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,其中,预先构建的语料库中包含驾驶员的语音指令、驾驶员语音指令对应的文本内容以及文本对应的词语、其他人的语音指令、其他人语音指令对应的文本内容以及文本对应的词语,语料库中所有语音指令对应的文本预先通过声纹识别方法得到,文本对应的词语通过音节分割算法得到。
在一种实施方式中,步骤S5包括:
S5.1:对采集的语音音频信号进行分帧处理后进行短时傅里叶变换,并计算在频域下的短时能量;
S5.2:计算每帧语音信号的频能比,得到语音信号频能比曲线,进而得到语音信号的频能比包络;
S5.3:分别利用smooth算法和滑动平均算法对语音信号的频能比包络进行曲线的平滑处理;
S5.4:根据平滑处理后的频能比包络的峰值个数计算音节个数;
S5.5:结合音节个数,利用设定阈值的方法对语音信号进行音节分割,获得与待识别语音信号对应的单独词语。
在一种实施方式中,步骤S5.2包括:
通过计算语音信号在290-4000Hz范围内的短时能量与所有频率范围内的短时能量的比值,得到语音信号频能比曲线;
对语音信号频能比曲线进行平滑处理得到语音信号的频能比包络。
在一种实施方式中,步骤S5.4包括:将平滑处理后的频能比包络的峰值个数作为音节个数。
在一种实施方式中,步骤S5.5中,设定阈值的切分段数与音节的个数相同,将计算得到的每一段语音的频能比的平均值作为阈值,将超过阈值的点作为临界点,将相邻的临界点取平均值后作为切分点。
在一种实施方式中,步骤S6中采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,包括:
对待识别语音分割出的单独词语与语料库中的单独词语进行匹配计算,将匹配出的距离最短的人的语音作为声纹识别得到的说话人的结果,识别出语音信号的发出者是否为驾驶员。
在一种实施方式中,当识别出语音信号由驾驶员发出时,进一步识别语音信号对应的指令,包括:
当识别出语音信号由驾驶员发出时,采用DTW算法将分割出的单独词语与语料库中单独词语分别进行匹配,将每一个与分割出的单独词语匹配出的距离最短的目标单独词语进行组合,以组合后的词语对应的语音指令作为指令识别结果。
在一种实施方式中,在步骤S6之后,所述方法还包括:根据识别出的语音指令生成控制指令。
基于同样的发明构思,本发明第二方面提供了一种用于车载的语音识别系统,包括:
语音采集模块,用于采集当前的语音音频信号;
自噪声抑制程序模块,用于对采集的语音音频信号进行预处理,具体包括:采用回声消除算法抑制采集的语音音频信号中的车载环境自噪声;
信号前处理模块,用于对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测,提取出语音段;
降噪处理模块,用于采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;
音节分割模块,用于通过音节分割算法将待识别语音信号分割成单独词语;
语音识别模块,用于采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,其中,预先构建的语料库中包含驾驶员的语音指令、驾驶员语音指令对应的文本内容以及文本对应的词语、其他人的语音指令、其他人语音指令对应的文本内容以及文本对应的词语,语料库中所有语音指令对应的文本预先通过声纹识别方法得到,文本对应的词语通过音节分割算法得到。
在一种实施方式中,所述系统包括指令发布模块,用于根据识别出的语音指令生成控制指令。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本发明提供的一种用于车载的语音识别方法,在对采集的语音音频信号进行自噪声抑制、语音端提取和小波降噪后,通过音节分割算法将待识别语音信号分割成单独词语,通过单独词语与语音库中存储的词语的匹配,有利于提高识别精度,由于语料库中预先存储驾驶员和其他非驾驶员的语音指令,以及通过声纹识别算法得到的与语音指令对应的文本、通过音节分割算法分割得到的与文本对应的词语,在进行语音识别时,则可以将待识别的语音信号分割出的单独词语与语料库中的词语进行对比,匹配出的距离最短的人的语音作为声纹识别的说话人的结果,如果满足是驾驶员语音指令的条件,则表明语音由驾驶员发出,否则为非驾驶员,从而可以识别出语音信号是否由驾驶员发出,提高了识别的准确性,进一步地,当识别出语音信号由驾驶员发出时,还进一步识别语音信号对应的指令,以进行相应的控制。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中一种用于车载的语音识别方法的流程图;
图2是本发明实施例中一种用于车载的语音识别系统的结构框图;
图3是本发明实施例中利用音节分割算法将待识别语音信号进行分割的流程图。
具体实施方式
本发明提供的一种车载语音识别方法及系统,首先采集当前的语音音频信号,然后对采集的语音音频信号进行自噪声抑制、前端信号处理及端点检测;接着进行小波降噪,再采用音节分割算法将待识别语音信号分割成单独词语,最后对所述语音信号进行语音识别。
主要创新点包括:
1)采用音节分割算法对待识别语音信号进行音节自动划分,划分得到单独的词语,以供后续语音识别用,以提高识别的精度。
2)对语音指令进行个性化识别控制,语料库中预先存储有驾驶员和其他非驾驶员的语音指令,以及语音指令对应的文本和单独词语,在进行语音识别时,首先采用模式匹配方法将采集的语音音频信号的单独词语与语料库中经同样处理过的词语进行匹配计算,匹配出的距离最短的人的语音作为声纹识别的说话人的结果,从而识别出语音音频是否由驾驶员发出,并在当识别出的是驾驶员的语音指令时,利用改进的DTW算法进行下一步的特定人的语音指令的识别,识别出语音指令的具体内容。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本实施例提供了一种用于车载的语音识别方法,包括:
S1:采集当前的语音音频信号;
S2:对采集的语音音频信号进行预处理,具体包括:采用回声消除算法抑制采集的语音音频信号中的车载环境自噪声;
S3:对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测,提取出语音段;
S4:采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;
S5:通过音节分割算法将待识别语音信号分割成单独词语;
S6:采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,其中,预先构建的语料库中包含驾驶员的语音指令、驾驶员语音指令对应的文本内容以及文本对应的词语、其他人的语音指令、其他人语音指令对应的文本内容以及文本对应的词语,语料库中所有语音指令对应的文本预先通过声纹识别方法得到,文本对应的词语通过音节分割算法得到。
具体实施过程中,步骤S1中可以通过麦克风采集位于车辆乘坐空间内的用户的音频数据(语音音频信号);
步骤S2根据回声消除算法抑制采集的音频信号中的车载环境自噪声;回声消除的全称是声学回声消除。声学回声是指设备自身扬声器播放的声音经不同的路径一次或多次反射后进入麦克风所产生的回声集合,也可称作设备自噪声。用户通过语音同设备进行交互的时候,回声信号和干净的语音信号混合,这会恶化采集到的语音信号的信噪比,严重干扰后续的信号处理和识别的效果。所以原始麦克风信号要先通过回声消除算法,消除设备自噪声,以达到提升信噪比的目的。回声消除主要的原理是采用自适应滤波技术,动态的实时跟踪车内的声学信道,参考音经过这个信道的滤波,模拟出传到麦克风处的回声,最后原始的麦克风信号减掉这个回声信号,达到消除车载设备自噪声的目的。
步骤S3利用双门限端点检测算法对所述语音信息进行预处理以及端点检测;并通过预处理算法对音频信号进行预加重,分帧和加窗,使分帧后的语音信号整体更加平稳,使语音信号每一帧的时域信号能更好的满足傅里叶变换处理的周期性要求。
设原始信号为x(n),加窗运算定义为:
y(n)=x(n)*ω(n) (1)
汉明窗函数:
其中y(n)是加窗后信号,ω(n)是窗函数。N是汉明窗的长度,n是时间。
步骤S4通过小波降噪算法对语音信号进一步去噪,去除车载环境特定噪声;小波变换可解决很多Fourier不能解决的问题,尤其在非平稳信号中,小波变换优势明显。
步骤S5采用基于元音检测的音节分割算法进行单词分割,首先对于语音信号的短时傅里叶变换结果进行频能比的计算,再经过平滑处理得到的频能比的图像,计算语音段中音节的个数是根据元音占据了一个音节中的主要能量,而且元音的频率通常在290-4000Hz之间这两个特点来进行估算。以波峰的个数作为音节的个数,然后设定阈值对该语音段进行音节的分割,直到设定的阈值使语音段分段的段数和音节的个数相同,作为音节分割的结果。
步骤S6中预先构建的语料库中包括特定驾驶员录入的语音以及通过声纹识别得到的语音的文本内容、采用音节分割算法得到的词语,同样地,还包括除驾驶员外的其他的语音以及对应的文本和词语。
具体的识别过程主要包括两个部分,第一是识别语音信号是不是驾驶员发出的,具体地通过模式匹配算法将待识别语音信号分割出的单独词语与语料库中的词语进行匹配,看是否满足匹配条件,具体过程包括:将待识别语音信号分割出的单独词语与语料库中所有词语进行DTW距离的计算,取距离最短的孤立词所对应的人作为声纹识别的结果,即,将与分割出的单独词语具有最短距离的语料库中词语所对应的人作为识别出的人,以打开空调指令为例,进行音节分割后,得到四个单独的词语:“打”“开”“空”“调”,一般情况下,上述四个词语进行匹配时,都会对应驾驶员。也有的情况会对应不同的人,例如分别对应“驾驶员”,“用户A”“驾驶员”“用户B”,此时,可以取对应相同人最多的人作为识别的结果,该例中取对应的人为驾驶员作为最终的声纹识别结果。匹配条件实际是指一种最大可能性对应条件。通过上述方法可以识别出语音是否由驾驶员发出。第二,对识别出是驾驶员的语音信号进行语音指令的识别,识别出是何种指令。
本发明提供的方法能够将采集的语音信号进行音节自动划分成单独词,并判断接收到的语音信号是否为驾驶员发出,避免其他人发出的声音被系统误接收从而执行错误的命令,并且能够针对特定人进行语音指令的识别。
在一种实施方式中,步骤S5包括:
S5.1:对采集的语音音频信号进行分帧处理后进行短时傅里叶变换,并计算在频域下的短时能量;
S5.2:计算每帧语音信号的频能比,得到语音信号频能比曲线,进而得到语音信号的频能比包络;
S5.3:分别利用smooth算法和滑动平均算法对语音信号的频能比包络进行曲线的平滑处理;
S5.4:根据平滑处理后的频能比包络的峰值个数计算音节个数;
S5.5:结合音节个数,利用设定阈值的方法对语音信号进行音节分割,获得与待识别语音信号对应的单独词语。
具体地,请参见图3,为利用音节分割算法将待识别语音信号进行分割的流程图。音节分割算法一般用于端点检测领域,本申请创新性地将其引入声纹识别中,可以提高识别准确率和鲁棒性。
在一种实施方式中,步骤S5.2包括:
通过计算语音信号在290-4000Hz范围内的短时能量与所有频率范围内的短时能量的比值,得到语音信号频能比曲线;
对语音信号频能比曲线进行平滑处理得到语音信号的频能比包络。
在一种实施方式中,步骤S5.4包括:将平滑处理后的频能比包络的峰值个数作为音节个数。
在一种实施方式中,步骤S5.5中,设定阈值的切分段数与音节的个数相同,将计算得到的每一段语音的频能比的平均值作为阈值,将超过阈值的点作为临界点,将相邻的临界点取平均值后作为切分点。
具体实施过程中,频能比表示一帧语音信号在某个频带范围内的短时能量与所有频率范围内的短时能量的比值,表达式为:
其中,s(fk)为每一帧语音信号对应于频率为fk的短时能量;fk1-fkN为频带的范围。表达式的分子为每一帧信号在频带范围内的能量,分母为全频率范围内的能量。由于元音的频率范围为290-4000Hz,所以频能比表达式中的fk1的值为290,fkN的值为4000。以波峰的个数作为音节的个数,然后设定阈值对该语音段进行音节的分割,直到设定的阈值使语音段分段的段数和音节的个数相同,作为音节分割的结果。具体步骤如下:
1)短时傅里叶变换:利用语音信号是短时平稳的特点,先对语音信号进行分帧处理,取出不同帧做短时傅里叶变换,并计算在频域下的短时能量。
2)频能比计算:根据元音所处的频率范围是290-4000Hz之间的特点,计算每帧语音信号的频能比,通过计算语音信号在290-4000Hz范围内的短时能量与所有频率范围内的短时能量的比值,得到语音信号频能比曲线,进而可以得到语音信号的频能比包络。
3)平滑处理:分别利用smooth算法和滑动平均算法对语音段的频能比包络进行曲线的平滑处理。
4)计算音节个数:由于一个元音段占据了一个音节的主要能量,其音节个数等价于其频能比包络的峰值个数,故通过计算出峰值个数作为音节的个数。
5)音节切分:结合音节个数,利用设定阈值的方法对语音段进行音节的分割,且设定阈值的切分段数与音节的个数相同,计算每一段语音的频能比的平均值作为阈值,取超过平均值的几个临界点,将相邻的临界点取平均值作为切分所在处。
在一种实施方式中,步骤S6中采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,包括:
对待识别语音分割出的单独词语与语料库中的单独词语进行匹配计算,将匹配出的距离最短的人的语音作为声纹识别得到的说话人的结果,识别出语音信号的发出者是否为驾驶员。
具体实施过程中,对待识别语音采用前文音节分割算法进行音节分割,分割出单独的词语,比如将“打开蓝牙”分割成“打”、“开”、“蓝”、“牙”,然后对其进行MFCC特征参数的提取,即对分割之后的单独的词语对应的音频文件做MFCC特征提取,具体做法是通过一组三角窗滤波器对信号的功率谱进行滤波,来模拟人耳的掩蔽效应;上述特征提取是在进行DTW算法之前的一个前处理部分,由语音识别模块来完成,通过特征提取可以使得音频信号能够更接近真实人耳的信号,从而提高匹配计算的准确性,进而用DTW匹配算法对分割出的单独词语和语料库内经同样处理过的词语进行匹配计算。
其中,语音音频信号的参数信息中包含语音信号的时间信息、能量信息。
在一种实施方式中,当识别出语音信号由驾驶员发出时,进一步识别语音信号对应的指令,包括:
当识别出语音信号由驾驶员发出时,采用DTW算法将分割出的单独词语与语料库中单独词语分别进行匹配,将每一个与分割出的单独词语匹配出的距离最短的目标单独词语进行组合,以组合后的词语对应的语音指令作为指令识别结果。
具体来说,本发明中采用的声纹识别方法,主要是识别文本内容以及是不是驾驶员说的话。当识别出的不是驾驶员的语音指令时,则不对该语音信号进行下一步的语音指令的识别。
为了进一步提高识别的准确性,语料库中存储了大量用户的语音和对应的词语,即包含了丰富与车载驾驶相关的词语,在识别语音信号的具体内容时,由于同一人的不同词距离比不同人相同词的距离小一些,为避免产生误差,可以将待识别语音的词语与用户库(为语料库的一部分,由非驾驶员的音频和文本构成,且用户库中包括大量用户的丰富的孤立词,不包括驾驶员指令)进行匹配,再将每一个孤立词匹配出的结果组合得到最后的指令作为识别结果。
在一种实施方式中,在步骤S6之后,根据识别出的语音指令生成控制指令。
生成控制指令后,则可以对车辆进行相应的控制。
请参见图1,为具体实施例中一种用于车载的语音识别方法的流程图,在语音识别过程中,判断是否满足驾驶员语音指令的条件,如果不满足,则对下一个语音进行识别。如果满足,则采用改进的DTW算法进行下一步的特定人的语音指令的识别。再根据识别出的语音指令生成控制指令,生成控制指令后,则可以对车辆进行相应的控制。
在现在技术中,通常是根据直接采集音频数据进行语音控制,从而,当驾驶员未进行语音控制操作而环境音中包含语音指令时,环境音中由其他人发出语音指令将会对车辆进行误操作,从而存在语音控制准确率低的技术问题。而本发明通过从音频数据中提取出特定人的语音控制指令,进而根据语音控制指令对车辆进行相应控制,有效地避免了上述问题的发生,只有在驾驶员的语音控制操作的情况下,才会采集音频数据并根据音频数据对车辆进行相应的个性化控制,提高了语音控制的准确率。
基于同样的发明构思,本发明还提供了一种与实施例一中用于车载的语音识别方法对应的系统,具体参见实施例二。
实施例二
本实施例提供了一种用于车载的语音识别系统,包括:
语音采集模块,用于采集当前的语音音频信号;
自噪声抑制程序模块,用于对采集的语音音频信号进行预处理,具体包括:采用回声消除算法抑制采集的语音音频信号中的车载环境自噪声;
信号前处理模块,用于对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测,提取出语音段;
降噪处理模块,用于采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;
音节分割模块,用于通过音节分割算法将待识别语音信号分割成单独词语;
语音识别模块,用于采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,其中,预先构建的语料库中包含驾驶员的语音指令、驾驶员语音指令对应的文本内容以及文本对应的词语、其他人的语音指令、其他人语音指令对应的文本内容以及文本对应的词语,语料库中所有语音指令对应的文本预先通过声纹识别方法得到,文本对应的词语通过音节分割算法得到。
在一种实施方式中,所述系统包括指令发布模块,用于根据识别出的语音指令生成控制指令。
请参见图2,为用于车载的语音识别系统的结构框图,系统整体分为音信信号处理模块、音节分割模块、语音识别模块和指令发布模块,其中,音频信号处理模块包括语音采集模块、自噪声抑制程序模块、信号前处理模块、降噪处理模块。
本发明提供了一种车载语音识别方法及系统,可以对用户发出的音频信息进行声纹识别以及文本内容识别,指令包括开关空调,开关蓝牙,开关音乐,调节音量,接打电话等常用控制指令,可判断该指令是不是驾驶员发出的,如果识别系统判别出是驾驶员发出的指令,则进一步识别并通过控制单元执行该指令,如果不是驾驶员发出的指令,则忽略该指令。通过音节自动划分算法的嵌入可以提高识别准确率和鲁棒性。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种用于车载的语音识别方法,其特征在于,包括:
S1:采集当前的语音音频信号;
S2:对采集的语音音频信号进行预处理,具体包括:采用回声消除算法抑制采集的语音音频信号中的车载环境自噪声;
S3:对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测,提取出语音段;
S4:采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;
S5:通过音节分割算法将待识别语音信号分割成单独词语;
S6:采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,其中,预先构建的语料库中包含驾驶员的语音指令、驾驶员语音指令对应的文本内容以及文本对应的词语、其他人的语音指令、其他人语音指令对应的文本内容以及文本对应的词语,语料库中所有语音指令对应的文本预先通过声纹识别方法得到,文本对应的词语通过音节分割算法得到;
其中,步骤S5包括:
S5.1:对采集的语音音频信号进行分帧处理后进行短时傅里叶变换,并计算在频域下的短时能量;
S5.2:计算每帧语音信号的频能比,得到语音信号频能比曲线,进而得到语音信号的频能比包络;
S5.3:分别利用smooth算法和滑动平均算法对语音信号的频能比包络进行曲线的平滑处理;
S5.4:根据平滑处理后的频能比包络的峰值个数计算音节个数;
S5.5:结合音节个数,利用设定阈值的方法对语音信号进行音节分割,获得与待识别语音信号对应的单独词语。
2.如权利要求1所述的方法,其特征在于,步骤S5.2包括:
通过计算语音信号在290-4000Hz范围内的短时能量与所有频率范围内的短时能量的比值,得到语音信号频能比曲线;
对语音信号频能比曲线进行平滑处理得到语音信号的频能比包络。
3.如权利要求1所述的方法,其特征在于,步骤S5.4包括:将平滑处理后的频能比包络的峰值个数作为音节个数。
4.如权利要求1所述的方法,其特征在于,步骤S5.5中,设定阈值的切分段数与音节的个数相同,将计算得到的每一段语音的频能比的平均值作为阈值,将超过阈值的点作为临界点,将相邻的临界点取平均值后作为切分点。
5.如权利要求1所述的方法,其特征在于,步骤S6中采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,包括:
对待识别语音分割出的单独词语与语料库中的单独词语进行匹配计算,将匹配出的距离最短的人的语音作为声纹识别得到的说话人的结果,识别出语音信号的发出者是否为驾驶员。
6.如权利要求1所述的方法,其特征在于,当识别出语音信号由驾驶员发出时,进一步识别语音信号对应的指令,包括:
当识别出语音信号由驾驶员发出时,采用DTW算法将分割出的单独词语与语料库中单独词语分别进行匹配,将每一个与分割出的单独词语匹配出的距离最短的目标单独词语进行组合,以组合后的词语对应的语音指令作为指令识别结果。
7.如权利要求1所述的方法,其特征在于,在步骤S6之后,所述方法还包括:根据识别出的语音指令生成控制指令。
8.一种用于车载的语音识别系统,其特征在于,包括:
语音采集模块,用于采集当前的语音音频信号;
自噪声抑制程序模块,用于对采集的语音音频信号进行预处理,具体包括:采用回声消除算法抑制采集的语音音频信号中的车载环境自噪声;
信号前处理模块,用于对预处理之后的语音音频信号通过双门限端点检测算法进行语音段的端点检测,提取出语音段;
降噪处理模块,用于采用小波降噪算法对提取出的语音段进一步去噪,获得待识别语音信号;
音节分割模块,用于通过音节分割算法将待识别语音信号分割成单独词语;
语音识别模块,用于采用模式匹配方法将分割得到的单独词语与预先构建的语料库中语音指令对应的词语进行匹配,识别语音信号是否由驾驶员发出,当识别出语音信号由驾驶员发出时,进一步采用DTW算法识别语音信号对应的指令,其中,预先构建的语料库中包含驾驶员的语音指令、驾驶员语音指令对应的文本内容以及文本对应的词语、其他人的语音指令、其他人语音指令对应的文本内容以及文本对应的词语,语料库中所有语音指令对应的文本预先通过声纹识别方法得到,文本对应的词语通过音节分割算法得到;
其中,音节分割模块具体用于:
对采集的语音音频信号进行分帧处理后进行短时傅里叶变换,并计算在频域下的短时能量;
计算每帧语音信号的频能比,得到语音信号频能比曲线,进而得到语音信号的频能比包络;
分别利用smooth算法和滑动平均算法对语音信号的频能比包络进行曲线的平滑处理;
根据平滑处理后的频能比包络的峰值个数计算音节个数;
结合音节个数,利用设定阈值的方法对语音信号进行音节分割,获得与待识别语音信号对应的单独词语。
9.如权利要求8所述的系统,其特征在于,所述系统包括指令发布模块,用于根据识别出的语音指令生成控制指令。
CN202110903450.1A 2021-08-06 2021-08-06 一种用于车载的语音识别方法及系统 Active CN113707156B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110903450.1A CN113707156B (zh) 2021-08-06 2021-08-06 一种用于车载的语音识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110903450.1A CN113707156B (zh) 2021-08-06 2021-08-06 一种用于车载的语音识别方法及系统

Publications (2)

Publication Number Publication Date
CN113707156A CN113707156A (zh) 2021-11-26
CN113707156B true CN113707156B (zh) 2024-04-05

Family

ID=78652002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110903450.1A Active CN113707156B (zh) 2021-08-06 2021-08-06 一种用于车载的语音识别方法及系统

Country Status (1)

Country Link
CN (1) CN113707156B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070049831A (ko) * 2005-11-09 2007-05-14 엘지전자 주식회사 음절 및 음소 분리를 통한 초기상태 분할 방법, 및 이를구현하기 위한 단말기
JP2012053493A (ja) * 2009-04-03 2012-03-15 Ntt Docomo Inc 音声復号装置、音声復号方法、及び音声復号プログラム
KR101122590B1 (ko) * 2011-06-22 2012-03-16 (주)지앤넷 음성 데이터 분할에 의한 음성 인식 장치 및 방법
CN105118502A (zh) * 2015-07-14 2015-12-02 百度在线网络技术(北京)有限公司 语音识别系统的端点检测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2014MU00739A (zh) * 2014-03-04 2015-09-25 Indian Inst Technology Bombay

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070049831A (ko) * 2005-11-09 2007-05-14 엘지전자 주식회사 음절 및 음소 분리를 통한 초기상태 분할 방법, 및 이를구현하기 위한 단말기
JP2012053493A (ja) * 2009-04-03 2012-03-15 Ntt Docomo Inc 音声復号装置、音声復号方法、及び音声復号プログラム
KR101122590B1 (ko) * 2011-06-22 2012-03-16 (주)지앤넷 음성 데이터 분할에 의한 음성 인식 장치 및 방법
CN105118502A (zh) * 2015-07-14 2015-12-02 百度在线网络技术(北京)有限公司 语音识别系统的端点检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
某重型商用车变速箱壳体轻量化研究;胡溧 等;《机械传动》;20200410;第第44卷卷(第第4期期);第26-31页 *

Also Published As

Publication number Publication date
CN113707156A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN108305615B (zh) 一种对象识别方法及其设备、存储介质、终端
US9881616B2 (en) Method and systems having improved speech recognition
CN112397083B (zh) 语音处理方法及相关装置
US7319959B1 (en) Multi-source phoneme classification for noise-robust automatic speech recognition
JPH11502953A (ja) 厳しい環境での音声認識方法及びその装置
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
US9911411B2 (en) Rapid speech recognition adaptation using acoustic input
CN110570853A (zh) 基于语音数据的意图识别方法和装置
CN112397065A (zh) 语音交互方法、装置、计算机可读存储介质及电子设备
CN112562681B (zh) 语音识别方法和装置、存储介质
CN111583936A (zh) 一种智能语音电梯控制方法及装置
Ismail et al. Mfcc-vq approach for qalqalahtajweed rule checking
CN112053702B (zh) 一种语音处理的方法、装置及电子设备
CN110189746A (zh) 一种应用于地空通信的话音识别方法
Garg et al. A comparative study of noise reduction techniques for automatic speech recognition systems
CN110689887B (zh) 音频校验方法、装置、存储介质及电子设备
Venkatesan et al. Binaural classification-based speech segregation and robust speaker recognition system
US5487129A (en) Speech pattern matching in non-white noise
JP2001000007U (ja) 音声認識装置
KR20030010432A (ko) 잡음환경에서의 음성인식장치
Okuno et al. Listening to two simultaneous speeches
US7177806B2 (en) Sound signal recognition system and sound signal recognition method, and dialog control system and dialog control method using sound signal recognition system
CN113707156B (zh) 一种用于车载的语音识别方法及系统
Loh et al. Speech recognition interactive system for vehicle
Sangeetha et al. Automatic continuous speech recogniser for Dravidian languages using the auto associative neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant