CN107945789A - 语音识别方法、装置及计算机可读存储介质 - Google Patents
语音识别方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN107945789A CN107945789A CN201711468728.7A CN201711468728A CN107945789A CN 107945789 A CN107945789 A CN 107945789A CN 201711468728 A CN201711468728 A CN 201711468728A CN 107945789 A CN107945789 A CN 107945789A
- Authority
- CN
- China
- Prior art keywords
- lip
- recognition result
- syllable
- speech recognition
- lipreading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 150000001875 compounds Chemical class 0.000 claims abstract description 83
- 241001672694 Citrus reticulata Species 0.000 claims description 47
- 238000013507 mapping Methods 0.000 claims description 27
- 230000033764 rhythmic process Effects 0.000 claims description 9
- 235000016278 Mentha canadensis Nutrition 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 2
- 241001575999 Hakka Species 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000012549 training Methods 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000006854 communication Effects 0.000 description 7
- 235000013399 edible fruits Nutrition 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 244000245214 Mentha canadensis Species 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000009432 framing Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 241000209140 Triticum Species 0.000 description 2
- 235000021307 Triticum Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种语音识别方法,该方法包括:获取第一语音数据和对应的第一唇形视频,对该第一语音数据进行分割得到对应的声母和韵母;通过训练好的语音识别模型对该声母和韵母进行识别,得到对应的语音识别结果,检测该语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;若是,在该第一唇形视频中获取与该小概率声母和/或小概率韵母对应的第一唇形图像序列,通过训练好的唇形识别模型对第一唇形图像序列进行识别,得到唇形识别结果;根据语音识别结果和唇形识别结果通过预设语音搜索树和预设唇形搜索树得到最终识别结果。本发明还公开了一种语音识别装置和计算机可读存储介质。本发明能够提高识别结果的准确性。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及语音识别方法、装置及计算机可读存储介质。
背景技术
语音识别技术是通过机器的识别理解将语音信号转变成相应的文本或命令,是人机交互通信的主要技术。目前,语音识别技术已被应用于各个领域中,例如通信、汽车电子、医疗、家庭服务等,发挥着越来越重要的作用。
虽然语音识别技术的发展十分迅速,各种语音识别产品层出不穷,但是与语音识别领域最终想要达到的人机自由交互的效果还有很长一段距离。例如,现有的语音识别器主要是针对普通话进行语音识别,而对于中国这个多民族、多语言、多方言的人口大国而言,方言就有七大类,包括官话方言、吴方言、湘方言、客家方言、闽方言、粤方言和赣方言,虽然目前普通话作为交流的语言已经基本普及,但是人们在讲话时难免会带有一定程度的方言口音,因此,对于带有方言口音的语音,其语音识别结果的准确性较差。
发明内容
本发明的主要目的在于提出一种语音识别方法、装置及计算机可读存储介质,旨在解决语音识别结果准确性较差的技术问题。
为实现上述目的,本发明提供一种语音识别方法,所述语音识别方法包括:
获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
可选地,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,包括:
分别采集通过不同方言和普通话朗读目标音节时的第二语音数据,其中所述方言包括官话方言、吴方言、湘方言、客家方言、闽方言、粤方言和赣方言;
对所述第二语音数据进行预处理,并提取经预处理后的第二语音数据的语音特征;
根据所述语音特征,通过迭代算法计算出语音识别模型的最优模型参数,并根据所述语音识别模型的最优模型参数得到所述训练好的语音识别模型。
可选地,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,还包括:
在采集所述第二语音数据的同时采集对应的第二唇形视频;
通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征;
根据所述唇形特征,通过所述迭代算法计算出唇形识别模型的最优模型参数,并根据所述唇形识别模型的最优模型参数得到所述训练好的唇形识别模型。
可选地,所述通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征的步骤,包括:
从所述第二唇形视频中获取对应的第二唇形图像序列,并对所述第二唇形图像序列进行预处理;
通过图像识别方法识别出经预处理后的第二唇形图像序列中的唇部区域,并提取所述唇部区域的唇形特征。
可选地,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,还包括:
基于所述普通话对应的语音特征与所述目标音节之间的映射表创建普通话搜索树;
分别构建各方言到所述普通话之间的音节映射表,并分别构建各方言和所述普通话对应的唇形特征与所述目标音节之间的唇形映射表;
根据所述音节映射表扩展所述普通话搜索树得到所述预设语音搜索树,并根据所述唇形映射表创建所述预设唇形搜索树。
可选地,所述根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果的步骤,包括:
根据所述语音识别结果通过预设语音搜索树进行搜索得到语音搜索结果,并根据所述唇形识别结果通过预设唇形搜索树进行搜索得到唇形搜索结果;
根据所述语音搜索结果和唇形搜索结果得到对应的交集作为最终的识别结果。
可选地,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,包括:
当接收到用户触发的语音输入指令时,根据所述语音输入指令调用移动终端的麦克风和摄像头;
通过所述麦克风采集所述第一语音数据,并通过所述摄像头同步采集所述第一唇形视频。
可选地,所述通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母的步骤之后,还包括:
若否,则根据所述语音识别结果并通过所述预设语音搜索树进行搜索,得到最终的识别结果。
此外,为实现上述目的,本发明还提供一种语音识别装置,所述语音识别装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的语音识别程序,所述语音识别程序被所述处理器执行时实现如下步骤:
获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有语音识别程序,所述语音识别程序被处理器执行时实现如下步骤:
获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
本发明通过获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。通过上述方式,本发明终端通过采集通过不同方言和普通话朗读目标音节时的语音数据和唇形视频作为训练样本,来训练语音识别模型和唇形识别模型,基于各方言到普通话之间的音节映射表对现有的普通话搜索树进行扩展得到预设语音搜索树,并基于各方言和普通话对应的唇形特征与目标音节之间的唇形映射表创建得到的预设唇形搜索树,进而在终端获取到用户输入的第一语音数据和对应的第一唇形视频时,先通过训练好的语音识别模型对分割后的第一语音数据中的声母和韵母进行识别,得到语音识别结果,当语音识别结果中存在识别概率小于预设阈值的小概率声母和/或小概率韵母,即语音识别技术对于某些声母和/或韵母的识别结果的准确率较低时,此时会结合唇形识别技术,在第一唇形视频中获取与小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对该第一唇形图像序列进行识别,得到对应的唇形识别结果,最终根据该语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。因此,本发明既可以识别标准普通话,又可以识别带有各种程度的方言口音的普通话,且通过将语音识别技术和唇形识别技术相结合,可提高识别结果的准确性。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的终端结构示意图;
图2为本发明语音识别方法第一实施例的流程示意图;
图3为本发明实施例中根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果的细化流程示意图;
图4为本发明语音识别方法第二实施例的流程示意图;
图5为本发明语音识别方法第三实施例的流程示意图;
图6为本发明实施例中通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征的细化流程示意图;
图7为本发明语音识别方法第四实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、智能手环、计步器等移动终端,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,图1为本发明实施例方案涉及的硬件运行环境的终端结构示意图,该移动终端100可以包括:RF(Radio Frequency,射频)单元101、Wi-Fi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对移动终端的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)等。
Wi-Fi属于短距离无线传输技术,移动终端通过Wi-Fi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了Wi-Fi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或Wi-Fi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或Wi-Fi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。
基于上述终端硬件结构,提出本发明语音识别方法各个实施例。
本发明提供一种语音识别方法。
请参阅图2,图2为本发明语音识别方法第一实施例的流程示意图,所述语音识别方法包括:
步骤S10,获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
在本发明实施例中,在上述步骤S10之前,还包括:
当接收到用户触发的语音输入指令时,根据所述语音输入指令调用移动终端的麦克风和摄像头;
通过所述麦克风采集所述第一语音数据,并通过所述摄像头同步采集所述第一唇形视频。
在本发明实施例中,该语音识别方法可用于识别标准普通话,又可以识别带有各种程度的方言背景的普通话,通过结合语音识别和唇形识别,可提高识别结果的准确性。本发明实施例中的终端可以是智能手机,也可以是平板电脑、笔记本电脑、掌上电脑、PDA(Personal Digital Assistant,个人数字助手)、便携计算机等移动终端。为方便说明,本发明实施例以智能手机为例进行说明。
当智能手机终端接收到用户触发的语音输入指令时,根据各该语音输入指令调用该智能手机的麦克风和摄像头,用于同步采集用户输入的第一语音数据及对应的第一唇形视频。具体的,可以检测是否收到语音输入指令(例如检测智能手机的home键是否被长按),若收到语音输入指令,则通过智能手机的麦克风开始采集用户输入的第一语音数据,并通过智能手机的摄像头采集用户在输入第一语音数据时的第一唇形视频(即用户讲话的唇形变化视频)。当检测到语音输入结束指令(例如检测智能手机的home键是否被松开),若收到语音输入结束指令,则停止通过智能手机的麦克风采集用户输入的第一语音数据,并停止通过智能手机的摄像头采集第一唇形视频。当然,也可以预先采集的第一语音数据和对应的第一唇形视频,当需要对该第一语音数据和第一唇形识别视频进行识别时,获取该第一语音数据和对应的唇形视频。
当智能手机终端获取到用户输入的第一语音数据和对应的第一唇形视频时,首先对该第一语音数据进行分割得到对应的音节,其中音节包括声母和韵母。其中,对于第一语音数据的分割方法可以基于时域特征参数的方法进行分割,时域参数包括短时平均能量En、短时过零率Zn、平均能量过零数积A=En*Zn及平均能量过零数比B=En/Zn。也可以基于频域特征参数的方法进行分割,通过利用语音信号的谱特征如LPC(Linear PredictiveCoding,线性预测编码)倒谱、MFCC(Mel Frequency Cepstrum Coefficient,梅尔频率倒谱系数)倒谱等,利用清、浊音频谱的能量分布及谱值幅度不同,可用判别出清、浊音,进一步得到音节分割的结果。语音数据的自动分割是汉语语音识别的关键步骤之一,通过上述基于时域特征参数或基于频域特征参数的分割方法,可将声母和韵母分隔开来,从而有利于后续的语音分析和识别。
步骤S20,通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
在将第一语音数据分割成声母和韵母后,通过训练好的语音识别模型对分割后的声母和韵母进行识别,得到对应的语音识别结果,并检测该语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母,即检测是否存在语音识别技术对于某些声母和/或韵母的识别准确率较低的情况。其中,预设阈值可以设为0.6,也可以根据实际情况进行设定。具体的,训练好的语音识别模型对所述声母和韵母的识别过程可以为:对该声母或韵母对应的语音数据进行预处理(包括预加重、加窗分帧处理、端点检测和降噪处理),然后提取经过预处理的声母或韵母对应的语音数据的语音特征,然后根据该语音特征,通过训练好的语音识别模型进行识别,即可得到对应的语音识别结果,该语音识别结果包括通过训练好的语音识别模型识别出的声母/韵母及其对应的识别概率。
由于不同地区的人们有着不同的方言,容易造成混淆某些声母或韵母的读音,例如,当用户是湖南人,其带有湘方言口音时,容易混淆鼻音“n”和边音“l”,造成如“脑、老”同音的情况,再例如,当用户为福建人,其带有闽方言口音,容易混淆唇齿音“f”和舌根音“h”,造成如“父、胡”同音的情况,再例如当用户带有吴方言或粤方言的口音时,容易混淆“w”和舌根音“h”,造成如“吴、胡”同音的情况。因此,为确保输出识别结果的准确性,在通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果时,需要检测该语音识别结果中识别出的声母和/或韵母对应的识别概率是否小于预设阈值,当识别概率小于预设阈值时,则可记为小概率声母和/或小概率韵母。需要说明的是,通过训练好的语音识别模型对某一声母/韵母识别时,识别出的声母/韵母可能有多个,其对应的识别概率也有多个,在本实施例中,得到的语音识别结果是指识别概率最高的识别结果。例如,通过训练好的语音识别模型对某声母进行识别时,其识别结果为:“b”,0.7。在具体实施例中,该语音识别结果可以包括多个识别出的声母/韵母及其对应的识别概率,然后通过检测这些识别概率中的最大值是否小于预设阈值来确定该语音识别结果中是否存在小概率声母和/或小概率韵母。例如,当通过训练好的语音识别模型对某声母进行识别时,语音识别结果为“f”,0.4;“h”,0.36;“w”,0.18。此时,可检测这些识别概率中的最大值是否小于预设阈值。
步骤S30,若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
当该语音识别结果中存在识别概率小于预设阈值的小概率声母和/或小概率韵母,即语音识别技术对于某些声母和/或韵母的识别结果的准确率较低时,此时,在第一唇形视频中获取与该小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对该第一唇形图像序列进行识别,得到对应的唇形识别结果,从而通过结合唇形识别技术,提高识别结果的准确性。
具体的,当该语音识别结果中存在识别概率小于预设阈值的小概率声母和/或小概率韵母,即语音识别技术对于某些声母和/或韵母的识别结果的准确率较低时,则可以获取该小概率声母和/或小概率韵母在该第一语音数据中对应的时间,然后利用OpenCV(OpenSource Computer Vision Library,开源计算机视觉库)将第一唇形视频转换成唇形图像序列间的转换,然后从唇形图像序列中获取与该时间对应的唇形图像序列,即对应的第一唇形图像序列。需要说明的是,第一唇形图像序列中可能包括多个图像,因为某一声母/韵母的发音是一个动态的过程,因此可能除获取同一时间对应的唇形图像外,还需获取该唇形图像前一帧或前两帧的唇形图像,构成第一唇形图像序列。然后,通过训练好的唇形识别模型对该第一唇形图像序列进行识别,具体的识别过程可以为:对该第一唇部图像序列进行预处理(包括图像灰度化、图像增强、滤波处理和二值化处理),通过图像识别方法识别出经预处理后的第一唇部图像序列中的唇部区域,并提取该唇部区域的唇形特征,然后根据该唇形特征,通过训练好的唇形识别模型进行识别,最终得到对应的唇形识别结果。其中,唇形识别结果包括通过训练好的唇形识别出的声母/韵母及其对应的识别概率。同样的,通过训练好的唇形识别模型对某一声母/韵母识别时,识别出的声母/韵母可能有多个,其对应的识别概率也有多个,在本实施例中,得到的唇形识别结果是指识别概率最高的识别结果。例如,通过训练好的唇形识别模型对某韵母进行识别时,其识别结果为:“a”,0.8。在具体实施例中,该唇形识别结果可以包括多个识别出的声母/韵母及其对应的识别概率。例如,当通过训练好的唇形识别模型对某韵母进行识别时,语音识别结果为“a”,0.55;“o”,0.45。
步骤S40,根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
最后,终端根据语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。其中,该预设语音搜索树的构建过程为:先基于普通话对应的语音特征与目标音节之间的映射表创建普通话搜索树,然后基于各方言到普通话之间的音节映射表对该普通话搜索树进行扩展,得到该预设语音搜索树。该预设唇形搜索树为基于各方言和普通话对应的唇形特征与目标音节之间的唇形映射表创建得到的。通过搜索树进行搜索,可提高识别速度,节省系统资源,且搜索树具有可扩展性,可方便用户根据实际需要对该搜索树进行扩展。
具体的,请参阅图3为本发明实施例中根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果的细化流程示意图。步骤S40包括:
步骤S41,根据所述语音识别结果通过预设语音搜索树进行搜索得到语音搜索结果,并根据所述唇形识别结果通过预设唇形搜索树进行搜索得到唇形搜索结果;
步骤S42,根据所述语音搜索结果和唇形搜索结果得到对应的交集作为最终的识别结果。
终端根据该语音识别结果通过预设语音搜索树进行搜索得到语音搜索结果,并根据唇形识别结果通过预设唇形搜索树进行搜索得到唇形搜索结果,然后根据所述语音搜索结果和唇形搜索结果得到对应的交集作为最终的识别结果。例如,用户想说“我服了”时,分割后的音节为w-o-f-u-l-e,语音识别结果对声母和/或韵母的识别结果假设依次为w,0.82;o,0.75;f,0.48;u,0.46;n,0.52;e,0.88,则其对应的语音搜索结果为w-o-f-u-n-e。该结果中“f”、“u”和“l”对应的识别概率小于预设阈值,则其为小概率声母/小概率韵母,此时,需要通过唇形识别技术识别这三个小概率声母和小概率韵母,假设识别结果分别为f,0.45;u,0.62;l,0.72;则其对应的唇形搜索结果为*-*-f-u-l-*,其中*表示未进行识别;然后,根据这两个搜索结果得到对应的交集,需要说明的是,当存在冲突时,即均识别了某一声母/韵母,则取识别概率高的结果,因此得到最终的识别结果为w-o-f-u-l-e,然后可以转化成对应的文字“我服了”,并输出。
需要说明的是,在步骤S20之后,该语音识别方法还可以包括:
当所述概率大于或等于预设阈值时,则根据所述语音识别结果并通过所述预设语音搜索树进行搜索,得到最终的识别结果。
当检测到该概率大于或等于预设阈值时,说明该语音识别结果较为准确,此时,则不需要结合唇形识别技术,直接根据该语音识别结果并通过预设语音搜索树进行搜索,得到最终的识别结果。
需要说明的是,在具体实施例中,可以直接分别通过语音识别方法和唇形识别方法同时对第一语音数据和对应的第一唇形视频进行识别,得到语音识别结果和唇形识别结果,然后根据语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
此外,还需要说明的是,在具体实施例中,还可以先通过训练好的唇形识别模型对与第一唇形视频进行识别,得到唇形识别结果,再针对唇形识别技术对于某些声母和/或韵母的识别准确率较低的情况,结合语音识别技术对对应的小概率声母和/或小概率韵母的语音数据进行识别,得到唇形识别结果,进而根据该唇形识别结果和语音识别结果并通过预设唇形搜索树和预设语音搜索树进行搜索,得到最终的识别结果。具体的,将第一唇形视频转换成对应的唇形图像序列,然后通过训练好的唇形识别模型对唇形图像序列进行识别,得到对应的唇形识别结果,当该唇形识别结果中存在识别概率小于预设阈值的小概率声母和/或小概率韵母,即存在唇形识别技术对于某些声母和/或韵母的识别准确率较低的情况时,此时,在第一语音数据中获取与该小概率声母和/或小概率韵母对应的语音数据(分割后的声母和/或韵母),并通过训练好的语音识别模型进行识别,得到语音识别结果,最终根据该唇形识别结果和语音识别结果并通过预设唇形搜索树和预设语音搜索树进行搜索,得到最终的识别结果。
本发明提供一种语音识别方法,通过获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。通过上述方式,本发明终端通过采集通过不同方言和普通话朗读目标音节时的语音数据和唇形视频作为训练样本,来训练语音识别模型和唇形识别模型,基于各方言到普通话之间的音节映射表对现有的普通话搜索树进行扩展得到预设语音搜索树,并基于各方言和普通话对应的唇形特征与目标音节之间的唇形映射表创建得到的预设唇形搜索树,进而在终端获取到用户输入的第一语音数据和对应的第一唇形视频时,先通过训练好的语音识别模型对分割后的第一语音数据中的声母和韵母进行识别,得到语音识别结果,当语音识别结果中存在识别概率小于预设阈值的小概率声母和/或小概率韵母,即语音识别技术对于某些声母和/或韵母的识别结果的准确率较低时,此时会结合唇形识别技术,在第一唇形视频中获取与小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对该第一唇形图像序列进行识别,得到对应的唇形识别结果,最终根据该语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。因此,本发明既可以识别标准普通话,又可以识别带有各种程度的方言口音的普通话,且通过将语音识别技术和唇形识别技术相结合,可提高识别结果的准确性。
进一步地,参照图4,图4为本发明语音识别方法第二实施例的流程示意图。基于上述图2所示的第一实施例,在步骤S10之前,该语音识别方法还可以包括:
步骤S50,分别采集通过不同方言和普通话朗读目标音节时的第二语音数据,其中所述方言包括官话方言、吴方言、湘方言、客家方言、闽方言、粤方言和赣方言;
步骤S60,对所述第二语音数据进行预处理,并提取经预处理后的第二语音数据的语音特征;
步骤S70,根据所述语音特征,通过迭代算法计算出语音识别模型的最优模型参数,并根据所述语音识别模型的最优模型参数得到所述训练好的语音识别模型。
在本发明实施例中,采集多名测试者通过不同方言和普通话朗读目标音节时的第二语音数据,其中所述方言包括官话方言、吴方言、湘方言、客家方言、闽方言、粤方言和赣方言。当然,也可以从语音数据库中挑选适合的录音,来作为第二语音数据;或者在考虑声母和韵母覆盖率的前提下收下一些录音语料,让测试者根据这些语料录制对应的第二语音数据。
然后,对第二语音数据进行预处理,其中预处理主要包括预加重、加窗分帧处理、端点检测和降噪处理四个过程。其中,预加重处理是利用信号特性和噪声特性的差别来有效地对信号进行处理,对语音的高频部分进行加重,去除口鼻辐射的影响,增加语音的高频分辨率。加窗分帧处理包括加窗和分帧,其中,一般的分帧方法为交叠分段的方法,前一帧和后一帧的交叠部分称为帧移,而分帧是采用可移动的有限长度的窗口进行加权的方法来实现的,即用一定的窗函数,从而形成加窗语音信号,其中窗函数一般采用汉明窗和矩形窗。端点检测是从一段给定的语音信号中找出语音的起始点和结束点,正确、有效的进行端点检测不仅可以减少计算量和缩短处理时间,而且还能排除无声段的噪声干扰、提高语音识别的正确率。语音降噪处理主要是通过自适应滤波器/谱减法/维纳滤波法等降噪算法来实现的,以提高性噪比。
接着,提取经预处理后的第二语音数据的语音特征,然后根据所述语音特征,通过迭代算法计算出语音识别模型的最优模型参数,并根据所述语音识别模型的最优模型参数得到所述训练好的语音识别模型。其中,该语音识别模型是基于HMM(Hidden MarkovModel,隐马尔可夫模型)建立的,隐马尔可夫模型实质就是对第二语音数据中表征语音信息的特征进行建模,通过对第二语音数据中的语音特征进行了大量的统计而得到模型参数,而迭代算法可以采用Baum–Welch(鲍姆韦尔奇)算法,也可以采用经K均值算法改进后的Baum–Welch算法,可提高模型的准确性。具体的,语音识别模型的训练过程如下:1)基于HMM模型构建语音是被模型,并设置语音识别模型的参数初始值,参数初始值可以通过等划分状态或者根据经验估计设置;2)设置最大的迭代次数和收敛阈值;3)采用Viterbi算法(Viterbi Algorithm,维特比算法)对输入的第二语音数据进行状态的分段操作;4)通过迭代算法(Baum-welch算法)对该语音识别模型的参数进行更新,并对第二语音数据进行迭代训练,不断地循环迭代,直到达到先前设置的迭代次数或已经收敛,此时,可得到该语音识别模型的最优模型参数,进而根据该最优模型参数获得训练好的语音识别模型。
进一步地,参照图5,图5为本发明语音识别方法第三实施例的流程示意图。基于上述图2所示的第一实施例和图4所示的第二实施例,在步骤S10之前,该语音识别方法还可以包括:
步骤S80,在采集所述第二语音数据的同时采集对应的第二唇形视频;
在本发明实施例中,为训练唇形识别模型,在采集第二语音数据的同时采集对应的第二唇形视频,从而作为唇形识别模型的训练样本,对构建的唇形识别模型进行训练,以得到训练好的唇形识别模型。
步骤S90,通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征;
然后,通过图像识别方法对该第二唇形视频进行分析,得到唇形特征。图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。
具体的,请参阅图6,图6为本发明实施例中通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征的细化流程示意图。
步骤S91,从所述第二唇形视频中获取对应的第二唇形图像序列,并对所述第二唇形图像序列进行预处理;
步骤S92,通过图像识别方法识别出经预处理后的第二唇形图像序列中的唇部区域,并提取所述唇部区域的唇形特征。
具体的,可采用OpenCV(Open Source Computer Vision Library,开源计算机视觉库)实现从视频到图像序列的转换,从第二唇形视频中获取到对应的第二唇形图像序列。然后对第二唇形图像序列进行预处理,其中预处理过程包括图像灰度化、图像增强、滤波处理和二值化处理。图像灰度化处理方法包括分量法、最大值法、平均值法和加权平均法。图像增强方法一般包括点处理、空间域滤波、频域滤波、彩色增强、代数运算等。滤波处理,即在尽量保留图像细节特征的条件下对目标图像的噪声进行抑制,是图像预处理中不可缺少的操作,其处理效果的好坏将直接影响到后续图像处理和分析的有效性和可靠性,在本实施例中可采用均值滤波处理。二值化处理就是将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的黑白效果的过程,二值化处理方法包括全局阈值法、局部阈值法。然后通过图像识别方法识别出经预处理后的第二唇形图像序列中的唇部区域,并提取所述唇部区域的唇形特征。
步骤S100,根据所述唇形特征,通过所述迭代算法计算出唇形识别模型的最优模型参数,并根据所述唇形识别模型的最优模型参数得到所述训练好的唇形识别模型。
根据唇形特征通过迭代算法计算出唇形识别模型的最优模型参数,并根据该唇形识别模型的最优模型参数得到所述训练好的唇形识别模型。具体的,在本发明实施例中,也可以基于HMM模型构建唇形识别模型,同样的,通过迭代算法(Baum-welch算法)对该唇形识别模型的参数进行更新,并对第二唇形特征进行迭代训练,不断地循环迭代,直到收敛,此时,可得到该唇形识别模型的最优模型参数,进而根据该最优模型参数获得训练好的唇形识别模型。需要说明的是,在训练唇形识别模型时的迭代算法可与上述语音识别模型中的迭代算法相同,也可不相同,此外,在具体实施例中,还可以基于BP(Back Propagation,反向传播)神经网络模型构建唇形识别模型。
进一步地,参照图7,图7为本发明语音识别方法第四实施例的流程示意图。基于上述图2、图4和图5所示的实施例,在步骤S10之前,该语音识别方法还可以包括:
步骤S110,基于所述普通话对应的语音特征与所述目标音节之间的映射表创建普通话搜索树;
步骤S120,分别构建各方言到所述普通话之间的音节映射表,并分别构建各方言和所述普通话对应的唇形特征与所述目标音节之间的唇形映射表;
步骤S130,根据所述音节映射表扩展所述普通话搜索树得到所述预设语音搜索树,并根据所述唇形映射表创建所述预设唇形搜索树。
在本发明实施例中,为方便用户根据语音识别结果和唇形识别结果得到最终的识别结果,本发明实施例中通过构建搜索树,以方便用户进行搜索,可提高识别速度,节省系统资源,且搜索树具有可扩展性,可方便用户根据实际需要对该搜索树进行扩展。
具体的,首先基于普通话对应的语音特征与目标音节之间的映射表创建普通话搜索树;然后分别构建各方言到所述普通话之间的音节映射表,并分别构建各方言和普通话对应的唇形特征与目标音节之间的唇形映射表;最终,根据音节映射表扩展普通话搜索树得到预设语音搜索树,并根据唇形映射表创建预设唇形搜索树。当然,在具体实施例中,还可以分开构建多种搜索树,例如,可以根据方言种类单独构建如湘方言语音搜索树、赣方言语音搜索树、湘方言唇形搜索树、赣方言唇形搜索树,从而在实际应用时,如果通过获取用户信息得知用户为湖南人时,则可以只通过湘方言语音搜索树、湘方言唇形搜索树来进行识别搜索,可进一步提高识别速度和搜索速度。
本发明还提供一种语音识别装置,该语音识别装置包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的语音识别程序,所述语音识别程序被所述处理器执行时实现如以上任一项实施例所述的语音识别方法的步骤。
本发明语音识别装置的具体实施例与上述语音识别方法各实施例基本相同,在此不作赘述。
本发明还提供一种计算机可读存储介质。
本发明计算机可读存储介质上存储有语音识别程序,所述语音识别程序被处理器执行时实现如以上任一项实施例所述的语音识别方法的步骤。
本发明计算机可读存储介质的具体实施例与上述视频播放方法各实施例基本相同,在此不作赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种语音识别方法,其特征在于,所述语音识别方法包括如下步骤:
获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
2.如权利要求1所述的语音识别方法,其特征在于,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,包括:
分别采集通过不同方言和普通话朗读目标音节时的第二语音数据,其中所述方言包括官话方言、吴方言、湘方言、客家方言、闽方言、粤方言和赣方言;
对所述第二语音数据进行预处理,并提取经预处理后的第二语音数据的语音特征;
根据所述语音特征,通过迭代算法计算出语音识别模型的最优模型参数,并根据所述语音识别模型的最优模型参数得到所述训练好的语音识别模型。
3.如权利要求2所述的语音识别方法,其特征在于,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,还包括:
在采集所述第二语音数据的同时采集对应的第二唇形视频;
通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征;
根据所述唇形特征,通过所述迭代算法计算出唇形识别模型的最优模型参数,并根据所述唇形识别模型的最优模型参数得到所述训练好的唇形识别模型。
4.如权利要求3中所述的语音识别方法,其特征在于,所述通过图像识别方法对所述第二唇形视频进行分析,获得唇形特征的步骤,包括:
从所述第二唇形视频中获取对应的第二唇形图像序列,并对所述第二唇形图像序列进行预处理;
通过图像识别方法识别出经预处理后的第二唇形图像序列中的唇部区域,并提取所述唇部区域的唇形特征。
5.如权利要求3中所述的语音识别方法,其特征在于,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,还包括:
基于所述普通话对应的语音特征与所述目标音节之间的映射表创建普通话搜索树;
分别构建各方言到所述普通话之间的音节映射表,并分别构建各方言和所述普通话对应的唇形特征与所述目标音节之间的唇形映射表;
根据所述音节映射表扩展所述普通话搜索树得到所述预设语音搜索树,并根据所述唇形映射表创建所述预设唇形搜索树。
6.如权利要求1所述的语音识别方法,其特征在于,所述根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果的步骤,包括:
根据所述语音识别结果通过预设语音搜索树进行搜索得到语音搜索结果,并根据所述唇形识别结果通过预设唇形搜索树进行搜索得到唇形搜索结果;
根据所述语音搜索结果和唇形搜索结果得到对应的交集作为最终的识别结果。
7.如权利要求1所述的语音识别方法,其特征在于,所述获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节的步骤之前,包括:
当接收到用户触发的语音输入指令时,根据所述语音输入指令调用移动终端的麦克风和摄像头;
通过所述麦克风采集所述第一语音数据,并通过所述摄像头同步采集所述第一唇形视频。
8.如权利要求1所述的语音识别方法,其特征在于,所述通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母的步骤之后,还包括:
若否,则根据所述语音识别结果并通过所述预设语音搜索树进行搜索,得到最终的识别结果。
9.一种语音识别装置,其特征在于,所述语音识别装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的语音识别程序,所述语音识别程序被所述处理器执行时实现如下步骤:
获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音识别程序,所述语音识别程序被处理器执行时实现如下步骤:
获取用户输入的第一语音数据和对应的第一唇形视频,并对所述第一语音数据进行分割得到对应的音节,其中所述音节包括声母和韵母;
通过训练好的语音识别模型对所述声母和韵母进行识别,得到对应的语音识别结果,并检测所述语音识别结果中是否存在识别概率小于预设阈值的小概率声母和/或小概率韵母;
若是,在所述第一唇形视频中获取与所述小概率声母和/或小概率韵母对应的第一唇形图像序列,并通过训练好的唇形识别模型对所述第一唇形图像序列进行识别,得到对应的唇形识别结果;
根据所述语音识别结果和唇形识别结果并通过预设语音搜索树和预设唇形搜索树进行搜索,得到最终的识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711468728.7A CN107945789A (zh) | 2017-12-28 | 2017-12-28 | 语音识别方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711468728.7A CN107945789A (zh) | 2017-12-28 | 2017-12-28 | 语音识别方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107945789A true CN107945789A (zh) | 2018-04-20 |
Family
ID=61937888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711468728.7A Pending CN107945789A (zh) | 2017-12-28 | 2017-12-28 | 语音识别方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107945789A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087651A (zh) * | 2018-09-05 | 2018-12-25 | 广州势必可赢网络科技有限公司 | 一种基于视频与语谱图的声纹鉴定方法、系统及设备 |
CN109147762A (zh) * | 2018-10-19 | 2019-01-04 | 广东小天才科技有限公司 | 一种语音识别方法及系统 |
CN109471953A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 一种语音数据检索方法及终端设备 |
CN109670148A (zh) * | 2018-09-26 | 2019-04-23 | 平安科技(深圳)有限公司 | 基于语音识别的催收辅助方法、装置、设备和存储介质 |
CN109670166A (zh) * | 2018-09-26 | 2019-04-23 | 平安科技(深圳)有限公司 | 基于语音识别的催收辅助方法、装置、设备和存储介质 |
CN109872714A (zh) * | 2019-01-25 | 2019-06-11 | 广州富港万嘉智能科技有限公司 | 一种提高语音识别准确性的方法、电子设备及存储介质 |
CN109961789A (zh) * | 2019-04-30 | 2019-07-02 | 张玄武 | 一种基于视频及语音交互服务设备 |
CN110019741A (zh) * | 2018-06-01 | 2019-07-16 | 中国平安人寿保险股份有限公司 | 问答系统答案匹配方法、装置、设备及可读存储介质 |
CN110211565A (zh) * | 2019-05-06 | 2019-09-06 | 平安科技(深圳)有限公司 | 方言识别方法、装置及计算机可读存储介质 |
TWI679632B (zh) * | 2018-05-09 | 2019-12-11 | 和碩聯合科技股份有限公司 | 語音偵測方法以及語音偵測裝置 |
CN110765868A (zh) * | 2019-09-18 | 2020-02-07 | 平安科技(深圳)有限公司 | 唇读模型的生成方法、装置、设备及存储介质 |
CN111370020A (zh) * | 2020-02-04 | 2020-07-03 | 清华珠三角研究院 | 一种将语音转换成唇形的方法、系统、装置和存储介质 |
CN111374819A (zh) * | 2020-03-16 | 2020-07-07 | 深圳市值米科技有限公司 | 止鼾器及其鼾声识别方法、鼾声识别装置和存储介质 |
CN111445912A (zh) * | 2020-04-03 | 2020-07-24 | 深圳市阿尔垎智能科技有限公司 | 语音处理方法和系统 |
CN111462733A (zh) * | 2020-03-31 | 2020-07-28 | 科大讯飞股份有限公司 | 多模态语音识别模型训练方法、装置、设备及存储介质 |
CN112382277A (zh) * | 2021-01-07 | 2021-02-19 | 博智安全科技股份有限公司 | 智能设备唤醒方法、智能设备和计算机可读存储介质 |
CN112565885A (zh) * | 2020-11-30 | 2021-03-26 | 清华珠三角研究院 | 一种视频分割方法、系统、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1412741A (zh) * | 2002-12-13 | 2003-04-23 | 郑方 | 带方言背景的汉语语音识别方法 |
CN101101752A (zh) * | 2007-07-19 | 2008-01-09 | 华中科技大学 | 基于视觉特征的单音节语言唇读识别系统 |
CN102324035A (zh) * | 2011-08-19 | 2012-01-18 | 广东好帮手电子科技股份有限公司 | 口型辅助语音识别术在车载导航中应用的方法及系统 |
CN102693723A (zh) * | 2012-04-01 | 2012-09-26 | 北京安慧音通科技有限责任公司 | 一种基于子空间的非特定人孤立词识别方法及装置 |
US20130054240A1 (en) * | 2011-08-25 | 2013-02-28 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing voice by using lip image |
CN103092329A (zh) * | 2011-10-31 | 2013-05-08 | 南开大学 | 一种基于唇读技术的唇语输入方法 |
KR20160028868A (ko) * | 2014-09-04 | 2016-03-14 | 이규원 | 안면부 영상 인식 및 외부 입력 장비를 이용한 음성 합성 시스템 및 음성 합성 방법 |
CN105551483A (zh) * | 2015-12-11 | 2016-05-04 | 百度在线网络技术(北京)有限公司 | 语音识别的建模方法和装置 |
CN106157956A (zh) * | 2015-03-24 | 2016-11-23 | 中兴通讯股份有限公司 | 语音识别的方法及装置 |
CN106548775A (zh) * | 2017-01-10 | 2017-03-29 | 上海优同科技有限公司 | 一种语音识别方法和系统 |
-
2017
- 2017-12-28 CN CN201711468728.7A patent/CN107945789A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1412741A (zh) * | 2002-12-13 | 2003-04-23 | 郑方 | 带方言背景的汉语语音识别方法 |
CN101101752A (zh) * | 2007-07-19 | 2008-01-09 | 华中科技大学 | 基于视觉特征的单音节语言唇读识别系统 |
CN102324035A (zh) * | 2011-08-19 | 2012-01-18 | 广东好帮手电子科技股份有限公司 | 口型辅助语音识别术在车载导航中应用的方法及系统 |
US20130054240A1 (en) * | 2011-08-25 | 2013-02-28 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing voice by using lip image |
CN103092329A (zh) * | 2011-10-31 | 2013-05-08 | 南开大学 | 一种基于唇读技术的唇语输入方法 |
CN102693723A (zh) * | 2012-04-01 | 2012-09-26 | 北京安慧音通科技有限责任公司 | 一种基于子空间的非特定人孤立词识别方法及装置 |
KR20160028868A (ko) * | 2014-09-04 | 2016-03-14 | 이규원 | 안면부 영상 인식 및 외부 입력 장비를 이용한 음성 합성 시스템 및 음성 합성 방법 |
CN106157956A (zh) * | 2015-03-24 | 2016-11-23 | 中兴通讯股份有限公司 | 语音识别的方法及装置 |
CN105551483A (zh) * | 2015-12-11 | 2016-05-04 | 百度在线网络技术(北京)有限公司 | 语音识别的建模方法和装置 |
CN106548775A (zh) * | 2017-01-10 | 2017-03-29 | 上海优同科技有限公司 | 一种语音识别方法和系统 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI679632B (zh) * | 2018-05-09 | 2019-12-11 | 和碩聯合科技股份有限公司 | 語音偵測方法以及語音偵測裝置 |
CN110019741B (zh) * | 2018-06-01 | 2023-11-14 | 中国平安人寿保险股份有限公司 | 问答系统答案匹配方法、装置、设备及可读存储介质 |
CN110019741A (zh) * | 2018-06-01 | 2019-07-16 | 中国平安人寿保险股份有限公司 | 问答系统答案匹配方法、装置、设备及可读存储介质 |
CN109087651A (zh) * | 2018-09-05 | 2018-12-25 | 广州势必可赢网络科技有限公司 | 一种基于视频与语谱图的声纹鉴定方法、系统及设备 |
CN109670148A (zh) * | 2018-09-26 | 2019-04-23 | 平安科技(深圳)有限公司 | 基于语音识别的催收辅助方法、装置、设备和存储介质 |
CN109670166A (zh) * | 2018-09-26 | 2019-04-23 | 平安科技(深圳)有限公司 | 基于语音识别的催收辅助方法、装置、设备和存储介质 |
CN109471953A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 一种语音数据检索方法及终端设备 |
CN109147762A (zh) * | 2018-10-19 | 2019-01-04 | 广东小天才科技有限公司 | 一种语音识别方法及系统 |
CN109872714A (zh) * | 2019-01-25 | 2019-06-11 | 广州富港万嘉智能科技有限公司 | 一种提高语音识别准确性的方法、电子设备及存储介质 |
CN109961789A (zh) * | 2019-04-30 | 2019-07-02 | 张玄武 | 一种基于视频及语音交互服务设备 |
CN109961789B (zh) * | 2019-04-30 | 2023-12-01 | 张玄武 | 一种基于视频及语音交互服务设备 |
CN110211565A (zh) * | 2019-05-06 | 2019-09-06 | 平安科技(深圳)有限公司 | 方言识别方法、装置及计算机可读存储介质 |
CN110765868A (zh) * | 2019-09-18 | 2020-02-07 | 平安科技(深圳)有限公司 | 唇读模型的生成方法、装置、设备及存储介质 |
CN111370020B (zh) * | 2020-02-04 | 2023-02-14 | 清华珠三角研究院 | 一种将语音转换成唇形的方法、系统、装置和存储介质 |
CN111370020A (zh) * | 2020-02-04 | 2020-07-03 | 清华珠三角研究院 | 一种将语音转换成唇形的方法、系统、装置和存储介质 |
CN111374819B (zh) * | 2020-03-16 | 2021-12-17 | 深圳市值米科技有限公司 | 止鼾器及其鼾声识别方法、鼾声识别装置和存储介质 |
CN111374819A (zh) * | 2020-03-16 | 2020-07-07 | 深圳市值米科技有限公司 | 止鼾器及其鼾声识别方法、鼾声识别装置和存储介质 |
CN111462733A (zh) * | 2020-03-31 | 2020-07-28 | 科大讯飞股份有限公司 | 多模态语音识别模型训练方法、装置、设备及存储介质 |
CN111462733B (zh) * | 2020-03-31 | 2024-04-16 | 科大讯飞股份有限公司 | 多模态语音识别模型训练方法、装置、设备及存储介质 |
CN111445912A (zh) * | 2020-04-03 | 2020-07-24 | 深圳市阿尔垎智能科技有限公司 | 语音处理方法和系统 |
CN112565885A (zh) * | 2020-11-30 | 2021-03-26 | 清华珠三角研究院 | 一种视频分割方法、系统、设备及存储介质 |
CN112565885B (zh) * | 2020-11-30 | 2023-01-06 | 清华珠三角研究院 | 一种视频分割方法、系统、设备及存储介质 |
CN112382277A (zh) * | 2021-01-07 | 2021-02-19 | 博智安全科技股份有限公司 | 智能设备唤醒方法、智能设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945789A (zh) | 语音识别方法、装置及计算机可读存储介质 | |
CN110288077B (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
WO2021036644A1 (zh) | 一种基于人工智能的语音驱动动画方法和装置 | |
US10956771B2 (en) | Image recognition method, terminal, and storage medium | |
US9396724B2 (en) | Method and apparatus for building a language model | |
WO2014190732A1 (en) | Method and apparatus for building a language model | |
US20160042228A1 (en) | Systems and methods for recognition and translation of gestures | |
CN107943860A (zh) | 模型的训练方法、文本意图的识别方法及装置 | |
CN110853617B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN107682536A (zh) | 一种语音控制方法、终端和计算机可读存储介质 | |
CN107632980A (zh) | 语音翻译方法和装置、用于语音翻译的装置 | |
CN107301865A (zh) | 一种用于语音输入中确定交互文本的方法和装置 | |
CN108268835A (zh) | 手语翻译方法、移动终端及计算机可读存储介质 | |
CN110570840B (zh) | 一种基于人工智能的智能设备唤醒方法和装置 | |
CN107093423A (zh) | 一种语音输入修正方法、装置及计算机可读存储介质 | |
CN109743504A (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
CN113129867B (zh) | 语音识别模型的训练方法、语音识别方法、装置和设备 | |
CN110223711A (zh) | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 | |
CN107704447A (zh) | 一种中文分词方法、中文分词装置和终端 | |
CN107291704A (zh) | 处理方法和装置、用于处理的装置 | |
CN113421547A (zh) | 一种语音处理方法及相关设备 | |
CN110111776A (zh) | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 | |
CN107274903A (zh) | 文本处理方法和装置、用于文本处理的装置 | |
CN108628819A (zh) | 处理方法和装置、用于处理的装置 | |
CN109302528A (zh) | 一种拍照方法、移动终端及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180420 |