CN109147762A - 一种语音识别方法及系统 - Google Patents

一种语音识别方法及系统 Download PDF

Info

Publication number
CN109147762A
CN109147762A CN201811224720.0A CN201811224720A CN109147762A CN 109147762 A CN109147762 A CN 109147762A CN 201811224720 A CN201811224720 A CN 201811224720A CN 109147762 A CN109147762 A CN 109147762A
Authority
CN
China
Prior art keywords
identified
mapping table
voice messaging
mixed
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811224720.0A
Other languages
English (en)
Inventor
魏誉荧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Genius Technology Co Ltd
Original Assignee
Guangdong Genius Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Genius Technology Co Ltd filed Critical Guangdong Genius Technology Co Ltd
Priority to CN201811224720.0A priority Critical patent/CN109147762A/zh
Publication of CN109147762A publication Critical patent/CN109147762A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)

Abstract

本发明属于语音识别领域,公开了一种语音识别方法及系统,其方法包括:根据不同地域的发音特点,建立发音词库;发音词库包括吞音词及拖音词;根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;获取待识别语音信息;根据待识别语音信息,识别出待识别语音信息对应的地域信息;根据地域信息、声韵母映射表和发音词库,对待识别语音信息进行校正;识别校正后的待识别语音信息,得到对应的文本信息。本发明根据建立的不同地域的声韵母混用的声韵母映射表和发音词库,对获取的语音信息进行声韵母校正和词语校正,从而提高语音识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。

Description

一种语音识别方法及系统
技术领域
本发明属于语音识别技术领域,特别涉及一种语音识别方法及系统。
背景技术
随着科学技术的发展,市面上出现了电子设备,例如手机、平板电脑、学习平板等,帮助学生解决作业中遇到的问题。目前,大部分的学习设备都是基于语音识别来了解学生的意图,以便对学生进行学习辅导。
语音识别是一种利用机器模拟人类的识别和理解过程,把人类的语音信号转变为相应的文本或命令的技术。语音识别的根本目的是研究出一种具有听觉功能的机器,能直接接受人的语音,理解人的意图,并做出相应的反应。
但是,由于小学低年级学生存在发音不准,且存在部分口音和吐字不清楚的情况,导致语音识别产品在识别小学生的语音时,出现较低的识别率,使得学习设备并不能很好的了解学生的真实意图,导致推荐的相关学习内容或解答并不是学生所需的,从而使得用户体验感较差。
发明内容
本发明的目的是提供一种语音识别方法及系统,实现提高语音识别率的目的。
本发明提供的技术方案如下:
第一方面,提供一种语音识别方法,包括:
根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
获取待识别语音信息;
根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
识别校正后的待识别语音信息,得到对应的文本信息。
优选地,所述的获取待识别语音信息之前还包括:
搜集不同地域的用户语音信息;
根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
所述的根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息具体包括:
提取出所述待识别语音信息中的语音特征;
根据提取出的语音特征,查找到对应的地域语音特征库;
根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息。
优选地,所述语音特征包括语调、语速或声调中的一种或多种。
优选地,所述的根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表具体包括:
根据地域信息,按地域对声母混用及韵母混用进行分类;
建立混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
优选地,所述的获取待识别语音信息之后还包括:
根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
优选地,所述的根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正具体包括:
根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
所述的识别校正后的待识别语音信息,得到对应的文本信息具体包括:
对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息。
第二方面,还提供一种语音识别系统,包括:
词库建立模块,用于根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
声韵母映射表建立模块,用于根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
语音获取模块,用于获取待识别语音信息;
地域识别模块,用于根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
语音校正模块,用于根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
语音识别模块,用于识别校正后的待识别语音信息,得到对应的文本信息。
优选地,还包括:
语音搜集模块,用于搜集不同地域的用户语音信息;
地域映射表建立模块,用于根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
所述地域识别模块包括:
语音特征提取单元,用于提取出所述待识别语音信息中的语音特征;
特征库查找单元,用于根据提取出的语音特征,查找到对应的地域语音特征库;
地域查找单元,用于根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息。
优选地,所述声韵母映射表建立模块包括:
分类单元,用于根据地域信息,按地域对声母混用及韵母混用进行分类;
映射关系建立单元,用于建立混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
声韵母映射表建立单元,用于根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
优选地,所述语音校正模块包括:
声韵母映射表查找单元,用于根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
声韵母校正单元,用于根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
词语校正单元,用于根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
所述语音识别模块包括:
语音识别单元,用于对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息。
与现有技术相比,本发明提供的一种语音识别方法及系统具有以下有益效果:
1、本发明根据建立的不同地域的声韵母混用的声韵母映射表和发音词库,对获取的语音信息进行声韵母校正和词语校正,从而提高语音识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。
2、本发明通过获取的待识别语音信息中的语调、语速或声调,查找用户所属地域信息,由于不同地域的人,说同一句话时,其说话的语调、语速、声调等基本不会完全相同,存在一定的差别,因此,通过待识别语音信息中的这些语音特征,即可准确的查找到用户的所属地域信息,从而可提高语音的校正率。
3、本发明通过获取的待识别语音信息,更新声韵母映射表,可针对用户进行个性化的语音校正,从而提高语音识别的准确率。
4、本发明先根据声韵母映射表,对待识别语音信息中的混用声母及混用韵母进行校正,使得待识别语音中的发音变得更标准,能更准确的识别出待识别语音中的字词,以便更好的进行吞音及拖音的校正,从而提高语音的识别准确率。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对一种语音识别方法及系统的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明一种语音识别方法的第一实施例的流程示意图;
图2是本发明一种语音识别方法的第二实施例的流程示意图;
图3是本发明一种语音识别方法的第三实施例的流程示意图;
图4是本发明一种语音识别方法的第四实施例的流程示意图;
图5是本发明一种语音识别方法的第五实施例的流程示意图;
图6是本发明一种语音识别方法的第六实施例的流程示意图;
图7是本发明一种语音识别系统的一个实施例的结构示意框图;
图8是本发明一种语音识别系统的另一个实施例的结构示意框图。
附图标号说明:
1、语音搜集模块;2、地域映射表建立模块;10、词库建立模块;20、声韵母映射表建立模块;21、分类单元;22、映射关系建立单元;23、声韵母映射表建立单元;30、语音获取模块;40、地域识别模块;41、语音特征提取单元;42、特征库查找单元;43、地域查找单元;50、语音校正模块;51、声韵母映射表查找单元;52、声韵母校正单元;53、词语校正单元;60、语音识别模块;61、语音识别单元;70、映射关系更新模块;80、声韵母映射表更新模块。
具体实施方式
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
为使图面简洁,各图中只示意性地表示出了与本发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”不仅表示“仅此一个”,也可以表示“多于一个”的情形。
根据本发明提供的第一实施例,如图1所示,一种语音识别方法,包括:
S10根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
具体地,人在说话时,由于地域和习惯等的原因,经常会出现吞音及拖音等情况,吞音是由于某些音节快速拼读而产生吞咽的现象;拖音是说话时拖长音的现象。当语音中出现吞音及拖音时,会影响语音的识别率,因此,本发明先根据不同地域的发音特点,建立发音词库,发音词库中包括吞音词与吞音词对应的标准词及拖音词与拖音词对应的标准词等。
本实施例中,除了可根据不同地域的发音特点,建立发音词库外,还可根据特定人群的发音特定建立发音词库,如根据小学生的发音特点,建立发音词库,以提高对小学生的语音识别的准确率。
S20根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域对声母混用及韵母混用的情况不同,因此需要建立不同地域的声母混用及韵母混用的声韵母映射表。
建立不同地域的声母混用及韵母混用的声韵母映射表后,根据用户的地域信息,即可准确的对用户输入的语音进行校正,从而提高语音识别的准确率。
S30获取待识别语音信息;
S40根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
具体地,获取到待识别语音信息后,可根据待识别语音信息中包含的语音特征信息,如语调、声调等,识别出用户的地域信息。
S50根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
具体地,识别出用户的地域信息后,根据用户的地域信息,查找到对应的声韵母映射表,然后根据对应的声韵母映射表和发音词库对待识别语音信息进行校正。
例如,用户想说的是“知乎”,但由于发音错误,会将“知乎zhihu”说成“资乎zihu”,当识别出用户的地域信息后,我们即可根据对应的声韵母映射表,将错误的发音“资乎zihu”校正为正确的发音“知乎zhihu”。
S60识别校正后的待识别语音信息,得到对应的文本信息。
具体地,根据声韵母映射表和发音词库对待识别语音信息进行校正后,即可识别出对应的文本信息。
本实施例中,在执行以上步骤过程中,其中,可以是先执行步骤S10,再执行步骤S20;也可以是先执行步骤S20,再执行步骤S10;还可以是同时执行步骤S10、S20。
本实施例中,先建立不同地域的声母混用及韵母混用的声韵母映射表后,当获取到待识别语音信息时,先根据待识别语音信息识别出用户的地域信息,然后根据地域信息,查找到对应的声韵母映射表,最后根据声韵母映射表和发音词库对待识别语音信息进行校正,校正后,再对待识别语音信息进行识别,可提高语音识别的准确率,以便更准确的了解用户的真实意图,更好地为用户服务,提高用户的使用体验。
根据本发明提供的第二实施例,如图2所示,一种语音识别方法,包括:
S01搜集不同地域的用户语音信息;
S02根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
具体地,不同地域的人,在说同一句话时,其说话的语调、语速和声调等不会完全相同,存在一定的差异性。为了快速准确的识别出待识别语音信息对应的地域信息,需要先搜集各个地区的用户语音信息,然后提取出不同地域的语音特征,将不同地域的语音特征存放在不同地域的语音特征库中,以建立不同地域各自对应的地域语音特征库,并建立地域语音特征库与对应的地域之间的地域映射表。
优选地,语音特征包括语调、语速或声调中的一种或多种。
一个地域的地域语音特征库中可包含语调、语速和声调中的一种或多种,语调可具有一种或多种,语速也可具有一种或多种、声调也可具有一种或多种。
S10根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
S20根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
S30获取待识别语音信息;
S41提取出所述待识别语音信息中的语音特征;
S42根据提取出的语音特征,查找到对应的地域语音特征库;
S43根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息。
具体地,在获取待识别语音信息之前建立地域语音特征库后,当获取到用户的待识别语音信息时,从待识别语音信息中提取出对应的语音特征,然后根据提取出的语音特征与不同地域的地域语音特征库进行比对,以查找到对应的地域语音特征库。
查找到对应的地域语音特征库后,即可根据地域映射表查找到对应的地域信息。
S50根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
S60识别校正后的待识别语音信息,得到对应的文本信息。
本实施例中,在执行以上步骤过程中,其中,步骤S01、S10、S20之间的顺序可互换,即其执行步骤可以是S01、S02、S10、S20,也可以是S01、S02、S20、S10,也可以是S10、S20、S01、S02;也可以是S10、S01、S02、S20,也可以是S20、S10、S01、S02,也可以是S20、S01、S02、S10,还可以是同时执行步骤S10、S20、S01。
由于不同地域的人,说同一句话时,其说话的语调、语速、声调等基本不会完全相同,存在一定的差别;因此,本实施例通过获取的待识别语音信息中的语调、语速或声调,查找用户所属地域信息,即可准确的查找到用户的所属地域信息,从而可提高语音的校正率。
本实施例通过获取的待识别语音信息中的语调、语速或声调,查找用户所属地域信息,由于不同地域的人,说同一句话时,其说话的语调、语速、声调等基本不会完全相同,存在一定的差别,因此,通过待识别语音信息中的这些语音特征,即可准确的查找到用户的所属地域信息,从而可提高语音的校正率。
根据本发明提供的第三实施例,如图3所示,一种语音识别方法,包括:
S10根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
S21根据地域信息,按地域对声母混用及韵母混用进行分类;
具体地,由于不同地域,声母混用及韵母混用的情况不同,因此先按地域对声母混用及韵母混用的情况进行分类。
例如,湖北人存在l和n混用、z和zh混用、s和sh混用、c和ch混用等声母混用情况;并存在an和ang混用、en和eng混用、in和ing混用等韵母混用情况。而福建人则存在h和f混用的声母混用情况。
S22建立混用声母与对应声母之间的映射关系,以及韵母混用的混用韵母与对应韵母之间的映射关系;
具体地,按地域对声母混用及韵母混用的情况进行分类后,建立混用声母与混用声母对应的声母之间的映射关系,建立混用韵母与混用韵母对应的韵母之间的映射关系,如建立l与n之间的映射关系,建立z与zh之间的映射关系,同理,建立an与ang之间的映射关系,建立en与eng之间的映射关系等。
S23根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表;
具体地,建立声母混用和韵母混用的的映射关系后,根据声母混用的映射关系和韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
S30获取待识别语音信息;
S40根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
S50根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
S60识别校正后的待识别语音信息,得到对应的文本信息。
根据本发明提供的第四实施例,如图4所示,一种语音识别方法,包括:
S10根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
S20根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
S30获取待识别语音信息;
S40根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
S50根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
S60识别校正后的待识别语音信息,得到对应的文本信息;
S70根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
具体地,获取到待识别语音信息后,根据待识别语音信息中包含的发音,对混用声母与对应声母之间的映射关系进行更新,并对混用韵母与对应韵母之间的映射关系进行更新。
由于,最先开始建立的混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系都是根据不同地域的普遍特点建立的,但是,当用户从之前居住的地域移居到其他地域且居住较长时间后,其会受当地发音的影响,使其混用声母和混用韵母的情况发生一定程度的变化,此时,不能再以根据地域的普遍特点而建立的声韵母映射关系表对待识别语音进行校正,而需要对混用声母与对应声母之间的映射关系、以及混用韵母与对应韵母之间的映射关系进行更新,以便对用户进行个性化的语言校正,从而提高语言识别的准确率。
例如,用户之前的经常居住地在南方,其存在z和zh、s和sh、c和ch混用的情况,后面移居到北方,由于北方的发音相比于南方更为标准,当用户在北方居住一段时间后,其可能对z和zh、s和sh、c和ch不再混用了,此时,我们可以针对该用户,对声韵母映射表进行更新。至于如何判断用户是否对某个声母或韵母不再混用了,我们可以根据获取到的待识别语音信息进行判断,如用户不再将“知乎zhihu”说成“资乎zihu”了,也不再将zh说成z了。
由于用户的发音具有偶然性,在对声韵母映射表进行更新时,不能根据一次获取的待识别语音信息即对声韵母映射表进行更新,而需要根据一段时间内获取的待识别语音信息综合分析后,对声韵母映射表进行更新,防止因用户的发音偶然性而导致声韵母映射表更新后,影响待识别语音信息的校正,从而影响语音的识别准确率。
S80根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
本实施例中,通过获取的待识别语音信息,更新声韵母映射表,可针对用户进行个性化的语音校正,从而提高语音识别的准确率。
根据本发明提供的第五实施例,如图5所示,一种语音识别方法,包括:
S10根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
S20根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
S30获取待识别语音信息;
S40根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
S51根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
具体地,识别出用户的地域信息后,即可根据用户的地域信息,查找到地域信息对应的声韵母映射表。
S52根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
具体地,查找到对应的声韵母映射表后,根据声韵母映射表中混用声母与对应声母的映射关系,以及混用韵母与对应韵母之间的映射关系对待识别语音信息中的相关声母及韵母进行校正。
例如,待识别语音信息为“liulai”,根据声韵母映射表将“liulai”校正为“niunai牛奶”。
S53根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
具体地,进行声韵母校正后,根据发音词库,对待识别语音信息中的相关词语进行校正。当用户对某些音节快速拼读则会产生吞咽现象,即造成丢音,造成口齿不清,影响语音识别。
例如,把“天安门”三个字读快,则会听起来像“天门”,即造成吞咽现象,此时需要对吞音现象进行校正,将“天门”校正为“天安门”,当然对吞音及拖音现象的校正,不能仅仅依靠发音词库,还需要根据待识别语音中的上下文语义进行校正,语义的理解可利用神经网络模型等进行理解。
S61对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息。
本实施例中,先根据声韵母映射表,对待识别语音信息中的混用声母及混用韵母进行校正,使得待识别语音中的发音变得更标准,能更准确的识别出待识别语音中的字词,以便更好的进行吞音及拖音的校正,从而提高语音的识别准确率。
根据本发明提供的第六实施例,如图6所示,一种语音识别方法,包括:
S01搜集不同地域的用户语音信息;
S02根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
S10根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
S21根据地域信息,按地域对声母混用及韵母混用进行分类;
S22建立混用声母与对应声母之间的映射关系,以及韵母混用的混用韵母与对应韵母之间的映射关系;
S23根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表;
S30获取待识别语音信息;
S41提取出所述待识别语音信息中的语音特征;
S42根据提取出的语音特征,查找到对应的地域语音特征库;
S43根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息;
S51根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
S52根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
S53根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
S61对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息;
S70根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
S80根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
本实施例中的各个步骤的具体描述已经在上述对应的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本发明提供的第七实施例,如图7所示,一种语音识别系统,包括:
词库建立模块10,根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
具体地,人在说话时,由于地域和习惯等的原因,经常会出现吞音及拖音等情况,吞音是由于某些音节快速拼读而产生吞咽的现象;拖音是说话时拖长音的现象。当语音中出现吞音及拖音时,会影响语音的识别率,因此,本发明的词库建立模块10根据不同地域的发音特点,建立发音词库,发音词库中包括吞音词与吞音词对应的标准词及拖音词与拖音词对应的标准词等。
本实施例中,词库建立模块10除了可根据不同地域的发音特点,建立发音词库外,还可根据特定人群的发音特定建立发音词库,如根据小学生的发音特点,建立发音词库,以提高对小学生的语音识别的准确率。
声韵母映射表建立模块20,用于根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域对声母混用及韵母混用的情况不同,因此通过声韵母映射表建立模块20建立不同地域的声母混用及韵母混用的声韵母映射表。
建立不同地域的声母混用及韵母混用的声韵母映射表后,根据用户的地域信息,即可准确的对用户输入的语音进行校正,从而提高语音识别的准确率。
语音获取模块30,用于获取待识别语音信息;
地域识别模块40,用于根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
具体地,语音获取模块30获取到待识别语音信息后,地域识别模块40可根据待识别语音信息中包含的语音特征信息,如语调、声调等,识别出用户的地域信息。
语音校正模块50,用于根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
具体地,识别出用户的地域信息后,语音校正模块50根据用户的地域信息,查找到对应的声韵母映射表,然后根据对应的声韵母映射表和发音词库对待识别语音信息进行校正。
例如,用户想说的是“知乎”,但由于发音错误,会将“知乎zhihu”说成“资乎zihu”,当识别出用户的地域信息后,我们即可根据对应的声韵母映射表,将错误的发音“资乎zihu”校正为正确的发音“知乎zhihu”。
语音识别模块60,用于识别校正后的待识别语音信息,得到对应的文本信息。
具体地,根据声韵母映射表和发音词库对待识别语音信息进行校正后,即可通过语音识别模块60识别出对应的文本信息。
本实施例中,先建立不同地域的声母混用及韵母混用的声韵母映射表后,当获取到待识别语音信息时,先根据待识别语音信息识别出用户的地域信息,然后根据地域信息,查找到对应的声韵母映射表,最后根据声韵母映射表和发音词库对待识别语音信息进行校正,校正后,再对待识别语音信息进行识别,可提高语音识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。
根据本发明提供的第八实施例,如图8所示,一种语音识别系统,包括:
词库建立模块10,根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
具体地,人在说话时,由于地域和习惯等的原因,经常会出现吞音及拖音等情况,吞音是由于某些音节快速拼读而产生吞咽的现象;拖音是说话时拖长音的现象。当语音中出现吞音及拖音时,会影响语音的识别率,因此,本发明的词库建立模块10根据不同地域的发音特点,建立发音词库,发音词库中包括吞音词与吞音词对应的标准词及拖音词与拖音词对应的标准词等。
本实施例中,词库建立模块10除了可根据不同地域的发音特点,建立发音词库外,还可根据特定人群的发音特定建立发音词库,如根据小学生的发音特点,建立发音词库,以提高对小学生的语音识别的准确率。
声韵母映射表建立模块20,用于根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
具体地,由于不同地域对声母混用及韵母混用的情况不同,因此需要通过声韵母映射表建立模块20建立不同地域的声母混用及韵母混用的声韵母映射表。
建立不同地域的声母混用及韵母混用的声韵母映射表后,根据用户的地域信息,即可准确的对用户输入的语音进行校正,从而提高语音识别的准确率。
语音获取模块30,用于获取待识别语音信息;
地域识别模块40,用于根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
具体地,语音获取模块30获取到待识别语音信息后,地域识别模块40可根据待识别语音信息中包含的语音特征信息,如语调、声调等,识别出用户的地域信息。
语音校正模块50,用于根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
具体地,识别出用户的地域信息后,语音校正模块50根据用户的地域信息,查找到对应的声韵母映射表,然后根据对应的声韵母映射表和发音词库对待识别语音信息进行校正。
例如,用户想说的是“知乎”,但由于发音错误,会将“知乎zhihu”说成“资乎zihu”,当识别出用户的地域信息后,我们即可根据对应的声韵母映射表,将错误的发音“资乎zihu”校正为正确的发音“知乎zhihu”。
语音识别模块60,用于识别校正后的待识别语音信息,得到对应的文本信息。
具体地,根据声韵母映射表和发音词库对待识别语音信息进行校正后,即可识别出对应的文本信息。
本实施例中,先建立不同地域的声母混用及韵母混用的声韵母映射表后,当获取到待识别语音信息时,先根据待识别语音信息识别出用户的地域信息,然后根据地域信息,查找到对应的声韵母映射表,最后根据声韵母映射表和发音词库对待识别语音信息进行校正,校正后,再对待识别语音信息进行识别,可提高语音识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。
优选地,语音识别系统还包括:
语音搜集模块1,用于搜集不同地域的用户语音信息;
地域映射表建立模块2,用于根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
具体地,不同地域的人,在说同一句话时,其说话的语调、语速和声调等不会完全相同,存在一定的差异性。为了快速准确的识别出待识别语音信息对应的地域信息,需要先搜集各个地区的用户语音信息,然后提取出不同地域的语音特征,将不同地域的语音特征存放在不同地域的语音特征库中,以建立不同地域各自对应的地域语音特征库,并建立地域语音特征库与对应的地域之间的地域映射表。
优选地,本实施例中的,语音特征包括语调、语速或声调中的一种或多种。
优选地,地域识别模块40包括:
语音特征提取单元41,用于提取出所述待识别语音信息中的语音特征;
特征库查找单元42,用于根据提取出的语音特征,查找到对应的地域语音特征库;
地域查找单元43,用于根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息。
在获取待识别语音信息之前建立地域语音特征库后,当获取到用户的待识别语音信息时,语音特征提取单元41从待识别语音信息中提取出对应的语音特征,然后特征库查找单元42根据提取出的语音特征与不同地域的地域语音特征库进行比对,以查找到对应的地域语音特征库。
查找到对应的地域语音特征库后,地域查找单元43即可根据地域映射表查找到对应的地域信息。
由于不同地域的人,说同一句话时,其说话的语调、语速、声调等基本不会完全相同,存在一定的差别;因此,本实施例通过获取的待识别语音信息中的语调、语速或声调,查找用户所属地域信息,即可准确的查找到用户的所属地域信息,从而可提高语音的校正率。
通过获取的待识别语音信息中的语调、语速或声调,查找用户所属地域信息,由于不同地域的人,说同一句话时,其说话的语调、语速、声调等基本不会完全相同,存在一定的差别,因此,通过待识别语音信息中的这些语音特征,即可准确的查找到用户的所属地域信息,从而可提高语音的校正率。
优选地,声韵母映射表建立模块20包括:
分类单元21,用于根据地域信息,按地域对声母混用及韵母混用进行分类;
具体地,由于不同地域,声母混用及韵母混用的情况不同,因此先按地域对声母混用及韵母混用的情况进行分类。
例如,湖北人存在l和n混用、z和zh混用、s和sh混用、c和ch混用等声母混用情况;并存在an和ang混用、en和eng混用、in和ing混用等韵母混用情况。而福建人则存在h和f混用的声母混用情况。
映射关系建立单元22,用于建立混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
具体地,分类单元21按地域对声母混用及韵母混用的情况进行分类后,映射关系建立单元22建立混用声母与混用声母对应的声母之间的映射关系,建立混用韵母与混用韵母对应的韵母之间的映射关系,如建立l与n之间的映射关系,建立z与zh之间的映射关系,同理,建立an与ang之间的映射关系,建立en与eng之间的映射关系等。
声韵母映射表建立单元23,用于根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
具体地,建立声母混用和韵母混用的的映射关系后,声韵母映射表建立单元23根据声母混用的映射关系和韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
优选地,语音校正模块50包括:
声韵母映射表查找单元51,用于根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
具体地,识别出用户的地域信息后,声韵母映射表查找单元51即可根据用户的地域信息,查找到地域信息对应的声韵母映射表。
声韵母校正单元52,用于根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
具体地,查找到对应的声韵母映射表后,声韵母校正单元52根据声韵母映射表中混用声母与对应声母的映射关系,以及混用韵母与对应韵母之间的映射关系对待识别语音信息中的相关声母及韵母进行校正。
例如,待识别语音信息为“liulai”,根据声韵母映射表将“liulai”校正为“niunai牛奶”。
词语校正单元53,用于根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
具体地,进行声韵母校正后,词语校正单元53根据发音词库,对待识别语音信息中的相关词语进行校正。当用户对某些音节快速拼读则会产生吞咽现象,即造成丢音,造成口齿不清,影响语音识别。
例如,把“天安门”三个字读快,则会听起来像“天门”,即造成吞咽现象,此时需要对吞音现象进行校正,将“天门”校正为“天安门”,当然对吞音及拖音现象的校正,不能仅仅依靠发音词库,还需要根据待识别语音中的上下文语义进行校正,语义的理解可利用神经网络模型等进行理解。
先根据声韵母映射表,对待识别语音信息中的混用声母及混用韵母进行校正,使得待识别语音中的发音变得更标准,能更准确的识别出待识别语音中的字词,。以便更好的进行吞音及拖音的校正,从而提高语音的识别准确率。
语音识别模块60包括:
语音识别单元61,用于对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息。
优选地,语音识别系统还包括:
映射关系更新模块70,用于根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
具体地,获取到待识别语音信息后,根据待识别语音信息中包含的发音,对混用声母与对应声母之间的映射关系进行更新,并对混用韵母与对应韵母之间的映射关系进行更新。
由于,最先开始建立的混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系都是根据不同地域的普遍特点建立的,但是,当用户从之前居住的地域移居到其他地域且居住较长时间后,其会受当地发音的影响,使其混用声母和混用韵母的情况发生一定程度的变化,此时,不能再以根据地域的普遍特点而建立的声韵母映射关系表对待识别语音进行校正,而需要对混用声母与对应声母之间的映射关系、以及混用韵母与对应韵母之间的映射关系进行更新,以便对用户进行个性化的语言校正,从而提高语言识别的准确率。
例如,用户之前的经常居住地在南方,其存在z和zh、s和sh、c和ch混用的情况,后面移居到北方,由于北方的发音相比于南方更为标准,当用户在北方居住一段时间后,其可能对z和zh、s和sh、c和ch不再混用了,此时,我们可以针对该用户,对声韵母映射表进行更新。至于如何判断用户是否对某个声母或韵母不再混用了,我们可以根据获取到的待识别语音信息进行判断,如用户不再将“知乎zhihu”说成“资乎zihu”了,也不再将zh说成z了。
由于用户的发音具有偶然性,在对声韵母映射表进行更新时,不能根据一次获取的待识别语音信息即对声韵母映射表进行更新,而需要根据一段时间内获取的待识别语音信息综合分析后,对声韵母映射表进行更新,防止因用户的发音偶然性而导致声韵母映射表更新后,影响待识别语音信息的校正,从而影响语音的识别准确率。
声韵母映射表更新模块80,用于根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
本实施例根据建立的不同地域的声韵母混用的声韵母映射表和发音词库,对获取的语音信息进行声韵母校正和词语校正,从而提高语音识别的准确率,以便更准确的了解用户的真实意图,更好的为用户服务,提高用户的使用体验。
本实施例通过获取的待识别语音信息中的语调、语速或声调,查找用户所属地域信息,由于不同地域的人,说同一句话时,其说话的语调、语速、声调等基本不会完全相同,存在一定的差别,因此,通过待识别语音信息中的这些语音特征,即可准确的查找到用户的所属地域信息,从而可提高语音的校正率。
本实施例通过获取的待识别语音信息,更新声韵母映射表,可针对用户进行个性化的语音校正,从而提高语音识别的准确率。
本实施例先根据声韵母映射表,对待识别语音信息中的混用声母及混用韵母进行校正,使得待识别语音中的发音变得更标准,能更准确的识别出待识别语音中的字词。以便更好的进行吞音及拖音的校正,从而提高语音的识别准确率。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种语音识别方法,其特征在于,包括:
根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
获取待识别语音信息;
根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
识别校正后的待识别语音信息,得到对应的文本信息。
2.根据权利要求1所述的一种语音识别方法,其特征在于,所述的获取待识别语音信息之前还包括:
搜集不同地域的用户语音信息;
根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
所述的根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息具体包括:
提取出所述待识别语音信息中的语音特征;
根据提取出的语音特征,查找到对应的地域语音特征库;
根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息。
3.根据权利要求2所述的一种语音识别方法,其特征在于,所述语音特征包括语调、语速或声调中的一种或多种。
4.根据权利要求1所述的一种语音识别方法,其特征在于,所述的根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表具体包括:
根据地域信息,按地域对声母混用及韵母混用进行分类;
建立混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
5.根据权利要求1所述的一种语音识别方法,其特征在于,所述的获取待识别语音信息之后还包括:
根据所述待识别语音信息,更新混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
根据更新后的声母映射关系以及韵母映射关系,更新所述声韵母映射表。
6.根据权利要求1-5任一项所述的一种语音识别方法,其特征在于,所述的根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正具体包括:
根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
所述的识别校正后的待识别语音信息,得到对应的文本信息具体包括:
对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息。
7.一种语音识别系统,其特征在于,包括:
词库建立模块,根据不同地域的发音特点,建立发音词库;所述发音词库包括吞音词及拖音词;
声韵母映射表建立模块,用于根据地域信息,建立不同地域的声母混用及韵母混用的声韵母映射表;
语音获取模块,用于获取待识别语音信息;
地域识别模块,用于根据所述待识别语音信息,识别出所述待识别语音信息对应的地域信息;
语音校正模块,用于根据所述地域信息、所述声韵母映射表和所述发音词库,对所述待识别语音信息进行校正;
语音识别模块,用于识别校正后的待识别语音信息,得到对应的文本信息。
8.根据权利要求7所述的一种语音识别系统,其特征在于,还包括:
语音搜集模块,用于搜集不同地域的用户语音信息;
地域映射表建立模块,用于根据所述不同地域的用户语音信息,建立不同地域各自对应的地域语音特征库,并建立所述地域语音特征库与对应的地域之间的地域映射表;
所述地域识别模块包括:
语音特征提取单元,用于提取出所述待识别语音信息中的语音特征;
特征库查找单元,用于根据提取出的语音特征,查找到对应的地域语音特征库;
地域查找单元,用于根据查找到的地域语音特征库,在所述地域映射表中查找到对应的地域信息。
9.根据权利要求7所述的一种语音识别系统,其特征在于,所述声韵母映射表建立模块包括:
分类单元,用于根据地域信息,按地域对声母混用及韵母混用进行分类;
映射关系建立单元,用于建立混用声母与对应声母之间的映射关系,以及混用韵母与对应韵母之间的映射关系;
声韵母映射表建立单元,用于根据所述声母混用的映射关系和所述韵母混用的映射关系,建立不同地域的声母混用及韵母混用的声韵母映射表。
10.根据权利要求7-9任一项所述的一种语音识别系统,其特征在于,所述语音校正模块包括:
声韵母映射表查找单元,用于根据所述地域信息,查找到所述地域信息对应的声韵母映射表;
声韵母校正单元,用于根据所述地域信息对应的声韵母映射表,对所述待识别语音信息中的相关声母及韵母进行校正;
词语校正单元,用于根据所述发音词库,对进行声母及韵母校正后的所述待识别语音信息中的相关词语进行校正;
所述语音识别模块包括:
语音识别单元,用于对进行词语校正后的待识别语音信息进行语音识别,得到对应的文本信息。
CN201811224720.0A 2018-10-19 2018-10-19 一种语音识别方法及系统 Pending CN109147762A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811224720.0A CN109147762A (zh) 2018-10-19 2018-10-19 一种语音识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811224720.0A CN109147762A (zh) 2018-10-19 2018-10-19 一种语音识别方法及系统

Publications (1)

Publication Number Publication Date
CN109147762A true CN109147762A (zh) 2019-01-04

Family

ID=64808687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811224720.0A Pending CN109147762A (zh) 2018-10-19 2018-10-19 一种语音识别方法及系统

Country Status (1)

Country Link
CN (1) CN109147762A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047467A (zh) * 2019-05-08 2019-07-23 广州小鹏汽车科技有限公司 语音识别方法、装置、存储介质及控制终端
CN110491368A (zh) * 2019-07-23 2019-11-22 平安科技(深圳)有限公司 基于方言背景的语音识别方法及相关设备
CN112382280A (zh) * 2020-11-10 2021-02-19 深圳供电局有限公司 一种语音交互方法及设备
CN113658587A (zh) * 2021-09-22 2021-11-16 杭州捷途慧声科技有限公司 一种基于深度学习的高识别率的智能语音识别方法和系统
CN116052657A (zh) * 2022-08-01 2023-05-02 荣耀终端有限公司 语音识别的字符纠错方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1412741A (zh) * 2002-12-13 2003-04-23 郑方 带方言背景的汉语语音识别方法
CN201431454Y (zh) * 2009-07-10 2010-03-31 上海银晨智能识别科技有限公司 带方言识别的人体生物信息采集系统
CN104269170A (zh) * 2014-09-17 2015-01-07 成都博智维讯信息技术有限公司 一种erp权限语音识别方法
CN106128462A (zh) * 2016-06-21 2016-11-16 东莞酷派软件技术有限公司 语音识别方法及系统
CN107452379A (zh) * 2017-08-17 2017-12-08 广州腾猴科技有限公司 一种方言语言的识别技术及虚拟现实教学方法和系统
CN107945789A (zh) * 2017-12-28 2018-04-20 努比亚技术有限公司 语音识别方法、装置及计算机可读存储介质
CN108053823A (zh) * 2017-11-28 2018-05-18 广西职业技术学院 一种语音识别系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1412741A (zh) * 2002-12-13 2003-04-23 郑方 带方言背景的汉语语音识别方法
CN201431454Y (zh) * 2009-07-10 2010-03-31 上海银晨智能识别科技有限公司 带方言识别的人体生物信息采集系统
CN104269170A (zh) * 2014-09-17 2015-01-07 成都博智维讯信息技术有限公司 一种erp权限语音识别方法
CN106128462A (zh) * 2016-06-21 2016-11-16 东莞酷派软件技术有限公司 语音识别方法及系统
CN107452379A (zh) * 2017-08-17 2017-12-08 广州腾猴科技有限公司 一种方言语言的识别技术及虚拟现实教学方法和系统
CN108053823A (zh) * 2017-11-28 2018-05-18 广西职业技术学院 一种语音识别系统及方法
CN107945789A (zh) * 2017-12-28 2018-04-20 努比亚技术有限公司 语音识别方法、装置及计算机可读存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047467A (zh) * 2019-05-08 2019-07-23 广州小鹏汽车科技有限公司 语音识别方法、装置、存储介质及控制终端
CN110491368A (zh) * 2019-07-23 2019-11-22 平安科技(深圳)有限公司 基于方言背景的语音识别方法及相关设备
CN110491368B (zh) * 2019-07-23 2023-06-16 平安科技(深圳)有限公司 基于方言背景的语音识别方法、装置、计算机设备和存储介质
CN112382280A (zh) * 2020-11-10 2021-02-19 深圳供电局有限公司 一种语音交互方法及设备
CN113658587A (zh) * 2021-09-22 2021-11-16 杭州捷途慧声科技有限公司 一种基于深度学习的高识别率的智能语音识别方法和系统
CN113658587B (zh) * 2021-09-22 2023-12-05 杭州捷途慧声科技有限公司 一种基于深度学习的高识别率的智能语音识别方法和系统
CN116052657A (zh) * 2022-08-01 2023-05-02 荣耀终端有限公司 语音识别的字符纠错方法和装置
CN116052657B (zh) * 2022-08-01 2023-10-20 荣耀终端有限公司 语音识别的字符纠错方法和装置

Similar Documents

Publication Publication Date Title
CN109147762A (zh) 一种语音识别方法及系统
CN103838866B (zh) 一种文本转换方法及装置
CN100397438C (zh) 聋哑人汉语发音计算机辅助学习方法
EP3503074A1 (en) Language learning system and language learning program
CN106297826A (zh) 语音情感辨识系统及方法
CN103680498A (zh) 一种语音识别方法和设备
CN109545218A (zh) 一种语音识别方法及系统
CN109213856A (zh) 一种语义识别方法及系统
CN103413550A (zh) 一种人机交互式语言学习系统和方法
CN109461436A (zh) 一种语音识别发音错误的纠正方法及系统
CN104575519B (zh) 特征提取方法、装置及重音检测的方法、装置
CN106782603A (zh) 智能语音评测方法及系统
CN107886968A (zh) 语音评测方法及系统
CN104239579B (zh) 构建多语言音标数据库的方法、多语言注音的方法及装置
KR20200087623A (ko) 외국어 교육을 위한 발음 정확도 평가 장치 및 방법
CN104538025A (zh) 手势到汉藏双语语音转换方法及装置
CN115936944A (zh) 一种基于人工智能的虚拟教学管理方法及装置
CN116561274A (zh) 一种基于数字人技术与自然语言大模型的知识问答方法
CN106971721A (zh) 一种基于嵌入式移动设备的地方口音语音识别系统
CN103794210A (zh) 普通话语音评判系统及方法
KR20200089245A (ko) 유아용 문자 교육 방법, 단말 및 프로그램
CN105513612A (zh) 语言词汇的音频处理方法及装置
CN110246514A (zh) 一种基于模式识别的英语单词发音学习系统
US11361677B1 (en) System for articulation training for hearing impaired persons
CN111832412B (zh) 一种发声训练矫正方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190104