CN111798838A - 一种提高语音识别准确率的方法、系统、设备及存储介质 - Google Patents
一种提高语音识别准确率的方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN111798838A CN111798838A CN202010683735.4A CN202010683735A CN111798838A CN 111798838 A CN111798838 A CN 111798838A CN 202010683735 A CN202010683735 A CN 202010683735A CN 111798838 A CN111798838 A CN 111798838A
- Authority
- CN
- China
- Prior art keywords
- recording data
- special
- data
- pronunciation
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 22
- 230000011218 segmentation Effects 0.000 claims description 24
- 238000010276 construction Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 20
- 238000005516 engineering process Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013145 classification model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种提高语音识别准确率的方法、系统、设备及存储介质,该方法包括:对录音数据进行分类,获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;基于上述分类获取的录音数据,获取与特殊发音录音数据相对应的特殊发音文本、与特殊语法录音数据相对应的特殊语法文本以及与固定描述录音数据相对应的固定描述文本;基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据训练并构建声学模型;基于上述分类获取的录音数据和文本,训练并构建语言模型;基于声学模型和语言模型,分析用户的语音数据,以判断用户的意图。通过本发明,解决了在航空军工领域中进行人机交互的情况下,语音识别准确率低的问题,提高了用户体验。
Description
技术领域
本申请涉及人机交互领域,特别是涉及一种提高语音识别准确率的方法、系统、设备及存储介质。
背景技术
随着人工智能技术的发展,人工智能技术在航空军工方面上被应用的越来越多,如人工智能技术可以应用于战机、战车等智能机械设备上,对智能机械设备进行语音控制。在使用人工智能技术的情况下,一般需要通过语音识别技术进行人机交互,目前智能机械设备能够对用户说出的大部分语音进行准确的识别,并进行正常的人机交互。
相关技术中,在航空军工这种特殊的领域使用语音识别技术的情况下,因为在航空军工领域中具有特殊的表述方式以及读音,如常用的军用数字用语的读法为“洞”、“两”、“拐”以及“勾”;且在航空军工领域的也有很多专业名词,如侧偏距、前缘襟翼,所以在航空军工领域的使用者使用特殊读法或使用专业名词与智能机械设备进行交互的情况下,语音识别准确率较低,从而会影响航空军工领域的使用者的人机交互体验。
目前针对相关技术中在航空军工领域中进行人机交互的情况下,语音识别准确率低的问题,尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种提高语音识别准确率的方法、系统、设备及存储介质,以至少解决相关技术中在航空军工领域中进行人机交互的情况下,语音识别准确率低的问题。
本发明的第一个方面,提供了一种提高语音识别准确率的方法,包括:
获取控制指令话术集以及与所述指令话术集相对应的录音数据;
对所述录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;
基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据,以获取与所述特殊发音录音数据相对应的特殊发音文本、与所述特殊语法录音数据相对应的特殊语法文本以及与所述固定描述录音数据相对应的固定描述文本;
基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据训练并构建声学模型;
基于所述特殊发音录音数据、所述特殊语法录音数据、所述固定描述录音数据、所述特殊发音文本、所述特殊语法文本以及所述固定描述文本,训练并构建语言模型;
基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图。
进一步地,在基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图之前,所述方法还包括:
构建分词词典;
基于所述分词词典将所述语音数据拆分为分词;
基于所述分词获取所述语音数据中的关键词。
进一步地,基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据训练并构建声学模型包括:
基于所述特殊发音录音数据构建发音词典;
基于所述特殊语法录音数据构建句式模型;
基于所述固定描述录音数据构建规则模型;
基于所述发音词典、所述句式模型以及所述规则模型,训练并构建所述声学模型。
进一步地,基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图包括:
基于所述声学模型,分析所述语音数据,以获取与所述语音数据相对应的第一语音文本;
基于所述语言模型,修改所述第一语音文本,以获得与所述语音数据相对应的第二语音文本;
基于所述第二语音文本,判断所述用户的意图。
本发明的第二个方面,提供了一种提高语音识别准确率的系统,包括:
获取单元,用于获取控制指令话术集以及与所述指令话术集相对应的录音数据;
录音数据分类单元,用于对所述录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;
录音数据转换单元,用于基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据,以获取与所述特殊发音录音数据相对应的特殊发音文本、与所述特殊语法录音数据相对应的特殊语法文本以及与所述固定描述录音数据相对应的固定描述文本;
声学模型构建单元,用于基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据训练并构建声学模型;
语言模型构建单元,用于基于所述特殊发音录音数据、所述特殊语法录音数据、所述固定描述录音数据、所述特殊发音文本、所述特殊语法文本以及所述固定描述文本,训练并构建语言模型;
意图判断单元,用于基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图。
进一步地,还包括:
分词词典构建单元,用于构建分词词典;
语音数据拆分单元,用于基于所述分词词典将所述语音数据拆分为分词;
关键词提取单元,用于基于所述分词获取所述语音数据中的关键词。
进一步地,声学模型构建单元包括:
发音词典构建模块,用于基于所述特殊发音录音数据构建发音词典;
句式模型构建模块,用于基于所述特殊语法录音数据构建句式模型;
规则模型构建模块,用于基于所述固定描述录音数据构建规则模型;
所述声学模型构建单元还用于基于所述发音词典、所述句式模型以及所述规则模型,训练并构建所述声学模型。
进一步地,所述意图判断单元包括:
语音文本生成模块,用于基于所述声学模型,分析所述语音数据,以获取与所述语音数据相对应的第一语音文本;
语音文本修改模块,用于基于所述语言模型,修改所述第一语音文本,以获得与所述语音数据相对应的第二语音文本;
判断模块,用于基于所述第二语音文本,判断所述用户的意图。
本发明的第三个方面,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上任一项所述的一种提高语音识别准确率的方法。
本发明的第四个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权上任一项所述的一种提高语音识别准确率的方法。
相比于相关技术,本申请实施例提供的一种提高语音识别准确率的方法、系统、设备及存储介质,通过获取控制指令话术集以及与指令话术集相对应的录音数据;对录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据,以获取与特殊发音录音数据相对应的特殊发音文本、与特殊语法录音数据相对应的特殊语法文本以及与固定描述录音数据相对应的固定描述文本;基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据训练并构建声学模型;基于特殊发音录音数据、特殊语法录音数据、固定描述录音数据、特殊发音文本、特殊语法文本以及固定描述文本,训练并构建语言模型;基于声学模型和语言模型,分析用户输入的语音数据,以判断用户的意图,解决了在航空军工领域中进行人机交互的情况下,语音识别准确率低的问题,提高了在人机交互过程中的语音识别准确率以及用户满意度。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本发明实施例的一种提高语音识别准确率的方法的流程图一;
图2是根据本发明实施例的一种提高语音识别准确率的方法的流程图二;
图3是根据本发明实施例的一种提高语音识别准确率的方法的流程图三;
图4是根据本发明实施例的一种提高语音识别准确率的方法的流程图四;
图5是根据本发明实施例的一种提高语音识别准确率的系统的结构框图一;
图6是根据本发明实施例的一种提高语音识别准确率的系统的结构框图二;
图7是根据本发明实施例的一种提高语音识别准确率的系统的结构框图三;
图8是根据本发明实施例的一种提高语音识别准确率的系统的结构框图四。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
本发明提供的一种提高语音识别准确率的方法、系统、设备及存储介质,可以应用在航空军工领域的人机交互领域中,用于提高航空军工领域中的人机交互的语音识别准确率。
图1是根据本发明实施例的一种提高语音识别准确率的方法的流程图一,请参见图1,该方法包括如下步骤:
步骤S102,获取控制指令话术集以及与指令话术集相对应的录音数据;
步骤S104,对录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;
步骤S106,基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据,以获取与特殊发音录音数据相对应的特殊发音文本、与特殊语法录音数据相对应的特殊语法文本以及与固定描述录音数据相对应的固定描述文本;
步骤S108,基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据训练并构建声学模型;
步骤S110,基于特殊发音录音数据、特殊语法录音数据、固定描述录音数据、特殊发音文本、特殊语法文本以及固定描述文本,训练并构建语言模型;
步骤S112,基于声学模型和语言模型,分析用户输入的语音数据,以判断用户的意图。
其中,获取指令话术集可以为获取航空军工领域的常用控制指令话术集,且可以对常用控制指令话术集进行分类,如可以分为控制类、战术类。
在一些实施例中,可以通过人工标注的方式对录音数据进行分类;也可以通过机器学习、深度学习等方法构建分类模型,将录音数据输入至分类模型进行自动标注。
在一些实施例中,对录音数据分类,也可以获取指令话术集中的实体专业名词,如前缘襟翼、起落架以及侧偏距等航空军工领域的专业名词,并对实体专业名词进行语音识别模型训练。
在一些实施例中,在对录音数据进行分类的情况下,特殊发音录音数据可以包括“洞”、“幺”、“两”、“拐”以及“勾”等数字的特殊发音。
其中,特殊语法录音数据可以包括易错词录音数据、特殊符号录音数据以及基本句式录音数据。
在一些实施例中,在对录音数据进行分类的情况下,可以获取易错词录音数据。例如,在航空军工领域中,一般会将“速度遥调”说成“速度窈窕”,此时可以将控制指令“速度遥调”作为易错词,并获取与“速度遥调”相对应的录音数据。
在一些实施例中,在对录音数据进行分类的情况下,可以获取特殊符号录音数据。例如,在航空军工领域中,“油门杆50%”用于指代“油门杆百分之五十”、“侧偏距-20米”用于指代“侧偏距左20米”,此时可以获取与“油门杆50%”、“侧偏距-20米”相对应的录音数据。
在一些实施例中,在对录音数据进行分类的情况下,可以获取基本句式录音数据。例如,基本句式“编号···,打开···”、“编号···,请开始···”,此时,可以获取与句式“编号···,打开···”、“编号···,请开始···”相对应的录音数据。
在一些实施例中,在对录音数据进行分类的情况下,可以获取固定描述录音数据。例如,固定描述包括“速度遥调”、“角度半开”以及“油门增推”等,此时可以获取与上述固定描述相对应的录音数据。
在一些实施例中,基于特殊发音录音数据可以获取多个与特殊发音语音数据相对应的特殊发音文本。例如,在获取特殊发音录音数据“dong”的特殊发音文本的情况下,可以获取多个读音为“dong”的文本,如“动”、“栋”以及“冻”。这些文本均可与特殊发音录音数据“洞”相对应。
在一些实施例中,基于特殊语法中的易错词录音数据可以获取多个与易错词相对应的易错词发音文本。例如,在获取易错词录音数据“速度遥调”的易错词文本的情况下,可以获取多个易错词文本,如“速度窈窕”、“速度要跳”以及“速度腰条”等。
在一些实施例中,在获取指令话术集的情况下,还可以对指令话术集进行添加或删除。例如,在指令话术集中的若干个指令话术暂停使用的情况下,可以将该若干命令词从指令话术集中删除;或在航空军工领域中新增若干指令话术的情况下,可以将新增的若干指令话术添加到指令话术集中,并获取与若干指令话术相对应的录音数据。
通过步骤S102至步骤S112,解决了相关技术中在航空军工领域中进行人机交互的情况下,语音识别准确率不高的问题。
图2是根据本发明实施例的一种提高语音识别准确率的方法的流程图二,请参见图2,在基于声学模型和语言模型,分析用户输入的语音数据,以判断用户的意图之前,该方法还包括:
步骤S202,构建分词词典;
步骤S204,基于分词词典将语音数据拆分为分词;
步骤S206,基于分词获取语音数据中的关键词。
其中,在构建分词词典的情况下,可以根据航空军工领域的指令话术集进行构建。如“角度半开”、“速度遥调”等固定描述均可以加入到分词词典中;“洞”、“拐”等具有特殊发音的指令话术集也可以加入到分词词典中;一些固定句式也可以加入到分词词典中。
在一些实施例中,在接收到语音数据的情况下,基于分词词典对该语音数据进行拆分,通过拆分得到关键词之后,用以辅助判断用户的意图。例如,在用户输入语音数据为“洞拐,进行速度遥调”,此时可以将该语音数据拆分为“洞拐”、“进行”、“速度遥调”,此时通过关键词“洞拐”和“速度遥调”辅助判断用户的意图。
通过步骤S202和步骤S206,在航空军工领域中进行人机交互的情况下,进一步提高了语音识别准确率。
图3是根据本发明实施例的一种提高语音识别准确率的方法的流程图三,请参见图3,基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据训练并构建声学模型包括:
步骤S302,基于特殊发音录音数据构建发音词典;
步骤S304,基于特殊语法录音数据构建句式模型;
步骤S306,基于固定描述录音数据构建规则模型;
步骤S308,基于发音词典、句式模型以及规则模型。训练并构建声学模型。
在一些实施例中,构建发音词典用于在接收到语音数据的情况下,对该语音数据进行词典转义。例如,在接收到的语音数据为“洞拐”的情况下,此时可以通过发音词典将“洞拐”转换为“07”。
在一些实施例中,基于特殊语法录音构建句式模型用于提升对基本句式的理解,从而提高语音识别准确率。例如,在接收到的用户的语音数据为“编号007,打开起落架”的情况下,此时可以通过句式模型中的基本句式“编号···,打开···”对该语音数据进行识别,以便于提升对该语音数据的理解。
在一些实施例中,基于固定描述录音数据构建规则模型,能够进一步提高人机交互中的语音识别准确率。例如,在接收到的语音数据为“油门杆50%”的情况下,此时通过规则模型,就能够获知该语音数据所要表达的内容为“油门杆百分之五十”。
通过步骤S302至步骤S308中构建发音词典、句式模型以及规则模型,在航空军工领域中进行人机交互的情况下,进一步提高了语音识别准确率。
图4是根据本发明实施例的一种提高语音识别准确率的方法的流程图四,请参见图4,基于声学模型和语言模型,分析用户输入的语音数据,以判断用户的意图包括:
步骤S402,基于声学模型,分析语音数据,以获取与语音数据相对应的第一语音文本;
步骤S404,基于语言模型,修改第一语音文本,以获得与语音数据相对应的第二语音文本;
步骤S406,基于第二语音文本,判断用户的意图。
其中,获取与语音数据相对应的第一语音文本为基于语音数据转换的文本。例如,在终端接收到的语音数据为“洞拐,请打开起落架”的情况下,此时基于声学模型,将语音数据“洞拐,请打开起落架”转换为第一语音文本“洞拐,请打开起落架”。
其中,在获取到第一语音文本的情况下,基于语言模型,对第一语音文本进行修改以获取第二语音文本。例如,在终端接收到的第一语音文本为“洞拐,请打开起落架”的情况下,此时基于语言模型可以将第一语音文本修改为“07,请打开起落架”,根据第二语音文本“07,请打开起落架”,终端能够对获知用户的意图,并根据该意图执行相对应的操作。
通过步骤S402至步骤S406,在航空军工领域中进行人机交互的情况下,能够进一步提高语音识别准确率。
对应于上述的一种提高语音识别准确率的方法,本发明实施例还提供了一种提高语音识别准确率的系统,用于实现上述实施例及优选实施例,已经进行过说明的不在进行赘述。
图5是根据本发明实施例的一种提高语音识别准确率的系统的结构框图一,请参见图5,该系统包括:
获取单元51,用于获取控制指令话术集以及与指令话术集相对应的录音数据;
录音数据分类单元52,用于对录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;
录音数据转换单元53,用于基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据,以获取与特殊发音录音数据相对应的特殊发音文本、与特殊语法录音数据相对应的特殊语法文本以及与固定描述录音数据相对应的固定描述文本;
声学模型构建单元55,用于基于特殊发音录音数据、特殊语法录音数据以及固定描述录音数据训练并构建声学模型;
语言模型构建单元56,用于基于特殊发音录音数据、特殊语法录音数据、固定描述录音数据、特殊发音文本、特殊语法文本以及固定描述文本,训练并构建语言模型;
意图判断单元54,用于基于声学模型和语言模型,分析用户输入的语音数据,以判断用户的意图。
其中,录音数据分类单元52,还可用于将录音数据分为控制类录音数据和战术类录音数据。
其中,意图判断单元54还可以用于根据用户说出的语音数据中的关键词,辅助判断用户的意图。
通过对录音数据进行分类,并构建声学模型以及语言模型,解决了相关技术中在航空军工领域中进行人机交互的情况下,语音识别准确率不好的问题。
图6是根据本发明实施例的一种提高语音识别准确率的系统的结构框图二,请参见图6,该系统还包括:
分词词典构建单元61,用于构建分词词典;
语音数据拆分单元62,用于基于分词词典将语音数据拆分为分词;
关键词提取单元63,用于基于分词获取语音数据中的关键词。
其中,在关键词提取单元63获取到语音数据中的关键词的情况下,可以将该关键词发送到意图判断单元54,意图判断单元54基于该关键词进一步判断用户的意图。
通过分词词典构建单元61、语音数据拆分单元62以及关键词提取单元63,解决了在航空军工领域中,进行人机交互的情况下,语音识别准确率低的问题。
图7是根据本发明实施例的一种提高语音识别准确率的系统的结构框图三,请参见图7,声学模型构建单元55包括:
发音词典构建模块71,用于基于特殊发音录音数据构建发音词典;
句式模型构建模块72,用于基于特殊语法录音数据构建句式模型;
规则模型构建模块73,用于基于固定描述录音数据构建规则模型;
声学模型构建单元55还用于基于发音词典、句式模型以及规则模型,训练并构建声学模型。
通过声学模型构建单元55构建发音词典、句式模型以及规则模型,解决了相关技术中,在航空军工领域中,进行人机交互的情况下,语音识别准确率低的问题。
图8是根据本发明实施例的一种提高语音识别准确率的系统的结构框图四,请参见图8,意图判断单元54包括:
语音文本生成模块81,用于基于声学模型,分析语音数据,以获取与语音数据相对应的第一语音文本;
语音文本修改模块82,用于基于语言模型,修改第一语音文本,以获得与语音数据相对应的第二语音文本;
判断模块83,用于基于第二语音文本,判断用户的意图。
在相关技术中,由于终端无法从用户的语音数据直接识别用户的意图,通过声学模型和语言模型对用户说出的语音数据进行转换与修改,从而解决了在航空军工领域中进行人机交互的情况下,语音识别率低的问题。
另外,本申请实施例的分析用户对话情绪方法可以由计算机设备来实现。计算机设备的组件可以包括但不限于处理器以及存储有计算机程序指令的存储器。
在一些实施例中,处理器可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
在一些实施例中,存储器可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器可包括硬盘驱动器(Hard DiSk Drive,简称为HDD)、软盘驱动器、固态驱动器(Solid State Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(UniverSalSerial BuS,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器可在数据处理装置的内部或外部。在特定实施例中,存储器是非易失性(Non-Volatile)存储器。在特定实施例中,存储器包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAcceSS Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(EraSable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically EraSable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-AcceSS Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random AcceSS Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(FaSt Page Mode Dynamic Random AcceSS Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAcceSS Memory,简称为EDODRAM)、同步动态随机存取内存(SynchronouS Dynamic Random-AcceSS Memory,简称SDRAM)等。
存储器可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器所执行的可能的计算机程序指令。
处理器通过读取并执行存储器中存储的计算机程序指令,以实现上述实施例中的任意一种提高语音识别准确率的方法。
在其中一些实施例中,计算机设备还可包括通信接口和总线。其中,处理器、存储器、通信接口通过总线连接并完成相互间的通信。
通信接口用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信接口还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线包括但不限于以下至少之一:数据总线(Data BuS)、地址总线(AddreSS BuS)、控制总线(ControlBuS)、扩展总线(ExpanSion BuS)、局部总线(Local BuS)。举例来说而非限制,总线可包括图形加速接口(Accelerated GraphicS Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended InduStry Standard Architecture,简称为EISA)总线、前端总线(FrontSide BuS,简称为FSB)、超传输(Hyper TranSport,简称为HT)互连、工业标准架构(InduStry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-ExpreSS(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicSStandardS ASSociation Local BuS,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该计算机设备可以执行本申请实施例中的提高语音识别准确率的方法。
另外,结合上述实施例中的分析用户对话情绪方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种提高语音识别准确率的方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种提高语音识别准确率的方法,其特征在于,包括:
获取控制指令话术集以及与所述指令话术集相对应的录音数据;
对所述录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;
基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据,以获取与所述特殊发音录音数据相对应的特殊发音文本、与所述特殊语法录音数据相对应的特殊语法文本以及与所述固定描述录音数据相对应的固定描述文本;
基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据训练并构建声学模型;
基于所述特殊发音录音数据、所述特殊语法录音数据、所述固定描述录音数据、所述特殊发音文本、所述特殊语法文本以及所述固定描述文本,训练并构建语言模型;
基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图。
2.根据权利要求1所述的方法,其特征在于,在所述基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图之前,所述方法还包括:
构建分词词典;
基于所述分词词典将所述语音数据拆分为分词;
基于所述分词获取所述语音数据中的关键词。
3.根据权利要求1所述的方法,其特征在于,基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据训练并构建声学模型包括:
基于所述特殊发音录音数据构建发音词典;
基于所述特殊语法录音数据构建句式模型;
基于所述固定描述录音数据构建规则模型;
基于所述发音词典、所述句式模型以及所述规则模型,训练并构建所述声学模型。
4.根据权利要求1所述的方法,其特征在于,基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图包括:
基于所述声学模型,分析所述语音数据,以获取与所述语音数据相对应的第一语音文本;
基于所述语言模型,修改所述第一语音文本,以获得与所述语音数据相对应的第二语音文本;
基于所述第二语音文本,判断所述用户的意图。
5.一种提高语音识别准确率的系统,其特征在于,包括:
获取单元,用于获取控制指令话术集以及与所述指令话术集相对应的录音数据;
录音数据分类单元,用于对所述录音数据进行分类,以获取特殊发音录音数据、特殊语法录音数据以及固定描述录音数据;
录音数据转换单元,用于基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据,以获取与所述特殊发音录音数据相对应的特殊发音文本、与所述特殊语法录音数据相对应的特殊语法文本以及与所述固定描述录音数据相对应的固定描述文本;
声学模型构建单元,用于基于所述特殊发音录音数据、所述特殊语法录音数据以及所述固定描述录音数据训练并构建声学模型;
语言模型构建单元,用于基于所述特殊发音录音数据、所述特殊语法录音数据、所述固定描述录音数据、所述特殊发音文本、所述特殊语法文本以及所述固定描述文本,训练并构建语言模型;
意图判断单元,用于基于所述声学模型和所述语言模型,分析用户输入的语音数据,以判断所述用户的意图。
6.根据权利要求5所述的系统,其特征在于,还包括:
分词词典构建单元,用于构建分词词典;
语音数据拆分单元,用于基于所述分词词典将所述语音数据拆分为分词;
关键词提取单元,用于基于所述分词获取所述语音数据中的关键词。
7.根据权利要求5所述的系统,其特征在于,声学模型构建单元包括:
发音词典构建模块,用于基于所述特殊发音录音数据构建发音词典;
句式模型构建模块,用于基于所述特殊语法录音数据构建句式模型;
规则模型构建模块,用于基于所述固定描述录音数据构建规则模型;
所述声学模型构建单元还用于基于所述发音词典、所述句式模型以及所述规则模型,训练并构建所述声学模型。
8.根据权利要求5所述的系统,其特征在于,所述意图判断单元包括:
语音文本生成模块,用于基于所述声学模型,分析所述语音数据,以获取与所述语音数据相对应的第一语音文本;
语音文本修改模块,用于基于所述语言模型,修改所述第一语音文本,以获得与所述语音数据相对应的第二语音文本;
判断模块,用于基于所述第二语音文本,判断所述用户的意图。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的一种提高语音识别准确率的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至4中任一项所述的一种提高语音识别准确率的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010683735.4A CN111798838A (zh) | 2020-07-16 | 2020-07-16 | 一种提高语音识别准确率的方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010683735.4A CN111798838A (zh) | 2020-07-16 | 2020-07-16 | 一种提高语音识别准确率的方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111798838A true CN111798838A (zh) | 2020-10-20 |
Family
ID=72807299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010683735.4A Pending CN111798838A (zh) | 2020-07-16 | 2020-07-16 | 一种提高语音识别准确率的方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111798838A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112669851A (zh) * | 2021-03-17 | 2021-04-16 | 北京远鉴信息技术有限公司 | 一种语音识别方法、装置、电子设备及可读存储介质 |
CN113299291A (zh) * | 2021-05-18 | 2021-08-24 | 北京明略昭辉科技有限公司 | 基于关键词的录音保存方法、装置、设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103680498A (zh) * | 2012-09-26 | 2014-03-26 | 华为技术有限公司 | 一种语音识别方法和设备 |
CN107154260A (zh) * | 2017-04-11 | 2017-09-12 | 北京智能管家科技有限公司 | 一种领域自适应语音识别方法和装置 |
CN108538300A (zh) * | 2018-02-27 | 2018-09-14 | 科大讯飞股份有限公司 | 语音控制方法及装置、存储介质、电子设备 |
CN109119072A (zh) * | 2018-09-28 | 2019-01-01 | 中国民航大学 | 基于dnn-hmm的民航陆空通话声学模型构建方法 |
CN109147767A (zh) * | 2018-08-16 | 2019-01-04 | 平安科技(深圳)有限公司 | 语音中的数字识别方法、装置、计算机设备及存储介质 |
CN109448493A (zh) * | 2018-12-27 | 2019-03-08 | 中国电子科技集团公司第十五研究所 | 塔台管制模拟训练系统、语音管制指令识别及报读方法 |
CN109933774A (zh) * | 2017-12-15 | 2019-06-25 | 腾讯科技(深圳)有限公司 | 语义识别方法、装置存储介质和电子装置 |
CN110111780A (zh) * | 2018-01-31 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 数据处理方法和服务器 |
CN110570843A (zh) * | 2019-06-28 | 2019-12-13 | 北京蓦然认知科技有限公司 | 一种用户语音识别方法和装置 |
CN110600032A (zh) * | 2018-05-23 | 2019-12-20 | 北京语智科技有限公司 | 一种语音识别方法及装置 |
CN110853628A (zh) * | 2019-11-18 | 2020-02-28 | 苏州思必驰信息科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
-
2020
- 2020-07-16 CN CN202010683735.4A patent/CN111798838A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103680498A (zh) * | 2012-09-26 | 2014-03-26 | 华为技术有限公司 | 一种语音识别方法和设备 |
CN107154260A (zh) * | 2017-04-11 | 2017-09-12 | 北京智能管家科技有限公司 | 一种领域自适应语音识别方法和装置 |
CN109933774A (zh) * | 2017-12-15 | 2019-06-25 | 腾讯科技(深圳)有限公司 | 语义识别方法、装置存储介质和电子装置 |
CN110111780A (zh) * | 2018-01-31 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 数据处理方法和服务器 |
CN108538300A (zh) * | 2018-02-27 | 2018-09-14 | 科大讯飞股份有限公司 | 语音控制方法及装置、存储介质、电子设备 |
CN110600032A (zh) * | 2018-05-23 | 2019-12-20 | 北京语智科技有限公司 | 一种语音识别方法及装置 |
CN109147767A (zh) * | 2018-08-16 | 2019-01-04 | 平安科技(深圳)有限公司 | 语音中的数字识别方法、装置、计算机设备及存储介质 |
CN109119072A (zh) * | 2018-09-28 | 2019-01-01 | 中国民航大学 | 基于dnn-hmm的民航陆空通话声学模型构建方法 |
CN109448493A (zh) * | 2018-12-27 | 2019-03-08 | 中国电子科技集团公司第十五研究所 | 塔台管制模拟训练系统、语音管制指令识别及报读方法 |
CN110570843A (zh) * | 2019-06-28 | 2019-12-13 | 北京蓦然认知科技有限公司 | 一种用户语音识别方法和装置 |
CN110853628A (zh) * | 2019-11-18 | 2020-02-28 | 苏州思必驰信息科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112669851A (zh) * | 2021-03-17 | 2021-04-16 | 北京远鉴信息技术有限公司 | 一种语音识别方法、装置、电子设备及可读存储介质 |
CN113299291A (zh) * | 2021-05-18 | 2021-08-24 | 北京明略昭辉科技有限公司 | 基于关键词的录音保存方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107195295B (zh) | 基于中英文混合词典的语音识别方法及装置 | |
US11514891B2 (en) | Named entity recognition method, named entity recognition equipment and medium | |
EP2700071B1 (en) | Speech recognition using multiple language models | |
US8494853B1 (en) | Methods and systems for providing speech recognition systems based on speech recordings logs | |
CN109686383B (zh) | 一种语音分析方法、装置及存储介质 | |
CN111402861B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN108711421A (zh) | 一种语音识别声学模型建立方法及装置和电子设备 | |
CN102982811A (zh) | 一种基于实时解码的语音端点检测方法 | |
WO2018192186A1 (zh) | 语音识别方法及装置 | |
CN112927679B (zh) | 一种语音识别中添加标点符号的方法及语音识别装置 | |
CN109616096A (zh) | 多语种语音解码图的构建方法、装置、服务器和介质 | |
CN112562640B (zh) | 多语言语音识别方法、装置、系统及计算机可读存储介质 | |
CN112397051B (zh) | 语音识别方法、装置及终端设备 | |
CN112365878A (zh) | 语音合成方法、装置、设备及计算机可读存储介质 | |
CN111798838A (zh) | 一种提高语音识别准确率的方法、系统、设备及存储介质 | |
KR20100068530A (ko) | 음성인식기에서 가비지 및 반단어 모델 기반의 거절 장치 및 방법 | |
KR102020773B1 (ko) | 음성합성엔진을 이용한 멀티미디어 음성인식 자동 평가시스템 | |
KR20160061071A (ko) | 발음 변이를 적용시킨 음성 인식 방법 | |
JP6577900B2 (ja) | 音素誤り獲得装置、音素誤り獲得方法、およびプログラム | |
WO2020073839A1 (zh) | 语音唤醒方法、装置、系统及电子设备 | |
CN115132170A (zh) | 语种分类方法、装置及计算机可读存储介质 | |
CN114203180A (zh) | 会议纪要的生成方法、装置、电子设备及存储介质 | |
Almeman et al. | A comparison of Arabic speech recognition for multi-dialect vs. specific dialects | |
CN110265003B (zh) | 一种识别广播信号中语音关键字的方法 | |
CN113077793A (zh) | 一种语音识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |