CN110176228A - 一种小语料语音识别方法及系统 - Google Patents
一种小语料语音识别方法及系统 Download PDFInfo
- Publication number
- CN110176228A CN110176228A CN201910455300.1A CN201910455300A CN110176228A CN 110176228 A CN110176228 A CN 110176228A CN 201910455300 A CN201910455300 A CN 201910455300A CN 110176228 A CN110176228 A CN 110176228A
- Authority
- CN
- China
- Prior art keywords
- data
- corpus
- voice
- small corpus
- small
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 61
- 238000004458 analytical method Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 10
- 238000004321 preservation Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000007405 data analysis Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 2
- 238000012986 modification Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 1
- 210000004218 nerve net Anatomy 0.000 claims 1
- 230000006403 short-term memory Effects 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/69—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种小语料语音识别方法及系统,包括语音采集、语音识别分类、构建训练模型、代入训练模型、判断识别结果和输出识别结果,本发明结构科学合理,使用安全方便,首先对小语料语音数据抽取收集,对小语料语音数据进行分类标注,可以节省标注语料的时间,避免工作人员在标注时出错,随后将小语料语音数据代入至小语料语音识别模型内,进行运算,输出识别结果,若识别结果未达到预定识别值,则保存小语料语音数据至训练集内,语音训练模型构建时,首先会获取相关的语料数据,对语料进行语义识别,进行语义标注,得出语音训练模型,对训练出的模型进行验证,若是识别率过低,则自动修改参数并继续进行新一轮训练。
Description
技术领域
本发明涉及语音识别技术领域,具体为一种小语料语音识别方法及系统。
背景技术
语料,即语言材料,语料是语言学研究的内容,语料是构成语料库的基本单元,在对语音进行识别时,由于部分语音中含有的语料过于罕见,语音识别系统容易产生无法识别的情况,并且目前市面上现有的语音识别都是针对通用场景进行处理,针对小语料的训练识别效果一般,获得的效果一般,同时针对特定客户的特定需求,或者特定行业的需求不能很好的满足或者说代价太大;
本发明针对小语料进行训练,在得到的训练模型中选取最优模型,使用了深度学习神经网络进行模型训练,同时针对性的去获取相关语料,可以节省标注语料的时间,并可避免人在标注时出错,导致训练模型出现准确性上的错误,另一方面还结合了语义识别的方法,能够保证输出的内容更加准确。
发明内容
本发明提供技术方案,可以有效解决上述背景技术中提出的针对小语料的训练识别效果一般,获得的效果一般,同时针对特定客户的特定需求,或者特定行业的需求不能很好的满足或者说代价太大的问题。
为实现上述目的,本发明提供如下技术方案:一种小语料语音识别方法,包括如下步骤:
S1、语音采集:抽取需要识别的小语料语音数据,并传输至主机内进行存储;
S2、语音识别分类:将语音进行初步识别,分类保存在对应的文件夹中;
S3、构建训练模型:构建小语料语音识别训练模型,并对训练模型的准确性进行验证;
S4、代入训练模型:将分类保存的小语料语音数据代入至小语料语音识别模型内,输出识别结果;
S5、判断识别结果:分析识别结果,并将分析结果与预定值进行对比;
S6、输出识别结果:将小语料语音数据识别结果,转化为对应的汉字输出。
根据上述技术特征,所述步骤S1中,抽取小语料语音数据时,会采用写好的脚本工具进行收集,并传输至主机内进行存储。
根据上述技术特征,所述步骤S2中,获取的小语料语音数据,会通过Keras、TensorFlow基于深度卷积神经网络和长短时记忆神经网络、注意力机制以及CTC实现,对小语料语音数据进行分类标注和保存。
根据上述技术特征,所述步骤S3具体分为如下步骤:
a、音频数据提取:根据模型建立需求针对性获取相关的语料数据,并对语料进行音频数据分析提取;
b、特征标注:使用语义识别的方法对提取到的音频数据进行语义识别,将音频数据以分句、分词的形式进行语义标注;
c、构建模型:使用深度学习网络对音频数据进行训练,得出语音训练模型;
d、准确性验证:针对每次训练出来的模型进行验证,计算出训练模型得出的识别率;
e、保存模型:若是识别率达到标准,则保存训练模型,若是识别率过低,则自动修改参数并继续进行新一轮训练。
根据上述技术特征,所述步骤S4中,分类保存的小语料语音数据首先会代入至小语料语音识别模型内,进行运算,输出识别结果。
根据上述技术特征,所述步骤S5中,若识别结果达到预定识别值,则输出识别结果,若识别结果未达到预定识别值,则保存小语料语音数据至训练集内,并代入步骤S3中,进行训练,得出语音训练模型。
根据上述技术特征,所述步骤S6中,将小语料语音数据识别结果,通过基于概率图的最大熵隐马尔可夫模型,转化为对应的汉字输出。
根据上述技术特征,一种小语料语音识别系统,包括语音采集模块、分析处理模块和数据存储模块,所述语音采集模块包括数据接收器和语音转换器,所述分析处理模块包括语音分析器和数据处理器,所述数据存储模块包括分类存储单元和训练集存储单元,所述语音采集模块、分析处理模块和数据存储模块之间均相互连接。
根据上述技术特征,所述语音采集模块包括数据接收器和语音转换器,所述数据接收器是指主动使用写好的脚本工具去收集小语料语音数据资料,并且被动接收传输至主机的小语料语音数据资料,所述语音转换器是指对接收的小语料语音数据资料进行整理,将小语料语音数据转化为主机所能接收的格式。
根据上述技术特征,所述分析处理模块包括语音分析器和数据处理器,所述语音分析器是指对转化为主机所能接收格式的小语料语音数据进行分析处理,识别出小语料语音数据的特征,并根据特征对小语料语音数据进行分类传输,所述数据处理器是指接收指定特征的小语料语音数据,将小语料语音数据代入预设的识别模型内,进行分析处理。
与现有技术相比,本发明的有益效果:本发明结构科学合理,使用安全方便:
首先会采用写好的脚本工具,对小语料语音数据进行主动抽取收集,同时被动接收传输至主机的小语料语音数据资料,之后将接收的小语料语音数据资料进行整理,转化为主机所能接收的格式,传输至主机内进行存储;获取的小语料语音数据,会通过Keras、TensorFlow基于深度卷积神经网络和长短时记忆神经网络、注意力机制以及CTC实现,对小语料语音数据进行分类标注,分类标注后的小语料语音数据会保存在对应的文件夹中,可以节省标注语料的时间,避免工作人员在标注时出错,增加了训练模型的准确性;随后将分类保存的小语料语音数据代入至小语料语音识别模型内,进行运算,输出识别结果,若识别结果达到预定识别值,则输出识别结果,若识别结果未达到预定识别值,则保存小语料语音数据至训练集内,在语音训练模型构建,进行训练,得出对应的语音训练模型,语音训练模型构建时,首先会根据模型建立需求针对性获取相关的语料数据,并对语料进行音频数据分析提取,随后使用语义识别的方法对提取到的音频数据进行语义识别,将音频数据以分句、分词的形式进行语义标注,并使用深度学习网络对音频数据进行训练,得出语音训练模型,针对每次训练出来的模型进行验证,计算出训练模型得出的识别率,若是识别率达到标准,则保存训练模型,若是识别率过低,则自动修改参数并继续进行新一轮训练。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明的步骤流程图;
图2是本发明的系统框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例:如图1-2所示,本发明提供技术方案,一种小语料语音识别方法,包括如下步骤:
S1、语音采集:抽取需要识别的小语料语音数据,并传输至主机内进行存储;
S2、语音识别分类:将语音进行初步识别,分类保存在对应的文件夹中;
S3、构建训练模型:构建小语料语音识别训练模型,并对训练模型的准确性进行验证;
S4、代入训练模型:将分类保存的小语料语音数据代入至小语料语音识别模型内,输出识别结果;
S5、判断识别结果:分析识别结果,并将分析结果与预定值进行对比;
S6、输出识别结果:将小语料语音数据识别结果,转化为对应的汉字输出。
根据上述技术特征,步骤S1中,抽取小语料语音数据时,会采用写好的脚本工具进行收集,并传输至主机内进行存储。
根据上述技术特征,步骤S2中,获取的小语料语音数据,会通过Keras、TensorFlow基于深度卷积神经网络和长短时记忆神经网络、注意力机制以及CTC实现,对小语料语音数据进行分类标注和保存。
根据上述技术特征,步骤S3具体分为如下步骤:
a、音频数据提取:根据模型建立需求针对性获取相关的语料数据,并对语料进行音频数据分析提取;
b、特征标注:使用语义识别的方法对提取到的音频数据进行语义识别,将音频数据以分句、分词的形式进行语义标注;
c、构建模型:使用深度学习网络对音频数据进行训练,得出语音训练模型;
d、准确性验证:针对每次训练出来的模型进行验证,计算出训练模型得出的识别率;
e、保存模型:若是识别率达到标准,则保存训练模型,若是识别率过低,则自动修改参数并继续进行新一轮训练。
根据上述技术特征,步骤S4中,分类保存的小语料语音数据首先会代入至小语料语音识别模型内,进行运算,输出识别结果。
根据上述技术特征,步骤S5中,若识别结果达到预定识别值,则输出识别结果,若识别结果未达到预定识别值,则保存小语料语音数据至训练集内,并代入步骤S3中,进行训练,得出语音训练模型。
根据上述技术特征,步骤S6中,将小语料语音数据识别结果,通过基于概率图的最大熵隐马尔可夫模型,转化为对应的汉字输出。
根据上述技术特征,一种小语料语音识别系统,包括语音采集模块、分析处理模块和数据存储模块,语音采集模块包括数据接收器和语音转换器,分析处理模块包括语音分析器和数据处理器,数据存储模块包括分类存储单元和训练集存储单元,语音采集模块、分析处理模块和数据存储模块之间均相互连接。
根据上述技术特征,语音采集模块包括数据接收器和语音转换器,数据接收器是指主动使用写好的脚本工具去收集小语料语音数据资料,并且被动接收传输至主机的小语料语音数据资料,语音转换器是指对接收的小语料语音数据资料进行整理,将小语料语音数据转化为主机所能接收的格式。
根据上述技术特征,分析处理模块包括语音分析器和数据处理器,语音分析器是指对转化为主机所能接收格式的小语料语音数据进行分析处理,识别出小语料语音数据的特征,并根据特征对小语料语音数据进行分类传输,数据处理器是指接收指定特征的小语料语音数据,将小语料语音数据代入预设的识别模型内,进行分析处理。
本发明的工作原理及使用流程:首先会采用写好的脚本工具,对小语料语音数据进行主动抽取收集,同时被动接收传输至主机的小语料语音数据资料,之后将接收的小语料语音数据资料进行整理,转化为主机所能接收的格式,传输至主机内进行存储;获取的小语料语音数据,会通过Keras、TensorFlow基于深度卷积神经网络和长短时记忆神经网络、注意力机制以及CTC实现,对小语料语音数据进行分类标注,分类标注后的小语料语音数据会保存在对应的文件夹中,可以节省标注语料的时间,避免工作人员在标注时出错,增加了训练模型的准确性;随后将分类保存的小语料语音数据代入至小语料语音识别模型内,进行运算,输出识别结果,若识别结果达到预定识别值,则输出识别结果,若识别结果未达到预定识别值,则保存小语料语音数据至训练集内,在语音训练模型构建,进行训练,得出对应的语音训练模型,语音训练模型构建时,首先会根据模型建立需求针对性获取相关的语料数据,并对语料进行音频数据分析提取,随后使用语义识别的方法对提取到的音频数据进行语义识别,将音频数据以分句、分词的形式进行语义标注,并使用深度学习网络对音频数据进行训练,得出语音训练模型,针对每次训练出来的模型进行验证,计算出训练模型得出的识别率,若是识别率达到标准,则保存训练模型,若是识别率过低,则自动修改参数并继续进行新一轮训练。
最后应说明的是:以上所述仅为本发明的优选实例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种小语料语音识别方法,其特征在于,包括如下步骤:
S1、语音采集:抽取需要识别的小语料语音数据,并传输至主机内进行存储;
S2、语音识别分类:将语音进行初步识别,分类保存在对应的文件夹中;
S3、构建训练模型:构建小语料语音识别训练模型,并对训练模型的准确性进行验证;
S4、代入训练模型:将分类保存的小语料语音数据代入至小语料语音识别模型内,输出识别结果;
S5、判断识别结果:分析识别结果,并将分析结果与预定值进行对比;
S6、输出识别结果:将小语料语音数据识别结果,转化为对应的汉字输出。
2.根据权利要求1所述的一种小语料语音识别方法,其特征在于,所述步骤S1中,抽取小语料语音数据时,会采用写好的脚本工具进行收集,并传输至主机内进行存储。
3.根据权利要求1所述的一种小语料语音识别方法,其特征在于,所述步骤S2中,获取的小语料语音数据,会通过Keras、TensorFlow基于深度卷积神经网络和长短时记忆神经网络、注意力机制以及CTC实现,对小语料语音数据进行分类标注和保存。
4.根据权利要求1所述的一种小语料语音识别方法,其特征在于,所述步骤S3具体分为如下步骤:
a、音频数据提取:根据模型建立需求针对性获取相关的语料数据,并对语料进行音频数据分析提取;
b、特征标注:使用语义识别的方法对提取到的音频数据进行语义识别,将音频数据以分句、分词的形式进行语义标注;
c、构建模型:使用深度学习网络对音频数据进行训练,得出语音训练模型;
d、准确性验证:针对每次训练出来的模型进行验证,计算出训练模型得出的识别率;
e、保存模型:若是识别率达到标准,则保存训练模型,若是识别率过低,则自动修改参数并继续进行新一轮训练。
5.根据权利要求1所述的一种小语料语音识别方法,其特征在于,所述步骤S4中,分类保存的小语料语音数据首先会代入至小语料语音识别模型内,进行运算,输出识别结果。
6.根据权利要求1所述的一种小语料语音识别方法,其特征在于,所述步骤S5中,若识别结果达到预定识别值,则输出识别结果,若识别结果未达到预定识别值,则保存小语料语音数据至训练集内,并代入步骤S3中,进行训练,得出语音训练模型。
7.根据权利要求1所述的一种小语料语音识别方法,其特征在于,所述步骤S6中,将小语料语音数据识别结果,通过基于概率图的最大熵隐马尔可夫模型,转化为对应的汉字输出。
8.根据权利要求1-7中任一项所述的一种小语料语音识别系统,其特征在于,包括语音采集模块、分析处理模块和数据存储模块,所述语音采集模块包括数据接收器和语音转换器,所述分析处理模块包括语音分析器和数据处理器,所述数据存储模块包括分类存储单元和训练集存储单元,所述语音采集模块、分析处理模块和数据存储模块之间均相互连接。
9.根据权利要求8所述的一种小语料语音识别系统,其特征在于,所述语音采集模块包括数据接收器和语音转换器,所述数据接收器是指主动使用写好的脚本工具去收集小语料语音数据资料,并且被动接收传输至主机的小语料语音数据资料,所述语音转换器是指对接收的小语料语音数据资料进行整理,将小语料语音数据转化为主机所能接收的格式。
10.根据权利要求8所述的一种小语料语音识别系统,其特征在于,所述分析处理模块包括语音分析器和数据处理器,所述语音分析器是指对转化为主机所能接收格式的小语料语音数据进行分析处理,识别出小语料语音数据的特征,并根据特征对小语料语音数据进行分类传输,所述数据处理器是指接收指定特征的小语料语音数据,将小语料语音数据代入预设的识别模型内,进行分析处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910455300.1A CN110176228A (zh) | 2019-05-29 | 2019-05-29 | 一种小语料语音识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910455300.1A CN110176228A (zh) | 2019-05-29 | 2019-05-29 | 一种小语料语音识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110176228A true CN110176228A (zh) | 2019-08-27 |
Family
ID=67696705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910455300.1A Pending CN110176228A (zh) | 2019-05-29 | 2019-05-29 | 一种小语料语音识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110176228A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675862A (zh) * | 2019-09-25 | 2020-01-10 | 招商局金融科技有限公司 | 语料获取方法、电子装置及存储介质 |
CN110767218A (zh) * | 2019-10-31 | 2020-02-07 | 南京励智心理大数据产业研究院有限公司 | 端到端语音识别方法、系统、装置及其存储介质 |
CN111091812A (zh) * | 2019-11-26 | 2020-05-01 | 苏州思必驰信息科技有限公司 | 小语种语料的生成方法及系统 |
CN111415684A (zh) * | 2020-03-18 | 2020-07-14 | 歌尔微电子有限公司 | 语音模组的测试方法、装置及计算机可读存储介质 |
CN111753552A (zh) * | 2020-07-02 | 2020-10-09 | 浙江百应科技有限公司 | 一种基于nlp的训练模式与识别模式动态切换的方法 |
CN112700763A (zh) * | 2020-12-26 | 2021-04-23 | 科大讯飞股份有限公司 | 语音标注质量评价方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070239444A1 (en) * | 2006-03-29 | 2007-10-11 | Motorola, Inc. | Voice signal perturbation for speech recognition |
CN102968989A (zh) * | 2012-12-10 | 2013-03-13 | 中国科学院自动化研究所 | 一种用于语音识别的Ngram模型改进方法 |
CN108831445A (zh) * | 2018-05-21 | 2018-11-16 | 四川大学 | 四川方言识别方法、声学模型训练方法、装置及设备 |
CN109272990A (zh) * | 2018-09-25 | 2019-01-25 | 江南大学 | 基于卷积神经网络的语音识别方法 |
-
2019
- 2019-05-29 CN CN201910455300.1A patent/CN110176228A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070239444A1 (en) * | 2006-03-29 | 2007-10-11 | Motorola, Inc. | Voice signal perturbation for speech recognition |
CN102968989A (zh) * | 2012-12-10 | 2013-03-13 | 中国科学院自动化研究所 | 一种用于语音识别的Ngram模型改进方法 |
CN108831445A (zh) * | 2018-05-21 | 2018-11-16 | 四川大学 | 四川方言识别方法、声学模型训练方法、装置及设备 |
CN109272990A (zh) * | 2018-09-25 | 2019-01-25 | 江南大学 | 基于卷积神经网络的语音识别方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675862A (zh) * | 2019-09-25 | 2020-01-10 | 招商局金融科技有限公司 | 语料获取方法、电子装置及存储介质 |
CN110767218A (zh) * | 2019-10-31 | 2020-02-07 | 南京励智心理大数据产业研究院有限公司 | 端到端语音识别方法、系统、装置及其存储介质 |
CN111091812A (zh) * | 2019-11-26 | 2020-05-01 | 苏州思必驰信息科技有限公司 | 小语种语料的生成方法及系统 |
CN111091812B (zh) * | 2019-11-26 | 2022-05-17 | 思必驰科技股份有限公司 | 小语种语料的生成方法及系统 |
CN111415684A (zh) * | 2020-03-18 | 2020-07-14 | 歌尔微电子有限公司 | 语音模组的测试方法、装置及计算机可读存储介质 |
CN111415684B (zh) * | 2020-03-18 | 2023-12-22 | 歌尔微电子股份有限公司 | 语音模组的测试方法、装置及计算机可读存储介质 |
CN111753552A (zh) * | 2020-07-02 | 2020-10-09 | 浙江百应科技有限公司 | 一种基于nlp的训练模式与识别模式动态切换的方法 |
CN111753552B (zh) * | 2020-07-02 | 2024-04-19 | 浙江百应科技有限公司 | 一种基于nlp的训练模式与识别模式动态切换的方法 |
CN112700763A (zh) * | 2020-12-26 | 2021-04-23 | 科大讯飞股份有限公司 | 语音标注质量评价方法、装置、设备及存储介质 |
CN112700763B (zh) * | 2020-12-26 | 2024-04-16 | 中国科学技术大学 | 语音标注质量评价方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110176228A (zh) | 一种小语料语音识别方法及系统 | |
CN109255113B (zh) | 智能校对系统 | |
CN101727903B (zh) | 基于多特征和多系统融合的发音质量评估和错误检测方法 | |
CN105468468B (zh) | 面向问答系统的数据纠错方法及装置 | |
CN103971675B (zh) | 自动语音识别方法和系统 | |
CN110717018A (zh) | 一种基于知识图谱的工业设备故障维修问答系统 | |
CN106328166A (zh) | 人机对话异常检测系统及方法 | |
CN105374352A (zh) | 一种语音激活方法及系统 | |
CN109377981B (zh) | 音素对齐的方法及装置 | |
CN109241330A (zh) | 用于识别音频中的关键短语的方法、装置、设备和介质 | |
CN104347071B (zh) | 生成口语考试参考答案的方法及系统 | |
CN107845381A (zh) | 一种机器人语义处理的方法及系统 | |
CN116484052B (zh) | 一种基于大数据的教育资源共享系统 | |
CN106356054A (zh) | 一种基于语音识别的农产品信息采集方法和系统 | |
CN105630772A (zh) | 一种网页评论内容的抽取方法 | |
CN116665674A (zh) | 基于语音和预训练模型的互联网智能化招聘发布方法 | |
CN105070300A (zh) | 一种基于说话人标准化变换的语音情感特征选择方法 | |
CN107766560A (zh) | 客服服务流程的评价方法和系统 | |
CN104901807A (zh) | 一种可用于低端芯片的声纹密码方法 | |
CN116682414B (zh) | 一种基于大数据的方言语音识别系统 | |
CN104424942A (zh) | 一种提高文字语音输入准确率的方法 | |
CN111427996B (zh) | 一种人机交互文本中抽取日期时间的方法和装置 | |
CN113470650A (zh) | 一种基于语音识别的操作票防误方法 | |
CN116564275A (zh) | 一种智能语音的方言识别方法和系统 | |
CN107274886A (zh) | 一种语音识别方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190827 |
|
RJ01 | Rejection of invention patent application after publication |