CN112927679B - 一种语音识别中添加标点符号的方法及语音识别装置 - Google Patents
一种语音识别中添加标点符号的方法及语音识别装置 Download PDFInfo
- Publication number
- CN112927679B CN112927679B CN202110168975.5A CN202110168975A CN112927679B CN 112927679 B CN112927679 B CN 112927679B CN 202110168975 A CN202110168975 A CN 202110168975A CN 112927679 B CN112927679 B CN 112927679B
- Authority
- CN
- China
- Prior art keywords
- voice
- punctuation marks
- speech
- words
- punctuation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 claims abstract description 36
- 239000000284 extract Substances 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 33
- 239000012634 fragment Substances 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 18
- 238000005516 engineering process Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 12
- 238000007792 addition Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
一种语音识别中添加标点符号的方法及语音识别装置。该方法包括:判别器判别并提取语音信息的语音特征,并获得语音数据流;语音解码器对所述语音数据流进行解码,并根据一个可搜索的状态空间以及所述语音特征确定第一符号;所述状态空间包括发音词典、声学模型和语言模型;所述发音词典包含单词及其该单词对应发音的集合;深度神经网络分类器根据上下文对所述第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。该方案可提升语音识别中标点符号添加的准确率。
Description
技术领域
本发明涉及音频技术领域,尤其涉及一种语音识别的技术领域。
背景技术
随着通信技术以及信息处理技术的长足发展与设备计算力的日渐充足,语音识别技术的应用也越来越广泛,如:同声翻译,语音转写,人机交互,语音控制等。
但,传统的语音识别技术中,仅针对实际文本内容与其对应的声音进行建模并分析识别语音内容,对于标点符号却难以同有声文本一样进行建模,因此往往对标签符号忽略不计。因此,传统的语音识别技术直接输出的结果通常为一长串字符或单词信息构成的文本。随着语音长度的增加,文本阅读难度也随之提升。因此,我们需要对语音识别系统的输出结果自动添加标点符号处理,提高易懂性和效率。
发明内容
本申请提供一种可在语音识别装置输出的文本信息中自动添加标点符号的一种语音识别中添加标点符号的方法及语音识别装置。
本申请提供以下技术方案:
一方面,提供一种语音识别中添加标点符号的方法,其包括:判别器判别并提取语音信息的语音特征,并获得语音数据流;语音解码器对所述语音数据流进行解码,并根据一个可搜索的状态空间以及所述语音特征确定第一符号;所述状态空间包括发音词典、声学模型和语言模型;所述发音词典包含单词及其该单词对应发音的集合;深度神经网络分类器根据上下文对所述第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。
又一方面,提供一种语音识别装置,其包括:判别器,用于判别并提取语音信息的语音特征,并获得语音数据流;语音解码器,用于对所述语音数据流进行解码,并根据一个可搜索的状态空间以及所述语音特征确定第一符号;所述状态空间包括发音词典、声学模型和语言模型;所述发音词典包含单词及其该单词对应发音的集合;深度神经网络分类器,用于根据上下文对所述第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。
又一方面,提供一种语音识别装置,其包括:处理器以及存储器;所述处理器调用所述存储器中的程序,执行上述任意一个语音识别中添加标点符号的方法。
又一方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有语音识别中添加标点符号的方法的程序,所述语音识别中添加标点符号的方法的程序被处理器执行时实现执行上述任意一个语音识别中添加标点符号的方法。
本申请的有益效果在于,从语音信息的语音特征,语言模型和DNN分类器三部分同时出发,来解决针对语音识别结果自动添加标点符号的问题,在通过语音特征以及语言模型初步给出标点符号后,再经过DNN分类器对其进行进一步优化,输出包含优化后的标点符号的文本信息。提升了标点符号添加的准确率,从而提升了语音识别输出的文本的可读性和易读性,提升用户体验。
附图说明
图1为本申请实施方式应用的系统架构示意图。
图2为本申请实施方式一提供的一种语音识别中添加标点符号的方法的流程图。
图3为本申请实施方式一中训练发音词典的流程图。
图4为本申请实施方式一中训练语言模型的流程图。
图5为本申请实施方式一中训练DNN分类器的流程图。
图6为本申请实施方式二提供的一种语音识别装置的方框示意图。
图7本申请实施方式三提供的一种语音识别装置的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施方式,对本申请进行进一步详细说明。应当理解,此处所描述的实施方式仅用以解释本申请,并不用于限定本申请。但是,本申请可以以多种不同的形式来实现,并不限于本文所描述的实施方式。相反地,提供这些实施方式的目的是使对本实用新型的公开内容的理解更加透彻全面。
除非另有定义,本文所实用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在限制本申请。
应理解,本文中术语“系统”或“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
请参见图1,其为本申请实施方式应用的语音识别系统架构100的系统架构示意图。该语音识别系统架构100包括:声学模型110、发音词典120、语言模型130、对信号本身特征进行分析抓取的判别器140、语音解码器150和DNN(Deep Neural Networks,深度神经网络)分类器16。该语音识别系统架构100包含了完整的语音识别过程。
该声学模型110、该发音词典120和该语言模型130共同构成语音识别系统的主体。该发音词典120包含该语音识别系统架构100所能处理的单词的集合,并标明其发音。通过该发音词典120获取该声学模型110的建模单元和该语言模型130的建模单元之间的映射关系,从而把该声学模型110和该语言模型130联系起来,并与该发音词典120共同组成一个可搜索的状态空间用于该语音解码器150进行解码工作。
输入的语音信息经过该判别器140,该判别器140判别并提取该语音信息的语音特征,并获得语音数据流。该语音解码器150对该语音数据流进行解码,并根据该状态空间以及该语音特征,确定该语音信息的第一符号。该DNN分类器160是预先训练好的快速DNN分类器,其对该语音解码器150对初步标注的标点符号做进一步判别,对该第一符号进行优化后输出包含第二符号的文本信息。具体而言,该DNN分类器160结合上下文识别文本特征化向量和语音信息特征向量,对该语音解码器150第一符号做进一步判别。从而,实现对语音识别结果自动添加标点符号的功能,并提升了标点符号识别的准确率。
本申请实施例可以应用于各种带有语音识别功能的装置。例如:录音笔、音频会议终端、智能会议记录装置或者有语音识别功能的智能电子设备等。以下将通过具体的实施方式对本申请的技术方案进行阐述。
实施方式一
请参看图2,为本申请实施方式一提供的一种语音识别中添加标点符号的方法。该方法包括:
S210,判别器判别并提取语音信息的语音特征,并获得语音数据流;其中,该判决器是对信号本身的特征进行分析;可选的,该判决器提取的语音特征包括无人声语音片段的时长、以及该无人声语音片段的时间戳;
S220,语音解码器对所述语音数据流进行解码,并根据一个可搜索的状态空间以及所述语音特征确定第一符号;所述状态空间包括发音词典、声学模型和语言模型;所述发音词典包含单词及其该单词对应发音的集合;
S230,深度神经网络分类器根据上下文对所述第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。可选的,该上下文的文本特征与该语音特征均采用特征向量的形式表述,则,S230,具体可以是:深度神经网络分类器是根据上下文识别文本特征向量和语音特征向量对所述第一符号进行分类。
可选的,该DNN分类器是另外单独训练获得的文本分类器,其输入的是带有第一符号的语音识别文本,输出是带有第二符号的文本。
可选的,S210,判别器判别并提取语音信息的语音特征,并获得语音数据流,包括:
S211,接收语音信息后利用人声识别技术确定无人声语音片段的时长;
S212,建立该无人声语音片段的时间戳;具体而言,将所述时间戳的信息向量化加入根据该无人声语音片段的特征向量里,转化为WFST(Weighted Finite-StateTransducers,加权有限状态机)进行计算。
如此,可省去在外部进行逻辑判断的过程,有利于简化标点符号的添加流程和计算过程。同时,由于将语音时长信息加入到时间戳中,在连续的时间戳内,通过语音识别技术判断出的信息,可辅助前述的声学模型、发音词典和语言模型进行判断,更有利于提高语音识别过程中添加标点符号的准确率。
可选的,S220中所述根据一个可搜索的状态空间以及所述语音特征确定第一符号,包括:
S221,根据所述无人声语音片段的时长确定所述无人声语音片段是标点符号还是无意义静音段;
S222,根据所述状态空间识别所述语音数据流中的初步符号;
S223,根据所述时间戳,确认所述初步符号中与所述无人声语音片段的标点符号对应的标点符号为所述第一符号。即,当根据所述状态空间识别出该时间戳对应的语音信息是标点符号,并且根据时长也能确定该时间戳对应的语音信息是标点符号时,才保留该标点符号。
可选的,所述发音词典包括静音词,该静音词包括:第一静音词对应句中标点符号,第二静音词对应句尾标点符号,第三静音词对应无意义静音词。发音词典包含语音识别装置所能处理的单词的集合,并标明了单词的发音。一般而言,语音识别技术中的发声词典是不包含标点符号的,因为标点符号不发音。在本申请的实施方式一中,为了可在语音识别过程中,自动添加标点符号,对发声词典进行了改进,将无人声语音片段对应的词设定为静音词。并该静音词分为上述三类。在发音词典中三类静音词对应不同的符号。
可选的,该第一符号是用于指示语音信息中标点符号的位置和类型的符号,其中,不同的第一符号中不同的符号对应不同的标点符号类型,例如:第一符号可用于在语音信息中标注发音词典中的三类静音词,如用“^^”代表句尾标点符号,“^”代表句中标点符号,无意义静音词无特殊表示。该第二符号为具体的标点符号,如,在最终输出的文本中,将“^^”替换为句号,将“^”替换为逗号。
可选的,通过该发音字典得到声学模型的建模单元和语言模型建模单元间的映射关系,从而把声学模型和语言模型连接起来,并与该声学模型和该语言模型组成一个搜索的状态空间用于解码器进行解码工作。
可选的,请参见图3,该语音识别中添加标点符号的方法还包括:S240,训练发音词典,具体包括:
S241,准备CMUdict(Carnegie Mellon University dictionary,美国卡内基梅隆大学词典)发音词典;
S242,基于CMUdict发音词典训练G2P(Grapheme-to-Phoneme,单词转音素)模型;
S243,采用训练好的G2P模型自动生成在语言模型的训练词汇表中但不在CMUdict发音词典中的单词的发音;
S244,定义静音词的发音,并将这些词添加到CMUdict发音词典中,形成本所述发音词典;其中,静音词对应无人声语音片段,分为三类:句中标点符号、句末标点符号以及无意义静音段。
可选的,所述语言模型为预先训练的模型。请参见图4,该语音识别中添加标点符号的方法还包:S250,训练语言模型,具体包括:
S251,基于经过规范化处理的文本语料,统计出现频率最高的M个单词和N个目标识别范围内的标点符号;可选的,文本语料规范化处理可以包括以下至少一种:删除不在识别目标范围内的标点符号,如破折号、书名号等不常见的标点符号;对非标准单词进行规范化处理,如将罗马数字转化为十进制表示;将非ASCII字符转换为最接近的ASCII等效字符;分割原始文本,纠正可能的错误规范化;
S252,基于所述出现频率最高的所述M个单词和所述N个目标识别范围内的标点符号构造训练词汇表;M、N均为大于等于1的正整数;
S253,根据所述训练词汇表训练所述语言模型。
需要说明的是,上述步骤S251至S253不是对语音信息进行处理,而是在语言模型的构造训练过程中,利用已有的信息和语料对语言模型进行训练的过程。
本申请的事实方式一,在现有的N-Gram(N元模型)语言模型中,与发音词典对应的引入标点符号的定义。对标点符号的预测定义更多是利用上下文文本的信息对标点做统计性地简单预测。例如,通常在主语“你”“我”“他”之前通常是有标点符号的。
请参见图5,该语音识别中添加标点符号的方法还包:S260,训练所述深度神经网络分类,具体包括:
S261,对经过规范化处理的文本语料中的目标标点符号进行分类;可选的,该分类包括判断何种标点符号是句中标点,何种标点符号是句尾标点;可选的,文本语料规范化处理可以包括以下至少一种:删除不在目标识别范围内的标点符号,如破折号、书名号等不常见的标点符号;对非标准单词进行规范化处理,如将罗马数字转化为十进制表示;将非ASCII字符转换为最接近的ASCII等效字符。目标标点符号是指在目标识别范围内的标点符号,如目标识别范围是常见的标点符号:逗号、顿号、句号等,但是破折号、书名号不常见,不在目标识别范围内。
S262,将分类后的所述文本语料送入长短期记忆(Long-Short Term Memory,LSTM)神经网络中进行上下文特征提取训练,获得判别模型。其中,LSTM神经网络是一种特殊的RNN模型。
该DNN分类器使用的训练方法是使用通用的DNN分类器对训练文本做前置标点分类处理,而后将处理后的训练文本送入LSTM网络结构中进行上下文特征提取在进行进一步的训练,得到更为精确的标点符号判断。最终得到一个对之前提出的带有第一符号的文本进行精细标点分类的DNN分类器。
解决语音识别过程中自动添加标点符号的方案包括三类:第一类是利用语音识别生成的文本内容,将文本中所有的单词通过word2vector转化为词向量,并将该词向量送入深度神经网络DNN计算单词后出现标点的概率,然后取最高概率的添加方式作为最后的添加方案。其中,word2vector一种将语料库中的词转化成向量,以便后续在词向量的基础上进行各种计算的算法。该类方法脱离了语音信息本身,单纯基于文本内容确定标点符号的添加,完全未考虑到语音层面诸如静音的信息,由此,可能导致一些比较长的术语和专有名词被标点间隔开。同时,基于其系统的复杂性,对资源和时间的消耗也有所增加,而当需要更新时,如增加标点或者增加语料,也要花更长的时间重新训练神经网络分类模型。第二类是利用语音信息本身,通过判断语音信息中静音的时长是否超过阈值来决定该位置是否应该添加标点符号,若添加,则将该位置的前后语音信息送入到一个神经网络训练的分类器中,以此决定添加哪种标点符号。该类方法,通过静音时长判断,无法应对说话者因为犹豫话没说完但突然停顿的情况,也不适合应对说话较快的情况,容易造成标点符号的误添加。第三类是结合语音识别技术中的语言模型本身,对词与词之间的空隙进行语言模型的建模,利用加权有限状态转换器的特性实现自动添加标点符号。这三类语音识别过程中的标点符号添加方式都存在一定的局限性。
本申请的实施方式一,该声学模型、该发音词典和该语言模型共同构成语音识别系统的主体。在该发音词典中引入静音词;并且,将时间戳的信息向量化加入特征向量里,化为WFST进行计算;采用WFST的特性,在语言模型中将不发声音素细分为三类。并且由发音词典、语言模型和声学模型共同形成一个可搜索的状态空间,由此,可以结合发音词典、语言模型和声学模型,共同实现标点符号的初步添加。该判别器提取语音信息中语音特征,该语音特征包括无人声语音片段的时长及其对应的时间戳。语音解码器对获取的语音数据流进行解码的过程中,根据该状态空间,确定该语音数据流中需要标注标点符号的地方,同时,也确定判决器提取的无人声语音片段中哪些对应的是标点符号,并根据时间戳将二者联系起来,二者重合的地方即为标注第一符号的地方。由此,即可在语音解码器将语音数据解码后,根据状态空间中的发声词典、语言模型识别出的语音停顿处,添加第一符号。然后,再经过该语音解码器对第一符号做进一步判别,优化后输出包含第二符号的文本信息。从而,实现对语音识别结果自动添加标点符号的功能,并提升了标点符号识别的准确率。
本申请实施方式一,在几乎不影响语音识别准确率的前提下,从语音信息的语音特征,语言模型和DNN分类器三部分同时出发,来解决针对语音识别结果自动添加标点符号的问题,在通过语音特征以及语言模型初步给出标点符号后,再经过DNN分类器对其进行进一步优化,输出包含优化后的标点符号的文本信息。提升了标点符号添加的准确率,从而提升了语音识别输出的文本的可读性和易读性,可提升用户体验。
实施方式二
请参看图6,为本申请实施方式二提供的一种语音识别装置300。该语音识别装置300包括但不限于录音笔、音频会议终端、智能会议记录装置或者有语音识别功能的智能电子设备等,对此在本实施方式二中不做限定。该语音识别装置300包括:
判别器310,用于判别并提取语音信息的语音特征,并获得语音数据流;
语音解码器320,用于对该语音数据流进行解码,并根据一个可搜索的状态空间以及该语音特征确定第一符号;该状态空间包括发音词典、声学模型和语言模型;该发音词典包含单词及其该单词对应发音的集合;
深度神经网络分类器330,用于根据上下文对该第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。
可选的,该语音特征包括无人声语音片段的时长、以及该无人声语音片段的时间戳。
可选的,该判别器310,具体用于接收该语音信息后,利用人声识别技术确定无人声语音片段的时长;将该时间戳的信息向量化加入根据该无人声语音片段的特征向量里,化为加权有限状态机进行计算;并获得语音数据流。
可选的,该语音解码器320,具体用于对该语音数据流进行解码,并根据该无人声语音片段的时长确定所述无人声语音片段是标点符号还是无意义静音段;根据该状态空间识别语音数据流中的初步符号;根据该时间戳,确认该初步符号中与无人声语音片段的标点符号对应的标点符号为第一符号。
可选的,该发音词典还包括以下三类静音词:第一静音词对应句中标点符号,第二静音词对应句尾标点符号,第三静音词对应无意义静音词。
可选的,该语言模型为预先训练的模型。该语音识别装置300包括该还包括:语言模型训练单元340,用于基于经过规范化处理的文本语料,统计出现频率最高的M个单词和N个目标识别范围内的标点符号;基于该出现频率最高的M个单词和该N个目标识别范围内的标点符号构造训练词汇表;M、N均为大于等于1的正整数;根据该训练词汇表训练语言模型。
可选的,该语音识别装置300包括该还包括:深度神经网络分类器训练单元350,用于对经过规范化处理的文本语料中的目标标点符号进行分类;将分类后的该文本语料送入长短期记忆神经网络中进行上下文特征提取训练,获得判别模型。
本实施方式二中有不详尽之处、或优化方案、或者具体的实例,请参见上述实施方式一中相同或对应的部分,在此不做重复赘述。
实施方式三
请参看图7,本申请实施方式三提供的一种语音识别装置400的结构示意图。该视频处理装置400包括:处理器410、存储器420以及通信接口430。处理器410、存储器420以及通信接口430之间通过总线系统实现相互的通信连接。处理器410调用存储器420中的程序,执行上述实施方式一提供的任意一种语音分析方法,并将输出结果通过该通信接口430通过无线或有线的方式输出给其他装置,如打印机、电脑、智能电子设备等可现实文本信息的电子装置。
该处理器410可以是一个独立的元器件,也可以是多个处理元件的统称。例如,可以是CPU,也可以是ASIC,或者被配置成实施以上方法的一个或多个集成电路,如至少一个微处理器DSP,或至少一个可编程门这列FPGA等。存储器420为一计算机可读存储介质,其上存储可在处理器410上运行的程序。
本实施方式三中有不详尽之处,请参见上述实施方式一中相同或对应的部分,在此不做重复赘述。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请具体实施方式所描述的功能可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以是由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成。软件模块可以被存放于计算机可读存储介质中,所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,数字视频光盘(Digital Video Disc,DVD))、或者半导体介质(例如,固态硬盘(Solid StateDisk,SSD))等。所述计算机可读存储介质包括但不限于随机存取存储器(Random AccessMemory,RAM)、闪存、只读存储器(Read Only Memory,ROM)、可擦除可编程只读存储器(Erasable Programmable ROM,EPROM)、电可擦可编程只读存储器(Electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、只读光盘(CD-ROM)或者本领域熟知的任何其它形式的存储介质。一种示例性的计算机可读存储介质耦合至处理器,从而使处理器能够从该计算机可读存储介质读取信息,且可向该计算机可读存储介质写入信息。当然,计算机可读存储介质也可以是处理器的组成部分。处理器和计算机可读存储介质可以位于ASIC中。另外,该ASIC可以位于接入网设备、目标网络设备或核心网设备中。当然,处理器和计算机可读存储介质也可以作为分立组件存在于接入网设备、目标网络设备或核心网设备中。当使用软件实现时,也可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机或芯片上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请具体实施方式所述的流程或功能,该芯片可包含有处理器。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机程序指令可以存储在上述计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(Digital Subscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。
上述实施方式说明但并不限制本发明,本领域的技术人员能在权利要求的范围内设计出多个可代替实例。所属领域的技术人员应该意识到,本申请并不局限于上面已经描述并在附图中示出的精确结构,对在没有违反如所附权利要求书所定义的本发明的范围之内,可对具体实现方案做出适当的调整、修改、、等同替换、改进等。因此,凡依据本发明的构思和原则,所做的任意修改和变化,均在所附权利要求书所定义的本发明的范围之内。
Claims (13)
1.一种语音识别中添加标点符号的方法,其特征在于,所述方法包括:
判别器判别并提取语音信息的语音特征,并获得语音数据流,其中,所述语音特征包括无人声语音片段的时长、以及所述无人声语音片段的时间戳;所述判别器判别并提取语音信息的语音特征,包括:
接收所述语音信息后,利用人声识别技术确定无人声语音片段的时长;以及
将所述时间戳的信息向量化加入根据该无人声语音片段的特征向量里,化为加权有限状态机进行计算;
语音解码器对所述语音数据流进行解码,并根据一个可搜索的状态空间以及所述语音特征确定第一符号;所述状态空间包括发音词典、声学模型和语言模型;所述发音词典包含单词及其该单词对应发音的集合;
深度神经网络分类器根据上下文对所述第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。
2.如权利要求1所述的方法,其特征在于,所述根据一个可搜索的状态空间以及所述语音特征确定第一符号,包括:
根据所述无人声语音片段的时长确定所述无人声语音片段是标点符号还是无意义静音段;
根据所述状态空间识别所述语音数据流中的初步符号;
根据所述时间戳,确认所述初步符号中与所述无人声语音片段的标点符号对应的标点符号为所述第一符号。
3.如权利要求1所述的方法,其特征在于,所述发音词典还包括以下三类静音词:第一静音词对应句中标点符号,第二静音词对应句尾标点符号,第三静音词对应无意义静音词;所述第一符号用于标注所述语音信息中的静音词。
4.如权利要求1所述的方法,其特征在于,所述语言模型为预先训练的模型,通过以下训练方法获得:
基于经过规范化处理的文本语料,统计出现频率最高的M个单词和N个目标识别范围内的标点符号;
基于所述出现频率最高的所述M个单词和所述N个目标识别范围内的标点符号构造训练词汇表;M、N均为大于等于1的正整数;
根据所述训练词汇表训练所述语言模型。
5.如权利要求1所述的方法,其特征在于,所述深度神经网络分类器通过以下方法训练获得:
对经过规范化处理的文本语料中的目标标点符号进行分类;
将分类后的所述文本语料送入长短期记忆神经网络中进行上下文特征提取训练,获得判别模型。
6.如权利要求1-5中任意一项所述的方法,其特征在于,所述发音词典、所述声学模型的建模单元和所述语言模型的建模单元之间有映射关系。
7.一种语音识别装置,其特征在于,所述语音识别装置包括:
判别器,用于判别并提取语音信息的语音特征,并获得语音数据流,其中,所述语音特征包括无人声语音片段的时长、以及所述无人声语音片段的时间戳;所述判别器,具体用于接收所述语音信息后,利用人声识别技术确定无人声语音片段的时长;将所述时间戳的信息向量化加入根据该无人声语音片段的特征向量里,化为加权有限状态机进行计算;
语音解码器,用于对所述语音数据流进行解码,并根据一个可搜索的状态空间以及所述语音特征确定第一符号;所述状态空间包括发音词典、声学模型和语言模型;所述发音词典包含单词及其该单词对应发音的集合;
深度神经网络分类器,用于根据上下文对所述第一符号做进一步判别,并输出标注第二符号的文本信息;其中,该深度神经网络分类器为预先训练的快速深度神经网络分类器。
8.如权利要求7所述的语音识别装置,其特征在于,所述语音解码器,具体用于对所述语音数据流进行解码,并根据所述无人声语音片段的时长确定所述无人声语音片段是标点符号还是无意义静音段;根据所述状态空间识别所述语音数据流中的初步符号;根据所述时间戳,确认所述初步符号中与所述无人声语音片段的标点符号对应的标点符号为所述第一符号。
9.如权利要求7所述的语音识别装置,其特征在于,所述发音词典还包括以下三类静音词:第一静音词对应句中标点符号,第二静音词对应句尾标点符号,第三静音词对应无意义静音词;所述第一符号用于标注所述语音信息中的静音词。
10.如权利要求7所述的语音识别装置,其特征在于,所述语音识别装置还包括:
语言模型训练单元,用于基于经过规范化处理的文本语料,统计出现频率最高的M个单词和N个目标识别范围内的标点符号;基于所述出现频率最高的所述M个单词和所述N个目标识别范围内的标点符号构造训练词汇表;M、N均为大于等于1的正整数;根据所述训练词汇表训练所述语言模型。
11.如权利要求7所述的语音识别装置,其特征在于,所述语音识别装置还包括:
深度神经网络分类器训练单元,用于对经过规范化处理的文本语料中的目标标点符号进行分类;将分类后的所述文本语料送入长短期记忆神经网络中进行上下文特征提取训练,获得判别模型。
12.一种语音识别装置,其特征在于,所述语音识别装置包括:处理器以及存储器;所述处理器调用所述存储器中的程序,执行上述权利要求1至6中任意一项所述的语音识别中添加标点符号的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音识别中添加标点符号的方法的程序,所述语音识别中添加标点符号的方法的程序被处理器执行时实现上述权利要求1至6中任意一项所述的语音识别中添加标点符号的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110168975.5A CN112927679B (zh) | 2021-02-07 | 2021-02-07 | 一种语音识别中添加标点符号的方法及语音识别装置 |
PCT/CN2021/120413 WO2022166218A1 (zh) | 2021-02-07 | 2021-09-24 | 一种语音识别中添加标点符号的方法及语音识别装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110168975.5A CN112927679B (zh) | 2021-02-07 | 2021-02-07 | 一种语音识别中添加标点符号的方法及语音识别装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112927679A CN112927679A (zh) | 2021-06-08 |
CN112927679B true CN112927679B (zh) | 2023-08-15 |
Family
ID=76171060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110168975.5A Active CN112927679B (zh) | 2021-02-07 | 2021-02-07 | 一种语音识别中添加标点符号的方法及语音识别装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112927679B (zh) |
WO (1) | WO2022166218A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927679B (zh) * | 2021-02-07 | 2023-08-15 | 虫洞创新平台(深圳)有限公司 | 一种语音识别中添加标点符号的方法及语音识别装置 |
CN113362811B (zh) * | 2021-06-30 | 2023-03-24 | 北京有竹居网络技术有限公司 | 语音识别模型的训练方法、语音识别方法和装置 |
CN113782010B (zh) * | 2021-11-10 | 2022-02-15 | 北京沃丰时代数据科技有限公司 | 机器人响应方法、装置、电子设备及存储介质 |
WO2024029152A1 (ja) * | 2022-08-05 | 2024-02-08 | 株式会社Nttドコモ | 区切り記号挿入装置及び音声認識システム |
CN117392985A (zh) * | 2023-12-11 | 2024-01-12 | 飞狐信息技术(天津)有限公司 | 语音处理方法、装置、终端和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6778958B1 (en) * | 1999-08-30 | 2004-08-17 | International Business Machines Corporation | Symbol insertion apparatus and method |
CN103164399A (zh) * | 2013-02-26 | 2013-06-19 | 北京捷通华声语音技术有限公司 | 一种语音识别中的标点添加方法和装置 |
US9135231B1 (en) * | 2012-10-04 | 2015-09-15 | Google Inc. | Training punctuation models |
CN109448704A (zh) * | 2018-11-20 | 2019-03-08 | 北京智能管家科技有限公司 | 语音解码图的构建方法、装置、服务器和存储介质 |
CN110688822A (zh) * | 2019-09-27 | 2020-01-14 | 上海智臻智能网络科技股份有限公司 | 标点符号的添加方法及设备、介质 |
CN111261162A (zh) * | 2020-03-09 | 2020-06-09 | 北京达佳互联信息技术有限公司 | 语音识别方法、语音识别装置及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001175275A (ja) * | 1999-12-16 | 2001-06-29 | Seiko Epson Corp | サブワード音響モデル生成方法および音声認識装置 |
US7043431B2 (en) * | 2001-08-31 | 2006-05-09 | Nokia Corporation | Multilingual speech recognition system using text derived recognition models |
CA2680304C (en) * | 2008-09-25 | 2017-08-22 | Multimodal Technologies, Inc. | Decoding-time prediction of non-verbalized tokens |
KR102450853B1 (ko) * | 2015-11-30 | 2022-10-04 | 삼성전자주식회사 | 음성 인식 장치 및 방법 |
JP6495850B2 (ja) * | 2016-03-14 | 2019-04-03 | 株式会社東芝 | 情報処理装置、情報処理方法、プログラムおよび認識システム |
CN106653030A (zh) * | 2016-12-02 | 2017-05-10 | 北京云知声信息技术有限公司 | 标点添加方法及装置 |
CN108831481A (zh) * | 2018-08-01 | 2018-11-16 | 平安科技(深圳)有限公司 | 语音识别中符号添加方法、装置、计算机设备及存储介质 |
CN111709242B (zh) * | 2020-06-01 | 2024-02-02 | 广州多益网络股份有限公司 | 一种基于命名实体识别的中文标点符号添加方法 |
CN112927679B (zh) * | 2021-02-07 | 2023-08-15 | 虫洞创新平台(深圳)有限公司 | 一种语音识别中添加标点符号的方法及语音识别装置 |
-
2021
- 2021-02-07 CN CN202110168975.5A patent/CN112927679B/zh active Active
- 2021-09-24 WO PCT/CN2021/120413 patent/WO2022166218A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6778958B1 (en) * | 1999-08-30 | 2004-08-17 | International Business Machines Corporation | Symbol insertion apparatus and method |
US9135231B1 (en) * | 2012-10-04 | 2015-09-15 | Google Inc. | Training punctuation models |
CN103164399A (zh) * | 2013-02-26 | 2013-06-19 | 北京捷通华声语音技术有限公司 | 一种语音识别中的标点添加方法和装置 |
CN109448704A (zh) * | 2018-11-20 | 2019-03-08 | 北京智能管家科技有限公司 | 语音解码图的构建方法、装置、服务器和存储介质 |
CN110688822A (zh) * | 2019-09-27 | 2020-01-14 | 上海智臻智能网络科技股份有限公司 | 标点符号的添加方法及设备、介质 |
CN111261162A (zh) * | 2020-03-09 | 2020-06-09 | 北京达佳互联信息技术有限公司 | 语音识别方法、语音识别装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
Fast and Accurate Capitalization and Punctuation for Automatic Speech Recognition Using Transformer and Chunk Merging;Binh Nguyen等;2019 22nd Conference of the Oriental COCOSDA International Committee for the Co-ordination and Standardisation of Speech Databases and Assessment Techniques;第1-3页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112927679A (zh) | 2021-06-08 |
WO2022166218A1 (zh) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112927679B (zh) | 一种语音识别中添加标点符号的方法及语音识别装置 | |
CN108564941B (zh) | 语音识别方法、装置、设备及存储介质 | |
CN109754809B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN111968679B (zh) | 情感识别方法、装置、电子设备及存储介质 | |
JP2019215513A (ja) | 音声区間の検出方法および装置 | |
EP2860727A1 (en) | Voice recognition method and device | |
US20170371863A1 (en) | Intention inference system and intention inference method | |
WO2020186712A1 (zh) | 一种语音识别方法、装置及终端 | |
CN106875936B (zh) | 语音识别方法及装置 | |
WO2021063101A1 (zh) | 基于人工智能的语音断点检测方法、装置和设备 | |
JP6875819B2 (ja) | 音響モデル入力データの正規化装置及び方法と、音声認識装置 | |
CN112116907A (zh) | 语音识别模型建立、语音识别方法、装置、设备和介质 | |
CN110503956B (zh) | 语音识别方法、装置、介质及电子设备 | |
CN110853669B (zh) | 音频识别方法、装置及设备 | |
JP3660512B2 (ja) | 音声認識方法、その装置及びプログラム記録媒体 | |
CN114999463B (zh) | 语音识别方法、装置、设备及介质 | |
CN116052655A (zh) | 音频处理方法、装置、电子设备和可读存储介质 | |
CN112037772B (zh) | 基于多模态的响应义务检测方法、系统及装置 | |
CN114242045A (zh) | 一种自然语言对话系统意图深度学习方法 | |
CN110895938B (zh) | 语音校正系统及语音校正方法 | |
CN110992986A (zh) | 单词音节重读检错方法、装置、电子设备和存储介质 | |
CN113421587B (zh) | 语音评测的方法、装置、计算设备及存储介质 | |
CN113470617B (zh) | 语音识别方法以及电子设备、存储装置 | |
CN114255758A (zh) | 口语评测方法及装置、设备以及存储介质 | |
TWI826031B (zh) | 基於歷史對話內容執行語音辨識的電子裝置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |