CN108281139A - 语音转写方法和装置、机器人 - Google Patents

语音转写方法和装置、机器人 Download PDF

Info

Publication number
CN108281139A
CN108281139A CN201611265802.0A CN201611265802A CN108281139A CN 108281139 A CN108281139 A CN 108281139A CN 201611265802 A CN201611265802 A CN 201611265802A CN 108281139 A CN108281139 A CN 108281139A
Authority
CN
China
Prior art keywords
text data
voice signal
complete sequence
convolutional neural
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611265802.0A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Institute Of Artificial Intelligence
Original Assignee
Kuang Chi Innovative Technology Ltd
Shenzhen Guangqi Hezhong Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kuang Chi Innovative Technology Ltd, Shenzhen Guangqi Hezhong Technology Co Ltd filed Critical Kuang Chi Innovative Technology Ltd
Priority to CN201611265802.0A priority Critical patent/CN108281139A/zh
Publication of CN108281139A publication Critical patent/CN108281139A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种语音转写方法和装置、机器人。其中,该方法包括:获取语音信号的语谱图;将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对整句语音信号进行识别的神经网络;输出文本数据。本发明解决了现有技术中的语音转写方式的实时性不高的技术问题。

Description

语音转写方法和装置、机器人
技术领域
本发明涉及人工智能领域,具体而言,涉及一种语音转写方法和装置、机器人。
背景技术
人工智能的应用中,语音识别如今取得显著的进步,不管是英文、中文还是其他语种,机器的语音识别准确率在不断上升。其中,语音听写技术的发展最为迅速,目前已广泛在语音输入、语音搜索、语音助手等产品中得到应用。但是语音转写目前还存在一定的难度,由于在产生录音文件的过程中使用者并没有估计到所录音会被用于语音识别,因此相比于语音听写,语音转写面临着方言、说话风格等难点。
卷积神经网络CNN在2012年就被用于语音识别系统,但始终没有大的突破。由于其使用固定长度的帧拼接作为输入,无法看到足够长的语音上下文信息;另一个不足是将CNN作为一种特征提取器,因此所用的卷积层数很少,表达能力有限。
目前最好的语音识别系统采用双向长短时记忆网络(LSTM,LongShort TermMemory),这种网络能够对语音的长时相关性进行建模,但是这一系统存在训练复杂度高、解码时延高的问题,在工业界的实时识别系统中很难应用。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种语音转写方法和装置、机器人,以至少解决现有技术中的语音转写方式的实时性不高的技术问题。
根据本发明实施例的一个方面,提供了一种语音转写方法,包括:获取语音信号的语谱图;将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对语音信号进行识别的神经网络;输出文本数据。
可选地,每个卷积层和池化层对包括:一个卷积层和一个池化层,且池化层的输入为卷积层的输出。
可选地,通过以下方式获得经训练后的深度全序列卷积神经网络:根据训练数据集对深度全序列卷积神经网络进行训练,得到所述训练后的深度全序列卷积神经网络;其中,所述训练数据集包括:多种语音信号的语谱图,以及与所述多种语音信号对应的多个文本数据。
可选地,将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据包括:利用深度全序列卷积神经网络依次执行以下步骤:对语谱图进行图像识别,得到识别结果;对识别结果进行关键词抽取;基于抽取的关键词在预设的语料库中进行搜索,得到搜索结果;基于搜索结果结合语音信号所对应的领域得到文本数据。
可选地,基于搜索结果结合语音信号所在的领域得到文本数据包括:对搜索结果进行后处理,得到后处理结果;其中,后处理包括:对搜索结果进行排序、分类、筛选和提取;基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
可选地,在存在多个解码网络的情况下,基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据包括:将多个解码网络进行融合;基于融合后的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
可选地,在输出文本数据之后,方法还包括:对输出的文本数据进行分句、分段;删除文本数据中的停顿词、语气词和重复词。
可选地,对输出的文本数据进行分句、分段包括:通过预设的两级级联双线长短时记忆网络模型对输出的文本数据进行分句和分段;其中,两级级联双线长短时记忆网络模型包括:输入层、输出层,以及位于输入层和输出层之间的前向长短时记忆网络和后向长短时记忆网络。
根据本发明实施例的另一方面,还提供了一种语音转写装置,包括:获取模块,用于获取语音信号的语谱图;第一处理模块,用于将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对整句语音信号进行识别的神经网络;输出模块,用于输出文本数据。
可选地,每个卷积层和池化层对包括:一个卷积层和一个池化层,且池化层的输入为卷积层的输出。
可选地,第一处理模块包括:输入单元和深度全序列卷积神经网络;其中,输入单元,用于将语谱图输入到深度全序列卷积神经网络;深度全序列卷积神经网络,用于执行以下步骤:对语谱图进行图像识别,得到识别结果;对识别结果进行关键词抽取;基于抽取的关键词在预设的语料库中进行搜索,得到搜索结果;基于搜索结果结合语音信号所对应的领域得到文本数据。
可选地,深度全序列卷积神经网络基于搜索结果结合语音信号所在的领域得到文本数据包括:深度全序列卷积神经网络对搜索结果进行后处理,得到后处理结果;其中,后处理包括:对搜索结果进行排序、分类、筛选和提取;深度全序列卷积神经网络基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
可选地,在存在多个解码网络的情况下,深度全序列卷积神经网络基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据包括:深度全序列卷积神经网络将多个解码网络进行融合;深度全序列卷积神经网络基于融合后的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
可选地,装置还包括:第二处理模块,用于对输出的文本数据进行分句、分段;以及删除文本数据中的停顿词、语气词和重复词。
可选地,第二处理模块包括:处理单元,用于通过预设的两级级联双线长短时记忆网络模型对输出的文本数据进行分句和分段;其中,两级级联双线长短时记忆网络模型包括:输入层、输出层,以及位于输入层和输出层之间的前向长短时记忆网络和后向长短时记忆网络。
根据本发明实施例的另一个方面,提供了一种机器人,包括:上述语音转写装置。
在本发明实施例中,采用深度全序列卷积神经网络,将语音信号的语谱图作为输入,对整句语音信号进行识别,得到语音信号的文本数据的方式,即通过深度全序列卷积神经网络对整句语音信号进行识别,与现有技术中一个词一个词进行识别转写的方式相比,提高了转写的效率,提高了转写的实时性,进而解决了现有技术中的语音转写方式的实时性不高的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的语音转写方法的流程图;
图2是根据本发明优选实施例提供的语音处理过程的示意图;
图3是根据本发明实施例的语音转写装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种语音转写的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的语音转写方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取语音信号的语谱图。
步骤S104,将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对整句语音信号进行识别的神经网络。
步骤S106,输出文本数据。
通过上述步骤,采用深度全序列卷积神经网络,将语音信号的语谱图作为输入,对整句语音信号进行识别,得到语音信号的文本数据的方式,即通过深度全序列卷积神经网络对整句语音信号进行识别,与现有技术中一个词一个词进行识别转写的方式相比,提高了转写的效率,提高了转写的实时性,进而解决了现有技术中的语音转写方式的实时性不高的技术问题。
需要说明的是,将语谱图作为输入端,与现有技术中采用的线性预测系数LPC、倒谱系数CEP、Mel倒谱系数MFCC和感知线性预测PLP等语音特征作为输入的语音识别框架相比,具有最优特征自学习、提取等优势。
需要说明的是,每个卷积层和池化层对包括:一个卷积层和一个池化层,且池化层的输入为卷积层的输出。
在本发明的一个实施例中,上述步骤S104可以表现为:利用深度全序列卷积神经网络依次执行以下步骤:对语谱图进行图像识别,得到识别结果;对识别结果进行关键词抽取;基于抽取的关键词在预设的语料库中进行搜索,得到搜索结果;基于搜索结果结合语音信号所对应的领域得到文本数据。通过该方式进一步提高了语音转写的准确率。
需要说明的是,上述步骤S104中包含的各个步骤中的每个步骤可以是一个卷积层和池化层对来实现的,但并不限于此,比如可以通过一个卷积层、以及一个卷积层和池化层对来实现,或者可以通过两个卷积层和池化层来实现,并不对其进行限定。
需要说明的是,基于搜索结果结合语音信号所在的领域得到文本数据可以表现为:对搜索结果进行后处理,得到后处理结果;其中,后处理包括:对搜索结果进行排序、分类、筛选和提取;基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
需要说明的是,上述搜索结果可以包括上下文信息,因而依据该上下文信息和上述关键词可以得到该关键词的真实所要表达的含义。
需要说明的是,在存在多个解码网络的情况下,基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据可以表现为:将多个解码网络进行融合;基于融合后的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
需要说明的是,上述深度全序列卷积神经网络是经训练后的深度全序列卷积神经网络,在训练过程中需要大量的训练数据,称为训练数据集,其中,该训练数据集中包括多种语音信号的语谱图,以及该语音信号对应的文本数据。
在本发明的一个实施例中,可以通过以下方式获得经训练后的深度全序列卷积神经网络:根据训练数据集对深度全序列卷积神经网络进行训练,得到训练后的深度全序列卷积神经网络;其中,训练数据集包括:多种语音信号的语谱图,以及与多种语音信号对应的多个文本数据。
需要说明的是,上述训练的步骤可以是上述步骤S104所包含的步骤,但并不限于此。
为了提高语音转写的可阅读性,需要对本文数据进行后处理,因而在本发明的一个实施例中,在上述步骤S106之后,上述方法还可以包括:对输出的文本数据进行分句、分段;删除文本数据中的停顿词、语气词和重复词。
需要说明的是,对输出的文本数据进行分句、分段可以表现为:通过预设的两级级联双线长短时记忆网络模型对输出的文本数据进行分句和分段;其中,两级级联双线长短时记忆网络模型包括:输入层、输出层,以及位于输入层和输出层之间的前向长短时记忆网络和后向长短时记忆网络。
需要说明的是,可以通过语义泛化结合双向长短时记忆网络来实现内容的顺滑,即删除文本数据中的停顿词、语气词和重复词;进而使得文本更加简洁明了。
需要说明的是,上述方法可以应用于以下场景中,但并不限于此:电视节目、记者采访、各类机器人等。
需要说明的是,上述方法的执行主体可以是终端设备,比如手机、计算机、平板电脑、手环等,但并不限于此。
为了更好地理解本发明实施例,以下结合优选的实施例对本发明做进一步解释。
本发明优选实施例提出用深度全序列卷积神经网络(DFCNN)使用大量的卷积层直接对整句语音信号进行建模。首先,在输入端直接将语谱图作为输入,相比其他以传统语音特征(如线性预测系数LPC、倒谱系数CEP、Mel倒谱系数MFCC和感知线性预测PLP)作为输入的语音识别框架相比具有最优特征自学习、提取等优势。其次,在模型结构上,借鉴了图像识别的网络配置,对语谱图做多层卷积变换,同时在卷积层之后再加上池化层,进而识别整个语音中的所有关联信息,而不是单个谱段的离散信息。这样就可以表达出语音的长时相关性,同时,对于新输入的语音信号,模型能自动记录并关联之前的相关信息,因此也可以实现短延时的在线解码。
本发明优选方案根据语音识别的解码结果自动进行关键信息抽取,实时进行语料搜索;随后,对搜索结果做排序、分类、筛选、提取等一系列后处理;之后采用基于加权有限状态转换器(WFST)的快速解码网络在相关领域内进行解码;同时,可将不同的WFST网络进行融合,从而优化解码过程,并最终形成特定语音相关的语言模型,从而进一步提高语音转写的准确率。综上所述,该模型建模过程中的关键步骤依次为:1.关键词抽取,2.语料搜索(相当于上述实施例中的基于抽取的关键词在预设的语料库中进行搜索,得到搜索结果),3.语料后处理(相当于上述实施例中的对搜索结果进行排序、分类、筛选和提取),4.领域WFST(相当于上述实施例中的基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据),5.WFST融合,如图2所示,其中,图2是根据本发明优选实施例提供的语音处理过程的示意图。
为了提高语音转写文本的可阅读性,要对文本进行后处理,即对口语化的文本进行分句、分段,并对文本内容的流利性进行处理,以利于更好的阅读与编辑。在分句与分段中,通过提取上下文相关的语义特征,同时结合语音特征,来进行子句与段落的划分,使用的技术为两级级联双向长短时记忆网络建模。该网络的输入层和输出层之间存在两个隐含层,分别为前向和后向的长短时记忆网络。这个结构提供给输出层输入序列中每个点的完整的过去和未来的上下文信息;内容顺滑,即除去转写结果中的停顿词、语气词、重复词,使顺滑后的文本更易于阅读,所使用技术为泛化特征结合双向长短时记忆网络建模。该网络在双向长短时记忆网络的基础上,将语义泛化作为网络输出层的约束条件,从而使得输出文本更加简洁明了。
实施例2
根据本发明实施例,提供了一种语音转写装置,该装置能够执行上述语音转写方法。
图3是根据本发明实施例的语音转写装置的示意图,如图3所示,该装置包括:获取模块32、第一处理模块34、输出模块36。
获取模块32,用于获取语音信号的语谱图。
第一处理模块34,与获取模块32连接,用于将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对整句语音信号进行识别的神经网络。
输出模块36,与上述第一处理模块34连接,用于输出文本数据。
通过上述装置,采用深度全序列卷积神经网络,将语音信号的语谱图作为输入,对整句语音信号进行识别,得到语音信号的文本数据的方式,即通过深度全序列卷积神经网络对整句语音信号进行识别,与现有技术中一个词一个词进行识别转写的方式相比,提高了转写的效率,提高了转写的实时性,进而解决了现有技术中的语音转写方式的实时性不高的技术问题。
需要说明的是,将语谱图作为输入端,与现有技术中采用的线性预测系数LPC、倒谱系数CEP、Mel倒谱系数MFCC和感知线性预测PLP等语音特征作为输入的语音识别框架相比,具有最优特征自学习、提取等优势。
需要说明的是,每个卷积层和池化层对包括:一个卷积层和一个池化层,且池化层的输入为卷积层的输出。
在本发明的一个实施例中,上述第一处理模块34包括:输入单元和深度全序列卷积神经网络;其中,输入单元,用于将语谱图输入到深度全序列卷积神经网络;深度全序列卷积神经网络,用于执行以下步骤::对语谱图进行图像识别,得到识别结果;对识别结果进行关键词抽取;基于抽取的关键词在预设的语料库中进行搜索,得到搜索结果;基于搜索结果结合语音信号所对应的领域得到文本数据。进一步高了语音转写的准确率。
需要说明的是,上述深度全序列卷积神经网络所执行的每个步骤可以是一个卷积层和池化层对来实现的,但并不限于此,比如可以通过一个卷积层、以及一个卷积层和池化层对来实现,或者可以通过两个卷积层和池化层来实现,并不对其进行限定。
需要说明的是,深度全序列卷积神经网络基于搜索结果结合语音信号所在的领域得到文本数据包括:深度全序列卷积神经网络对搜索结果进行后处理,得到后处理结果;其中,后处理包括:对搜索结果进行排序、分类、筛选和提取;深度全序列卷积神经网络基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
需要说明的是,上述搜索结果可以包括上下文信息,因而依据该上下文信息和上述关键词可以得到该关键词的真实所要表达的含义。
需要说明的是,上述在存在多个解码网络的情况下,深度全序列卷积神经网络基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据包括:深度全序列卷积神经网络将多个解码网络进行融合;深度全序列卷积神经网络基于融合后的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
需要说明的是,上述深度全序列卷积神经网络是经训练后的深度全序列卷积神经网络,在训练过程中需要大量的训练数据,称为训练数据集,其中,该训练数据集中包括多种语音信号的语谱图,以及该语音信号对应的文本数据。
在本发明的一个实施例中,上述装置还包括训练模块,用于根据训练数据集对深度全序列卷积神经网络进行训练,得到所述训练后的深度全序列卷积神经网络;其中,所述训练数据集包括:多种语音信号的语谱图,以及与所述多种语音信号对应的多个文本数据。
为了提高语音转写的可阅读性,需要对本文数据进行后处理,因而,在本发明的一个实施例中,上述装置还可以包括:第二处理模块,与上述输出模块36连接,用于对输出的文本数据进行分句、分段;以及删除文本数据中的停顿词、语气词和重复词。
需要说明的是,上述第二处理模块包括:处理单元,用于通过预设的两级级联双线长短时记忆网络模型对输出的文本数据进行分句和分段;其中,两级级联双线长短时记忆网络模型包括:输入层、输出层,以及位于输入层和输出层之间的前向长短时记忆网络和后向长短时记忆网络。
需要说明的是,上述第二处理模块,还用于通过语义泛化结合双向长短时记忆网络来实现内容的顺滑,即删除文本数据中的停顿词、语气词和重复词;进而使得文本更加简洁明了。
需要说明的是,上述装置可以应用于以下场景中,但并不限于此:电视节目、记者采访、各类机器人等。
需要说明的是,上述装置可以位于终端设备,比如手机、计算机、平板电脑、手环等,但并不限于此。
本发明实施例还提供了一种机器人,包括:上述实施例所述的装置。
此处需要说明的是,上述获取模块32、第一处理模块34、输出模块36对应于实施例1中的步骤S102至步骤S106,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (16)

1.一种语音转写方法,其特征在于,包括:
获取语音信号的语谱图;
将获取的所述语谱图输入到经训练后的深度全序列卷积神经网络,得到所述语音信号对应的文本数据;其中,所述深度全序列卷积神经网络为使用多个卷积层和池化层对对语音信号进行识别的神经网络;
输出所述文本数据。
2.根据权利要求1所述的方法,其特征在于,每个所述卷积层和池化层对包括:一个卷积层和一个池化层,且所述池化层的输入为所述卷积层的输出。
3.根据权利要求1所述的方法,其特征在于,通过以下方式获得经训练后的深度全序列卷积神经网络:
根据训练数据集对深度全序列卷积神经网络进行训练,得到所述训练后的深度全序列卷积神经网络;其中,所述训练数据集包括:多种语音信号的语谱图,以及与所述多种语音信号对应的多个文本数据。
4.根据权利要求1所述的方法,其特征在于,将获取的所述语谱图输入到经训练后的深度全序列卷积神经网络,得到所述语音信号对应的文本数据包括:
利用所述深度全序列卷积神经网络依次执行以下步骤:
对所述语谱图进行图像识别,得到识别结果;
对所述识别结果进行关键词抽取;
基于抽取的所述关键词在预设的语料库中进行搜索,得到搜索结果;
基于所述搜索结果结合所述语音信号所对应的领域得到所述文本数据。
5.根据权利要求4所述的方法,其特征在于,基于所述搜索结果结合所述语音信号所在的领域得到所述文本数据包括:
对所述搜索结果进行后处理,得到后处理结果;其中,所述后处理包括:对所述搜索结果进行排序、分类、筛选和提取;
基于加权有限状态转换器的解码网络,依据所述后处理结果,在与所述语音信号所对应的领域内对所述关键词进行解码,得到所述文本数据。
6.根据权利要求5所述的方法,其特征在于,在存在多个所述解码网络的情况下,基于加权有限状态转换器的解码网络,依据所述后处理结果,在与所述语音信号所对应的领域内对所述关键词进行解码,得到所述文本数据包括:
将多个所述解码网络进行融合;
基于融合后的解码网络,依据所述后处理结果,在与所述语音信号所对应的领域内对所述关键词进行解码,得到所述文本数据。
7.根据权利要求1所述的方法,其特征在于,在输出所述文本数据之后,所述方法还包括:
对输出的文本数据进行分句、分段;
删除所述文本数据中的停顿词、语气词和重复词。
8.根据权利要求7所述的方法,其特征在于,对输出的文本数据进行分句、分段包括:
通过预设的两级级联双线长短时记忆网络模型对输出的文本数据进行分句和分段;其中,所述两级级联双线长短时记忆网络模型包括:输入层、输出层,以及位于所述输入层和所述输出层之间的前向长短时记忆网络和后向长短时记忆网络。
9.一种语音转写装置,其特征在于,包括:
获取模块,用于获取语音信号的语谱图;
第一处理模块,用于将获取的所述语谱图输入到经训练后的深度全序列卷积神经网络,得到所述语音信号对应的文本数据;其中,所述深度全序列卷积神经网络为使用多个卷积层和池化层对对整句语音信号进行识别的神经网络;
输出模块,用于输出所述文本数据。
10.根据权利要求9所述的装置,其特征在于,每个所述卷积层和池化层对包括:一个卷积层和一个池化层,且所述池化层的输入为所述卷积层的输出。
11.根据权利要求9所述的装置,其特征在于,所述第一处理模块包括:输入单元和所述深度全序列卷积神经网络;
其中,所述输入单元,用于将所述语谱图输入到所述深度全序列卷积神经网络;
所述深度全序列卷积神经网络,用于执行以下步骤:
对所述语谱图进行图像识别,得到识别结果;
对所述识别结果进行关键词抽取;
基于抽取的所述关键词在预设的语料库中进行搜索,得到搜索结果;
基于所述搜索结果结合所述语音信号所对应的领域得到所述文本数据。
12.根据权利要求11所述的装置,其特征在于,所述深度全序列卷积神经网络基于所述搜索结果结合所述语音信号所在的领域得到所述文本数据包括:
所述深度全序列卷积神经网络对所述搜索结果进行后处理,得到后处理结果;其中,所述后处理包括:对所述搜索结果进行排序、分类、筛选和提取;
所述深度全序列卷积神经网络基于加权有限状态转换器的解码网络,依据所述后处理结果,在与所述语音信号所对应的领域内对所述关键词进行解码,得到所述文本数据。
13.根据权利要求12所述的装置,其特征在于,在存在多个所述解码网络的情况下,所述深度全序列卷积神经网络基于加权有限状态转换器的解码网络,依据所述后处理结果,在与所述语音信号所对应的领域内对所述关键词进行解码,得到所述文本数据包括:
所述深度全序列卷积神经网络将多个所述解码网络进行融合;
所述深度全序列卷积神经网络基于融合后的解码网络,依据所述后处理结果,在与所述语音信号所对应的领域内对所述关键词进行解码,得到所述文本数据。
14.根据权利要求9所述的装置,其特征在于,所述装置还包括:
第二处理模块,用于对输出的文本数据进行分句、分段;以及删除所述文本数据中的停顿词、语气词和重复词。
15.根据权利要求14所述的装置,其特征在于,所述第二处理模块包括:
处理单元,用于通过预设的两级级联双线长短时记忆网络模型对输出的文本数据进行分句和分段;其中,所述两级级联双线长短时记忆网络模型包括:输入层、输出层,以及位于所述输入层和所述输出层之间的前向长短时记忆网络和后向长短时记忆网络。
16.一种机器人,其特征在于,包括:权利要求9至15中任一项所述的语音转写装置。
CN201611265802.0A 2016-12-30 2016-12-30 语音转写方法和装置、机器人 Pending CN108281139A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611265802.0A CN108281139A (zh) 2016-12-30 2016-12-30 语音转写方法和装置、机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611265802.0A CN108281139A (zh) 2016-12-30 2016-12-30 语音转写方法和装置、机器人

Publications (1)

Publication Number Publication Date
CN108281139A true CN108281139A (zh) 2018-07-13

Family

ID=62800277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611265802.0A Pending CN108281139A (zh) 2016-12-30 2016-12-30 语音转写方法和装置、机器人

Country Status (1)

Country Link
CN (1) CN108281139A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147775A (zh) * 2018-10-18 2019-01-04 深圳供电局有限公司 一种基于神经网络的语音识别方法及装置
CN109360551A (zh) * 2018-10-25 2019-02-19 珠海格力电器股份有限公司 一种语音识别方法及装置
CN109448707A (zh) * 2018-12-18 2019-03-08 北京嘉楠捷思信息技术有限公司 一种语音识别方法及装置、设备、介质
CN109525787A (zh) * 2018-12-13 2019-03-26 南京邮电大学 面向直播场景的实时字幕翻译及系统实现方法
CN109605373A (zh) * 2018-12-21 2019-04-12 重庆大学 基于机器人的语音交互方法
CN110827793A (zh) * 2019-10-21 2020-02-21 成都大公博创信息技术有限公司 一种语种识别方法
CN111489745A (zh) * 2019-01-28 2020-08-04 上海菲碧文化传媒有限公司 一种应用于人工智能的汉语语音识别系统
CN111508495A (zh) * 2020-05-02 2020-08-07 北京花兰德科技咨询服务有限公司 一种与人协作的人工智能机器人及通信方法
CN111798835A (zh) * 2020-07-25 2020-10-20 深圳市维度统计咨询股份有限公司 一种语音识别转化系统及方法
CN112133279A (zh) * 2019-06-06 2020-12-25 Tcl集团股份有限公司 车载信息播报方法、装置及终端设备
CN112581965A (zh) * 2020-12-11 2021-03-30 天津讯飞极智科技有限公司 转写方法、装置、录音笔和存储介质
WO2021115083A1 (zh) * 2019-12-11 2021-06-17 北京影谱科技股份有限公司 基于神经网络的音频信号时序处理方法、装置及系统及计算机可读存储介质
CN113658596A (zh) * 2020-04-29 2021-11-16 扬智科技股份有限公司 语意辨识方法与语意辨识装置
WO2022068233A1 (zh) * 2020-09-29 2022-04-07 北京捷通华声科技股份有限公司 一种语音识别的方法、装置及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104952448A (zh) * 2015-05-04 2015-09-30 张爱英 一种双向长短时记忆递归神经网络的特征增强方法及系统
US20150310862A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification
US20160099010A1 (en) * 2014-10-03 2016-04-07 Google Inc. Convolutional, long short-term memory, fully connected deep neural networks
CN105513591A (zh) * 2015-12-21 2016-04-20 百度在线网络技术(北京)有限公司 用lstm循环神经网络模型进行语音识别的方法和装置
CN105895085A (zh) * 2016-03-30 2016-08-24 科大讯飞股份有限公司 一种多媒体转写方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150310862A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification
US20160099010A1 (en) * 2014-10-03 2016-04-07 Google Inc. Convolutional, long short-term memory, fully connected deep neural networks
CN104952448A (zh) * 2015-05-04 2015-09-30 张爱英 一种双向长短时记忆递归神经网络的特征增强方法及系统
CN105513591A (zh) * 2015-12-21 2016-04-20 百度在线网络技术(北京)有限公司 用lstm循环神经网络模型进行语音识别的方法和装置
CN105895085A (zh) * 2016-03-30 2016-08-24 科大讯飞股份有限公司 一种多媒体转写方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
雷锋网: "干货|详解最新语音识别框架 深度全序列卷积神经网络", 《HTTPS://WWW.SOHU.COM/A/109257044_114877》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147775A (zh) * 2018-10-18 2019-01-04 深圳供电局有限公司 一种基于神经网络的语音识别方法及装置
CN109360551A (zh) * 2018-10-25 2019-02-19 珠海格力电器股份有限公司 一种语音识别方法及装置
CN109525787B (zh) * 2018-12-13 2021-03-16 南京邮电大学 面向直播场景的实时字幕翻译及系统实现方法
CN109525787A (zh) * 2018-12-13 2019-03-26 南京邮电大学 面向直播场景的实时字幕翻译及系统实现方法
CN109448707A (zh) * 2018-12-18 2019-03-08 北京嘉楠捷思信息技术有限公司 一种语音识别方法及装置、设备、介质
CN109605373A (zh) * 2018-12-21 2019-04-12 重庆大学 基于机器人的语音交互方法
CN111489745A (zh) * 2019-01-28 2020-08-04 上海菲碧文化传媒有限公司 一种应用于人工智能的汉语语音识别系统
CN112133279B (zh) * 2019-06-06 2024-06-21 Tcl科技集团股份有限公司 车载信息播报方法、装置及终端设备
CN112133279A (zh) * 2019-06-06 2020-12-25 Tcl集团股份有限公司 车载信息播报方法、装置及终端设备
CN110827793A (zh) * 2019-10-21 2020-02-21 成都大公博创信息技术有限公司 一种语种识别方法
WO2021115083A1 (zh) * 2019-12-11 2021-06-17 北京影谱科技股份有限公司 基于神经网络的音频信号时序处理方法、装置及系统及计算机可读存储介质
CN113658596A (zh) * 2020-04-29 2021-11-16 扬智科技股份有限公司 语意辨识方法与语意辨识装置
CN111508495A (zh) * 2020-05-02 2020-08-07 北京花兰德科技咨询服务有限公司 一种与人协作的人工智能机器人及通信方法
CN111798835A (zh) * 2020-07-25 2020-10-20 深圳市维度统计咨询股份有限公司 一种语音识别转化系统及方法
WO2022068233A1 (zh) * 2020-09-29 2022-04-07 北京捷通华声科技股份有限公司 一种语音识别的方法、装置及计算机可读存储介质
CN112581965A (zh) * 2020-12-11 2021-03-30 天津讯飞极智科技有限公司 转写方法、装置、录音笔和存储介质

Similar Documents

Publication Publication Date Title
CN108281139A (zh) 语音转写方法和装置、机器人
CN110321419B (zh) 一种融合深度表示与交互模型的问答匹配方法
CN108305641B (zh) 情感信息的确定方法和装置
US9818409B2 (en) Context-dependent modeling of phonemes
CN104735468B (zh) 一种基于语义分析将图像合成新视频的方法及系统
CN108305643B (zh) 情感信息的确定方法和装置
WO2022095380A1 (zh) 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质
CN109117777A (zh) 生成信息的方法和装置
CN110674339A (zh) 一种基于多模态融合的中文歌曲情感分类方法
CN106407178A (zh) 一种会话摘要生成方法及装置
CN114580382A (zh) 文本纠错方法以及装置
CN113094578A (zh) 基于深度学习的内容推荐方法、装置、设备及存储介质
CN107948730A (zh) 基于图片生成视频的方法、装置、设备及存储介质
CN111488813B (zh) 视频的情感标注方法、装置、电子设备及存储介质
CN113408287A (zh) 实体识别方法、装置、电子设备及存储介质
CN112364622A (zh) 对话文本分析方法、装置、电子装置及存储介质
CN116955591A (zh) 用于内容推荐的推荐语生成方法、相关装置和介质
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
CN110059174B (zh) 问询指引方法及装置
CN113627194B (zh) 信息抽取方法及装置、通信消息分类方法及装置
KR101478146B1 (ko) 화자 그룹 기반 음성인식 장치 및 방법
CN114860992A (zh) 视频的标题生成方法、装置、设备及存储介质
CN114281948A (zh) 一种纪要确定方法及其相关设备
CN109727091A (zh) 基于对话机器人的产品推荐方法、装置、介质及服务器
CN116522905B (zh) 文本纠错方法、装置、设备、可读存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180828

Address after: 311100 1101, room 14, 1008, Longxiang street, Cang Qian street, Yuhang District, Hangzhou, Zhejiang.

Applicant after: Hangzhou Institute of artificial intelligence

Address before: 518000 Guangdong, Shenzhen, Nanshan District, Nanhai Road, West Guangxi Temple Road North Sunshine Huayi Building 1 15D-02F

Applicant before: Shenzhen Guangqi Hezhong Technology Co., Ltd.

Applicant before: Shenzhen Kuang-Chi Innovation Technology Co., Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180713