CN112509562B - 用于文本后处理的方法、装置、电子设备和介质 - Google Patents
用于文本后处理的方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN112509562B CN112509562B CN202011239259.3A CN202011239259A CN112509562B CN 112509562 B CN112509562 B CN 112509562B CN 202011239259 A CN202011239259 A CN 202011239259A CN 112509562 B CN112509562 B CN 112509562B
- Authority
- CN
- China
- Prior art keywords
- text
- processing
- post
- texts
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012805 post-processing Methods 0.000 title claims abstract description 278
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000012937 correction Methods 0.000 claims abstract description 25
- 238000010606 normalization Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims description 77
- 230000004927 fusion Effects 0.000 claims description 52
- 238000002372 labelling Methods 0.000 claims description 42
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 13
- 238000009825 accumulation Methods 0.000 abstract description 9
- 230000000875 corresponding effect Effects 0.000 description 153
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本公开的实施例公开了用于文本后处理的方法、装置、电子设备和介质。该方法的一具体实施方式包括:获取至少两个与待识别语音匹配的预测文本;对该至少两个预测文本进行多任务文本后处理,生成与该待识别语音对应的识别文本,其中,该多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。该实施方式可以降低后处理流程的复杂程度,减少错误累积,从而提升后处理各个子任务的效果。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于文本后处理的方法、装置、电子设备和介质。
背景技术
自动语音识别技术(Automatic Speech Recognition,ASR)通常包含以下几个模块:声学特征抽取,声学模型训练,解码和后处理。其中,声学特征抽取是将语音这种波形信号经过傅立叶变换等方式转换成Filter-bank特征或者MFCC特征等音频特征;声学模型训练是将音频特征映射为对应的声学状态;解码是将声学状态映射为人能够阅读和理解的文字;后处理是对识别出的文字进行进一步处理,提高可阅读性和可理解性。
现有语音识别后处理流程通常为流水线(pipeline)结构,往往需要对待处理预测文本(hypothesis)依次进行标点标注、ITN(Inverse Text Normalization,逆文本标准化)、分句、纠错等处理,最终得到语音识别文本。
发明内容
本公开提出了用于文本后处理的方法、装置、电子设备和介质。
第一方面,本公开的实施例提供了一种用于文本后处理的方法,该方法包括:获取至少两个与待识别语音匹配的预测文本;对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本,其中,多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。
在一些实施例中,上述对至少两个预测文本进行多任务文本后处理,得到与待识别语音对应的识别文本,包括:将至少两个预测文本输入至预先训练的文本后处理模型,得到与待识别语音对应的识别文本,其中,文本后处理模型用于多任务文本后处理。
在一些实施例中,上述文本后处理模型中包括编码器和解码器,上述编码器中包括第一数目个子编码器和编码融合器,上述第一数目与至少两个预测文本的数目一致,上述编码融合器用于融合第一数目个子编码器输出的特征,以及将融合后的特征输入至解码器。
在一些实施例中,上述子编码器包括依次连接的第二数目个编码层,以及上述编码融合器用于融合上述第一数目个子编码器中最后一层编码层输出的特征,以及将融合后的特征输入至上述解码器。
在一些实施例中,上述解码器包括依次连接的第三数目个解码层,以及第三数目个解码层中的解码层用于执行多任务文本后处理的子任务。
在一些实施例中,上述依次连接的第三数目个解码层用于执行的多任务文本后处理的子任务依次包括以下至少两项:文本纠错,标点预测,逆文本标准化。
在一些实施例中,上述获取至少两个与待识别语音匹配的预测文本,包括:获取待识别语音;将待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度;根据第四数目个准预测文本对应的置信度,选取目标数目个准预测文本作为至少两个与待识别语音匹配的预测文本。
第二方面,本公开的实施例提供了一种用于训练文本后处理模型的方法,该方法包括:获取训练样本集合,其中,训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,样本标注文本中包括至少两项文本后处理子任务对应标签,文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;获取初始文本后处理模型;将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征;根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
在一些实施例中,上述初始文本后处理模型包括编码器和解码器,上述编码器中包括第一数目个子编码器和编码融合器,上述第一数目与至少两个预测文本的数目一致;以及上述将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征,包括:将对应于同一样本语音的至少两个样本预测文本输入至第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征;将所得到的第一数目个第一编码特征输入至编码融合器,生成第二编码特征;将第二编码特征输入至解码器,得到处理后文本对应的特征。
在一些实施例中,上述解码器包括依次连接的第三数目个解码层,以及上述第三数目个解码层中的解码层用于执行文本后处理子任务;以及上述根据预设的损失函数确定所得到的处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值,包括:从第三数目个解码层中选取用于执行文本后处理子任务的解码层作为目标解码层;根据所选取的各目标解码层输出的特征与样本标注文本对应的特征之间的比较,生成与文本后处理子任务的数目一致的子损失值;根据所生成的子损失值的融合,确定损失值。
第三方面,本公开的实施例提供了一种用于文本后处理的装置,该装置包括:第一获取单元,被配置成获取至少两个与待识别语音匹配的预测文本;第一生成单元,被配置成对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本,其中,多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。
第四方面,本公开的实施例提供了一种用于训练文本后处理模型的装置,该装置包括:第二获取单元,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,样本标注文本中包括至少两项文本后处理子任务对应标签,文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;第三获取单元,被配置成获取初始文本后处理模型;第二生成单元,被配置成将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征;确定单元,被配置成根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;调整单元,被配置成根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
第五方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得该一个或多个处理器实现如上述用于文本后处理的方法或用于训练文本后处理模型的方法中任一实施例的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述用于文本后处理的方法或用于训练文本后处理模型的方法中任一实施例的方法。
本公开的实施例提供的用于文本后处理的方法和装置,通过将后处理的文本纠错、标点预测、ITN等后处理子任务融合成一个流程,极大地减少后处理流程的复杂程度。相较于各个模块相互独立进行子任务的后处理,采用本申请的方案,可以减少错误累积,从而极大地提升后处理各个子任务的效果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于文本后处理的方法的一个实施例的流程图;
图3是根据本公开的用于文本后处理的方法的一个应用场景的示意图;
图4是根据本公开的用于训练文本后处理模型的方法的又一个实施例的流程图;
图5是根据本公开的用于文本后处理的装置的一个实施例的结构示意图;
图6是根据本公开的用于训练文本后处理模型的装置的一个实施例的结构示意图;
图7是适于用来实现本公开的实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本公开的实施例,而非对本公开的实施例的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开的实施例相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于文本后处理的方法或用于文本后处理的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104、106和服务器105、107。网络104、106分别用以在终端设备101、102、103和服务器105、服务器105和服务器107之间提供通信链路的介质。网络104、106可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104、106与服务器105、107交互,以接收或发送数据等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如语音识别类软件、视频播放软件、新闻资讯类应用、图像处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、智能音箱、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105、107可以是提供各种服务的服务器,例如对终端设备101、102、103上运行的语音识别类软件提供支持的后台服务器。后台服务器105可以对接收到的语音进行分析等处理,将生成的至少两个预测文本发送至用于文本后处理的后台服务器107。而后,后台服务器107可以对接收到的至少两个预测文本进行处理,生成处理结果(例如最终识别文本)并将处理结果反馈给终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
还需要说明的是,本公开的实施例所提供的用于文本后处理的方法可以由服务器执行,也可以由终端设备执行,还可以由服务器和终端设备彼此配合执行。相应地,用于文本后处理的装置包括的各个部分(例如各个单元、子单元、模块、子模块)可以全部设置于服务器中,也可以全部设置于终端设备中,还可以分别设置于服务器和终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当用于文本后处理的方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以仅包括用于文本后处理的方法运行于其上的电子设备(例如服务器或终端设备)。
继续参考图2,示出了根据本公开的用于文本后处理的方法的一个实施例的流程200。该用于文本后处理的方法,包括以下步骤:
步骤201,获取至少两个与待识别语音匹配的预测文本。
在本实施例中,用于文本后处理的方法的执行主体(例如图1所示的服务器107)可以通过有线连接方式或者无线连接方式从本地或其他电子设备(例如用于前置语音识别的服务器)或者软件模块(例如用于前置语音识别的软件模块)获取至少两个与待识别语音匹配的预测文本。其中,上述预测文本可以是前置语音识别过程中解码模块所输出的预测文本。
在本实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤获取至少两个与待识别语音匹配的预测文本:
第一步,获取待识别语音。
在这些实现方式中,上述执行主体可以首先从本地或通信连接的电子设备(例如图1所示的终端设备101、102、103)获取待识别语音。其中,上述待识别语音可以是预先存储于本地的语音数据,也可以是终端设备发送的所接收的用户的语音。
第二步,将待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度。
在这些实现方式中,上述执行主体可以将上述第一步所获取的待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度。其中,上述语音识别模型可以包括各种通过机器学习方式训练得到的用于识别语音的模型。作为示例,上述语音识别模型可以包括声学模型(acoustic model)和加权有限状态转换器WFST(weightedfinite-state transducer)。从而,上述语音识别模型可以输出与待识别语音最匹配的第四数目个文本作为准预测文本及其对应的置信度。其中,上述第四数目可以是预先指定的任意数目,也可以是根据规则而定的数目,例如置信度大于预设阈值的文本的数目。
第三步,根据第四数目个准预测文本对应的置信度,选取目标数目个准预测文本作为至少两个与待识别语音匹配的预测文本。
在这些实现方式中,根据上述第二步所得到的第四数目个准预测文本对应的置信度,上述执行主体可以通过各种方式选取目标数目个准预测文本作为至少两个与待识别语音匹配的预测文本。其中,上述目标数目通常不大于上述第四数目。作为示例,上述执行主体可以按照置信度从高至低的数目选取目标数目个准预测文本作为预测文本。作为又一示例,上述执行主体可以从置信度大于选取阈值的准预测文本中随机选取目标数目个准预测文本作为预测文本。
基于上述可选的实现方式,上述执行主体可以直接将前置语音识别流程与上述文本后处理过程进行衔接,可以显著缩短整个语音识别处理流程,提升识别效果。
步骤202,对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本。
在本实施例中,基于步骤201中获取的至少两个与待识别语音匹配的预测文本,上述执行主体可以通过各种方式对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本。其中,上述多任务文本后处理可以包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。
在本实施例的一些可选的实现方式中,上述执行主体可以将上述步骤201所获取的至少两个预测文本输入至预先训练的文本后处理模型,得到与上述待识别语音对应的识别文本。
在这些实现方式中,上述文本后处理模型可以用于多任务文本后处理。上述文本后处理模型可以包括各种通过机器学习方式训练所得到的多任务文本后处理模型。作为示例,用于训练上述文本后处理模型的执行主体可以首先获取样本标注文本和对应的若干个样本预测文本。其中,上述样本预测文本可以是通过与上述样本标注文本对应的样本语音输入至训练完成的前置语音识别模型所得到的。而后,用于训练上述文本后处理模型的执行主体可以将上述若干个样本预测文本作为输入,将对应的样本标注文本作为期望输出,训练得到上述多任务文本后处理模型。
可选地,上述文本后处理模型还可以通过以下图4实施例所描述的方法训练得到。
基于上述可选的实现方式,通过上述文本后处理模型,可以通过输入的至少两个预测文本之间的关联对预测输出的文本进行补充,与仅通过一个输入文本进行训练的方式相比,丰富了特征的维度,提升了数据的利用率。
可选地,上述文本后处理模型中可以包括编码器和解码器。上述编码器中可以包括第一数目个子编码器和编码融合器。上述第一数目可以与上述至少两个预测文本的数目一致。上述编码融合器可以用于将融合上述第一数目个子编码器输出的特征,以及将融合后的特征输入至上述解码器。可选地,上述编码器和解码器还可以包括基于注意力机制的神经网络。
在这些实现方式中,上述执行主体可以将上述步骤201所获取的至少两个预测文本分别输入至上述文本后处理模型中所包括的子编码器。而后,上述执行主体可以将上述第一数目个子编码器输出的特征输入至上述文本后处理模型中包括的编码融合器。之后,上述执行主体将上述编码融合器输出的融合后的特征输入至上述文本后处理模型中包括的解码器。其中,上述融合可以包括各种方式。作为示例,上述编码融合器可以对上述第一数目个子编码器输出的特征进行加权,生成与子编码器输出的特征维度一致的特征。其中,上述权重可以通过训练而确定。作为又一示例,上述编码融合器可以将上述第一数目个子编码器输出的特征进行拼接,生成比子编码器输出的特征维度更高的特征。
基于上述可选的实现方式,通过上述编码融合器对各子编码器从各预测文本提取的特征进行融合,可以共享低维度的特征,有助于提升文本后处理模型的准确度。
可选地,上述子编码器可以包括依次连接的第二数目个编码层。上述编码融合器可以用于融合上述第一数目个子编码器中最后一层编码层输出的特征,以及将融合后的特征输入至上述解码器。
在这些实现方式中,上述子编码器的结构可以与Transformer模型的编码器中的结构一致。上述执行主体可以将上述步骤201所获取的至少两个预测文本分别输入至上述文本后处理模型中所包括的子编码器的第一个编码层。上述各预测文本依次经过对应的子编码器第二数目个编码层,子编码器的最后一层输出对应的特征。而后,执行主体可以将上述第一数目个子编码器的最后一层输出的特征输入至上述文本后处理模型中包括的编码融合器。之后,上述执行主体将上述编码融合器输出的融合后的特征输入至上述文本后处理模型中包括的解码器。其中,上述第二数目可以根据实际的应用场景而预先设定。
基于上述可选的实现方式,通过依次连接的第二数目个编码层,可以逐步提取更为抽象的特征,有助于提升文本后处理模型的准确度。
可选地,上述解码器可以包括依次连接的第三数目个解码层。上述第三数目个解码层中的解码层可以用于执行上述多任务文本后处理的子任务。
在这些实现方式中,在最后一层解码层之前的解码层可以包括两路输出。其中一路可以输出子任务的处理结果,另一路可以作为下一层解码层的输入。其中,上述第三数目通常不小于上述多任务文本后处理的子任务的数目。
基于上述可选的实现方式,通过各解码层之间的连接,可以共享各子任务之间学习到的特征,从而有助于提升文本后处理模型的准确度。
可选地,上述依次连接的第三数目个解码层用于执行的上述多任务文本后处理的子任务可以依次包括以下至少两项:文本纠错,标点预测,逆文本标准化。
基于上述可选的实现方式,上述执行主体可以按照由易到难的顺序执行文本后处理的子任务,从而可以减少错误积累,有助于提升后处理各子任务的效果。
继续参见图3,图3是根据本实施例的用于文本后处理的方法的应用场景的一个示意图。在图3的应用场景中,用户301使用终端302上安装的语音识别软件录入语音,并点击“开始识别”按钮。终端302可以将上述录入的语音作为待识别语音303发送至后台服务器304。后台服务器304可以获取前置语音识别模块所生成的4个预测文本(如图3中305所示)。而后,后台服务器304可以对上述4个预测文本进行多任务文本后处理,生成对应的识别文本(如图3中306所示)。可选地,后台服务器304还可以将所生成的识别文本306发送至终端302,以使用户301可以获知语音识别结果。
现有的语音识别后处理流程非常冗长,各个模块相互独立,并且文本后处理模式主要依靠人工积累规则进行,导致语音识别后处理工程复杂度高,泛化和迁移效果不佳和后期维护成本高的问题。而本公开的上述实施例提供的方法,通过将后处理的文本纠错、标点预测、ITN等后处理子任务融合成一个流程,极大地减少后处理流程的复杂程度。相较于各个模块相互独立进行子任务的后处理,采用本申请的方案,可以减少错误累积,从而极大地提升后处理各个子任务的效果。
进一步参考图4,其示出了用于训练文本后处理模型的方法的又一个实施例的流程400。该用于训练文本后处理模型的方法的流程400,包括以下步骤:
步骤401,获取训练样本集合。
在本实施例中,用于训练文本后处理模型的方法的执行主体可以通过各种方式获取训练样本集合。其中,上述训练样本集合中的训练样本可以包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本。上述样本标注文本中可以包括至少两项文本后处理子任务对应标签。上述文本后处理子任务可以包括:文本纠错,标点预测,逆文本标准化。
需要说明的是,上述用于训练文本后处理模型的方法的执行主体可以与前述用于文本后处理的方法的执行主体相同或不同,在此不作限定。
在本实施例中,上述执行主体可以从本地或通信连接的电子设备(例如数据库服务器)获取上述训练样本集合。作为示例,上述训练样本集合可以通过以下步骤得到:获取待识别语音作为样本语音;将上述样本语音输入至预先训练的前置语音识别模型,得到至少两个预测文本;获取与样本语音对应的样本标注文本。其中,上述样本标注文本可以按照不同文本后处理子任务进行标注。作为示例,上述样本标注文本中可以包括文本纠错标注(例如将“做”改成“坐”)、标点预测标注(例如在“景”和“你”之前增加“,”)、逆文本标准化标注(例如将“一四五”改成“145”)。
步骤402,获取初始文本后处理模型。
在本实施例中,上述执行主体可以通过各种方式获取初始文本后处理模型。其中,上述初始文本后处理模型可以包括各种用于文本后处理的网络模型,例如隐马尔可夫模型(Hidden Markov Model,HMM)模型,n-gram语言模型等。
在本实施例的一些可选的实现方式中,上述初始文本后处理模型可以包括编码器和解码器。上述编码器中可以包括第一数目个子编码器和编码融合器。上述第一数目可以与上述至少两个预测文本的数目一致。
在这些实现方式中,上述初始文本后处理模型可以与前述实施例中的文本后处理模型的结构描述一致,此处不再赘述。
可选地,上述解码器可以包括依次连接的第三数目个解码层。上述第三数目个解码层中的解码层可以用于执行上述文本后处理子任务。
在这些实现方式中,上述解码器可以与前述实施例中的文本后处理模型所包括的解码器的结构描述一致,此处不再赘述。
步骤403,将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征。
在本实施例中,上述执行主体可以将上述步骤401所获取的训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至步骤402所获取的初始文本后处理模型,得到处理后文本对应的特征。
在本实施例的一些可选的实现方式中,基于上述初始文本后处理模型包括编码器和解码器,上述编码器中包括第一数目个子编码器和编码融合器,上述第一数目与上述至少两个预测文本的数目一致,上述执行主体可以通过以下步骤得到处理后文本对应的特征:
第一步,将对应于同一样本语音的至少两个样本预测文本输入至第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征。
在这些实现方式中,上述执行主体可以将对应于同一样本语音的至少两个样本预测文本输入至第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征。其中,上述子编码器的数目通常与上述样本预测文本的数目一致。从而,上述每个子编码器接收样本预测文本作为输入,输出与该样本预测文本对应的第一编码特征。
第二步,将所得到的第一数目个第一编码特征输入至编码融合器,生成第二编码特征。
在这些实现方式中,上述执行主体可以将上述第一步所得到的第一数目个第一编码特征输入至编码融合器,生成第二编码特征。其中,上述第二编码特征可以是上述第一数目个第一编码特征融合后的特征。
第三步,将第二编码特征输入至解码器,得到处理后文本对应的特征。
在这些实现方式中,上述执行主体可以将上述第二步所生成的第二编码特征输入至解码器,从而得到处理后文本对应的特征。
基于上述可选的实现方式,通过上述编码融合器对各子编码器从各预测文本提取的特征进行融合,可以共享低维度的特征,有助于提升文本后处理模型的准确度。
步骤404,根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值。
在本实施例中,根据预设的损失函数,上述执行主体可以通过各种方式确定步骤403所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值。
在本实施例的一些可选的实现方式中,基于上述解码器包括依次连接的第三数目个解码层,以及上述第三数目个解码层中的解码层用于执行上述文本后处理子任务,上述执行主体可以通过以下步骤确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值:
第一步,从第三数目个解码层中选取用于执行文本后处理子任务的解码层作为目标解码层。
在这些实现方式中,上述执行主体可以首先从上述解码器所包括的第三数目个解码层中选取用于执行文本后处理子任务的解码层作为目标解码层。其中,上述目标解码层可以是输出子任务的处理结果的解码层。
第二步,根据所选取的各目标解码层输出的特征与样本标注文本对应的特征之间的比较,生成与文本后处理子任务的数目一致的子损失值。
在这些实现方式中,上述执行主体可以根据所选取的目标解码层输出的特征与样本标注文本对应的特征之间的比较,生成该目标解码层所执行的子任务对应的子损失值。作为示例,上述执行主体可以根据所选取的用于执行文本纠错的目标解码层输出的特征与样本标注文本中文本纠错标签所对应的标注的特征之间的比较,生成文本纠错对应的子损失值。从而,上述执行主体可以采用与前述一致的方式生成与多任务文本后处理的子任务的数目一致的子损失值。
第三步,根据所生成的子损失值的融合,确定损失值。
在这些实现方式中,上述执行主体可以将上述第二步所生成的子损失值进行融合,确定损失值。其中,上述融合可以包括各种方式。例如,可以是加权融合,也可以是取最大值、最小值等。
基于上述可选的实现方式,上述执行主体可以将后处理的文本纠错、标点预测、ITN等后处理子任务融合成一个流程,可以减少后处理流程的复杂程度。并且可以减少错误累积,从而极大地提升后处理各个子任务的效果。
步骤405,根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
在本实施例中,上述执行主体可以根据步骤404所确定的损失值,采用各种方式(例如梯度下降法)调整上述初始文本后处理模型的参数,训练得到文本后处理模型。
现有的语音识别后处理模型通常由多个用于执行后处理子任务的模型顺序连接组成,各个模块相互独立,导致语音识别后处理工程复杂度高,泛化和迁移效果不佳和后期维护成本高的问题。而本公开的上述实施例提供的方法,通过将后处理的文本纠错、标点预测、ITN等后处理子任务融合成一个可以并行处理多个子任务的模型,有效地减少后处理流程的复杂程度,并且可以减少错误累积。而且,通过每次训练利用至少两个样本预测文本和对应的样本标注文本,可以使模型通过样本预测文本之间的关联学习到共享的特征,既提高了数据利用率,又可以提升后处理各个子任务的效果。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于文本后处理的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征,以及产生与图2所示的方法实施例相同或相应的效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于文本后处理的装置500包括:第一获取单元501和第一生成单元502。其中,第一获取单元501,被配置成获取至少两个与待识别语音匹配的预测文本。第一生成单元502,被配置成对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本,其中,多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。
在本实施例中,用于文本后处理的装置500中:第一获取单元501和第一生成单元502的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201和步骤202的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述第一生成单元502可以被进一步配置成:将至少两个预测文本输入至预先训练的文本后处理模型,得到与待识别语音对应的识别文本,其中,文本后处理模型用于多任务文本后处理。
在本实施例的一些可选的实现方式中,上述文本后处理模型中可以包括编码器和解码器。上述编码器中可以包括第一数目个子编码器和编码融合器。上述第一数目可以与至少两个预测文本的数目一致。上述编码融合器可以用于融合第一数目个子编码器输出的特征,以及将融合后的特征输入至解码器。
在本实施例的一些可选的实现方式中,上述解码器可以包括依次连接的第三数目个解码层。第三数目个解码层中的解码层可以用于执行多任务文本后处理的子任务。
在本实施例的一些可选的实现方式中,上述依次连接的第三数目个解码层可以用于执行的多任务文本后处理的子任务依次包括以下至少两项:文本纠错,标点预测,逆文本标准化。
在本实施例的一些可选的实现方式中,上述第一获取单元501可以包括:获取模块(图中未示出)、第一生成模块(图中未示出)、第一选取模块(图中未示出)。其中,上述获取模块可以被配置成获取待识别语音。上述第一生成模块可以被配置成将待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度。上述第一选取模块可以被配置成根据第四数目个准预测文本对应的置信度,选取目标数目个准预测文本作为至少两个与待识别语音匹配的预测文本。
本公开的上述实施例提供的装置,通过第一生成单元502将后处理的文本纠错、标点预测、ITN等后处理子任务融合成一个流程,极大地减少后处理流程的复杂程度。相较于各个模块相互独立进行子任务的后处理,采用本申请的方案,可以减少错误累积,从而极大地提升后处理各个子任务的效果。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了一种用于训练文本后处理模型的装置的一个实施例,该装置实施例与图4所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图4所示的方法实施例相同或相应的特征,以及产生与图4所示的方法实施例相同或相应的效果。该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于训练文本后处理模型的装置600包括:第二获取单元601、第三获取单元602、第二生成单元603、确定单元604和调整单元605。其中,第二获取单元601,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,样本标注文本中包括至少两项文本后处理子任务对应标签,文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;第三获取单元602,被配置成获取初始文本后处理模型;第二生成单元603,被配置成将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征;确定单元604,被配置成根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;调整单元605,被配置成根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
在本实施例中,用于训练文本后处理模型的装置600的接收单元601中:第二获取单元601、第三获取单元602、第二生成单元603、确定单元604和调整单元605的具体处理及其所带来的技术效果可分别参考图4对应实施例中的步骤401、步骤402、步骤403、步骤404和步骤405的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述初始文本后处理模型可以包括编码器和解码器。上述编码器中可以包括第一数目个子编码器和编码融合器。上述第一数目可以与至少两个预测文本的数目一致。上述第二生成单元603可以包括:编码模块(图中未示出)、融合模块(图中未示出)、解码模块(图中未示出)。其中,上述编码模块,可以被配置成将对应于同一样本语音的至少两个样本预测文本输入至第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征。上述融合模块,可以被配置成将所得到的第一数目个第一编码特征输入至编码融合器,生成第二编码特征。上述解码模块,可以被配置成将第二编码特征输入至解码器,得到处理后文本对应的特征。
在本实施例的一些可选的实现方式中,上述解码器可以包括依次连接的第三数目个解码层。上述第三数目个解码层中的解码层可以用于执行文本后处理子任务。上述确定单元604可以包括:第二选取模块(图中未示出)、第二生成模块(图中未示出)、确定模块(图中未示出)。其中,上述第二选取模块,可以被配置成从第三数目个解码层中选取用于执行文本后处理子任务的解码层作为目标解码层。上述第二生成模块,可以被配置成根据所选取的各目标解码层输出的特征与样本标注文本对应的特征之间的比较,生成与文本后处理子任务的数目一致的子损失值。上述确定模块,可以被配置成根据所生成的子损失值的融合,确定损失值。
本公开的上述实施例提供的装置,通过调整单元605对第三获取单元602所获取的初始文本后处理模型的参数进行调整,可以将后处理的文本纠错、标点预测、ITN等后处理子任务融合成一个可以并行处理多个子任务的模型,从而有效地减少后处理流程的复杂程度,并且可以减少错误累积。而且,通过第二生成单元603在每次训练时利用至少两个样本预测文本和对应的样本标注文本,可以使模型通过样本预测文本之间的关联学习到共享的特征,既提高了数据利用率,又可以提升后处理各个子任务的效果。
下面参考图7,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)700的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
根据本公开的一个或多个实施例,本公开提供了一种用于文本后处理的方法,该方法包括:获取至少两个与待识别语音匹配的预测文本;对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本,其中,多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的方法中,上述对至少两个预测文本进行多任务文本后处理,得到与待识别语音对应的识别文本,包括:将至少两个预测文本输入至预先训练的文本后处理模型,得到与待识别语音对应的识别文本,其中,文本后处理模型用于多任务文本后处理。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的方法中,上述文本后处理模型中包括编码器和解码器,上述编码器中包括第一数目个子编码器和编码融合器,上述第一数目与至少两个预测文本的数目一致,上述编码融合器用于融合第一数目个子编码器输出的特征,以及将融合后的特征输入至解码器。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的方法中,上述子编码器包括依次连接的第二数目个编码层,以及上述编码融合器用于融合上述第一数目个子编码器中最后一层编码层输出的特征,以及将融合后的特征输入至上述解码器。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的方法中,上述解码器包括依次连接的第三数目个解码层,以及第三数目个解码层中的解码层用于执行多任务文本后处理的子任务。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的方法中,上述依次连接的第三数目个解码层用于执行的多任务文本后处理的子任务依次包括以下至少两项:文本纠错,标点预测,逆文本标准化。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的方法中,上述获取至少两个与待识别语音匹配的预测文本,包括:获取待识别语音;将待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度;根据第四数目个准预测文本对应的置信度,选取目标数目个准预测文本作为至少两个与待识别语音匹配的预测文本。
根据本公开的一个或多个实施例,本公开提供了一种用于训练文本后处理模型的方法,该方法包括:获取训练样本集合,其中,训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,样本标注文本中包括至少两项文本后处理子任务对应标签,文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;获取初始文本后处理模型;将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征;根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
根据本公开的一个或多个实施例,本公开提供的用于训练文本后处理模型的方法中,上述初始文本后处理模型包括编码器和解码器,上述编码器中包括第一数目个子编码器和编码融合器,上述第一数目与至少两个预测文本的数目一致;以及上述将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征,包括:将对应于同一样本语音的至少两个样本预测文本输入至第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征;将所得到的第一数目个第一编码特征输入至编码融合器,生成第二编码特征;将第二编码特征输入至解码器,得到处理后文本对应的特征。
根据本公开的一个或多个实施例,本公开提供的用于训练文本后处理模型的方法中,上述解码器包括依次连接的第三数目个解码层,以及上述第三数目个解码层中的解码层用于执行文本后处理子任务;以及上述根据预设的损失函数确定所得到的处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值,包括:从第三数目个解码层中选取用于执行文本后处理子任务的解码层作为目标解码层;根据所选取的各目标解码层输出的特征与样本标注文本对应的特征之间的比较,生成与文本后处理子任务的数目一致的子损失值;根据所生成的子损失值的融合,确定损失值。
根据本公开的一个或多个实施例,本公开提供了一种用于文本后处理的装置,该装置包括:第一获取单元,被配置成获取至少两个与待识别语音匹配的预测文本;第一生成单元,被配置成对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本,其中,多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的装置中,上述第一生成单元被进一步配置成:将至少两个预测文本输入至预先训练的文本后处理模型,得到与待识别语音对应的识别文本,其中,文本后处理模型用于多任务文本后处理。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的装置中,上述文本后处理模型中包括编码器和解码器,上述编码器中包括第一数目个子编码器和编码融合器,上述第一数目与至少两个预测文本的数目一致,上述编码融合器用于融合第一数目个子编码器输出的特征,以及将融合后的特征输入至解码器。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的装置中,上述子编码器包括依次连接的第二数目个编码层,以及上述编码融合器用于融合上述第一数目个子编码器中最后一层编码层输出的特征,以及将融合后的特征输入至上述解码器。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的装置中,上述解码器包括依次连接的第三数目个解码层,以及第三数目个解码层中的解码层用于执行多任务文本后处理的子任务。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的装置中,上述依次连接的第三数目个解码层用于执行的多任务文本后处理的子任务依次包括以下至少两项:文本纠错,标点预测,逆文本标准化。
根据本公开的一个或多个实施例,本公开提供的用于文本后处理的装置中,上述第一获取单元可以包括:获取模块,被配置成获取待识别语音;第一生成模块,被配置成将待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度;第一选取模块,被配置成根据第四数目个准预测文本对应的置信度,选取目标数目个准预测文本作为至少两个与待识别语音匹配的预测文本。
根据本公开的一个或多个实施例,本公开提供了一种用于训练文本后处理模型的装置,该装置包括:第二获取单元,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,样本标注文本中包括至少两项文本后处理子任务对应标签,文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;第三获取单元,被配置成获取初始文本后处理模型;第二生成单元,被配置成将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征;确定单元,被配置成根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;调整单元,被配置成根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
根据本公开的一个或多个实施例,本公开提供的用于训练文本后处理模型的装置中,上述初始文本后处理模型包括编码器和解码器。上述编码器中包括第一数目个子编码器和编码融合器。上述第一数目与至少两个预测文本的数目一致。上述第二生成单元包括:编码模块,被配置成将对应于同一样本语音的至少两个样本预测文本输入至第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征;融合模块,被配置成将所得到的第一数目个第一编码特征输入至编码融合器,生成第二编码特征;解码模块,被配置成将第二编码特征输入至解码器,得到处理后文本对应的特征。
根据本公开的一个或多个实施例,本公开提供的用于训练文本后处理模型的装置中,上述解码器包括依次连接的第三数目个解码层。上述第三数目个解码层中的解码层用于执行文本后处理子任务。上述确定单元包括:第二选取模块,被配置成从第三数目个解码层中选取用于执行文本后处理子任务的解码层作为目标解码层;第二生成模块,被配置成根据所选取的各目标解码层输出的特征与样本标注文本对应的特征之间的比较,生成与文本后处理子任务的数目一致的子损失值;确定模块,被配置成根据所生成的子损失值的融合,确定损失值。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元和第一生成单元;或者第二获取单元、第三获取单元、第二生成单元、确定单元和调整单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个与待识别语音匹配的预测文本的单元”。
作为另一方面,本公开的实施例还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个与待识别语音匹配的预测文本;对至少两个预测文本进行多任务文本后处理,生成与待识别语音对应的识别文本,其中,多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化;或者获取训练样本集合,其中,训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,样本标注文本中包括至少两项文本后处理子任务对应标签,文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;获取初始文本后处理模型;将训练样本集合中对应于同一样本语音的至少两个样本预测文本输入至初始文本后处理模型,得到处理后文本对应的特征;根据预设的损失函数确定所得到处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;根据损失值,调整初始文本后处理模型的参数,训练得到文本后处理模型。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述本公开的构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (11)
1.一种用于文本后处理的方法,包括:
获取至少两个与待识别语音匹配的预测文本;
将所述至少两个与待识别语音匹配的预测文本输入至预先训练的文本后处理模型,得到与所述待识别语音对应的识别文本,其中,所述文本后处理模型用于多任务文本后处理,其中,所述多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化;所述文本后处理模型中包括编码器和解码器,所述编码器中包括第一数目个子编码器和编码融合器,所述第一数目与所述至少两个与待识别语音匹配的预测文本的数目一致,所述编码融合器用于融合所述第一数目个子编码器输出的特征,以及将融合后的特征输入至所述解码器。
2.根据权利要求1所述的方法,其中,所述子编码器包括依次连接的第二数目个编码层,以及所述编码融合器用于融合所述第一数目个子编码器中最后一层编码层输出的特征,以及将融合后的特征输入至所述解码器。
3.根据权利要求1所述的方法,其中,所述解码器包括依次连接的第三数目个解码层,以及所述第三数目个解码层中的解码层用于执行所述多任务文本后处理的子任务。
4.根据权利要求3所述的方法,其中,所述依次连接的第三数目个解码层用于执行的所述多任务文本后处理的子任务依次包括以下至少两项:文本纠错,标点预测,逆文本标准化。
5.根据权利要求1-4之一所述的方法,其中,所述获取至少两个与待识别语音匹配的预测文本,包括:
获取待识别语音;
将所述待识别语音输入至预先训练的语音识别模型,得到第四数目个准预测文本和对应的置信度;
根据所述第四数目个准预测文本对应的置信度,选取目标数目个准预测文本作为所述至少两个与待识别语音匹配的预测文本。
6.一种用于训练文本后处理模型的方法,包括:
获取训练样本集合,其中,所述训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,所述样本标注文本中包括至少两项文本后处理子任务对应标签,所述文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;
获取初始文本后处理模型,其中,所述初始文本后处理模型包括编码器和解码器,所述编码器中包括第一数目个子编码器和编码融合器,所述第一数目与所述至少两个样本预测文本的数目一致;
将对应于同一样本语音的至少两个样本预测文本输入至所述第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征;
将所得到的第一数目个第一编码特征输入至所述编码融合器,生成第二编码特征;
将所述第二编码特征输入至所述解码器,得到处理后文本对应的特征;
根据预设的损失函数确定所得到的处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;
根据所述损失值,调整所述初始文本后处理模型的参数,训练得到所述文本后处理模型。
7.根据权利要求6所述的方法,其中,所述解码器包括依次连接的第三数目个解码层,以及所述第三数目个解码层中的解码层用于执行所述文本后处理子任务;以及
所述根据预设的损失函数确定所得到的处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值,包括:
从所述第三数目个解码层中选取用于执行所述文本后处理子任务的解码层作为目标解码层;
根据所选取的各目标解码层输出的特征与所述样本标注文本对应的特征之间的比较,生成与所述文本后处理子任务的数目一致的子损失值;
根据所生成的子损失值的融合,确定所述损失值。
8.一种用于文本后处理的装置,包括:
第一获取单元,被配置成获取至少两个与待识别语音匹配的预测文本;
第一生成单元,被配置成将所述至少两个与待识别语音匹配的预测文本输入至预先训练的文本后处理模型,得到与所述待识别语音对应的识别文本,其中,所述文本后处理模型用于多任务文本后处理,其中,所述多任务文本后处理包括以下至少两项子任务:文本纠错,标点预测,逆文本标准化;所述文本后处理模型中包括编码器和解码器,所述编码器中包括第一数目个子编码器和编码融合器,所述第一数目与所述至少两个与待识别语音匹配的预测文本的数目一致,所述编码融合器用于融合所述第一数目个子编码器输出的特征,以及将融合后的特征输入至所述解码器。
9.一种用于训练文本后处理模型的装置,包括:
第二获取单元,被配置成获取训练样本集合,其中,所述训练样本集合中的训练样本包括对应于同一样本语音的至少两个样本预测文本和对应的样本标注文本,所述样本标注文本中包括至少两项文本后处理子任务对应标签,所述文本后处理子任务包括:文本纠错,标点预测,逆文本标准化;
第三获取单元,被配置成获取初始文本后处理模型,其中,所述初始文本后处理模型包括编码器和解码器,所述编码器中包括第一数目个子编码器和编码融合器,所述第一数目与所述至少两个样本预测文本的数目一致;
第二生成单元,被配置成将对应于同一样本语音的至少两个样本预测文本输入至所述第一数目个子编码器中对应的子编码器,得到各样本预测文本分别对应的第一编码特征;将所得到的第一数目个第一编码特征输入至所述编码融合器,生成第二编码特征;将所述第二编码特征输入至所述解码器,得到处理后文本对应的特征;
确定单元,被配置成根据预设的损失函数确定所得到的处理后文本对应的特征与输入的至少两个样本预测文本对应的样本标注文本对应的特征之间的损失值;
调整单元,被配置成根据所述损失值,调整所述初始文本后处理模型的参数,训练得到所述文本后处理模型。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
11.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011239259.3A CN112509562B (zh) | 2020-11-09 | 2020-11-09 | 用于文本后处理的方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011239259.3A CN112509562B (zh) | 2020-11-09 | 2020-11-09 | 用于文本后处理的方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112509562A CN112509562A (zh) | 2021-03-16 |
CN112509562B true CN112509562B (zh) | 2024-03-22 |
Family
ID=74955781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011239259.3A Active CN112509562B (zh) | 2020-11-09 | 2020-11-09 | 用于文本后处理的方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112509562B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129870B (zh) * | 2021-03-23 | 2022-03-25 | 北京百度网讯科技有限公司 | 语音识别模型的训练方法、装置、设备和存储介质 |
CN112966506A (zh) * | 2021-03-23 | 2021-06-15 | 北京有竹居网络技术有限公司 | 一种文本处理方法、装置、设备及存储介质 |
CN114757432B (zh) * | 2022-04-27 | 2023-05-30 | 浙江传媒学院 | 基于流程日志和多任务学习的未来执行活动及时间预测方法及系统 |
CN115293139B (zh) * | 2022-08-03 | 2023-06-09 | 北京中科智加科技有限公司 | 一种语音转写文本纠错模型的训练方法和计算机设备 |
CN115687935A (zh) * | 2023-01-05 | 2023-02-03 | 粤港澳大湾区数字经济研究院(福田) | 语音识别的后处理方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017162134A1 (zh) * | 2016-03-22 | 2017-09-28 | 索尼公司 | 用于文本处理的电子设备和方法 |
CN110162767A (zh) * | 2018-02-12 | 2019-08-23 | 北京京东尚科信息技术有限公司 | 文本纠错的方法和装置 |
WO2020000876A1 (zh) * | 2018-06-27 | 2020-01-02 | 北京字节跳动网络技术有限公司 | 用于生成模型的方法和装置 |
CN111145732A (zh) * | 2019-12-27 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 多任务语音识别后的处理方法及系统 |
CN111209740A (zh) * | 2019-12-31 | 2020-05-29 | 中移(杭州)信息技术有限公司 | 文本模型训练方法、文本纠错方法、电子设备及存储介质 |
CN111862987A (zh) * | 2020-07-20 | 2020-10-30 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN111883110A (zh) * | 2020-07-30 | 2020-11-03 | 上海携旅信息技术有限公司 | 语音识别的声学模型训练方法、系统、设备及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107357775A (zh) * | 2017-06-05 | 2017-11-17 | 百度在线网络技术(北京)有限公司 | 基于人工智能的循环神经网络的文本纠错方法及装置 |
US10503834B2 (en) * | 2017-11-17 | 2019-12-10 | Digital Genius Limited | Template generation for a conversational agent |
-
2020
- 2020-11-09 CN CN202011239259.3A patent/CN112509562B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017162134A1 (zh) * | 2016-03-22 | 2017-09-28 | 索尼公司 | 用于文本处理的电子设备和方法 |
CN110162767A (zh) * | 2018-02-12 | 2019-08-23 | 北京京东尚科信息技术有限公司 | 文本纠错的方法和装置 |
WO2020000876A1 (zh) * | 2018-06-27 | 2020-01-02 | 北京字节跳动网络技术有限公司 | 用于生成模型的方法和装置 |
CN111145732A (zh) * | 2019-12-27 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 多任务语音识别后的处理方法及系统 |
CN111209740A (zh) * | 2019-12-31 | 2020-05-29 | 中移(杭州)信息技术有限公司 | 文本模型训练方法、文本纠错方法、电子设备及存储介质 |
CN111862987A (zh) * | 2020-07-20 | 2020-10-30 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN111883110A (zh) * | 2020-07-30 | 2020-11-03 | 上海携旅信息技术有限公司 | 语音识别的声学模型训练方法、系统、设备及介质 |
Non-Patent Citations (1)
Title |
---|
富媒体环境下语音和文本内容的对齐研究;韦向峰;袁毅;张全;池毓焕;;情报工程;20190415(02);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112509562A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112509562B (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
CN112634876B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN113470619B (zh) | 语音识别方法、装置、介质及设备 | |
CN112183120A (zh) | 语音翻译方法、装置、设备和存储介质 | |
CN112530408A (zh) | 用于识别语音的方法、装置、电子设备和介质 | |
CN113362811B (zh) | 语音识别模型的训练方法、语音识别方法和装置 | |
US20240029709A1 (en) | Voice generation method and apparatus, device, and computer readable medium | |
CN111986655B (zh) | 音频内容识别方法、装置、设备和计算机可读介质 | |
CN112883967B (zh) | 图像字符识别方法、装置、介质及电子设备 | |
CN112883968B (zh) | 图像字符识别方法、装置、介质及电子设备 | |
CN111508478B (zh) | 语音识别方法和装置 | |
JP2023550211A (ja) | テキストを生成するための方法および装置 | |
CN115908640A (zh) | 生成图像的方法、装置、可读介质及电子设备 | |
CN110008926B (zh) | 用于识别年龄的方法和装置 | |
CN112102801B (zh) | 一种主旋律的生成方法、装置、电子设备及存储介质 | |
CN111681661B (zh) | 语音识别的方法、装置、电子设备和计算机可读介质 | |
KR102382421B1 (ko) | 음성 언어 이해에서의 분석 오류 정보를 출력하는 방법과 장치 | |
CN112364653A (zh) | 用于语音合成的文本分析方法、装置、服务器和介质 | |
CN110659387A (zh) | 用于提供视频的方法和设备 | |
CN108664610B (zh) | 用于处理数据的方法和装置 | |
CN114765025A (zh) | 语音识别模型的生成方法、识别方法、装置、介质及设备 | |
CN110728137B (zh) | 用于分词的方法和装置 | |
CN111126078B (zh) | 翻译的方法和装置 | |
CN114429629A (zh) | 图像处理方法、装置、可读存储介质及电子设备 | |
CN115967833A (zh) | 视频生成方法、装置、设备计存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |