CN113887200A - 文本变长纠错方法、装置、电子设备及存储介质 - Google Patents
文本变长纠错方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113887200A CN113887200A CN202111147859.1A CN202111147859A CN113887200A CN 113887200 A CN113887200 A CN 113887200A CN 202111147859 A CN202111147859 A CN 202111147859A CN 113887200 A CN113887200 A CN 113887200A
- Authority
- CN
- China
- Prior art keywords
- text
- data
- text data
- error correction
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 claims description 55
- 230000011218 segmentation Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 230000008707 rearrangement Effects 0.000 claims description 8
- 239000000126 substance Substances 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 10
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 10
- 239000010931 gold Substances 0.000 description 10
- 229910052737 gold Inorganic materials 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000012217 deletion Methods 0.000 description 8
- 230000037430 deletion Effects 0.000 description 8
- 241000989913 Gunnera petaloidea Species 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能及数字医疗技术,揭露一种文本变长纠错方法,包括:对原始录音数据进行语音识别,得到文本数据,通过将文本数据与预设的真实文本进行比对,将文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,分别对少字错误类型的文本数据和多字错误类型的文本数据进行不同的数据增强,得到第一重建文本和第二重建文本,并汇总得到训练文本数据,利用训练文本数据训练深度纠错模型,得到标准纠错模型,利用标准纠错模型对待纠错文本执行纠错。此外,本发明还涉及区块链技术,文本数据可存储于区块链的节点。本发明还提出一种文本变长纠错装置、电子设备以及存储介质。本发明可以提高文本变长纠错的准确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种文本变长纠错方法、装置、电子设备及计算机可读存储介质。
背景技术
在银行垂直领域中,许多不同的银行业务场景累积了大量的人工坐席或客户的业务场景录音,业务方需要对这些录音进行语音识别转文本后的文本内容进行质检或分析。而对业务场景录音进行质检与分析的第一步,便是需要使用语音识别技术将录音转换为文本。但由于录音中说话人的说话方式与口音的复杂性与多样性、以及说话人在说话时背景音的复杂性与干扰性,现阶段所有的语音识别技术都存在转换的文本内容与原录音中说话人的说话内容不匹配的问题。因此需要对文本进行纠错处理。
目前一般采用文本变长纠错进行文本纠错。所述文本变长纠错是指针对文本长度会发生变化的文本进行纠错。目前,文本变长纠错的解决方案通常是构建并维护一个大型词典语料库再结合规则来进行文本变长纠错,这个方法需要总结大量的业务规则,且初期构建时人力成本的投入大、后续维护的成本高、纠错的效率与准确度偏低、纠错耗时较长。
发明内容
本发明提供一种文本变长纠错方法、装置及计算机可读存储介质,其主要目的在于解决进行文本变长纠错的准确度较低的问题。
为实现上述目的,本发明提供的一种文本变长纠错方法,包括:
获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本;
对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
可选地,所述对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,包括:
对所述少字错误类型的文本数据进行分词处理,得到分词数据集;
利用预设的拼音连读筛选规则在所述分词数据集中筛选出多个连读词组;
对所述多个连读词组分别进行声韵母重排处理,得到第一重建文本。
可选地,所述对所述多个连读词组分别进行声韵母重排处理,包括:
将所述连续词组中两个连续的字中的前一个字拼音中的声母加一部分的韵母与后一个字拼音中的韵母进行重排组合;或
将前一个字拼音中的声母与后一个字拼音中的韵母进行重排组合。
可选地,所述对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本,包括:
获取预设的拟声词文本和预设的随机对话文本;
在所述多字错误类型的文本数据中插入所述拟声词文本和所述随机对话文本,得到第二重建文本。
可选地,所述利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型,包括:
利用所述深度纠错模型中的编码器对所述训练文本数据进行编码处理,得到编码数据;
利用所述深度纠错模型中的解码器对所述编码数据进行文本重建处理,得到预测文本;
计算所述预测文本和预设的参考文本之间的交叉熵损失值;
当所述交叉熵损失值大于或者等于所述交叉熵损失阈值时,对所述深度纠错模型进行参数调整,直至所述交叉熵损失值小于所述交叉熵阈值时,将所述深度纠错模型输出为标准纠错模型。
可选地,所述计算所述预测文本和预设的参考文本之间的交叉熵损失值,包括:
利用如下公式计算所述预测文本和预设的参考文本之间的交叉熵损失值:
其中,C为所述交叉熵损失值,y为所述参考文本,a为所述预测文本,n为数据总量。
可选地,所述通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,包括:
分别提取所述文本数据和所述真实文本的文本长度;
将所述文本数据的文本长度与所述真实文本的文本长度进行比较;
若所述文本数据的文本长度与所述真实文本的文本长度相等,将所述文本数据的类型判定为正确类型;
若所述文本数据的文本长度小于所述真实文本的文本长度,将所述文本数据判定为少字错误类型的文本数据;
若所述文本数据的文本长度大于所述真实文本的文本长度,将所述文本数据判定为多字错误类型的文本数据。
为了解决上述问题,本发明还提供一种文本变长纠错装置,所述装置包括:
语音识别模块,用于获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
类型判定模块,用于通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
数据增强模块,用于对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
模型训练模块,用于将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
文本纠错模块,用于获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的文本变长纠错方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的文本变长纠错方法。
本发明实施例通过对原始录音数据进行语音识别,得到文本数据,并通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,便于后续根据文本数据的错误类型进行不同的数据增强处理,分别对所述少字错误类型的文本数据和所述第二数据类型的文本数据进行对应的数据增强处理,所述数据增强处理可以自动、快速地构建出大量的高质量、可用于训练模型的训练样本,将数据增强后生成的重建文本进行汇总得到训练文本数据,并利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型。将待纠错文本输入至所述标准纠错模型中,得到标准文本。因此本发明提出的文本变长纠错方法、装置、电子设备及计算机可读存储介质,可以解决文本变长纠错的准确度较低的问题。
附图说明
图1为本发明一实施例提供的文本变长纠错方法的流程示意图;
图2为本发明一实施例提供的文本变长纠错装置的功能模块图;
图3为本发明一实施例提供的实现所述文本变长纠错方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种文本变长纠错方法。所述文本变长纠错方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述文本变长纠错方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的文本变长纠错方法的流程示意图。在本实施例中,所述文本变长纠错方法包括:
S1、获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据。
本发明实施例中,所述原始录音数据为银行业务场景下人工坐席或者客户的业务场景录音。
具体地,利用自动语音识别(Automatic Speech Recognition)技术对所述原始录音数据进行语音识别,得到文本数据。其中,进行语音识别的原理流程包括对语音数据进行编码、解码和文字输出等。
其中,需要对所述原始录音数据进行语音识别,得到文本数据,并根据所述文本数据进行质检或者分析。
S2、通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据。
本发明实施例中,所述通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,包括:
分别提取所述文本数据和所述真实文本的文本长度;
将所述文本数据的文本长度与所述真实文本的文本长度进行比较;
若所述文本数据的文本长度与所述真实文本的文本长度相等,将所述文本数据的类型判定为正确类型;
若所述文本数据的文本长度小于所述真实文本的文本长度,将所述文本数据判定为少字错误类型的文本数据;
若所述文本数据的文本长度大于所述真实文本的文本长度,将所述文本数据判定为多字错误类型的文本数据。
其中,所述真实文本是指用做参考的标准文本,不会出现多字或者少字等错误,通常作为参考来判别识别出的文本是否存在错误。
例如,所述真实文本为“想咨询下你们银行有哪些消费分期产品”,而通过语音识别得到的所述文本数据为“想咨询下你们银行哪些费期产品”,所述文本数据相对于所述真实文本出现了少字错误,其文本长度小于所述真实文本的文本长度,故将所述文本数据判定为少字错误类型的文本数据。若通过语音识别得到的所述文本数据为“想咨询下你们银行有哪些消费分期产品,哈哈哈哈哈哈”,所述文本数据相对于所述真实文本出现了多字错误,其文本长度大于所述真实文本的文本长度,故将所述文本数据判定为多字错误类型的文本数据。
详细地,所述少字错误类型的文本数据的出现通常是说话人说话声音较小、说话较快,以致语音识别未识别到而导致的。所述多字错误类型的文本数据的出现通常是由于说话人在说话时,背景中存在杂音或其他人说话的声音,导致语音识别将这些杂音或其他人说话的声音也误识别进了文本中,语音识别的误识别内容相当于往文本中添加了干扰性的噪声内容。
S3、对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本。
本发明实施例中,所述对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,包括:
对所述少字错误类型的文本数据进行分词处理,得到分词数据集;
利用预设的拼音连读筛选规则在所述分词数据集中筛选出多个连读词组;
对所述多个连读词组分别进行声韵母重排处理,得到第一重建文本。
详细地,所述少字错误类型的文本数据为“客户想办信用卡且购买平安金理财产品”,利用Jieba分词器进行分词处理,得到分词数据集为“客户/想/办/信用卡/且/购买/平安金/理财/产品”。
具体地,所述对所述多个连读词组分别进行声韵母重排处理,包括:
将所述连续词组中两个连续的字中的前一个字拼音中的声母加一部分的韵母与后一个字拼音中的韵母进行重排组合;或
将前一个字拼音中的声母与后一个字拼音中的韵母进行重排组合。
详细地,利用预设的拼音连读筛选规则在所述分词数据集中筛选出多个连读词组,所述连读词组可以为“信用卡”和“平安金”,由于“信用”两个字中,“信”字拼音中的声母“x”与韵母“i”,与“用”字拼音中的韵母“ong”发生了“拼音连读现象”组成了“xiong”这个拼音,使得快速读出的“信用”两个字变成了“胸”字。同理,“平安金”可变为“偏金”。因此所述第一重建文本为“客户想办胸卡且购买偏金理财产品”
在本发明另一可选实施例中,所述对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,包括:
获取预设的删除比例区间;
基于所述删除比例区间对所述少字错误类型的文本数据中随机执行删除操作,得到第一重建文本。
优选地,所述预设的删除比例可以为10%至15%。
例如,所述少字错误类型的文本数据为“想咨询下你们银行哪些费期产品”,对所述少字错误类型的文本数据随机执行删除操作,即随机删除10%至15%的字,可以删除“想咨询下你们银行哪些费期产品”中的“想”、“下”和“些”,故得到所述第一重建文本为“咨询你们银行哪费期产品”。
详细地,所述第一数据增强处理下增强出的所述第一重建文本能够让后续模型获得针对“由于说话人说话声音较小以致语音识别后的业务文本出现少字的错误问题”的纠正能力。
S4、对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本。
本发明实施例中,所述对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本,包括:
获取预设的拟声词文本和预设的随机对话文本;
在所述多字错误类型的文本数据中插入所述拟声词文本和所述随机对话文本,得到第二重建文本。
详细地,所述预设的拟声词文本可以为当、吱、嗡、哐、砰、吁和轰等,所述预设的随机对话文本是指与发明实施例中的业务文本内容不相关的文本。插入拟声词文本是为了模拟说话人在说话时背景中存在的杂音,而插入人物对话文本等其他内容不相关文本是为了模拟说话人在说话时背景中存在的其他人说话的声音。
例如,所述多字错误类型的文本数据为“想咨询下你们银行有哪些消费分期产品,哈哈哈哈哈哈”,则对所述多字错误类型的文本数据执行随机插入拟声词和随机对话文本的操作,其中,所述拟声词为“当当”和“叮”,所述随机对话文本为“出示健康码”,则所述第二重建文本为“想咨询下当当你们银行叮有出示健康码哪些消费分期产品,哈哈哈哈哈哈”。
S5、将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型。
本发明实施例中,对所述第一重建文本和所述第二重建文本进行汇总处理,得到训练文本数据,所述训练文本数据用于后续对所述预设的深度纠错模型进行训练处理。
其中,所述预设的深度纠错模型为Encoder-Decoder去噪自编码深度模型。所述Encoder-Decoder去噪自编码深度模型能够基于文本重建的方式,来对语音识别后带有少字或多字错误问题的业务文本进行变长纠错。
具体地,所述利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型,包括:
利用所述深度纠错模型中的编码器对所述训练文本数据进行编码处理,得到编码数据;
利用所述深度纠错模型中的解码器对所述编码数据进行文本重建处理,得到预测文本;
计算所述预测文本和预设的参考文本之间的交叉熵损失值;
当所述交叉熵损失值大于或者等于所述交叉熵损失阈值时,对所述深度纠错模型进行参数调整,直至所述交叉熵损失值小于所述交叉熵阈值时,将所述深度纠错模型输出为标准纠错模型。
详细地,所述深度纠错模型中的编码器(Encoder)中包含了12个子编码层网络(sub-encoder layer),每一个子编码层网络(sub-encoder layer)中都含有多头自注意力子层(Multi-head Self Attention)、LayerNormalization子层与前馈计算层Feed-forward Network这三个子层,其中,前馈计算层Feed-forward Network则为带有激活函数的全连接层。
其中,编码器(Encoder)在Encoder-Decoder去噪自编码深度模型中具有强大的自然语言理解能力(NLU),其能对输入模型中的文本进行语义编码与特征提取。
具体地,Encoder-Decoder去噪自编码深度模型的解码器(Decoder)中,也包含了12个子解码层网络(sub-decoder layer),每一个子解码层网络(sub-decoder layer)中也都含有多头自注意力子层Multi-head Self Attention、LayerNormalization子层与前馈计算层Feed-forward Network这三个子层。解码器(Decoder)在Encoder-Decoder去噪自编码深度模型中具有强大的自然语言生成能力(NLG),其能对输入模型中的文本进行文本重建。
进一步地,所述计算所述预测文本和预设的参考文本之间的交叉熵损失值,包括:
利用如下公式计算所述预测文本和预设的参考文本之间的交叉熵损失值:
其中,C为所述交叉熵损失值,y为所述参考文本,a为所述预测文本,n为数据总量。
S6、获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
本发明实施例中,将预先获取的待纠错文本输入至所述标准纠错模型中进行纠错处理,得到标准文本。
本发明实施例通过对原始录音数据进行语音识别,得到文本数据,并通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,便于后续根据文本数据的错误类型进行不同的数据增强处理,分别对所述少字错误类型的文本数据和所述第二数据类型的文本数据进行对应的数据增强处理,所述数据增强处理可以自动、快速地构建出大量的高质量、可用于训练模型的训练样本,将数据增强后生成的重建文本进行汇总得到训练文本数据,并利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型。将待纠错文本输入至所述标准纠错模型中,得到标准文本。因此本发明提出的文本变长纠错方法可以解决文本变长纠错的准确度较低的问题。
如图2所示,是本发明一实施例提供的文本变长纠错装置的功能模块图。
本发明所述文本变长纠错装置100可以安装于电子设备中。根据实现的功能,所述文本变长纠错装置100可以包括语音识别模块101、类型判定模块102、数据增强模块103、模型训练模块104及文本纠错模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述语音识别模块101,用于获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
所述类型判定模块102,用于通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
所述数据增强模块103,用于对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
所述模型训练模块104,用于将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
所述文本纠错模块105,用于获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
详细地,所述文本变长纠错装置100各模块的具体实施方式如下:
步骤一、获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据。
本发明实施例中,所述原始录音数据为银行业务场景下人工坐席或者客户的业务场景录音。
具体地,利用自动语音识别(Automatic Speech Recognition)技术对所述原始录音数据进行语音识别,得到文本数据。其中,进行语音识别的原理流程包括对语音数据进行编码、解码和文字输出等。
其中,需要对所述原始录音数据进行语音识别,得到文本数据,并根据所述文本数据进行质检或者分析。
步骤二、通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据。
本发明实施例中,所述通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,包括:
分别提取所述文本数据和所述真实文本的文本长度;
将所述文本数据的文本长度与所述真实文本的文本长度进行比较;
若所述文本数据的文本长度与所述真实文本的文本长度相等,将所述文本数据的类型判定为正确类型;
若所述文本数据的文本长度小于所述真实文本的文本长度,将所述文本数据判定为少字错误类型的文本数据;
若所述文本数据的文本长度大于所述真实文本的文本长度,将所述文本数据判定为多字错误类型的文本数据。
其中,所述真实文本是指用做参考的标准文本,不会出现多字或者少字等错误,通常作为参考来判别识别出的文本是否存在错误。
例如,所述真实文本为“想咨询下你们银行有哪些消费分期产品”,而通过语音识别得到的所述文本数据为“想咨询下你们银行哪些费期产品”,所述文本数据相对于所述真实文本出现了少字错误,其文本长度小于所述真实文本的文本长度,故将所述文本数据判定为少字错误类型的文本数据。若通过语音识别得到的所述文本数据为“想咨询下你们银行有哪些消费分期产品,哈哈哈哈哈哈”,所述文本数据相对于所述真实文本出现了多字错误,其文本长度大于所述真实文本的文本长度,故将所述文本数据判定为多字错误类型的文本数据。
详细地,所述少字错误类型的文本数据的出现通常是说话人说话声音较小、说话较快,以致语音识别未识别到而导致的。所述多字错误类型的文本数据的出现通常是由于说话人在说话时,背景中存在杂音或其他人说话的声音,导致语音识别将这些杂音或其他人说话的声音也误识别进了文本中,语音识别的误识别内容相当于往文本中添加了干扰性的噪声内容。
步骤三、对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本。
本发明实施例中,所述对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,包括:
对所述少字错误类型的文本数据进行分词处理,得到分词数据集;
利用预设的拼音连读筛选规则在所述分词数据集中筛选出多个连读词组;
对所述多个连读词组分别进行声韵母重排处理,得到第一重建文本。
详细地,所述少字错误类型的文本数据为“客户想办信用卡且购买平安金理财产品”,利用Jieba分词器进行分词处理,得到分词数据集为“客户/想/办/信用卡/且/购买/平安金/理财/产品”。
具体地,所述对所述多个连读词组分别进行声韵母重排处理,包括:
将所述连续词组中两个连续的字中的前一个字拼音中的声母加一部分的韵母与后一个字拼音中的韵母进行重排组合;或
将前一个字拼音中的声母与后一个字拼音中的韵母进行重排组合。
详细地,利用预设的拼音连读筛选规则在所述分词数据集中筛选出多个连读词组,所述连读词组可以为“信用卡”和“平安金”,由于“信用”两个字中,“信”字拼音中的声母“x”与韵母“i”,与“用”字拼音中的韵母“ong”发生了“拼音连读现象”组成了“xiong”这个拼音,使得快速读出的“信用”两个字变成了“胸”字。同理,“平安金”可变为“偏金”。因此所述第一重建文本为“客户想办胸卡且购买偏金理财产品”
在本发明另一可选实施例中,所述对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,包括:
获取预设的删除比例区间;
基于所述删除比例区间对所述少字错误类型的文本数据中随机执行删除操作,得到第一重建文本。
优选地,所述预设的删除比例可以为10%至15%。
例如,所述少字错误类型的文本数据为“想咨询下你们银行哪些费期产品”,对所述少字错误类型的文本数据随机执行删除操作,即随机删除10%至15%的字,可以删除“想咨询下你们银行哪些费期产品”中的“想”、“下”和“些”,故得到所述第一重建文本为“咨询你们银行哪费期产品”。
详细地,所述第一数据增强处理下增强出的所述第一重建文本能够让后续模型获得针对“由于说话人说话声音较小以致语音识别后的业务文本出现少字的错误问题”的纠正能力。
步骤四、对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本。
本发明实施例中,所述对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本,包括:
获取预设的拟声词文本和预设的随机对话文本;
在所述多字错误类型的文本数据中插入所述拟声词文本和所述随机对话文本,得到第二重建文本。
详细地,所述预设的拟声词文本可以为当、吱、嗡、哐、砰、吁和轰等,所述预设的随机对话文本是指与发明实施例中的业务文本内容不相关的文本。插入拟声词文本是为了模拟说话人在说话时背景中存在的杂音,而插入人物对话文本等其他内容不相关文本是为了模拟说话人在说话时背景中存在的其他人说话的声音。
例如,所述多字错误类型的文本数据为“想咨询下你们银行有哪些消费分期产品,哈哈哈哈哈哈”,则对所述多字错误类型的文本数据执行随机插入拟声词和随机对话文本的操作,其中,所述拟声词为“当当”和“叮”,所述随机对话文本为“出示健康码”,则所述第二重建文本为“想咨询下当当你们银行叮有出示健康码哪些消费分期产品,哈哈哈哈哈哈”。
步骤五、将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型。
本发明实施例中,对所述第一重建文本和所述第二重建文本进行汇总处理,得到训练文本数据,所述训练文本数据用于后续对所述预设的深度纠错模型进行训练处理。
其中,所述预设的深度纠错模型为Encoder-Decoder去噪自编码深度模型。所述Encoder-Decoder去噪自编码深度模型能够基于文本重建的方式,来对语音识别后带有少字或多字错误问题的业务文本进行变长纠错。
具体地,所述利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型,包括:
利用所述深度纠错模型中的编码器对所述训练文本数据进行编码处理,得到编码数据;
利用所述深度纠错模型中的解码器对所述编码数据进行文本重建处理,得到预测文本;
计算所述预测文本和预设的参考文本之间的交叉熵损失值;
当所述交叉熵损失值大于或者等于所述交叉熵损失阈值时,对所述深度纠错模型进行参数调整,直至所述交叉熵损失值小于所述交叉熵阈值时,将所述深度纠错模型输出为标准纠错模型。
详细地,所述深度纠错模型中的编码器(Encoder)中包含了12个子编码层网络(sub-encoder layer),每一个子编码层网络(sub-encoder layer)中都含有多头自注意力子层(Multi-head Self Attention)、LayerNormalization子层与前馈计算层Feed-forward Network这三个子层,其中,前馈计算层Feed-forward Network则为带有激活函数的全连接层。
其中,编码器(Encoder)在Encoder-Decoder去噪自编码深度模型中具有强大的自然语言理解能力(NLU),其能对输入模型中的文本进行语义编码与特征提取。
具体地,Encoder-Decoder去噪自编码深度模型的解码器(Decoder)中,也包含了12个子解码层网络(sub-decoder layer),每一个子解码层网络(sub-decoder layer)中也都含有多头自注意力子层Multi-head Self Attention、LayerNormalization子层与前馈计算层Feed-forward Network这三个子层。解码器(Decoder)在Encoder-Decoder去噪自编码深度模型中具有强大的自然语言生成能力(NLG),其能对输入模型中的文本进行文本重建。
进一步地,所述计算所述预测文本和预设的参考文本之间的交叉熵损失值,包括:
利用如下公式计算所述预测文本和预设的参考文本之间的交叉熵损失值:
其中,C为所述交叉熵损失值,y为所述参考文本,a为所述预测文本,n为数据总量。
步骤六、获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
本发明实施例中,将预先获取的待纠错文本输入至所述标准纠错模型中进行纠错处理,得到标准文本。
本发明实施例通过对原始录音数据进行语音识别,得到文本数据,并通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,便于后续根据文本数据的错误类型进行不同的数据增强处理,分别对所述少字错误类型的文本数据和所述第二数据类型的文本数据进行对应的数据增强处理,所述数据增强处理可以自动、快速地构建出大量的高质量、可用于训练模型的训练样本,将数据增强后生成的重建文本进行汇总得到训练文本数据,并利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型。将待纠错文本输入至所述标准纠错模型中,得到标准文本。因此本发明提出的文本变长纠错装置可以解决文本变长纠错的准确度较低的问题。
如图3所示,是本发明一实施例提供的实现文本变长纠错方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如文本变长纠错程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行文本变长纠错程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如文本变长纠错程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的文本变长纠错程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本;
对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本;
对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种文本变长纠错方法,其特征在于,所述方法包括:
获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本;
对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
2.如权利要求1所述的文本变长纠错方法,其特征在于,所述对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,包括:
对所述少字错误类型的文本数据进行分词处理,得到分词数据集;
利用预设的拼音连读筛选规则在所述分词数据集中筛选出多个连读词组;
对所述多个连读词组分别进行声韵母重排处理,得到第一重建文本。
3.如权利要求2所述的文本变长纠错方法,其特征在于,所述对所述多个连读词组分别进行声韵母重排处理,包括:
将所述连续词组中两个连续的字中的前一个字拼音中的声母加一部分的韵母与后一个字拼音中的韵母进行重排组合;或
将前一个字拼音中的声母与后一个字拼音中的韵母进行重排组合。
4.如权利要求1所述的文本变长纠错方法,其特征在于,所述对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本,包括:
获取预设的拟声词文本和预设的随机对话文本;
在所述多字错误类型的文本数据中插入所述拟声词文本和所述随机对话文本,得到第二重建文本。
5.如权利要求1所述的文本变长纠错方法,其特征在于,所述利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型,包括:
利用所述深度纠错模型中的编码器对所述训练文本数据进行编码处理,得到编码数据;
利用所述深度纠错模型中的解码器对所述编码数据进行文本重建处理,得到预测文本;
计算所述预测文本和预设的参考文本之间的交叉熵损失值;
当所述交叉熵损失值大于或者等于所述交叉熵损失阈值时,对所述深度纠错模型进行参数调整,直至所述交叉熵损失值小于所述交叉熵阈值时,将所述深度纠错模型输出为标准纠错模型。
7.如权利要求1所述的文本变长纠错方法,其特征在于,所述通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据,包括:
分别提取所述文本数据和所述真实文本的文本长度;
将所述文本数据的文本长度与所述真实文本的文本长度进行比较;
若所述文本数据的文本长度与所述真实文本的文本长度相等,将所述文本数据的类型判定为正确类型;
若所述文本数据的文本长度小于所述真实文本的文本长度,将所述文本数据判定为少字错误类型的文本数据;
若所述文本数据的文本长度大于所述真实文本的文本长度,将所述文本数据判定为多字错误类型的文本数据。
8.一种文本变长纠错装置,其特征在于,所述装置包括:
语音识别模块,用于获取原始录音数据,对所述原始录音数据进行语音识别,得到文本数据;
类型判定模块,用于通过将所述文本数据与预设的真实文本之间进行比对,将所述文本数据划分为少字错误类型的文本数据和多字错误类型的文本数据;
数据增强模块,用于对所述少字错误类型的文本数据进行第一数据增强处理,得到第一重建文本,对所述多字错误类型的文本数据进行第二数据增强处理,得到第二重建文本;
模型训练模块,用于将所述第一重建文本和所述第二重建文本汇总得到训练文本数据,利用所述训练文本数据对预设的深度纠错模型进行训练,得到标准纠错模型;
文本纠错模块,用于获取待纠错文本,将所述待纠错文本输入至所述标准纠错模型中,得到标准文本。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的文本变长纠错方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的文本变长纠错方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111147859.1A CN113887200A (zh) | 2021-09-29 | 2021-09-29 | 文本变长纠错方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111147859.1A CN113887200A (zh) | 2021-09-29 | 2021-09-29 | 文本变长纠错方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113887200A true CN113887200A (zh) | 2022-01-04 |
Family
ID=79007680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111147859.1A Pending CN113887200A (zh) | 2021-09-29 | 2021-09-29 | 文本变长纠错方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113887200A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997145A (zh) * | 2022-05-11 | 2022-09-02 | 海信集团控股股份有限公司 | 音频检查方法及电子设备 |
CN115169330A (zh) * | 2022-07-13 | 2022-10-11 | 平安科技(深圳)有限公司 | 中文文本纠错及验证方法、装置、设备及存储介质 |
CN117174084A (zh) * | 2023-11-02 | 2023-12-05 | 摩尔线程智能科技(北京)有限责任公司 | 一种训练数据构建方法及装置、电子设备和存储介质 |
CN117174084B (zh) * | 2023-11-02 | 2024-05-31 | 摩尔线程智能科技(北京)有限责任公司 | 一种训练数据构建方法及装置、电子设备和存储介质 |
-
2021
- 2021-09-29 CN CN202111147859.1A patent/CN113887200A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997145A (zh) * | 2022-05-11 | 2022-09-02 | 海信集团控股股份有限公司 | 音频检查方法及电子设备 |
CN115169330A (zh) * | 2022-07-13 | 2022-10-11 | 平安科技(深圳)有限公司 | 中文文本纠错及验证方法、装置、设备及存储介质 |
CN115169330B (zh) * | 2022-07-13 | 2023-05-02 | 平安科技(深圳)有限公司 | 中文文本纠错及验证方法、装置、设备及存储介质 |
CN117174084A (zh) * | 2023-11-02 | 2023-12-05 | 摩尔线程智能科技(北京)有限责任公司 | 一种训练数据构建方法及装置、电子设备和存储介质 |
CN117174084B (zh) * | 2023-11-02 | 2024-05-31 | 摩尔线程智能科技(北京)有限责任公司 | 一种训练数据构建方法及装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022531414A (ja) | 数字列のエンドツーエンド自動音声認識 | |
CN112667800A (zh) | 关键词生成方法、装置、电子设备及计算机存储介质 | |
CN112397047A (zh) | 语音合成方法、装置、电子设备及可读存储介质 | |
WO2022121157A1 (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN113887200A (zh) | 文本变长纠错方法、装置、电子设备及存储介质 | |
CN111985243B (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
CN116072098B (zh) | 音频信号生成方法、模型训练方法、装置、设备和介质 | |
CN112951203B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN114822812A (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN112820269A (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
CN112988963A (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN112863529A (zh) | 基于对抗学习的说话人语音转换方法及相关设备 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN112951233A (zh) | 语音问答方法、装置、电子设备及可读存储介质 | |
CN112667775A (zh) | 基于关键词提示的检索方法、装置、电子设备及存储介质 | |
CN116050425A (zh) | 建立预训练语言模型的方法、文本预测方法及装置 | |
CN114999533A (zh) | 基于情绪识别的智能问答方法、装置、设备及存储介质 | |
CN114155832A (zh) | 基于深度学习的语音识别方法、装置、设备及介质 | |
CN114863945A (zh) | 基于文本的语音变声方法、装置、电子设备及存储介质 | |
CN114610855A (zh) | 对话回复生成方法、装置、电子设备及存储介质 | |
CN112489628B (zh) | 语音数据选择方法、装置、电子设备及存储介质 | |
CN113707124A (zh) | 话术语音的联动播报方法、装置、电子设备及存储介质 | |
CN108920560B (zh) | 生成方法、训练方法、装置、计算机可读介质及电子设备 | |
CN115631748A (zh) | 基于语音对话的情感识别方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |