CN114781359A - 文本纠错方法、装置、计算机设备及存储介质 - Google Patents
文本纠错方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114781359A CN114781359A CN202210457419.4A CN202210457419A CN114781359A CN 114781359 A CN114781359 A CN 114781359A CN 202210457419 A CN202210457419 A CN 202210457419A CN 114781359 A CN114781359 A CN 114781359A
- Authority
- CN
- China
- Prior art keywords
- feature
- target
- stroke
- vector
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 claims abstract description 257
- 238000001914 filtration Methods 0.000 claims abstract description 143
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 238000013507 mapping Methods 0.000 claims description 50
- 230000004913 activation Effects 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000006403 short-term memory Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 239000002699 waste material Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000219112 Cucumis Species 0.000 description 2
- 235000015510 Cucumis melo subsp melo Nutrition 0.000 description 2
- FJJCIZWZNKZHII-UHFFFAOYSA-N [4,6-bis(cyanoamino)-1,3,5-triazin-2-yl]cyanamide Chemical compound N#CNC1=NC(NC#N)=NC(NC#N)=N1 FJJCIZWZNKZHII-UHFFFAOYSA-N 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请实施例属于人工智能领域,涉及一种文本纠错方法,包括获取目标文本,计算目标文本的特征向量,并计算目标文本的拼音特征和笔画特征;对特征向量和拼音特征进行融合,得到第一目标特征,根据第一目标特征计算同音错误概率,基于同音错误概率进行信息过滤,得到拼音过滤向量;对特征向量和笔画特征进行融合,得到第二目标特征,根据第二目标特征计算笔画错误概率,基于笔画错误概率进行信息过滤,得到笔画过滤向量;对特征向量、拼音过滤向量和笔画过滤向量进行特征融合,得到第三目标特征,输入第三目标特征至目标编码网络中,编码得到纠错文本。本申请还提供一种文本纠错装置、计算机设备及存储介质。本申请实现了对文本的精确纠错。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种文本纠错方法、装置、计算机设备及存储介质。
背景技术
在文本识别过程中,经常会出现由于OCR识别,或者输入法导致的形似字或者同音字错误,例如“进入”写成了“进人”,“风景”写成了“凡景”,“哈密瓜”写成了“哈蜜瓜”等错误。除此之外,在语音识别场景中,也存在语音识别解析为形近字或音似字的问题。文本纠错任务通常用于检测输入文本中的错字并进行修正,可以很大程度上减少形似字及音似字的错误。
随着计算机技术的发展,越来越多的研究者进行了中文的文本纠错研究,例如Soft-mask Bert模型,该模型包括检测网络和纠正网络,检测网络主要利用GRU网络对输入句子进行建模,然后输出句子中每个字是错别字的概率,再利用纠正网络对错字进行更改。PLOME模型则是在输入句子的编码中融入位置编码、字符编码、拼音特征以及笔画特征,然后直接利用预训练好的BERT模型的语言模型进行纠正。Soft-mask Bert模型将文本纠错任务分成检测和纠正两个模块,虽然能达到一定的效果,但是只利用了输入文本的特征,没有加入其他特征。PLOME模型虽然加入了拼音特征以及笔画特征,但是依赖于与训练好的Bert模型效果,而且将拼音特征和笔画特征直接加进输入字符特征,很难最大程度的利用拼音特征和笔画特征。最终,导致文本纠错准确率低下的问题。
发明内容
本申请实施例的目的在于提出一种文本纠错方法、装置、计算机设备及存储介质,以解决文本纠错准确率低下的技术问题。
为了解决上述技术问题,本申请实施例提供一种文本纠错方法,采用了如下所述的技术方案:
获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
进一步的,所述根据所述第一目标特征计算所述目标文本的同音错误概率的步骤包括:
获取拼音特征门控网络,基于所述拼音特征门控网络的第一全连接层对所述第一目标特征进行映射,得到第一映射特征;
输入所述第一映射特征至所述拼音特征门控网络的第一激活层,基于所述第一激活层的激活函数对所述第一映射特征进行计算,得到所述同音错误概率。
进一步的,所述根据所述第二目标特征计算所述目标文本的笔画错误概率的步骤包括:
获取笔画特征门控网络,基于所述笔画特征门控网络的第二全连接层对所述第二目标特征进行映射,得到第二映射特征;
输入所述第二映射特征至所述笔画特征门控网络的第二激活层,基于所述第二激活层的激活函数对所述第二映射特征进行计算,得到所述笔画错误概率。
进一步的,所述基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量的步骤包括:
根据所述同音错误概率计算第一对立概率参数,将所述同音错误概率作为所述第一目标特征的第一权重值,将所述第一对立概率参数作为所述特征向量的第二权重值;
根据所述第一权重值、所述第二权重值、所述第一目标特征和所述特征向量,计算得到所述拼音过滤向量。
进一步的,所述基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量的步骤包括:
根据所述笔画错误概率计算第二对立概率参数,将所述笔画错误概率作为所述第二目标特征的第三权重值,将所述第二对立概率参数作为所述特征向量的第四权重值;
根据所述第三权重值、所述第四权重值、所述第二目标特征和所述特征向量,计算得到所述笔画过滤向量。
进一步的,所述对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征的步骤包括:
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行向量相加,得到融合特征;
获取第三全连接层,基于所述第三全连接层对所述融合特征进行映射计算,得到所述第三目标特征。
进一步的,所述输入所述第三目标特征至目标编码网络中,编码得到纠错文本的步骤包括:
所述目标编码网络包括多头注意力层、正则化层和前向传播层,输入所述第三目标特征至所述多头注意力层,经过所述正则化层和所述前向传播层,计算得到所述纠错文本。
为了解决上述技术问题,本申请实施例还提供一种文本纠错装置,采用了如下所述的技术方案:
获取模块,用于获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
第一融合模块,用于对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
第二融合模块,用于对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
输出模块,用于对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
本申请提出的文本纠错方法,通过获取目标文本,计算目标文本的特征向量,并计算目标文本的拼音特征和笔画特征,实现了对拼音特征和笔画特征的精确提取;之后,对特征向量和拼音特征进行融合,得到第一目标特征,根据第一目标特征计算目标文本的同音错误概率,基于同音错误概率对特征向量进行信息过滤,得到拼音过滤向量,实现了对目标文本中字存在同音的纠错;而后,对特征向量和笔画特征进行融合,得到第二目标特征,根据第二目标特征计算目标文本的笔画错误概率,基于笔画错误概率对特征向量进行信息过滤,得到笔画过滤向量,实现了对目标文本中字存在形近的纠错;最后,对特征向量、拼音过滤向量和笔画过滤向量进行特征融合,得到第三目标特征,输入第三目标特征至目标编码网络中,编码得到纠错文本,实现了对文本的高效纠错,并能够及时有效地识别出文本中的错别字,提高了文本纠错的正确率,避免了由于文本错误导致的资源浪费。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的文本纠错方法的一个实施例的流程图;
图3是根据本申请的文本纠错装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:文本纠错装置300、获取模块301、第一融合模块302、第二融合模块303以及输出模块304。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的文本纠错方法一般由服务器/终端设备执行,相应地,文本纠错装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的文本纠错的方法的一个实施例的流程图。所述的文本纠错方法,包括以下步骤:
步骤S201,获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征。
在本实施例中,获取输入的目标文本,将该目标文本输入至预训练好的中文bert模型,通过该bert模型对该目标文本进行计算,可以得到目标文本对应的特征向量。拼音特征为目标文本的拼音编码特征,通过对目标文本进行拼音转换,得到拼音文本;之后,对该拼音文本进行编码,即得到拼音特征。具体地,获取拼音列表,参照该拼音列表通过拼音工具包可以将目标文本转换为对应的拼音文本。在得到拼音文本时,将该拼音文本输入至拼音编码网络,基于该拼音编码网络对该拼音文本进行编码,得到拼音特征。其中,拼音编码网络可以选取LSTM(Long Short-Term Memory,长短期记忆网络),通过长短期记忆网络对输入的拼音文本进行特征编码,得到对应的拼音特征。
笔画特征为目标文本对应的笔画编码特征,通过对目标文本进行笔画转换,得到对应的笔画特征序列。具体地,获取汉字笔画列表,对该汉字笔画列表中的每种笔画进行编号;而后,根据该编号确定目标文本中每个汉字对应的笔画顺序,按照该笔画顺序确定目标文本中每个汉字对应的编号组合;根据目标文本中汉字的排列顺序,对该编号组合进行排序,即得到目标文本对应的笔画特征序列。例如横线“-”,用数字1表示,竖线“|”用2表示,“今天天气很好”,对应的笔画特征列表则为“3445 1134 1134 3115 13243111512212511”。在得到笔画特征序列时,将该笔画特征序列输入至笔画编码网络,基于该笔画编码网络对该笔画特征序列进行编码,得到笔画特征。其中,笔画编码网络亦可以选取LSTM(Long Short-Term Memory,长短期记忆网络),该长短期记忆网络与上述的拼音编码网络选取的长短期记忆网络为参数不同的网络;通过该长短期记忆网络对笔画特征序列进行编码,得到目标文本对应的笔画特征。该笔画特征和拼音特征的向量维度与特征向量的向量维度相同。
步骤S202,对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量。
在本实施例中,在得到特征向量和拼音特征时,对该特征向量和拼音特征进行融合,其中,通过将特征向量和拼音特征进行向量相加,可以得到融合的第一目标特征。根据该第一目标特征计算目标文本的同音错误概率,该同音错误概率为目标文本中字存在同音错误的概率,通过全连接层和激活层对得到第一目标特征进行计算,可以得到该同音错误概率。在得到该同音错误概率时,基于该同音错误概率对特征向量进行信息过滤,得到拼音过滤向量。其中,信息过滤为根据计算得到同音错误概率对特征向量和第一目标特征进行筛选,将其中正确的拼音信息过滤出来的过程。具体地,将同音错误概率作为第一目标特征的第一权重值,将该同音错误概率的对立概率参数作为特征向量的第二权重值,计算该第一权重值与第一目标特征的乘积,以及该第二权重值与特征向量的乘积;对该两个乘积进行求和,计算得到拼音过滤向量。
步骤S203,对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量。
在本实施例中,在得到特征向量和笔画特征时,对该特征向量和笔画特征进行融合,其中,通过将特征向量和笔画特征进行向量相加,可以得到融合的第二目标特征。根据该第二目标特征计算目标文本的笔画错误概率,该笔画错误概率为目标文本中字存在形近错误的概率,通过全连接层和激活层对得到第二目标特征进行计算,可以得到该笔画错误概率。在得到该笔画错误概率时,基于该笔画错误概率对特征向量进行信息过滤,得到笔画过滤向量。其中,信息过滤为根据计算得到笔画错误概率对特征向量和第二目标特征进行信息过滤,将其中正确的笔画信息过滤出来的过程。具体地,将笔画错误概率作为第二目标特征的第三权重值,将该同音错误概率的对立概率参数作为特征向量的第四权重值,计算该第三权重值与第二目标特征的乘积,以及该第四权重值与特征向量的乘积;对该两个乘积进行求和,计算得到笔画过滤向量。
步骤S204,对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
在本实施例中,在得到特征向量、拼音过滤向量和笔画过滤向量时,对该特征向量、拼音过滤向量和笔画过滤向量进行特征融合,得到第三目标特征。输入该第三目标特征至目标编码网络中,基于该目标编码网络编码得到纠错文本。具体地,目标编码网络可以选取transformer模型的编码网络,其中,transformer模型包括编码网络(encoder)和解码网络(decoder);通过该transformer模型的编码网络对第三目标特征进行编码计算,输出得到纠错文本。
本申请提出的文本纠错方法,通过将拼音特征和笔画特征分别融入目标文本的特征向量中,之后对目标文本的字进行音似字和形近字的过滤,最后融合后输出纠错文本,实现了对文本的高效纠错,并能够及时有效地识别出文本中的错别字,提高了文本纠错的正确率,避免了由于文本错误导致的资源浪费。
在本实施例的一些可选的实现方式中,上述根据所述第一目标特征计算所述目标文本的同音错误概率的步骤包括:
获取拼音特征门控网络,基于所述拼音特征门控网络的第一全连接层对所述第一目标特征进行映射,得到第一映射特征;
输入所述第一映射特征至所述拼音特征门控网络的第一激活层,基于所述第一激活层的激活函数对所述第一映射特征进行计算,得到所述同音错误概率。
在本实施例中,同音错误为两个字对应的拼音相同,而字形不同的错误。为了对目标文本中的字是否存在同音错误进行确定,在得到特征向量和拼音特征融合的第一目标特征时,获取拼音特征门控网络,其中,该拼音特征门控网络为门控制单元组成的网络,包括第一全连接层和第一激活层。基于该拼音特征门控网络的第一全连接层对第一目标特征进行映射计算,得到第一映射特征;而后,输入该第一映射特征至拼音特征门控网络的第一激活层计算,得到同音错误概率。该同音错误概率的计算公式如下所示:
p1=σ(W1(X_vec+py_vec)+b1)
其中,X_vec为特征向量,py_vec为拼音特征,X_vec+py_vec计算得到第一目标特征,W1和b1为第一全连接层的训练参数矩阵和偏置项,W1(X_vec+py_vec)+b1计算得到第一映射特征,σ为第一激活层的激活函数。
本实施例通过拼音特征门控网络对第一目标特征进行映射计算和激活计算,得到同音错误概率,使得通过该同音错误概率能够对每个字出现同音错误的概率进行精确表示,进一步实现了对目标文本的同音错误校正,提高了文本纠错效率和准确率。
在本实施例的一些可选的实现方式中,上述根据所述第二目标特征计算所述目标文本的笔画错误概率的步骤包括:
获取笔画特征门控网络,基于所述笔画特征门控网络的第二全连接层对所述第二目标特征进行映射,得到第二映射特征;
输入所述第二映射特征至所述笔画特征门控网络的第二激活层,基于所述第二激活层的激活函数对所述第二映射特征进行计算,得到所述笔画错误概率。
在本实施例中,笔画错误为两个字形近导致的错误。为了对目标文本中的字是否存在笔画错误进行确定,在得到特征向量和笔画特征融合的第二目标特征时,获取笔画特征门控网络,其中,该笔画特征门控网络为门控制单元组成的网络,包括第二全连接层和第二激活层。基于该笔画特征门控网络的第二全连接层对第二目标特征进行映射计算,得到第二映射特征;而后,输入该第二映射特征至笔画特征门控网络的第二激活层计算,得到笔画错误概率。该笔画错误概率的计算公式如下所示:
p2=σ(W2(X_vec+st_vec)+b2)
其中,X_vec为特征向量,st_vec为拼音特征,X_vec+st_vec计算得到第二目标特征,W2和b2为第二全连接层的训练参数矩阵和偏置项,W2(X_vec+st_vec)+b2计算得到第二映射特征,σ为第二激活层的激活函数。
本实施例通过笔画特征门控网络对第二目标特征进行映射计算和激活计算,得到笔画错误概率,使得通过该笔画错误概率能够对每个字出现形近错误的概率进行精确表示,进一步实现了对目标文本的形近错误校正,提高了文本纠错效率和准确率。
在本实施例的一些可选的实现方式中,上述基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量的步骤包括:
根据所述同音错误概率计算第一对立概率参数,将所述同音错误概率作为所述第一目标特征的第一权重值,将所述第一对立概率参数作为所述特征向量的第二权重值;
根据所述第一权重值、所述第二权重值、所述第一目标特征和所述特征向量,计算得到所述拼音过滤向量。
在本实施例中,在得到同音错误概率时,根据该同音错误概率计算第一对立概率参数,其中,该第一对立概率参数为同音错误概率的对立事件的概率,通过1减去同音错误概率,即得到该第一对立概率参数。在得到该第一对立概率参数时,将该同音错误概率作为第一目标特征的第一权重值,将该第一对立概率参数作为特征向量的第二权重值。通过拼音特征门控网络的门控单元,基于该第一权重值和第二权重值对该第一目标特征和特征向量进行过滤,得到拼音过滤向量。具体地,拼音特征门控网络还可以包括门控单元,通过门控单元可以对网络中的信息进行筛选,公式如下所示:
Xpy=p1*pyX_vec+(1-p1)*X_vec
其中,pyX_vec为第一目标特征,X_vec为特征向量,p1为同音错误概率,1-p1为对立概率参数。
本实施例通过同音错误概率计算第一对立概率参数,之后根据同音错误概率和第一对立概率参数对第一目标特征和特征向量进行信息过滤,实现了对目标文本的同音纠错,进一步提高了文本纠错的准确率。
在本实施例的一些可选的实现方式中,上述基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量的步骤包括:
根据所述笔画错误概率计算第二对立概率参数,将所述笔画错误概率作为所述第二目标特征的第三权重值,将所述第二对立概率参数作为所述特征向量的第四权重值;
根据所述第三权重值、所述第四权重值、所述第二目标特征和所述特征向量,计算得到所述笔画过滤向量。
在本实施例中,在得到笔画错误概率时,根据该笔画错误概率计算第二对立概率参数,其中,该第二对立概率参数为笔画错误概率的对立事件的概率,通过1减去笔画错误概率,即得到该第二对立概率参数。在得到该第二对立概率参数时,将笔画错误概率作为第二目标特征的第三权重值,将该笔画错误概率的第二对立概率参数作为特征向量的第四权重值。通过笔画特征门控网络的门控单元,基于该第三权重值和第四权重值对该第二目标特征和特征向量进行过滤,得到笔画过滤向量。具体地,基于该门控单元计算第三权重值与第二目标特征的乘积,以及该第四权重值与特征向量的乘积;之后,对该两个乘积进行求和,计算得到笔画过滤向量。该笔画过滤向量的计算公式如下所示:
Xst=p2*stX_vec+(1-p2)*X_vec
其中,p2为笔画错误概率,stX_vec为第二目标特征,1-p2为笔画错误概率对应的对立概率参数,X_vec为特征向量。
本实施例通过笔画错误概率计算第二对立概率参数,之后根据笔画错误概率和第二对立概率参数对第二目标特征和特征向量进行信息过滤,实现了对目标文本的形近字的纠错,进一步提高了文本纠错的准确率。
在本实施例的一些可选的实现方式中,上述对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征的步骤包括:
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行向量相加,得到融合特征;
获取第三全连接层,基于所述第三全连接层对所述融合特征进行映射计算,得到所述第三目标特征。
在本实施例中,在得到拼音过滤向量和笔画过滤向量时,对该特征向量、拼音过滤向量和笔画过滤向量进行向量相加,得到融合特征;之后,获取第三全连接层,其中,该第三全连接层的参数与第二全连接层和第一全连接层的参数不同,通过该第三全连接层将特征向量、拼音过滤向量和笔画过滤向量映射至同一参数空间,得到第三目标特征。该第三目标特征的计算公式如下所示:
Xmerge=W3(X_vec+Xpy+Xst)+b3
其中,X_vec为特征向量,Xpy为拼音过滤向量,Xst为笔画过滤向量,W3和b3为第三全连接层的训练参数矩阵和偏置项。
本实施例通过对特征向量、拼音过滤向量和笔画过滤向量进行融合,最终得到第三目标特征,实现了对纠错后的特征融合,进一步提高了文本纠错效率。
在本实施例的一些可选的实现方式中,上述输入所述第三目标特征至目标编码网络中,编码得到纠错文本的步骤包括:
所述目标编码网络包括多头注意力层、正则化层和前向传播层,输入所述第三目标特征至所述多头注意力层,经过所述正则化层和所述前向传播层,计算得到所述纠错文本。
在本实施例中,第三目标特征为融合了目标文本的特征向量、拼音过滤向量和笔画过滤向量的特征,而拼音过滤向量和笔画过滤向量为纠错后的拼音特征和纠错后的笔画特征。因此,在得到第三目标特征时,对该第三目标特征进行编码,即得到最终的纠错文本。具体地,获取目标编码网络,该目标编码网络可以采用transformer模型中的编码网络,该目标编码网络包括多头注意力层、正则化层和前向传播层,输入该第三目标特征至该目标编码网络的多头注意力层,之后,经过正则化层和前向传播层,编码得到目标文本对应的纠错文本。
本实施例通过目标编码网络对第三目标特征进行编码,实现了对纠错后的特征的高效融合及编码,提高了文本纠错的准确率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种文本纠错装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的文本纠错装置300包括:获取模块301、第一融合模块302、第二融合模块303以及输出模块304。其中:
获取模块301,用于获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
在本实施例中,获取输入的目标文本,将该目标文本输入至预训练好的中文bert模型,通过该bert模型对该目标文本进行计算,可以得到目标文本对应的特征向量。拼音特征为目标文本的拼音编码特征,通过对目标文本进行拼音转换,得到拼音文本;之后,对该拼音文本进行编码,即得到拼音特征。具体地,获取拼音列表,参照该拼音列表通过拼音工具包可以将目标文本转换为对应的拼音文本。在得到拼音文本时,将该拼音文本输入至拼音编码网络,基于该拼音编码网络对该拼音文本进行编码,得到拼音特征。其中,拼音编码网络可以选取LSTM(Long Short-Term Memory,长短期记忆网络),通过长短期记忆网络对输入的拼音文本进行特征编码,得到对应的拼音特征。
笔画特征为目标文本对应的笔画编码特征,通过对目标文本进行笔画转换,得到对应的笔画特征序列。具体地,获取汉字笔画列表,对该汉字笔画列表中的每种笔画进行编号;而后,根据该编号确定目标文本中每个汉字对应的笔画顺序,按照该笔画顺序确定目标文本中每个汉字对应的编号组合;根据目标文本中汉字的排列顺序,对该编号组合进行排序,即得到目标文本对应的笔画特征序列。例如横线“-”,用数字1表示,竖线“|”用2表示,“今天天气很好”,对应的笔画特征列表则为“3445 1134 1134 3115 13243111512212511”。在得到笔画特征序列时,将该笔画特征序列输入至笔画编码网络,基于该笔画编码网络对该笔画特征序列进行编码,得到笔画特征。其中,笔画编码网络亦可以选取LSTM(Long Short-Term Memory,长短期记忆网络),该长短期记忆网络与上述的拼音编码网络选取的长短期记忆网络为参数不同的网络;通过该长短期记忆网络对笔画特征序列进行编码,得到目标文本对应的笔画特征。该笔画特征和拼音特征的向量维度与特征向量的向量维度相同。
第一融合模块302,用于对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
在本实施例的一些可选的实现方式中,第一融合模块302包括:
第一映射单元,用于获取拼音特征门控网络,基于所述拼音特征门控网络的第一全连接层对所述第一目标特征进行映射,得到第一映射特征;
第一计算单元,用于输入所述第一映射特征至所述拼音特征门控网络的第一激活层,基于所述第一激活层的激活函数对所述第一映射特征进行计算,得到所述同音错误概率。
在本实施例的一些可选的实现方式中,第一融合模块302还包括:
第二计算单元,用于根据所述同音错误概率计算第一对立概率参数,将所述同音错误概率作为所述第一目标特征的第一权重值,将所述第一对立概率参数作为所述特征向量的第二权重值;
第三计算单元,用于根据所述第一权重值、所述第二权重值、所述第一目标特征和所述特征向量,计算得到所述拼音过滤向量。
在本实施例中,在得到特征向量和拼音特征时,对该特征向量和拼音特征进行融合,其中,通过将特征向量和拼音特征进行向量相加,可以得到融合的第一目标特征。根据该第一目标特征计算目标文本的同音错误概率,该同音错误概率为目标文本中字存在同音错误的概率,通过全连接层和激活层对得到第一目标特征进行计算,可以得到该同音错误概率。在得到该同音错误概率时,基于该同音错误概率对特征向量进行信息过滤,得到拼音过滤向量。其中,信息过滤为根据计算得到同音错误概率对特征向量和第一目标特征进行筛选,将其中正确的拼音信息过滤出来的过程。具体地,将同音错误概率作为第一目标特征的第一权重值,将该同音错误概率的对立概率参数作为特征向量的第二权重值,计算该第一权重值与第一目标特征的乘积,以及该第二权重值与特征向量的乘积;对该两个乘积进行求和,计算得到拼音过滤向量。
第二融合模块303,用于对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
在本实施例的一些可选的实现方式中,第二融合模块303包括:
第二映射单元,用于获取笔画特征门控网络,基于所述笔画特征门控网络的第二全连接层对所述第二目标特征进行映射,得到第二映射特征;
第四计算单元,用于输入所述第二映射特征至所述笔画特征门控网络的第二激活层,基于所述第二激活层的激活函数对所述第二映射特征进行计算,得到所述笔画错误概率。
在本实施例的一些可选的实现方式中,第二融合模块303还包括:
第五计算单元,用于根据所述笔画错误概率计算第二对立概率参数,将所述笔画错误概率作为所述第二目标特征的第三权重值,将所述第二对立概率参数作为所述特征向量的第四权重值;
第六计算单元,用于根据所述第三权重值、所述第四权重值、所述第二目标特征和所述特征向量,计算得到所述笔画过滤向量。
在本实施例中,在得到特征向量和笔画特征时,对该特征向量和笔画特征进行融合,其中,通过将特征向量和笔画特征进行向量相加,可以得到融合的第二目标特征。根据该第二目标特征计算目标文本的笔画错误概率,该笔画错误概率为目标文本中字存在形近错误的概率,通过全连接层和激活层对得到第二目标特征进行计算,可以得到该笔画错误概率。在得到该笔画错误概率时,基于该笔画错误概率对特征向量进行信息过滤,得到笔画过滤向量。其中,信息过滤为根据计算得到笔画错误概率对特征向量和第二目标特征进行信息过滤,将其中正确的笔画信息过滤出来的过程。具体地,将笔画错误概率作为第二目标特征的第三权重值,将该同音错误概率的对立概率参数作为特征向量的第四权重值,计算该第三权重值与第二目标特征的乘积,以及该第四权重值与特征向量的乘积;对该两个乘积进行求和,计算得到笔画过滤向量。
输出模块304,用于对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
在本实施例的一些可选的实现方式中,输出模块304包括:
融合单元,用于对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行向量相加,得到融合特征;
第三映射单元,用于获取第三全连接层,基于所述第三全连接层对所述融合特征进行映射计算,得到所述第三目标特征。
在本实施例的一些可选的实现方式中,输出模块304还包括:
编码单元,用于所述目标编码网络包括多头注意力层、正则化层和前向传播层,输入所述第三目标特征至所述多头注意力层,经过所述正则化层和所述前向传播层,计算得到所述纠错文本。
在本实施例中,在得到特征向量、拼音过滤向量和笔画过滤向量时,对该特征向量、拼音过滤向量和笔画过滤向量进行特征融合,得到第三目标特征。输入该第三目标特征至目标编码网络中,基于该目标编码网络编码得到纠错文本。具体地,目标编码网络可以选取transformer模型的编码网络,其中,transformer模型包括编码网络(encoder)和解码网络(decoder);通过该transformer模型的编码网络对第三目标特征进行编码计算,输出得到纠错文本。
本实施例提出的文本纠错装置,实现了对文本的高效纠错,并能够及时有效地识别出文本中的错别字,提高了文本纠错的正确率,避免了由于文本错误导致的资源浪费。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如文本纠错方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述文本纠错方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本实施例提出的计算机设备,实现了对文本的高效纠错,并能够及时有效地识别出文本中的错别字,提高了文本纠错的正确率,避免了由于文本错误导致的资源浪费。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的文本纠错方法的步骤。
本实施例提出的计算机可读存储介质,实现了对文本的高效纠错,并能够及时有效地识别出文本中的错别字,提高了文本纠错的正确率,避免了由于文本错误导致的资源浪费。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种文本纠错方法,其特征在于,包括下述步骤:
获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
2.根据权利要求1所述的文本纠错方法,其特征在于,所述根据所述第一目标特征计算所述目标文本的同音错误概率的步骤包括:
获取拼音特征门控网络,基于所述拼音特征门控网络的第一全连接层对所述第一目标特征进行映射,得到第一映射特征;
输入所述第一映射特征至所述拼音特征门控网络的第一激活层,基于所述第一激活层的激活函数对所述第一映射特征进行计算,得到所述同音错误概率。
3.根据权利要求1所述的文本纠错方法,其特征在于,所述根据所述第二目标特征计算所述目标文本的笔画错误概率的步骤包括:
获取笔画特征门控网络,基于所述笔画特征门控网络的第二全连接层对所述第二目标特征进行映射,得到第二映射特征;
输入所述第二映射特征至所述笔画特征门控网络的第二激活层,基于所述第二激活层的激活函数对所述第二映射特征进行计算,得到所述笔画错误概率。
4.根据权利要求1所述的文本纠错方法,其特征在于,所述基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量的步骤包括:
根据所述同音错误概率计算第一对立概率参数,将所述同音错误概率作为所述第一目标特征的第一权重值,将所述第一对立概率参数作为所述特征向量的第二权重值;
根据所述第一权重值、所述第二权重值、所述第一目标特征和所述特征向量,计算得到所述拼音过滤向量。
5.根据权利要求1所述的文本纠错方法,其特征在于,所述基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量的步骤包括:
根据所述笔画错误概率计算第二对立概率参数,将所述笔画错误概率作为所述第二目标特征的第三权重值,将所述第二对立概率参数作为所述特征向量的第四权重值;
根据所述第三权重值、所述第四权重值、所述第二目标特征和所述特征向量,计算得到所述笔画过滤向量。
6.根据权利要求1所述的文本纠错方法,其特征在于,所述对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征的步骤包括:
对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行向量相加,得到融合特征;
获取第三全连接层,基于所述第三全连接层对所述融合特征进行映射计算,得到所述第三目标特征。
7.根据权利要求1所述的文本纠错方法,其特征在于,所述输入所述第三目标特征至目标编码网络中,编码得到纠错文本的步骤包括:
所述目标编码网络包括多头注意力层、正则化层和前向传播层,输入所述第三目标特征至所述多头注意力层,经过所述正则化层和所述前向传播层,计算得到所述纠错文本。
8.一种文本纠错装置,其特征在于,包括:
获取模块,用于获取目标文本,计算所述目标文本的特征向量,并计算所述目标文本的拼音特征和笔画特征;
第一融合模块,用于对所述特征向量和所述拼音特征进行融合,得到第一目标特征,根据所述第一目标特征计算所述目标文本的同音错误概率,基于所述同音错误概率对所述特征向量进行信息过滤,得到拼音过滤向量;
第二融合模块,用于对所述特征向量和所述笔画特征进行融合,得到第二目标特征,根据所述第二目标特征计算所述目标文本的笔画错误概率,基于所述笔画错误概率对所述特征向量进行信息过滤,得到笔画过滤向量;
输出模块,用于对所述特征向量、所述拼音过滤向量和所述笔画过滤向量进行特征融合,得到第三目标特征,输入所述第三目标特征至目标编码网络中,编码得到纠错文本。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的文本纠错方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的文本纠错方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210457419.4A CN114781359A (zh) | 2022-04-27 | 2022-04-27 | 文本纠错方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210457419.4A CN114781359A (zh) | 2022-04-27 | 2022-04-27 | 文本纠错方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114781359A true CN114781359A (zh) | 2022-07-22 |
Family
ID=82433668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210457419.4A Pending CN114781359A (zh) | 2022-04-27 | 2022-04-27 | 文本纠错方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114781359A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116187304A (zh) * | 2023-04-26 | 2023-05-30 | 中国传媒大学 | 一种基于改进bert的自动文本纠错算法及系统 |
-
2022
- 2022-04-27 CN CN202210457419.4A patent/CN114781359A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116187304A (zh) * | 2023-04-26 | 2023-05-30 | 中国传媒大学 | 一种基于改进bert的自动文本纠错算法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107293296B (zh) | 语音识别结果纠正方法、装置、设备及存储介质 | |
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
CN107767870B (zh) | 标点符号的添加方法、装置和计算机设备 | |
CN110909548A (zh) | 中文命名实体识别方法、装置及计算机可读存储介质 | |
CN114780727A (zh) | 基于强化学习的文本分类方法、装置、计算机设备及介质 | |
CN112396049A (zh) | 文本纠错方法、装置、计算机设备及存储介质 | |
CN112084779B (zh) | 用于语义识别的实体获取方法、装置、设备及存储介质 | |
CN111353311A (zh) | 一种命名实体识别方法、装置、计算机设备及存储介质 | |
CN113947095A (zh) | 多语种文本翻译方法、装置、计算机设备及存储介质 | |
CN113901836A (zh) | 基于上下文语义的词义消歧方法、装置及相关设备 | |
CN110837546A (zh) | 基于人工智能的藏头对联生成方法、装置、设备及介质 | |
CN112699213A (zh) | 语音意图识别方法、装置、计算机设备及存储介质 | |
CN112418291A (zh) | 一种应用于bert模型的蒸馏方法、装置、设备及存储介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN114781359A (zh) | 文本纠错方法、装置、计算机设备及存储介质 | |
CN116774973A (zh) | 数据渲染方法、装置、计算机设备及存储介质 | |
CN115294581A (zh) | 错误字符的识别方法、装置、电子设备及存储介质 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN112417886A (zh) | 意图实体信息抽取方法、装置、计算机设备及存储介质 | |
CN113657104A (zh) | 文本抽取方法、装置、计算机设备及存储介质 | |
CN111753548A (zh) | 信息获取方法及装置、计算机存储介质、电子设备 | |
CN113515931B (zh) | 文本纠错方法、装置、计算机设备及存储介质 | |
CN113255292B (zh) | 基于预训练模型的端到端文本生成方法及相关设备 | |
CN117688193B (zh) | 图文统一编码方法、装置、计算机设备及介质 | |
CN112949317B (zh) | 文本语义识别方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |