CN111191441A - 文本纠错方法、装置及存储介质 - Google Patents
文本纠错方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111191441A CN111191441A CN202010010424.1A CN202010010424A CN111191441A CN 111191441 A CN111191441 A CN 111191441A CN 202010010424 A CN202010010424 A CN 202010010424A CN 111191441 A CN111191441 A CN 111191441A
- Authority
- CN
- China
- Prior art keywords
- error correction
- text
- participle
- current
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 338
- 238000000034 method Methods 0.000 title claims abstract description 110
- 230000011218 segmentation Effects 0.000 claims abstract description 74
- 238000012549 training Methods 0.000 claims abstract description 59
- 230000002787 reinforcement Effects 0.000 claims abstract description 39
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 19
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 241000294180 Osmunda japonica Species 0.000 description 3
- 230000009193 crawling Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000021824 exploration behavior Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000196127 Osmunda Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明提出一种文本纠错方法、装置及存储介质,该方法包括对待纠错文本进行分词,得到多个分词;采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的。通过本发明能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种文本纠错方法、装置及存储介质。
背景技术
文本纠错是自然语言处理中的常见任务,文本纠错涉及多种技术,并且相比于英文的文本纠错,由于中文的复杂性,中文文本的错误类型更多,纠错难度更大。
相关技术中,文本纠错一般是先检测出文本中的错误,而后推荐合适的修正项,其中,在检测文本中的错误的过程中,通常是先把文本切分为词汇,再对比正确词库,查看切分得到的词汇中是否存在错误。
这种方式下,纠错机制缺少对上下文语境的认识,难以检测到涉及上下文的错误,并且在推荐修正项过程中,难以从多个候选的修正项决策优先推荐项,因此,文本纠错效果不佳,纠错效率不高。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的目的在于提出一种文本纠错方法,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
为达到上述目的,本发明第一方面实施例提出的文本纠错方法,包括:对待纠错文本进行分词,得到多个分词;采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
本发明第一方面实施例提出的文本纠错方法,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
为达到上述目的,本发明第二方面实施例提出的文本纠错装置,包括:第一分词模块,用于对待纠错文本进行分词,得到多个分词;纠错模块,用于采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
本发明第二方面实施例提出的文本纠错装置,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
为达到上述目的,本发明第三方面实施例提出的非临时性计算机可读存储介质,当所述存储介质中的指令由计算机设备的处理器被执行时,使得计算机设备能够执行一种文本纠错方法,所述方法包括:对待纠错文本进行分词,得到多个分词;采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
本发明第三方面实施例提出的非临时性计算机可读存储介质,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
为达到上述目的,本发明第四方面实施例提出的计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行一种文本纠错方法,所述方法包括:对待纠错文本进行分词,得到多个分词;采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
本发明第四方面实施例提出的计算机程序产品,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一实施例提出的文本纠错方法的流程示意图;
图2为本发明实施例中的纠错模型示意图;
图3是本发明另一实施例提出的文本纠错方法的流程示意图;
图4是本发明一实施例提出的文本纠错装置的结构示意图;
图5是本发明另一实施例提出的文本纠错装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
为了解决相关技术中纠错机制缺少对上下文语境的认识,难以检测到涉及上下文的错误,并且在推荐修正项过程中,难以从多个候选的修正项决策优先推荐项,因此,文本纠错效果不佳,纠错效率不高的技术问题,本发明实施例提供一种文本纠错方法,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
图1是本发明一实施例提出的文本纠错方法的流程示意图。
本实施例以该文本纠错方法被配置为文本纠错装置中来举例说明。
本实施例中文本纠错方法可以被配置在文本纠错装置中,文本纠错装置可以设置在服务器中,或者也可以设置在电子设备中,本发明实施例对此不作限制。
本实施例以文本纠错方法被配置在电子设备中为例。
其中,电子设备例如智能手机、平板电脑、个人数字助理、电子书等具有各种操作系统的硬件设备。
需要说明的是,本发明实施例的执行主体,在硬件上可以例如为电子设备中的中央处理器(Central Processing Unit,CPU),在软件上可以例如为电子设备中的文本纠错类的服务,对此不作限制。
参见图1,该方法包括:
S101:对待纠错文本进行分词,得到多个分词。
其中,当前需要对其进行纠错的文本,可以被称为待纠错文本。
本发明实施例中,以待纠错文本为中文文本进行示例,对此不作限制。
其中,待纠错文本可以例如为,s1:“天上得星星很靓,地上薇薇泛着寒光”。
在具体执行的过程中,可以采用相关技术中的分词方法对待纠错文本进行分词,得到多个分词,或者,也可以将待纠错文本输入到分词模型中,从分词模型的输出结果中确定识别得到多个分词,对此不作限制。
例如,对s1:“天上得星星很靓,地上薇薇泛着寒光”分词,得到的多个分词为[“天上”,“得”,“星星”,“很靓”,“地上”,“薇薇”,“泛着”,“寒光”]。
S102:采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的。
在具体执行的过程中,纠错模型是采用多个错误文本,各错误文本对应的正确文本,各错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练得到的。
作为一种示例,可以获取海量的错误文本-正确文本对,以及对各错误文本进行分词得到的多个样本分词中,每个样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法进行迭代训练,直至迭代训练的次数满足预设次数阈值时,确定训练完毕。
在采用纠错模型对各分词进行逐词纠错时,可以确定当前分词;当前分词为多个分词中的一个;根据纠错模型对当前分词进行纠错,得到与当前分词对应的正确分词;根据正确分词,结合纠错模型对与当前分词相邻的下一分词进行纠错,直至扫描完毕多个分词。
当然,也可以采用其它任意可能的方式对各分词进行逐词纠错,例如,在对各分词进行逐词纠错时,也可以是在当前分词不为首个分词时,根据正确分词,结合纠错模型对与当前分词相邻的前一分词进行纠错,或者,也可以在对各分词进行逐词纠错时,结合设定的规则采用跳词方式进行逐词纠错,直至扫描完毕多个分词,对此不作限制。
在具体执行的过程中,在根据正确分词,结合纠错模型对与当前分词相邻的下一分词进行纠错,可以是采用正确分词替换待纠错文本中的当前文本,得到新的待纠错文本;结合纠错模型对新的待纠错文本中,与正确分词相邻的下一分词进行纠错,直至扫描完毕多个分词。
可选地,在根据纠错模型对当前分词进行纠错,得到与当前分词对应的正确分词,可以是根据纠错模型确定与当前分词对应的目标纠错方式;纠错模型已学习得到各分词与目标纠错方式之间的映射关系;根据目标纠错方式对当前分词进行纠错,从而得到正确分词。
其中,在目标纠错方式下,对当前分词进行纠错得到的正确分词的奖励分值最大,表明在目标纠错方式下对当前分词进行纠错得到的正确分词最为接近正确文本中相应的分词。
其中,纠错模型已通过强化学习的方式学习得到各分词与目标纠错方式之间的映射关系,具体描述可以参见下述实施例,在此不再赘述。
作为一种示例,将待纠错文本s1:“天上得星星很靓,地上薇薇泛着寒光”进行分词,得到多个分词[“天上”,“得”,“星星”,“很靓”,“地上”,“薇薇”,“泛着”,“寒光”],在采用纠错模型对各分词进行逐词纠错时,可以首先将[天上]确定为当前分词,采用纠错模型对当前分词[天上]进行纠错,得到与当前分词对应的正确分词,并将将当前分词纠正为正确分词所采用的目标纠错方式记录为W1,确定对当前分词[天上]进行纠错得到的新的待纠错文本为s11[“正确分词”,“得”,“星星”,“很靓”,“地上”,“薇薇”,“泛着”,“寒光”],将新的待纠错文本s11输入纠错模型中,将与正确分词相邻的下一分词[得]进行纠正,得到新的待纠错文本s12;再将新的待纠错文本s12输入纠错模型中,对后续的词汇重复此步骤,直至扫描完毕多个分词,或者,直至当前迭代的次数达到设定的最大迭代次数,或者,纠正后的待纠错文本与正确文本完全一致为止。
其中,设定的最大迭代次数可以待纠错文本长度的N倍,即对待纠错文本进行逐词的N次扫描纠正,其中,N为大于0的正整数。
参见图2,图2为本发明实施例中的纠错模型示意图,以纠错模型为对神经网络模型Transformer Encoder进行示例,图2中示出了首先将[天上]确定为当前分词,采用纠错模型对当前分词[天上]进行纠错,得到与当前分词对应的正确分词,并将将当前分词纠正为正确分词所采用的目标纠错方式记录为W1的过程示例,其它迭代过程可以以此类推,在此不再赘述。
本发明实施例,是直接采用已经训练得到的纠错模型对各分词进行逐词纠错,通过将纠错的过程改进为循序渐进的过程,由此,有效地考虑到修改文本中某个分词而产生的“一动百动”效应,更加贴合人类的纠错方式,因此,有效地检测出文本中涉及上下文的错误。并且,由于是采用强化学习方法训练得到纠错模型,通过强化学习方法中的奖惩机制进行纠错模型的训练,使得所训练的纠错模型能够取得较好的纠错效果。
本实施例中,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
图3是本发明另一实施例提出的文本纠错方法的流程示意图。
本发明实施例中示出了采用强化学习方法训练得到纠错模型的流程示意,其中,纠错模型是采用多个错误文本,各错误文本对应的正确文本,各错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练得到的。
其中,多个错误文本为样本的错误文本,正确文本为与错误文本相对应的样本的正确文本,样本分词,是针对错误文本采用分词技术分词得到分词,样本分词对应的多个纠错方式,为基于人类语言的表达习惯对可能存在错误的样本分词进行纠正,可以考虑采用的纠错方式,本实施例中正是通过预先训练得到纠错模型,使得纠错模型针对每个分词,能够直接识别得到上述实施例中的目标纠错方式,使得在目标纠错方式下对当前分词进行纠错得到的正确分词最为接近正确文本中相应的分词,由此,有效地提升文本纠错效率,提升文本纠错效果。
上述的错误文本,以及正确文本可以是预先从网络爬取得到的,或者,也可以是从预配置的经验库中直接读取的,对此不作限制。
参见图3,该方法包括:
S301:在对初始的纠错模型采用强化学习方法训练时,对第一错误文本进行分词,得到多个样本分词;第一错误文本为多个错误文本中的一个。
其中,训练之前的纠错模型,可以被称为初始的纠错模型。
本发明实施例中,初始的纠错模型可以采用神经网络模型Transformer Encoder进行示例。
当然,神经网络模型仅仅是实现训练纠错模型的方法的一种可能的实现方式,在实际执行过程中,可以采用其它任意可能的能够模拟人类实际神经网络的模型来实现训练纠错模型的方法,对此不作限制。
本实施例中对神经网络模型Transformer Encoder采用强化学习方法进行训练。
本实施例中以强化学习方法为深度Q学习方法(Deep Q-network,DQN)进行示例,当然,也可以采用其他任意可能的强化学习方法训练纠错模型,对此不作限制。
可以理解的是,DQN的目标是学习一个关于action-value的函数Q(s,a),Q值表示要训练的模型在s状态下采取a之后所期望的奖励分值,通常计算出所有s-a对相应的Q值表,即能在应用中根据当前s去Q值表查找能使Q值最大的a即可,但由于s-a的组合方式往往有无限种,因此,可以结合深度学习方法来计算Q值,将s作为输入,输出每一个a关于Q的估值,这一过程即为作DQN。
S302:采用当前样本分词,以及当前样本分词的当前纠错方式对初始的纠错模型进行迭代训练;当前纠错方式为多个纠错方式中的一个。
S303:根据当前样本分词相邻的下一样本分词对当前样本分词进行更新,直至扫描完毕多个样本分词。
上述在采用当前样本分词,以及当前样本分词的当前纠错方式对初始的纠错模型进行迭代训练,可以是基于设定概率从多个纠错方式中确定出当前纠错方式;采用当前样本分词,以及当前样本分词的当前纠错方式对初始的纠错模型进行训练,直至初始的纠错模型,采用当前纠错方式对样本分词进行纠错后,由纠错后的样本分词组合得到的新的文本与第一错误文本对应的第一正确文本之间的奖励分值满足设定条件时,将当前纠错方式作为对应的样本分词的目标纠错方式。
上述确定新的文本与第一错误文本对应的第一正确文本之间的奖励分值的方式,可以具体是采用Bleu方法进行确定,其中,Bleu全称为bilingual evaluationunderstudy,意为双语评估替换,是衡量一个有多个正确输出结果的模型的精确度的评估指标。
双语评估替换Bleu方法具体举例如下:
假设第一正确文本为s_,第一错误文本为s(第一错误文本为纠错前的文本),新的文本为s’(新的文本即为纠错后的文本),那么,当前纠错方式产生的奖励值,等于BLEU(s’,s_)-BLEU(s,s_),代表了当前纠错方式所产生的新的文本与正确文本的相似度的变化情况,如果相似度变低了,即,奖励值reward为负数,表明纠错方式是不符合要求的纠错方式,反之,如果相似度变高了,即奖励分值reward为正数,表明当前纠错方式是符合要求的纠错方式。
由此,上述的设定条件可以是奖励分值为正数,即由纠错后的样本分词组合得到的新的文本与第一错误文本对应的第一正确文本之间的奖励分值为正数时,将当前纠错方式作为对应的样本分词的目标纠错方式。
上述的S301-S303训练过程的算法流程如下:
1:初始化agent,即Transformer Encoder的参数θ,初始化经验库D
2:for epoch=1,Udo
3:for训练数据中的每个句子对样本s1,s2,do
4:for iterationi=1,NL(NL为迭代次数)do
5:ifrandom()<εthen(ε为agent随机选择一个动作的概率,增加探索性)
6:随机选择一个纠正操作
7:else
8:根据Transformer Encoder的计算结果选择最好的纠正操作
9:endif
10:基于BLEU计算当前reward,以及得到纠正后产生的新句子,将五元经验样本[输入句子,纠正操作,reward,纠正后的句子,是否为结束状态]放入经验库D从经验库D中随机获取一批五元经验样本用于对agent的训练
11:if结束状态then
12:q=当前时刻的reward,迭代过程结束
13:else
14:q=当前时刻的reward+λmaxq(纠错后文本),基中λ为折扣因子
15:end if
16:更新Transformer Encoder参数θ
17:end for
18:end for
19:end for
在上述的训练过程中,通过基于设定概率从多个纠错方式中确定出当前纠错方式,由此,实现了基于一定的概率随机选择某一当前纠错方式,有效地增加了模型训练过程中的探索行为,能够使得训练得到的纠错模型更为适用,应用范围更广泛,纠错效果更精准,通过采用多个错误文本,各错误文本对应的正确文本,各错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练,其中,前述的样本可以是预先从网络爬取得到的,或者,也可以是从预配置的经验库中直接读取的,能够有效加速模型收敛,提升模型训练效果。
S304:对待纠错文本进行分词,得到多个分词。
S305:采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的。
S304-S305可以参见上述实施例,在此不再赘述。
本实施例中,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。通过基于设定概率从多个纠错方式中确定出当前纠错方式,由此,实现了基于一定的概率随机选择某一当前纠错方式,有效地增加了模型训练过程中的探索行为,能够使得训练得到的纠错模型更为适用,应用范围更广泛,纠错效果更精准,通过采用多个错误文本,各错误文本对应的正确文本,各错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练,其中,前述的样本可以是预先从网络爬取得到的,或者,也可以是从预配置的经验库中直接读取的,能够有效加速模型收敛,提升模型训练效果。
图4是本发明一实施例提出的文本纠错装置的结构示意图。
参见图4,该装置400包括:
第一分词模块401,用于对待纠错文本进行分词,得到多个分词;
纠错模块402,用于采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的。
可选地,一些实施例中,参见图5,纠错模块402,包括:
确定子模块4021,用于确定当前分词;当前分词为多个分词中的一个;
纠错子模块4022,用于根据纠错模型对当前分词进行纠错,得到与当前分词对应的正确分词,并根据正确分词,结合纠错模型对与当前分词相邻的下一分词进行纠错,直至扫描完毕多个分词。
可选地,一些实施例中,纠错子模块4022,具体用于:
采用正确分词替换待纠错文本中的当前分词,得到新的待纠错文本;
结合纠错模型对新的待纠错文本中,与正确分词相邻的下一分词进行纠错,直至扫描完毕多个分词。
可选地,一些实施例中,纠错子模块4022,具体用于:
根据纠错模型确定与当前分词对应的目标纠错方式;纠错模型已学习得到各分词与目标纠错方式之间的映射关系;
根据目标纠错方式对当前分词进行纠错,从而得到正确分词。
可选地,一些实施例中,纠错模型是采用多个错误文本,各错误文本对应的正确文本,各错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练得到的。
可选地,一些实施例中,参见图5,还包括:
第二分词模块403,用于在对初始的纠错模型采用强化学习方法训练时,对第一错误文本进行分词,得到多个样本分词;第一错误文本为多个错误文本中的一个;
训练模块404,用于采用当前样本分词,以及当前样本分词的当前纠错方式对初始的纠错模型进行迭代训练;当前纠错方式为多个纠错方式中的一个;
更新模块405,用于根据当前样本分词相邻的下一样本分词对当前样本分词进行更新,直至扫描完毕多个样本分词。
可选地,一些实施例中,训练模块404,具体用于:
基于设定概率从多个纠错方式中确定出当前纠错方式;
采用当前样本分词,以及当前样本分词的当前纠错方式对初始的纠错模型进行训练,直至初始的纠错模型,采用当前纠错方式对样本分词进行纠错后,由纠错后的样本分词组合得到的新的文本与第一错误文本对应的第一正确文本之间的奖励分值满足设定条件时,将当前纠错方式作为对应的样本分词的目标纠错方式。
需要说明的是,前述图1-图3实施例中对文本纠错方法实施例的解释说明也适用于该实施例的文本纠错装置400,其实现原理类似,此处不再赘述。
上述文本纠错装置400中各个模块的划分仅用于举例说明,在其它实施例中,可将文本纠错装置按照需要划分为不同的模块,以完成上述文本纠错装置的全部或部分功能。
本实施例中,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,当存储介质中的指令由计算机设备的处理器执行时,使得计算机设备能够执行一种文本纠错方法,方法包括:
对待纠错文本进行分词,得到多个分词;
采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的。
本实施例中的非临时性计算机可读存储介质,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
为了实现上述实施例,本发明还提出一种计算机程序产品,当计算机程序产品中的指令被处理器执行时,执行一种文本纠错方法,方法包括:
对待纠错文本进行分词,得到多个分词;
采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的。
本实施例中的计算机程序产品,通过对待纠错文本进行分词,得到多个分词,并采用纠错模型对各分词进行逐词纠错,从而得到目标文本,其中,纠错模型是预先采用强化学习方法训练得到的,能够有效地检测出文本中涉及上下文的错误,有效提升文本纠错效率,提升文本纠错效果。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (16)
1.一种文本纠错方法,其特征在于,包括:
对待纠错文本进行分词,得到多个分词;
采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
2.如权利要求1所述的文本纠错方法,其特征在于,所述采用纠错模型对各所述分词进行逐词纠错,包括:
确定当前分词;所述当前分词为所述多个分词中的一个;
根据所述纠错模型对所述当前分词进行纠错,得到与所述当前分词对应的正确分词;
根据所述正确分词,结合所述纠错模型对与所述当前分词相邻的下一分词进行纠错,直至扫描完毕所述多个分词。
3.如权利要求2所述的文本纠错方法,其特征在于,所述根据所述正确分词,结合所述纠错模型对与所述当前分词相邻的下一分词进行纠错,包括:
采用所述正确分词替换所述待纠错文本中的当前分词,得到新的待纠错文本;
结合所述纠错模型对所述新的待纠错文本中,与所述正确分词相邻的下一分词进行纠错,直至扫描完毕所述多个分词。
4.如权利要求2所述的文本纠错方法,其特征在于,所述根据所述纠错模型对所述当前分词进行纠错,得到与所述当前分词对应的正确分词,包括:
根据所述纠错模型确定与所述当前分词对应的目标纠错方式;所述纠错模型已学习得到各所述分词与目标纠错方式之间的映射关系;
根据所述目标纠错方式对所述当前分词进行纠错,从而得到所述正确分词。
5.如权利要求1所述的文本纠错方法,其特征在于,所述纠错模型是采用多个错误文本,各所述错误文本对应的正确文本,各所述错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练得到的。
6.如权利要求5所述的文本纠错方法,其特征在于,还包括:
在对初始的纠错模型采用强化学习方法训练时,对第一错误文本进行分词,得到多个样本分词;所述第一错误文本为所述多个错误文本中的一个;
采用当前样本分词,以及所述当前样本分词的当前纠错方式对所述初始的纠错模型进行迭代训练;所述当前纠错方式为所述多个纠错方式中的一个;
根据所述当前样本分词相邻的下一样本分词对所述当前样本分词进行更新,直至扫描完毕所述多个样本分词。
7.如权利要求6所述的文本纠错方法,其特征在于,所述采用当前样本分词,以及所述当前样本分词的当前纠错方式对所述初始的纠错模型进行迭代训练,包括:
基于设定概率从所述多个纠错方式中确定出所述当前纠错方式;
采用当前样本分词,以及所述当前样本分词的当前纠错方式对所述初始的纠错模型进行训练,直至所述初始的纠错模型,采用所述当前纠错方式对所述样本分词进行纠错后,由纠错后的样本分词组合得到的新的文本与所述第一错误文本对应的第一正确文本之间的奖励分值满足设定条件时,将所述当前纠错方式作为对应的样本分词的目标纠错方式。
8.一种文本纠错装置,其特征在于,包括:
第一分词模块,用于对待纠错文本进行分词,得到多个分词;
纠错模块,用于采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
9.如权利要求8所述的文本纠错装置,其特征在于,所述纠错模块,包括:
确定子模块,用于确定当前分词;所述当前分词为所述多个分词中的一个;
纠错子模块,用于根据所述纠错模型对所述当前分词进行纠错,得到与所述当前分词对应的正确分词,并根据所述正确分词,结合所述纠错模型对与所述当前分词相邻的下一分词进行纠错,直至扫描完毕所述多个分词。
10.如权利要求9所述的文本纠错装置,其特征在于,所述纠错子模块,具体用于:
采用所述正确分词替换所述待纠错文本中的当前分词,得到新的待纠错文本;
结合所述纠错模型对所述新的待纠错文本中,与所述正确分词相邻的下一分词进行纠错,直至扫描完毕所述多个分词。
11.如权利要求9所述的文本纠错装置,其特征在于,所述纠错子模块,具体用于:
根据所述纠错模型确定与所述当前分词对应的目标纠错方式;所述纠错模型已学习得到各所述分词与目标纠错方式之间的映射关系;
根据所述目标纠错方式对所述当前分词进行纠错,从而得到所述正确分词。
12.如权利要求8所述的文本纠错装置,其特征在于,所述纠错模型是采用多个错误文本,各所述错误文本对应的正确文本,各所述错误文本的样本分词对应的多个纠错方式,对初始的纠错模型采用强化学习方法训练得到的。
13.如权利要求12所述的文本纠错装置,其特征在于,还包括:
第二分词模块,用于在对初始的纠错模型采用强化学习方法训练时,对第一错误文本进行分词,得到多个样本分词;所述第一错误文本为所述多个错误文本中的一个;
训练模块,用于采用当前样本分词,以及所述当前样本分词的当前纠错方式对所述初始的纠错模型进行迭代训练;所述当前纠错方式为所述多个纠错方式中的一个;
更新模块,用于根据所述当前样本分词相邻的下一样本分词对所述当前样本分词进行更新,直至扫描完毕所述多个样本分词。
14.如权利要求13所述的文本纠错装置,其特征在于,所述训练模块,具体用于:
基于设定概率从所述多个纠错方式中确定出所述当前纠错方式;
采用当前样本分词,以及所述当前样本分词的当前纠错方式对所述初始的纠错模型进行训练,直至所述初始的纠错模型,采用所述当前纠错方式对所述样本分词进行纠错后,由纠错后的样本分词组合得到的新的文本与所述第一错误文本对应的第一正确文本之间的奖励分值满足设定条件时,将所述当前纠错方式作为对应的样本分词的目标纠错方式。
15.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一项所述的文本纠错方法。
16.一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行一种文本纠错方法,所述方法包括:
对待纠错文本进行分词,得到多个分词;
采用纠错模型对各所述分词进行逐词纠错,从而得到目标文本,其中,所述纠错模型是预先采用强化学习方法训练得到的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010010424.1A CN111191441A (zh) | 2020-01-06 | 2020-01-06 | 文本纠错方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010010424.1A CN111191441A (zh) | 2020-01-06 | 2020-01-06 | 文本纠错方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111191441A true CN111191441A (zh) | 2020-05-22 |
Family
ID=70710623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010010424.1A Pending CN111191441A (zh) | 2020-01-06 | 2020-01-06 | 文本纠错方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111191441A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111694985A (zh) * | 2020-06-17 | 2020-09-22 | 北京字节跳动网络技术有限公司 | 搜索方法、装置、电子设备及计算机可读存储介质 |
CN112541342A (zh) * | 2020-12-08 | 2021-03-23 | 北京百度网讯科技有限公司 | 文本纠错方法、装置、电子设备及存储介质 |
CN113449090A (zh) * | 2021-06-23 | 2021-09-28 | 山东新一代信息产业技术研究院有限公司 | 一种用于智能问答的纠错方法、设备及介质 |
CN114548080A (zh) * | 2022-04-24 | 2022-05-27 | 长沙市智为信息技术有限公司 | 一种基于分词增强的中文错字校正方法及系统 |
WO2022126897A1 (zh) * | 2020-12-18 | 2022-06-23 | 平安科技(深圳)有限公司 | 文本纠错方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160321236A1 (en) * | 2015-04-30 | 2016-11-03 | Michael William Murphy | Systems and methods for word identification that use button press type error analysis |
CN106250364A (zh) * | 2016-07-20 | 2016-12-21 | 科大讯飞股份有限公司 | 一种文本修正方法及装置 |
CN108376129A (zh) * | 2018-01-24 | 2018-08-07 | 北京奇艺世纪科技有限公司 | 一种纠错方法及装置 |
CN109753636A (zh) * | 2017-11-01 | 2019-05-14 | 阿里巴巴集团控股有限公司 | 机器处理及文本纠错方法和装置、计算设备以及存储介质 |
CN110276077A (zh) * | 2019-06-25 | 2019-09-24 | 上海应用技术大学 | 中文纠错的方法、装置及设备 |
-
2020
- 2020-01-06 CN CN202010010424.1A patent/CN111191441A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160321236A1 (en) * | 2015-04-30 | 2016-11-03 | Michael William Murphy | Systems and methods for word identification that use button press type error analysis |
CN106250364A (zh) * | 2016-07-20 | 2016-12-21 | 科大讯飞股份有限公司 | 一种文本修正方法及装置 |
CN109753636A (zh) * | 2017-11-01 | 2019-05-14 | 阿里巴巴集团控股有限公司 | 机器处理及文本纠错方法和装置、计算设备以及存储介质 |
CN108376129A (zh) * | 2018-01-24 | 2018-08-07 | 北京奇艺世纪科技有限公司 | 一种纠错方法及装置 |
CN110276077A (zh) * | 2019-06-25 | 2019-09-24 | 上海应用技术大学 | 中文纠错的方法、装置及设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111694985A (zh) * | 2020-06-17 | 2020-09-22 | 北京字节跳动网络技术有限公司 | 搜索方法、装置、电子设备及计算机可读存储介质 |
CN112541342A (zh) * | 2020-12-08 | 2021-03-23 | 北京百度网讯科技有限公司 | 文本纠错方法、装置、电子设备及存储介质 |
WO2022126897A1 (zh) * | 2020-12-18 | 2022-06-23 | 平安科技(深圳)有限公司 | 文本纠错方法、装置、设备及存储介质 |
CN113449090A (zh) * | 2021-06-23 | 2021-09-28 | 山东新一代信息产业技术研究院有限公司 | 一种用于智能问答的纠错方法、设备及介质 |
CN114548080A (zh) * | 2022-04-24 | 2022-05-27 | 长沙市智为信息技术有限公司 | 一种基于分词增强的中文错字校正方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191441A (zh) | 文本纠错方法、装置及存储介质 | |
CN110717039B (zh) | 文本分类方法和装置、电子设备、计算机可读存储介质 | |
US11604956B2 (en) | Sequence-to-sequence prediction using a neural network model | |
US20190354810A1 (en) | Active learning to reduce noise in labels | |
CN112287670A (zh) | 文本纠错方法、系统、计算机设备及可读存储介质 | |
US20150095017A1 (en) | System and method for learning word embeddings using neural language models | |
CN113407694B (zh) | 客服机器人知识库歧义检测方法、装置及相关设备 | |
CN109033244B (zh) | 搜索结果排序方法和装置 | |
CN116909532B (zh) | 一种代码生成与缺陷修复方法和装置 | |
US11003993B1 (en) | Training recurrent neural networks to generate sequences | |
CN110188353B (zh) | 文本纠错方法及装置 | |
CN107644051B (zh) | 用于同类实体分组的系统和方法 | |
CN111160000B (zh) | 作文自动评分方法、装置终端设备及存储介质 | |
CN113657098B (zh) | 文本纠错方法、装置、设备及存储介质 | |
JP7116309B2 (ja) | コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム | |
CN115082920A (zh) | 深度学习模型的训练方法、图像处理方法和装置 | |
US11403331B2 (en) | Multi-term query subsumption for document classification | |
WO2019092868A1 (ja) | 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体 | |
CN110929532B (zh) | 数据处理方法、装置、设备及存储介质 | |
WO2019092867A1 (ja) | 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体 | |
CN114631099A (zh) | 人工智能透明度 | |
CN110263345B (zh) | 关键词提取方法、装置及存储介质 | |
Petti et al. | Constructing benchmark test sets for biological sequence analysis using independent set algorithms | |
CN109885180B (zh) | 纠错方法和装置、计算机可读介质 | |
CN113220883B (zh) | 一种文本分类方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200522 |
|
WD01 | Invention patent application deemed withdrawn after publication |