CN109977415A - 一种文本纠错方法及装置 - Google Patents

一种文本纠错方法及装置 Download PDF

Info

Publication number
CN109977415A
CN109977415A CN201910261329.6A CN201910261329A CN109977415A CN 109977415 A CN109977415 A CN 109977415A CN 201910261329 A CN201910261329 A CN 201910261329A CN 109977415 A CN109977415 A CN 109977415A
Authority
CN
China
Prior art keywords
error correction
candidate
long text
character
long
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910261329.6A
Other languages
English (en)
Inventor
黄腾玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN201910261329.6A priority Critical patent/CN109977415A/zh
Publication of CN109977415A publication Critical patent/CN109977415A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例提供了一种文本纠错方法及装置。该方法中,将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;基于所确定的各个候选纠错片段,确定待纠错长文本对应的至少一个候选长文本;针对至少一个候选长文本和待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;基于至少一个候选长文本的评估分数和待纠错长文本的评估分数,确定待纠错长文本的纠错结果。本发明实施例提供的文本纠错方法,可以提高长文本的纠错结果的准确率。

Description

一种文本纠错方法及装置
技术领域
本发明涉及文本纠错技术领域,特别是涉及一种文本纠错方法及装置。
背景技术
现有的针对长文本的文本纠错方法中,将长文本拆分为多个较短的片段,针对每个片段进行单独纠错,得到每一片段的纠错结果,并将各个片段的纠错结果进行组合,得到长文本的纠错结果。在纠错时,每个片段对应多个候选纠错片段,最终为每个片段选取一个较佳的纠错片段,作为纠错结果。
然而,发明人在实现本发明的过程中发现,现有技术至少存在如下问题:
现有的文本纠错方法,其实质还是针对片段的纠错,而对于纠错后的各个片段连接起来后的语义是否通顺,上下文关系是否衔接,现有的文本纠错方法并没有考虑,这无疑导致长文本的纠错结果的准确率较低。
发明内容
本发明实施例的目的在于提供一种文本纠错方法及装置,以提高长文本的纠错结果的准确率。具体技术方案如下:
一种文本纠错方法,包括:
将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;
基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本;
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符;
基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
可选地,所述针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,包括:
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,利用预设的预测模型,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
可选地,所述预测模型的网络结构的输入层,采用双向循环神经网络。
可选地,所述基于预测得到的候选概率,计算该长文本的评估分数,包括:
针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数。
可选地,所述基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数,包括:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的候选概率和所述原字符的候选概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
可选地,所述基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果,包括:
确定所述至少一个候选长文本中,评估分数最高的候选长文本;
判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
可选地,所述确定每一片段分别对应的至少一个候选纠错片段,包括:
针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
可选地,所述基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本,包括:
基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。
可选地,所述针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数,包括:
将该初始长文本中各个候选纠错片段的评估分数的乘积,作为该初始长文本的评估分数,或
将该初始长文本的各个候选纠错片段的评估分数的平均值,作为该初始长文本的评估分数。
一种文本纠错装置,包括:
第一确定模块,用于将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;
第二确定模块,基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本;
预测模块,用于针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符;
计算模块,用于针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,基于预测得到的候选概率,计算该长文本的评估分数;
第三确定模块,用于基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
可选地,所述预测模块,具体用于:
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,利用预设的预测模型,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
可选地,所述预测模型的网络结构的输入层,采用双向循环神经网络。
可选地,所述计算模块,包括纠错子模块和计算子模块;
所述纠错子模块,用于针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
所述计算子模块,用于基于各个字符位上的纠错字符的概率,计算该长文本的评估分数。
可选地,所述计算子模块,具体用于:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的概率和所述原字符的概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
可选地,所述第三确定模块,包括第一确定子模块和判断子模块;
所述第一确定子模块,用于确定所述至少一个候选长文本中,评估分数最高的候选长文本;
所述判断子模块,用于判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
可选地,所述第一确定模块,包括分割子模块、模型应用子模块以及第一筛选子模块;
所述分割子模块,用于将待纠错长文本分割为多个片段;
所述模型应用子模块,用于针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
所述第一筛选子模块,用于将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
可选地,所述第二确定模块,包括生成子模块、第二确定子模块以及第二筛选子模块;
所述生成子模块,用于基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
所述第二确定子模块,用于针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
所述第二筛选子模块,用于将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。
可选地,所述第二确定子模块,具体用于:
针对每一初始长文本,将该初始长文本中各个候选纠错片段的评估分数的乘积,作为该初始长文本的评估分数,或者,将该初始长文本的各个候选纠错片段的评估分数的平均值,作为该初始长文本的评估分数。
一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述的任一所述的文本纠错方法。
在本发明实施的又一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述任一所述的文本纠错方法。
在本发明实施的又一方面,本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的文本纠错方法。
本发明实施例提供的文本纠错方法中,为待纠错长文本确定至少一个候选长文本;针对至少一个候选长文本和待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;基于候选长文本的评估分数和待纠错长文本的评估分数,确定待纠错长文本的纠错结果。由于待评估的长文本中的每个候选字符,均基于对应字符位以外的其他字符位上的字符预测获得,故计算得到的长文本的评估分数,考虑了长文本的语义的通顺程度,以及上下文的衔接程度。因此,本发明实施例提供的文本纠错方法,针对长文本的纠错结果的准确率较高。当然,实施本发明的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例提供的一种文本纠错方法的流程图;
图2(a)为利用预测模型预测长文本中第一个字符位的至少一个候选字符的候选概率的示意图;
图2(b)为利用预测模型预测长文本中第二个字符位的至少一个候选字符的候选概率的示意图;
图2(c)为利用预测模型预测长文本中第三个字符位的至少一个候选字符的候选概率的示意图;
图2(d)为利用预测模型预测长文本中第四个字符位的至少一个候选字符的候选概率的示意图;
图3为本发明实施例提供的一种文本纠错装置的结构示意图;
图4为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
为了提高长文本的纠错结果的准确率,本发明实施例提供了一种文本纠错方法及装置。
需要说明的是,本发明实施例提供的一种文本纠错方法的执行主体,可以为一种文本纠错装置,该装置可以应用于具有文本输入功能的电子设备中。在具体应用中,该电子设备可以为手机、计算机、数字广播终端、消息收发设备、平板设备、医疗设备、健身设备,或个人数字助理等。
首先,对本发明实施例提供的一种文本纠错方法进行详细说明。如图1所示,本发明实施例提供的一种文本纠错方法,可以包括以下步骤:
S101:将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段。
其中,将待纠错长文本分割为多个片段的具体实现方式存在多种,示例性的,在一种实现方式中,可以采用语言模型实现对待纠错长文本的分割。其中,语言模型可以包括N-gram语言模型,也称为N元语法模型。N-gram语言模型实现文本分割的基本思想是:将文本按字符数进行大小为N的滑动窗口操作,形成多个字符长度为N的片段。在另一种实现方式中,可以根据待纠错长文本中的标点符号,实现对待纠错长文本的分割。需要说明的是,任何可将待纠错长文本分割为多个片段的方法,均可应用于本发明实施例提供的文本纠错方法中。
另外,确定每一片段分别对应的至少一个候选纠错片段的具体实现方式存在多种。示例性的,在一种实现方式中,确定每一片段分别对应的至少一个候选纠错片段,可以包括:
针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
这里,预设的语言模型,可以包括N-gram语言模型。利用N-gram语言模型可以得到每个片段所对应的各个初始纠错片段的概率,该概率代表了初始纠错片段成为所对应片段的正确纠错片段的概率,可以理解的是,每个片段所对应的各个初始纠错片段的概率之和为1。本发明实施例中,可以将利用N-gram语言模型得到的初始纠错片段的概率,作为初始纠错片段的评估分数。另外,在N-gram语言模型中,N值越大,所得到的初始纠错片段越多。在实际应用中,可以根据经验或实际的需求预先设定合适的N值,例如,N的值可以为2、3或4等。
可以理解的是,对初始纠错片段利用第一预设筛选条件进行筛选,可以起到减少候选纠错片段的数量的作用,从而为后续步骤筛掉不必要的初始纠错片段。其中,应用第一预设筛选条件,对初始纠错片段进行筛选的实现方式,可以包括:将评估分数大于预设的第一阈值的初始纠错片段作为候选纠错片段;或者,对每个片段所对应的各个初始纠错片段,按照评估分数进行降序排序,并从排序所得的序列中,选取前X个初始纠错片段作为候选纠错片段。其中,在根据第一阈值确定候选纠错片段的实现方式中,第一阈值可以为一个大于0且小于1的数值。例如,可以将评估分数大于0.5的初始纠错片段作为候选纠错片段;在排序确定候选纠错片段的实现方式中,X可以为一个大于等于2的正整数,例如,可以从排序所得的序列中,选取前3个初始纠错片段作为候选纠错片段。
示例性的,在另一种实现方式中,确定每一片段分别对应的至少一个候选纠错片段,可以包括:
针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段;
将所得到的多个初始纠错片段作为该片段对应的候选纠错片段,或者,从所得到的多个初始纠错片段中随机选取预定数量的片段作为该片段对应的候选纠错片段。
需要强调的是,上述的所述确定每一片段分别对应的至少一个候选纠错片段的具体实现方式,仅仅作为示例,并不应该构成对本发明实施例的限定。
S102:基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本。
其中,待纠错长文本对应的候选长文本由各个候选纠错片段中的至少两个候选纠错片段构成。具体的,针对每一候选长文本,该候选长文本所包括的各个候选纠错片段的数量与待纠错长文本的片段的数量相等,并且,该候选长文本所包括的每个候选纠错片段在该候选长文本中的位置,与该候选纠错片段对应的片段,在所述待纠错文本中的位置相同。
其中,基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本的具体实现方式可以存在多种。示例性的,在一种实现方式中,基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本,可以包括:
基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。可以理解的是,对初始长文本利用第二预设筛选条件进行筛选,可以起到减少候选长文本的数量的作用,从而为后续的步骤筛选不必要的初始长文本。
其中,待纠错长文本对应的初始长文本由各个候选纠错片段中的至少两个候选纠错片段构成。具体的,针对每一初始长文本:该初始长文本所包括的各个候选纠错片段的数量与待纠错长文本的片段的数量相等;该初始长文本所包括的每个候选纠错片段在该初始长文本中的位置,与该候选纠错片段对应的片段,在所述待纠错文本中的位置相同。实际应用中,可以在这两个条件的前提下,结合排列组合的方式,尽可能多的生成初始长文本。
另外,根据初始长文本中,每个候选纠错片段的评估分数,确定初始长文本的评估分数的具体实现方式也可以存在多种。示例性的,在一种实现方式中,可以将初始长文本中各个候选纠错片段的评估分数的乘积,作为初始长文本的评估分数。在另一种实现方式中,可以将初始长文本的各个候选纠错片段的评估分数的平均值,作为初始长文本的评估分数。
另外,利用第二预设筛选条件,对初始长文本进行筛选,可以起到减少初始长文本的数量的作用,从而为后续步骤筛选掉不必要的初始长文本。其中,应用第二预设筛选条件,对初始长文本进行筛选的实现方式,可以包括:将所具有的评估分数大于预设的第二阈值的初始长文本,作为候选长文本;或者,对各个初始长文本按照评估分数进行降序排序,并从排序所得的序列中,选取前Y个初始纠错片段作为候选纠错片段。可以理解的是,这里的第二阈值,可以与S101中确定候选纠错片段时所使用到的第一阈值相同,也可以与第一阈值不同。另外,这里的Y的值,可以与S101中确定候选纠错片段时所使用到的X的值相同,也可以与X的值不同。
S103:针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符。
这里,依次预测长文本中,每一字符的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率的具体实现方式存在多种。示例性的,在一种实现方式中,可以利用预设的预测模型,来依次预测长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率。
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
在现有技术中,基于RNN(Recurrent Neural Networks,循环神经网络)的语言模型能够根据当前输入的字符,预测后面的字符。根据这一特点,可以使用基于RNN的语言模型,实现对较短的文本的纠错。例如,当待纠错的短文本为“我很号”时,可以根据前面的“我很”二字,将“号”字纠正为“好”字。然而,在对长文本进行纠错的情况中,除了要对长文本的每个字符都进行纠错,还要考虑整个长文本的正确性,而长文本中,每个字符不仅与该字符前面的字符有关,也与该字符后面的字符有关,因此,如果只依据每个字符位前面的字符来预测该字符位上的字符,来对长文本进行纠错,纠错依据显然不够充分。例如,待纠错长文本为“我爱背景天安门”时,如果只依据“我爱”两个字,来预测“我爱”后面的字符,候选的字符是非常多的,这样,就无法实现对“背景”这两个字的纠错。而如果结合了“天安门”这三个字,就很容易预测出“我爱”和“天安门”之间的字符应该为“北京”,而不是“背景”,从而可以将“我爱背景天安门”有效地纠错为“我爱北京天安门”。
本发明实施例中,为了实现对长文本的纠错,可以基于双向RNN(Bi-directionalRecurrent Neural Networks,双向循环神经网络)来搭建所述预测模型,双向RNN由两个RNN对接在一起组成,可以在预测长文本的任意字符位上的字符时,根据该字符前面的已知字符和该字符后面的已知字符,相应的预测该字符位上的字符,从而实现对长文本的有效纠错。
在实际应用中,所述预测模型的网络结构可以划分为输入层、中间层以及输出层。其中,输入层采用双向RNN,输入层的输出由对接的两个RNN共同决定;输入层的输出接中间层的输入;中间层的网络结构可以根据应用场景具体确定,例如可以为全连接层,本发明对中间层的网络结构不做限定;中间层的输出接输出层的输入;输出层可以采用Softmax层,采用softmax层,可以使得针对长文本的每一字符所预测得到的候选字符的概率,和等于1。
可以理解的是,上述的输入层、中间层以及输出层,为功能性的层级,并不代表预测模型的网络结构的层级数量仅仅为三层。其中,输入层、中间层或输出层,网络结构都可以是多层的。例如,当输出层为Softmax层时,如果预定的中间层的输出的向量维度,与Softmax层的输入的向量维度不匹配时,则可以在预定的中间层与Softmax层之间设置一个全连接层,那么该全连接和预定的中间层一起,构成了新的中间层。
另外,在预测模型的训练阶段,训练预测模型的预设样本长句可以采用对应垂直领域或通用领域的自然语料。例如,预设样本长句为:“我爱北京天安门”,则预设样本长句对应的衍生样本长句可以包括:“我挨北京天安门”、“我爱北京天安们”、“我爱背景天安门”以及“窝爱北京天安门”等。其中,预设样本长句中的每个字符都具有预设的概率值,衍生样本长句中,与预设样本长句相同字符的概率,可以与预设样本长句中对应字符的概率相等;而衍生样本长句中,与预设样本长句所不同的字符的概率,则可以与预设样本长句中对应字符的概率不同。例如,预设样本长句中的每个字符的概率均可以为1,而衍生样本长句中,与预设样本长句相同的字符,概率也可以为1,而与预设样本长句所不同的字符:“挨”、“们”、“背”、“景”以及“窝”这几个字的概率均可以为0。相应的,在预测模型的使用阶段,所预测得到的候选字符的候选概率,均可以为0-1之间的值。
图2(a)为利用预测模型预测长文本中第一个字符位的至少一个候选字符的候选概率的示意图;图2(b)为利用预测模型预测长文本中第二个字符位的至少一个候选字符的候选概率的示意图;图2(c)为利用预测模型预测长文本中第三个字符位的至少一个候选字符的候选概率的示意图;图2(d)为利用预测模型预测长文本中第四个字符位的至少一个候选字符的候选概率的示意图。可以看到,该预测模型类似一个填字模型,每次遮挡住长文本的一个字符位上的字符,在该字符位上填字,直到长文本的每个字符位所能够填写的字符被预测出来。另外,从图2中还可以看到,每个字符位对应的候选字符的候选概率之和为1。
另外,针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,基于预测得到的候选概率,计算该长文本的评估分数的具体实现方式存在多种。示例性的,在一种实现方式中,基于预测得到的候选概率,计算该长文本的评估分数,可以包括:
针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数。
可以理解的是,在预测长文本某一字符位上的候选字符时,所预测得到的各个候选字符,可以包括该字符位上的原字符。如图2(d)所示,当使用预测模型来预测“abcd”这一长文本中第四个字符位上的候选字符时,所预测得到的候选字符包括:“c”、“d”以及“b”。其中,“d”为所述原字符,由于“d”的候选概率为70%,是候选概率最大的候选字符,故“d”也为所述纠错字符。
另外,基于各个字符位上的纠错字符的概率,计算该长文本的评估分数的具体实现方式存在多种。示例性的,在一种实现方式中,基于各个字符位上的纠错字符的概率,计算该长文本的评估分数,可以包括:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的候选概率和原字符的候选概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
其中,针对每一字符位,确定该字符位上的原字符的候选概率的具体实现方式存在多种,示例性的,在一种实现方式中,针对每一字符位,所预测得到的各个候选字符中,可以包括原字符,相应的,就可以确定原字符的候选概率。
需要说明的是,本发明实施例中,由于候选长文本可以满足第一筛选条件和第二筛选条件,故对于候选长文本上的原字符来说,很少存在所预测得到的候选字符不包括原字符的情况。然而,对于待纠错长文本来说,如果某个字符位上的字符比较生僻,则可能存在这种情况。例如,待纠错长文本为“我嗳北京天安门”,预测待纠错长文本第二个字符位的候选字符时,预测得到的各个候选字符位包括:“爱”、“挨”和“哎”,并不包括“嗳”这个字符。针对这种情况,可以将“嗳”这个原字符的候选概率确定为一个较低的值,例如0等。
S104:基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
这里,基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果的具体实现方式存在多种,示例性的,在一种实现方式中,基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果,可以包括:
确定所述至少一个候选长文本中,评估分数最高的候选长文本;
判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
这里,预设的阈值可以为一个大于等于0的数值。
可以理解的是,当判断结果为所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,不大于预设的阈值时,则表示待纠错长文本不需要进行纠错。
本发明实施例提供的文本纠错方法中,为待纠错长文本确定至少一个候选长文本;针对至少一个候选长文本和待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;基于候选长文本的评估分数和待纠错长文本的评估分数,确定待纠错长文本的纠错结果。由于待评估的长文本中的每个候选字符,均基于对应字符位以外的其他字符位上的字符预测获得,故计算得到的长文本的评估分数,考虑了长文本的语义的通顺程度,以及上下文的衔接程度。因此,本发明实施例提供的文本纠错方法,针对长文本的纠错结果的准确率较高。
相应于上述的一种文本纠错方法,本发明还提供了一种文本纠错装置。如图3所示,本发明还提供的一种文本纠错装置,可以包括:
第一确定模块301,用于将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;
第二确定模块302,基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本;
预测模块303,用于针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符;
计算模块304,用于针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,基于预测得到的候选概率,计算该长文本的评估分数;
第三确定模块305,用于基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
可选地,在一种实现方式中,所述预测模块303,具体可以用于:
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,利用预设的预测模型,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
可选地,在一种实现方式中,所述预测模型的网络结构的输入层,可以采用双向循环神经网络。
可选地,在一种实现方式中,所述计算模块304,可以包括纠错子模块和计算子模块;
其中,所述纠错子模块,用于针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
所述计算子模块,用于基于各个字符位上的纠错字符和原字符的概率,计算该长文本的评估分数。
可选地,在一种实现方式中,所述计算子模块,可以具体用于:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的概率和原字符的概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
可选地,在一种实现方式中,所述第三确定模块305,可以包括第一确定子模块和判断子模块;
所述第一确定子模块,用于确定所述至少一个候选长文本中,评估分数最高的候选长文本;
所述判断子模块,用于判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
可选地,在一种实现方式中,所述第一确定模块301,可以包括分割子模块、模型应用子模块以及第一筛选子模块;
所述分割子模块,用于将待纠错长文本分割为多个片段;
所述模型应用子模块,用于针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
所述第一筛选子模块,用于将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
可选地,在一种实现方式中,所述第二确定模块302,可以包括生成子模块、第二确定子模块以及第二筛选子模块;
所述生成子模块,用于基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
所述第二确定子模块,用于针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
所述第二筛选子模块,用于将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。
可选地,在一种实现方式中,所述第二确定子模块,可以具体用于:
针对每一初始长文本,将该初始长文本中各个候选纠错片段的评估分数的乘积,作为该初始长文本的评估分数,或者,将该初始长文本的各个候选纠错片段的评估分数的平均值,作为该初始长文本的评估分数。
本发明实施例提供的文本纠错装置,为待纠错长文本确定至少一个候选长文本;针对至少一个候选长文本和待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;基于候选长文本的评估分数和待纠错长文本的评估分数,确定待纠错长文本的纠错结果。由于待评估的长文本中的每个候选字符的概率,均基于对应字符位以外的其他字符位上的字符预测获得,故计算得到的长文本的评估分数,考虑了长文本的语义的通顺程度,以及上下文的衔接程度。因此,本发明实施例提供的文本纠错装置,针对长文本的纠错结果的准确率较高。
本发明实施例还提供了一种电子设备,如图4所示,包括处理器401、通信接口402、存储器403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信,
存储器403,用于存放计算机程序;
处理器401,用于执行存储器403上所存放的程序时,实现以下步骤:
将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;
基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本;
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符;
基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
可选地,所述针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,包括:
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,利用预设的预测模型,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
可选地,所述预测模型的网络结构的输入层,采用双向循环神经网络。
可选地,所述基于预测得到的候选概率,计算该长文本的评估分数,包括:
针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数。
可选地,所述基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数,包括:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的候选概率和所述原字符的候选概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
可选地,所述基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果,包括:
确定所述至少一个候选长文本中,评估分数最高的候选长文本;
判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
可选地,所述确定每一片段分别对应的至少一个候选纠错片段,包括:
针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
可选地,所述基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本,包括:
基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。
可选地,所述针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数,包括:
将该初始长文本中各个候选纠错片段的评估分数的乘积,作为该初始长文本的评估分数,或
将该初始长文本的各个候选纠错片段的评估分数的平均值,作为该初始长文本的评估分数。
本发明实施例提供的电子设备,为待纠错长文本确定至少一个候选长文本;针对至少一个候选长文本和待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;基于候选长文本的评估分数和待纠错长文本的评估分数,确定待纠错长文本的纠错结果。由于待评估的长文本中的每个候选字符,均基于对应字符位以外的其他字符位上的字符预测获得,故计算得到的长文本的评估分数,考虑了长文本的语义的通顺程度,以及上下文的衔接程度。因此,本发明实施例提供的电子设备,针对长文本的纠错结果的准确率较高。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的文本纠错方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的文本纠错方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和电子设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (19)

1.一种文本纠错方法,其特征在于,包括:
将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;
基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本;
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,并基于预测得到的候选概率,计算该长文本的评估分数;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符;
基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
2.根据权利要求1所述的方法,其特征在于,所述针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率,包括:
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,利用预设的预测模型,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
3.根据权利要求2所述的方法,其特征在于,所述预测模型的网络结构的输入层,采用双向循环神经网络。
4.根据权利要求1所述的方法,其特征在于,所述基于预测得到的候选概率,计算该长文本的评估分数,包括:
针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数。
5.根据权利要求4所述的方法,其特征在于,所述基于各个字符位上的纠错字符的候选概率,计算该长文本的评估分数,包括:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的候选概率和所述原字符的候选概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果,包括:
确定所述至少一个候选长文本中,评估分数最高的候选长文本;
判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
7.根据权利要求1所述的方法,其特征在于,所述确定每一片段分别对应的至少一个候选纠错片段,包括:
针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
8.根据权利要求7所述的方法,其特征在于,所述基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本,包括:
基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。
9.根据权利要求8所述的方法,其特征在于,所述针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数,包括:
将该初始长文本中各个候选纠错片段的评估分数的乘积,作为该初始长文本的评估分数,或
将该初始长文本的各个候选纠错片段的评估分数的平均值,作为该初始长文本的评估分数。
10.一种文本纠错装置,其特征在于,包括:
第一确定模块,用于将待纠错长文本分割为多个片段,确定每一片段分别对应的至少一个候选纠错片段;
第二确定模块,基于所确定的各个候选纠错片段,确定所述待纠错长文本对应的至少一个候选长文本;
预测模块,用于针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;其中,每一字符位的至少一个候选字符,为基于所在长文本中该字符位以外的其他字符位上的字符所预测的字符;
计算模块,用于针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,基于预测得到的候选概率,计算该长文本的评估分数;
第三确定模块,用于基于所述至少一个候选长文本的评估分数和所述待纠错长文本的评估分数,确定所述待纠错长文本的纠错结果。
11.根据权利要求10所述的装置,其特征在于,所述预测模块,具体用于:
针对所述至少一个候选长文本和所述待纠错长文本中的每一长文本,利用预设的预测模型,依次预测该长文本中,每一字符位的至少一个候选字符,以及每一字符位的至少一个候选字符的候选概率;
其中,所述预测模型,基于样本长句中每个字符和样本长句中每个字符的预设概率训练获得;所述样本长句,包括预设样本长句和衍生样本长句,其中,所述衍生样本长句,为对所述预设样本长句的目标字符位上的字符进行替换所得到的样本长句,所述预设样本长句的目标字符位上的字符的概率,与所述衍生样本长句目标字符位上的字符的概率不同。
12.根据权利要求11所述的装置,其特征在于,所述预测模型的网络结构的输入层,采用双向循环神经网络。
13.根据权利要求10所述的装置,其特征在于,所述计算模块,包括纠错子模块和计算子模块;
所述纠错子模块,用于针对该长文本的每一字符位,将预测得到的该字符位的至少一个候选字符中,所述候选概率最高的候选字符,作为该字符位的纠错字符;
所述计算子模块,用于基于各个字符位上的纠错字符的概率,计算该长文本的评估分数。
14.根据权利要求13所述的装置,其特征在于,所述计算子模块,具体用于:
针对每一字符位,确定该字符位上的原字符的候选概率,并计算该字符位上的纠错字符的概率和所述原字符的概率的对数损失;所述原字符为该长文本中,位于该字符位上的字符;
将计算得到的各个对数损失进行求和,并将求和结果除以该长文本的字符位数,得到该长文本的评估分数。
15.根据权利要求10-14任一项所述的装置,其特征在于,所述第三确定模块,包括第一确定子模块和判断子模块;
所述第一确定子模块,用于确定所述至少一个候选长文本中,评估分数最高的候选长文本;
所述判断子模块,用于判断所述评估分数最高的候选长文本的评估分数,与所述待纠错长文本的评估分数的差值,是否大于预设的阈值,如果大于,将所述评估分数最高的候选长文本,作为所述待纠错长文本的纠错结果。
16.根据权利要求10所述的装置,其特征在于,所述第一确定模块,包括分割子模块、模型应用子模块以及第一筛选子模块;
所述分割子模块,用于将待纠错长文本分割为多个片段;
所述模型应用子模块,用于针对每一片段,应用预设的语言模型,得到该片段对应的多个初始纠错片段,以及每个初始纠错片段的评估分数;其中,所述语言模型用于将输入的片段进行纠错并为纠错得到的片段标定评估分数;
所述第一筛选子模块,用于将所具有的评估分数满足第一预设筛选条件的至少一个初始纠错片段,作为该片段对应的至少一个候选纠错片段。
17.根据权利要求16所述的装置,其特征在于,所述第二确定模块,包括生成子模块、第二确定子模块以及第二筛选子模块;
所述生成子模块,用于基于所确定的各个候选纠错片段,生成所述待纠错长文本对应的多个初始长文本;
所述第二确定子模块,用于针对每一初始长文本,根据该初始长文本中,每个候选纠错片段的评估分数,确定该初始长文本的评估分数;
所述第二筛选子模块,用于将所具有评估分数满足第二预设筛选条件的多个初始长文本,作为所述待纠错长文本对应的至少一个候选长文本。
18.根据权利要求17所述的装置,其特征在于,所述第二确定子模块,具体用于:
针对每一初始长文本,将该初始长文本中各个候选纠错片段的评估分数的乘积,作为该初始长文本的评估分数,或者,将该初始长文本的各个候选纠错片段的评估分数的平均值,作为该初始长文本的评估分数。
19.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-9任一所述的方法步骤。
CN201910261329.6A 2019-04-02 2019-04-02 一种文本纠错方法及装置 Pending CN109977415A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910261329.6A CN109977415A (zh) 2019-04-02 2019-04-02 一种文本纠错方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910261329.6A CN109977415A (zh) 2019-04-02 2019-04-02 一种文本纠错方法及装置

Publications (1)

Publication Number Publication Date
CN109977415A true CN109977415A (zh) 2019-07-05

Family

ID=67082453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910261329.6A Pending CN109977415A (zh) 2019-04-02 2019-04-02 一种文本纠错方法及装置

Country Status (1)

Country Link
CN (1) CN109977415A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368918A (zh) * 2020-03-04 2020-07-03 拉扎斯网络科技(上海)有限公司 文本纠错方法、装置、电子设备及存储介质
CN111859907A (zh) * 2020-06-11 2020-10-30 北京百度网讯科技有限公司 文字纠错方法、装置、电子设备及存储介质
CN112307208A (zh) * 2020-11-05 2021-02-02 Oppo广东移动通信有限公司 长文本的分类方法、终端及计算机存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473003A (zh) * 2013-09-12 2013-12-25 天津三星通信技术研究有限公司 一种字符输入的纠错方法及其装置
CN104951779A (zh) * 2014-03-24 2015-09-30 中国银联股份有限公司 一种识别签购单字符的方法和系统
CN106959977A (zh) * 2016-01-12 2017-07-18 广州市动景计算机科技有限公司 文字输入中的候选集合计算方法及装置、文字纠错方法及装置
CN107704102A (zh) * 2017-10-09 2018-02-16 北京新美互通科技有限公司 一种文本输入方法及装置
US20180322370A1 (en) * 2017-05-05 2018-11-08 Baidu Online Network Technology (Beijing) Co., Ltd . Method and apparatus of discovering bad case based on artificial intelligence, device and storage medium
CN109543022A (zh) * 2018-12-17 2019-03-29 北京百度网讯科技有限公司 文本纠错方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473003A (zh) * 2013-09-12 2013-12-25 天津三星通信技术研究有限公司 一种字符输入的纠错方法及其装置
CN104951779A (zh) * 2014-03-24 2015-09-30 中国银联股份有限公司 一种识别签购单字符的方法和系统
CN106959977A (zh) * 2016-01-12 2017-07-18 广州市动景计算机科技有限公司 文字输入中的候选集合计算方法及装置、文字纠错方法及装置
US20180322370A1 (en) * 2017-05-05 2018-11-08 Baidu Online Network Technology (Beijing) Co., Ltd . Method and apparatus of discovering bad case based on artificial intelligence, device and storage medium
CN107704102A (zh) * 2017-10-09 2018-02-16 北京新美互通科技有限公司 一种文本输入方法及装置
CN109543022A (zh) * 2018-12-17 2019-03-29 北京百度网讯科技有限公司 文本纠错方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡熠等: "搜索引擎的一种在线中文查询纠错方法", 《中文信息学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368918A (zh) * 2020-03-04 2020-07-03 拉扎斯网络科技(上海)有限公司 文本纠错方法、装置、电子设备及存储介质
CN111368918B (zh) * 2020-03-04 2024-01-05 拉扎斯网络科技(上海)有限公司 文本纠错方法、装置、电子设备及存储介质
CN111859907A (zh) * 2020-06-11 2020-10-30 北京百度网讯科技有限公司 文字纠错方法、装置、电子设备及存储介质
CN111859907B (zh) * 2020-06-11 2023-06-23 北京百度网讯科技有限公司 文字纠错方法、装置、电子设备及存储介质
CN112307208A (zh) * 2020-11-05 2021-02-02 Oppo广东移动通信有限公司 长文本的分类方法、终端及计算机存储介质

Similar Documents

Publication Publication Date Title
US11308405B2 (en) Human-computer dialogue method and apparatus
CN104685451B (zh) 姿势适应选择
CN109299344B (zh) 排序模型的生成方法、搜索结果的排序方法、装置及设备
WO2020253466A1 (zh) 一种用户界面的测试用例生成方法及装置
CN109977415A (zh) 一种文本纠错方法及装置
US20240020514A1 (en) Improper neural network input detection and handling
JP6661754B2 (ja) コンテンツ配信方法および装置
US11334758B2 (en) Method and apparatus of data processing using multiple types of non-linear combination processing
CN110019790A (zh) 文本识别、文本监控、数据对象识别、数据处理方法
CN107220384A (zh) 一种基于相关性的搜索词处理方法、装置及计算设备
CN110061930B (zh) 一种数据流量的限制、限流值的确定方法和装置
WO2014176056A2 (en) Data classification
CN110309922A (zh) 一种网络模型训练方法和装置
CN113139052A (zh) 基于图神经网络特征聚合的谣言检测方法及装置
CN107357776B (zh) 一种相关词挖掘方法及装置
CN103164436B (zh) 一种图像搜索方法及装置
CN111565065B (zh) 一种无人机基站部署方法、装置及电子设备
CN108491451A (zh) 一种英文阅读文章推荐方法、装置、电子设备及存储介质
CN111984867B (zh) 一种网络资源确定方法及装置
CN111291792B (zh) 基于双进化的流量数据类型集成分类方法及装置
CN109582930B (zh) 一种滑动输入解码方法、装置及电子设备
WO2019114481A1 (zh) 集群类型识别方法、装置、电子设备及存储介质
CN111400678A (zh) 一种用户检测方法及装置
CN105468603A (zh) 数据选择方法及装置
CN111897910A (zh) 信息推送方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190705