CN112668313A - 句子智能纠错方法、装置、计算机设备及存储介质 - Google Patents

句子智能纠错方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112668313A
CN112668313A CN202011564979.7A CN202011564979A CN112668313A CN 112668313 A CN112668313 A CN 112668313A CN 202011564979 A CN202011564979 A CN 202011564979A CN 112668313 A CN112668313 A CN 112668313A
Authority
CN
China
Prior art keywords
word
sentence
words
mask
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011564979.7A
Other languages
English (en)
Inventor
邓悦
郑立颖
徐亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202011564979.7A priority Critical patent/CN112668313A/zh
Priority to PCT/CN2021/083955 priority patent/WO2022134356A1/zh
Publication of CN112668313A publication Critical patent/CN112668313A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及检测模型技术领域,揭露了一种句子智能纠错方法、装置、计算机设备及存储介质。该方法通过将错误句子输入至预设附属关系检测模型中,对错误句子中各字词之间的依存关系进行预测,得到各字词关联的依存概率;将各字词关联的依存概率与预设依存阈值进行比较,将小于预设依存阈值的依存概率关联的字词记录为待纠错字词;对待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将待纠错掩码句子输入至预设语言模型中,对待纠错字词进行纠错预测,得到预测替换字词;将与待纠错字词对应的预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为错误句子对应的正确句子。本发明提高了句子智能纠错的准确率及效率。

Description

句子智能纠错方法、装置、计算机设备及存储介质
技术领域
本发明涉及检测模型技术领域,尤其涉及一种句子智能纠错方法、装置、计算机设备及存储介质。
背景技术
在会议记录或者公文撰写的过程中,时常会有单个错别字或者多个连续错别字出现的情况,为了提高文本的撰写质量,对文本中错别字的智能识别并纠错是非常有必要的。
现有技术中,通常通过以下方式对文本中错别字进行智能识别:将文本中存在错误的句子输入编码器并使用解码器对文本中各个字词逐个解码并输出正确的句子,但是该方法存在以下不足之处:解码器每一步的输出都依赖于上一步解码器的输出,进而在上一步解码器的输出存在错误时,会导致错误延续传播,使得对存在错误的句子纠错准确率较低。
发明内容
本发明实施例提供一种句子智能纠错方法、装置、计算机设备及存储介质,以解决对存在错误的句子纠错准确率较低的问题。
一种句子智能纠错方法,包括:
接收包含错误句子的句子纠错指令;
将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;
将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;
对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;
将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
一种句子智能纠错装置,包括:
纠错指令接收模块,用于接收包含错误句子的句子纠错指令;
依存概率确定模块,用于将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;
待纠错字词确定模块,用于将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;
纠错预测模块,用于对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;
字词替换模块,用于将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述句子智能纠错方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述句子智能纠错方法。
上述句子智能纠错方法、装置、计算机设备及存储介质,通过接收包含错误句子的句子纠错指令;将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
本发明通过先检测后纠错的方式,通过依存概率来判断错误句子中可能存在错误的字词,提高了句子错误字词检测的准确率;并将该可能存在错误的字词进行掩码处理后,通过预设语言模型对其进行纠错替换,如此减少了预设语言模型的纠错工作量,提高了句子智能纠错的效率。同时,将预设附属关系检测模型与预设语言模型独立分开,使得这两个模型可以并行运行,提高句子智能纠错的效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中句子智能纠错方法的一应用环境示意图;
图2是本发明一实施例中句子智能纠错方法的一流程图;
图3是本发明一实施例中句子智能纠错方法中步骤S20的一流程图;
图4是本发明一实施例中句子智能纠错方法中步骤S201的一流程图;
图5是本发明一实施例中句子智能纠错方法中步骤S40的一流程图;
图6是本发明一实施例中句子智能纠错装置的一原理框图;
图7是本发明一实施例中句子智能纠错装置中依存概率确定模块的一原理框图;
图8是本发明一实施例中句子智能纠错装置中字词信息处理单元的一原理框图;
图9是本发明一实施例中句子智能纠错装置中纠错预测模块的一原理框图;
图10是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的句子智能纠错方法,该句子智能纠错方法可应用如图1所示的应用环境中。具体地,该句子智能纠错方法应用在句子智能纠错系统中,该句子智能纠错系统包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于解决对存在错误的句子纠错准确率较低的问题。其中,客户端又称为用户端,是指与服务器相对应,为客户提供本地服务的程序。客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种句子智能纠错方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10:接收包含错误句子的句子纠错指令;
其中,句子纠错指令可以由用户主动发送,也可以为用户在系统中键入错误句子时主动触发。错误句子指的是存在错别字或者句法错误的句子。
S20:将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;
其中,预设附属关系检测模型用于确定各字词以及与其对应的附属字词之间的依存概率,依存概率是指各字词在该错误句子中需要依赖与附属字词存在的概率。可以理解地,附属字词可以为一个字词之前或者之后的一个相邻的字词,也可以为一个字词之前或之后的两个相邻的字词,还可以为一个字词之前的相邻的一个字词,一个字词之后的相邻的两个字词;示例性地,假设一个句子为“我今天中午吃了很多东西”,则针对于中午这一字词,与其对应的附属字词可以为“今天”以及“吃”,亦或者是“我”“今天”“吃”。
在一实施例中,如图3所示,步骤S20中,包括:
S201:对所述错误句子进行字词信息处理,得到与所述错误句子对应的正向隐藏层向量以及反向隐藏层向量;所述正向隐藏层向量是将所述错误句子中各字词按照正向顺序排序确定的;所述反向隐藏层向量是将所述错误句子中各字词按照反向顺序排序确定的;
可以理解地,信息处理指的是包含对错误句子进行分词、词嵌入处理以及上下文信息提取等操作。
在一具体实施例中,如图4所示,步骤S201中包括:
S2011:对所述错误句子进行分词处理之后,确定与所述错误句子对应的字词序列;
示例性地,可以通过结巴分词方法对错误句子进行分词处理,以得到错误句子中各字词,并根据预设字词字典中与各字词对应的编码进行替换之后,确定与错误句子对应的字词序列;其中,预设字词字典指的是对其它样本文档中各字词进行预先编码得到的,进而在步骤S2011中,可以从预设字词字典中查找与错误句子中各字词对应的编码进行替换,进而得到字词序列。
S2012:通过词嵌入方法对所述字词序列进行词嵌入处理,得到与所述字词序列对应的词向量序列;
其中,词嵌入处理指的是使用一个可以被预设附属关系检测模型识别且训练的字词向量替换字词序列中各字词的处理过程。
具体地,在对所述错误句子进行分词处理之后,确定与所述错误句子对应的字词序列之后,通过词嵌入方法(如:通过Word2Vec的skip-gram模型、Word2Vec的CBOW模型或者GloVe词向量等)对字词序列中各字词进行词嵌入处理,也即使用一个可以被预设附属关系检测模型识别且训练的字词向量替换字词序列中各字词,进而得到与字词序列对应的词向量序列。
S2013:通过所述预设附属关系检测模型中的信息提取模块,对所述词向量序列进行正向上下文信息提取,得到所述正向隐藏层向量;同时对所述词向量序列进行反向上下文信息提取,得到所述反向隐藏层。
其中,上下文信息提取包含对上文信息提取以及对下文信息提取,信息提取模块为Bilstm(Bi-directional Long Short-Term Memory,双向长短期记忆网络)模块可以理解地,在通过词嵌入方法对所述字词序列进行词嵌入处理,得到与所述字词序列对应的词向量序列之后,该词向量序列中是按照各字词的正向顺序进行排列的,进而可以通过预设附属关系检测模型中的信息提取模块,对词向量序列按照词向量序列中各字词的正向顺序进行基于上文信息的提取,可以理解地,也即词向量序列中的第二个词向量需要根据第一个词向量进行确定,进而得到正向隐藏层向量;同理,通过预设附属关系检测模型中的信息提取模块,对词向量序列按照词向量序列中各字词的正向顺序进行基于下文信息的提取,可以理解地,自词向量序列的最后一个词向量起,倒数第二词向量需要根据倒数第一个词向量进行确定,进而得到反向隐藏层向量。
S202:将所述正向隐藏层向量输入至所述预设附属关系检测模型中的第一线性变换层模块,确定与所述正向隐藏层向量对应的第一词特征;同时将所述反向隐藏层向量输入至所述预设附属关系检测模型中的第二线性变换层模块,确定所述反向隐藏层向量对应的第二词特征;
具体地,在对所述错误句子进行字词信息处理,得到与所述错误句子对应的正向隐藏层向量以及反向隐藏层向量之后,将所述正向隐藏层向量输入至所述预设附属关系检测模型中的第一线性变换层模块,对所述正向隐藏层向量进行线性映射,以确定与所述正向隐藏层向量对应的第一词特征;同时将所述反向隐藏层向量输入至所述预设附属关系检测模型中的第二线性变换层模块,对所述反向隐藏层向量进行线性映射,以确定所述反向隐藏层向量对应的第二词特征。其中,第一词特征中指的是代表附属词和被附属词的特征,被附属词指的错误句子中各字词,附属词指的是位于一个被附属字词之前或者之后且与其相邻的至少一个字词,可以理解地,由于正向隐藏层向量是根据各字词的正向顺序确定的,针对于第一词特征来说,被附属词为正向排序中字词顺序在前的字词作为附属词,其余相邻的字词作为附属词。
进一步地,假设确定的各字词对应的词特征为
Figure BDA0002860362760000081
(其中,
Figure BDA0002860362760000082
为正向隐藏层向量中第n个向量对应的词特征,也即错误句子中按照正向顺序时第n个字词的词特征),以及
Figure BDA0002860362760000083
(其中,
Figure BDA0002860362760000084
为反向隐藏层向量中第n个向量对应的词特征,也即错误句子中按照反向顺序时第n个字词的词特征),可以理解地,对于错误句子中按照正向顺序时的第一个字词,其在正向隐藏层向量中对应的词特征为
Figure BDA0002860362760000085
在反向隐藏层向量中对应的特征为,
Figure BDA0002860362760000086
也即最后一个词特征。
进而根据上述
Figure BDA0002860362760000091
以及
Figure BDA0002860362760000092
确定第一词特征为:
Figure BDA0002860362760000093
第二词特征为:
Figure BDA0002860362760000094
其中,Warc-head以及barc-head为第一线性变换层模块的可训练参数、Warc-dep以及barc-dep为第二线性变换层模块的可训练参数。
S203:根据所述第一词特征以及所述第二词特征,通过双仿射注意力机制确定各所述字词以及与其对应的附属词之间的依存概率。
具体地,在将所述正向隐藏层向量输入至所述预设附属关系检测模型中的第一线性变换层模块,确定与所述正向隐藏层向量对应的第一词特征;同时将所述反向隐藏层向量输入至所述预设附属关系检测模型中的第二线性变换层模块,确定所述反向隐藏层向量对应的第二词特征之后,将所有第一词特征进行堆叠之后,根据第二词特征以及堆叠之后的第一词特征,通过双仿射注意力机制确定各所述字词以及与其对应的附属词之间的依存概率。
进一步地,可以通过如下所述公式确定各所述字词以及与其对应的附属词之间的依存概率:
Figure BDA0002860362760000095
其中,
Figure BDA0002860362760000096
为错误句子中第n个字词以及与其对应的附属词之间的依存概率;Harc-head为对第一词特征进行堆叠之后得到的;
Figure BDA0002860362760000097
为反向隐藏层向量中第n个向量对应的词特征;Hhead为正向隐藏层向量;W和U为双仿射注意力机制的训练参数。
在本实施例中,通过双仿射注意力机制提升错误句子中错误字词的检测能力,双仿射注意力机制能够很好的将词与词之间的关联关系,可以更好的结合上下文信息,提高错误字词检测的准确率以及效率。
S30:将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;
其中,预设依存阈值可以根据历史样本数据进行人工确定,示例性地,该预设依存阈值可以为0.8,0.9等,该预设依存阈值可以根据具体应用场景的准确精度需求进行调整,如需要判别纠错字词准确率更高的场景,该预设依存阈值可以设定一个较高的值,如0.95等。
可以理解地,在将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联之后,将各所述字词关联的依存概率与预设依存阈值进行比较,在所述字词关联的依存概率小于预设依存阈值时,表征该字词在错误句子中与其它字词之间的依赖关系较弱,也即该字词可能是错误的字词,因此将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词。
进一步地,在所述字词关联的依存概率大于或等于预设依存阈值时,表征该字词在错误句子中与其它字词之间的依赖关系较强,也即该字词不是错误的字词。
S40:对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;
可以理解地,掩码处理指的是采用特殊字符将待纠错词掩盖掉,以对该位置上的字词进行纠错预测。
在一实施例中,如图5所示,步骤S40中包括如下步骤:
S401:通过所述预设语言模型中的编码模块,对所述掩码句子进行转换编码,得到与所述掩码句子对应的编码向量;所述编码向量中包括与所述待纠错字词对应的纠错编码向量;
其中,编码模块实质为预设语言模型中的向量转换层,该编码模块用于将待纠错掩码句子转换成可以被识别的编码向量。
具体地,在将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词之后,通过所述预设语言模型中的编码模块,对所述掩码句子进行转换编码,得到与所述掩码句子对应的编码向量。
S402:对所述编码向量进行线性映射,确定所述纠错编码向量属于预设字符字典中各待替换字词的匹配得分;
可以理解地,预设字符字典可以为根据历史样本数据进行分词、编码等处理得到的,该预设字符字典中存储多个字词对应的编码向量。
具体地,在通过所述预设语言模型中的编码模块,对所述掩码句子进行转换编码,得到与所述掩码句子对应的编码向量,对所述编码向量进行线性映射,将纠错编码向量与预设字符字典中各编码向量进行匹配,例如可以通过确定纠错编码向量与预设字符字典中各编码向量的欧几里得距离进行匹配,进而根据该欧几里得距离确定所述纠错编码向量属于预设字符字典中各待替换字词的匹配得分。
S403:对各所述匹配得分进行归一化处理,得到与各所述匹配得分对应的匹配概率;
S404:将所述匹配概率中匹配概率最大,且大于或等于预设匹配阈值的待替换字词记录为所述预测替换字词。
其中,预设匹配阈值可以为0.9,0.95等。
具体地,在对所述编码向量进行线性映射,确定所述纠错编码向量属于预设字符字典中各待替换字词的匹配得分之后,对各所述匹配得分进行归一化处理,得到与各所述匹配得分对应的匹配概率,进而将所述匹配概率中匹配概率最大,且大于预设匹配阈值的待替换字词记录为所述预测替换字词。
进一步地,若匹配概率中匹配概率最大值小于预设匹配阈值,则发送包含该匹配概率最大值对应的字词至预设接收方,该预设接收方可以为句子纠错指令的发送方,以提示暂未找到与该位置上的字词匹配的预测替换字词。
S50:将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
具体地,在对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词之后,将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子,进而完成整个句子智能纠错过程。
在本实施例中,通过先检测后纠错的方式,通过依存概率来判断错误句子中可能存在错误的字词,提高了判断准确率;并将该可能存在错误的字词进行掩码处理后,通过预设语言模型对其进行纠错替换,如此减少了预设语言模型的纠错工作量,提高了句子智能纠错的效率。
在一实施例中,步骤S40之前还包括:
(1)获取正确样本句子集;所述正确样本句子集中包含至少一个正确样本句子;
可以理解地,正确样本句子指的是没有错别字,且没有句法错误的句子,该正确样本句子可以从各个应用场景下的文档中提取得到。
(2)对所述正确样本句子进行掩码处理,得到样本掩码句子;所述样本掩码句子中包含至少一个样本掩码字词;
具体地,该步骤包括如下步骤:
自所述正确样本句子中选取第一掩码字词,并将预设替换字符替换所述第一掩码字词,并将替换后的第一掩码字词记录为所述样本预测字词;
自所述样本预测字词中选取第二掩码字词,并采用预设同音字词替换被选取的所述第二掩码字词。
具体地,在获取正确样本句子集之后,自正确样本句子中选取第一掩码字词,并将预设替换字符替换所述第一掩码字词,并将替换后的第一掩码字词记录为所述样本预测字词,优选地,选取第一掩码字词的选取概率可以为12%(该选取概率为实验值),也即正确样本句子中各个字词被选取为第一掩码字词的概率为12%;进一步地,为了提高模型对错误句子的纠错能力,进而在样本预测字词中选取第二掩码字词,并采用预设同音字词替换被选取的所述第二掩码字词,进而制造同音替换错误的场景(如智能多轮对话中,机器人常常会出现同音字的错误),并且除了第二掩码字词之外的第一掩码字词不做替换,仅记录其对应的位置即可,如此可以达到同音字替换的纠错训练过程,也达到了掩码纠错的训练过程。
(3)将所述样本掩码句子输入至包含初始参数的预设训练模型中,对所述样本掩码字词进行掩码预测,得到与所述样本掩码字词对应的样本预测字词;
具体地,在对所述正确样本句子进行掩码处理,得到样本掩码句子之后,对所述样本掩码句子进行转换编码,得到与样本掩码句子对应的样本编码向量;对该样本编码向量进行线性映射,确定与各第一掩码字词以及第二掩码字词属于预设字符字典中各待替换字词的匹配得分;对各匹配得分进行归一化处理,得到与各匹配得分对应的匹配概率,将匹配概率中匹配概率最大,且大于或等于预设匹配阈值的待替换字词记录为与第一掩码字词或者第二掩码字词对应的样本预测字词。
(4)将所述样本预测字词替换所述样本掩码字词之后,将替换之后的样本掩码句子记录为样本预测句子;
(5)根据所述样本预测句子以及与其对应的正确样本句子确定所述预设训练模型的预测损失值;
具体地,在将所述样本掩码句子输入至包含初始参数的预设训练模型中,对所述样本掩码字词进行掩码预测,得到与所述样本掩码字词对应的样本预测字词之后,将样本预测字词替换所述样本掩码字词之后,将替换之后的样本掩码句子记录为样本预测句子;进而根据样本预测句子以及与其对应的正确样本句子确定预设训练模型的预测损失值,该预测损失值可以通过交叉熵损失函数进行确定。
(6)在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设训练模型的初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设训练模型记录为所述预设语言模型。
可以理解地,该收敛条件可以为预测损失值小于设定阈值的条件,也即在预测损失值小于设定阈值时,停止训练;收敛条件还可以为预测损失值经过了10000次计算后值为很小且不会再下降的条件,也即预测损失值经过10000次计算后值很小且不会下降时,停止训练,并将收敛之后的所述预设训练模型记录为所述预设语言模型。
进一步地,根据所述样本预测句子以及与其对应的正确样本句子确定所述预设训练模型的预测损失值之后,在预测损失值未达到预设的收敛条件时,根据该预测损失值调整预设训练模型的初始参数,并将该正确样本句子对应的样本掩码句子重新输入至调整初始参数后的预设训练模型中,以在该正确样本句子对应的预测损失值达到预设的收敛条件时,选取正确样本句子集中另一仅正确样本句子,并执行上述步骤(1)至(5),并得到与该正确样本句子对应的预测损失值,并在该预测损失值未达到预设的收敛条件时,根据该预测损失值再次调整预设训练模型的初始参数,使得该正确样本句子对应的预测损失值达到预设的收敛条件。
如此,在通过正确样本句子集中所有正确样本句子对预设训练模型进行训练之后,使得预设训练模型输出的结果可以不断向准确地结果靠拢,让识别准确率越来越高,直至所有正确样本句子对应的预测损失值均达到预设的收敛条件时,将收敛之后的所述预设训练模型记录为所述预设语言模型。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种句子智能纠错装置,该句子智能纠错装置与上述实施例中句子智能纠错方法一一对应。如图6所示,该句子智能纠错装置包括纠错指令接收模块10、依存概率确定模块20、待纠错字词确定模块30、纠错预测模块40和字词替换模块50。各功能模块详细说明如下:
纠错指令接收模块10,用于接收包含错误句子的句子纠错指令;
依存概率确定模块20,用于将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;
待纠错字词确定模块30,用于将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;
纠错预测模块40,用于对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;
字词替换模块50,用于将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
优选地,如图7所示,所述依存概率确定模块20,包括:
字词信息处理单元201,用于对所述错误句子进行字词信息处理,得到与所述错误句子对应的正向隐藏层向量以及反向隐藏层向量;所述正向隐藏层向量是将所述错误句子中各字词按照正向顺序排序确定的;所述反向隐藏层向量是将所述错误句子中各字词按照反向顺序排序确定的;
线性映射单元202,用于将所述正向隐藏层向量输入至所述预设附属关系检测模型中的第一线性变换层模块,确定与所述正向隐藏层向量对应的第一词特征;同时将所述反向隐藏层向量输入至所述预设附属关系检测模型中的第二线性变换层模块,确定所述反向隐藏层向量对应的第二词特征;
依存概率确定单元203,根据所述第一词特征以及所述第二词特征,通过双仿射注意力机制确定各所述字词以及与其对应的附属词之间的依存概率。
优选地,如图8所示,字词信息处理单元201包括:
字词序列确定子单元2011,用于对所述错误句子进行分词处理之后,确定与所述错误句子对应的字词序列;
词嵌入处理子单元2012,用于通过词嵌入方法对所述字词序列进行词嵌入处理,得到与所述字词序列对应的词向量序列;
信息提取子单元2013,用于通过所述预设附属关系检测模型中的信息提取模块,对所述词向量序列进行正向上下文信息提取,得到所述正向隐藏层向量;同时对所述词向量序列进行反向上下文信息提取,得到所述反向隐藏层。
优选地,如图9所示,纠错预测模块40包括:
转换编码单元401,用于通过所述预设语言模型中的编码模块,对所述掩码句子进行转换编码,得到与所述掩码句子对应的编码向量;所述编码向量中包括与所述待纠错字词对应的纠错编码向量;
匹配得分确定单元402,用于对所述编码向量进行线性映射,确定所述纠错编码向量属于预设字符字典中各待替换字词的匹配得分;
匹配概率确定单元403,用于对各所述匹配得分进行归一化处理,得到与各所述匹配得分对应的匹配概率;
预测替换字词确定单元404,用于将所述匹配概率中匹配概率最大,且大于或等于预设匹配阈值的待替换字词记录为所述预测替换字词。
优选地,所述句子智能纠错装置还包括:
样本句子集获取模块,用于获取正确样本句子集;所述正确样本句子集中包含至少一个正确样本句子;
掩码处理模块,用于对所述正确样本句子进行掩码处理,得到样本掩码句子;所述样本掩码句子中包含至少一个样本掩码字词;
掩码预测模块,用于将所述样本掩码句子输入至包含初始参数的预设训练模型中,对所述样本掩码字词进行掩码预测,得到与所述样本掩码字词对应的样本预测字词;
样本预测句子记录模块,用于将所述样本预测字词替换所述样本掩码字词之后,将替换之后的样本掩码句子记录为样本预测句子;
预测损失值确定模块,用于根据所述样本预测句子以及与其对应的正确样本句子确定所述预设训练模型的预测损失值;
参数更新模块,用于在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设训练模型的初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设训练模型记录为所述预设语言模型。
所述掩码处理模块包括:
第一掩码字词选取单元,用于自所述正确样本句子中选取第一掩码字词,并将预设替换字符替换所述第一掩码字词,并将替换后的第一掩码字词记录为所述样本预测字词;
第二掩码字词选取单元,用于自所述样本预测字词中选取第二掩码字词,并采用预设同音字词替换被选取的所述第二掩码字词。
关于句子智能纠错装置的具体限定可以参见上文中对于句子智能纠错方法的限定,在此不再赘述。上述句子智能纠错装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述实施例中句子智能纠错所使用到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种句子智能纠错方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中句子智能纠错方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中句子智能纠错方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种句子智能纠错方法,其特征在于,包括:
接收包含错误句子的句子纠错指令;
将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;
将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;
对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;
将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
2.如权利要求1所述的句子智能纠错方法,其特征在于,所述将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,包括:
对所述错误句子进行字词信息处理,得到与所述错误句子对应的正向隐藏层向量以及反向隐藏层向量;所述正向隐藏层向量是将所述错误句子中各字词按照正向顺序排序确定的;所述反向隐藏层向量是将所述错误句子中各字词按照反向顺序排序确定的;
将所述正向隐藏层向量输入至所述预设附属关系检测模型中的第一线性变换层模块,确定与所述正向隐藏层向量对应的第一词特征;同时将所述反向隐藏层向量输入至所述预设附属关系检测模型中的第二线性变换层模块,确定所述反向隐藏层向量对应的第二词特征;
根据所述第一词特征以及所述第二词特征,通过双仿射注意力机制确定各所述字词以及与其对应的附属词之间的依存概率。
3.如权利要求2所述的句子智能纠错方法,其特征在于,对所述错误句子进行字词信息处理,得到与所述错误句子对应的正向隐藏层向量以及反向隐藏层向量,包括:
对所述错误句子进行分词处理之后,确定与所述错误句子对应的字词序列;
通过词嵌入方法对所述字词序列进行词嵌入处理,得到与所述字词序列对应的词向量序列;
通过所述预设附属关系检测模型中的信息提取模块,对所述词向量序列进行正向上下文信息提取,得到所述正向隐藏层向量;同时对所述词向量序列进行反向上下文信息提取,得到所述反向隐藏层。
4.如权利要求1所述的句子智能纠错方法,其特征在于,所述将所述掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词,包括:
通过所述预设语言模型中的编码模块,对所述掩码句子进行转换编码,得到与所述掩码句子对应的编码向量;所述编码向量中包括与所述待纠错字词对应的纠错编码向量;
对所述编码向量进行线性映射,确定所述纠错编码向量属于预设字符字典中各待替换字词的匹配得分;
对各所述匹配得分进行归一化处理,得到与各所述匹配得分对应的匹配概率;
将所述匹配概率中匹配概率最大,且大于或等于预设匹配阈值的待替换字词记录为所述预测替换字词。
5.如权利要求1所述的句子智能纠错方法,其特征在于,所述将所述掩码句子输入至预设语言模型中之前,还包括:
获取正确样本句子集;所述正确样本句子集中包含至少一个正确样本句子;
对所述正确样本句子进行掩码处理,得到样本掩码句子;所述样本掩码句子中包含至少一个样本掩码字词;
将所述样本掩码句子输入至包含初始参数的预设训练模型中,对所述样本掩码字词进行掩码预测,得到与所述样本掩码字词对应的样本预测字词;
将所述样本预测字词替换所述样本掩码字词之后,将替换之后的样本掩码句子记录为样本预测句子;
根据所述样本预测句子以及与其对应的正确样本句子确定所述预设训练模型的预测损失值;
在所述预测损失值未达到预设的收敛条件时,更新迭代所述预设训练模型的初始参数,直至所述预测损失值达到所述预设的收敛条件时,将收敛之后的所述预设训练模型记录为所述预设语言模型。
6.如权利要求5所述的句子智能纠错方法,其特征在于,所述对所述正确样本句子进行掩码处理,得到样本掩码句子,包括:
自所述正确样本句子中选取第一掩码字词,并将预设替换字符替换所述第一掩码字词,并将替换后的第一掩码字词记录为所述样本预测字词;
自所述样本预测字词中选取第二掩码字词,并采用预设同音字词替换被选取的所述第二掩码字词。
7.一种句子智能纠错装置,其特征在于,包括:
纠错指令接收模块,用于接收包含错误句子的句子纠错指令;
依存概率确定模块,用于将所述错误句子输入至预设附属关系检测模型中,对所述错误句子中各字词之间的依存关系进行预测,得到各所述字词以及与其对应的附属字词之间的依存概率,并将各所述字词和与其对应的依存概率关联;所述附属字词是指位于一个字词之前或者之后且与其相邻的至少一个字词;
待纠错字词确定模块,用于将各所述字词关联的依存概率与预设依存阈值进行比较,将小于所述预设依存阈值的依存概率关联的字词记录为待纠错字词;
纠错预测模块,用于对所述待纠错字词进行掩码处理之后,得到待纠错掩码句子,并将所述待纠错掩码句子输入至预设语言模型中,对所述待纠错字词进行纠错预测,得到与所述待纠错字词对应的预测替换字词;
字词替换模块,用于将与待纠错字词对应的所述预测替换字词替换该待纠错字词,并将替换之后的待纠错掩码句子记录为所述错误句子对应的正确句子。
8.如权利要求7所述的句子智能纠错装置,其特征在于,所述依存概率确定模块,包括:
字词信息处理单元,用于对所述错误句子进行字词信息处理,得到与所述错误句子对应的正向隐藏层向量以及反向隐藏层向量;所述正向隐藏层向量是将所述错误句子中各字词按照正向顺序排序确定的;所述反向隐藏层向量是将所述错误句子中各字词按照反向顺序排序确定的;
线性映射单元,用于将所述正向隐藏层向量输入至所述预设附属关系检测模型中的第一线性变换层模块,对所述正向隐藏层向量以及所述反向隐藏层向量进行特征映射,得到与所述正向隐藏层向量对应的第一词特征;同时将所述反向隐藏层向量输入至所述预设附属关系检测模型中的第二线性变换层模块,得到所述反向隐藏层向量对应的第二词特征;
依存概率确定单元,根据所述第一词特征以及所述第二词特征,通过双仿射注意力机制确定各所述字词以及与其对应的附属词之间的依存概率。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述句子智能纠错方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述句子智能纠错方法。
CN202011564979.7A 2020-12-25 2020-12-25 句子智能纠错方法、装置、计算机设备及存储介质 Pending CN112668313A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011564979.7A CN112668313A (zh) 2020-12-25 2020-12-25 句子智能纠错方法、装置、计算机设备及存储介质
PCT/CN2021/083955 WO2022134356A1 (zh) 2020-12-25 2021-03-30 句子智能纠错方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011564979.7A CN112668313A (zh) 2020-12-25 2020-12-25 句子智能纠错方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN112668313A true CN112668313A (zh) 2021-04-16

Family

ID=75409362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011564979.7A Pending CN112668313A (zh) 2020-12-25 2020-12-25 句子智能纠错方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN112668313A (zh)
WO (1) WO2022134356A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177405A (zh) * 2021-05-28 2021-07-27 中国平安人寿保险股份有限公司 基于bert的数据纠错方法、装置、设备及存储介质
CN113591475A (zh) * 2021-08-03 2021-11-02 美的集团(上海)有限公司 无监督可解释分词的方法、装置和电子设备
CN113705203A (zh) * 2021-09-02 2021-11-26 上海极链网络科技有限公司 文本纠错方法、装置、电子设备及计算机可读存储介质
CN115935957A (zh) * 2022-12-29 2023-04-07 广东南方网络信息科技有限公司 一种基于句法分析的句子语法纠错方法及系统
CN116662579A (zh) * 2023-08-02 2023-08-29 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机及存储介质
WO2024045527A1 (zh) * 2022-09-02 2024-03-07 美的集团(上海)有限公司 词句的纠错方法、装置、可读存储介质和计算机程序产品

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169331B (zh) * 2022-07-19 2023-05-12 哈尔滨工业大学 融入词语信息的中文拼写纠错方法
CN114997147B (zh) * 2022-08-04 2022-11-04 深圳依时货拉拉科技有限公司 基于混合mask的poi地址纠错方法、装置、存储介质和设备
CN115879421B (zh) * 2023-02-16 2024-01-09 之江实验室 一种增强bart预训练任务的句子排序方法及装置
CN116306600B (zh) * 2023-05-25 2023-08-11 山东齐鲁壹点传媒有限公司 一种基于MacBert的中文文本纠错方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140214401A1 (en) * 2013-01-29 2014-07-31 Tencent Technology (Shenzhen) Company Limited Method and device for error correction model training and text error correction
CN111324214B (zh) * 2018-12-17 2024-05-24 北京搜狗科技发展有限公司 一种语句纠错方法和装置
CN111144391B (zh) * 2019-12-23 2023-05-09 北京爱医生智慧医疗科技有限公司 一种ocr识别结果纠错方法及装置
CN111613214A (zh) * 2020-05-21 2020-09-01 重庆农村商业银行股份有限公司 一种用于提升语音识别能力的语言模型纠错方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177405A (zh) * 2021-05-28 2021-07-27 中国平安人寿保险股份有限公司 基于bert的数据纠错方法、装置、设备及存储介质
CN113591475A (zh) * 2021-08-03 2021-11-02 美的集团(上海)有限公司 无监督可解释分词的方法、装置和电子设备
CN113591475B (zh) * 2021-08-03 2023-07-21 美的集团(上海)有限公司 无监督可解释分词的方法、装置和电子设备
CN113705203A (zh) * 2021-09-02 2021-11-26 上海极链网络科技有限公司 文本纠错方法、装置、电子设备及计算机可读存储介质
WO2024045527A1 (zh) * 2022-09-02 2024-03-07 美的集团(上海)有限公司 词句的纠错方法、装置、可读存储介质和计算机程序产品
CN115935957A (zh) * 2022-12-29 2023-04-07 广东南方网络信息科技有限公司 一种基于句法分析的句子语法纠错方法及系统
CN115935957B (zh) * 2022-12-29 2023-10-13 广东南方网络信息科技有限公司 一种基于句法分析的句子语法纠错方法及系统
CN116662579A (zh) * 2023-08-02 2023-08-29 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机及存储介质
CN116662579B (zh) * 2023-08-02 2024-01-26 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机及存储介质

Also Published As

Publication number Publication date
WO2022134356A1 (zh) 2022-06-30

Similar Documents

Publication Publication Date Title
CN112668313A (zh) 句子智能纠错方法、装置、计算机设备及存储介质
CN110413730B (zh) 文本信息匹配度检测方法、装置、计算机设备和存储介质
CN110765763B (zh) 语音识别文本的纠错方法、装置、计算机设备和存储介质
CN110162633B (zh) 语音数据意图确定方法、装置、计算机设备和存储介质
CN110704588A (zh) 基于长短期记忆网络的多轮对话语义分析方法和系统
CN111310443A (zh) 一种文本纠错方法和系统
WO2022105083A1 (zh) 文本纠错方法、装置、设备及介质
CN111241814B (zh) 语音识别文本的纠错方法、装置、电子设备及存储介质
CN110688853B (zh) 序列标注方法、装置、计算机设备和存储介质
CN111583911B (zh) 基于标签平滑的语音识别方法、装置、终端及介质
CN110765785A (zh) 基于神经网络的中英翻译方法、及其相关设备
CN109712616B (zh) 基于数据处理的电话号码纠错方法、装置及计算机设备
CN111859916B (zh) 古诗关键词提取、诗句生成方法、装置、设备及介质
CN111611383A (zh) 用户意图的识别方法、装置、计算机设备及存储介质
CN110442677A (zh) 文本匹配度检测方法、装置、计算机设备和可读存储介质
CN113836192B (zh) 平行语料的挖掘方法、装置、计算机设备及存储介质
CN111400340A (zh) 一种自然语言处理方法、装置、计算机设备和存储介质
CN108628826B (zh) 候选词评估方法、装置、计算机设备和存储介质
CN112395857A (zh) 基于对话系统的语音文本处理方法、装置、设备及介质
CN113177405A (zh) 基于bert的数据纠错方法、装置、设备及存储介质
CN110929514B (zh) 文本校对方法、装置、计算机可读存储介质及电子设备
CN112287657A (zh) 基于文本相似度的信息匹配系统
CN112052329A (zh) 文本摘要生成方法、装置、计算机设备及可读存储介质
CN115497484A (zh) 语音解码结果处理方法、装置、设备及存储介质
CN115422936A (zh) 实体识别方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination