CN112966496B - 一种基于拼音特征表征的中文纠错方法及系统 - Google Patents
一种基于拼音特征表征的中文纠错方法及系统 Download PDFInfo
- Publication number
- CN112966496B CN112966496B CN202110544990.5A CN202110544990A CN112966496B CN 112966496 B CN112966496 B CN 112966496B CN 202110544990 A CN202110544990 A CN 202110544990A CN 112966496 B CN112966496 B CN 112966496B
- Authority
- CN
- China
- Prior art keywords
- chinese
- pinyin
- character
- characters
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 79
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 9
- 239000000126 substance Substances 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000027697 autoimmune lymphoproliferative syndrome due to CTLA4 haploinsuffiency Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明提出了一种基于拼音特征表征的中文纠错方法及系统,其包括如下步骤:S1、构建汉字的拼音模糊集以及构造含有汉字错别字的中文语句训练样本;S2、利用上述训练样本进行模型训练;以及S3、提取目标中文语句中汉字的汉字字符嵌入序列和拼音字符嵌入序列,并输入到训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。本发明通过正确汉字和错别字之间以拼音作为媒介的映射关系来获得拼音模糊集,并基于混合注意力模块建立训练模型,以此提高错别字的学习效率和预测的准确度。
Description
技术领域
本发明涉及数据处理领域,尤其涉及一种基于拼音特征表征的中文纠错方法及系统。
背景技术
中文汉字纠错一直是国内自然语言处理研究领域的热点。由于深度学习可以使得模型自动学习有效的语言知识,所以近年来在这个问题上,新提出的基于深度学习的方法总体上超过了基于传统机器学习的方法。现阶段,基于BERT(即Bidirectional EncoderRepresentations from Transformer)模型的方法在效果上达到了一个新的高度,该方法的优势在于其预训练阶段可以使语言模型学习到非常有效的语言知识。
将一个句子视作汉字字符序列,那么利用语言知识来纠正某个错别字其实就是建立句子中该错别字之外的其余字符序列与该错别字对应的正确汉字之间的映射关系。错别字之外的其余字符序列可以称为句子上下文信息,与该错别字对应的正确汉字可以称为预测目标。BERT模型的“遮掩语言模型”机制就是利用句子上下文来对每个位置的汉字进行预测,如果预测结果和输入不一样,则该位置的汉字被视作错别字。但通过BERT模型进行预测时,每次只能遮住15%的汉字,然后仅对这15%的汉字进行预测,所以每个句子至少需要预测7次才能输出整个预测结果,导致学习和预测效率较低。
对此,目前通过引入额外的特征加强BERT模型的预测效果,如Soft-Masked BERT、SpellGCN等。其中,Soft-Masked BERT通过添加Detection Network来给BERT模型添加错别字位置信息,SpellGCN则通过图嵌入给BERT模型添加与输入汉字近音、近形、近义等汉字的信息。在实践当中,这些改进的模型都达到了比较好预测、纠错效果。
由于智能拼音输入法的普及,对于中文纠错而言,句子中的大部分错别字都和该错别字的拼音具有较强的关联性。但上述各种模型多注重汉字语义的增强或加工,均未关注正确汉字与错别字在拼音输入上的联系,因此,在针对和拼音强关联的错别字纠错问题上,上述模型仍然存在预测准确度不高的问题。
发明内容
为解决上述技术问题,本发明提出了一种基于拼音特征表征的中文纠错方法及系统,其通过正确汉字和错别字之间以拼音作为媒介的映射关系来获得拼音模糊集,并基于混合注意力模块建立训练模型,以此提高错别字的学习效率和预测的准确度。
为实现上述目的,本发明提供如下技术方案:
一方面,提供了一种基于拼音特征表征的中文纠错方法,其包括如下步骤:
S1、构建汉字的拼音模糊集以及构造含有汉字错别字的中文语句训练样本;
S2、利用上述训练样本进行模型训练;
以及S3、提取目标中文语句中汉字的汉字字符嵌入序列和拼音字符嵌入序列,并输入到训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。
优选的,步骤S1中,每个汉字拼音对应的模糊集包括:该拼音声母对应的模糊声母与该拼音韵母对应的模糊韵母组合成的所有拼音;和/或,与该拼音发音相似,并且编辑距离小于2的拼音。
优选的,步骤S1中,含有汉字错别字的中文语句语料包含两种输入序列:汉字字符嵌入序列和拼音字符嵌入序列。
优选的,步骤S1中,构造含有汉字错别字的中文语句训练样本具体包括如下步骤:
S11、抽取一正确中文语句中的若干汉字及其对应的拼音;
S12、从抽取汉字拼音对应的拼音模糊集中依概率挑选出模糊拼音,然后从该模糊拼音
对应的汉字中依概率挑选出一个汉字,用于替换被抽取的汉字,以获得含有汉字错别字的中文语句;
S13、抽取含有错别字的中文语句中每个汉字的拼音,并将每个拼音均拆解成声母和韵母,所述含有汉字错别字的中文语句以及与其对应的每个汉字拼音的声母和韵母即构成一个该正确的中文语句的训练样本;
S14、重复步骤S11-S13,以获得与该正确的中文语句对应的若干训练样本,且若干训练样本中,该正确的中文语句中每个汉字都有对应的错别字。
优选的,步骤S2具体包括如下步骤:
S21、将上述含有汉字错别字的训练样本的汉字字符嵌入序列和拼音字符嵌入序列分别输入多头注意力模块,再分别根据公式(1)-(2)对应输出训练样本中含有汉字错别字的中文语句的汉字字符嵌入的隐状态序列矩阵Z1和拼音字符嵌入的隐状态序列矩阵Z2;
其中,W Q 、W K 、W V 分别为三个可学习的参数矩阵;Q、K、V为三个矩阵,且公式(1)中,C+P=K=V,Q=P,公式(2)中S+Y+P=K=V,Q=P;d k 是K矩阵的列维数;
S22、根据公式(3)输出含有汉字错别字的中文语句的汉字隐状态序列矩阵Z,所述隐状态序列矩阵Z中的每一个行向量均与含有汉字错别字的中文语句中的一个位置的汉字的隐状态对应,该位置的汉字的隐状态含有该位置汉字的汉字上下文信息和拼音上下文信息;所述汉字上下文信息为该含有汉字错别字的中文语句中,除该位置汉字之外的其余汉字的汉字字符嵌入信息;所述拼音上下文信息为该含有汉字错别字的中文语句中,除该位置汉字之外的其余汉字的拼音字符嵌入信息;
其中,W为可学习的参数;
S23、将隐状态序列矩阵Z导入深度学习模块,并输出结果,且将该输出结果作为新的Q,K和V均保持不变;
S24、重复步骤S21-S23若干次,输出最终的隐状态序列矩阵;
S25、将最终的隐状态序列矩阵的每一行向量分别输入softmax函数,以计算出含有汉字错别字的中文语句中对应位置出现正确汉字的概率;
S26、将每个位置出现正确汉字的概率与正确中文语句中该位置汉字的one-hot输入向量做交叉熵,得出如公式(4)所示的损失函数J:
其中,B为批大小,N b 是含有汉字错别字的训练样本的汉字字符序列长度,P为每个位置出现正确汉字的概率;
S27、计算出上述损失函数J后,对步骤S21-S26中所有可训练参数进行训练,直至模型收敛。
优选的,步骤S21中,输出该汉字的汉字字符嵌入序列的隐状态序列Z1时,该汉字所处位置的注意力设为0,以将其进行遮掩。
优选的,步骤S21中,在输出拼音字符嵌入序列的隐状态序列Z2时,无需遮掩任何位置的注意力。
优选的,步骤S23中,所述深度学习模块包括Add&Norm模块或全连接神经网络模块。
优选的,步骤S27中,采用随机梯度下降法对参数进行训练。
还提供一种用于实现上述中文纠错方法的中文纠错系统,其包括:
拼音模糊集构建单元,其用于存储每个汉字拼音对应的模糊集;
训练样本构造单元,其用于获得与正确的中文语句对应的若干训练样本,且若干训练样本中,该正确的中文语句中每个汉字都有对应的错别字;
样本训练单元,其存储有训练模型,用于对上述训练样本进行样本训练;
以及语句预测单元,其连接所述样本训练单元,其用于提取目标中文语句中汉字的汉字字符嵌入序列和拼音字符嵌入序列,并输入到所述训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。
本发明通过正确汉字和错别字之间以拼音作为媒介的映射关系来获得拼音模糊集,并基于混合注意力模块建立训练模型,减弱了汉字语义在上下文信息中的占比,增强了拼音特征在上下文信息中的占比,通过“弱汉字” + “强拼音”的机制凸显拼音特征在模型预测值的重要作用,以弥补常规预测模型中汉字语义表达能力不足的缺陷,以此提高汉字纠错的准确度和效率。
附图说明
图1为本发明中基于拼音特征表征的中文纠错方法的流程图;
图2为本发明中中文语句语料对应两种输入序列的结构示意图;
图3为本发明中中文纠错系统的结构示意图。
具体实施方式
为便于理解,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本实施例提供了一种基于拼音特征表征的中文纠错方法,其包括如下步骤:
S1、构建汉字的拼音模糊集以及构造含有汉字错别字的中文语句训练样本;
其中,每个汉字拼音对应的模糊集包括:该拼音声母(initial)对应的模糊声母与该拼音韵母(final)对应的模糊韵母组合成的所有拼音;和/或,与该拼音发音相似,并且编辑距离小于2的拼音;其中,所述“模糊”是指由于前鼻音和后鼻音区分不清,和/或,平舌音和翘舌音区分不清,和/或,浊音和清音区分不清,和/或,边音和鼻音区分不清而造成的混淆;例如,“cai chai ca”、“ban bang ba”、“chang chan can cang”、“lang nang lan nanrang”等。
汉字的拼音具有一定规律,经过总结,每个汉字的拼音均可以拆成声母和韵母,且所有汉字的声母和韵母种类如表1所示。
表1 汉字拼音声母、韵母种类
在此基础上,与拼音输入有关的汉字错别字类型也是有规律可循的,其具体类别如表2所示。
表2 与拼音输入有关的汉字错别字类型
从上述表1-2可以看出,正确汉字与其错别字在拼音上有映射关联。通常情况下,这种关联主要和拼音输入法的使用者对某些拼音的混淆和误敲键盘有关;其中,对于拼音的混淆包括使用者对于某些汉字的前鼻音和后鼻音、平舌音和翘舌音、浊音和清音、边音和鼻音区分不清;对于键盘的误敲则包括多敲/少敲了一个拼音字母,如ang敲成an,shun敲成shu等,导致拼音的编辑距离发生变化;
由此,通过构建汉字拼音的模糊集可以将正确汉字与其对应错别字进行关联。
同时,如图2所示,每一含有汉字错别字的中文语句语料都包含两种输入序列:汉字字符嵌入序列(C)和拼音字符嵌入序列(S)和(Y),其中S为声母对应嵌入,Y为韵母对应嵌入,P作为位置嵌入记录该语句中每个汉字的位置信息;例如,“公司监视会成员和懂事会成员”中,每个汉字都对应包含汉字字符嵌入序列(C1、C2...C13)和拼音字符嵌入序列(S1、S2...S13)和(Y1、Y2...Y13),P1、P2...P13记录该语句中每个汉字的位置信息,以将每个汉字的拼音字符与汉字字符进行对应。
进一步的,构造含有汉字错别字的中文语句训练样本具体包括如下步骤:
S11、抽取一正确中文语句中的若干汉字及其对应的拼音,其中,所抽取的汉字在整个中文语句中的比例可以为10-20%,优选15%;
S12、从抽取汉字拼音对应的拼音模糊集中依概率挑选出模糊拼音,然后从该模糊拼音对应的汉字中依概率挑选出一个汉字,用于替换被抽取的汉字,以获得含有汉字错别字的中文语句;
以“公司监事会成员和董事会成员”为例,分别抽取“监事会”中的“事”和“董”对应的拼音,分别为shi和dong,再从shi对应的拼音模糊集“shi si”和dong对应的拼音模糊集“dong”中对应挑选出模糊拼音“shi”和“dong”,再从与“shi”对应的汉字,如“施食十誓视...”中挑选出“视”,以替换“事”,以及从与“dong”对应的汉字,如“栋东洞懂...”中挑选出“懂”,以替换“董”,最终获得含有错别字的中文语句“公司监视会成员和懂事会成员”;
其中,“依概率”中的概率值可根据该拼音、汉字在语料中出现的频次而定,出现频次较强,则概率值越大,反之亦然,由于现在几乎都用基于拼音的输入法,该输入法排在前面的候选集频次均较强,如采用拼音输入法输入shi时,其靠前的候选集中可选的汉字有“是事时室市...”,从中选取对应的汉字来构建含有错别字的语句有利于增强训练效果;
S13、抽取含有错别字的中文语句中每个汉字的拼音,并将每个拼音均拆解成声母和韵母,所述含有汉字错别字的中文语句以及与其对应的每个汉字拼音的声母和韵母即构成一个该正确中文语句的训练样本;如“公司监视会成员和懂事会成员”中,每个汉字拼音对应的声母和韵母分别为:“g s j sh h ch y h d sh h ch y”和“ong i ian i ui enguan e ong i ui eng uan”,“公司监视会成员和懂事会成员”以及与其对应的声母、韵母集合构成一训练样本;
S14、重复步骤S11-S13,以获得与该正确中文语句对应的若干训练样本,且若干训练样本中,该正确中文语句中每个汉字都有对应的错别字,如“公司监视会成员和懂事会成员”、“供司监事会成员和懂事会成员”、“公式监事会成员和董事惠成员”等等。
S2、利用上述训练样本进行模型训练,其具体包括如下步骤:
S21、将上述含有汉字错别字的训练样本的汉字字符嵌入序列(C)(与该汉字位置对应)和拼音字符嵌入序列(S)和(Y)(分别与该汉字拼音的声母位置、韵母位置对应)分别输入transformer模型的多头注意力模块,再分别根据公式(1)-(2)对应输出训练样本中含有汉字错别字的中文语句的汉字字符嵌入的隐状态序列矩阵Z1和拼音字符嵌入的隐序列矩阵Z2;
其中,W Q 、W K 、W V 分别为三个可学习的参数矩阵;Q、K、V为三个矩阵,等于输入的汉字字符嵌入序列和/或拼音字符嵌入序列(S)和(Y),具体的:公式(1)中,C + P=K=V,Q=P,公式(2)中S + Y + P=K=V,Q=P;d k 是K矩阵的列维数,在本实施例中,d k =768/12,其中12为多头注意力模块中“头”的个数,由此,可对矩阵Q、K、V作线性变换,以将三个矩阵纳入同一线性空间,同时提取有效信息,便于后续运算;
进一步的,在输出该汉字的汉字字符嵌入序列的隐状态序列Z1时,该汉字所处位置的注意力设为0,以将其进行遮掩,由此,其既可以防止标签泄露,又可以去掉错别字的错误信息对上下文信息的错误引导;而在输出拼音字符嵌入序列的隐状态序列Z2时,则无需遮掩任何位置的注意力,其原因在于错别字的拼音和正确汉字的拼音往往具有某种关联(处于同一个拼音模糊集当中),即所有拼音对于预测都具有正向的作用,其能够丰富上下文信息,取到缩小预测范围的作用;
S22、根据公式(3)输出含有汉字错别字的中文语句的汉字隐状态序列矩阵Z,所述隐状态序列矩阵Z中的每一个行向量均与含有汉字错别字的中文语句中的一个位置的汉字的隐状态对应,如“公司监视会成员和懂事会成员”中,第一行向量与“公”的隐状态对应,第二行向量与“司”的隐状态对应...,该位置的汉字的隐状态含有该位置汉字的汉字上下文信息和拼音上下文信息;所述汉字上下文信息为该含有汉字错别字的中文语句中,除该位置汉字之外的其余汉字的汉字字符嵌入信息;所述拼音上下文信息为该含有汉字错别字的中文语句中,除该位置汉字之外的其余汉字的拼音字符嵌入信息;
其中,W为可学习的参数,可根据实际情况确定;
S23、将隐状态序列Z导入深度学习模块,如Add&Norm模块、全连接神经网络模块等,以进行深度学习,并输出结果,且将该输出结果作为新的向量Q,K和V均保持不变;
S24、重复步骤S21-S23若干次,如12次,输出最终的隐状态序列矩阵;
S25、将最终的隐状态序列矩阵的每一行向量分别输入softmax函数,以计算出含有汉字错别字的中文语句中对应位置出现正确汉字的概率,此处所述对应位置为最终的隐状态序列矩阵行向量所在的行数;
S26、将每个位置出现对应正确汉字的概率与正确中文语句中该位置汉字的one-hot输入向量做交叉熵,得出如公式(4)所示的损失函数J:
其中,B为批大小(batch size),N b 是含有汉字错别字的训练样本的汉字字符嵌入序
列长度,P为每个位置出现正确汉字的概率;
S27、计算出上述损失函数J后,重复步骤S21-S26,以利用反向传播方法等对步骤S21-S26中所有可训练参数进行训练,直至模型进行收敛,其中,所述可训练参数包括:W Q 、W K 、W V 、d k 、Q、K、V、深度学习模块中的可学习参数等,训练方式可以采用随机梯度下降法等,所述模型包括步骤S21-S26中所涉及的算法全过程;
以及S3、待训练模型收敛后,则提取目标中文语句中汉字的汉字字符嵌入序列(C)和拼音字符嵌入序列(S)和(Y),并输入到训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。
由此,本实施例通过正确汉字和错别字之间以拼音作为媒介的映射关系来获得拼音模糊集,并基于混合注意力模块建立训练模型,由此减弱汉字语义在上下文信息中的占比,增强拼音特征在上下文信息中的占比,通过“弱汉字” + “强拼音”的机制凸显拼音特征在模型预测值的重要作用,以弥补常规预测模型中汉字语义表达能力不足的缺陷,以此提高汉字纠错的准确度和效率。
实施例2:
本实施例提供了一种用于实现上述实施例1所述中文纠错方法的中文纠错系统,如图3所示,其包括:
拼音模糊集构建单元1,其用于存储每个汉字拼音对应的模糊集;
训练样本构造单元2,其用于获得与正确的中文语句对应的若干训练语料,且若干训练语料中,该正确的中文语句中每个汉字都有对应的错别字;具体的,所述训练样本构造单元2获取训练样本的方法参见实施例1的步骤S11-S14;
样本训练单元3,其存储有训练模型,用于对上述训练样本进行样本训练;具体的,所述样本训练单元3对上述训练语料进行样本训练的方法参见实施例1的步骤S2;
以及语句预测单元4,其连接所述样本训练单元3,其用于提取目标中文语句中汉字的汉字字符嵌入序列和拼音字符嵌入序列,并输入到所述训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。
综上所述,本发明本发明通过正确汉字和错别字之间以拼音作为媒介的映射关系来获得拼音模糊集,并基于混合注意力模块建立训练模型,减弱了汉字语义在上下文信息中的占比,增强了拼音特征在上下文信息中的占比,通过“弱汉字” + “强拼音”的机制凸显拼音特征在模型预测值的重要作用,以弥补常规预测模型中汉字语义表达能力不足的缺陷,以此提高汉字纠错的准确度和效率。
上述实施例1-2的技术特征可进行任意组合,且组合而成的技术方案均属于本发明的保护范围。且对于本领域技术人员而言,显然本发明实施例不限于上述示范性实施例的细节,而且在不背离本发明实施例的精神或基本特征的情况下,能够以其他的具体形式实现本发明实施例。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明实施例的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明实施例内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统、装置或终端权利要求中陈述的多个单元、模块或装置也可以由同一个单元、模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施方式仅用以说明本发明实施例的技术方案而非限制,尽管参照以上较佳实施方式对本发明实施例进行了详细说明,本领域的普通技术人员应当理解,可以对本发明实施例的技术方案进行修改或等同替换都不应脱离本发明实施例的技术方案的精神和范围。
Claims (5)
1.一种基于拼音特征表征的中文纠错方法,其特征在于,包括如下步骤:
S1、构建汉字的拼音模糊集以及根据汉字的拼音模糊集构造含有汉字错别字的中文语句训练样本;每个汉字拼音对应的模糊集包括:该拼音声母对应的模糊声母与该拼音韵母对应的模糊韵母组合成的所有拼音,所述“模糊”是指由于前鼻音和后鼻音区分不清,和/或,平舌音和翘舌音区分不清,和/或,浊音和清音区分不清,和/或,边音和鼻音区分不清而造成的混淆;且含有汉字错别字的中文语句语料包含两种输入序列:汉字字符嵌入序列和拼音字符嵌入序列;
S2、利用上述训练样本进行模型训练,其包括如下步骤:
S21、将上述含有汉字错别字的训练样本的汉字字符嵌入序列和拼音字符嵌入序列分别输入多头注意力模块,再分别根据公式(1)-(2)对应输出训练样本中含有汉字错别字的中文语句的汉字字符嵌入的隐状态序列矩阵Z1和拼音字符嵌入的隐状态序列矩阵Z2;
其中,W Q 、W K 、W V 分别为三个可学习的参数矩阵;Q、K、V为三个矩阵,且公式(1)中,C+P=K= V,Q=P,公式(2)中S+Y+P=K=V,Q=P;d k 是K矩阵的列维数;
且输出该汉字的汉字字符嵌入序列的隐状态序列Z1时,该汉字所处位置的注意力设为0,以将其进行遮掩;在输出拼音字符嵌入序列的隐状态序列Z2时,无需遮掩任何位置的注意力;
S22、根据公式(3)输出含有汉字错别字的中文语句的汉字隐状态序列矩阵Z,所述隐状态序列矩阵Z中的每一个行向量均与含有汉字错别字的中文语句中的一个位置的汉字的隐状态对应,该位置的汉字的隐状态含有该位置汉字的汉字上下文信息和拼音上下文信息;所述汉字上下文信息为该含有汉字错别字的中文语句中,除该位置汉字之外的其余汉字的汉字字符嵌入信息;所述拼音上下文信息为该含有汉字错别字的中文语句中,除该位置汉字之外的其余汉字的拼音字符嵌入信息;
其中,W为可学习的参数;
S23、将隐状态序列矩阵Z导入深度学习模块,并输出结果,且将该输出结果作为新的Q,K和V均保持不变;
S24、重复步骤S21-S23若干次,输出最终的隐状态序列矩阵;
S25、将最终的隐状态序列矩阵的每一行向量分别输入softmax函数,以计算出含有汉字错别字的中文语句中对应位置出现正确汉字的概率;
S26、将每个位置出现正确汉字的概率与正确中文语句中该位置汉字的one-hot输入向量做交叉熵,得出如公式(4)所示的损失函数J:
其中,B为批大小,N b 是含有汉字错别字的训练样本的汉字字符序列长度,P为每个位置出现正确汉字的概率;
S27、计算出上述损失函数J后,对步骤S21-S26中所有可训练参数进行训练,直至模型收敛;
以及S3、提取目标中文语句中汉字的汉字字符嵌入序列和拼音字符嵌入序列,并输入到训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。
2.如权利要求1所述的中文纠错方法,其特征在于,步骤S1中,构造含有汉字错别字的中文语句训练样本具体包括如下步骤:
S11、抽取一正确中文语句中的若干汉字及其对应的拼音;
S12、从抽取汉字拼音对应的拼音模糊集中依概率挑选出模糊拼音,然后从该模糊拼音
对应的汉字中依概率挑选出一个汉字,用于替换被抽取的汉字,以获得含有汉字错别字的中文语句;
S13、抽取含有错别字的中文语句中每个汉字的拼音,并将每个拼音均拆解成声母和韵母,所述含有汉字错别字的中文语句以及与其对应的每个汉字拼音的声母和韵母即构成一个该正确的中文语句的训练样本;
S14、重复步骤S11-S13,以获得与该正确的中文语句对应的若干训练样本,且若干训练样本中,该正确的中文语句中每个汉字都有对应的错别字。
3.如权利要求1所述的中文纠错方法,其特征在于,步骤S23中,所述深度学习模块包括Add&Norm模块或全连接神经网络模块。
4.如权利要求1所述的中文纠错方法,其特征在于,步骤S27中,采用随机梯度下降法对参数进行训练。
5.一种用于实现权利要求1-4任一项所述中文纠错方法的中文纠错系统,其特征在于,包括:
拼音模糊集构建单元,其用于存储每个汉字拼音对应的模糊集;
训练样本构造单元,其用于获得与正确的中文语句对应的若干训练样本,且若干训练样本中,该正确的中文语句中每个汉字都有对应的错别字;
样本训练单元,其存储有训练模型,用于对上述训练样本进行样本训练;
以及语句预测单元,其连接所述样本训练单元,其用于提取目标中文语句中汉字的汉字字符嵌入序列和拼音字符嵌入序列,并输入到所述训练模型中,以得到目标中文语句中每个位置的汉字预测结果,最终获得纠错后的中文语句。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110544990.5A CN112966496B (zh) | 2021-05-19 | 2021-05-19 | 一种基于拼音特征表征的中文纠错方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110544990.5A CN112966496B (zh) | 2021-05-19 | 2021-05-19 | 一种基于拼音特征表征的中文纠错方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112966496A CN112966496A (zh) | 2021-06-15 |
CN112966496B true CN112966496B (zh) | 2021-09-14 |
Family
ID=76275645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110544990.5A Active CN112966496B (zh) | 2021-05-19 | 2021-05-19 | 一种基于拼音特征表征的中文纠错方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966496B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255331B (zh) * | 2021-06-21 | 2021-11-12 | 智者四海(北京)技术有限公司 | 文本纠错方法、装置及存储介质 |
CN113536776A (zh) * | 2021-06-22 | 2021-10-22 | 深圳价值在线信息科技股份有限公司 | 混淆语句的生成方法、终端设备及计算机可读存储介质 |
CN113642316B (zh) * | 2021-07-28 | 2023-11-28 | 平安国际智慧城市科技股份有限公司 | 中文文本纠错方法、装置、电子设备及存储介质 |
CN116167362A (zh) * | 2021-11-23 | 2023-05-26 | 南京中兴新软件有限责任公司 | 模型训练方法、中文文本纠错方法、电子设备和存储介质 |
CN114510925A (zh) * | 2022-01-25 | 2022-05-17 | 森纵艾数(北京)科技有限公司 | 一种中文文本纠错方法、系统、终端设备及存储介质 |
CN116227468B (zh) * | 2023-01-06 | 2023-10-31 | 杭州健海科技有限公司 | 基于拼音转写翻译的语音识别模型纠错训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859760A (zh) * | 2019-02-19 | 2019-06-07 | 成都富王科技有限公司 | 基于深度学习的电话机器人语音识别结果校正方法 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN111310441A (zh) * | 2020-01-20 | 2020-06-19 | 上海眼控科技股份有限公司 | 基于bert的语音识别后文本修正方法、装置、终端及介质 |
CN111414481A (zh) * | 2020-03-19 | 2020-07-14 | 哈尔滨理工大学 | 基于拼音和bert嵌入的中文语义匹配方法 |
CN112735396A (zh) * | 2021-02-05 | 2021-04-30 | 北京小米松果电子有限公司 | 语音识别纠错方法、装置及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369996B (zh) * | 2020-02-24 | 2023-08-18 | 网经科技(苏州)有限公司 | 一种特定领域的语音识别文本纠错方法 |
-
2021
- 2021-05-19 CN CN202110544990.5A patent/CN112966496B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859760A (zh) * | 2019-02-19 | 2019-06-07 | 成都富王科技有限公司 | 基于深度学习的电话机器人语音识别结果校正方法 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN111310441A (zh) * | 2020-01-20 | 2020-06-19 | 上海眼控科技股份有限公司 | 基于bert的语音识别后文本修正方法、装置、终端及介质 |
CN111414481A (zh) * | 2020-03-19 | 2020-07-14 | 哈尔滨理工大学 | 基于拼音和bert嵌入的中文语义匹配方法 |
CN112735396A (zh) * | 2021-02-05 | 2021-04-30 | 北京小米松果电子有限公司 | 语音识别纠错方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112966496A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966496B (zh) | 一种基于拼音特征表征的中文纠错方法及系统 | |
CN107305768B (zh) | 语音交互中的易错字校准方法 | |
CN110276069B (zh) | 一种中国盲文错误自动检测方法、系统及存储介质 | |
CN112487139B (zh) | 基于文本的自动出题方法、装置及计算机设备 | |
CN114580382A (zh) | 文本纠错方法以及装置 | |
JPS61177493A (ja) | 音声認識方法 | |
CN112926345B (zh) | 基于数据增强训练的多特征融合神经机器翻译检错方法 | |
CN112259083B (zh) | 音频处理方法及装置 | |
CN111599340A (zh) | 一种多音字读音预测方法、装置及计算机可读存储介质 | |
CN113268576B (zh) | 一种基于深度学习的部门语义信息抽取的方法及装置 | |
CN112528649A (zh) | 针对多语言混合文本的英文拼音识别方法和系统 | |
Zhang et al. | Computer multimedia assisted language and literature teaching using Heuristic hidden Markov model and statistical language model | |
CN113449514A (zh) | 一种适用于特定垂直领域的文本纠错方法及其纠错装置 | |
KR20230009564A (ko) | 앙상블 스코어를 이용한 학습 데이터 교정 방법 및 그 장치 | |
CN115101042A (zh) | 一种文本处理方法、装置及设备 | |
JP6718787B2 (ja) | 日本語音声認識モデル学習装置及びプログラム | |
KR100542757B1 (ko) | 음운변이 규칙을 이용한 외래어 음차표기 자동 확장 방법및 그 장치 | |
CN116562295A (zh) | 一种面向桥梁领域文本的增强语义命名实体识别方法 | |
CN113205813B (zh) | 语音识别文本的纠错方法 | |
CN112966501B (zh) | 一种新词发现方法、系统、终端及介质 | |
CN111429886B (zh) | 一种语音识别方法及系统 | |
CN112133325B (zh) | 错误音素识别方法及装置 | |
CN114548049A (zh) | 一种数字正则化方法、装置、设备及存储介质 | |
CN111090720B (zh) | 一种热词的添加方法和装置 | |
Mekki et al. | COTA 2.0: An automatic corrector of tunisian Arabic social media texts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 430040 No.1, Taichung Avenue, Gaoqiao Industrial Park, Dongxihu District, Wuhan City, Hubei Province Patentee after: Lighthouse Technology Co.,Ltd. Country or region after: China Address before: 430040 No.1, Taichung Avenue, Gaoqiao Industrial Park, Dongxihu District, Wuhan City, Hubei Province Patentee before: DENGTA FINANCIAL INFORMATION CO.,LTD. Country or region before: China |
|
CP03 | Change of name, title or address |