CN108647207A - 自然语言修正方法、系统、设备及存储介质 - Google Patents

自然语言修正方法、系统、设备及存储介质 Download PDF

Info

Publication number
CN108647207A
CN108647207A CN201810430206.6A CN201810430206A CN108647207A CN 108647207 A CN108647207 A CN 108647207A CN 201810430206 A CN201810430206 A CN 201810430206A CN 108647207 A CN108647207 A CN 108647207A
Authority
CN
China
Prior art keywords
sentence
vector
output
text
amendment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810430206.6A
Other languages
English (en)
Other versions
CN108647207B (zh
Inventor
鞠剑勋
刘浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ctrip International Travel Agency Co Ltd
Original Assignee
Shanghai Ctrip International Travel Agency Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ctrip International Travel Agency Co Ltd filed Critical Shanghai Ctrip International Travel Agency Co Ltd
Priority to CN201810430206.6A priority Critical patent/CN108647207B/zh
Publication of CN108647207A publication Critical patent/CN108647207A/zh
Application granted granted Critical
Publication of CN108647207B publication Critical patent/CN108647207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种自然语言修正方法、系统、设备及存储介质,该方法包括将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;将待修正文本自向量序列输入所述修正用的序列到序列模型,输出多个候选语句;将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。通过采用本发明的方案,取代传统自然语言处理方法解决中文的自然语言修正问题,降低维护成本,使准确率得到大幅提升。

Description

自然语言修正方法、系统、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种自然语言修正方法、系统、设备及存储介质。
背景技术
在自然语言处理领域,经常要处理文本信息,因为文本来源的不同,可能会存在错别字、错误语法等错误情况。自然语言修正技术广泛应用于纠正文本的错误,将错误句子、短语或词语纠正成为正确的、可处理的文本信息,其中纠正错误句子的应用最为常见。
目前最广泛的中文自然语言修正系统,使用了传统自然语言处理(NLP)技术,从两个方面去解决句子的修正问题:一、预先设定好包含所有错词的错词库,匹配出句子中的错误词语,将错误词语纠正为备选的正确词语,生成多个备选句子;二、通过语言模型,比如n-gram模型,计算整句话词语组合的概率,筛选出概率较高的备选句子,将原句替换成该句子。
但由于语言表达的多样性,导致了通过错词库匹配错词的准确率比较低,而且不能纠正一些语法和标点符号的错误。同时该方法需要投入大量人力收集和整理错词库,因此在企业实际应用中,基于传统自然语言处理的自然语言修正系统,无论是准确率还是成本都不能满足很好的在线应用需求。
发明内容
针对现有技术中的问题,本发明的目的在于提供一种自然语言修正方法、系统、设备及存储介质,取代传统自然语言处理方法解决中文的自然语言修正问题,降低维护成本,使准确率得到大幅提升。
本发明实施例提供一种自然语言修正方法,所述方法包括如下步骤:
将训练用的修正前文本和修正后文本进行预处理得到修正前文本字向量序列和修正后文本字向量序列;
将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;
采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;
将待修正文本进行预处理得到待修正文本字向量序列;
将待修正文本自向量序列输入所述修正用的序列到序列模型,输出多个候选语句;
将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。
可选地,所述训练修正模型,包括编码步骤和解码步骤,所述编码步骤包括如下步骤:
(1)将参与训练的修正前文本的每个句子中字符的个数固定为m,不足部分用预设字符补充完整,字向量的长度为n,根据句子中每个字符的字向量将每个句子转化为m×n的矩阵,得到编码步骤输入的句子的向量矩阵[x1,x2,…,xt,…];
(2)针对每一个句子的向量矩阵xt,采用双向门控循环单元模型,设定当前时刻更新门单元和重置门单元的输出分别为zt和rt,当前时刻cell状态的值为满足如下公式:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,ht-1为前一时刻隐藏层的状态,Wz、Wr和W分别为更新门单元、重置门单元和cell状态的权值矩阵,σ为sigmoid激活函数,tanh为双曲正切函数;
(3)根据以下公式得到各个隐藏节点的输出ht
(4)各个隐藏节点的输出ht作为双向门控循环单元模型的输出;
(5)句子的向量矩阵[x1,x2,…,xt,…]经过构建步骤(1.2)-(1.4)步骤,得到的输出结果定义为正向输出fhi
(6)将句子的向量矩阵反向得到[xt,…,x1,x2,…]后,再经过(1.2)-(1.4)步骤,得到的输出结果定义为反向输出bhi
(7)将fhi和bhi合并得到双向门控循环单元模型的输出向量hi
(8)所述双向门控循环单元模型的输出序列[h1,h2,…,ht,…]作为输入,通过如下公式:
ct=tanh(Wpyr[h2t,h2t+1]T+bpyr)
得到编码步骤的输出向量[c1,c2,…,ct,…];
其中,Wpyr为中间层的权值矩阵,bpyr为中间层的偏置向量。
可选地,所述步骤(7)中,根据如下步骤得到双向门控循环单元模型的输出向量:
将fhi和bhi向量首尾拼接得到双向门控循环单元模型的输出向量hi
可选地,所述解码步骤包括如下步骤:
(9)将参与训练的修正后文本的每个句子中字符的个数固定为m′,不足部分用预设字符补充完整,字向量的长度为n;
(10)将参与训练的修正后文本的每个句子的开头添加<sos>字符,根据句子中每个字符的字向量将句子转化为(m′+1)×n的矩阵,作为解码步骤输入的句子的向量矩阵[x1,x2,…,xt,…];
(11)将参与训练的修正后文本的每个句子的结尾添加<eos>字符,根据句子中每个字符的字向量将句子转化为(m′+1)×n的矩阵,作为实际输出的句子的向量矩阵[y1,y2,…,yt,…];
(12)针对参与训练的修正后文本的每个句子的向量矩阵xt,采用单向门控循环单元模型,设定当前时刻更新门单元和重置门单元的输出分别为zt和rt,当前时刻cell状态的值为满足如下公式:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,ht-1为前一时刻隐藏层的状态,Wz、Wr和W为更新门单元、重置门单元和cell状态的权值矩阵,σ为sigmoid激活函数,tanh为双曲正切函数;
(13)根据以下公式得到各个隐藏节点的输出ht
(14)采用注意力机制,将各个隐藏节点的输出ht与编码输出ct结合以下公式运算:
utk=φ1(ht)Tφ2(ct)
其中,φ是一个前馈仿射变换然后采用双曲正切函数的函数,αtk为第k个编码输出cj对第t个输出at的注意力权重参数;
at与ht合并作为解码步骤的输出y′t,即当前字符下一个字符的字向量;
(15)采用输出字符串向量[y′1,y′2,…,y′t,…]和实际的字符串向量[y1,y2,…,yt,…]通过交叉熵损失函数计算损失;
(16)使用梯度下降法使损失最小,不断迭代训练得出最终序列到序列模型模型,将迭代完成的。
可选地,所述通过交叉熵损失函数计算损失,包括如下步骤:
根据如下公式计算损失:
其中
其中θ为序列到序列模型所有的参数序列,包括cell状态的权值矩阵W,中间层的偏置向量bpyr和注意力权重参数αtk
可选地,所述使用梯度下降法使损失最小,包括如下步骤:
根据如下公式使用梯度下降法计算:
更新所有的模型参数[θ01,...,θii],其中β是设定的学习率;
不断迭代训练所述序列到序列模型,直到损失不再下降,得出最终模型,作为输出的序列到序列模型。
可选地,所述将待修正文本输入所述修正用的序列到序列模型,输出多个候选语句,包括如下步骤:
将需要修正的句子中字符的个数固定为m,不足部分用预设字符补充完整,字向量的长度为n,根据句子中每个字符的字向量将句子转化为m×n的矩阵,作为输入[x1,x2,…,xt,…];
利用上一步训练好的模型计算出多个输出可能[y1',y2',…,yt',…],将每一个输出可能作为一个候选语句。
可选地,所述将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句,包括如下步骤:
将每个候选语句转化为字符串,采用n-gram模型,根据如下公式计算所有输出字符串的概率:
P(w1,w2,…,wm)=P(w1)P(w2|w1)P(w3|w1,w2)…P(wm|w1,…,wm-1)
其中,w1,w2,…,wm为第1个字符至第m个字符,P(w1,w2,…,wm)为第1个字符至第m个字符联合成句的概率;
根据马尔科夫性质,计算如下公式:
P(wi|w1,…,wi-1)=P(wi|wi-n+1,…,wi-1)
其中,P(wi|w1,…,wi-1)为第1个字符至第i-1个字符已经联合成句的条件下第i个字符为wi的概率,P(w1,w2,…,wm)作为字符串的概率;
将输出概率最高的字符串作为最终的修正后的语句。
本发明还提供一种自然语言修正系统,用于实现所述的自然语言修正方法,所述系统包括:
文本预处理模块,用于将文本进行预处理得到文本字向量序列;
序列到序列模型训练模块,用于将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;
语言模型训练模块,用于采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;
候选语句输出模块,用于将待修正文本字向量序列输入所述修正用的序列到序列模型,输出多个候选语句;
修正语句选择模块,用于将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。
本发明实施例还提供一种自然语言修正设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述的自然语言修正方法的步骤。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现所述的自然语言修正方法的步骤。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
本发明所提供的自然语言修正方法、系统、设备及存储介质具有下列优点:
本发明使用深度学习取代传统自然语言处理方法解决中文的自然语言修正问题,可以降低维护成本,同时使准确率得到了大幅提升;该方法可以应用在对话系统上,比如客服机器人、产品售后咨询、聊天机器人等,用于纠正用户输入的文本,或由语音转化得到的文本信息中的错误;通过纠正文本中的错误,可以降低后续系统理解文本的难度,避免错误的响应或错误的答案;该方法中基于深度学习和语言模型的中文自然语言修正系统不需要维护错词库,减少了人工成本,提升了响应速度,极大提升了系统的效率;相比于传统自然语言处理方法的修正准确率仅为70%,采用本发明的方法自然语言修正的准确率可以达到92%,并且伴随着语料库的增加可以进一步获得提升。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明一实施例的自然语言修正方法的流程图;
图2是本发明一实施例的序列到序列模型的结构示意图;
图3是本发明一实施例的自然语言修正系统的结构示意图;
图4是本发明一实施例的自然语言修正设备的示意图;
图5是本发明一实施例的计算机可读存储介质的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
如图1所示,为了解决上述技术问题,本发明实施例提供一种自然语言修正方法,包括如下步骤:
S100:将训练用的修正前文本和修正后文本进行预处理得到修正前文本字向量序列和修正后文本字向量序列;
S200:将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;
S300:采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;
S400:将待修正文本进行预处理得到待修正文本字向量序列;
S500:将待修正文本自向量序列输入所述修正用的序列到序列模型,输出多个候选语句;
S600:将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。
下面以一个具体实例来进一步介绍本发明的自然语言修正系统。
本发明实现了一种基于深度学习和语言模型的中文自然语言纠错系统,利用预先处理好的相关标注语料,使用Bi-GRU(双向门控循环单元网络),Attention(注意力)机制结合sequence-to-sequence(序列到序列)模型和语言模型计算原始语句对应的目标语句,具体包括以下步骤:
(1)对原始修正前和修正后的文本数据进行预处理,预处理过程包括去噪、拆分字符并得到字向量;
(2)把预处理后的修正前文本转为对应的字向量序列,字向量序列作为模型输入;把预处理后的修正后文本转为对应的字向量序列,字向量序列作为模型输出,反复迭代训练序列到序列模型;
(3)将训练得到的序列到序列模型保存,当新的待修正文本输入时,可以通过模型计算输出修正后的候选语句;
(4)训练语言模型;
(5)通过语言模型筛选出概率最高的语句作为输出的修正语句。
其中,第(2)步骤中,双向门控循环单元网络和注意力机制相结合的序列到序列模型的具体构建步骤如下:
(1)首先是序列到序列模型的encoder(编码)部分:将参与训练的修正前的句子中字符的个数固定为m,不足部分用<pad>字符补充完整,字向量的长度为n,根据句子中每个字符的字向量将句子转化为m×n的矩阵,作为输入[x1,x2,…,xt,…];
(2)采用Bi-GRU(双向门控循环单元)模型,设定当前时刻更新门单元和重置门单元的输出分别为zt和rt,当前时刻cell状态的值为满足:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,xt为当前时刻的输入,ht-1为前一时刻隐藏层的状态,Wz、Wr和W为更新门单元、重置门单元和cell状态的权值矩阵,σ为sigmoid激活函数,tanh为双曲正切函数;
(3)根据以下公式得出各个隐藏节点的输出ht
(4)各个隐藏节点的输出作为Bi-GRU模型输出ht
(5)句子的向量矩阵[x1,x2,…,xt,…]经过构建步骤(2)-(4)步骤,得到输出ht,命名为正向输出fhi
(6)将句子的向量矩阵反向后再经过(2)-(4)步骤,得到输出ht,命名为反向输出bhi
(7)将fhi和bhi向量首尾拼接得到Bi-GRU输出向量hi
(8)Bi-GRU输出序列[h1,h2,…,ht,…]作为输入,通过公式
ct=tanh(Wpyr[h2t,h2t+1]T+bpyr)
(9)得到encoder输出向量[c1,c2,…,ct,…]
其中,Wpyr为中间层的权值矩阵,bpyr为中间层的偏置向量;
以下是序列到序列模型的decoder部分:将参与训练的修正后的句子中字符的个数固定为m′,不足部分用<pad>字符补充完整,字向量的长度为n。
(10)句子的开头添加<sos>字符,根据句子中每个字符的字向量将句子转化为(m′+1)×n的矩阵,作为输入[x1,x2,…,xt,…];
(11)句子的结尾添加<eos>字符,根据句子中每个字符的字向量将句子转化为(m′+1)×n的矩阵,作为实际输出[y1,y2,…,yt,…];
(12)采用GRU(单向门控循环单元)模型,设定当前时刻更新门单
元和重置门单元的输出分别为zt和rt,当前时刻cell状态的值为满足:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,xt为当前时刻的输入,ht-1为前一时刻隐藏层的状态,Wz、Wr和W为更新门单元、重置门单元和cell状态的权值矩阵,σ为sigmoid激活函数,tanh为双曲正切函数;
(13)根据以下公式得出各个隐藏节点的输出ht
(14)采用Attention(注意力机制),将各个隐藏节点的输出ht与encoder输出ct结合以下公式运算:
utk=φ1(ht)Tφ2(ct)
其中,φ是一个前馈仿射变换然后tanh(双曲正切函数)的函数,αtk为第k个编码输出cj对第t个输出at的注意力权重参数。
at与ht合并作为最终的输出y′t,也就是当前字符下一个字符的字向量。
(15)用输出字符串向量[y′1,y′2,…,y′t,…]和实际的字符串向量[y1,y2,…,yt,…]通过交叉熵损失函数:
其中
计算损失(loss),其中θ为模型所有的参数序列,包括上文的W,b和α。
(16)使用梯度下降法:
更新所有的模型参数[θ01,...,θi],其中β是设定的学习率,
不断迭代训练,直到loss不再下降,得出最终模型。
语言模型的具体构建步骤如下:
(1)采用人工标注的正确文本做训练集,统计所有n个字符联合连续出现的概率;此处人工标注的正确文本可以是选择的一些新闻、小说之类出错率比较低的文本,作为训练集,进行语言模型的训练;
(2)将上一个模型每个输出的向量[y′1,y′2,…,y′t,…]通过字向量词典转化为字符串,采用n-gram模型,根据公式:
P(w1,w2,…,wm)=P(w1)P(w2|w1)P(w3|w1,w2)…P(wm|w1,…,wm-1)
根据马尔科夫性质,近似计算:
P(wi|w1,…,wi-1)=P(wi|wi-n+1,…,wi-1)
计算所有输出字符串的概率,其中w1,w2,…,wm为第1个字符至第m个字符,P(w1,w2,…,wm)为第1个字符至第m个字符联合成句的概率,P(wi|w1,…,wi-1)为第1个字符至第i-1个字符已经联合成句的条件下第i个字符为wi的概率;
语言模型的目的是:输出概率最高的字符串作为最终的修正后的语句,排除掉概率低的语句。
例如:步骤(1)中,采用所有的正确文本做训练集,统计所有3个字符联合连续出现的概率;
步骤(2)中,将需要修正的句子中字符的个数固定为200,不足部分用<pad>字符补充完整,字向量的长度为100,根据句子中每个字符的字向量将句子转化为200×100的矩阵,作为输入[x1,x2,…,xt,…];
步骤(3)中,利用上一步训练好的模型计算出多个输出可能[y′1,y′2,…,y′t,…];
将每个输出的向量转化为字符串,采用n-gram模型,根据公式:
P(w1,w2,…,wm)=P(w1)P(w2|w1)P(w3|w1,w2)…P(wm|w1,…,wm-1)
其中P(wi|w1,…,wi-1)=P(wi|wi-n+1,…,wi-1)
计算所有输出字符串的概率P(w1,w2,…,wm);
输出概率最高的字符串作为最终的修正后的语句,排除掉概率低的语句,从而实现自然语言修正的目的。
如图3所示,本发明实施例还提供一种自然语言修正系统,包括:
文本预处理模块100,用于将文本进行预处理得到文本字向量序列;
序列到序列模型训练模块200,用于将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;
语言模型训练模块300,用于采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;
候选语句输出模块400,用于将待修正文本字向量序列输入所述修正用的序列到序列模型,输出多个候选语句;
修正语句选择模块500,用于将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。
本发明实施例还提供一种自然语言修正设备,包括处理器;存储器,其中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行所述的自然语言修正方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
下面参照图4来描述根据本发明的这种实施方式的电子设备600。图4显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图1中所示的步骤。
所述存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
所述存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现所述的自然语言修正方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图5所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
与现有技术相比,本发明使用深度学习取代传统自然语言处理方法解决中文的自然语言修正问题,可以降低维护成本,同时使准确率得到了大幅提升;该方法可以应用在对话系统上,比如客服机器人、产品售后咨询、聊天机器人等,用于纠正用户输入的文本,或由语音转化得到的文本信息中的错误;通过纠正文本中的错误,可以降低后续系统理解文本的难度,避免错误的响应或错误的答案;该方法中基于深度学习和语言模型的中文自然语言修正系统不需要维护错词库,减少了人工成本,提升了响应速度,极大提升了系统的效率。
通过对比,使用原有传统自然语言处理方法,中文自然语言纠错的准确率仅为70%,而采用本发明的基于深度学习的中文自然语言纠错系统的准确率为92%,并且伴随语料库的增加还可以获得提升。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (11)

1.一种自然语言修正方法,其特征在于,所述方法包括如下步骤:
将训练用的修正前文本和修正后文本进行预处理得到修正前文本字向量序列和修正后文本字向量序列;
将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;
采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;
将待修正文本进行预处理得到待修正文本字向量序列;
将待修正文本自向量序列输入所述修正用的序列到序列模型,输出多个候选语句;
将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。
2.根据权利要求1所述的自然语言修正方法,其特征在于,所述训练修正模型,包括编码步骤和解码步骤,所述编码步骤包括如下步骤:
(1)将参与训练的修正前文本的每个句子中字符的个数固定为m,不足部分用预设字符补充完整,字向量的长度为n,根据句子中每个字符的字向量将每个句子转化为m×n的矩阵,得到编码步骤输入的句子的向量矩阵[x1,x2,…,xt,…];
(2)针对每一个句子的向量矩阵xt,采用双向门控循环单元模型,设定当前时刻更新门单元和重置门单元的输出分别为zt和rt,当前时刻cell状态的值为满足如下公式:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,ht-1为前一时刻隐藏层的状态,Wz、Wr和W分别为更新门单元、重置门单元和cell状态的权值矩阵,σ为sigmoid激活函数,tanh为双曲正切函数;
(3)根据以下公式得到各个隐藏节点的输出ht
(4)各个隐藏节点的输出ht作为双向门控循环单元模型的输出;
(5)句子的向量矩阵[x1,x2,…,xt,…]经过构建步骤(1.2)-(1.4)步骤,得到的输出结果定义为正向输出fhi
(6)将句子的向量矩阵反向得到[xt,…,x1,x2,…]后,再经过(1.2)-(1.4)步骤,得到的输出结果定义为反向输出bhi
(7)将fhi和bhi合并得到双向门控循环单元模型的输出向量hi
(8)所述双向门控循环单元模型的输出序列[h1,h2,…,ht,…]作为输入,通过如下公式:
ct=tanh(Wpyr[h2t,h2t+1]T+bpyr)
得到编码步骤的输出向量[c1,c2,…,ct,…];
其中,Wpyr为中间层的权值矩阵,bpyr为中间层的偏置向量。
3.根据权利要求2所述的自然语言修改方法,其特征在于,所述步骤(7)中,根据如下步骤得到双向门控循环单元模型的输出向量:
将fhi和bhi向量首尾拼接得到双向门控循环单元模型的输出向量hi
4.根据权利要求2所述的自然语言修正方法,其特征在于,所述解码步骤包括如下步骤:
(9)将参与训练的修正后文本的每个句子中字符的个数固定为m′,不足部分用预设字符补充完整,字向量的长度为n;
(10)将参与训练的修正后文本的每个句子的开头添加<sos>字符,根据句子中每个字符的字向量将句子转化为(m′+1)×n的矩阵,作为解码步骤输入的句子的向量矩阵[x1,x2,…,xt,…];
(11)将参与训练的修正后文本的每个句子的结尾添加<eos>字符,根据句子中每个字符的字向量将句子转化为(m′+1)×n的矩阵,作为实际输出的句子的向量矩阵[y1,y2,…,yt,…];
(12)针对参与训练的修正后文本的每个句子的向量矩阵xt,采用单向门控循环单元模型,设定当前时刻更新门单元和重置门单元的输出分别为zt和rt,当前时刻cell状态的值为满足如下公式:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
其中,ht-1为前一时刻隐藏层的状态,Wz、Wr和W为更新门单元、重置门单元和cell状态的权值矩阵,σ为sigmoid激活函数,tanh为双曲正切函数;
(13)根据以下公式得到各个隐藏节点的输出ht
(14)采用注意力机制,将各个隐藏节点的输出ht与编码输出ct结合以下公式运算:
utk=φ1(ht)Tφ2(ct)
其中,φ是一个前馈仿射变换然后采用双曲正切函数的函数,αtk为第k个编码输出cj对第t个输出at的注意力权重参数;
at与ht合并作为解码步骤的输出y′t,即当前字符下一个字符的字向量;
(15)采用输出字符串向量[y′1,y′2,…,y′t,…]和实际的字符串向量[y1,y2,…,yt,…]通过交叉熵损失函数计算损失;
(16)使用梯度下降法使损失最小,不断迭代训练得出最终序列到序列模型模型。
5.根据权利要求4所述的自然语言修正方法,其特征在于,所述通过交叉熵损失函数计算损失,包括如下步骤:
根据如下公式计算损失:
其中
其中θ为序列到序列模型所有的参数序列,包括cell状态的权值矩阵W,中间层的偏置向量bpyr和注意力权重参数αtk
6.根据权利要求4所述的自然语言修正方法,其特征在于,所述使用梯度下降法使损失最小,包括如下步骤:
根据如下公式使用梯度下降法计算:
更新所有的模型参数[θ01,...,θi],其中β是设定的学习率;
不断迭代训练所述序列到序列模型,直到损失不再下降,得出最终模型,作为输出的序列到序列模型。
7.根据权利要求4所述的自然语言修正方法,其特征在于,所述将待修正文本输入所述修正用的序列到序列模型,输出多个候选语句,包括如下步骤:
将需要修正的句子中字符的个数固定为m,不足部分用预设字符补充完整,字向量的长度为n,根据句子中每个字符的字向量将句子转化为m×n的矩阵,作为输入[x1,x2,…,xt,…];
利用上一步训练好的模型计算出多个输出可能[y′1,y′2,…,y′t,…],将每一个输出可能作为一个候选语句。
8.根据权利要求4所述的自然语言修正方法,其特征在于,所述将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句,包括如下步骤:
将每个候选语句转化为字符串,采用n-gram模型,根据如下公式计算所有输出字符串的概率:
P(w1,w2,…,wm)=P(w1)P(w2|w1)P(w3|w1,w2)…P(wm|w1,…,wm-1)
其中,w1,w2,…,wm为第1个字符至第m个字符,P(w1,w2,…,wm)为第1个字符至第m个字符联合成句的概率;
根据马尔科夫性质,计算如下公式:
P(wi|w1,…,wi-1)=P(wi|wi-n+1,…,wi-1)
其中,P(wi|w1,…,wi-1)为第1个字符至第i-1个字符已经联合成句的条件下第i个字符为wi的概率,P(w1,w2,…,wm)作为字符串的概率;
将输出概率最高的字符串作为最终的修正后的语句。
9.一种自然语言修正系统,用于实现权利要求1至8中任一项所述的自然语言修正方法,其特征在于,所述系统包括:
文本预处理模块,用于将文本进行预处理得到文本字向量序列;
序列到序列模型训练模块,用于将修正前文本字向量序列作为模型输入,修正后文本字向量序列作为模型输出,训练修正用的序列到序列模型;
语言模型训练模块,用于采用训练用的正确文本作为语言模型的训练集,统计所有r个字符联合连续出现的概率,r为预设统计细度;
候选语句输出模块,用于将待修正文本字向量序列输入所述修正用的序列到序列模型,输出多个候选语句;
修正语句选择模块,用于将多个候选语句输入所述语言模型,分别计算每个候选语句的出现概率,将出现概率最高的候选语句作为输出的修正语句。
10.一种自然语言修正设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至8中任一项所述的自然语言修正方法的步骤。
11.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至8中任一项所述的自然语言修正方法的步骤。
CN201810430206.6A 2018-05-08 2018-05-08 自然语言修正方法、系统、设备及存储介质 Active CN108647207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810430206.6A CN108647207B (zh) 2018-05-08 2018-05-08 自然语言修正方法、系统、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810430206.6A CN108647207B (zh) 2018-05-08 2018-05-08 自然语言修正方法、系统、设备及存储介质

Publications (2)

Publication Number Publication Date
CN108647207A true CN108647207A (zh) 2018-10-12
CN108647207B CN108647207B (zh) 2022-04-05

Family

ID=63749717

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810430206.6A Active CN108647207B (zh) 2018-05-08 2018-05-08 自然语言修正方法、系统、设备及存储介质

Country Status (1)

Country Link
CN (1) CN108647207B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460158A (zh) * 2018-10-29 2019-03-12 维沃移动通信有限公司 字符输入方法、字符校正模型训练方法和移动终端
CN109492202A (zh) * 2018-11-12 2019-03-19 浙江大学山东工业技术研究院 一种基于拼音的编码与解码模型的中文纠错方法
CN109614492A (zh) * 2018-12-29 2019-04-12 平安科技(深圳)有限公司 基于人工智能的文本数据增强方法、装置、设备及存储介质
CN109657244A (zh) * 2018-12-18 2019-04-19 语联网(武汉)信息技术有限公司 一种英文长句自动切分方法及系统
CN109710943A (zh) * 2018-12-29 2019-05-03 携程旅游信息技术(上海)有限公司 矛盾语句识别方法和系统及条款逻辑鉴别方法和系统
CN110046350A (zh) * 2019-04-12 2019-07-23 百度在线网络技术(北京)有限公司 文法错误识别方法、装置、计算机设备及存储介质
CN110084250A (zh) * 2019-04-26 2019-08-02 北京金山数字娱乐科技有限公司 一种图像描述的方法及系统
CN110362823A (zh) * 2019-06-21 2019-10-22 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110502746A (zh) * 2019-07-18 2019-11-26 北京捷通华声科技股份有限公司 一种在线域更新解码方法、装置、电子设备及存储介质
CN110751165A (zh) * 2019-08-06 2020-02-04 汕头大学 一种乱序文字的自动组词方法
CN110955433A (zh) * 2019-11-27 2020-04-03 中国银行股份有限公司 一种自动化部署脚本的生成方法及装置
CN111079416A (zh) * 2019-12-03 2020-04-28 河海大学常州校区 基于共享控制门结构的中文文本校正方法
CN111178077A (zh) * 2019-12-26 2020-05-19 深圳市优必选科技股份有限公司 一种语料生成方法、语料生成装置及智能设备
CN111191439A (zh) * 2019-12-16 2020-05-22 浙江大搜车软件技术有限公司 自然语句生成的方法、装置、计算机设备和存储介质
CN111312228A (zh) * 2019-12-09 2020-06-19 中国南方电网有限责任公司 一种基于端到端的应用于电力企业客服的语音导航方法
CN111651686A (zh) * 2019-09-24 2020-09-11 北京嘀嘀无限科技发展有限公司 一种测试处理方法、装置、电子设备及存储介质
CN111859948A (zh) * 2019-04-28 2020-10-30 北京嘀嘀无限科技发展有限公司 语言识别、语言模型训练、字符预测方法及装置
CN111984766A (zh) * 2019-05-21 2020-11-24 华为技术有限公司 缺失语义补全方法及装置
CN112581938A (zh) * 2019-09-30 2021-03-30 华为技术有限公司 基于人工智能的语音断点检测方法、装置和设备
CN112989764A (zh) * 2019-12-18 2021-06-18 北大方正集团有限公司 文本的生成方法、装置、设备以及存储介质
CN113032560A (zh) * 2021-03-16 2021-06-25 北京达佳互联信息技术有限公司 语句分类模型训练方法、语句处理方法及设备
CN113051915A (zh) * 2021-04-22 2021-06-29 北京正智科技有限公司 一种语句处理的方法、设备和计算机可读存储介质
CN113160855A (zh) * 2021-05-28 2021-07-23 思必驰科技股份有限公司 在线语音活性检测系统改进方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880611A (zh) * 2011-07-14 2013-01-16 腾讯科技(深圳)有限公司 一种语言建模方法及语言建模装置
US20130325442A1 (en) * 2010-09-24 2013-12-05 National University Of Singapore Methods and Systems for Automated Text Correction
CN106777073A (zh) * 2016-12-13 2017-05-31 深圳爱拼信息科技有限公司 一种搜索引擎中错别字自动更正方法和服务器
CN106776540A (zh) * 2016-11-23 2017-05-31 清华大学 一种自由化文本生成方法
CN106776501A (zh) * 2016-12-13 2017-05-31 深圳爱拼信息科技有限公司 一种文本错别字自动更正方法和服务器
CN107122346A (zh) * 2016-12-28 2017-09-01 平安科技(深圳)有限公司 一种输入语句的纠错方法及装置
CN107451106A (zh) * 2017-07-26 2017-12-08 阿里巴巴集团控股有限公司 文本纠正方法及装置、电子设备
CN107844481A (zh) * 2017-11-21 2018-03-27 新疆科大讯飞信息科技有限责任公司 识别文本检错方法及装置
CN107977356A (zh) * 2017-11-21 2018-05-01 新疆科大讯飞信息科技有限责任公司 识别文本纠错方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130325442A1 (en) * 2010-09-24 2013-12-05 National University Of Singapore Methods and Systems for Automated Text Correction
CN102880611A (zh) * 2011-07-14 2013-01-16 腾讯科技(深圳)有限公司 一种语言建模方法及语言建模装置
CN106776540A (zh) * 2016-11-23 2017-05-31 清华大学 一种自由化文本生成方法
CN106777073A (zh) * 2016-12-13 2017-05-31 深圳爱拼信息科技有限公司 一种搜索引擎中错别字自动更正方法和服务器
CN106776501A (zh) * 2016-12-13 2017-05-31 深圳爱拼信息科技有限公司 一种文本错别字自动更正方法和服务器
CN107122346A (zh) * 2016-12-28 2017-09-01 平安科技(深圳)有限公司 一种输入语句的纠错方法及装置
CN107451106A (zh) * 2017-07-26 2017-12-08 阿里巴巴集团控股有限公司 文本纠正方法及装置、电子设备
CN107844481A (zh) * 2017-11-21 2018-03-27 新疆科大讯飞信息科技有限责任公司 识别文本检错方法及装置
CN107977356A (zh) * 2017-11-21 2018-05-01 新疆科大讯飞信息科技有限责任公司 识别文本纠错方法及装置

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460158A (zh) * 2018-10-29 2019-03-12 维沃移动通信有限公司 字符输入方法、字符校正模型训练方法和移动终端
CN109492202B (zh) * 2018-11-12 2022-12-27 浙江大学山东工业技术研究院 一种基于拼音的编码与解码模型的中文纠错方法
CN109492202A (zh) * 2018-11-12 2019-03-19 浙江大学山东工业技术研究院 一种基于拼音的编码与解码模型的中文纠错方法
CN109657244A (zh) * 2018-12-18 2019-04-19 语联网(武汉)信息技术有限公司 一种英文长句自动切分方法及系统
CN109614492B (zh) * 2018-12-29 2024-06-18 平安科技(深圳)有限公司 基于人工智能的文本数据增强方法、装置、设备及存储介质
CN109710943B (zh) * 2018-12-29 2022-12-20 携程旅游信息技术(上海)有限公司 矛盾语句识别方法和系统及条款逻辑鉴别方法和系统
CN109710943A (zh) * 2018-12-29 2019-05-03 携程旅游信息技术(上海)有限公司 矛盾语句识别方法和系统及条款逻辑鉴别方法和系统
CN109614492A (zh) * 2018-12-29 2019-04-12 平安科技(深圳)有限公司 基于人工智能的文本数据增强方法、装置、设备及存储介质
CN110046350A (zh) * 2019-04-12 2019-07-23 百度在线网络技术(北京)有限公司 文法错误识别方法、装置、计算机设备及存储介质
CN110046350B (zh) * 2019-04-12 2023-04-07 百度在线网络技术(北京)有限公司 文法错误识别方法、装置、计算机设备及存储介质
CN110084250A (zh) * 2019-04-26 2019-08-02 北京金山数字娱乐科技有限公司 一种图像描述的方法及系统
CN110084250B (zh) * 2019-04-26 2024-03-12 北京金山数字娱乐科技有限公司 一种图像描述的方法及系统
CN111859948B (zh) * 2019-04-28 2024-06-11 北京嘀嘀无限科技发展有限公司 语言识别、语言模型训练、字符预测方法及装置
CN111859948A (zh) * 2019-04-28 2020-10-30 北京嘀嘀无限科技发展有限公司 语言识别、语言模型训练、字符预测方法及装置
CN111984766A (zh) * 2019-05-21 2020-11-24 华为技术有限公司 缺失语义补全方法及装置
CN110362823B (zh) * 2019-06-21 2023-07-28 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110362823A (zh) * 2019-06-21 2019-10-22 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110502746B (zh) * 2019-07-18 2021-04-09 北京捷通华声科技股份有限公司 一种在线域更新解码方法、装置、电子设备及存储介质
CN110502746A (zh) * 2019-07-18 2019-11-26 北京捷通华声科技股份有限公司 一种在线域更新解码方法、装置、电子设备及存储介质
CN110751165B (zh) * 2019-08-06 2023-01-24 汕头大学 一种乱序文字的自动组词方法
CN110751165A (zh) * 2019-08-06 2020-02-04 汕头大学 一种乱序文字的自动组词方法
CN111651686B (zh) * 2019-09-24 2021-02-26 北京嘀嘀无限科技发展有限公司 一种测试处理方法、装置、电子设备及存储介质
CN111651686A (zh) * 2019-09-24 2020-09-11 北京嘀嘀无限科技发展有限公司 一种测试处理方法、装置、电子设备及存储介质
CN112581938B (zh) * 2019-09-30 2024-04-09 华为技术有限公司 基于人工智能的语音断点检测方法、装置和设备
CN112581938A (zh) * 2019-09-30 2021-03-30 华为技术有限公司 基于人工智能的语音断点检测方法、装置和设备
CN110955433B (zh) * 2019-11-27 2023-08-29 中国银行股份有限公司 一种自动化部署脚本的生成方法及装置
CN110955433A (zh) * 2019-11-27 2020-04-03 中国银行股份有限公司 一种自动化部署脚本的生成方法及装置
CN111079416A (zh) * 2019-12-03 2020-04-28 河海大学常州校区 基于共享控制门结构的中文文本校正方法
CN111079416B (zh) * 2019-12-03 2024-02-02 河海大学常州校区 基于共享控制门结构的中文文本校正方法
CN111312228A (zh) * 2019-12-09 2020-06-19 中国南方电网有限责任公司 一种基于端到端的应用于电力企业客服的语音导航方法
CN111191439A (zh) * 2019-12-16 2020-05-22 浙江大搜车软件技术有限公司 自然语句生成的方法、装置、计算机设备和存储介质
CN112989764A (zh) * 2019-12-18 2021-06-18 北大方正集团有限公司 文本的生成方法、装置、设备以及存储介质
CN111178077A (zh) * 2019-12-26 2020-05-19 深圳市优必选科技股份有限公司 一种语料生成方法、语料生成装置及智能设备
CN111178077B (zh) * 2019-12-26 2024-02-02 深圳市优必选科技股份有限公司 一种语料生成方法、语料生成装置及智能设备
CN113032560B (zh) * 2021-03-16 2023-10-27 北京达佳互联信息技术有限公司 语句分类模型训练方法、语句处理方法及设备
CN113032560A (zh) * 2021-03-16 2021-06-25 北京达佳互联信息技术有限公司 语句分类模型训练方法、语句处理方法及设备
CN113051915A (zh) * 2021-04-22 2021-06-29 北京正智科技有限公司 一种语句处理的方法、设备和计算机可读存储介质
CN113160855A (zh) * 2021-05-28 2021-07-23 思必驰科技股份有限公司 在线语音活性检测系统改进方法和装置

Also Published As

Publication number Publication date
CN108647207B (zh) 2022-04-05

Similar Documents

Publication Publication Date Title
CN108647207A (zh) 自然语言修正方法、系统、设备及存储介质
CN111699498B (zh) 作为问答的多任务学习
US11423233B2 (en) On-device projection neural networks for natural language understanding
CN107293296B (zh) 语音识别结果纠正方法、装置、设备及存储介质
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
CN108628823B (zh) 结合注意力机制和多任务协同训练的命名实体识别方法
US11972365B2 (en) Question responding apparatus, question responding method and program
Yi et al. Automatic poetry generation with mutual reinforcement learning
CN111753081A (zh) 基于深度skip-gram网络的文本分类的系统和方法
CN109492202A (zh) 一种基于拼音的编码与解码模型的中文纠错方法
CN112989796B (zh) 一种基于句法指导的文本命名实体信息识别方法
CN112214591B (zh) 一种对话预测的方法及装置
CN106910497A (zh) 一种中文词语发音预测方法及装置
CN111414749B (zh) 基于深度神经网络的社交文本依存句法分析系统
KR102315830B1 (ko) 반지도 학습 기반 단어 단위 감정 임베딩과 lstm 모델을 이용한 대화 내에서 발화의 감정 분류 방법
JP7229345B2 (ja) 文処理方法、文復号方法、装置、プログラム及び機器
WO2019235103A1 (ja) 質問生成装置、質問生成方法及びプログラム
CN110188175A (zh) 一种基于BiLSTM-CRF模型的问答对抽取方法、系统及存储介质
CN114912450B (zh) 信息生成方法与装置、训练方法、电子设备和存储介质
CN112199502B (zh) 基于情感的诗句生成方法及装置、电子设备和存储介质
CN112308080A (zh) 面向指向性视觉理解和分割的图像描述预测方法
CN115034201A (zh) 使用弱监督多奖励强化学习扩充用于句子分类的文本数据
US20240202499A1 (en) Element text processing method and apparatus, electronic device, and storage medium
Pal et al. R-GRU: Regularized gated recurrent unit for handwritten mathematical expression recognition
CN110287326A (zh) 一种带背景描述的企业情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant