CN106066851A - 一种考虑评价指标的神经网络训练方法及装置 - Google Patents

一种考虑评价指标的神经网络训练方法及装置 Download PDF

Info

Publication number
CN106066851A
CN106066851A CN201610393603.1A CN201610393603A CN106066851A CN 106066851 A CN106066851 A CN 106066851A CN 201610393603 A CN201610393603 A CN 201610393603A CN 106066851 A CN106066851 A CN 106066851A
Authority
CN
China
Prior art keywords
translation
model
sample
neutral net
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610393603.1A
Other languages
English (en)
Inventor
沈世奇
刘洋
孙茂松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201610393603.1A priority Critical patent/CN106066851A/zh
Publication of CN106066851A publication Critical patent/CN106066851A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种考虑评价指标的神经网络训练方法及装置。所述方法包括:采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数;利用训练得到的神经网络翻译模型对测试样例进行翻译。本发明提供的装置基于上文所述的神经网络训练方法实现。本发明能够有效的训练神经网络翻译模型,获取更好的翻译效果。

Description

一种考虑评价指标的神经网络训练方法及装置
技术领域
本发明涉及机器翻译技术领域,具体涉及一种考虑评价指标的神经网络训练方法及装置。
背景技术
随着互联网的发展,用户对语言翻译的需求日益增长。据Google翻译团队披露,Google翻译每天提供翻译服务达十亿次,相当于全球一年的人工翻译量,处理的文字数量相当于一百万册图书。互联网中所使用的语言众多,且每种语言都处于时时刻刻的发展变化中,同时还具有大量的多义性,加之如此大的翻译需求量,使得在线翻译无法满足用户的需求,导致用户在线翻译的使用体验不佳。为此需要对语言翻译服务提出更高的要求,以为用户提供高质量的翻译服务。
目前常用神经网络翻译模型进行语言翻译。该神经网络翻译模型在研究论文以及翻译评测任务中都取得了与统计机器翻译相当的效果。用户也感觉到利用神经网络翻译模型进行语言翻译所得的翻译结果比较流畅,提升了用户体验。
现有技术中神经网络翻译模型使用极大似然估计方法进行训练。发明人发现该极大似然估计方法只能优化标准参考译文的概率,不能直接优化评价指标。并且该方法脱离实际的解码过程导致其不能直接优化模型在实际解码中的表现。也就是说,极大似然估计进行训练并不能够完全地挖掘出神经网络翻译模型的潜力。因此当前急需一种新的神经网络翻译模型的训练方法,能够解决极大似然估计方法无法对神经网络翻译模型进行充分有效训练的问题。
发明内容
针对现有技术中的缺陷,本发明提供一种考虑评价指标的神经网络训练方法及装置,可以解决现在技术中极大似然估计方法只能优化标准参考译文的概率导致神经网络翻译模型的无法得到充分有效训练的问题。
第一方面,本发明提供了一种考虑评价指标的神经网络训练方法,所述方法包括:
采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;
根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数;
利用训练得到的神经网络翻译模型对测试样例进行翻译。
可选地,所述根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数的步骤包括:
利用源语言句子结合神经网络翻译模型生成多个翻译样例,所述多个翻译样例构成样例空间;
利用损失函数计算所述多个翻译样例的损失;
利用所述多个翻译样例的损失优化目标函数。
可选地,所述损失函数Δ(y,y(s))=-sBLEU(y,y(s));
式中,y为翻译样例;y(s)为第s个平行双语句中的标准目标语言句子,sBLEU为句子级别的BLEU得分。
可选地,所述利用所述多个翻译样例的损失优化目标函数的步骤中目标函数为:
式中,为翻译样例空间中的期望损失;
式中,Q为各个翻译样例在翻译样例空间中的归一化概率;
Q ( y | x ( s ) ; θ , α ) = P ( y | x ( s ) ; θ ) α Σ y ′ ∈ S ( x ( s ) ) P ( y ′ | x ( s ) ; θ ) α ;
式中,α为控制平滑程度的超参数。
可选地,所述采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型的步骤之前包括:
采用平行双语句构建数据集并对所述数据集进行预处理;
所述预处理包括对源语言和目标语言文本中的句子切分成词,并统一转换大小写与过滤无效字符。
可选地,所述神经网络翻译模型采用循环神经网络翻译模型。
第二方面,本发明实施例还提供了一种考虑评价指标的神经网络训练装置,所述装置包括:
初始模型获取模块,用于采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;
初始模型训练模块,用于根据评价指标定义新的目标函数,用于训练所述初始模型以以得到最终的模型参数;
翻译模块,用于利用训练得到的神经网络翻译模型对测试样例进行翻译。
可选地,所述初始模型训练模块包括:
样例空间构成单元,用于利用源语言句子结合神经网络翻译模型生成多个翻译样例,所述多个翻译样例构成样例空间;
损失计算模块,用于利用损失函数计算所述多个翻译样例的损失;
目标函数优化模块,用于利用所述多个翻译样例的损失优化所述目标函数。
可选地,所述损失计算模块采用以下公式计算所述多个翻译样例的损失:
Δ(y,y(s))=-sBLEU(y,y(s));
式中,y为翻译样例;y(s)为第s个平行双语句中的标准目标语言句子,sBLEU为句子级别的BLEU得分。
可选地,所述目标函数优化模块采用以下目标函数:
式中,为翻译样例空间中的期望损失;
式中,Q为各个翻译样例在翻译样例空间中的归一化概率;
Q ( y | x ( s ) ; θ , α ) = P ( y | x ( s ) ; θ ) α Σ y ′ ∈ S ( x ( s ) ) P ( y ′ | x ( s ) ; θ ) α ;
式中,α为控制平滑程度的超参数。
由上述技术方案可知,本发明利用极大似然估计方法获取到神经网络翻译模型的初始模型,然后根据评价指标对该初始模型进行训练,之后利用训练得到的神经网络翻译模型对测试样例进行翻译。本发明考虑了神经网络翻译模型的评价指标,可以使该模型在该评价指标上表现得更好。相较于现有技术中的训练方法,能够有效地提高神经网络翻译模型的翻译质量。
附图说明
通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
图1是本发明实施例提供的一种考虑评价指标的神经网络训练方法流程示意图;
图2是本发明实施例提供的一种考虑评价指标的神经网络训练装置结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
第一方面,本发明实施例提供了一种考虑评价指标的神经网络训练方法,如图1所示,所述方法包括:
S1、采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;
S2、根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数;
S3、利用训练得到的神经网络翻译模型对测试样例进行翻译。
为体现本发明实施例提供的神经网络训练方法的优越性,本发明实施例对上述各步骤作详细说明。
首先,介绍S1、采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型的步骤。
需要说明的是,本发明实施例中需要获取平行双语句构成的数据集,并对该数据集进行预处理。其中预处理包括对源语言和目标语言文本中的句子切分成词,并统一转换大小写与过滤无效字符。
本发明实施例中神经网络翻译模型采用循环神经网络翻译模型。当然也可以其他类型的神经网络翻译模型袜,本发明不作限定。
本发明实施例中极大似然估计方法采用以下公式实现:
θ ^ M L E = arg max θ { L ( θ ) } ;
在神经网络翻译模型采用循环神经网络翻译模型时,似然值为:
L ( &theta; ) = &Sigma; s = 1 S l o g P ( y ( s ) | x ( s ) ; &theta; ) = &Sigma; s = 1 S &Sigma; n = 1 N ( s ) l o g &Sigma; s = 1 S l o g P ( y ( s ) | x ( s ) , y ( s ) < n ; &theta; ) ;
式中,θ为神经网络翻译模型参数,S为平行双语句的数量,x(s)为第s句目标语言句子的第n个词,y(s) <n为第s句目标语言句子的前n-1个词。
需要说明的是,本发明实施例中无论是循环神经网络翻译模型还是极大似然估计方法都是为了产生该神经网络翻译模型的初始模型参数。当然使用其他神经网络翻译模型或者训练方法同样可以产生初始模型参数,同样也落入本申请的保护范围之内。
其次,介绍S2、根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数的步骤。
由步骤S1中给定的神经网络翻译模型的初始模型参数以及数据集。利用上述初始模型和源语言句子x(s)产生多个翻译样例,并且计算出每个翻译样例的概率。在循环神经网络翻译模型中,翻译样例的概率采用以下公式计算:
P ( y | x ; &theta; ) = &Pi; n = 1 N P ( y n | x , y < n ; &theta; ) ;
式中,N为目标句子长度。
本发明实施例中使用评价指标来设计损失函数,用来衡量不同翻译样例的损失。例如,本实施例中定义负的句子级别BLEU得分作为损失函数:
Δ(y,y(s))=-sBLEU(y,y(s));
式中,y为翻译样例;y(s)为第s个平行双语句中的标准目标语言句子,sBLEU为句子级别的BLEU得分。
需要说明的是,本发明实施例中,例如句子级别的TER值sTER、句子级别的NIST得分sNIST、句子级别的ROUGE值sROUGE,甚至O1损失函数(正确为1,错误为0),都可以用于衡量不同翻译样例的损失。本领域技术人员可以根据具体的使用场景选择合适的损失函数,本发明不作限定。
将上文中所得到不同翻译样例的损失加入到训练目标函数,以优化目标函数,使得整体的期望损失最小:
步骤S2中评价指标定义新的目标函数为:
其中损失表示翻译样例空间中的期望损失:
Q为各个翻译样例在翻译样例空间中的归一化概率:
Q ( y | x ( s ) ; &theta; , &alpha; ) = P ( y | x ( s ) ; &theta; ) &alpha; &Sigma; y &prime; &Element; s ( x ( s ) ) , P ( y &prime; | x ( s ) ; &theta; ) &alpha; ;
α为控制平滑程序的超参数。
根据优化目标,可以对参数θ求偏导数,之后可以利用任意的学习方法,例如SGD、ada_delta等方法对参数θ进行学习,从而使神经网络模块在该评价参数θ的表现更好。
利用上述步骤S2进行若干次迭代后,采用验证集验证该训练后的循环神经网络翻译模型的翻译效果,最终得到训练后的神经网络翻译模型。
最后,介绍S3、利用训练得到的神经网络翻译模型对测试样例进行翻译的步骤。
利用训练后的神经网络翻译模型对测试样例进行翻译。
第二方面,本发明实施例还提供了一种考虑评价指标的神经网络训练装置,如图2所示,所述装置包括:
初始模型获取模块M1,用于采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;
初始模型训练模块M2,用于根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数;
翻译模块M3,用于利用训练得到的神经网络翻译模型对测试样例进行翻译。
可选地,所述初始模型训练模块M2包括:
样例空间构成单元,用于利用源语言句子结合神经网络翻译模型生成多个翻译样例,所述多个翻译样例构成样例空间;
损失计算模块,用于利用损失函数计算所述多个翻译样例的损失;
目标函数优化模块,用于利用所述多个翻译样例的损失优化所述目标函数。
可选地,所述损失计算模块采用以下公式计算所述多个翻译样例的损失:
Δ(y,y(s))=-sBLEU(y,y(s));
式中,y为翻译样例;y(s)为第s个平行双语句中的标准目标语言句子,sBLEU为句子级别的BLEU得分。
可选地,所述目标函数优化模块采用以下目标函数:
式中,为翻译样例空间中的期望损失;
式中,Q为各个翻译样例在翻译样例空间中的归一化概率;
Q ( y | x ( s ) ; &theta; , &alpha; ) = P ( y | x ( s ) ; &theta; ) &alpha; &Sigma; y &prime; &Element; S ( x ( s ) ) , P ( y &prime; | x ( s ) ; &theta; ) &alpha; ;
式中,α为控制平滑程度的超参数。
由上可以看出,本发明上述实施例提供的神经网络训练装置是基于上文所述的神经网络训练方法实现的,因而可以解决同样的技术问题,并取得相同的技术效果,在此不再一一赘述。
应当注意的是,在本实施例公开的装置的各个部件中,根据其要实现的功能而对其中的部件进行了逻辑划分,但是,本公开不受限于此,可以根据需要对各个部件进行重新划分或者组合,例如,可以将一些部件组合为单个部件,或者可以将一些部件进一步分解为更多的子部件。
本公开的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本公开实施例的系统中的一些或者全部部件的一些或者全部功能。本公开还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本公开的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是,上述实施例对本公开进行说明而不是对本公开进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本公开可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上实施方式仅适于说明本公开,而并非对本公开的限制,有关技术领域的普通技术人员,在不脱离本公开的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本公开的范畴,本公开的专利保护范围应由权利要求限定。

Claims (10)

1.一种考虑评价指标的神经网络训练方法,其特征在于,所述方法包括:
采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;
根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数;
利用训练得到的神经网络翻译模型对测试样例进行翻译。
2.根据权利要求1所述的神经网络训练方法,其特征在于,所述根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数的步骤包括:
利用源语言句子结合神经网络翻译模型生成多个翻译样例,所述多个翻译样例构成样例空间;
利用损失函数计算所述多个翻译样例的损失;
利用所述多个翻译样例的损失优化目标函数。
3.根据权利要求2所述的神经网络训练方法,其特征在于,所述损失函数Δ(y,y(s))=-sBLEU(y,y(s));
式中,y为翻译样例;y(s)为第s个平行双语句中的标准目标语言句子,sBLEU为句子级别的BLEU得分。
4.根据权利要求2所述的神经网络训练方法,其特征在于,所述利用所述多个翻译样例的损失优化目标函数的步骤中目标函数为:
式中,为翻译样例空间中的期望损失;
式中,Q为各个翻译样例在翻译样例空间中的归一化概率;
Q ( y | x ( s ) ; &theta; , &alpha; ) = P ( y | x ( s ) ; &theta; ) &alpha; &Sigma; y &prime; &Element; S ( x ( s ) ) P ( y &prime; | x ( s ) ; &theta; ) &alpha; ;
式中,α为控制平滑程度的超参数。
5.根据权利要求1所述的神经网络训练方法,其特征在于,所述采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型的步骤之前包括:
采用平行双语句构建数据集并对所述数据集进行预处理;
所述预处理包括对源语言和目标语言文本中的句子切分成词,并统一转换大小写与过滤无效字符。
6.根据权利要求1所述的神经网络训练方法,其特征在于,所述神经网络翻译模型采用循环神经网络翻译模型。
7.一种考虑评价指标的神经网络训练装置,其特征在于,所述装置包括:
初始模型获取模块,用于采用极大似然估计方法对神经网络翻译模型以获取该神经网络翻译模型的初始模型;
初始模型训练模块,用于根据评价指标定义新的目标函数,用于训练所述初始模型以得到最终的模型参数;
翻译模块,用于利用训练得到的神经网络翻译模型对测试样例进行翻译。
8.根据权利要求7所述的神经网络训练装置,其特征在于,所述初始模型训练模块包括:
样例空间构成单元,用于利用源语言句子结合神经网络翻译模型生成多个翻译样例,所述多个翻译样例构成样例空间;
损失计算模块,用于利用损失函数计算所述多个翻译样例的损失;
目标函数优化模块,用于利用所述多个翻译样例的损失优化所述目标函数。
9.根据权利要求8所述的神经网络训练装置,其特征在于,所述损失计算模块采用以下公式计算所述多个翻译样例的损失:
Δ(y,y(s))=-sBLEU(y,y(s));
式中,y为翻译样例;y(s)为第s个平行双语句中的标准目标语言句子,sBLEU为句子级别的BLEU得分。
10.根据权利要求8所述的神经网络训练装置,其特征在于,所述目标函数优化模块采用以下目标函数:
式中,为翻译样例空间中的期望损失;
式中,Q为各个翻译样例在翻译样例空间中的归一化概率;
Q ( y | x ( s ) ; &theta; , &alpha; ) = P ( y | x ( s ) ; &theta; ) &alpha; &Sigma; y &prime; &Element; S ( x ( s ) ) P ( y &prime; | x ( s ) ; &theta; ) &alpha; ;
式中,α为控制平滑程度的超参数。
CN201610393603.1A 2016-06-06 2016-06-06 一种考虑评价指标的神经网络训练方法及装置 Pending CN106066851A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610393603.1A CN106066851A (zh) 2016-06-06 2016-06-06 一种考虑评价指标的神经网络训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610393603.1A CN106066851A (zh) 2016-06-06 2016-06-06 一种考虑评价指标的神经网络训练方法及装置

Publications (1)

Publication Number Publication Date
CN106066851A true CN106066851A (zh) 2016-11-02

Family

ID=57420517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610393603.1A Pending CN106066851A (zh) 2016-06-06 2016-06-06 一种考虑评价指标的神经网络训练方法及装置

Country Status (1)

Country Link
CN (1) CN106066851A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241519A (zh) * 2018-06-28 2019-01-18 平安科技(深圳)有限公司 质量评价模型获取方法及装置、计算机设备与存储介质
CN110874536A (zh) * 2018-08-29 2020-03-10 阿里巴巴集团控股有限公司 语料质量评估模型生成方法和双语句对互译质量评估方法
CN111325338A (zh) * 2020-02-12 2020-06-23 暗物智能科技(广州)有限公司 神经网络结构评价模型构建和神经网络结构搜索方法
CN113379715A (zh) * 2021-06-24 2021-09-10 南京信息工程大学 一种水下图像增强和数据集真值图像获得方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012079247A1 (zh) * 2010-12-17 2012-06-21 北京交通大学 机器翻译测评装置及方法
US20130103493A1 (en) * 2011-10-25 2013-04-25 Microsoft Corporation Search Query and Document-Related Data Translation
CN104391842A (zh) * 2014-12-18 2015-03-04 苏州大学 一种翻译模型构建方法和系统
CN105068998A (zh) * 2015-07-29 2015-11-18 百度在线网络技术(北京)有限公司 基于神经网络模型的翻译方法及装置
CN105068997A (zh) * 2015-07-15 2015-11-18 清华大学 平行语料的构建方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012079247A1 (zh) * 2010-12-17 2012-06-21 北京交通大学 机器翻译测评装置及方法
US20130103493A1 (en) * 2011-10-25 2013-04-25 Microsoft Corporation Search Query and Document-Related Data Translation
CN104391842A (zh) * 2014-12-18 2015-03-04 苏州大学 一种翻译模型构建方法和系统
CN105068997A (zh) * 2015-07-15 2015-11-18 清华大学 平行语料的构建方法及装置
CN105068998A (zh) * 2015-07-29 2015-11-18 百度在线网络技术(北京)有限公司 基于神经网络模型的翻译方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHIQI SHEN ET AL.: "Minimum Risk Training for Neural Machine Translation", 《ARXIV》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241519A (zh) * 2018-06-28 2019-01-18 平安科技(深圳)有限公司 质量评价模型获取方法及装置、计算机设备与存储介质
WO2020000779A1 (zh) * 2018-06-28 2020-01-02 平安科技(深圳)有限公司 质量评价模型获取方法及装置、计算机设备与存储介质
CN110874536A (zh) * 2018-08-29 2020-03-10 阿里巴巴集团控股有限公司 语料质量评估模型生成方法和双语句对互译质量评估方法
CN110874536B (zh) * 2018-08-29 2023-06-27 阿里巴巴集团控股有限公司 语料质量评估模型生成方法和双语句对互译质量评估方法
CN111325338A (zh) * 2020-02-12 2020-06-23 暗物智能科技(广州)有限公司 神经网络结构评价模型构建和神经网络结构搜索方法
CN113379715A (zh) * 2021-06-24 2021-09-10 南京信息工程大学 一种水下图像增强和数据集真值图像获得方法

Similar Documents

Publication Publication Date Title
CN102508907B (zh) 一种基于训练集优化的推荐系统的动态推荐方法
CN108268581A (zh) 知识图谱的构建方法及装置
CN106066851A (zh) 一种考虑评价指标的神经网络训练方法及装置
CN109977234A (zh) 一种基于主题关键词过滤的知识图谱补全方法
CN107977356A (zh) 识别文本纠错方法及装置
KR20200007900A (ko) 관심 포인트 문안의 생성
CN104794212A (zh) 基于用户评论文本的上下文情感分类方法及分类系统
CN108363704A (zh) 一种基于统计短语表的神经网络机器翻译语料扩展方法
CN106897559A (zh) 一种面向多数据源的症状体征类实体识别方法及装置
JP6807909B2 (ja) データ評価方法、装置、機器及び読み取り可能な記憶媒体
CN108280164B (zh) 一种基于类别相关单词的短文本过滤与分类方法
CN106021433A (zh) 一种商品评论数据的口碑分析方法和装置
CN110288007A (zh) 数据标注的方法、装置及电子设备
CN110427629A (zh) 半监督文本简化模型训练方法和系统
CN105740236A (zh) 结合写作特征和序列特征的中文情感新词识别方法和系统
CN108228758A (zh) 一种文本分类方法及装置
CN107861954A (zh) 基于人工智能的信息输出方法和装置
CN103744889A (zh) 一种用于对问题进行聚类处理的方法与装置
CN109885541A (zh) 信息批量处理的方法和装置
CN106909600A (zh) 用户背景信息的收集方法及装置
CN104516870B (zh) 一种译文检查方法及其系统
CN108763211A (zh) 融合蕴含知识的自动文摘方法及系统
CN107908782A (zh) 一种基于情感分析的数据处理方法和装置
Mishra et al. Reliable local explanations for machine listening
US8165987B2 (en) System and method of machine-aided information extraction rule development

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20161102

RJ01 Rejection of invention patent application after publication