CN103092831A - 一种用于统计机器翻译的参数调整方法 - Google Patents
一种用于统计机器翻译的参数调整方法 Download PDFInfo
- Publication number
- CN103092831A CN103092831A CN2013100295380A CN201310029538A CN103092831A CN 103092831 A CN103092831 A CN 103092831A CN 2013100295380 A CN2013100295380 A CN 2013100295380A CN 201310029538 A CN201310029538 A CN 201310029538A CN 103092831 A CN103092831 A CN 103092831A
- Authority
- CN
- China
- Prior art keywords
- translation
- sigma
- prime
- machine translation
- lambda
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
一种用于统计机器翻译的参数调整方法,涉及一种参数调整方法。是要解决现有方法在参数调整过程中容易造成参数的过拟合现象及陷入局部最优解的问题。方法:步骤一:利用单语语料库构建翻译所需的语言模型;步骤二:利用双语平行语料库构建翻译模型;步骤三:利用目标函数对参数进行调整。本发明的方法易于实现,能够防止在参数调整过程中出现过拟合现象,并能结合较多的特征数目。另外,由于目标函数是凸的,因此在训练过程中亦能够得到全局的最优解。本发明方法用于翻译系统的参数调整。
Description
技术领域
本发明涉及一种参数调整方法。
背景技术
随着互联网的快速发展以及经济全球化的深入,不同国别之间的人与人交往越来越频繁,语言问题越发成为限制人们自由交流的障碍。为实现用本国语言与世界无障碍的沟通,人们对翻译服务的需求越来越广泛。
由人类操作员实现对文本或者口语的人工翻译可能不仅费时且费钱。机器翻译的目标就是实现一种语言到另一种语言的自动翻译。目前存在多种机器翻译的方法,包括基于实例的机器翻译和基于统计的机器翻译。其中,基于统计的机器翻译方法是目前的主流方法。对于给定的源语言句子,统计机器翻译试图找到最优可能的目标语言翻译句子。以f表示源语言,e表示目标语言,统计机器翻译试图找到如下的e:
也即在所有可能的翻译句子中,选择使P(e|f)值最大的翻译句子e。在现有的对数线性模型中,通过引入特征和权重,P(e|f)被因式分解为:其中λm表示权重,hm(e,f)表示特征函数,常用的特征函数包括语言模型、翻译模型、调序模型和词惩罚项。
翻译系统的训练过程就是寻找参数λm,m=1,...,M,最优解的过程。对此,已存在不少参数优化的方法,其中被广泛使用的方法是一种被称为最小错误率的训练法(MinimumError Rate Training,MERT),其优化准则为:
也即MERT的目标是找到参数λm,m=1,..M,使得翻译系统在训练集上的错误率最小。
MERT在参数调整的过程中直接的考虑到了最终的翻译性能,取得了比较好的效果,虽然如此,MERT也存在着不足的地方。例如在优化准则中,没有使用正则化项,这样容易造成参数的过拟合。同时,MERT对大规模特征的支持也不好。另外,由于目标函数是非凸的,MERT需要使用多个初始化值,以防止陷入局部极小值点,这无疑也增加了计算的复杂性。
现有的参数调整方法中除上述提到的最小错误率训练方法(MERT)之外,还有在线的(online)的训练算法,基于最大边缘(margin)以及基于条件概率(conditional likelihood,CL)的训练方法等。
尽管基于最大边缘和条件概率的方法能够在一定程度上解决参数训练的问题,但是二者都各自存在不足之处,其中基于最大边缘方法的目标函数是非凸的,这使得在优化求解过程中容易陷入极小值,从而难以得到最优解。基于条件概率的训练方法尽管解决了函数非凸这个问题,但是目标函数中没有结合耗费函数,这使得优化过程不能直接针对训练集进行,得不到有效的模型参数。
发明内容
本发明是要解决现有方法在参数调整过程中容易造成参数的过拟合现象及陷入局部最优解的问题,提供一种用于统计机器翻译的参数调整方法。
本发明用于统计机器翻译的参数调整方法,按以下步骤进行:
步骤一:利用单语语料库构建翻译所需的语言模型;
步骤二:利用双语平行语料库构建短语翻译模型;
步骤三:利用目标函数 对参数λm进行参数调整;其中es表示参考译文,e′表示机器译文,fs表示待翻译的源语言句子,hm(es,fs)和hm(fs,e′)表示翻译系统构建过程中所使用的特征,特征包含语言模型、短语翻译列表、调序模型和词惩罚四大类,m=1,...,M,M表示特征总的个数,l(e′,es)为消耗函数,Cs表示候选机器译文的集合,e′∈Cs。
参数调整是搭建翻译系统过程中很重要的一个环节,参数的好坏直接影响着最终系统的翻译性能,参数调整的不好,会显著的降低最终的翻译质量。
本发明在目标函数中添加正则化项(例如,)来防止才优化求解过程当中出现过拟合现象。另外,与MERT相比,本发明得到的目标函数为凸函数,这样使得得到的最优解不依赖于初始的赋值;同时由于用于求解凸优化的有效方法很多,求解原优化问题也变得相对容易;此外,由于结合进了正则化项,使得本发明可以结合比MERT更多的特征,同时避免出现参数过拟合情况。
机器翻译中一个很重要的问题是,在参数调整过程中,所使用的优化方法是否需要利用黄金标准(gold standard)翻译。本发明方法需要使用到黄金标准翻译。由于在解码过程中,这种翻译一般是不能得到的,对此,需要寻找替代的措施。本发明采取的方法是使用在当前模型参数下BLEU得分最高的翻译来替代黄金标准翻译。
另外一个问题是如何选取耗费函数的形式,不同的耗费函数可能对最终的翻译结果有不同影响,对于翻译质量差的句子,应该对之处以比较大的惩罚。针对这个问题,本发明使用BLEU得分的相反数作为耗费函数。
本发明的方法易于实现,能够防止在参数调整过程中出现过拟合现象,并能结合较多的特征数目。另外,由于目标函数是凸的,因此在训练过程中亦能够得到全局的最优解。
附图说明
图1为具体实施方式一所述用于统计机器翻译的参数调整方法的流程图。
具体实施方式
本发明技术方案不局限于以下所列举具体实施方式,还包括各具体实施方式间的任意组合。
具体实施方式一:本实施方式用于统计机器翻译的参数调整方法,按以下步骤进行:
步骤一:利用单语语料库构建翻译所需的语言模型;
步骤二:利用平行双语语料库构建短语翻译模型;
步骤三:利用目标函数 对参数λm进行参数调整;其中es表示参考译文,e′表示机器译文,fs表示待翻译的源语言句子,hm(es,fs)和hm(fs,e′)表示翻译系统构建过程中所使用的特征,特征包含语言模型、短语翻译列表、调序模型和词惩罚四大类,m=1,...,M,M表示特征总的个数,l(e′,es)为消耗函数,Cs表示候选机器译文的集合,e′∈Cs。
具体实施方式二:本实施方式是对具体实施方式一步骤三的目标函数中l(e′,es)做进一步说明,步骤三的目标函数中其中BP(e′,es)为长度惩罚因子,赋予比参考译文长度短的句子以惩罚,pn为n元语法n-gram的精度,表示机器译文中n-gram短语与参考译文n-gram吻合的比例,N表示n元语法所使用的最大阶数。
具体实施方式三:本实施方式是对具体实施方式一步骤三的目标函数中es的选择方法做进一步说明,步骤三的目标函数中es的选择方法具体为:
步骤A:对于Cs集合里的每个句子,用一个9维的整数数组存储其语言学信息A=[a0,a1,...,a7,a8],
步骤C:计算如果temp<0,则该句得分score=sum+temp;否则score=sum;
具体实施方式四:本实施方式是对具体实施方式一步骤三的目标函数的求解过程做进一步说明,步骤三的目标函数求解的过程为:
步骤a:对目标函数的各个参数求偏导数得到
步骤b:初始化λm,m=1,...,M,为[-1,1]之间的随机值,按步骤a的公式计算各个参数的偏倒数δm,m=1,...,M,M表示特征总的个数;
步骤c:更新λm的值,m=1...,M;
Claims (4)
1.一种用于统计机器翻译的参数调整方法,其特征在于该方法按以下步骤进行:
步骤一:利用单语语料库构建翻译所需的语言模型;
步骤二:利用双语平行语料库构建短语翻译模型;
步骤三:利用目标函数 对参数λm进行参数调整;其中es表示参考译文,e′表示机器译文,fs表示待翻译的源语言句子,hm(es,fs)和hm(fs,e′)表示翻译系统构建过程中所使用的特征,特征包含语言模型、短语翻译列表、调序模型和词惩罚四大类,m=1,...,M,M表示特征总的个数,l(e′,es)为消耗函数,Cs表示候选机器译文的集合,e′∈Cs。
2.根据权利要求1所述的一种用于统计机器翻译的参数调整方法,其特征在于步骤三的目标函数中其中BP(e′,es)为长度惩罚因子,赋予比参考译文长度短的句子以惩罚,pn为n元语法n-gram的精度,表示机器译文中n-gram短语与参考译文n-gram吻合的比例,N表示n元语法所使用的最大阶数。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310029538.0A CN103092831B (zh) | 2013-01-25 | 2013-01-25 | 一种用于统计机器翻译的参数调整方法 |
US14/763,505 US9460087B2 (en) | 2013-01-25 | 2013-12-02 | Parameter adjustment method used for statistical machine translation |
PCT/CN2013/088284 WO2014114140A1 (zh) | 2013-01-25 | 2013-12-02 | 一种用于统计机器翻译的参数调整方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310029538.0A CN103092831B (zh) | 2013-01-25 | 2013-01-25 | 一种用于统计机器翻译的参数调整方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103092831A true CN103092831A (zh) | 2013-05-08 |
CN103092831B CN103092831B (zh) | 2015-08-19 |
Family
ID=48205419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310029538.0A Active CN103092831B (zh) | 2013-01-25 | 2013-01-25 | 一种用于统计机器翻译的参数调整方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9460087B2 (zh) |
CN (1) | CN103092831B (zh) |
WO (1) | WO2014114140A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605644A (zh) * | 2013-12-02 | 2014-02-26 | 哈尔滨工业大学 | 一种基于相似度匹配的枢轴语言翻译方法和装置 |
CN103955456A (zh) * | 2014-04-23 | 2014-07-30 | 西安理工大学 | 基于句长惩罚因子的富含信息量句子的选择方法 |
WO2014114140A1 (zh) * | 2013-01-25 | 2014-07-31 | 哈尔滨工业大学 | 一种用于统计机器翻译的参数调整方法 |
CN106126505A (zh) * | 2016-06-20 | 2016-11-16 | 清华大学 | 平行短语学习方法及装置 |
CN106202068A (zh) * | 2016-07-25 | 2016-12-07 | 哈尔滨工业大学 | 基于多语平行语料的语义向量的机器翻译方法 |
CN107133223A (zh) * | 2017-04-20 | 2017-09-05 | 南京大学 | 一种自动探索更多参考译文信息的机器翻译优化方法 |
CN107357789A (zh) * | 2017-07-14 | 2017-11-17 | 哈尔滨工业大学 | 融合多语编码信息的神经机器翻译方法 |
CN110309516A (zh) * | 2019-05-30 | 2019-10-08 | 清华大学 | 机器翻译模型的训练方法、装置与电子设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178092B (zh) * | 2019-12-20 | 2023-04-07 | 沈阳雅译网络技术有限公司 | 一种动态调整长度惩罚及译文长度的翻译模型优化方法 |
US11328731B2 (en) * | 2020-04-08 | 2022-05-10 | Salesforce.Com, Inc. | Phone-based sub-word units for end-to-end speech recognition |
CN113505571A (zh) * | 2021-07-30 | 2021-10-15 | 沈阳雅译网络技术有限公司 | 一种面向神经机器翻译的数据选择及训练方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040260532A1 (en) * | 2003-06-20 | 2004-12-23 | Microsoft Corporation | Adaptive machine translation service |
US20050049851A1 (en) * | 2003-09-01 | 2005-03-03 | Advanced Telecommunications Research Institute International | Machine translation apparatus and machine translation computer program |
WO2009120449A1 (en) * | 2008-03-28 | 2009-10-01 | Microsoft Corporation | Intra-language statistical machine translation |
CN101685441A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 一种基于非连续短语的泛化重排序统计翻译方法及装置 |
CN102193912A (zh) * | 2010-03-12 | 2011-09-21 | 富士通株式会社 | 短语划分模型建立方法、统计机器翻译方法以及解码器 |
CN102799579A (zh) * | 2012-07-18 | 2012-11-28 | 西安理工大学 | 具有错误自诊断和自纠错功能的统计机器翻译方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8285536B1 (en) * | 2009-07-31 | 2012-10-09 | Google Inc. | Optimizing parameters for machine translation |
CN103092831B (zh) * | 2013-01-25 | 2015-08-19 | 哈尔滨工业大学 | 一种用于统计机器翻译的参数调整方法 |
-
2013
- 2013-01-25 CN CN201310029538.0A patent/CN103092831B/zh active Active
- 2013-12-02 US US14/763,505 patent/US9460087B2/en active Active
- 2013-12-02 WO PCT/CN2013/088284 patent/WO2014114140A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040260532A1 (en) * | 2003-06-20 | 2004-12-23 | Microsoft Corporation | Adaptive machine translation service |
US20050049851A1 (en) * | 2003-09-01 | 2005-03-03 | Advanced Telecommunications Research Institute International | Machine translation apparatus and machine translation computer program |
WO2009120449A1 (en) * | 2008-03-28 | 2009-10-01 | Microsoft Corporation | Intra-language statistical machine translation |
CN101685441A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 一种基于非连续短语的泛化重排序统计翻译方法及装置 |
CN102193912A (zh) * | 2010-03-12 | 2011-09-21 | 富士通株式会社 | 短语划分模型建立方法、统计机器翻译方法以及解码器 |
CN102799579A (zh) * | 2012-07-18 | 2012-11-28 | 西安理工大学 | 具有错误自诊断和自纠错功能的统计机器翻译方法 |
Non-Patent Citations (1)
Title |
---|
周玉等: ""基于多层过滤的统计机器翻译"", 《中文信息学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014114140A1 (zh) * | 2013-01-25 | 2014-07-31 | 哈尔滨工业大学 | 一种用于统计机器翻译的参数调整方法 |
CN103605644B (zh) * | 2013-12-02 | 2017-02-01 | 哈尔滨工业大学 | 一种基于相似度匹配的枢轴语言翻译方法和装置 |
CN103605644A (zh) * | 2013-12-02 | 2014-02-26 | 哈尔滨工业大学 | 一种基于相似度匹配的枢轴语言翻译方法和装置 |
CN103955456A (zh) * | 2014-04-23 | 2014-07-30 | 西安理工大学 | 基于句长惩罚因子的富含信息量句子的选择方法 |
CN106126505A (zh) * | 2016-06-20 | 2016-11-16 | 清华大学 | 平行短语学习方法及装置 |
CN106126505B (zh) * | 2016-06-20 | 2020-01-31 | 清华大学 | 平行短语学习方法及装置 |
CN106202068B (zh) * | 2016-07-25 | 2019-01-22 | 哈尔滨工业大学 | 基于多语平行语料的语义向量的机器翻译方法 |
CN106202068A (zh) * | 2016-07-25 | 2016-12-07 | 哈尔滨工业大学 | 基于多语平行语料的语义向量的机器翻译方法 |
CN107133223A (zh) * | 2017-04-20 | 2017-09-05 | 南京大学 | 一种自动探索更多参考译文信息的机器翻译优化方法 |
CN107133223B (zh) * | 2017-04-20 | 2019-06-25 | 南京大学 | 一种自动探索更多参考译文信息的机器翻译优化方法 |
CN107357789A (zh) * | 2017-07-14 | 2017-11-17 | 哈尔滨工业大学 | 融合多语编码信息的神经机器翻译方法 |
CN107357789B (zh) * | 2017-07-14 | 2020-10-02 | 哈尔滨工业大学 | 融合多语编码信息的神经机器翻译方法 |
CN110309516A (zh) * | 2019-05-30 | 2019-10-08 | 清华大学 | 机器翻译模型的训练方法、装置与电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN103092831B (zh) | 2015-08-19 |
WO2014114140A1 (zh) | 2014-07-31 |
US9460087B2 (en) | 2016-10-04 |
US20160004691A1 (en) | 2016-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103092831B (zh) | 一种用于统计机器翻译的参数调整方法 | |
US10268685B2 (en) | Statistics-based machine translation method, apparatus and electronic device | |
Bao et al. | PLATO: Pre-trained dialogue generation model with discrete latent variable | |
US10311146B2 (en) | Machine translation method for performing translation between languages | |
Mi et al. | Supervised attentions for neural machine translation | |
US10860808B2 (en) | Method and system for generation of candidate translations | |
Bohnet et al. | Morphosyntactic tagging with a meta-BiLSTM model over context sensitive token encodings | |
Gehrmann et al. | End-to-end content and plan selection for data-to-text generation | |
Wu et al. | Google's neural machine translation system: Bridging the gap between human and machine translation | |
Ling et al. | Latent predictor networks for code generation | |
Rosti et al. | Improved word-level system combination for machine translation | |
US10109272B2 (en) | Apparatus and method for training a neural network acoustic model, and speech recognition apparatus and method | |
CN104503960B (zh) | 一种用于英语翻译的文本数据处理方法 | |
Conroy et al. | CLASSY 2011 at TAC: Guided and Multi-lingual Summaries and Evaluation Metrics. | |
Snover et al. | Language and translation model adaptation using comparable corpora | |
DE102008040739A1 (de) | Verfahren und System zum Berechnen oder Bestimmen von Vertrauens- bzw. Konfidenzauswertungen für Syntaxbäume auf allen Ebenen | |
Cherry et al. | Inversion transduction grammar for joint phrasal translation modeling | |
DeNero et al. | Model combination for machine translation | |
KR101621154B1 (ko) | 소셜 텍스트를 위한 철자 오류 교정 방법 및 장치 | |
Xu et al. | Massive-scale decoding for text generation using lattices | |
CN104008301B (zh) | 一种领域概念层次结构自动构建方法 | |
KR20170079173A (ko) | 번역 콘텐트를 수집하는 방법 및 번역 서버 | |
CN102023970A (zh) | 获得语言模型概率及构建语言模型的方法和装置 | |
Wang et al. | English-Myanmar NMT and SMT with pre-ordering: NICT’s machine translation systems at WAT-2018 | |
CN102945231A (zh) | 一种面向增量式翻译的结构化语言模型构建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20190613 Address after: 150000 Heilongjiang Harbin Dalian economic and Trade Zone, the North Road and Xingkai Road intersection Patentee after: Harbin University of Technology Robot Group Co., Ltd. Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin Patentee before: Harbin Institute of Technology |
|
TR01 | Transfer of patent right |