JP2015170168A - 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム - Google Patents
単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2015170168A JP2015170168A JP2014045012A JP2014045012A JP2015170168A JP 2015170168 A JP2015170168 A JP 2015170168A JP 2014045012 A JP2014045012 A JP 2014045012A JP 2014045012 A JP2014045012 A JP 2014045012A JP 2015170168 A JP2015170168 A JP 2015170168A
- Authority
- JP
- Japan
- Prior art keywords
- word
- alignment
- score
- word alignment
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims description 36
- 238000004590 computer program Methods 0.000 title claims description 14
- 238000013519 translation Methods 0.000 claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 230000000306 recurrent effect Effects 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 20
- 230000001351 cycling effect Effects 0.000 abstract 1
- 230000014616 translation Effects 0.000 description 61
- 238000000034 method Methods 0.000 description 20
- 239000011159 matrix material Substances 0.000 description 17
- 230000008569 process Effects 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 101100233788 Arabidopsis thaliana JMJ25 gene Proteins 0.000 description 3
- 101100345716 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) MMF1 gene Proteins 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001629 sign test Methods 0.000 description 1
- 238000000551 statistical hypothesis test Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
Description
本実施の形態では、最適なアライメント^aを求める際、各単語のアライメントは、文頭から直前までの全てのアライメント関係に基づいて決定する。例えば、アライメント系列a1 J=a1,…,aJのスコアを次の式(8)のように以前のアライメント関係全てに依存したスコアにより求める。スコアは確率でもよい。
このために本実施の形態では、RNN(Recurrent Neural Network)によるアライメントモデルを採用する。このモデルは、RNNを用いてアライメントa1 JのスコアsNNを式(8)を用いて計算する。式(8)によれば、第j番目のアライメントajの予測は、それに先立つ全てのアライメントa1 j-1に依存する。この例では、従来のFFNN型のものと同様、確率ではなくスコアを用いている点に注意する必要がある。
学習では、各層の重み行列の最適化を、バッチサイズDのミニバッチSGDにより行なった。この手法は、単純なSGD(D=1)よりも収束が速く安定している。勾配は、通時的逆伝播(Back propagation through time:BPTT)アルゴリズムにより計算した。BPTTでは、ネットワークを時間(j)方向に展開し、時間ステップごとに勾配を計算する。さらに目的関数にl2正規化項を加えることによりモデルの過学習を防止する。
Dyerらは、contrastive estimation(CE)に基づく教師なし学習によるアライメントモデルを提案している(Chris Dyer, Jonathan Clark, Alon Lavie, and Noah A. Smith. 2011. Unsupervised Word Alignment with Arbitrary Features. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies Volume 1, pages 409-419.)。CEは、観測されたデータに対し、その周辺のデータを擬似的なネガティブサンプルとみなし、観測データとその周辺データを識別するモデルを学習する。Dyerらは、学習データTとして与えられた対訳文について考えられる限りで可能な単語アライメントを観測データ、翻訳の全探索空間Ωをその周辺データとみなした。
FFNNによるモデルもRNNによるモデルもHMMアライメントモデルを基礎にしており、したがって非対称である。すなわち、目的言語側から見たときに1対他のアライメントを表し得る。このような非対称モデルの学習は、2つのアライメント方向で行なわれることが通常である。しかし、このような方向性を持つモデルについて、両者が一致するような学習を行なうとアライメント性能が向上することが分かった。このような制約を合意制約と呼ぶ。以下、上記したモデルに合意制約を課して学習を行なう方法を説明する。
第1の実施の形態は、RNNによるモデルに対して双方向の合意制約を課したものである。しかし本発明はそのような合意制約を課したものには限定されない。合意制約のない一方向のRNNモデルを用いるものでもよい。
上記実施の形態に記載した単語アライメント方法の性能を調べるために実験を行なった。実験では、コーパスBTEC(Toshiyuki Takezawa, Eiichiro Sumita, Fumiaki Sugaya, Hirofumi Yamamoto, and Seiichi Yamamoto. 2002. Toward a Broad-coverage Bilingual Corpus for Speech Translation of Travel Conversations in the Real World. In Proceedings of the 3rd International Conference on Language Resources and Evaluation, pages 147-152.)での日本語と英語との単語アライメントと、2003 NAACL 共通タスク(Rada Mihalcea and Ted Pedersen. 2003. An Evaluation Exercise for Word Alignment. In Proceedings of the HLT-NAACL 2003 Workshop on Building and Using Parallel Texts: Data Driven Machine Translation and Beyond, pages 1-10.)で用いられたHansardsデータセット(Hansards)でのフランス語と英語とのアライメントとを行なった。さらに、FBISコーパスにおける中国語から英語への翻訳タスク、IWSLT2007における日本語から英語への翻訳タスク、及びNTCIR日本語−英語特許翻訳タスクについてもその翻訳性能を評価した。
上記実施の形態に係るRNNによるアライメントモデルについて、2つのベースラインモデルと対比した。第1はIBMモデル4であり、第2は隠れ層を1つ持つFFNNによるモデルである。IBMモデル4はOch及びNey(Franz Josef Och and Hermann Ney. 2003. A Systematic Comparison of Various Statistical Alignment Models. Computational Linguistics, 29:19-51.)により示されたモデルシーケンス(15H53545:IBMモデル1による5回の繰返し、その後にHMMモデルによる5回の繰返し、…)により学習したものであり、これはGIZA++に対するデフォルトの設定である(IBM4)。FFNNによるモデルについては、word embedding長Mを30に、隠れ層のユニット数|z1|を100に、窓幅を5に、それぞれ設定した。Yangら(Nan Yang, Shujie Liu, Mu Li, Ming Zhou, and Nenghai Yu. 2013. Word Alignment Modeling with Context Dependent Deep Neural Network. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 166―175.)の教示にしたがい、既に説明したような教師あり学習によってFFNNによるモデルの学習を行なった。
図9に、単語アライメントの性能をF値により評価したものを示す。以下の説明では、MODEL(R)及びMODEL(I)はそれぞれ、正解アライメント、IBMモデル4による単語アライメントを教師データとして学習したモデルを示す。Hansardsでは、学習データからランダムにサンプリングした100Kのデータにより全てのモデルの学習を行なった。単語アライメントの評価は、最初に各モデルを双方向に適用しそれぞれの方向のアライメントを解析した後、「grow-diag-final-and」ヒューリスティック(Philipp Koehn, Franz Josef Och, and Daniel Marcu. 2003. Statistical Phrase-Based Translation. In Proceedings of the 2003 Human Language Technology Conference: North American Chapter of the Association for Computational Linguistics, pages 48-54.)によってそれらのアライメントを組合わせたものに対して行なった。単語アライメントの性能に関する有意性検定は、有意レベル5%で符号検定により行なった。図9の「+」は、ベースライン(IBM4及びFFNNs(R/I))との間に有意な差があることを示す。
図10は、大文字と小文字を区別したBLEU値(Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. 2002. BLEU: a Method for Automatic Evaluation of Machine Translation. In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pages 311-318.)により測定した翻訳精度を示す。各値は、3回の独立のMERT処理で得られたBLEU値の算術平均である。
図13に、学習データのサイズを変えて学習した各モデルを用いてBTECの単語アライメントした結果(F値)を示す。学習データは、IWSLT用の学習データ(40K),BTEC用の学習データ(9K)、及びBTECの学習データからランダムにサンプリングした学習データ(1K)である。なお、IWSLTについてはアライメントの正解データがないため、RNNs+c(R)についてはIWSLT用のデータ(40K)を用いた学習はできなかった。
上記した単語アライメントモデル学習装置及び単語アライメント装置は、実質的には、コンピュータハードウェアと、コンピュータハードウェアと協働するコンピュータプログラムとにより実現できる。
ソフトウェア構成については、図5、図6及び図7に記載したとおりである。
図14は、上記した単語アライメントモデル学習装置及び単語アライメント装置を実現する、コンピュータ340を含むコンピュータシステム330の外観を示し、図15はコンピュータ340の内部構成を示す。
30 日本語文
32 英語文
40,42 アライメント
60 ニューラル・ネットワーク
70,110 入力層(Lookup層)
72,112 隠れ層
74,114 出力層
76 語彙翻訳スコア
80,130 原言語の入力部
82,132 目的言語の入力部
100 RNNによるモデル
102 スコア
118 循環接続
Claims (7)
- 第1の言語と第2の言語との対訳文対の単語アライメントのスコアを算出する単語アライメントスコア算出装置であって、
前記対訳文対と、当該対訳文対に対する単語アライメントとを受けて、所定の順序にしたがって、前記対訳文対の前記第1の言語の文の単語を順番に選択する選択手段と、
前記選択手段により選択された単語と、前記単語アライメントにより当該単語と対応付けられた前記第2の言語の単語とからなる単語対が正しい単語対である可能性を示すスコアを前記対訳文対の前記第1の言語の文の全ての単語について算出し、当該スコアに基づいて、前記単語アライメントのスコアを算出するスコア算出手段とを含み、
前記スコア算出手段は、ある単語対のスコアを算出するにあたって、前記単語アライメントのうち、当該ある単語対を構成する前記第1の言語の単語より前に前記選択手段により選択された単語のアライメントの全てに基づいて当該ある単語対のスコアを算出する、単語アライメントスコア算出装置。 - 前記選択手段は、前記対訳文対の内、前記第1の言語の文の単語を前記第1の言語の文の先頭から順番に選択する手段を含む、請求項1に記載の単語アライメントスコア算出装置。
- 前記スコア算出手段は、
前記選択手段により選択された単語と、前記対訳文対の前記第2の言語の文のうちで前記単語アライメントにより当該単語と対応付けられた単語とからなる単語対が正しい単語対である可能性を示すスコアを算出する第1の算出手段と、
前記対訳文対の前記第1の言語の文の全ての単語について前記第1のスコア算出手段により算出されたスコアに基づいて、前記単語アライメントのスコアを算出する第2の算出手段とを含む、請求項1又は請求項2に記載の単語アライメントスコア算出装置。 - 前記第2の算出手段は、前記対訳文対の前記第1の言語の文の全ての単語について前記第1の算出手段により算出されたスコアを互いに乗算することにより、前記単語アライメントのスコアを算出する手段を含む、請求項3に記載の単語アライメントスコア算出装置。
- 前記スコア算出手段は、前記選択手段により選択された単語を受ける第1の入力と、前記単語アライメントにより当該単語に対応付けられた前記第2の言語の単語を受ける第2の入力とを持つリカレント型のニューラルネットワークと、
前記選択手段により選択された単語と、前記単語アライメントにより当該単語に対応付けられた単語とを、前記第1の入力及び前記第2の入力にそれぞれ与える入力制御手段とを含み、
前記リカレント型のニューラルネットワークは、
前記第1の入力及び前記第2の入力を持ち、前記第1の入力及び前記第2の入力にそれぞれ与えられた単語からword embeddingベクトルを算出し出力する入力層と、
前記入力層の出力を受け、予め定められた非線形演算により、前記入力層からの2つの出力の関係を表すベクトルを生成する隠れ層と、
前記隠れ層の出力に基づいて前記スコアを算出し出力する出力層とを含み、
前記隠れ層の出力は、前記単語アライメントスコア算出装置に次の単語対が入力として与えられたときに、前記隠れ層に入力として与えられる、請求項1〜請求項4のいずれかに記載の単語アライメントスコア算出装置。 - 第1の言語と第2の言語との対訳文対の単語アライメントを推定する単語アライメント装置であって、
請求項1〜請求項5のいずれかに記載の単語アライメントスコア算出装置と、
前記対訳文対に対して複数個の単語アライメント候補を生成する単語アライメント候補生成手段と、
前記単語アライメント候補生成手段により生成された前記複数個の単語アライメント候補の各々について、前記単語アライメントスコア算出装置を用いて前記対訳文対に対する単語アライメントスコアを算出する算出手段と、
前記算出手段により前記複数個の単語アライメント候補に対して算出された単語アライメントスコアのうち、最も高いスコアに対応する単語アライメント候補を、前記対訳文対の単語アライメントとして決定し出力する単語アライメント決定手段とを含む、単語アライメント装置。 - コンピュータにより実行されると、当該コンピュータを、請求項1〜請求項6のいずれかに記載の各手段として機能させる、コンピュータプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014045012A JP5850512B2 (ja) | 2014-03-07 | 2014-03-07 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
SG11201606967RA SG11201606967RA (en) | 2014-03-07 | 2015-02-12 | Word alignment score computing apparatus, word alignment apparatus, and computer program |
CN201580012326.9A CN106062736B (zh) | 2014-03-07 | 2015-02-12 | 词语对齐分数算出装置、词语对齐装置、以及存储介质 |
PCT/JP2015/053825 WO2015133238A1 (ja) | 2014-03-07 | 2015-02-12 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
US15/118,703 US10049105B2 (en) | 2014-03-07 | 2015-02-12 | Word alignment score computing apparatus, word alignment apparatus, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014045012A JP5850512B2 (ja) | 2014-03-07 | 2014-03-07 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015170168A true JP2015170168A (ja) | 2015-09-28 |
JP5850512B2 JP5850512B2 (ja) | 2016-02-03 |
Family
ID=54055048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014045012A Expired - Fee Related JP5850512B2 (ja) | 2014-03-07 | 2014-03-07 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10049105B2 (ja) |
JP (1) | JP5850512B2 (ja) |
CN (1) | CN106062736B (ja) |
SG (1) | SG11201606967RA (ja) |
WO (1) | WO2015133238A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019167296A1 (ja) * | 2018-02-28 | 2019-09-06 | 日本電信電話株式会社 | 自然言語処理のための装置、方法及びプログラム |
CN110502759A (zh) * | 2019-07-15 | 2019-11-26 | 昆明理工大学 | 融入分类词典的汉越混合网络神经机器翻译集外词处理方法 |
WO2020035998A1 (ja) * | 2018-08-17 | 2020-02-20 | 日本電信電話株式会社 | 言語モデルスコア算出装置、学習装置、言語モデルスコア算出方法、学習方法及びプログラム |
WO2022079845A1 (ja) * | 2020-10-14 | 2022-04-21 | 日本電信電話株式会社 | 単語対応装置、学習装置、単語対応方法、学習方法、及びプログラム |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5850512B2 (ja) * | 2014-03-07 | 2016-02-03 | 国立研究開発法人情報通信研究機構 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
CN111291553B (zh) * | 2014-10-24 | 2023-11-21 | 谷歌有限责任公司 | 具有罕见词处理的神经机器翻译系统 |
KR102449614B1 (ko) * | 2015-11-06 | 2022-09-29 | 삼성전자주식회사 | 자동 번역의 품질 평가 장치 및 방법, 자동 번역 장치, 분산 표현 모델 구축 장치 |
US10460038B2 (en) | 2016-06-24 | 2019-10-29 | Facebook, Inc. | Target phrase classifier |
US10268686B2 (en) * | 2016-06-24 | 2019-04-23 | Facebook, Inc. | Machine translation system employing classifier |
JP6705506B2 (ja) * | 2016-10-04 | 2020-06-03 | 富士通株式会社 | 学習プログラム、情報処理装置および学習方法 |
CN110352423B (zh) * | 2016-11-04 | 2021-04-20 | 渊慧科技有限公司 | 使用噪声信道模型生成目标序列的方法、存储介质和系统 |
CN108460026B (zh) * | 2017-02-22 | 2021-02-12 | 华为技术有限公司 | 一种翻译方法及装置 |
CN107895052B (zh) * | 2017-12-08 | 2018-09-04 | 北京理工大学 | 一种基于模糊认知图的产品创新辅助设计方法 |
CN109522563B (zh) * | 2018-10-15 | 2023-05-23 | 语联网(武汉)信息技术有限公司 | 自动判断语句翻译完毕的方法及装置 |
KR102592630B1 (ko) * | 2018-11-21 | 2023-10-23 | 한국전자통신연구원 | 번역단위 대역 코퍼스를 이용하는 동시통역 시스템 및 방법 |
US10796107B2 (en) * | 2018-12-26 | 2020-10-06 | Soundhound, Inc. | Unified embeddings for translation |
CN111144134B (zh) * | 2019-11-27 | 2023-05-16 | 语联网(武汉)信息技术有限公司 | 基于OpenKiWi的翻译引擎自动化评测系统 |
CN112016306B (zh) * | 2020-08-28 | 2023-10-20 | 重庆邂智科技有限公司 | 基于词性对齐的文本相似度计算方法 |
US11900073B2 (en) * | 2021-09-07 | 2024-02-13 | Lilt, Inc. | Partial execution of translation in browser |
US11966708B2 (en) | 2021-10-01 | 2024-04-23 | International Business Machines Corporation | Dynamic contraction and expansion of heuristic beam width based on predicted probabilities |
WO2023059503A1 (en) * | 2021-10-04 | 2023-04-13 | Visa International Service Association | Method, system, and computer program product for unsupervised alignment of embedding spaces |
CN117034961B (zh) * | 2023-10-09 | 2023-12-19 | 武汉大学 | 一种基于bert的中法互译质量测评方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6411932B1 (en) * | 1998-06-12 | 2002-06-25 | Texas Instruments Incorporated | Rule-based learning of word pronunciations from training corpora |
US7191115B2 (en) * | 2001-06-20 | 2007-03-13 | Microsoft Corporation | Statistical method and apparatus for learning translation relationships among words |
US7353165B2 (en) * | 2002-06-28 | 2008-04-01 | Microsoft Corporation | Example based machine translation system |
US7249012B2 (en) * | 2002-11-20 | 2007-07-24 | Microsoft Corporation | Statistical method and apparatus for learning translation relationships among phrases |
JP2005100335A (ja) * | 2003-09-01 | 2005-04-14 | Advanced Telecommunication Research Institute International | 機械翻訳装置、機械翻訳コンピュータプログラム及びコンピュータ |
US7409332B2 (en) * | 2004-07-14 | 2008-08-05 | Microsoft Corporation | Method and apparatus for initializing iterative training of translation probabilities |
CN101075230B (zh) * | 2006-05-18 | 2011-11-16 | 中国科学院自动化研究所 | 一种基于语块的中文机构名翻译方法及装置 |
US8185375B1 (en) * | 2007-03-26 | 2012-05-22 | Google Inc. | Word alignment with bridge languages |
CN101482861B (zh) * | 2008-01-09 | 2011-06-01 | 中国科学院自动化研究所 | 一种汉英词语自动对齐方法 |
US8543563B1 (en) * | 2012-05-24 | 2013-09-24 | Xerox Corporation | Domain adaptation for query translation |
CN103425638A (zh) * | 2013-08-30 | 2013-12-04 | 清华大学 | 一种词语对齐方法及装置 |
JP5850512B2 (ja) * | 2014-03-07 | 2016-02-03 | 国立研究開発法人情報通信研究機構 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
-
2014
- 2014-03-07 JP JP2014045012A patent/JP5850512B2/ja not_active Expired - Fee Related
-
2015
- 2015-02-12 US US15/118,703 patent/US10049105B2/en not_active Expired - Fee Related
- 2015-02-12 CN CN201580012326.9A patent/CN106062736B/zh not_active Expired - Fee Related
- 2015-02-12 SG SG11201606967RA patent/SG11201606967RA/en unknown
- 2015-02-12 WO PCT/JP2015/053825 patent/WO2015133238A1/ja active Application Filing
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019167296A1 (ja) * | 2018-02-28 | 2019-09-06 | 日本電信電話株式会社 | 自然言語処理のための装置、方法及びプログラム |
JPWO2019167296A1 (ja) * | 2018-02-28 | 2021-06-17 | 日本電信電話株式会社 | 自然言語処理のための装置、方法及びプログラム |
JP7072178B2 (ja) | 2018-02-28 | 2022-05-20 | 日本電信電話株式会社 | 自然言語処理のための装置、方法及びプログラム |
WO2020035998A1 (ja) * | 2018-08-17 | 2020-02-20 | 日本電信電話株式会社 | 言語モデルスコア算出装置、学習装置、言語モデルスコア算出方法、学習方法及びプログラム |
JP2020027224A (ja) * | 2018-08-17 | 2020-02-20 | 日本電信電話株式会社 | 言語モデルスコア算出装置、学習装置、言語モデルスコア算出方法、学習方法及びプログラム |
CN110502759A (zh) * | 2019-07-15 | 2019-11-26 | 昆明理工大学 | 融入分类词典的汉越混合网络神经机器翻译集外词处理方法 |
CN110502759B (zh) * | 2019-07-15 | 2022-07-19 | 昆明理工大学 | 融入分类词典的汉越混合网络神经机器翻译集外词处理方法 |
WO2022079845A1 (ja) * | 2020-10-14 | 2022-04-21 | 日本電信電話株式会社 | 単語対応装置、学習装置、単語対応方法、学習方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN106062736A (zh) | 2016-10-26 |
JP5850512B2 (ja) | 2016-02-03 |
US10049105B2 (en) | 2018-08-14 |
WO2015133238A1 (ja) | 2015-09-11 |
US20170068665A1 (en) | 2017-03-09 |
SG11201606967RA (en) | 2016-10-28 |
CN106062736B (zh) | 2019-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5850512B2 (ja) | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム | |
Tan et al. | Neural machine translation: A review of methods, resources, and tools | |
Winata et al. | Language models are few-shot multilingual learners | |
Uc-Cetina et al. | Survey on reinforcement learning for language processing | |
US20210390271A1 (en) | Neural machine translation systems | |
US11093813B2 (en) | Answer to question neural networks | |
JP6776448B2 (ja) | 機械学習タスクの暗黙的ブリッジング | |
EP3660707A1 (en) | Translation method, target information determining method and related device, and storage medium | |
Zhang et al. | Syntax-infused variational autoencoder for text generation | |
US9176936B2 (en) | Transliteration pair matching | |
CN109074517B (zh) | 全局归一化神经网络 | |
CN108647214A (zh) | 基于深层神经网络翻译模型的解码方法 | |
Eshghi et al. | Bootstrapping incremental dialogue systems from minimal data: the generalisation power of dialogue grammars | |
WO2018032765A1 (zh) | 序列转换方法及装置 | |
CN114154518A (zh) | 数据增强模型训练方法、装置、电子设备及存储介质 | |
US11625572B2 (en) | Recurrent neural networks for online sequence generation | |
Arthur et al. | Learning coupled policies for simultaneous machine translation using imitation learning | |
Pan et al. | Plum: Prompt learning using metaheuristic | |
Tambouratzis | Applying PSO to natural language processing tasks: Optimizing the identification of syntactic phrases | |
Hu et al. | Improved beam search with constrained softmax for nmt | |
US12019997B2 (en) | Method of training real-time simultaneous interpretation model based on external alignment information, and method and system for simultaneous interpretation based on external alignment information | |
CN111553173B (zh) | 自然语言生成训练方法和装置 | |
CN110866395A (zh) | 基于译员编辑行为的词向量生成方法及装置 | |
Richardson et al. | A systematic study reveals unexpected interactions in pre-trained neural machine translation | |
Lou et al. | Toward Zero-Shot Instruction Following |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150828 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20150901 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20151030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5850512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |