JP2020535564A - 機械翻訳方法、装置、コンピュータ機器及び記憶媒体 - Google Patents
機械翻訳方法、装置、コンピュータ機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2020535564A JP2020535564A JP2020535285A JP2020535285A JP2020535564A JP 2020535564 A JP2020535564 A JP 2020535564A JP 2020535285 A JP2020535285 A JP 2020535285A JP 2020535285 A JP2020535285 A JP 2020535285A JP 2020535564 A JP2020535564 A JP 2020535564A
- Authority
- JP
- Japan
- Prior art keywords
- sentence fragment
- vector
- history
- translation
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 277
- 238000000034 method Methods 0.000 title claims abstract description 83
- 239000012634 fragment Substances 0.000 claims abstract description 456
- 239000013598 vector Substances 0.000 claims abstract description 368
- 238000013528 artificial neural network Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 abstract description 34
- 238000010586 diagram Methods 0.000 abstract description 17
- 239000010410 layer Substances 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 230000010354 integration Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
Description
本願は、2017年09月12日に中国国家知識産権局に提出された、出願番号が201710819346.8で、発明の名称が「機械翻訳方法及び装置」である中国特許出願の優先権を主張し、その内容を全て参照により本願に組み込むものとする。
本願は、機械学習の技術分野に関し、特に機械翻訳方法、装置、コンピュータ機器及び記憶媒体に関する。
文断片を第一言語から第二言語に翻訳する際、前記文断片のソース側リプレゼンテーションベクターを取得するステップであって、前記ソース側リプレゼンテーションベクターが前記第一言語で対応する文断片を示すベクターである、ステップと、
前記文断片のソース側リプレゼンテーションベクターに基いて、履歴翻訳情報を検索することで、前記文断片の履歴翻訳ベクターを得るステップであって、前記履歴翻訳ベクターが対応する文断片の履歴翻訳状況を示す為のものである、ステップと、
前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行うステップとを含む、機械翻訳方法を提供する。
文断片を第一言語から第二言語に翻訳する際、前記文断片のソース側リプレゼンテーションベクターを取得するためのソース側ベクター取得モジュールであって、前記ソース側リプレゼンテーションベクターが前記第一言語で対応する文断片を示すベクターである、ソース側ベクター取得モジュールと、
前記文断片のソース側リプレゼンテーションベクターに基いて、履歴翻訳情報を検索することで、前記文断片の履歴翻訳ベクターを得るための履歴ベクター取得モジュールであって、前記履歴翻訳ベクターが対応する文断片の履歴翻訳状況を示す為のものである、履歴ベクター取得モジュールと、
前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行うための翻訳モジュールとを含む、機械翻訳装置を提供する。
ここで、qはソース側リプレゼンテーションベクターctで、qTはqの転置行列で、kwはKey Layerにおいて目的端目標側単語wに対応する一つのkeyで、softmax(qT,kw)とはqに対して転置行列処理を行った後、kwと点乗積算出を行うことで、PCache(w/q)はqとwとの間のマッチング確率を示す。
ここで、パラメータMは開発者によって予め設置されたパラメータであってもよいし、又は、パラメータMは予め機械学習によって特定されたパラメータであってもよい。
ここで、パラメータZは開発者によって予め設置されたパラメータであってもよいし、又は、パラメータZは予め機械学習によって特定されたパラメータであってもよい。
図3を参照すると、図3は本願の実施例に係る確率分布統合の模式図を示している。この方法において、コンピュータ機器は当該文断片のソース側リプレゼンテーションベクターct、当該文断片のデコーダ状態st及び直前の文断片の目標側リプレゼンテーションベクターyt-1を第一ニューラルネットワークに入力することで、当該文断片の出力ベクターxt0を得ることができる。当該直前の文断片は当該文断片の一つ前の文断片で、当該目標側リプレゼンテーションベクターは当該第二言語で対応する文断片を示すベクターである。当該文断片のソース側リプレゼンテーションベクターct、当該文断片のデコーダ状態st及び当該文断片の履歴翻訳ベクターcctを第二ニューラルネットワークに入力することで、当該文断片の履歴翻訳ベクターの重みλ1を得て、当該文断片の履歴翻訳ベクターの重みλ1に基いて、当該文断片の出力ベクターの重みλ2を算出する。当該文断片の出力ベクターxt0の重みλ2及び当該文断片の履歴翻訳ベクターcctの重みλ1に基いて、当該文断片の出力ベクターxt0と当該文断片の履歴翻訳ベクターcctに対して重み付け和を求めることで、当該文断片の修正された出力ベクターxtを得て、当該文断片の修正された出力ベクターxtに基いて、当該文断片の翻訳結果を特定する。
ここで、P(w)は第一言語での文断片と第二言語での目標文断片wとの間の修正されたマッチング確率で、PNMT(w)は当該文断片のソース側リプレゼンテーションベクター、当該文断片のデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターが第一ニューラルネットワークに入力されて得られた当該文断片と第二言語での目標文断片wとの間のマッチング確率で、PCache(w)は記憶コンポーネントの出力した、当該文断片と目標文断片wとの間のマッチング確率で、λは、異なるタイミングの需要に応じて異なる重みを出力するように、一つのニューラルネットワーク(即ち、上述の第二ニューラルネットワーク)によって制御される。
ここで、cctはステップ102で算出された文断片の履歴翻訳ベクターである。fは上述の第二ニューラルネットワークであり、一つの多層のニューラルネットワークであってもよいし、又は、簡単なsigmoid関数であってもよい。
図4を参照すると、図4は本願の実施例に係る付加コンテスト処理の模式図を示している。当該態様において、コンピュータ機器は当該文断片のソース側リプレゼンテーションベクターct、当該文断片のデコーダ状態st、当該文断片の一つ前の文断片である直前の文断片の目標側リプレゼンテーションベクターyt-1及び当該文断片の履歴翻訳ベクターcctを第三ニューラルネットワークに入力することで、当該文断片の出力ベクターxtを得ることができ、当該文断片の出力ベクターに基いて、当該文断片の翻訳結果を特定することができる。
PNMT(yt)=softmax(g(yt-1,ct,st))
から
PNMT(yt)=softmax(g(yt-1,ct,st,cct))
と書き直すことができる。
図5を参照すると、本願の実施例に係る隠れ層リプレゼンテーション統合処理の模式図を示している。当該態様において、コンピュータ機器は当該文断片のソース側リプレゼンテーションベクターct、当該文断片のデコーダ状態st、及び当該文断片の履歴翻訳ベクターcctを第四ニューラルネットワークに入力することで、当該文断片の履歴翻訳ベクターcctの重みλ3を得ることができる。当該文断片の履歴翻訳ベクターcctの重みλ3に基いて、当該文断片のデコーダ状態stの重みλ4を算出する。当該文断片の履歴翻訳ベクターcctの重みλ3及び当該文断片のデコーダ状態stの重みλ4に基いて、当該文断片の履歴翻訳ベクターcctと当該文断片のデコーダ状態stに対して重み付け和を求めることで、当該文断片の修正されたデコーダ状態s’tを得る。当該文断片のソース側リプレゼンテーションベクターct、当該文断片の修正されたデコーダ状態s’t、及び当該文断片の一つ前の文断片である直前の文断片の目標側リプレゼンテーションベクターyt-1を第五ニューラルネットワークに入力することで、当該文断片の出力ベクターxtを得る。当該文断片の出力ベクターに基いて、当該文断片の翻訳結果を特定する。
ここで、λの算出方法は上述の第一の算出方式のλを参照することができる。
文断片を第一言語から第二言語に翻訳する際、前記文断片のソース側リプレゼンテーションベクターを取得するためのソース側ベクター取得モジュール701であって、前記ソース側リプレゼンテーションベクターが前記第一言語で対応する文断片を示すベクターである、ソース側ベクター取得モジュール701、
前記文断片のソース側リプレゼンテーションベクターに基いて、履歴翻訳情報を検索することで、前記文断片の履歴翻訳ベクターを得るための履歴ベクター取得モジュール702であって、前記履歴翻訳ベクターが対応する文断片の履歴翻訳状況を示す為のものである、履歴ベクター取得モジュール702、及び、
前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行うための翻訳モジュール703
を含むことができる。
前記文断片のソース側リプレゼンテーションベクターと各履歴文断片のソース側リプレゼンテーションベクターとの各々の類似度を算出するための類似度算出ユニット、
前記文断片のソース側リプレゼンテーションベクターと前記各履歴文断片のソース側リプレゼンテーションベクターとの各々の類似度に基いて、前記各履歴文断片のデコーダ状態の重みを算出するための第一重み算出ユニット、及び、
前記各履歴文断片のデコーダ状態の重みに基いて、前記各履歴文断片のデコーダ状態に対して重み付け和を求めることで、前記文断片の履歴翻訳ベクターを得るための第一重み付けユニット
を含む。
前記文断片のデコーダ状態を取得するためのデコーダ状態取得モジュール、及び、
前記文断片のソース側リプレゼンテーションベクターと前記文断片のデコーダ状態との間の対応関係を前記履歴翻訳情報に記憶するための記憶モジュール
をさらに含む。
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターを、第一ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るための第一出力ベクター獲得ユニットであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは、前記第二言語で対応する文断片を示すベクターである、第一出力ベクター獲得ユニット、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び前記文断片の履歴翻訳ベクターを第二ニューラルネットワークに入力することで、前記文断片の履歴翻訳ベクターの重みを得るための第一重み獲得ユニット、
前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片の出力ベクターの重みを算出するための第二重み算出ユニット、
前記文断片の出力ベクターの重み及び前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片の出力ベクターと前記文断片の履歴翻訳ベクターに対して重み付け和を求めることで、前記文断片の修正された出力ベクターを得るための第二重み付けユニット、及び、
前記文断片の修正された出力ベクターに基いて、前記文断片の翻訳結果を特定するための第一結果特定ユニット
をさらに含む。
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、直前の文断片の目標側リプレゼンテーションベクター、及び前記文断片の履歴翻訳ベクターを第三ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るための第二出力ベクター獲得ユニットであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは、前記第二言語で対応する文断片を示すベクターである、第二出力ベクター獲得ユニット、及び
前記文断片の出力ベクターに基いて、前記文断片の翻訳結果を特定するための第二結果特定ユニット
を含む。
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び前記文断片の履歴翻訳ベクターを第四ニューラルネットワークに入力することで、前記文断片の履歴翻訳ベクターの重みを得るための第二重み獲得ユニット、
前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片のデコーダ状態の重みを算出するための第三重み算出ユニット、
前記文断片の履歴翻訳ベクターの重み及び前記文断片のデコーダ状態の重みに基いて、前記文断片の履歴翻訳ベクターと前記文断片のデコーダ状態に対して重み付け和を求めることで、前記文断片の修正されたデコーダ状態を得るための第三重み付けユニット、
前記文断片のソース側リプレゼンテーションベクター、前記文断片の修正されたデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターを第五ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るための第三出力ベクター獲得ユニットであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは前記第二言語で対応する文断片を示すベクターである、第三出力ベクター獲得ユニット、及び
前記文断片の出力ベクターに基いて、前記文断片の翻訳結果を特定するための第三結果特定ユニット
を含む。
Claims (14)
- コンピュータ機器によって実行される機械翻訳方法であって、
文断片を第一言語から第二言語に翻訳する際、前記文断片のソース側リプレゼンテーションベクターを取得するステップであって、前記ソース側リプレゼンテーションベクターが前記第一言語で対応する文断片を示すベクターである、ステップと、
前記文断片のソース側リプレゼンテーションベクターに基いて、履歴翻訳情報を検索することで、前記文断片の履歴翻訳ベクターを得るステップであって、前記履歴翻訳ベクターが対応する文断片の履歴翻訳状況を示す為のものである、ステップと、
前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行うステップと、を含むことを特徴とする機械翻訳方法。 - 前記履歴翻訳情報は、各履歴文断片のソース側リプレゼンテーションベクターと前記各履歴文断片のデコーダ状態との間の対応関係を含み、
前記文断片のソース側リプレゼンテーションベクターに基いて、履歴翻訳情報を検索することで、前記文断片の履歴翻訳ベクターを得る前記ステップは、
前記文断片のソース側リプレゼンテーションベクターと前記各履歴文断片のソース側リプレゼンテーションベクターとの各々の類似度を算出するステップと、
前記文断片のソース側リプレゼンテーションベクターと前記各履歴文断片のソース側リプレゼンテーションベクターとの各々の類似度に基いて、前記各履歴文断片のデコーダ状態の重みを算出するステップと、
前記各履歴文断片のデコーダ状態の重みに基いて、前記各履歴文断片のデコーダ状態に対して重み付け和を求めることで、前記文断片の履歴翻訳ベクターを得るステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記文断片のデコーダ状態を取得するステップと、
前記文断片のソース側リプレゼンテーションベクターと前記文断片のデコーダ状態との間の対応関係を前記履歴翻訳情報に記憶するステップと、をさらに含むことを特徴とする請求項2に記載の方法。 - 前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行う前記ステップは、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターを第一ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るステップであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは、前記第二言語で対応する文断片を示すベクターである、ステップと、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び前記文断片の履歴翻訳ベクターを第二ニューラルネットワークに入力することで、前記文断片の履歴翻訳ベクターの重みを得るステップと、
前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片の出力ベクターの重みを算出するステップと、
前記文断片の出力ベクターの重み及び前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片の出力ベクターと前記文断片の履歴翻訳ベクターに対して重み付け和を求めることで、前記文断片の修正された出力ベクターを得るステップと、
前記文断片の修正された出力ベクターに基いて、前記文断片の翻訳結果を特定するステップと、を含むことを特徴とする請求項1〜3のいずれか1項に記載の方法。 - 前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行う前記ステップは、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、直前の文断片の目標側リプレゼンテーションベクター、及び前記文断片の履歴翻訳ベクターを、第三ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るステップであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは、前記第二言語で対応する文断片を示すベクターである、ステップと、
前記文断片の出力ベクターに基いて、前記文断片の翻訳結果を特定するステップと、を含むことを特徴とする請求項1〜3のいずれか1項に記載の方法。 - 前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行う前記ステップは、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び前記文断片の履歴翻訳ベクターを第四ニューラルネットワークに入力することで、前記文断片の履歴翻訳ベクターの重みを得るステップと、
前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片のデコーダ状態の重みを算出するステップと、
前記文断片の履歴翻訳ベクターの重み及び前記文断片のデコーダ状態の重みに基いて、前記文断片の履歴翻訳ベクターと前記文断片のデコーダ状態に対して重み付け和を求めることで、前記文断片の修正されたデコーダ状態を得るステップと、
前記文断片のソース側リプレゼンテーションベクター、前記文断片の修正されたデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターを第五ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るステップであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは前記第二言語で対応する文断片を示すベクターである、ステップと、
前記文断片の出力ベクターに基いて、前記文断片の翻訳結果を特定するステップと、を含むことを特徴とする請求項1〜3のいずれか1項に記載の方法。 - 機械翻訳装置であって、
文断片を第一言語から第二言語に翻訳する際、前記文断片のソース側リプレゼンテーションベクターを取得するためのソース側ベクター取得モジュールであって、前記ソース側リプレゼンテーションベクターが前記第一言語で対応する文断片を示すベクターである、ソース側ベクター取得モジュールと、
前記文断片のソース側リプレゼンテーションベクターに基いて履歴翻訳情報を検索することで、前記文断片の履歴翻訳ベクターを得るための履歴ベクター取得モジュールであって、前記履歴翻訳ベクターが対応する文断片の履歴翻訳状況を示す為のものである、履歴ベクター取得モジュールと、
前記文断片の履歴翻訳ベクターに基いて、前記文断片について翻訳を行うための翻訳モジュールと、を含むことを特徴とする装置。 - 前記履歴ベクター取得モジュールは、
前記文断片のソース側リプレゼンテーションベクターと各履歴文断片のソース側リプレゼンテーションベクターとの各々の類似度を算出するための類似度算出ユニットと、
前記文断片のソース側リプレゼンテーションベクターと前記各履歴文断片のソース側リプレゼンテーションベクターとの各々の類似度に基いて、前記各履歴文断片のデコーダ状態の重みを算出するための第一重み算出ユニットと、
前記各履歴文断片のデコーダ状態の重みに基いて、前記各履歴文断片のデコーダ状態に対して重み付け和を求めることで、前記文断片の履歴翻訳ベクターを得るための第一重み付けユニットと、
を含み、
前記履歴翻訳情報は、前記各履歴文断片のソース側リプレゼンテーションベクターと前記各履歴文断片のデコーダ状態との間の対応関係を含むことを特徴とする請求項7に記載の装置。 - 前記文断片のデコーダ状態を取得するためのデコーダ状態取得モジュールと、
前記文断片のソース側リプレゼンテーションベクターと前記文断片のデコーダ状態との間の対応関係を前記履歴翻訳情報に記憶するための記憶モジュールと、をさらに含むことを特徴とする請求項8に記載の装置。 - 前記翻訳モジュールは、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターを第一ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るための第一出力ベクター獲得ユニットであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは、前記第二言語で対応する文断片を示すベクターである、第一出力ベクター獲得ユニットと、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び前記文断片の履歴翻訳ベクターを第二ニューラルネットワークに入力することで、前記文断片の履歴翻訳ベクターの重みを得るための第一重み獲得ユニットと、
前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片の出力ベクターの重みを算出するための第二重み算出ユニットと、
前記文断片の出力ベクターの重み及び前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片の出力ベクターと前記文断片の履歴翻訳ベクターに対して重み付け和を求めることで、前記文断片の修正された出力ベクターを得るための第二重み付けユニットと、
前記文断片の修正された出力ベクターに基いて、前記文断片の翻訳結果を特定するための第一結果特定ユニットと、を含むことを特徴とする請求項7〜9のいずれか1項に記載の装置。 - 前記翻訳モジュールは、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、直前の文断片の目標側リプレゼンテーションベクター、及び前記文断片の履歴翻訳ベクターを第三ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るための第二出力ベクター獲得ユニットであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは、前記第二言語で対応する文断片を示すベクターである、第二出力ベクター獲得ユニットと、
前記文断片の出力ベクターに基いて、前記文断片の翻訳結果を特定するための第二結果特定ユニットと、を含むことを特徴とする請求項7〜9のいずれか1項に記載の装置。 - 前記翻訳モジュールは、
前記文断片のソース側リプレゼンテーションベクター、前記文断片のデコーダ状態、及び前記文断片の履歴翻訳ベクターを第四ニューラルネットワークに入力することで、前記文断片の履歴翻訳ベクターの重みを得るための第二重み獲得ユニットと、
前記文断片の履歴翻訳ベクターの重みに基いて、前記文断片のデコーダ状態の重みを算出するための第三重み算出ユニットと、
前記文断片の履歴翻訳ベクターの重み及び前記文断片のデコーダ状態の重みに基いて、前記文断片の履歴翻訳ベクターと前記文断片のデコーダ状態に対して重み付け和を求めることで、前記文断片の修正されたデコーダ状態を得るための第三重み付けユニットと、
前記文断片のソース側リプレゼンテーションベクター、前記文断片の修正されたデコーダ状態、及び直前の文断片の目標側リプレゼンテーションベクターを第五ニューラルネットワークに入力することで、前記文断片の出力ベクターを得るための第三出力ベクター獲得ユニットであって、前記直前の文断片は、前記文断片の一つ前の文断片であり、前記目標側リプレゼンテーションベクターは前記第二言語で対応する文断片を示すベクターである、第三出力ベクター獲得ユニットと、
前記文断片の出力ベクターに基いて、前記文断片の翻訳結果を特定するための第三結果特定ユニットと、を含むことを特徴とする請求項7〜9のいずれか1項に記載の装置。 - コンピュータ機器であって、
プロセッサとメモリを含み、前記メモリには少なくとも一つの命令、少なくとも一つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも一つの命令、前記少なくとも一つのプログラム、前記コードセットまたは命令セットは、前記プロセッサによってローディング及び実行され、請求項1〜6のいずれか1項に記載の機械翻訳方法を実現することを特徴とする機器。 - コンピュータ可読記憶媒体であって、
前記記憶媒体には少なくとも一つの命令、少なくとも一つのプログラム、コードセットまたは命令セットが記憶されており、前記少なくとも一つの命令、前記少なくとも一つのプログラム、前記コードセットまたは命令セットはプロセッサによってローディング及び実行され、請求項1〜6のいずれか1項に記載の機械翻訳方法を実現することを特徴とする記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710819346.8 | 2017-09-12 | ||
CN201710819346.8A CN108304388B (zh) | 2017-09-12 | 2017-09-12 | 机器翻译方法及装置 |
PCT/CN2018/099808 WO2019052293A1 (zh) | 2017-09-12 | 2018-08-10 | 机器翻译方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020535564A true JP2020535564A (ja) | 2020-12-03 |
JP7026236B2 JP7026236B2 (ja) | 2022-02-25 |
Family
ID=62869682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020535285A Active JP7026236B2 (ja) | 2017-09-12 | 2018-08-10 | 機械翻訳方法、装置、コンピュータ機器及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11275907B2 (ja) |
JP (1) | JP7026236B2 (ja) |
KR (1) | KR102360659B1 (ja) |
CN (1) | CN108304388B (ja) |
WO (1) | WO2019052293A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304388B (zh) | 2017-09-12 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
US11449533B2 (en) * | 2018-02-22 | 2022-09-20 | Entigenlogic Llc | Curating knowledge for storage in a knowledge database |
US11232260B2 (en) * | 2018-04-19 | 2022-01-25 | Entigenlogic Llc | Updating a document utilizing trusted new information |
CN109271646B (zh) * | 2018-09-04 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、可读存储介质和计算机设备 |
CN111160036B (zh) * | 2018-11-07 | 2023-07-21 | 中移(苏州)软件技术有限公司 | 一种对基于神经网络的机器翻译模型的更新方法及装置 |
CN109543199B (zh) * | 2018-11-28 | 2022-06-10 | 腾讯科技(深圳)有限公司 | 一种文本翻译的方法以及相关装置 |
CN109858045B (zh) * | 2019-02-01 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 机器翻译方法和装置 |
CN111368564B (zh) * | 2019-04-17 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机可读存储介质和计算机设备 |
CN110298045B (zh) * | 2019-05-31 | 2023-03-24 | 北京百度网讯科技有限公司 | 机器翻译方法、装置、设备及存储介质 |
CN110188331B (zh) * | 2019-06-03 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 模型训练方法、对话系统评价方法、装置、设备及存储介质 |
CN110334360B (zh) * | 2019-07-08 | 2021-07-06 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置、电子设备及存储介质 |
CN110598671B (zh) * | 2019-09-23 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 基于文本的虚拟形象行为控制方法、设备和介质 |
CN111079450B (zh) * | 2019-12-20 | 2021-01-22 | 北京百度网讯科技有限公司 | 基于顺句驱动的语言转换方法和装置 |
CN111191015A (zh) * | 2019-12-27 | 2020-05-22 | 上海大学 | 一种神经网络电影知识智能对话方法 |
CN111680519B (zh) * | 2020-04-28 | 2023-04-07 | 平安科技(深圳)有限公司 | 基于降维桶模型的文本翻译方法及装置 |
CN113887194A (zh) * | 2020-07-01 | 2022-01-04 | 中移(苏州)软件技术有限公司 | 一种翻译方法及装置、电子设备、计算机可读存储介质 |
CN112733556B (zh) * | 2021-01-28 | 2024-04-05 | 何灏 | 同步交互式翻译方法及装置、存储介质、计算机设备 |
US11966711B2 (en) | 2021-05-18 | 2024-04-23 | International Business Machines Corporation | Translation verification and correction |
US12039285B2 (en) * | 2021-07-19 | 2024-07-16 | Servicenow, Inc. | Multilingual natural language understanding (NLU) model platform for updating a software's understanding ability in one language based on NLU changes in another language |
CN114239613B (zh) * | 2022-02-23 | 2022-08-02 | 阿里巴巴达摩院(杭州)科技有限公司 | 实时语音翻译方法、装置、设备及存储介质 |
KR102683621B1 (ko) | 2022-03-08 | 2024-07-11 | 주식회사 에이치아이컨설팅 | 인공지능 모델을 이용한 자기진단장치(obd) 문서 번역 시스템 및 그 구동방법 |
KR20240000721A (ko) | 2022-06-24 | 2024-01-03 | 주식회사 오피니언라이브 | 다국어 워드 의미 관계 조회를 위한 워드넷 서비스 구축방법 및 이를 포함하는 저장매체 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006023844A (ja) * | 2004-07-06 | 2006-01-26 | Toshiba Corp | 翻訳支援プログラム、翻訳支援装置、翻訳支援方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646019A (zh) * | 2013-12-31 | 2014-03-19 | 哈尔滨理工大学 | 一种多个机器翻译系统融合的方法及装置 |
US9659009B2 (en) * | 2014-09-24 | 2017-05-23 | International Business Machines Corporation | Selective machine translation with crowdsourcing |
KR102305584B1 (ko) * | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
CN105183720B (zh) * | 2015-08-05 | 2019-07-09 | 百度在线网络技术(北京)有限公司 | 基于rnn模型的机器翻译方法和装置 |
KR102565274B1 (ko) * | 2016-07-07 | 2023-08-09 | 삼성전자주식회사 | 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치 |
CN108304388B (zh) * | 2017-09-12 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
-
2017
- 2017-09-12 CN CN201710819346.8A patent/CN108304388B/zh active Active
-
2018
- 2018-08-10 WO PCT/CN2018/099808 patent/WO2019052293A1/zh active Application Filing
- 2018-08-10 JP JP2020535285A patent/JP7026236B2/ja active Active
- 2018-08-10 KR KR1020197032061A patent/KR102360659B1/ko active IP Right Grant
-
2019
- 2019-08-31 US US16/558,092 patent/US11275907B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006023844A (ja) * | 2004-07-06 | 2006-01-26 | Toshiba Corp | 翻訳支援プログラム、翻訳支援装置、翻訳支援方法 |
Non-Patent Citations (1)
Title |
---|
TAMER ALKHOULI 他2名: "Investigations on Phrase-based Decoding with Recurrent Neural Network Language and Translation Model", PROCEEDINGS OF THE TENTH WORKSHOP ON STATISTICAL MACHINE TRANSLATION, JPN6021022055, September 2015 (2015-09-01), pages 294 - 303, ISSN: 0004528725 * |
Also Published As
Publication number | Publication date |
---|---|
CN108304388A (zh) | 2018-07-20 |
US20190384822A1 (en) | 2019-12-19 |
WO2019052293A1 (zh) | 2019-03-21 |
CN108304388B (zh) | 2020-07-07 |
KR20190130636A (ko) | 2019-11-22 |
JP7026236B2 (ja) | 2022-02-25 |
US11275907B2 (en) | 2022-03-15 |
KR102360659B1 (ko) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7026236B2 (ja) | 機械翻訳方法、装置、コンピュータ機器及びコンピュータプログラム | |
CN108305296B (zh) | 图像描述生成方法、模型训练方法、设备和存储介质 | |
JP7179273B2 (ja) | 翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム | |
KR102270394B1 (ko) | 이미지를 인식하기 위한 방법, 단말, 및 저장 매체 | |
CN111428516B (zh) | 一种信息处理的方法以及装置 | |
CN109918684B (zh) | 模型训练方法、翻译方法、相关装置、设备及存储介质 | |
CN109902296B (zh) | 自然语言处理方法、训练方法及数据处理设备 | |
CN110018970B (zh) | 缓存预取方法、装置、设备及计算机可读存储介质 | |
CN110827826B (zh) | 语音转换文字方法、电子设备 | |
JP2022517463A (ja) | 符号化方法並びにその、装置、機器及びコンピュータプログラム | |
CN111324699A (zh) | 语义匹配的方法、装置、电子设备及存储介质 | |
CN113782012B (zh) | 一种唤醒模型训练方法、唤醒方法及电子设备 | |
CN113948060A (zh) | 一种网络训练方法、数据处理方法及相关设备 | |
CN110990549B (zh) | 获取答案的方法、装置、电子设备及存储介质 | |
CN112488157B (zh) | 一种对话状态追踪方法、装置、电子设备及存储介质 | |
CN111292727B (zh) | 一种语音识别方法及电子设备 | |
CN112579734B (zh) | 一种发音预测方法及电子设备 | |
CN113707132B (zh) | 一种唤醒方法及电子设备 | |
KR20230075956A (ko) | 위치에 기반한 사용자 액션 추천 방법 및 전자 장치 | |
CN117094307A (zh) | 一种语句处理的方法和相关装置 | |
CN116959407A (zh) | 一种读音预测方法、装置及相关产品 | |
CN114281929A (zh) | 一种数据处理方法和相关装置 | |
CN116028632A (zh) | 一种领域语言模型的确定方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7026236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |