JP2020528625A - 翻訳方法、ターゲット情報決定方法および関連装置、記憶媒体 - Google Patents
翻訳方法、ターゲット情報決定方法および関連装置、記憶媒体 Download PDFInfo
- Publication number
- JP2020528625A JP2020528625A JP2020503957A JP2020503957A JP2020528625A JP 2020528625 A JP2020528625 A JP 2020528625A JP 2020503957 A JP2020503957 A JP 2020503957A JP 2020503957 A JP2020503957 A JP 2020503957A JP 2020528625 A JP2020528625 A JP 2020528625A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- source
- time
- translation
- translation vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
Description
本発明の実施例は、コンピュータ技術の分野に関し、特に、翻訳方法、ターゲット情報決定方法および関連装置、記憶媒体に関する。
まず、エンコーダモジュールS1は、ステップ101で、処理する必要があるセンテンスを入力し、その後、該エンコーダモジュールS1によってソースベクトル表示シーケンスを出力する。次に、全ての訳文が生成されるまで、注目度モジュールS2、過去未来モジュールS3、およびデコーダモジュールS4によって、次のステップを繰り返す。
例えば、ソースベクトル表示シーケンスに対応するソースコンテンツは、
ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得することと、
予め設定されたニューラルネットモデルを用いて、第3の翻訳ベクトルおよびソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることとを含むようにしてよい。
ソースベクトル表示シーケンスに基づいて、第2の時刻に対応する第3の翻訳ベクトルを取得することと、
予め設定されたニューラルネットワークモデルを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、第1の翻訳ベクトルを得ることと、
ソースコンテキストベクトルがソースベクトル表示シーケンスに現れる位置に基づいて、第2の翻訳ベクトルを取得し、ここで、第2の翻訳ベクトルは、第1の時刻に対応する第4の翻訳ベクトルを更新するためのものであり、第4の翻訳ベクトルは、予め設定されたニューラルネットワークモデルを用いて、第2の翻訳ベクトルとソースコンテキストベクトルを処理して得られたものである。
ゲート付き回帰型ユニットGRUを用いて、第3の翻訳ベクトルからソースコンテキストベクトルを減算して、第1の翻訳ベクトルを得ることを含むようにしてよい。
GRUはGated Recurrent Unitの略記であるということが理解される。
GRUを用いて、第3の翻訳ベクトルとソースコンテキストベクトルを処理して、中間ベクトルを得ることと、
中間ベクトルを第3の翻訳ベクトルと補間結合して、第1の翻訳ベクトルを得ることとを含むようにしてよい。
上記の操作を採用すれば、各時刻に過去翻訳ベクトルと未来翻訳ベクトルを得ることができ、
第2の時刻のデコーダの状態、第2の翻訳ベクトル、第3の翻訳ベクトル、およびソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアライメント確率を決定することと、
ソースコンテンツのアライメント確率およびソースコンテンツの意味ベクトルに基づいて、第1の時刻に対応するソースコンテキストベクトルを決定することとを含むようにしてよい。
つまり、次の式を用いて、アライメント確率αt,iを計算する。
ct=0.5×2+0.3×4+0.2×6=3.4
実際の応用では、アラインメント確率αt,iの計算方法は、さらに、
第2の翻訳ベクトルおよび第4の翻訳ベクトルに基づいて、過去翻訳ベクトルの変化と第1の時刻のターゲット情報との間の意味の一致性状況を表すための第2の指標の期待値を取得することと、
第1の指標の期待値および第2の指標の期待値に基づいて、予め設定されたニューラルネットワークモデルを構築するためのトレーニングターゲットを決定することとをさらに含むようにしてよい。
第1の指標の期待値は、以下のように計算することができる。
同様に,第2の指標の期待値は、
第1の指標の期待値および第2の指標の期待値に基づいて、トレーニングターゲットを次のように計算することができる。
デコーダは、
デコーダは、
入力センテンスを完全に翻訳するまで、これを類推する。
上記の実施例におけるターゲット情報決定装置によって実行されたステップは、図20に示すターゲット情報決定装置の構成に基づくものである。
300 ターゲット情報決定装置
301 符号化モジュール
302 第1の取得モジュール
303 第1の決定モジュール
304 復号化モジュール
305 第2の決定モジュール
306 第2の取得モジュール
307 第3の取得モジュール
308 第2の決定モジュール
322 中央プロセッサ
326 電源
330 記憶媒体
332 メモリ
341 オペレーティングシステム
342 アプリケーション
344 データ
350 有線または無線ネットワークインターフェース
358 入出力インターフェース
3021 第1の決定ユニット
3022 第2の決定ユニット
3031 第1の取得ユニット
3032 第1の処理ユニット
3033 第2の取得ユニット
3034 第2の処理ユニット
3035 第3の取得ユニット
3036 第4の取得ユニット
3041 復号化ユニット
30321 減算サブユニット
30322 処理サブユニット
30323 結合サブユニット
Claims (16)
- ニューラルネットワークマシン翻訳システムに適用される翻訳方法であって、
エンコーダが、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることであって、前記処理対象となるテキスト情報は、第1の言語に属することと、
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、
デコーダが、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることであって、前記ターゲット情報は、前記第1の言語とは異なる第2の言語に属するものであることとを含むことを特徴とする翻訳方法。 - 前記エンコーダが、処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることは、
前記処理対象となるテキスト情報を前記エンコーダに入力することと、
前記エンコーダが前記処理対象となるテキスト情報を符号化処理することと、
符号化処理の結果に基づいて、前記ソースベクトル表示シーケンスを取得することであって、前記ソースベクトル表示シーケンスにおける各ソースベクトルは、前記第1の言語に属することとを含むことを特徴とする請求項1に記載の方法。 - 前記デコーダが前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることは、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを前記デコーダに入力することと、
前記デコーダが前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理することと、
復号化処理の結果に基づいて、前記処理対象となるソースコンテンツの翻訳コンテンツを取得することであって、前記翻訳コンテンツは、前記第1の時刻のターゲット情報であることとを含むことを特徴とする請求項1または2に記載の方法。 - ターゲット情報決定方法であって、
処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることと、
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることとを含むことを特徴とするターゲット情報決定方法。 - 前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて第1の翻訳ベクトルを決定することは、
前記ソースベクトル表示シーケンスに基づいて、第3の翻訳ベクトルを取得することであって、前記第3の翻訳ベクトルは、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルであることと、
予め設定されたニューラルネットワークモデルを用いて、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることとを含むことを特徴とする請求項4に記載の方法。 - 前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて第1の翻訳ベクトルおよび第2の翻訳ベクトルを決定することは、
前記ソースベクトル表示シーケンスに基づいて、第3の翻訳ベクトルを取得するであって、前記第3の翻訳ベクトルは、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルであることと、
予め設定されたニューラルネットワークモデルを用いて、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることと、
前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の翻訳ベクトルを取得することであって、前記第2の翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである、第4の翻訳ベクトルを更新するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルが、前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して得られたものであることとを含むことを特徴とする請求項4に記載の方法。 - 前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて第2の翻訳ベクトルを決定することは、
前記ソースコンテキストベクトルが前記ソースベクトル表示シーケンスに現れる位置に基づいて、前記第2の翻訳ベクトルを取得することを含み、前記第2の翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第4の翻訳ベクトルを生成するためのものであり、前記第4の翻訳ベクトルは、前記予め設定されたニューラルネットワークモデルが、前記第2の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して得られたものであることを特徴とする請求項4に記載の方法。 - 前記予め設定されたニューラルネットワークモデルが、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることは、
ゲート付き回帰型ユニットが、前記第3の翻訳ベクトルから前記ソースコンテキストベクトルを減算して、前記第1の翻訳ベクトルを得ることを含むことを特徴とする請求項5または6に記載の方法。 - 前記予め設定されたニューラルネットワークモデルが、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、前記第1の翻訳ベクトルを得ることは、
ゲート付き回帰型ユニットが、前記第3の翻訳ベクトルおよび前記ソースコンテキストベクトルを処理して、中間ベクトルを得ることと、
前記中間ベクトルを前記第3の翻訳ベクトルと補間結合して、前記第1の翻訳ベクトルを得ることとを含むことを特徴とする請求項5または6に記載の方法。 - 前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することは、
前記第2の時刻のデコーダの状態、前記第2の翻訳ベクトル、第3の翻訳ベクトル、および前記ソースベクトル表示シーケンスにおけるソースコンテンツのベクトルに基づいて、ソースコンテンツのアライメント確率を決定することであって、前記第3の翻訳ベクトルは、前記第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルであることと、
前記ソースコンテンツのアライメント確率および前記ソースコンテンツの意味ベクトルに基づいて、前記第1の時刻に対応する前記ソースコンテキストベクトルを決定することとを含むことを特徴とする請求項4に記載の方法。 - 前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る前に、前記方法は、前記第2の時刻のデコーダの状態、前記第2の時刻のターゲット情報、前記ソースコンテキストベクトル、および前記翻訳ベクトルに基づいて、前記第1の時刻のデコーダの状態を決定することをさらに含み、
これに対応して、前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることは、前記第1の時刻のデコーダの状態、前記ソースコンテキストベクトル、および前記翻訳ベクトルを復号化処理して、前記第1の時刻のターゲット情報を得ることを含むことを特徴とする請求項4に記載の方法。 - 前記方法は、
前記第1の翻訳ベクトルおよび前記第3の翻訳ベクトルに基づいて、第1の指標の期待値を取得することであって、前記第1の指標の期待値は、未来翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味の一致性状況を表すためのものであることと、
前記第2の翻訳ベクトルおよび前記第4の翻訳ベクトルに基づいて、第2の指標の期待値を取得することであって、前記第2の指標の期待値は、過去翻訳ベクトルの変化と前記第1の時刻のターゲット情報との間の意味の一致性状況を表すためのものであることと、
前記第1の指標の期待値および前記第2の指標の期待値に基づいて、トレーニングターゲットを決定することであって、前記トレーニングターゲットは、予め設定されたニューラルネットワークモデルを構築するためのものであることとをさらに含むことを特徴とする請求項10または11に記載の方法。 - 少なくとも1つのメモリと、少なくとも1つのプロセッサとを備えるターゲット情報決定装置であって、前記少なくとも1つのメモリに少なくとも1つの命令モジュールが記憶され、前記少なくとも1つのプロセッサによって実行されるように配置され、前記少なくとも1つの命令モジュールは、
処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得る符号化モジュールと、
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得する第1の取得モジュールであって、前記第1の時刻に対応するソースコンテキストベクトルは、第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものである第1の取得モジュールと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定する第1の決定モジュールであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻である第1の決定モジュールと、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得る復号化モジュールとを備えることを特徴とするターゲット情報決定装置。 - メモリと、プロセッサと、バスシステムとを備えるターゲット情報決定装置であって、前記メモリは、プログラムを記憶するためのものであり、前記プロセッサは、前記メモリにおけるプログラムを実行するためのものであり、
処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得るステップと、
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得するステップであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであるステップと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定するステップであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であるステップと、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得るステップとを含み、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるためのものであることを特徴とするターゲット情報決定装置。 - コンピュータで実行される場合、請求項1〜12に記載の方法を実行させる命令を含むコンピュータ読み取り可能な記憶媒体。
- 電子デバイスによって実行されるターゲット情報決定方法であって、
処理対象となるテキスト情報を符号化処理して、ソースベクトル表示シーケンスを得ることと、
前記ソースベクトル表示シーケンスに基づいて、第1の時刻に対応するソースコンテキストベクトルを取得することであって、前記第1の時刻に対応するソースコンテキストベクトルは、前記第1の時刻での前記処理対象となるテキスト情報における処理対象となるソースコンテンツを指示するためのものであることと、
前記ソースベクトル表示シーケンスおよび前記ソースコンテキストベクトルに基づいて翻訳ベクトルを決定することであって、前記翻訳ベクトルは、第1の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されていないソースコンテンツに対応するベクトルである第1の翻訳ベクトル、および/または、第2の時刻における、前記ソースベクトル表示シーケンスにおける翻訳されたソースコンテンツに対応するベクトルである第2の翻訳ベクトルを含み、前記第2の時刻は、前記第1の時刻に隣接する一つ前の時刻であることと、
前記翻訳ベクトルおよび前記ソースコンテキストベクトルを復号化処理して、第1の時刻のターゲット情報を得ることとを含む
ことを特徴とするターゲット情報決定方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710612833.7 | 2017-07-25 | ||
CN201710612833.7A CN107368476B (zh) | 2017-07-25 | 2017-07-25 | 一种翻译的方法、目标信息确定的方法及相关装置 |
PCT/CN2018/095231 WO2019019916A1 (zh) | 2017-07-25 | 2018-07-11 | 翻译的方法、目标信息确定的方法及相关装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020528625A true JP2020528625A (ja) | 2020-09-24 |
JP7025090B2 JP7025090B2 (ja) | 2022-02-24 |
Family
ID=60306920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503957A Active JP7025090B2 (ja) | 2017-07-25 | 2018-07-11 | 翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (2) | US11928439B2 (ja) |
EP (1) | EP3660707A4 (ja) |
JP (1) | JP7025090B2 (ja) |
KR (1) | KR102382499B1 (ja) |
CN (1) | CN107368476B (ja) |
WO (1) | WO2019019916A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022102364A1 (ja) * | 2020-11-13 | 2022-05-19 | 株式会社Nttドコモ | 文生成モデル生成装置、文生成モデル及び文生成装置 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101328745B1 (ko) * | 2011-06-13 | 2013-11-20 | (주)우남케미칼 | 예비발포입자 제조 시스템 |
CN107368476B (zh) * | 2017-07-25 | 2020-11-03 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN108363763B (zh) * | 2018-02-05 | 2020-12-01 | 深圳市腾讯计算机系统有限公司 | 一种自动问答方法、装置和存储介质 |
CN108197123A (zh) * | 2018-02-07 | 2018-06-22 | 云南衍那科技有限公司 | 一种基于智能手表的云翻译系统和方法 |
CN110134971B (zh) | 2018-02-08 | 2022-12-16 | 腾讯科技(深圳)有限公司 | 一种机器翻译的方法、设备以及计算机可读存储介质 |
CN108388549B (zh) | 2018-02-26 | 2021-02-19 | 腾讯科技(深圳)有限公司 | 信息转换方法、装置、存储介质和电子装置 |
CN110489761B (zh) * | 2018-05-15 | 2021-02-02 | 科大讯飞股份有限公司 | 一种篇章级文本翻译方法及装置 |
CN108984539B (zh) * | 2018-07-17 | 2022-05-17 | 苏州大学 | 基于模拟未来时刻的翻译信息的神经机器翻译方法 |
CN109062897A (zh) * | 2018-07-26 | 2018-12-21 | 苏州大学 | 基于深度神经网络的句子对齐方法 |
CN109274814B (zh) * | 2018-08-20 | 2020-10-23 | 维沃移动通信有限公司 | 一种消息提示方法、装置及终端设备 |
CN109271646B (zh) * | 2018-09-04 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、可读存储介质和计算机设备 |
CN109146064B (zh) * | 2018-09-05 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、计算机设备和存储介质 |
CN109446534B (zh) * | 2018-09-21 | 2020-07-31 | 清华大学 | 机器翻译方法及装置 |
CN111428516B (zh) * | 2018-11-19 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法以及装置 |
CN109543199B (zh) * | 2018-11-28 | 2022-06-10 | 腾讯科技(深圳)有限公司 | 一种文本翻译的方法以及相关装置 |
CN109858045B (zh) * | 2019-02-01 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 机器翻译方法和装置 |
CN109933809B (zh) * | 2019-03-15 | 2023-09-15 | 北京金山数字娱乐科技有限公司 | 一种翻译方法及装置、翻译模型的训练方法及装置 |
CN111783435A (zh) * | 2019-03-18 | 2020-10-16 | 株式会社理光 | 共享词汇的选择方法、装置及存储介质 |
CN110110337B (zh) * | 2019-05-08 | 2023-04-18 | 网易有道信息技术(北京)有限公司 | 翻译模型训练方法、介质、装置和计算设备 |
CN110472255B (zh) * | 2019-08-20 | 2021-03-02 | 腾讯科技(深圳)有限公司 | 神经网络机器翻译方法、模型、电子终端以及存储介质 |
CN111209395B (zh) * | 2019-12-27 | 2022-11-11 | 铜陵中科汇联科技有限公司 | 一种短文本相似度计算系统及其训练方法 |
CN111597829B (zh) * | 2020-05-19 | 2021-08-27 | 腾讯科技(深圳)有限公司 | 翻译方法和装置、存储介质和电子设备 |
US11741317B2 (en) * | 2020-05-25 | 2023-08-29 | Rajiv Trehan | Method and system for processing multilingual user inputs using single natural language processing model |
CN114254660A (zh) * | 2020-09-22 | 2022-03-29 | 北京三星通信技术研究有限公司 | 多模态翻译方法、装置、电子设备及计算机可读存储介质 |
KR20220056004A (ko) * | 2020-10-27 | 2022-05-04 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
KR20230135990A (ko) * | 2022-03-17 | 2023-09-26 | 주식회사 아론티어 | 트랜스포머와 원자 환경을 이용한 역합성 번역 방법 및 이를 수행하기 위한 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106372058A (zh) * | 2016-08-29 | 2017-02-01 | 中译语通科技(北京)有限公司 | 一种基于深度学习的短文本情感要素抽取方法及装置 |
CN106672058A (zh) * | 2015-11-08 | 2017-05-17 | 匡桃红 | 婴儿车无晃动收合关节 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2612404C (en) * | 2005-06-17 | 2014-05-27 | National Research Council Of Canada | Means and method for adapted language translation |
US9471565B2 (en) * | 2011-07-29 | 2016-10-18 | At&T Intellectual Property I, L.P. | System and method for locating bilingual web sites |
SG11201404225WA (en) * | 2012-01-27 | 2014-08-28 | Nec Corp | Term translation acquisition method and term translation acquisition apparatus |
JP6296592B2 (ja) * | 2013-05-29 | 2018-03-20 | 国立研究開発法人情報通信研究機構 | 翻訳語順情報出力装置、機械翻訳装置、学習装置、翻訳語順情報出力方法、学習方法、およびプログラム |
JP2014235599A (ja) * | 2013-06-03 | 2014-12-15 | 独立行政法人情報通信研究機構 | 翻訳装置、学習装置、翻訳方法、およびプログラム |
US9535960B2 (en) * | 2014-04-14 | 2017-01-03 | Microsoft Corporation | Context-sensitive search using a deep learning model |
US9846836B2 (en) * | 2014-06-13 | 2017-12-19 | Microsoft Technology Licensing, Llc | Modeling interestingness with deep neural networks |
WO2016065327A1 (en) * | 2014-10-24 | 2016-04-28 | Google Inc. | Neural machine translation systems with rare word processing |
US9778929B2 (en) * | 2015-05-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automated efficient translation context delivery |
CN105068998B (zh) * | 2015-07-29 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 基于神经网络模型的翻译方法及装置 |
CN106484682B (zh) * | 2015-08-25 | 2019-06-25 | 阿里巴巴集团控股有限公司 | 基于统计的机器翻译方法、装置及电子设备 |
CN106484681B (zh) * | 2015-08-25 | 2019-07-09 | 阿里巴巴集团控股有限公司 | 一种生成候选译文的方法、装置及电子设备 |
US9792534B2 (en) * | 2016-01-13 | 2017-10-17 | Adobe Systems Incorporated | Semantic natural language vector space |
US11449744B2 (en) * | 2016-06-23 | 2022-09-20 | Microsoft Technology Licensing, Llc | End-to-end memory networks for contextual language understanding |
US10706351B2 (en) * | 2016-08-30 | 2020-07-07 | American Software Safety Reliability Company | Recurrent encoder and decoder |
US20180197080A1 (en) * | 2017-01-11 | 2018-07-12 | International Business Machines Corporation | Learning apparatus and method for bidirectional learning of predictive model based on data sequence |
KR102637338B1 (ko) * | 2017-01-26 | 2024-02-16 | 삼성전자주식회사 | 번역 보정 방법 및 장치와 번역 시스템 |
US10839790B2 (en) * | 2017-02-06 | 2020-11-17 | Facebook, Inc. | Sequence-to-sequence convolutional architecture |
CN107092664B (zh) * | 2017-03-30 | 2020-04-28 | 华为技术有限公司 | 一种内容解释方法及装置 |
KR102329127B1 (ko) * | 2017-04-11 | 2021-11-22 | 삼성전자주식회사 | 방언을 표준어로 변환하는 방법 및 장치 |
US10733380B2 (en) * | 2017-05-15 | 2020-08-04 | Thomson Reuters Enterprise Center Gmbh | Neural paraphrase generator |
CN108959312B (zh) * | 2017-05-23 | 2021-01-29 | 华为技术有限公司 | 一种多文档摘要生成的方法、装置和终端 |
CN107368476B (zh) * | 2017-07-25 | 2020-11-03 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN110309839B (zh) * | 2019-08-27 | 2019-12-03 | 北京金山数字娱乐科技有限公司 | 一种图像描述的方法及装置 |
-
2017
- 2017-07-25 CN CN201710612833.7A patent/CN107368476B/zh active Active
-
2018
- 2018-07-11 KR KR1020207002392A patent/KR102382499B1/ko active IP Right Grant
- 2018-07-11 WO PCT/CN2018/095231 patent/WO2019019916A1/zh unknown
- 2018-07-11 EP EP18837956.4A patent/EP3660707A4/en not_active Ceased
- 2018-07-11 JP JP2020503957A patent/JP7025090B2/ja active Active
-
2020
- 2020-01-22 US US16/749,243 patent/US11928439B2/en active Active
-
2023
- 2023-12-20 US US18/390,153 patent/US20240169166A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106672058A (zh) * | 2015-11-08 | 2017-05-17 | 匡桃红 | 婴儿车无晃动收合关节 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106372058A (zh) * | 2016-08-29 | 2017-02-01 | 中译语通科技(北京)有限公司 | 一种基于深度学习的短文本情感要素抽取方法及装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022102364A1 (ja) * | 2020-11-13 | 2022-05-19 | 株式会社Nttドコモ | 文生成モデル生成装置、文生成モデル及び文生成装置 |
Also Published As
Publication number | Publication date |
---|---|
US11928439B2 (en) | 2024-03-12 |
EP3660707A1 (en) | 2020-06-03 |
CN107368476A (zh) | 2017-11-21 |
CN107368476B (zh) | 2020-11-03 |
KR20200019740A (ko) | 2020-02-24 |
JP7025090B2 (ja) | 2022-02-24 |
KR102382499B1 (ko) | 2022-04-01 |
EP3660707A4 (en) | 2020-08-05 |
US20200226328A1 (en) | 2020-07-16 |
US20240169166A1 (en) | 2024-05-23 |
WO2019019916A1 (zh) | 2019-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7025090B2 (ja) | 翻訳方法、ターゲット情報決定方法および関連装置、ならびにコンピュータプログラム | |
CN109117483B (zh) | 神经网络机器翻译模型的训练方法及装置 | |
CN112487182A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN111401084B (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN107967262A (zh) | 一种神经网络蒙汉机器翻译方法 | |
US20190147853A1 (en) | Quantized dialog language model for dialog systems | |
CN111144140B (zh) | 基于零次学习的中泰双语语料生成方法及装置 | |
JP7395553B2 (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
WO2023241410A1 (zh) | 数据处理方法、装置、设备及计算机介质 | |
CN111191468B (zh) | 术语替换方法及装置 | |
US10643028B1 (en) | Transliteration of text entry across scripts | |
CN111626065A (zh) | 神经机器翻译模型的训练方法、装置及存储介质 | |
US20180173689A1 (en) | Transliteration decoding using a tree structure | |
JP2023002690A (ja) | セマンティックス認識方法、装置、電子機器及び記憶媒体 | |
CN108388549B (zh) | 信息转换方法、装置、存储介质和电子装置 | |
CN114330372A (zh) | 一种模型训练的方法、相关装置及设备 | |
US10810380B2 (en) | Transliteration using machine translation pipeline | |
CN111178097B (zh) | 基于多级翻译模型生成中泰双语语料的方法及装置 | |
CN115357710B (zh) | 表格描述文本生成模型的训练方法、装置及电子设备 | |
CN110852066B (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
WO2023061107A1 (zh) | 基于层预测的语言翻译的方法、设备、装置和介质 | |
CN113408303B (zh) | 翻译模型的训练与翻译方法、装置 | |
CN116306612A (zh) | 一种词句生成方法及相关设备 | |
CN114841175A (zh) | 机器翻译方法、装置、设备及存储介质 | |
CN110442706B (zh) | 一种文本摘要生成的方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7025090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |