JP7121106B2 - 構文線形性に基づく言語変換方法および装置 - Google Patents

構文線形性に基づく言語変換方法および装置 Download PDF

Info

Publication number
JP7121106B2
JP7121106B2 JP2020202351A JP2020202351A JP7121106B2 JP 7121106 B2 JP7121106 B2 JP 7121106B2 JP 2020202351 A JP2020202351 A JP 2020202351A JP 2020202351 A JP2020202351 A JP 2020202351A JP 7121106 B2 JP7121106 B2 JP 7121106B2
Authority
JP
Japan
Prior art keywords
vector
source
character
mask
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020202351A
Other languages
English (en)
Other versions
JP2021099797A (ja
Inventor
ルイキン チャン,
チュァンキャン チャン,
ハオ ション,
チョンジュン ヘ,
ファ ウー,
ハイフェン ワン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021099797A publication Critical patent/JP2021099797A/ja
Application granted granted Critical
Publication of JP7121106B2 publication Critical patent/JP7121106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Description

本出願は、コンピュータ技術分野に関し、特に自然言語処理(Natural Language Processing、NLP)技術分野に関し、より具体的には、構文線形性に基づく言語変換方法および装置に関する。
現在の翻訳モデルでは、翻訳結果の精度を向上させるために、通常、翻訳のプロセスにおいて複数の翻訳結果を生成し、次に各翻訳結果に対応するアラインメント情報に基づいて、複数の翻訳結果からアラインメント情報が前方対角線に最も近い結果を選別して、最終的な翻訳結果として出力する。
しかしながら、翻訳モデルのトレーニングコーパスは、ほとんどが倒置構文を含む翻訳データであるため、翻訳候補を拡大することによって得られた翻訳結果であっても、倒置、受動態などの文が現れると、通常は倒置の方式で翻訳を実行するため、文の翻訳遅延を引き起こすのみならず、非構文線形性の翻訳となるため、ユーザ体験に影響を与える。
本出願は、関連技術において翻訳モデルにおける翻訳遅延および非構文線形性翻訳の課題を解決するために、構文線形性に基づく言語変換方法および装置を提供する。
本出願の第1の態様の実施例は、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するステップと、予め設定されたルールに基づいて、前記エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するステップと、現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するステップと、予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップと、を含む構文線形性に基づく言語変換方法を提供する。
本出願の実施例に係る構文線形性に基づく言語変換方法は、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定し、予め設定されたルールに基づいて、エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定し、現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定し、その後、予め設定されたデコーダを用いて、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、第1のソースキャラクタに対応する目標キャラクタを生成する。これにより、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御し、翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果を達成し、翻訳遅延を低減することができる。
本出願の第2の態様の実施例は、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するように構成される第1の決定モジュールと、予め設定されたルールに基づいて、前記エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するように構成される第2の決定モジュールと、現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するように構成される第3の決定モジュールと、予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するように構成される生成モジュールと、を含む構文線形性に基づく言語変換装置を提供する。
本出願の実施例に係る構文線形性に基づく言語変換装置は、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定し、予め設定されたルールに基づいて、エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定し、現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定し、その後、予め設定されたデコーダを用いて、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、第1のソースキャラクタに対応する目標キャラクタを生成する。これにより、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御し、翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果を達成し、翻訳遅延を低減することができる。
本出願の第3の態様の実施例は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが上記第1の態様の実施例に記載の構文線形性に基づく言語変換方法を実行可能である電子機器を提供する。
本出願の第4の態様の実施例は、コンピュータ命令を格納する非一時的コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令が実行される場合、前記コンピュータに上記第1の態様の実施例に記載の構文線形性に基づく言語変換方法を実行させる非一時的コンピュータ読み取り可能な記憶媒体を提供する。
本開示の第5の態様の実施例は、コンピュータプログラムであって、前記コンピュータプログラムが実行される場合、前記コンピュータに上記第1の態様の実施例に記載の構文線形性に基づく言語変換方法を実行させるコンピュータプログラムを提供する。
上記の実施例は、以下の有益な効果を奏する。上記の実施例は、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御し、翻訳結果には前方対角線のアラインメント情報を有することを確保し、構文線形性の翻訳結果を達成し、翻訳遅延を低減することができる。デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御するという技術的手段が用いられるため、関連技術において翻訳モデルにおける翻訳遅延および非構文線形性翻訳の課題を解決し、構文線形性翻訳結果を達成し、翻訳遅延を低減することができるという技術的効果を奏する。
上記選択可能な形態が奏する他の効果について、具体的な実施例と組み合わせて以下に説明する。
図面は本技術案をよりよく理解するために用いられるものであり、本出願を限定するものではない。
本出願の実施例に係る構文線形性に基づく言語変換方法のフローチャートである。 本出願の実施例に係る他の構文線形性に基づく言語変換方法のフローチャートである。 本出願の実施例に係る他の構文線形性に基づく言語変換方法のフローチャートである。 本出願の実施例に係る他の構文線形性に基づく言語変換方法のフローチャートである。 本出願の実施例に係る構文線形性に基づく言語変換装置の概略構成図である。 本出願の実施例に係る構文線形性に基づく言語変換方法に係る電子機器のブロック図である。
以下、図面を参照しながら本出願の例示的な実施例を説明する。理解を促すために本出願の実施例の様々な詳細が含まれているが、これらの詳細は単なる例示であると考慮すべきである。従って、当業者であれば、本出願の範囲および趣旨から逸脱しない限り、ここで説明された実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確且つ簡潔のために、以下の説明では、公知の機能および構造についての説明は省略される。
次に、図面を参照しながら、本出願の実施例に係る構文線形性に基づく言語変換方法および装置を説明する。
一部の適用シーンでは、同時翻訳のような構文線形性翻訳を実行する必要があり、同時翻訳は、ソース言語を高品質且つ低遅延で目標言語のセンテンスに翻訳することを目的としており、構文線形性、即ちソース言語の単語順および語順に従って翻訳することはその基本的な原則である。しかしながら、現在の機械翻訳では構文線形性翻訳結果を保証することができない。
本出願の実施例では、関連技術において倒置、受動態などの文が存在する場合に、翻訳モデルは、通常、倒置の方式で翻訳するため、文の翻訳遅延を引き起こすだけではなく、非構文線形性翻訳の問題があるため、構文線形性に基づく言語変換方法を提供している。
本出願の実施例に係る構文線形性に基づく言語変換方法は、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御している。このため、翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果を達成し、翻訳遅延を低減することができる。
図1は、本出願の実施例に係る構文線形性に基づく言語変換方法のフローチャートである。
本出願の実施例に係る構文線形性に基づく言語変換方法は、本出願の実施例に係る構文線形性に基づく言語変換装置によって実行可能である。該装置は、構文線形性翻訳を実現するように、電子機器内に配置することができる。
図1に示すように、該構文線形性に基づく言語変換方法は、以下のステップ101~ステップ104を含む。
ステップ101において、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定する。
本実施例において、予め設定されたエンコーダはマルチヘッドアテンション層およびフィードフォワードリバースネットワークを含んでもよく、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを用いてソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを得る。
第1のベクトルがキーベクトル、第2のベクトルが値ベクトルであってもよいし、第1のベクトルが値ベクトル、第2のベクトルがキーベクトルであってもよい。
ステップ102において、予め設定されたルールに基づいて、エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定する。
本実施例において、ソースキャラクタを翻訳するたびに、現在の翻訳対象ソースキャラクタに対応するマスクベクトルを決定し、マスクベクトルを用いてエンコーダによって出力された第1のベクトルおよび第2のベクトルを修正することによって、翻訳モデル内のアテンションを制御する。
マスクベクトルの長さは、ソースセンテンス内のキャラクタの数と同じである。
例えば、長さLのマスクベクトルは[-c,-c,…,-c、0,0,…,0,-c,-c,…,-c]として表される。cが整数であり、Cの値は予め設定された経験値である。以上から分かるように、該マスクベクトルは3つの部分を含み、第1の部分は、要素0より前のL個の要素-cであり、第2の部分は、連続するL個の要素0であり、第3の部分は、L個の要素-cである。翻訳目標キャラクタの位置が異なる場合、L、L、Lの値は変更可能である。
ステップ103において、第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定する。
第1のソースキャラクタは、現在の翻訳対象ソースキャラクタである。
翻訳時に、翻訳効果を向上させるために、すでに翻訳された目標言語のキャラクタに基づいて、次のキャラクタを翻訳することができる。本実施例では、第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに対してベクトル表示を行って、第3のベクトルを取得することができる。即ち、ソースセンテンスを翻訳することによって得られた目標言語のキャラクタに基づいて、第3のベクトルを決定する。
具体的には、翻訳して得られた各目標言語のキャラクタに対してベクトルマッピングを行って単語ベクトルを取得し、その後、すべての単語ベクトルを統合して、第3のベクトルを得る。
ステップ104において、予め設定されたデコーダを用いて、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、第1のソースキャラクタに対応する目標キャラクタを生成する。
本実施例では、予め設定されたデコーダは、マルチヘッドアテンション層を含んでもよく、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルをマルチヘッドアテンション層の入力として、デコーダを用いて復号して、第1のソースキャラクタに対応する目標言語の目標キャラクタが得られる。即ち、ソース言語の第1のソースキャラクタを目標言語の目標キャラクタに変換する。これにより、アテンションにマスクベクトルを追加することによって、翻訳モデルのアテンションを制御することができるため、翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果が得られる。
本実施例において、マスクベクトルは、エンコーダによって出力されたベクトルの修正に用いられ、翻訳のプロセスにおいて、マスクベクトルを用いて、ソースセンテンスの現在の翻訳対象ソースキャラクタより後のキャラクタを遮蔽することで、倒置の翻訳が回避される。このため、翻訳モデルは、ソースセンテンスの言語の単語順および語順に従って翻訳し、構文線形性翻訳を得ることができる。
本出願の実施例に係る構文線形性に基づく言語変換方法は、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御する。翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果を達成し、翻訳遅延を低減することができる。
本出願の一実施例において、現在のマスクベクトルを決定する上記ステップは、各値要素の数に対応する異なる位置のソースキャラクタを予め規定することができるため、第1のソースキャラクタのソースセンテンスにおける位置およびソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数が決定される。
具体的には、ソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトルの長さを決定することができ、予め規定された異なる位置のソースキャラクタと、マスクベクトル内の各値要素の数との対応関係に基づいて、第1のソースキャラクタの位置に対応するマスクベクトル内の各値要素の数を決定し、マスクベクトル内の各値要素の数に基づいて、現在のマスクベクトルを決定することができる。
例えば、ソースセンテンスがL個のキャラクタを含む場合、マスクベクトルの長さはLであり、マスクベクトルは[-c,-c,…,-c、0,0,…,0,-c,-c,…,-c]として表され、該マスクベクトルにおいて、要素0より前の-cの数Lはであり、連続する要素0の数はLであり、要素0より後の-cの数はLであり、L+L+L=L。これにより、予め規定された異なる位置のソースキャラクタに対応するL、L、Lの値に基づいて、翻訳対象ソースキャラクタの位置に対応するL、L、Lの値が決定され、従って、L、L、Lの値に基づいて翻訳対象ソースキャラクタに対応するマスクベクトルが決定される。
即ち、異なるL、L、Lなどの値に対応するように、異なる位置のソースキャラクタを直接規定することができ、つまり、L、L、Lの値は直接規定されたものであり、第1のソースキャラクタの位置に基づいてL、L、Lの値を得ることができるため、計算量を削減することができる。
なお、上記マスクベクトルがL、L、Lの3つの部分を含むことは単なる例示に過ぎず、本出願の実施例を制限するものと見なすべきではない。
本出願の実施例において、第1のソースキャラクタのソースセンテンスにおける位置およびソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定し、各値要素の数に基づいて、マスクベクトルを決定する。
本出願の一実施例において、マスクベクトル内の各値要素の数は、翻訳によって生成された目標キャラクタの数に応じて動的に更新することもできる。
具体的には、第1のソースキャラクタのソースセンテンスにおける位置、ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定する。
例えば、マスクベクトルは[-c,-c,…,-c、0,0,…,0,-c,-c,…,-c]として表され、該マスクベクトルにおいて、要素0より前の-cの数はL、連続する要素0の数はL、要素0より後の-cの数はLである。L、L、Lの値は、以下の方法によって決定される。
ソースセンテンスの始まり:L=0、L=4+length(dec)、L=length(source)、
ソースセンテンスの途中:L=length(dec)-5、L=7、L=length(source)-L-L
ソースセンテンスの終わり:L=length(source)-5、L=5、L=0。
ここで、length(source)は、ソースセンテンスに含まれるキャラクタの数を示し、length(dec)は、生成された目標言語キャラクタの数を示す。以上から分かるように、第1のキャラクタのソースセンテンスにおける位置、例えば、ソースセンテンスの始まり、途中、終わりに基づいて、対応するL、L、Lの値を取得する方式が決定され、具体的な値は、ソースセンテンスに含まれるキャラクタの数、および生成された目標言語キャラクタの数によって決定される。
なお、上記はL、L、Lを決定する1つの方法に過ぎず、必要に応じてL、L、Lの計算方法を調整してもよい。
本出願の実施例において、現在のマスクベクトルを決定する際に、第1のソースキャラクタのソースセンテンスにおける位置、ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定することができるため、復号のプロセスにおいて、生成された目標言語キャラクタの数に基づいてマスクベクトルを決定することによって、マスクベクトルは、復号の進行とともに動的に変化することができ、マスクベクトルの精度が向上する。
構文線形性翻訳結果の精度を向上させるために、本出願の一実施例において、複数のマスクベクトルを取得することができ、複数のマスクベクトルに基づいて複数の翻訳結果を取得し、その中から最終的な翻訳結果を選択する。以下、図2を参照しながら説明する。図2は、本出願の実施例に係る他の構文線形性に基づく言語変換方法のフローチャートである。
図2に示すように、該構文線形性に基づく言語変換方法は、以下のステップ201~ステップ205を含む。
ステップ201において、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定する。
本実施例において、ステップ201は、上記ステップ101と同様であるため、ここでは説明を省略する。
ステップ202において、予め設定されたルールに基づいて、現在の少なくとも2セットのマスクベクトルを決定する。
本実施例において、2つ以上の方式によって、マスクベクトル内の各値要素の数を決定して、2セット以上のマスクベクトルを得ることができる。
例えば、異なる位置のソースキャラクタが異なる各値要素の数に対応するという予め規定された方式に基づいて、1セットのマスクベクトルを決定し、第1のソースキャラクタのソースセンテンスにおける位置およびソースセンテンスに含まれるキャラクタの数に基づいて、他の1セットのマスクベクトルを決定することによって、2セットのマスクベクトルを得る。
ステップ203において、第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定する。
本実施例において、ステップ203は、上記ステップ103と同様であるため、ここでは説明を省略する。
ステップ204において、予め設定されたデコーダを用いて、少なくとも2セットのマスクベクトルをそれぞれ第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成する。
本実施例において、少なくとも2セットのマスクベクトルが得られており、予め設定されたデコーダを用いて、各セットのマスクベクトルを第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、対応する目標言語キャラクタ候補を生成する。これにより、少なくとも2セットのマスクベクトルに基づいて、対応する少なくとも2つの目標言語キャラクタ候補を生成することができる。
ステップ205において、少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、第1のソースキャラクタに対応する目標キャラクタとする。
上記では少なくとも2つの目標言語キャラクタ候補が得られたため、その中から最終的なキャラクタを第1のキャラクタに対応する翻訳結果として選択する必要がある。
目標言語のキャラクタに対応するアテンション値が高いほど、翻訳対象ソースキャラクタと目標言語のキャラクタとのアライメントの度合いが良好であることを表し、構文線形性翻訳である可能性が高い。そのため、本実施例において、少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、第1のソースキャラクタに対応する目標キャラクタとすることができる。
具体的には、Attention(q,k,v)=soft max((kq+mask)/√d)vの式によってテンション値を算出することができる。
ここで、Attention(q,k,v)はアテンション値であり、kはキーベクトルを表し、vは値ベクトルを表し、qは生成された目標言語キャラクタのベクトル、即ち第3のベクトルを表し、maskはマスクベクトルを表し、dは翻訳モデルの隠れ層の次元を表す。kが第1のベクトルを表す場合、vは第2のベクトルである。
本出願の実施例に係る構文線形性に基づく言語変換方法は、少なくとも2セットのマスクベクトルを決定し、前記少なくとも2セットのマスクベクトルをそれぞれ第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成し、アテンション値に基づいて、少なくとも2つの目標言語キャラクタ候補から、アテンション値が最も高いキャラクタを選択して、前記第1のソースキャラクタに対応する目標キャラクタとする。これにより、複数セットのマスクベクトルによって生成された複数の目標言語キャラクタ候補から、翻訳対象ソースキャラクタのアライメントの度合いが最も良好であるキャラクタを選択して目標キャラクタとすることができ、構文線形性翻訳の精度が向上する。
本出願の一実施例において、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを予め設定されたデコーダに入力して復号する場合には、図3に示す方式で実現することができる。図3は、本出願の実施例に係る他の構文線形性に基づく言語変換方法のフローチャートである。
図3に示すように、予め設定されたデコーダを用いて、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号し、第1のソースキャラクタに対応する目標キャラクタを生成する上記ステップは、以下のステップ301~ステップ304を含む。
ステップ301において、第1のベクトルと第3のベクトルの転置ベクトルとのクロス積を求めて、クロス積ベクトルを生成する。
本実施例において、まず、第3のベクトルを転置して第3のベクトルの転置ベクトルを得た後、第1のベクトルと第3のベクトルの転置ベクトルとのクロス積を求め、クロス積を求めて得られたベクトルは、クロス積ベクトルという。クロス積ベクトルとマスクベクトルとの次元は同じである。
ステップ302において、マスクベクトルとクロス積ベクトルとを加算して、第4のベクトルを生成する。
クロス積ベクトルが得られた後、マスクベクトルとクロス積ベクトルとを加算し、即ち2つのベクトル内の対応する位置の要素を加算して、第4のベクトルを得る。
ステップ303において、第4のベクトルおよび第2のベクトルに対してマルチヘッドアテンション計算を行って、第1のソースキャラクタに対応するアテンション値を生成する。
第4のベクトルが得られた後、第4のベクトル、第2のベクトルおよびモデルの隠れ層の次元に基づいて、第1のソースキャラクタに対応するアテンション値を算出することができる。
具体的には、Attention(q,k,v)=soft max((kq+mask)/√d)vという上記の式によって計算することができる。kはアテンション値であり、vは第1のベクトルを表し、qは第2のベクトルを表し、qは第3のベクトルを表し、maskはマスクベクトルを表し、dは翻訳モデルの隠れ層の次元を表す。
ステップ304において、アテンション値を復号して、第1のソースキャラクタに対応する目標キャラクタを決定する。
アテンション値が得られた後、アテンション値を復号し、復号して得られたキャラクタを第1のソースキャラクタに対応する目標キャラクタとする。具体的には、従来の復号方法を用いても良く、ここでは説明を省略する。
本出願の実施例に係る構文線形性に基づく言語変換方法は、マスクベクトルを用いて、エンコーダによって出力されたベクトルを修正し、アテンション計算にマスクベクトルを導入し、マスクベクトルを利用してソースセンテンス内の現在の翻訳対象ソースキャラクタより後のキャラクタを遮蔽することによって、デコーダが、現在の翻訳対象ソースキャラクタより前のキャラクタおよび生成された目標言語のキャラクタに基づいて、現在の翻訳対象ソースキャラクタに対応する目標言語キャラクタを生成することができ、構文線形性翻訳結果が得られるとともに、翻訳遅延が低減される。
本出願の一実施例では、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定する場合、図4の方法によって第1のベクトルおよび第2のベクトルを取得することができる。図4は、本出願の実施例に係る他の構文線形性に基づく言語変換方法のフローチャートである。
図4に示すように、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定する上記ステップは、以下ステップ401とステップ402とを含む。
ステップ401において、変換対象ソースセンテンスに対してベクトルマッピングを行って、ソースセンテンスに対応するソースベクトルを決定する。
本実施例では、変換対象ソースセンテンスに対してベクトルマッピングを行って、ソースセンテンスに対応する単語ベクトルおよび位置ベクトルを得た後、単語ベクトルと位置ベクトルとを加算して、ソースセンテンスに対応するソースベクトルを得る。
ステップ402において、ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成する。
ソースセンテンスに対応するソースベクトルが得られた後、ソースベクトルに対してマルチヘッドアテンション計算を行って1つのベクトルが得られてから、該ベクトルに対してそれぞれ異なるパラメータの線形変換を行い、ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成する。
本出願の実施例において、変換対象ソースセンテンスに対してベクトルマッピングを行って、ソースセンテンスに対応するソースベクトルを決定し、ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成することによって、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを得ることができる。
上記実施例を実現するために、本出願の実施例は構文線形性に基づく言語変換装置をさらに提供する。図5は、本出願の実施例に係る構文線形性に基づく言語変換装置の概略構成図である。
図5に示すように、該構文線形性に基づく言語変換装置500は、第1の決定モジュール510、第2の決定モジュール520、第3の決定モジュール530、および生成モジュール540を含む。
第1の決定モジュール510は、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するように構成される。
第2の決定モジュール520は、予め設定されたルールに基づいて、エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するように構成される。
第3の決定モジュール530は、現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するように構成される。
生成モジュール540は、予め設定されたデコーダを用いて、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、第1のソースキャラクタに対応する目標キャラクタを生成するように構成される。
本出願の実施例の可能な一実施形態では、上記第2の決定モジュール520は、具体的には、第1のソースキャラクタのソースセンテンスにおける位置およびソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するように構成される。
本出願の実施例の可能な一実施形態では、上記第2の決定モジュール520は、具体的には、第1のソースキャラクタのソースセンテンスにおける位置、ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するように構成される。
本出願の実施例の可能な一実施形態では、上記第2の決定モジュール520は、具体的には、予め設定されたルールに基づいて、現在の少なくとも2セットのマスクベクトルを決定するように構成される。
上記生成モジュール540は、具体的には、予め設定されたデコーダを用いて、少なくとも2セットのマスクベクトルをそれぞれ第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成し、少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、第1のソースキャラクタに対応する目標キャラクタとするように構成される。
本出願の実施例の可能な一実施形態では、上記生成モジュール540は、具体的には、第1のベクトルと第3のベクトルの転置ベクトルとのクロス積を求めて、クロス積ベクトルを生成し、マスクベクトルとクロス積ベクトルとを加算して、第4のベクトルを生成し、第4のベクトルおよび第2のベクトルに対してマルチヘッドアテンション計算を行って、第1のソースキャラクタに対応するアテンション値を生成し、
アテンション値を復号して、第1のソースキャラクタに対応する目標キャラクタを決定するように構成される。
本出願の実施例の可能な一実施形態では、上記第1の決定モジュール510は、具体的には、変換対象ソースセンテンスに対してベクトルマッピングを行って、ソースセンテンスに対応するソースベクトルを決定し、ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成するように構成される。
なお、構文線形性に基づく言語変換方法の実施例についての前述した解釈および説明は、該実施例に係る構文線形性に基づく言語変換装置にも適用されるため、ここでは説明を省略する。
本出願の実施例に係る構文線形性に基づく言語変換装置は、予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定し、予め設定されたルールに基づいて、エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定し、現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定し、その後、予め設定されたデコーダを用いて、第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、第1のソースキャラクタに対応する目標キャラクタを生成する。これにより、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御し、翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果を達成し、翻訳遅延を低減することができる。
本出願の実施例により、本出願は電子機器および読み取り可能な記憶媒体をさらに提供する。
図6は、本出願の実施例に係る構文線形性に基づく言語変換方法の電子機器のブロック図である。電子機器はラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなど、様々な形式のデジタルコンピュータを表すこと意図している。電子機器はさらに、様々な形態のモバイル装置、例えば、携帯情報端末、セルラー電話、スマートフォン、ウェアラブルデバイス及び他の同様なコンピューティングデバイスを表すことができる。本明細書に示されている部品、それらの接続と関係、及びそれらの機能は例示的なものに過ぎず、本明細書で説明された及び/又は求められた本出願の実現を限定することを意図していない。
図6に示すように、該電子機器は、1つ又は複数のプロセッサ601、メモリ602、及び各部品を接続するためのインターフェースを含み、インターフェースは高速インターフェースと低速インターフェースを含む。各部品は、異なるバスを用いて互いに接続されており、かつ共用のマザーボードに実装されるか、又は必要に基づいて他の方式で実装されても良い。プロセッサは、電子機器内で実行される命令を処理することができ、前記命令は、外部入力/出力装置(例えば、インターフェースに接続される表示装置)にGUIの図形情報を表示するようにメモリ内又はメモリ上に記憶される命令を含む。他の実施形態において、必要があれば、複数のプロセッサ及び/又は複数のバスを複数のメモリと組み合わせて使用してもよい。同様に、複数の電子機器を接続してもよく、各機器は、必要とされる操作の一部(例えば、サーバアレイ、1セットのブレードサーバ、又はマルチプロセッサシステムとして)を提供する。図6では、1つのプロセッサ601は例として挙げられた。
メモリ602は、本出願に係る非一時的コンピュータ読み取り可能な記憶媒体である。前記メモリは、前記少なくとも1つのプロセッサに本出願に係る構文線形性に基づく言語変換方法を実行させるように、少なくとも1つのプロセッサによって実行可能な命令が記憶されている。本出願の非一時的コンピュータ読み取り可能な記憶媒体は、コンピュータに本出願に係る構文線形性に基づく言語変換方法を実行させるためのコンピュータ命令が記憶されている。
メモリ602は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例に係る構文線形性に基づく言語変換方法に対応するプログラム命令/モジュール(例えば、図5に示す第1の決定モジュール510、第2の決定モジュール520、第3の決定モジュール530、生成モジュール540)のような非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するように構成される。プロセッサ601は、メモリ602に記憶される非一時的なソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能適用及びデータ処理を実行し、即ち上記方法の実施例に係る構文線形性に基づく言語変換方法を実現する。
メモリ602は、プログラムを記憶する領域と、データを記憶する領域とを含んでも良い。プログラムを記憶する領域は、オペレーティングシステムと、少なくとも1つの機能に必要なアプリケーションプログラムを含んでも良い。データを記憶する領域は、構文線形性に基づく言語変換の電子機器の使用によって生成されたデータなどを記憶することができる。また、メモリ602は、高速ランダムアクセスメモリだけではなく、少なくとも1つのディスクストレージデバイス、フラッシュメモリデバイス又は他の非一時的なソリッドステートストレージデバイスのような非一時的なメモリを含んでも良い。一部の実施例では、メモリ602は、プロセッサ601に対してリモートで設定されるメモリを選択的に含んでもよく、これらのリモートメモリはネットワーク経由で構文線形性に基づく言語変換方法の電子機器に接続することができる。上記ネットワークの実例は、インターネット、企業内部のネットワーク、ローカルエリアネットワーク、移動通信ネットワーク及びそれらの組み合わせを含むが、これらに限定されない。
構文線形性に基づく言語変換方法の電子機器は、入力装置603および出力装置604をさらに含んでも良い。プロセッサ601、メモリ602、入力装置603および出力装置604はバスまたは他の形態で接続することができ、図6では、バスによる接続が例として挙げられた。
入力装置603は、入力されたデジタル又はキャラクタ情報を受信し、及び構文線形性に基づく言語変換方法の電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパネル、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティック等の入力装置がある。出力装置604は、表示装置、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)などを含んでも良い。該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含むが、これらに限定されない。一部の実施形態では、表示装置はタッチスクリーンであってもよい。
本明細書で説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は以下を含んでもよい。1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈することができ、該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであり、ストレージシステム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータと命令を受信し、データ及び命令を該ストレージシステム、該少なくとも1つの入力装置及び該少なくとも1つの出力装置に転送することができる。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも言う)は、プログラマブルプロセッサの機械命令を含み、かつ高度プロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ言語/機械語を用いてこれらの計算プログラム実行することができる。本明細書で使用される「機械読み取り可能な媒体」と「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、装置、及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するためのあらゆる信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されたシステムと技術をコンピュータ上で実施することができる。当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)と、キーボードとポインティングデバイス(例えば、マウス又はトラックボール)とを含み、ユーザは該キーボードと該ポインティングデバイスを介して入力をコンピュータに提供することができる。別の種類のデバイスはさらにユーザとのインタラクションを提供することができ、例えば、ユーザに提供されたフィードバックは、任意の形式のセンサフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であっても良い、ユーザからの入力を任意の形式(音の入力、音声入力又は触覚入力を含む)で受信することもできる。
ここで説明されたシステムと技術を、バックグラウンドパーツを含む計算システム(例えば、データサーバとして)、又はミドルウェアパーツを含む計算システム(例えば、アプリケーションサーバ)、又はフロントエンドパーツを含む計算システム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは該グラフィカルユーザインタフェース又は該ウェブブラウザ介して、ここで説明されたシステムと技術の実施形態と対話することができる)、又はこれらのバックグラウンドパーツ、ミドルウェアパーツ又はフロントエンドパーツの任意の組み合わせを含む計算システムにおいて実行することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介して、システムのパーツを互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットが含まれる。
コンピュータシステムは、クライアント側とサーバを含んでも良い。クライアント側とサーバは通常離れており、一般的に通信ネットワークを介してインタラクションを行う。対応するコンピュータにおいて実行されかつ互いにクライアント側-サーバ関係を有するコンピュータプログラムによってクライアント側とサーバとの関係は生成される。
本出願の実施例に係る技術案は、デコーダのアテンション層にマスクベクトルを導入し、マスクベクトルを用いてエンコーダによって出力されたベクトルを修正することによって、翻訳モデル内のアテンションを制御し、翻訳結果には前方対角線のアラインメント情報を有することを確保することができ、構文線形性翻訳結果を達成し、翻訳遅延を低減することができる。
「第1」、「第2」という用語は説明のためにのみ用いられるものであり、相対的な重要性を示唆又は暗示するもの、或いは、示された技術特的特徴の数を実質的に示すものと理解すべきではない。従って、「第1」、「第2」により限定される特徴は、少なくとも1つの該特徴を明示的に又は実質的に含むことができる。本出願の説明では、特に明記されていない限り、「複数」の意味は少なくとも2つ、例えば2つ、3つ等である。
以上、本出願の実施例を開示し且つ説明したが、上記実施例は例示的なものに過ぎず、本出願を限定するものとして理解すべきではない。当業者であれば、本出願の範囲を逸脱しない限り、上記実施例に対して変更、修正、置き換えおよび変形を行うことができる。

Claims (15)

  1. 予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するステップと、
    予め設定されたルールに基づいて、前記エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するステップと、
    現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するステップと、
    予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップと、を含み、
    前記マスクベクトルが[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c]として表され、cは整数であり、要素0よりも前の-cの数がL であり、連続する要素0の数がL であり、要素0よりも後の-cの数がL であり、L +L +L =Lであり、Lが前記ソースセンテンスにおけるキャラクタの数であり、
    前記予め設定されたエンコーダが、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを含み、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを用いてソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを得、
    前記第1のベクトルがキーベクトルであり、第2のベクトルが値ベクトルであり、または、第1のベクトルが値ベクトルであり、第2のベクトルがキーベクトルであることを特徴とする、構文線形性に基づく言語変換方法。
  2. 予め設定されたルールに基づいて、現在のマスクベクトルを決定するステップは、
    前記第1のソースキャラクタの前記ソースセンテンスにおける位置および前記ソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するステップを含むことを特徴とする、請求項1に記載の方法。
  3. 予め設定されたルールに基づいて、現在のマスクベクトルを決定するステップは、
    前記第1のソースキャラクタの前記ソースセンテンスにおける位置、前記ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するステップを含むことを特徴とする、請求項1に記載の方法。
  4. 予め設定されたルールに基づいて、現在のマスクベクトルを決定するステップは、
    予め設定されたルールに基づいて、現在の少なくとも2セットのマスクベクトルを決定するステップを含み、
    予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップは、
    予め設定されたデコーダを用いて、前記少なくとも2セットのマスクベクトルをそれぞれ前記第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、前記第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成するステップと、
    前記少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、前記第1のソースキャラクタに対応する目標キャラクタとするステップと、を含むことを特徴とする、請求項1に記載の方法。
  5. 予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップは、
    前記第1のベクトルと前記第3のベクトルの転置ベクトルとのクロス積を求めて、クロス積ベクトルを生成するステップと、
    前記マスクベクトルと前記クロス積ベクトルとを加算して、第4のベクトルを生成するステップと、
    前記第4のベクトルおよび前記第2のベクトルに対してマルチヘッドアテンション計算を行って、前記第1のソースキャラクタに対応するアテンション値を生成するステップと、
    前記アテンション値を復号して、前記第1のソースキャラクタに対応する目標キャラクタを決定するステップと、を含むことを特徴とする、請求項1に記載の方法。
  6. 変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するステップは、
    前記変換対象ソースセンテンスに対してベクトルマッピングを行って、前記ソースセンテンスに対応するソースベクトルを決定するステップと、
    前記ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、前記ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成するステップと、を含むことを特徴とする、請求項1から5のいずれかに記載の方法。
  7. 予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するように構成される第1の決定モジュールと、
    予め設定されたルールに基づいて、前記エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するように構成される第2の決定モジュールと、
    現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するように構成される第3の決定モジュールと、
    予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するように構成される生成モジュールと、を含み、
    前記マスクベクトルが[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c]として表され、cは整数であり、要素0よりも前の-cの数がL であり、連続する要素0の数がL であり、要素0よりも後の-cの数がL であり、L +L +L =Lであり、Lが前記ソースセンテンスにおけるキャラクタの数であり、
    前記予め設定されたエンコーダが、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを含み、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを用いてソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを得、
    前記第1のベクトルがキーベクトルであり、第2のベクトルが値ベクトルであり、または、第1のベクトルが値ベクトルであり、第2のベクトルがキーベクトルであることを特徴とする、構文線形性に基づく言語変換装置。
  8. 前記第2の決定モジュールは、具体的には、
    前記第1のソースキャラクタの前記ソースセンテンスにおける位置および前記ソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するように構成されることを特徴とする、請求項7に記載の装置。
  9. 前記第2の決定モジュールは、具体的には、前記第1のソースキャラクタの前記ソースセンテンスにおける位置、前記ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するように構成されることを特徴とする、請求項7に記載の装置。
  10. 前記第2の決定モジュールは、具体的には、
    予め設定されたルールに基づいて、現在の少なくとも2セットのマスクベクトルを決定するように構成され、
    前記生成モジュールは、具体的には、
    予め設定されたデコーダを用いて、前記少なくとも2セットのマスクベクトルをそれぞれ前記第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、前記第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成し、
    前記少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、前記第1のソースキャラクタに対応する目標キャラクタとするように構成されることを特徴とする、請求項7に記載の装置。
  11. 前記生成モジュールは、具体的には、
    前記第1のベクトルと前記第3のベクトルの転置ベクトルとのクロス積を求めて、クロス積ベクトルを生成し、
    前記マスクベクトルと前記クロス積ベクトルとを加算して、第4のベクトルを生成し、
    前記第4のベクトルおよび前記第2のベクトルに対してマルチヘッドアテンション計算を行って、前記第1のソースキャラクタに対応するアテンション値を生成し、
    前記アテンション値を復号して、前記第1のソースキャラクタに対応する目標キャラクタを決定するように構成されることを特徴とする、請求項7に記載の装置。
  12. 前記第1の決定モジュールは、具体的には、
    前記変換対象ソースセンテンスに対してベクトルマッピングを行って、前記ソースセンテンスに対応するソースベクトルを決定し、
    前記ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、前記ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成するように構成されることを特徴とする、請求項7から11のいずれかに記載の装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が、前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが請求項1から6のいずれかに記載の構文線形性に基づく言語変換方法を実行可能であることを特徴とする、電子機器。
  14. コンピュータ命令を格納する非一時的コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が実行される場合、前記コンピュータに請求項1から6のいずれかに記載の構文線形性に基づく言語変換方法を実行させることを特徴とする、非一時的コンピュータ読み取り可能な記憶媒体。
  15. コンピュータプログラムであって、
    前記コンピュータプログラムが実行される場合、前記コンピュータに請求項1から6のいずれかに記載の構文線形性に基づく言語変換方法を実行させることを特徴とする、コンピュータプログラム。
JP2020202351A 2019-12-20 2020-12-07 構文線形性に基づく言語変換方法および装置 Active JP7121106B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911324032.6 2019-12-20
CN201911324032.6A CN111079450B (zh) 2019-12-20 2019-12-20 基于顺句驱动的语言转换方法和装置

Publications (2)

Publication Number Publication Date
JP2021099797A JP2021099797A (ja) 2021-07-01
JP7121106B2 true JP7121106B2 (ja) 2022-08-17

Family

ID=70316147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020202351A Active JP7121106B2 (ja) 2019-12-20 2020-12-07 構文線形性に基づく言語変換方法および装置

Country Status (3)

Country Link
US (1) US11409968B2 (ja)
JP (1) JP7121106B2 (ja)
CN (1) CN111079450B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553864B (zh) * 2021-06-30 2023-04-07 北京百度网讯科技有限公司 翻译模型的训练方法、装置、电子设备及存储介质
CN114580445B (zh) * 2022-03-10 2023-03-10 昆明理工大学 基于领域感知的掩码子结构的多领域自适应神经机器翻译方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026127A (ja) 2016-08-10 2018-02-15 三星電子株式会社Samsung Electronics Co.,Ltd. 翻訳方法、翻訳装置及びコンピュータプログラム
US20180341860A1 (en) 2017-05-23 2018-11-29 Google Llc Attention-based sequence transduction neural networks

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159889B (zh) * 2014-06-16 2017-09-15 吕海港 一种生成英汉机器翻译的中介汉语语言模型的翻译方法
US9836457B2 (en) * 2015-05-25 2017-12-05 Panasonic Intellectual Property Corporation Of America Machine translation method for performing translation between languages
CN106126507B (zh) * 2016-06-22 2019-08-09 哈尔滨工业大学深圳研究生院 一种基于字符编码的深度神经翻译方法及系统
US11080591B2 (en) * 2016-09-06 2021-08-03 Deepmind Technologies Limited Processing sequences using convolutional neural networks
KR102359216B1 (ko) * 2016-10-26 2022-02-07 딥마인드 테크놀로지스 리미티드 신경망을 이용한 텍스트 시퀀스 처리
KR20180062003A (ko) * 2016-11-30 2018-06-08 한국전자통신연구원 음성 인식 오류 교정 방법
KR102637338B1 (ko) * 2017-01-26 2024-02-16 삼성전자주식회사 번역 보정 방법 및 장치와 번역 시스템
KR20190019748A (ko) * 2017-08-18 2019-02-27 삼성전자주식회사 자연어 생성 방법 및 장치
CN108304388B (zh) * 2017-09-12 2020-07-07 腾讯科技(深圳)有限公司 机器翻译方法及装置
CN110147554B (zh) * 2018-08-24 2023-08-22 腾讯科技(深圳)有限公司 同声翻译方法、装置和计算机设备
CN111428516B (zh) * 2018-11-19 2022-08-19 腾讯科技(深圳)有限公司 一种信息处理的方法以及装置
CN109558597B (zh) * 2018-12-17 2022-05-24 北京百度网讯科技有限公司 文本翻译方法及装置、设备及存储介质
CN110211570B (zh) * 2019-05-20 2021-06-25 北京百度网讯科技有限公司 同声传译处理方法、装置及设备
CN110196894B (zh) * 2019-05-30 2021-06-08 北京百度网讯科技有限公司 语言模型的训练方法和预测方法
CN110210043B (zh) * 2019-06-14 2024-01-26 科大讯飞股份有限公司 文本翻译方法、装置、电子设备及可读存储介质
CN110516065A (zh) * 2019-07-12 2019-11-29 杭州电子科技大学 一种基于多路动态掩码的注意力神经网络的方法
KR20210043995A (ko) * 2019-10-14 2021-04-22 삼성전자주식회사 모델 학습 방법 및 장치, 및 시퀀스 인식 방법
US20210133535A1 (en) * 2019-11-04 2021-05-06 Oracle International Corporation Parameter sharing decoder pair for auto composing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026127A (ja) 2016-08-10 2018-02-15 三星電子株式会社Samsung Electronics Co.,Ltd. 翻訳方法、翻訳装置及びコンピュータプログラム
US20180046618A1 (en) 2016-08-10 2018-02-15 Samsung Electronics Co., Ltd. Parallel processing-based translation method and apparatus
CN107729324A (zh) 2016-08-10 2018-02-23 三星电子株式会社 基于并行处理的翻译方法和设备
US20180341860A1 (en) 2017-05-23 2018-11-29 Google Llc Attention-based sequence transduction neural networks
CN110192206A (zh) 2017-05-23 2019-08-30 谷歌有限责任公司 基于注意力的序列转换神经网络
JP2020506466A (ja) 2017-05-23 2020-02-27 グーグル エルエルシー アテンションベースのシーケンス変換ニューラルネットワーク

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
二又 航介 外2名,スタイル変換技術による対訳コーパスから同時通訳コーパスへの拡張,情報処理学会 研究報告 自然言語処理(NL) 2019-NL-241 [online],情報処理学会,2019年08月22日,pp.1-9,https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=198862&file_id=1&file_no=1
帖佐 克己 外2名,英日同時通訳におけるニューラル機械翻訳の検討,言語処理学会第25回年次大会 発表論文集 [online],言語処理学会,2019年03月04日,pp.534-537,http://www.anlp.jp/proceedings/annual_meeting/2019/pdf_dir/P3-6.pdf
須藤 克仁,ニューラル機械翻訳の進展 -系列変換モデルの進化とその応用-,人工知能,(一社)人工知能学会,2019年07月01日, 第34巻 第4号,pp.437-445

Also Published As

Publication number Publication date
CN111079450A (zh) 2020-04-28
CN111079450B (zh) 2021-01-22
US11409968B2 (en) 2022-08-09
US20210192150A1 (en) 2021-06-24
JP2021099797A (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
JP7259197B2 (ja) モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
US11403468B2 (en) Method and apparatus for generating vector representation of text, and related computer device
US11417314B2 (en) Speech synthesis method, speech synthesis device, and electronic apparatus
KR102538467B1 (ko) 모델의 증류 방법, 장치, 전자기기 및 저장매체
JP7121106B2 (ja) 構文線形性に基づく言語変換方法および装置
KR102441475B1 (ko) 질문 분석 방법, 장치, 지식 기반 질문 응답 시스템 및 전자 기기
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
JP7044839B2 (ja) エンドツーエンドモデルのトレーニング方法および装置
EP3971761A1 (en) Method and apparatus for generating summary, electronic device and storage medium thereof
KR102630243B1 (ko) 구두점 예측 방법 및 장치
JP7413630B2 (ja) 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体
US20210133396A1 (en) Prosodic pause prediction method, prosodic pause prediction device and electronic device
JP7167106B2 (ja) 口形特徴予測方法、装置及び電子機器
JP7395553B2 (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
KR20210156202A (ko) 기계 번역에서 모델 트레이닝 방법, 장치, 전자 기기 및 기록 매체
WO2021184769A1 (zh) 神经网络文本翻译模型的运行方法、装置、设备、及介质
KR20210127613A (ko) 대화 생성 방법, 장치, 전자 기기 및 기록 매체
KR20210080150A (ko) 번역 방법, 장치, 전자 기기 및 판독 가능 저장 매체
JP7121791B2 (ja) 言語生成方法、装置及び電子機器
JP7201654B2 (ja) 意味表現に基づくテキスト生成方法、意味表現に基づくテキスト生成装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
KR102531507B1 (ko) 정보 출력 방법, 장치, 기기 및 저장 매체
KR20220061060A (ko) 데이터 처리 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체
KR20210040318A (ko) 유사도 처리 방법, 장치, 서버, 저장 매체 및 컴퓨터 프로그램
JP2021108140A (ja) 情報抽出方法、情報抽出装置及び電子機器
CN115952790A (zh) 信息抽取方法及其装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220804

R150 Certificate of patent or registration of utility model

Ref document number: 7121106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150