JP2022503812A - 文処理方法、文復号方法、装置、プログラム及び機器 - Google Patents
文処理方法、文復号方法、装置、プログラム及び機器 Download PDFInfo
- Publication number
- JP2022503812A JP2022503812A JP2021516821A JP2021516821A JP2022503812A JP 2022503812 A JP2022503812 A JP 2022503812A JP 2021516821 A JP2021516821 A JP 2021516821A JP 2021516821 A JP2021516821 A JP 2021516821A JP 2022503812 A JP2022503812 A JP 2022503812A
- Authority
- JP
- Japan
- Prior art keywords
- word
- sentence
- unit
- processing
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【選択図】 図3
Description
を機械学習モデルに入力すると、該機械学習モデルは、英語文の「The housing prices continued to rise」を出力する。
符号化対象のソース文に対して単語分割演算を行い、m(m≦n)個の単語を得るステップと、
前記n個の処理ノードのうちのi(i≦m)番目の処理ノードを利用して前記m個の単語のうちのi番目の単語を取得し、i-1番目の処理ノードで得られたi-1番目の単語ベクトルを取得するステップであって、前記i-1番目の単語ベクトルは前記m個の単語のうちのi-1番目の単語の符号化ベクトルであるステップと、
前記i番目の処理ノードにおける第1のユニットを利用して前記i番目の単語及び前記i-1番目の単語ベクトルに対して線形演算及び非線形演算を行い、得られたi番目の演算結果を前記少なくとも1つの第2のユニットに出力して処理させ、i番目の単語ベクトルを得るステップと、
m個の単語ベクトルが得られると、目標文または目標分類を決定するための文ベクトルを前記m個の単語ベクトルに基づいて生成するステップと、を含む、文処理方法が提供される。
符号化モデルが符号化対象のソース文を符号化して得られた文ベクトルと、j番目の時点に前記ソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とをj番目の時点に取得するステップと、
j番目の時点に前記ソース文のうちの符号化された部分であるj番目のソース言語注目コンテキストを、前記文ベクトル及び前記j番目のクエリ状態に基づいて生成するステップと、
前記処理ノードにおける第1のユニットを利用して前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を前記処理ノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目の単語を得るステップと、
k(j≦k)個の単語が得られると、前記k個の単語に基づいて目標文を生成するステップと、を含む、文復号方法が提供される。
符号化対象のソース文に対して単語分割演算を行い、m(m≦n)個の単語を得る単語分割モジュールと、
前記n個の処理ノードのうちのi(i≦m)番目の処理ノードを利用して前記m個の単語のうちのi番目の単語を取得し、i-1番目の処理ノードで得られたi-1番目の単語ベクトルを取得する取得モジュールであって、前記i-1番目の単語ベクトルは前記m個の単語のうちのi-1番目の単語の符号化ベクトルである取得モジュールと、
前記i番目の処理ノードにおける第1のユニットを利用して前記i番目の単語及び前記i-1番目の単語ベクトルに対して線形演算及び非線形演算を行い、得られたi番目の演算結果を前記少なくとも1つの第2のユニットに出力して処理させ、i番目の単語ベクトルを得る演算モジュールと、
m個の単語ベクトルが得られると、目標文または目標分類を決定するための文ベクトルを前記m個の単語ベクトルに基づいて生成する生成モジュールと、を含む、文処理装置が提供される。
符号化モデルが符号化対象のソース文を符号化して得られた文ベクトルと、j番目の時点に前記ソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とをj番目の時点に取得する取得モジュールと、
j番目の時点に前記ソース文のうちの符号化された部分であるj番目のソース言語注目コンテキストを、前記文ベクトル及び前記j番目のクエリ状態に基づいて生成するための生成モジュールと、
前記処理ノードにおける第1のユニットを利用して前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を前記処理ノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目の単語を得る演算モジュールと、を含み、
前記生成モジュールは、さらに、k(j≦k)個の単語が得られると、前記k個の単語に基づいて目標文を生成する、
文復号装置が提供される。
文処理機器が提供される。
機械翻訳とは、コンピュータにより1種の自然言語の文を他種の自然言語の文に翻訳する翻訳方式である。通常、該機械翻訳は、訓練された機械学習モデルにより文を翻訳することである。例示的には、大量の翻訳言語材料サンプルで機械学習モデルを訓練し、該翻訳言語材料サンプルが中国語言語材料と英語言語材料との複数組の対応関係を含み、各中国語言語材料が翻訳結果とされる英語言語材料に対応し、訓練完了後、ユーザは、中国語文
を該機械学習モデルに入力した後、英語訳文「The housing prices continued to rise」を出力する。
マンマシン対話とは、ユーザから入力される文にコンピュータにより応答する対話方式である。通常、該マンマシン対話は、訓練された機械学習モデルにより文に応答する。例示的には、同じ種類の自然言語または複数種類の自然文の複数組の対話を含む大量の対話サンプルで、機械学習モデルを訓練する。訓練完了後、ユーザは、文の「春節まであと何日あるか」を該機械学習モデルに入力すると、応答文の「春節まであと60日ある」が出力される。
テキスト自動生成とは、コンピュータにより1つの文に基づいて1つの文または1段落の文を編集するテキスト生成方式である。入力された文の文字数が出力された文の文字数より多ければ、入力された文に対してコンテンツ抽出を行ったものとして理解でき、要約抽出などの応用シーンに適用できる一方、入力された文の文字数が出力された文の文字数より少なければ、入力された文に対してコンテンツ拡張を行ったものとして理解でき、文の複写、文章生成などの応用シーンに適用できる。
感情分析とは、コンピュータにより文に基づいてユーザの感情を分析する分類方式であり、ここでいう感情は、悲しみ、喜びなどの意気、憂鬱、倦怠などの気持ち、無関心、疎外などの対人姿勢、好き、嫌いなどの態度などを含むことができるが、本実施例では限定しない。
品詞分析とは、コンピュータにより文中の単語の品詞を分析する分類方式であり、ここでいう品詞は、動詞、名詞、形容詞、前置詞、副詞などを含むことができるが、本実施例では限定しない。
エンティティ分析とは、コンピュータにより文中の命名エンティティを抽出する分類方式であり、ここでいう命名エンティティは、人名、地名、組織などを含むことができる。
一部の実施例では、上記機械学習モデルは、ニューラルネットワークモデル、サポートベクターマシン(Support Vector Machine、SVM)、決定木(Decision Tree、DT)などのモデルとして実現され得るが、、本願の実施例では、これについて限定しない。本願の実施例では、該機械学習モデルがRNN(Recurrent Neural Network、再帰型ニューラルネットワーク)モデルであることを例として説明する。
は
、
及び
の3つの単語を含み、
が単語ベクトル1に対応し、
が単語ベクトル2に対応し、
が単語ベクトル3に対応し、得られた文ベクトルは、[単語ベクトル1,単語ベクトル2,単語ベクトル3]となる。
を端末11に入力すると、端末11は、該ソース文をサーバ12に送信し、サーバ12は、該ソース文を機械学習モデルにより翻訳して目標文を得るとともに、該目標文を端末11に送信して表示させる。
i番目の時点でのGRUの出力の演算式は、以下の通りである。
ただし、ziはGRUの更新ゲートであり、演算式はZi=σ(Wxzxi+Whzhi-1)であり、xiはi番目の時点でのGRUの入力であり、hi-1はi-1番目の時点でのGRUの出力であり、σは活性化関数であり、「(・)」は要素積演算の記号であり、h~ iは候補活性化関数であり、演算式は
T-GRUは、機械学習モデルにおける第1層に出現することがないため、T-GRUには入力されるxiが存在しない。
ただし、ziはT-GRUの更新ゲートであり、演算式はZi=σ(Whzhi-1)であり、hi-1はi-1番目の時点でのT-GRUの出力であり、σは活性化関数であり、「(・)」は要素積演算の記号であり、h~ iは候補活性化関数であり、演算式は
i番目の時点でのL-GRUの出力の演算式は、以下の通りである。
の文字コンテンツを選択し、翻訳オプションを選択すると、該選択された文字コンテンツがソース文となる。
が単語ベクトル1に対応し、
が単語ベクトル2に対応し、
が単語ベクトル3に対応すれば、得られた文ベクトルが[単語ベクトル1,単語ベクトル2,単語ベクトル3]となる。文ベクトルを得ると、復号モデルを利用して文ベクトルを復号し、目標文または目標分類を得ることができる。
図2を参照すると、図2において左から右への方向で前から後ろへの符号化方向を表し、影付きブロックはL-GRUを表し、空白ブロックはT-GRUを表す。このとき、i番目の処理ノードは、n個の処理ノードのうち、前から後ろへの順でi番目の位置に配列された処理ノード201であり、i番目の単語は、m個の単語のうち、前から後ろへの順でi番目の位置に配列された単語である。
、
及び
であれば、左から右への方向での1番目の処理ノード201で処理される1番目の単語は
であり、2番目の処理ノード201で処理される2番目の単語は
であり、3番目の処理ノード201で処理される3番目の単語が
である。
図4を参照すると、図4において右から左への方向で後ろから前への符号化方向を表し、影付きブロックはL-GRUを表し、空白ブロックはT-GRUを表す。このとき、i番目の処理ノードは、n個の処理ノードのうち、後ろから前への順でi番目の位置に配列された処理ノード401であり、i番目の単語は、m個の単語のうち、後ろから前への順でi番目の位置に配列された単語である。
、
、及び
であれば、右から左への方向での1番目の処理ノード401で処理される1番目の単語は
であり、2番目の処理ノード401で処理される2番目の単語は
であり、3番目の処理ノード401で処理される3番目の単語は
である。
図5を参照すると、図5において左から右への方向で前から後ろへの符号化方向を表し、右から左への方向で後ろから前への符号化方向を表し、影付きブロックはL-GRUを表し、空白ブロックはT-GRUを表す。このとき、i番目の処理ノードは、n個の処理ノードのうち、前から後ろへの順でi番目の位置に配列された処理ノード501と、後ろから前への順でi番目の位置に配列された処理ノード502とを含み、i番目の単語は、m個の単語のうち、前から後ろへの順でi番目の位置に配列された単語と、後ろから前への順でi番目の位置に配列された単語とを含む。
、
、及び
であれば、左から右への方向での1番目の処理ノード501で処理される1番目の単語は
であり、2番目の処理ノード501で処理される2番目の単語は
であり、3番目の処理ノード501で処理される3番目の単語は
である一方、右から左への方向での1番目の処理ノード502で処理される1番目の単語は
であり、2番目の処理ノード502で処理される2番目の単語は
であり、3番目の処理ノード502で処理される3番目の単語は
である。
ステップ607において、得られたi番目の演算結果を、i番目の処理ノードにおける第1のユニットを利用して少なくとも1つの第2のユニットに出力して処理させ、i番目の単語ベクトルを得る。
ここで、1≦k≦lsである。
ただし、Cは文ベクトルであり、vはクエリ状態である。
ただし、cはソース言語注目コンテキストであり、vはクエリ状態である。
であり、かつ該機械学習モデルが機械翻訳の応用シーンに適用されることを例にすると、図12に示す機械学習モデルにおける符号化モデルは、まず、ソース文に対して単語分割を行い、
、
、及び
の3つの単語を得るとともに、前から後ろへの符号化方向に従って、それぞれ前の方の3つの処理ノードを利用してこれらの3つの単語を処理し、
に対応する単語ベクトル1、
に対応する単語ベクトル2、
に対応する単語ベクトル3を順に得るとともに、後ろから前への符号化方向に従って、それぞれ後の方の3つの処理ノードを利用してこれらの3つの単語を処理し、
に対応する単語ベクトル4、
に対応する単語ベクトル5、
に対応する単語ベクトル6を順に得ることになり、得られた文ベクトルは[単語ベクトル1単語ベクトル6、単語ベクトル2単語ベクトル5、単語ベクトル3単語ベクトル4]であり、該文ベクトルを復号モデルに出力する。
表2におけるBLEU指標を分析してわかるように、
1)3つのノードがいずれもL-GRU+1T-GRUである場合は、3つのノードがいずれもGRU+1T-GRUである場合に比べると、BLEU指標が44.41-43.63=0.78増加し、3つのノードがいずれもL-GRU+4T-GRUである場合は3つのノードがいずれもGRU+4T-GRUである場合に比べると、BLEU指標が45.04-44.16=0.88増加する。従って、ノードにおけるGRUをL-GRUに改定することで、機械翻訳の精度を向上させることができる。
は対応するノードがL-GRU+4T-GRUであることを表し、×は対応するノードがGRUであることを表す。
符号化対象のソース文に対して単語分割演算を行い、m個(m≦n)の単語を得る、単語分割モジュール1310と、
n個の処理ノードのうちのi番目(i≦m)の処理ノードを利用してm個の単語のうちのi番目の単語を取得し、i-1番目の処理ノードで得られたi-1番目の単語ベクトルを取得する取得モジュールであって、i-1番目の単語ベクトルはm個の単語のうちのi-1番目の単語の符号化ベクトルである、取得モジュール1320と、
i番目の処理ノードにおける第1のユニットを利用してi番目の単語及びi-1番目の単語ベクトルに対して線形演算及び非線形演算を行い、得られたi番目の演算結果を少なくとも1つの第2のユニットに出力して処理させ、i番目の単語ベクトルを得る演算モジュール1330と、
m個の単語ベクトルが得られると、目標文または目標分類を決定するための文ベクトルを、m個の単語ベクトルに基づいて生成する生成モジュール1340と、を含む。
i番目の処理ノードは、n個の処理ノードのうち、前から後ろへの順でi番目の位置に配列された処理ノードであり、
i番目の単語は、m個の単語のうち、前から後ろへの順でi番目の位置に配列された単語である。
i番目の処理ノードは、n個の処理ノードのうち、後ろから前への順でi番目の位置に配列された処理ノードであり、
i番目の単語は、m個の単語のうち、後ろから前への順でi番目の位置に配列された単語である。
i番目の処理ノードは、n個の処理ノードのうち、前から後ろへの順でi番目の位置に配列された処理ノードと、n個の処理ノードのうち、後ろから前への順でi番目の位置に配列された処理ノードとを含み、
i番目の単語は、m個の単語のうち、前から後ろへの順でi番目の位置に配列された単語と、m個の単語のうち、後ろから前への順でi番目の位置に配列された単語とを含む。
第1のユニットを利用してi-1番目の単語ベクトルと第1の差分に対して要素積演算を行い、第1の積を得る(第1の差分は、所定の数値から第1のユニットの更新ゲートを引いた値に等しいものであり、更新ゲートは、i番目の単語からのi番目の単語ベクトルと、i-1番目の単語ベクトルからのi番目の単語ベクトルとの割合を判断するためのものである)。
第1のユニットを利用して線形変換関数によりi番目の単語に対して線形変換を行い、得られた線形変換関数値と線形変換ゲートに対して要素積演算を行い、第2の積を得るとともに、双曲線正接関数によりi番目の単語及びi-1番目の単語ベクトルに対して非線形変換を行い、得られた双曲線正接関数値と第2の積とを加算し、候補活性化関数値を得る(線形変換ゲートは、候補活性化関数値が線形変換関数値を含むように制御するためのものである)。
第1のユニットを利用して更新ゲートと候補活性化関数値に対して要素積演算を行い、第3の積を得る。
第1のユニットを利用して第1の積と第3の積とを加算し、i番目の演算結果を得る。
符号化モデルが符号化対象のソース文を符号化して得られた文ベクトルと、j番目の時点でソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とを、j番目の時点で取得する取得モジュール1410と、
j番目の時点でソース文のうちの符号化された部分を指示するためのj番目のソース言語注目コンテキストを、文ベクトル及びj番目のクエリ状態に基づいて生成する生成モジュール1420と、
処理ノードにおける第1のユニットを利用してj番目のクエリ状態及びj番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を処理ノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目の単語を得る演算モジュール1430と、を含み、
生成モジュール1420は、さらに、k個の単語が得られると、k個の単語に基づいて目標文を生成する。
取得モジュール1410は、さらに、
処理ノードがj-1番目の演算結果に基づいて得られたj-1番目の復号状態であって、j-1番目の単語を決定するためのj-1番目の復号状態と、j-1番目の単語とを、クエリノードにおける第1のユニットを利用して取得し、
クエリノードにおける第1のユニットを利用してj-1番目の復号状態及びj-1番目の単語に対して線形演算及び非線形演算を行い、j番目のクエリ状態を得る。
取得モジュール1410は、さらに、
処理ノードがj-1番目の演算結果に基づいて得られたj-1番目の復号状態であって、j-1番目の単語を決定するためのj-1番目の復号状態と、j-1番目の単語とを、クエリノードにおける第1のユニットを利用して取得し、
クエリノードにおける第1のユニットを利用してj-1番目の復号状態及びj-1番目の単語に対して線形演算及び非線形演算を行い、得られた中間演算結果をクエリノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目のクエリ状態を得る。
取得モジュール1410は、さらに、
j-1番目の演算結果に基づいて得られたj-1番目の復号状態であって、j-1番目の単語を決定するためのj-1番目の復号状態と、j-1番目の単語とを、クエリノードにおける第3のユニットを利用して取得し、
クエリノードにおける第3のユニットを利用してj-1番目の復号状態及びj-1番目の単語に対して非線形演算を行い、得られた中間演算結果をクエリノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目のクエリ状態を得る。
生成モジュール1420は、さらに、
アテンション演算ノードを利用して文ベクトル及びj番目のクエリ状態に対してアテンション演算を行い、j番目のソース言語注目コンテキストを得る。
第1のユニットを利用してj番目のクエリ状態と第1の差分に対して要素積演算を行い、第1の積を得る(第1の差分は、所定の数値から第1のユニットの更新ゲートを引いた値に等しいものであり、更新ゲートは、j番目のソース言語注目コンテキストからのj番目のソース言語注目コンテキストベクトルと、j番目のクエリ状態からのj番目のソース言語注目コンテキストベクトルとの割合を判断するためのものである)。
第1のユニットを利用して線形変換関数によりj番目のソース言語注目コンテキストに対して線形変換を行い、得られた線形変換関数値と線形変換ゲートに対して要素積演算を行い、第2の積を得るとともに、双曲線正接関数によりj番目のソース言語注目コンテキスト及びj番目のクエリ状態に対して非線形変換を行い、得られた双曲線正接関数値と第2の積とを加算し、候補活性化関数値を得る(線形変換ゲートは、候補活性化関数値が線形変換関数値を含むように制御するためのものである)。
第1のユニットを利用して更新ゲートと候補活性化関数値に対して要素積演算を行い、第3の積を得る。
第1のユニットを利用して第1の積と第3の積とを加算し、j番目の演算結果を得る。
Claims (17)
- 文処理機器により実行される文処理方法であって、
カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む処理ノードである、カスケードされたn個(n≧2)の処理ノードを含む符号化モデルに用いられ、
符号化対象のソース文に対して単語分割演算を行い、m個(m≦n)の単語を得るステップと、
前記n個の処理ノードのうちのi番目(i≦m)の処理ノードを利用して前記m個の単語のうちのi番目の単語を取得し、i-1番目の処理ノードで得られたi-1番目の単語ベクトルを取得するステップであり、前記i-1番目の単語ベクトルは、前記m個の単語のうちのi-1番目の単語の符号化ベクトルである、ステップと、
前記i番目の処理ノードにおける第1のユニットを利用して前記i番目の単語及び前記i-1番目の単語ベクトルに対して線形演算及び非線形演算を行い、得られたi番目の演算結果を前記少なくとも1つの第2のユニットに出力して処理させ、i番目の単語ベクトルを得るステップと、
m個の単語ベクトルが得られると、目標文または目標分類を決定するための文ベクトルを前記m個の単語ベクトルに基づいて生成するステップと、を含む、
文処理方法。 - 前記符号化モデルが単方向符号化モデルであり、かつ符号化方向が前から後ろへの方向である場合、
前記i番目の処理ノードは、前記n個の処理ノードのうち、前から後ろへの順でi番目の位置に配列された処理ノードであり、
前記i番目の単語は、前記m個の単語のうち、前から後ろへの順でi番目の位置に配列された単語である、
ことを特徴とする、請求項1に記載の方法。 - 前記符号化モデルが単方向符号化モデルであり、かつ、符号化方向が後ろから前への方向である場合、
前記i番目の処理ノードは、前記n個の処理ノードのうち、後ろから前への順でi番目の位置に配列された処理ノードであり、
前記i番目の単語は、前記m個の単語のうち、後ろから前への順でi番目の位置に配列された単語である、
ことを特徴とする、請求項1に記載の方法。 - 前記符号化モデルが双方向符号化モデルであり、かつ、符号化方向が前から後ろへの方向及び後ろから前への方向を含む場合、m≦n/2であり、
前記i番目の処理ノードは、前記n個の処理ノードのうち、前から後ろへの順でi番目の位置に配列された処理ノードと、前記n個の処理ノードのうち、後ろから前への順でi番目の位置に配列された処理ノードとを含み、
前記i番目の単語は、前記m個の単語のうち、前から後ろへの順でi番目の位置に配列された単語と、前記m個の単語のうち、後ろから前への順でi番目の位置に配列された単語とを含む、
ことを特徴とする、請求項1に記載の方法。 - 前記i番目の処理ノードにおける第1のユニットを利用して前記i番目の単語及び前記i-1番目の単語ベクトルに対して線形演算及び非線形演算を行うことは、
前記第1のユニットを利用して前記i-1番目の単語ベクトルと第1の差分に対して要素積演算を行い、第1の積を得るステップであり、
前記第1の差分は、所定の数値から前記第1のユニットの更新ゲートを引いた値に等しいものであり、
前記更新ゲートは、前記i番目の単語からの前記i番目の単語ベクトルと前記i-1番目の単語ベクトルからの前記i番目の単語ベクトルとの割合を判断するためのものである、ステップと、
前記第1のユニットを利用して前記i番目の単語に対して線形変換関数により線形変換を行い、得られた線形変換関数値と線形変換ゲートに対して要素積演算を行い、第2の積を得るとともに、双曲線正接関数により前記i番目の単語及び前記i-1番目の単語ベクトルに対して非線形変換を行い、得られた双曲線正接関数値と第2の積とを加算し、候補活性化関数値を得るステップであり、
前記線形変換ゲートは、前記候補活性化関数値が前記線形変換関数値を含むように制御するためのものである、ステップと、
前記第1のユニットを利用して前記更新ゲートと前記候補活性化関数値に対して要素積演算を行い、第3の積を得るステップと、
前記第1のユニットを利用して前記第1の積と前記第3の積とを加算し、前記i番目の演算結果を得るステップと、を含む、
ことを特徴とする、請求項1乃至4いずれか一項に記載の方法。 - カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む処理ノードを含む復号モデルを利用して復号するステップ、をさらに含み、
復号ステップは、
前記文ベクトルと、j番目の時点で前記ソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とを、j番目の時点で取得するステップと、
j番目の時点で前記ソース文のうちの符号化された部分であるj番目のソース言語注目コンテキストを、前記文ベクトル及び前記j番目のクエリ状態に基づいて生成するステップと、
前記処理ノードにおける第1のユニットを利用して前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を前記処理ノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目の単語を得るステップと、
k個(j≦k)の単語が得られると、前記k個の単語に基づいて目標文を生成するステップと、を含む、
ことを特徴とする、請求項1乃至4いずれか一項に記載の方法。 - 文処理機器により実行される文復号方法であって、
カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む処理ノードを含む復号モデルに用いられ、
符号化モデルが符号化対象のソース文を符号化して得られた文ベクトルと、j番目の時点で前記ソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とを、j番目の時点で取得するステップと、
j番目の時点で前記ソース文のうちの符号化された部分であるj番目のソース言語注目コンテキストを、前記文ベクトル及び前記j番目のクエリ状態に基づいて生成するステップと、
前記処理ノードにおける第1のユニットを利用して前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を前記処理ノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目の単語を得るステップと、
k個(j≦k)の単語が得られると、前記k個の単語に基づいて目標文を生成するステップと、を含む、
文復号方法。 - 前記復号モデルは、第1のユニットを含むクエリノードであり、前記処理ノードに接続されたクエリノードをさらに含み、
前記j番目のクエリ状態を取得することは、
前記処理ノードがj-1番目の演算結果に基づいて得られたj-1番目の復号状態であり、前記j-1番目の単語を決定するためのj-1番目の復号状態と、j-1番目の単語とを、前記クエリノードにおける第1のユニットを利用して取得するステップと、
前記クエリノードにおける第1のユニットを利用して、前記j-1番目の復号状態及び前記j-1番目の単語に対して線形演算及び非線形演算を行い、前記j番目のクエリ状態を得るステップと、を含む、
ことを特徴とする、請求項7に記載の方法。 - 前記復号モデルは、第1のユニット及び少なくとも1つの第2のユニットを含むクエリノードであり、前記処理ノードに接続されたクエリノードをさらに含み、
前記j番目のクエリ状態を取得することは、
前記処理ノードがj-1番目の演算結果に基づいて得られたj-1番目の復号状態であり、前記j-1番目の単語を決定するためのj-1番目の復号状態と、j-1番目の単語とを、前記クエリノードにおける第1のユニットを利用して取得するステップと、
前記クエリノードにおける第1のユニットを利用して、前記j-1番目の復号状態及び前記j-1番目の単語に対して線形演算及び非線形演算を行い、得られた中間演算結果を前記クエリノードにおける少なくとも1つの第2のユニットに出力して処理させ、前記j番目のクエリ状態を得るステップと、を含む、
ことを特徴とする、請求項7に記載の方法。 - 前記復号モデルは、第3のユニット及び少なくとも1つの第2のユニットを含むクエリノードであって、前記処理ノードに接続されたクエリノードをさらに含み、
前記j番目のクエリ状態を取得することは、
前記処理ノードがj-1番目の演算結果に基づいて得られたj-1番目の復号状態であって、前記j-1番目の単語を決定するためのj-1番目の復号状態と、j-1番目の単語とを、前記クエリノードにおける第3のユニットを利用して取得するステップと、
前記クエリノードにおける第3のユニットを利用して、前記j-1番目の復号状態及び前記j-1番目の単語に対して非線形演算を行い、得られた中間演算結果を前記クエリノードにおける少なくとも1つの第2のユニットに出力して処理させ、前記j番目のクエリ状態を得るステップと、を含む、
ことを特徴とする、請求項7に記載の方法。 - 前記復号モデルは、前記符号化モデル、前記クエリノード及び前記処理ノードの各々に接続されたアテンション演算ノードをさらに含み、
前記j番目のソース言語注目コンテキストを、前記文ベクトル及び前記j番目のクエリ状態に基づいて生成する前記ステップは、
前記アテンション演算ノードを利用して、前記文ベクトル及び前記j番目のクエリ状態に対してアテンション演算を行い、前記j番目のソース言語注目コンテキストを得るステップ、を含む、
ことを特徴とする、請求項8乃至10いずれか一項に記載の方法。 - 前記処理ノードにおける第1のユニットを利用して前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行うことは、
前記第1のユニットを利用して前記j番目のクエリ状態と第1の差分に対して要素積演算を行い、第1の積を得るステップであり、
前記第1の差分は、所定の数値から前記第1のユニットの更新ゲートを引いた値に等しいものであり、
前記更新ゲートは、前記j番目のソース言語注目コンテキストからの前記j番目のソース言語注目コンテキストベクトルと前記j番目のクエリ状態からの前記j番目のソース言語注目コンテキストベクトルとの割合を判断するためのものである、ステップと、
前記第1のユニットを利用して前記j番目のソース言語注目コンテキストに対して線形変換関数により線形変換を行い、得られた線形変換関数値と線形変換ゲートに対して要素積演算を行い、第2の積を得るとともに、前記j番目のソース言語注目コンテキスト及び前記j番目のクエリ状態に対して双曲線正接関数により非線形変換を行い、得られた双曲線正接関数値と第2の積とを加算し、候補活性化関数値を得るステップであり、
前記線形変換ゲートは、前記候補活性化関数値が前記線形変換関数値を含むように制御するためのものである、ステップと、
前記第1のユニットを利用して前記更新ゲートと前記候補活性化関数値に対して要素積演算を行い、第3の積を得るステップと、
前記第1のユニットを利用して前記第1の積と前記第3の積とを加算し、前記j番目の演算結果を得るステップと、を含む、
ことを特徴とする、請求項7に記載の方法。 - 文処理装置であって、
カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む処理ノードである、カスケードされたn個(n≧2)の処理ノードを含む符号化モデルに用いられ、
符号化対象のソース文に対して単語分割演算を行い、m個(m≦n)の単語を得る単語分割モジュールと、
前記n個の処理ノードのうちのi番目(i≦m)の処理ノードを利用して前記m個の単語のうちのi番目の単語を取得し、i-1番目の処理ノードで得られたi-1番目の単語ベクトルを取得する取得モジュールであり、前記i-1番目の単語ベクトルは前記m個の単語のうちのi-1番目の単語の符号化ベクトルである、取得モジュールと、
前記i番目の処理ノードにおける第1のユニットを利用して前記i番目の単語及び前記i-1番目の単語ベクトルに対して線形演算及び非線形演算を行い、得られたi番目の演算結果を前記少なくとも1つの第2のユニットに出力して処理させ、i番目の単語ベクトルを得る演算モジュールと、
m個の単語ベクトルが得られると、目標文または目標分類を決定するための文ベクトルを前記m個の単語ベクトルに基づいて生成する生成モジュールと、を含む、
文処理装置。 - 文復号装置であって、
カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む1つの処理ノードを含む復号モデルに用いられ、
符号化モデルが符号化対象のソース文を符号化して得られた文ベクトルと、j番目の時点で前記ソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とを、j番目の時点で取得する取得モジュールと、
j番目の時点で前記ソース文のうちの符号化された部分であるj番目のソース言語注目コンテキストを、前記文ベクトル及び前記j番目のクエリ状態に基づいて生成する生成モジュールと、
前記処理ノードにおける第1のユニットを利用して前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を前記処理ノードにおける少なくとも1つの第2のユニットに出力して処理させ、j番目の単語を得る演算モジュールと、を含み、
前記生成モジュールは、さらに、k個(j≦k)の単語が得られると、前記k個の単語に基づいて目標文を生成する、
文復号装置。 - メモリ及びプロセッサを含む文処理機器であって、
前記メモリにはコンピュータ読み取り可能な命令及び符号化モデルが記憶されており、前記符号化モデルは、カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む処理ノードである、カスケードされたn個(n≧2)の処理ノードを含み、
前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、
符号化対象のソース文に対して単語分割演算を行い、m個(m≦n)の単語を得るステップと、
前記n個の処理ノードのうちのi番目(i≦m)の処理ノードを利用して前記m個の単語のうちのi番目の単語を取得し、i-1番目の処理ノードで得られたi-1番目の単語ベクトルを取得するステップであり、前記i-1番目の単語ベクトルは前記m個の単語のうちのi-1番目の単語の符号化ベクトルである、ステップと、
前記i番目の処理ノードにおける第1のユニットを利用して前記i番目の単語及び前記i-1番目の単語ベクトルに対して線形演算及び非線形演算を行い、得られたi番目の演算結果を前記少なくとも1つの第2のユニットに出力して処理させて、i番目の単語ベクトルを得るステップと、
m個の単語ベクトルが得られると、目標文または目標分類を決定するための文ベクトルを前記m個の単語ベクトルに基づいて生成するステップと、
を前記プロセッサに実行させる、
文処理機器。 - メモリ及びプロセッサを含む文処理機器であって、
前記メモリにはコンピュータ読み取り可能な命令及び復号モデルが記憶されており、前記復号モデルは、カスケードされた第1のユニット及び少なくとも1つの第2のユニットを含む処理ノードを含み、
前記コンピュータ読み取り可能な命令が前記プロセッサによって実行されると、
符号化モデルが符号化対象のソース文を符号化して得られた文ベクトルと、j番目の時点に前記ソース文のうちの符号化された部分をクエリするためのj番目のクエリ状態とをj番目の時点に取得するステップと、
j番目の時点に前記ソース文のうちの符号化された部分であるj番目のソース言語注目コンテキストを前記文ベクトル及び前記j番目のクエリ状態に基づいて生成するステップと、
前記処理ノードにおける第1のユニットを利用して、前記j番目のクエリ状態及び前記j番目のソース言語注目コンテキストに対して線形演算及び非線形演算を行い、得られたj番目の演算結果を前記処理ノードにおける少なくとも1つの第2のユニットに出力して処理させて、j番目の単語を得るステップと、
k個(j≦k)の単語が得られると、前記k個の単語に基づいて目標文を生成するステップと、
を前記プロセッサに実行させる、
文処理機器。 - コンピュータ読み取り可能な命令を含むコンピュータプログラムであって、
前記コンピュータ読み取り可能な命令が1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに請求項1乃至6、7、12いずれか一項に記載の方法を実行させる、
コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811444710.8A CN110263304B (zh) | 2018-11-29 | 2018-11-29 | 语句编码方法、语句解码方法、装置、存储介质及设备 |
CN201811444710.8 | 2018-11-29 | ||
PCT/CN2019/121420 WO2020108545A1 (zh) | 2018-11-29 | 2019-11-28 | 语句处理方法、语句解码方法、装置、存储介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022503812A true JP2022503812A (ja) | 2022-01-12 |
JP7229345B2 JP7229345B2 (ja) | 2023-02-27 |
Family
ID=67911885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021516821A Active JP7229345B2 (ja) | 2018-11-29 | 2019-11-28 | 文処理方法、文復号方法、装置、プログラム及び機器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210174003A1 (ja) |
JP (1) | JP7229345B2 (ja) |
CN (1) | CN110263304B (ja) |
WO (1) | WO2020108545A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263304B (zh) * | 2018-11-29 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 语句编码方法、语句解码方法、装置、存储介质及设备 |
CN112309405A (zh) * | 2020-10-29 | 2021-02-02 | 平安科技(深圳)有限公司 | 多种声音事件的检测方法、装置、计算机设备及存储介质 |
CN112560413B (zh) * | 2020-12-15 | 2023-08-04 | 中国人寿保险股份有限公司 | 基于配置模式的报表扩展方法、装置和设备 |
CN113705652A (zh) * | 2021-08-23 | 2021-11-26 | 西安交通大学 | 一种基于指针生成网络的任务型对话状态追踪系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076403A (ja) * | 2015-10-16 | 2017-04-20 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 人間から示唆を得た簡単質問応答(hisqa)システム及び方法 |
CN107391501A (zh) * | 2017-09-11 | 2017-11-24 | 南京大学 | 一种基于词预测的神经机器翻译方法 |
JP2018073163A (ja) * | 2016-10-31 | 2018-05-10 | 日本電信電話株式会社 | 符号器学習装置、変換装置、方法、及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8504361B2 (en) * | 2008-02-07 | 2013-08-06 | Nec Laboratories America, Inc. | Deep neural networks and methods for using same |
KR101682207B1 (ko) * | 2010-08-23 | 2016-12-12 | 에스케이플래닛 주식회사 | 토큰 분리 및 번역 과정을 통합한 통합 디코딩 장치 및 그 방법 |
US10867597B2 (en) * | 2013-09-02 | 2020-12-15 | Microsoft Technology Licensing, Llc | Assignment of semantic labels to a sequence of words using neural network architectures |
CN107220231A (zh) * | 2016-03-22 | 2017-09-29 | 索尼公司 | 用于自然语言处理的电子设备和方法以及训练方法 |
KR20180077847A (ko) * | 2016-12-29 | 2018-07-09 | 주식회사 엔씨소프트 | 문장 검증 장치 및 방법 |
US10534863B2 (en) * | 2017-02-06 | 2020-01-14 | Thomson Reuters Global Resources Unlimited Company | Systems and methods for automatic semantic token tagging |
CN107632981B (zh) * | 2017-09-06 | 2020-11-03 | 沈阳雅译网络技术有限公司 | 一种引入源语组块信息编码的神经机器翻译方法 |
CN107729329B (zh) * | 2017-11-08 | 2021-03-26 | 苏州大学 | 一种基于词向量连接技术的神经机器翻译方法及装置 |
CN108304788B (zh) * | 2018-01-18 | 2022-06-14 | 陕西炬云信息科技有限公司 | 基于深度神经网络的人脸识别方法 |
CN108399230A (zh) * | 2018-02-13 | 2018-08-14 | 上海大学 | 一种基于卷积神经网络的中文财经新闻文本分类方法 |
CN110263304B (zh) * | 2018-11-29 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 语句编码方法、语句解码方法、装置、存储介质及设备 |
-
2018
- 2018-11-29 CN CN201811444710.8A patent/CN110263304B/zh active Active
-
2019
- 2019-11-28 WO PCT/CN2019/121420 patent/WO2020108545A1/zh active Application Filing
- 2019-11-28 JP JP2021516821A patent/JP7229345B2/ja active Active
-
2021
- 2021-02-22 US US17/181,490 patent/US20210174003A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076403A (ja) * | 2015-10-16 | 2017-04-20 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 人間から示唆を得た簡単質問応答(hisqa)システム及び方法 |
JP2018073163A (ja) * | 2016-10-31 | 2018-05-10 | 日本電信電話株式会社 | 符号器学習装置、変換装置、方法、及びプログラム |
CN107391501A (zh) * | 2017-09-11 | 2017-11-24 | 南京大学 | 一种基于词预测的神经机器翻译方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110263304B (zh) | 2023-01-10 |
CN110263304A (zh) | 2019-09-20 |
US20210174003A1 (en) | 2021-06-10 |
JP7229345B2 (ja) | 2023-02-27 |
WO2020108545A1 (zh) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423233B2 (en) | On-device projection neural networks for natural language understanding | |
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
Yao et al. | An improved LSTM structure for natural language processing | |
CN111368993B (zh) | 一种数据处理方法及相关设备 | |
JP7229345B2 (ja) | 文処理方法、文復号方法、装置、プログラム及び機器 | |
CN111951805A (zh) | 一种文本数据处理方法及装置 | |
CN111930942B (zh) | 文本分类方法、语言模型训练方法、装置及设备 | |
US10789942B2 (en) | Word embedding system | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
CN112214591A (zh) | 一种对话预测的方法及装置 | |
CN114818691A (zh) | 文章内容的评价方法、装置、设备及介质 | |
CN113505193A (zh) | 一种数据处理方法及相关设备 | |
CN113946681A (zh) | 文本数据的事件抽取方法、装置、电子设备及可读介质 | |
CN112966517A (zh) | 命名实体识别模型的训练方法、装置、设备及介质 | |
CN108875024B (zh) | 文本分类方法、系统、可读存储介质及电子设备 | |
Pal et al. | R-GRU: Regularized gated recurrent unit for handwritten mathematical expression recognition | |
CN111767720B (zh) | 一种标题生成方法、计算机及可读存储介质 | |
CN112069813A (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
WO2023116572A1 (zh) | 一种词句生成方法及相关设备 | |
CN111723186A (zh) | 用于对话系统的基于人工智能的知识图谱生成方法、电子设备 | |
CN114417891B (zh) | 基于粗糙语义的回复语句确定方法、装置及电子设备 | |
CN109902273A (zh) | 关键词生成模型的建模方法和装置 | |
CN115240713A (zh) | 基于多模态特征和对比学习的语音情感识别方法及装置 | |
CN110442706B (zh) | 一种文本摘要生成的方法、系统、设备及存储介质 | |
CN113420869A (zh) | 基于全方向注意力的翻译方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7229345 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |