JP6910012B2 - 文章評価装置、及び文章評価方法 - Google Patents

文章評価装置、及び文章評価方法 Download PDF

Info

Publication number
JP6910012B2
JP6910012B2 JP2018561820A JP2018561820A JP6910012B2 JP 6910012 B2 JP6910012 B2 JP 6910012B2 JP 2018561820 A JP2018561820 A JP 2018561820A JP 2018561820 A JP2018561820 A JP 2018561820A JP 6910012 B2 JP6910012 B2 JP 6910012B2
Authority
JP
Japan
Prior art keywords
sentence
input
input sentence
evaluation
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018561820A
Other languages
English (en)
Other versions
JPWO2018131259A1 (ja
Inventor
諒 石田
諒 石田
武寿 中尾
武寿 中尾
森岡 幹夫
幹夫 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018131259A1 publication Critical patent/JPWO2018131259A1/ja
Priority to JP2021075010A priority Critical patent/JP7122582B2/ja
Application granted granted Critical
Publication of JP6910012B2 publication Critical patent/JP6910012B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、入力される文章の評価を行う文章評価装置及び文章評価方法に関する。
特許文献1は、翻訳機などの翻訳性能や翻訳能力を確認する評価の効率化を図るための訳文評価装置を開示している。特許文献1は、訳文評価装置を用いた評価の目的に応じて、基礎原文と模範訳文とを関連付けた評価用のデータベースを作成している。特許文献1の訳文評価装置は、作成された評価用のデータベースに基づいて、機械的に翻訳文の評価を行っている。
特開2008−276517号公報
本開示は、文章を自動で評価させる際に適切な文章の評価が行われ易くすることができる文章評価装置及び文章評価方法を提供する。
本開示の一態様における文章評価装置は、入力される文章の評価を行う。文章評価装置は、取得部と、演算処理部とを備える。取得部は、第1の入力文をおよび第2の入力文を取得する。演算処理部は、取得部によって取得された各入力文に対して、機械学習に基づくアルゴリズムによる情報処理を行う。演算処理部は、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、機械学習に基づくアルゴリズムにおいて、第1の入力文におけるデータ構造の各要素を認識する第1のエンコーダと、第2の入力文におけるデータ構造の各要素を認識する第2のエンコーダとを備える。第1の入力文は、翻訳機による機械翻訳の結果の翻訳文である。第2の入力文は、翻訳機による機械翻訳の対象となった翻訳原文、及び翻訳原文の翻訳における正解例を示す正解文の内のいずれかである。演算処理部は、第2のエンコーダにおいて認識された第2の入力文の要素を参照するアテンション処理により、第1の入力文の各要素において第2の入力文に対する重要度を判定し、第1のエンコーダにおける第1の入力文の認識結果と第2のエンコーダにおける第2の入力文の認識結果とに基づいて、判定された重要度に応じた要素間の重み付け合算により、第2の入力文に対する第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成する。


本開示の一態様における文章評価方法は、文章評価装置に入力される文章の評価を実行する方法である。
本開示における文章評価装置及び文章評価方法によると、機械学習に基づく二つのエンコーダを用いて各入力文を認識することにより、文章を自動で評価させる際に適切な文章の評価が行われ易くすることができる。
実施形態1に係る文章評価装置の概要を説明するための図 翻訳機における対訳コーパスを説明するための図 実施形態1に係る文章評価装置の構成を例示するブロック図 文章評価装置における主観評価の学習用データを説明するための図 文章評価装置におけるユーザインタフェースの表示例を示す図 実施形態1に係る文章評価装置の実行モードの動作を示すフローチャート 文章評価装置における深層ニューラルネットワークを説明するための図 深層ニューラルネットワークによる文章評価処理を説明するためのフローチャート 文章評価処理におけるデータ構造の変形例を説明するための図 実施形態1におけるHT−LSTM部を説明するための図 文章評価装置の学習モードの動作を示すフローチャート 実施形態1の変形例に係る文章評価装置の実行モードの動作を示すフローチャート 実施形態2におけるHT−LSTM部を説明するための図 実施形態2の変形例1におけるHT−LSTM部を説明するための図 実施形態2の変形例2におけるHT−LSTM部を説明するための図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
1.構成
実施形態1では、翻訳文の評価を自動で行う文章評価装置及び方法について説明する。
1−1.概要
本実施形態に係る文章評価装置及び方法の概要について、図1を参照して説明する。図1は、本実施形態に係る文章評価装置2の概要を説明するための図である。
本実施形態では、図1に示すように、機械翻訳を行う翻訳機1による翻訳精度の主観評価を、文章評価装置2によって行うことを想定している。主観評価とは、人の主観的な観点から、例えば翻訳機1に入力する入力文(翻訳原文)を翻訳した際の正解例を示す正解文と、翻訳機1による翻訳結果の出力文(翻訳文)とを比較し、出力文による入力文の翻訳精度を分類する評価をいう。
例えば、入力文「京都から東京までどうやって行けば良いですか」に対する翻訳機1の出力文が「How can I get to Tokyo from Kyoto」である場合、出力文は入力文を正しく翻訳していると考えられる。そこで、主観評価において、このような翻訳機1の出力文は、例えば4段階評価「Bad(1)」、「Not-Good(2)」、「So-so(3)」及び「Good(4)」において最も良い「Good(4)」に分類される。
一方、上記の入力文に対して、翻訳機1の出力文が「How can I get to Kyoto from Tokyo」である場合には、「Kyoto」、「Tokyo」の二単語が評価「Good(4)」の出力文から入れ替わることで、出力文で表される文章の意味が翻訳結果として間違っていると感じられる。このような場合の主観評価は、例えば最も悪い「Bad(1)」の分類になる。
上記のような主観評価は通常、翻訳機1の性能評価のために人手で行われ、人手による膨大な作業量を要していた。一方で、翻訳機1の性能評価を機械的に行う手法としては、例えばBLEUが知られている(特許文献1参照)。しかしながら、BLEUによると、正解文と出力文との間で連続して一致する単語数を数えるような評価が為され、文章で表される意味の観点からの評価を実現し難いという問題がある。
例えば、正解文中で「right」という単語に対応する部分が、「left」になっている第1の出力文と、「right hand side」になっている第2の出力文とがある場合に、正解文と違う単語数を数えると、第1の出力文では一単語である一方、第2の出力文では二単語になる。このため、BLEUによると、正解文(「right」)とは真逆の意味を表すような第1の出力文(「left」)が、正解文とは同じ意味を別表現で表す第2の出力文(「right hand side」)よりも良い評価になってしまい、人の主観に適合した評価を実現することが困難であった。
そこで、本実施形態では、文章評価装置2で自動的に翻訳文の評価を行う方法に機械学習を導入して、機械学習において人の主観に適合した評価基準を文章評価装置2に獲得させる。以下、本実施形態における評価対象の翻訳機1の例、及び本実施形態に係る文章評価装置2の構成について説明する。
1−2.翻訳機について
本実施形態では、一例として、機械学習に基づく翻訳処理を行う翻訳機1を想定している。本実施形態における翻訳機1の例について、図1を参照して説明する。
本例において、翻訳機1は、図1に示すように、制御部10と、記憶部11とを備える。翻訳機1は、例えばPC(パーソナルコンピュータ)で構成される。翻訳機1は、種々の情報端末、或いはサーバ装置などで構成されてもよい。
翻訳機1において、制御部10は、翻訳機1における各部の動作全体を制御する。制御部10は、例えばソフトウェアと協働して所定の機能を実現するCPUを含む。制御部10は、記憶部11に格納されたデータやプログラムを読み出して種々の演算処理を行い、翻訳機1の各種機能を実現する。
例えば、制御部10は、機械学習に基づき所定の入力言語(例えば日本語)における翻訳対象の翻訳原文を、入力言語とは異なる出力言語(例えば英語)に機械翻訳して翻訳文を出力する翻訳処理を実行したり、当該翻訳処理の機械学習を制御したりする。入力言語及び出力言語は、種々の自然言語であってもよい。また、制御部10は、翻訳原文を含む各種入力情報を外部から受信したり、翻訳文を含む各種出力情報を外部に送信したりする通信制御を適宜、行う。
記憶部11は、翻訳機1の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体であり、例えばハードディスク(HDD)や半導体記憶装置(SSD)で構成される。例えば、記憶部11は、翻訳機1が翻訳処理を実行するためのプログラムや各種パラメータ、及び対訳コーパスD1、入出力言語の語彙を示す情報などを格納する。対訳コーパスD1について、図2を用いて説明する。
図2は、翻訳機1における対訳コーパスD1を説明するための図である。対訳コーパスD1は、翻訳機1の機械学習に利用するために入出力言語間の対訳を示すデータのコーパスである。対訳コーパスD1は、図2に示すように、翻訳原文と正解文とをペアで関連付けて記録する。対訳コーパスD1における翻訳原文は、学習時等の翻訳機1に入力する入力言語の例文である。正解文は、対訳コーパスD1で関連付けされた翻訳原文を出力言語に翻訳した際の正解例を示す例文である。
対訳コーパスD1は、例えば10万文(ペア)等の大量の翻訳原文及び正解文のデータを格納し、例えば10万文中で9万文の訓練用データと1万文の評価用データとを含む。例えば、対訳コーパスD1における訓練用データを用いて翻訳機1の機械学習が行われ、残りの評価用データを用いて翻訳機1の性能評価が行われる。
以上のような機械学習に基づく翻訳機1によると、異なる学習結果を有する複数種類の翻訳機1が取り扱われる場合がある。このため、人手で行う主観評価では、翻訳機1の一種類当たりに要する作業量が膨大であるだけでなく、複数種類の翻訳機1をそれぞれ評価する必要も生じてしまっていた。これに対して、本実施形態に係る文章評価方法及び装置2を用いることで、複数種類の翻訳機1の中から人手で行う主観評価の対象とする機種を絞り込む等により、人手で行われる作業量を低減するようなこともできる。
1−3.文章評価装置の構成
図3を参照して、本実施形態に係る文章評価装置2のハードウェア構成を説明する。図3は、文章評価装置2の構成を例示するブロック図である。
文章評価装置2は、例えばPCや種々の情報端末などの情報処理装置で構成される。文章評価装置2は、図3に示すように、演算処理部20と、記憶部21と、機器インタフェース22と、ネットワークインタフェース23とを備える(以下、「インタフェース」を「I/F」という。)。また、文章評価装置2は、操作部24と、表示部25とを備える。
演算処理部20は、例えばソフトウェアと協働して所定の機能を実現するCPUやGPUを含み、文章評価装置2の全体動作を制御する。演算処理部20は、記憶部21に格納されたデータやプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。例えば、演算処理部20は、後述する深層ニューラルネットワークを構築するプログラムを実行する。上記のプログラムは、各種の通信ネットワークから提供されてもよいし、可搬性を有する記録媒体に格納されていてもよい。
なお、演算処理部20は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。演算処理部20は、CPU、MPU、GPU、GPGPU、TPU、マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。
記憶部21は、文章評価装置2の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。例えば、記憶部21は、機械学習を行うニューラルネットワークとして機能するための、学習対象のパラメータ群(以下「学習パラメータ」という。)を記憶する。記憶部21は、図3に示すように、格納部21a及び一時記憶部21bを含む。
格納部21aは、所定の機能を実現するために必要なパラメータ、データ及び制御プログラム等を格納する。格納部21aは、例えばHDDやSSDで構成される。例えば、格納部21aは、深層ニューラルネットワークのためのプログラム、(学習済みの)学習パラメータ、及び主観評価の学習用データD2などを格納する。主観評価の学習用データD2については後述する。
一時記憶部21bは、例えばDRAMやSRAM等のRAMで構成され、データを一時的に記憶(保持)する。また、一時記憶部21bは、演算処理部20の作業エリアとして機能してもよく、演算処理部20の内部メモリにおける記憶領域で構成されてもよい。一時記憶部21bには、例えば、深層ニューラルネットワークにおいて生成される各種ベクトル変数、及び(学習中の)学習パラメータなどが保持される。例えばGPUで高速に演算する場合には、各種パラメータ及び演算中の中間状態(中間ベクトル)はGPU上の記憶領域に保持される。
機器I/F22は、文章評価装置2に、翻訳機1等の外部機器を接続するための回路(モジュール)である。機器I/F22は、所定の通信規格にしたがい通信を行う取得部の一例である。所定の規格には、USB、HDMI(登録商標)、IEEE1395、WiFi、Bluetooth(登録商標)等が含まれる。
ネットワークI/F23は、無線または有線の通信回線を介して文章評価装置2を通信ネットワークに接続するための回路(モジュール)である。ネットワークI/F23は所定の通信規格に準拠した通信を行う取得部の一例である。所定の通信規格には、IEEE802.3,IEEE802.11a/11b/11g/11ac等の通信規格が含まれる。
操作部24は、ユーザが操作を行うユーザインタフェースである。操作部24は、例えば、キーボード、タッチパッド、タッチパネル、ボタン、スイッチ、及びこれらの組み合わせで構成される。操作部24は、ユーザによって入力される諸情報を取得する取得部の一例である。なお、文章評価装置2における取得部は、例えば各種記憶媒体(例えば格納部21a)に格納された諸情報を演算処理部20の作業エリア(例えば一時記憶部21b)に読み出すことによって諸情報の取得を行うものであってもよい。
表示部25は、例えば、液晶ディスプレイや有機ELディスプレイで構成される。表示部25は、例えば操作部24から入力された情報など、種々の情報を表示する。
以上の説明では、PC等で構成される文章評価装置2の一例を説明した。本開示に係る文章評価装置2はこれに限定されず、種々の情報処理装置であってもよい。例えば、文章評価装置2は、ASPサーバなどの一つ又は複数のサーバ装置であってもよい。例えば、文章評価装置2は、外部から通信ネットワークを介して入力された翻訳文をネットワークI/F23により取得して、深層ニューラルネットワークによる情報処理を実行してもよい。また、文章評価装置2は、情報処理の実行結果の情報(評価情報)を、通信ネットワークを介して外部に送信してもよい。また、コンピュータクラスタ或いはクラウドコンピューティングなどにおいて、本開示に係る深層ニューラルネットワークが構築されてもよい。
1−3−1.主観評価の学習用データについて
主観評価の学習用データD2について、図4を参照して説明する。図4は、文章評価装置2における主観評価の学習用データを説明するための図である。
主観評価の学習用データD2は、文章評価装置2の機械学習において、文章評価装置2に学習させるためのデータである。主観評価の学習用データD2は、図4に示すように、翻訳文と、正解文と、主観評価結果とを関連付けて記録する。主観評価結果は、主観評価の学習用データD2において互いに関連付けされた正解文に対する翻訳文の主観評価が予め行われた結果であり、例えば4段階評価の値「4」〜「1」が格納される。
主観評価の学習用データD2は、例えば過去に人手で行われた主観評価に基づいて作成される。このような主観評価の学習用データD2を用いて文章評価装置2の機械学習を行うことにより、過去に行われた主観評価における人の主観に適合した評価基準を文章評価装置2に獲得させることが可能になる。
2.動作
以上のように構成される文章評価装置2の動作について、以下説明する。
2−1.動作の概要
本実施形態に係る文章評価装置2の動作の概要について、図5を用いて説明する。図5は、文章評価装置2におけるユーザインタフェースの表示例を示す図である。
本実施形態では、文章評価装置2による評価を行う際に、対訳コーパスD1(図2)において翻訳機1の学習に使用しなかった評価用データを用いて、評価用データの翻訳原文を翻訳機1に翻訳させる例を説明する。図5の表示例において、文章評価装置2の表示部25は、翻訳原文「右手にあります」と正解文「It is on your right hand side」とを表示している。図5の表示例では、翻訳機1による翻訳結果として、翻訳文「It is on your left」が表示されている。
図5の表示例において、文章評価装置2は、上記の翻訳文に対する評価の実行結果として、翻訳文の一部の箇所「left」を強調表示したり、正解文に対する翻訳文の評価および類似度を表示したりしている。類似度は、翻訳文と正解文とが類似する度合いを示しており、本表示例では百分率で表示されている。
本例では、翻訳文中の「left」が、正解文において「right」に対応すべき部分であり、翻訳文と正解文(翻訳原文)とで表現される意味を真逆にしていると考えられる。このことから、本実施形態に係る文章評価装置2は、正解文に対して非類似である非類似箇所として翻訳文中の「left」を検出し、検出結果に応じて類似度などを算出する。
また、本表示例では、原因文が列挙されている。原因文は、翻訳機1が例えば翻訳原文中の「右」に対して非類似箇所「left」という誤訳を行うように学習された原因と考えられる文章であり、対訳コーパスD1において正解文(及び翻訳原文)として含まれることが想定される。本実施形態に係る文章評価装置2によると、非類似箇所の検出により、翻訳機1の対訳コーパスD1から誤訳の原因文を検索するようなこともできる。以下、本実施形態に係る文章評価装置2の動作の詳細について説明する。
2−2.実行モードの動作
本実施形態に係る文章評価装置2において文章評価方法が実行される実行モードの全体動作について、図6を用いて説明する。
図6は、文章評価装置2の実行モードの動作を示すフローチャートである。図6に示すフローチャートは、文章評価装置2の機械学習が為された状態において、演算処理部20によって実行される。
まず、文章評価装置2は、翻訳機1から、例えば機器I/F22(或いはネットワークI/F23)を介して、翻訳文を取得する(S1)。本実施形態では、翻訳機1は対訳コーパスD1における評価用データに含まれる翻訳原文を機械翻訳し、翻訳結果の翻訳文を文章評価装置2に送信する。ステップS1で取得される翻訳文は、本実施形態における文章評価装置2の評価対象となる第1の入力文の一例である。
次に、文章評価装置2は、例えば翻訳機1から翻訳の対象となった翻訳原文と共に、翻訳機1の対訳コーパスD1において当該翻訳原文に関連付けされた正解文を取得する(S2)。ステップS2で取得される正解文は、本実施形態において翻訳原文と比較される第2の入力文の一例である。
次に、文章評価装置2は、取得した翻訳文及び正解文に基づいて、文章評価処理を実行する(S3)。文章評価処理は、深層学習に基づいて、正解文に対する翻訳文の評価を示す評価情報を生成する処理である。評価情報は、類似度を示す情報や翻訳文における非類似箇所を示す情報などを含む。ステップS3の文章評価処理の詳細については後述する。
次に、文章評価装置2は、文章評価処理(S3)によって生成された評価情報に基づいて、翻訳文と正解文とが類似しているか否かを判断する(S4)。具体的に、文章評価装置2の演算処理部20が、評価情報に含まれる類似度を所定のしきい値と比較することにより、ステップS4の処理を実行する。
文章評価装置2は、翻訳文と正解文とが類似していないと判断した場合(S4でNO)、生成された評価情報に基づいて、翻訳文中の非類似箇所を検出する(S5)。非類似箇所は、翻訳文中の一単語であってもよいし、複数の単語から成る句であってもよい。
また、文章評価装置2は、例えば検出した非類似箇所を示す情報を含むコマンドを翻訳機1に発行して、対訳コーパスD1において非類似箇所が含まれる原因文を検索させる(S6)。受信したコマンドに基づいて、翻訳機1は対訳コーパスD1中の訓練用データにおいて原因文を検索し、文章評価装置2は、翻訳機1から検索結果を示す情報を受信する。
次に、文章評価装置2は、ステップS3〜S6において得られた各種評価情報を表示部25に、例えば図5の表示例に示すように表示する(S7)。例えば、文章評価装置2は、ステップS3で生成された評価情報が示す類似度を百分率に換算して表示したり、4段階などの多段階評価において類似度の値(43.2%)に対応する分類(Bad(1))を表示したりする。
一方、翻訳文と正解文とが類似していると判断した場合(S4でYES)、文章評価装置2は、ステップS5,S6の処理を特に行うことなく、ステップS7の処理に進む(S7)。この場合、文章評価装置2は、例えば類似度や類似度に対応する多段階評価の分類などを表示部25に表示する。
文章評価装置2は、各種評価情報を表示することにより(S7)、本フローチャートによる処理を終了する。
以上の処理によると、翻訳機1の翻訳結果に対する主観評価を文章評価装置2において自動で行うことができる。
以上の処理において、ステップS2における翻訳原文の取得は適宜、省略されてもよい。また、正解文の取得元は翻訳機1に限らず、例えば、翻訳機1の学習に用いた対訳コーパスD1と同じデータが予め記憶された記憶媒体から取得されてもよい。また、以上の処理は、別途用意された対訳コーパスを用いて行われてもよい。
また、以上の説明では、文章評価装置による評価対象が翻訳機1の翻訳結果である例について説明したが、これに限らず、例えばユーザが入力した翻訳文を文章評価装置2の評価対象としてもよい。
2−3.文章評価処理
以下、図6のステップS3の文章評価処理について説明する。本実施形態において、文章評価処理は、文章評価装置2において深層学習の対象となる深層ニューラルネットワークを構築して実行される。本実施形態に係る深層ニューラルネットワークについて、図7を用いて説明する。
2−3−1.深層ニューラルネットワークについて
図7は、文章評価装置2における深層ニューラルネットワーク3を説明するための図である。本実施形態において、深層ニューラルネットワーク3は、文章評価装置2の演算処理部20(図3)において構築される。
本実施形態に係る深層ニューラルネットワーク3は、図7に示すように、翻訳文を認識するための第1のエンコーダ31と、正解文を認識するための第2のエンコーダ32と、全結合層33とを備える。図7では、説明の簡単化のため、深層ニューラルネットワーク3において翻訳文「on your left」が第1のエンコーダ31に入力され、正解文「right hand side」が第のエンコーダ3に入力された例を示している。
第1のエンコーダ31は、第1のツリーLSTM処理部31aと、第1のアテンション処理部31bとを備える。同様に、第2のエンコーダ32は、第2のツリーLSTM処理部32aと、第2のアテンション処理部32bとを備える。
第1のツリーLSTM処理部31aは、所定のデータ構造に基づいて、図6のステップS1において取得された翻訳文を認識するための処理を実行する。本実施形態において、第1のツリーLSTM処理部31aは、例えば木構造における二分木のように二つのノードを一組の子ノードとして有する親ノードを、網羅的に含むデータ構造において、翻訳文を認識する。
例えば、図7の例では、翻訳文「on your left」において、連続する二単語「on」、「your」を一組の子ノードとして当該二単語から成る句「on your」が親ノードとして認識され、さらに二単語「your」、「left」から成る句「your left」が次の親ノードとして認識される。また、二単語から成る句が全て認識されると、認識された句を子ノードとして、より大きい単語数の句を表す親ノードが順次、認識される。このような認識処理は、処理対象の文全体を表す親ノード(h[root])が認識されるまで繰り返される。
上記のようなデータ構造は、通常の木構造と同様に、処理対象の文全体を表す根ノードから文中の各単語を表す葉ノードまで世代別に階層化された複数のノードを要素として含む。複数のノードは、世代間で上位側の親ノードと下位側の子ノードとによる親子関係で関連付けられ、親ノードは複数の子ノード(兄弟ノード)を有し得る。これに加えて、当該データ構造では、部分的に重複する木構造を含んでもよく、例えば隣接する親ノード間で、子ノードの一部が重複してもよいこととする。以下、このようなデータ構造で表されるデータを「木データ」という。
第1のツリーLSTM処理部31aは、木データの要素毎の認識処理を行うHT(ハイウェイツリー)−LSTM部5を含む。HT−LSTM部5は、本開示に係る新規のニューラルネットワークであるHT−LSTMによる処理を実行する。HT−LSTM部5の詳細については後述する。
第1のアテンション処理部31bは、例えばフィードフォワードニューラルネットワークで構成され、第1のツリーLSTM処理部31aの認識結果に基づいて、翻訳文の木データにおける要素毎の重要度を判定するためのアテンション処理を実行する(図8のS20参照)。本処理では、正解文に対する重要度を得るために、第2のツリーLSTM処理部32aの認識結果が参照される。アテンション処理の詳細については後述する。
第1のツリーLSTM処理部31a及び第1のアテンション処理部31bによると、深層ニューラルネットワーク3において翻訳文を木データとしてエンコード(すなわち認識)する第1のエンコーダ31が構成される。
第2のツリーLSTM処理部32aは、例えば上記のデータ構造に基づき、図6のステップS2において取得された正解文を木データとして認識する。第2のツリーLSTM処理部32aは、例えば第1のツリーLSTM処理部31aのHT−LSTM部5と同様に、木データの要素毎の認識処理を行うHT−LSTM部5’を含む。二つのHT−LSTM部5,5’は、例えば別々の学習パラメータを有する。
第2のアテンション処理部32bは、第1のアテンション処理部31bと同様の処理を、第1及び第2のツリーLSTM処理部31a,32aの認識結果の扱いを入れ替えて実行し、正解文の木データにおける要素毎の重要度を判定する(図8のS21参照)。第2のアテンション処理部32bは、例えば第1のアテンション処理部31bと同様の構成において別の学習パラメータを有する。
第2のツリーLSTM処理部32a及び第2のアテンション処理部32bによると、深層ニューラルネットワーク3において正解文をエンコードする第2のエンコーダ32が構成される。
全結合層33は、第1及び第2のエンコーダ31,32のエンコード結果に基づいて、例えばロジットモデルの演算により、翻訳文と正解文との間の類似度を算出する(図8のS22)。全結合層33における類似度の算出処理の詳細については後述する。
2−3−2.文章評価処理の詳細
以上のように構築される深層ニューラルネットワーク3による文章評価処理(図6のS3)の詳細について、図7,8を用いて説明する。図8は、文章評価処理を説明するためのフローチャートである。
図8のフローチャートは、翻訳文及び正解文が取得された状態において(図6のS1,S2)、文章評価装置2の演算処理部20(図3)によって実行される。
まず、演算処理部20は、第1のツリーLSTM処理部31aのHT−LSTM部5として機能し(図7参照)、翻訳文の木データにおける一組の子ノードに対する親ノードを認識する(S10)。本処理において、演算処理部20は、親ノードの認識結果として出力ベクトルh[j,n]を生成し、記憶部21(例えば格納部21a)に記録する。
ここで、上記の出力ベクトルh[j,n]における添字jは、木データにおいて一要素(ノード)が属する世代を分類する世代数を示す。例えば世代数が「j」の親ノードに対する子ノードの世代数は「j−1」である。また、添字nは、木データの同じ世代における別々の要素を識別する番号を示す。添字nは、処理対象の文中の並び順において文頭側(以下「左側」という)の要素ほど小さく、文末側(以下「右側」という)の要素ほど大きい。
本実施形態では、ステップS10において演算処理部20は、世代数「j−1」の要素中で隣り合う二つ子ノードを一組として選択する。演算処理部20は、選択した一組の子ノードにおける各子ノードの出力ベクトルh[j−1,n],h[j−1,n+1]に基づいて、後述するHT−LSTMの演算処理を実行し、親ノードの出力ベクトルh[j,n]を生成する。
次に、演算処理部20は、例えば選択した一組の子ノードの添字nに基づいて、隣り合う子ノードの全ての組が選択されたか否かを判断する(S11)。ステップS11の判断は、特定の世代数jにおいて、種々の組の子ノードに対する親ノードを漏れなく認識するために行われる。演算処理部20は、全ての組の子ノードが選択されていないと判断した場合(S11でNO)、例えば処理対象の文中で左側から右側の順番において次の組の子ノードを選択して(S12)、ステップS10の処理に戻る。
例えば、図7の例において演算処理部20は、二単語「on」、「your」から句「on your」を表す親ノードを認識した後に、ステップS11で「NO」に進み、一単語分、右側の二単語「your」、「left」を表す子ノードの組を選択する(S12)。すると、二単語「your」、「left」から新たな句「your left」を表す親ノードが認識される(S10)。
一方、演算処理部20は、特定の世代数jにおいて全ての組の子ノードが選択されたと判断した場合(S11でYES)、ルートベクトルh[root]が得られたか否かを判断する(S13)。ルートベクトルh[root]は、木データにおける根ノードが親ノードとして認識された際の出力ベクトルであり、例えば世代数jの最大値Jを用いてh[root]=h[J,1]で表される。
演算処理部20は、ルートベクトルh[root]が得られていないと判断した場合(S13でNO)、世代数jをインクリメントして(S14)、ステップS10の処理に戻る。これにより、翻訳文の木データにおける全要素が認識されるまで、演算処理部20はステップS10〜S14の処理を繰り返す。
例えば、図5の例において演算処理部20は、句「your left」を表す親ノードを認識したとき(S10)、ステップS11で「YES」に進み、ステップS13で「NO」に進む。すると、演算処理部20は続くステップS10において、連続する二つの句「on your」、「your left」の親ノードの認識結果として、翻訳文「on your left」全体に対応するルートベクトルh[root]を生成する。この際、演算処理部20はステップS14で「YES」に進む。
演算処理部20は、翻訳文のルートベクトルh[root]が得られたと判断した場合(S14でYES)、翻訳文の木データの認識を完了して、ステップS15の処理に進む。ステップS10〜S14の処理により、翻訳文の木データの認識結果として出力ベクトルの組{h[j,n]}が得られる。
ステップS15〜S19において、演算処理部20は、第2のツリーLSTM処理部32aとして機能し、例えばステップS10〜S14と同様の処理を、正解文に対して実行する。演算処理部20は、HT−LSTM部5’として正解文のルートベクトルh[root]を生成するまでステップS15〜19の処理を繰り返し、正解文の木データの認識結果として正解文の出力ベクトルの組{h[j,n]}を記憶部21に記録する。なお、ステップS15〜S19の処理は、ステップS10〜S14の後でなくてもよく、並列的に実行されてもよい。
次に、演算処理部20は、第1のアテンション処理部31bとしてアテンション処理を実行し、第1のLSTM処理部31aで認識された翻訳文の木データの各要素{h[j,n]}において、正解文に対するそれぞれの重要度を判定する(S20)。具体的に、ステップS20のアテンション処理において演算処理部20は、翻訳文の出力ベクトルh[j,n]毎に、正解文のルートベクトルh[root]を用いて次式(1),(2)の演算を行って、各出力ベクトルh[j,n]に対する係数α[j,n]を算出する。
α[j,n]=exp(e[j,n])/Σj,nexp(e[j,n])…(1)
e[j,n]=F(h[j,n],h[root]) …(2)
上式(1)において、係数α[j,n]は、対応する出力ベクトルh[j,n]で認識された木データ中の一要素の正解文に対する重要度を表す。また、Σj,nは翻訳文の木データの全ノードにわたる総和であり、expは指数関数である。また、上式(2)において、Fは所定のスカラー値関数であり、例えば次式(3)で表される。
F(h[j,n],h[root])
=tanh(Wh[j,n]+WFH[root]+b) …(3)
上式(3)において、tanhは双曲線正接関数である。また、それぞれ学習パラメータを構成するW,WFHは行数1の行列(行ベクトル)であり、bはスカラーのバイアス項である。なお、Fの関数形は上式(3)に限らず、例えばtanhに代えてシグモイド関数やReLU(正規化線形関数)を用いたり、ベクトル間の内積「h[j,n]・h[root]」を用いたりしてもよい。また、合成関数によってe[j,n]が適宜、多層化されてもよい。
式(1)によると、ステップS20の処理の結果として得られる係数α[j,n]の組{α[j,n]}によって、翻訳文の木データの各要素{h[j,n]}にわたって正解文の情報を考慮した重み付けがなされる。演算処理部20は、算出した各係数α[j,n]を記憶部21に記録する。
また、演算処理部20は、第2のアテンション処理部32bとしてのアテンション処理を実行し、第2のLSTM処理部32aで認識した正解文の木データの各要素{h[j,n]}において、翻訳文に対するそれぞれの重要度を判定する(S21)。ステップS21の処理は、ステップS20の前後に行われてもよいし、並列的に行われてもよい。
ステップS21のアテンション処理は、正解文の出力ベクトルh[j,n]と翻訳文側のルートベクトルh[root]を用いて、例えばステップS20の処理と同様に行われる。これにより、正解文の各出力ベクトルh[j,n]に対する係数α[j,n]が算出され、それぞれ記憶部21に記録される。
次に、演算処理部20は、深層ニューラルネットワーク3の全結合層33として機能し、翻訳文及び正解文の認識結果{h[j,n]},{h[j,n]}と、それぞれの重要度の判定結果{α[j,n]},{α[j,n]}とに基づき、類似度pの算出処理を行う(S22)。具体的に、演算処理部20は、ステップS22において次式(4),(5)の演算を行う。
p=1/(1+exp(Wd+b)) …(4)
d=Σj,nα[j,n]h[j,n]+Σj,nα[j,n]h[j,n] …(5)
上式(4)において、dはベクトルであり、学習パラメータを構成するWは行数1の行列であり、bはスカラーのバイアス項である。また、上式(5)において、第1項の総和は翻訳文の木データの全要素にわたり、第2項の総和は正解文の木データの全要素にわたる。
上式(5)によると、全結合層33において、翻訳文及び正解文の木データの各要素{h[j,n]},{h[j,n]}が、それぞれの重要度{α[j,n]},{α[j,n]}に応じた重み付けで合算される。演算処理部20は、合算結果のベクトルdに基づくロジスティック関数により(式(4))、類似度pを0〜1の範囲内で算出する。類似度pは、「1」に近いほど翻訳文と正解文とが類似していることを示し、「0」に近いほど非類似であることを示す。
演算処理部20は、類似度pを算出することにより(ステップS22)、図6のステップS3の処理を終了し、ステップS4に進む。
以上の処理によると、深層ニューラルネットワーク3において第1及び第2のエンコーダ31,32で翻訳文と正解文とのそれぞれの木データを認識することで、例えば翻訳文中の単語と正解文中の句とを対比可能になる。これにより、例えば「right」と「right hand side」との間の意味的な近さを文章評価装置2の判断基準に取り入れることができる。
また、以上の処理では、全結合層33において、翻訳文及び正解文の木データの各要素{h[j,n]},{h[j,n]}を各々の重要度{α[j,n]},{α[j,n]}に応じて統合して、二文間の類似度pが出力される(S22)。全結合層33の演算式(4),(5)によると(S22)、翻訳文の木データにおける各要素{h[j,n]}において、「α[j,n]Wh[j,n]」が正の要素は二文間の類似性に寄与し、負の要素は類似性に寄与していることがわかる(正解文側も同様)。
上記のことから、例えば図5の例では、翻訳文中の「left」と正解文中の「right」とのそれぞれのノードに対する重要度の係数α[j,n],α[j,n]がより大きく算出されることが期待される(図7参照)。このため、例えば、翻訳文と正解文とが非類似である場合に、演算処理部20は、翻訳文の木データにおいて、ステップS20で算出された係数α[j,n]がより大きい要素を非類似箇所として検出できる(図6のS5参照)。
また、以上の処理によると、各エンコーダ31,32のツリーLSTM処理部31a,32a(図7)において二分木に類するデータ構造を用いることにより、特に構文解析等を行うことなく各入力文の認識を行うことができる。例えば、文法が崩れたような翻訳文が入力された場合であっても頑健に認識を行うことができる。
以上の説明では、二分木に類するデータ構造において翻訳文及び正解文を認識したが(S10〜S19)、各文の認識に用いるデータ構造はこれに限らない。例えば、通常の二分木(子ノードの重複なし)を用いてもよいし、種々の木構造を用いてもよい。また、以上の説明では、第1及び第2のツリーLSTM処理部31a,32a間で同じデータ構造を用いたが、異なるデータ構造を用いてもよい。図9を用いて、文章評価処理におけるデータ構造の変形例について説明する。
図9は、第2のツリーLSTM処理部32aにおける正解文「This is a pen」の認識が、木構造を用いて行われる例を示している。図9の例では、各HT−LSTM部32a(S15)で認識する子ノードの個数が変化している。このような木構造は、ステップS15の処理前に予め正解文「This is a pen」の構文解析を行っておくことにより、ステップS15の処理を実行する度に子ノードの個数を設定して、ステップS15〜S19の処理に適用できる。
図9の例において、第2のツリーLSTM処理部32aは、各単語「This」「is」「a」「pen」を1ノードずつ認識し、次に三単語「is」「a」「pen」を子ノードとする親ノードの句「is a pen」を認識し、さらに「This」と「is a pen」から根ノードを認識する。このように正解文の特有の木構造に基づき各要素が認識された場合であっても、ステップS20以降の処理を適宜、実行することができる。
2−4.HT−LSTMについて
以上のような第1及び第2のツリーLSTM処理部31a,32aにおけるHT−LSTM部5,5’は、本開示に係る一例のHT−LSTMの演算処理を実行する。HT−LSTMは、ニューラルネットワークの一種であるLSTMを、木構造が含まれるデータを処理可能にすると共に、情報伝達経路に多様性を持たせるように改変した新規のニューラルネットワークである。
以下では、特に木データ全体のデータ構造を限定せずに、本実施形態におけるHT−LSTMの演算処理を実行するHT−LSTM部5について、図10を用いて説明する。図10は、実施形態1におけるHT−LSTM部5を説明するための図である。
HT−LSTM部5は、図10に示すように、入力層50と、中間層51と、出力層52と、入力ゲート53と、忘却ゲート54と、出力ゲート55と、線形変換部56〜58と、加算部59〜62と、非線形変換部63,64とを備える。HT−LSTM部5は、上記各部に基づくHT−LSTMの演算処理を実行して、木データにおける一要素(親ノード)の出力ベクトルh[j,m]を生成する。親ノードの出力ベクトルh[j,m]において、添字jは上述のとおり世代数を示し、添字mは親ノードの識別番号を示す。
入力層50は、HT−LSTM部5に入力するための各種ベクトル(変数)を格納するデータバッファである。入力層50は、入力ベクトルx[j,m]、及び子ノードの出力ベクトルh[j−1,1]、…、h[j−1,N]を入力する(Nは自然数)。
以下では、子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]において、「1」〜「N」の添字は、特定の親ノードに対する一組の子ノード(兄弟ノード)におけるそれぞれを識別する番号を示すこととする。「1」〜「N」の添字は、例えば処理対象の文中で左側の子ノードほど大きく、右側の子ノードほど小さくなるように設定される。図7の例では、N=2に設定される。
入力ベクトルx[j,m]は、例えば深層ニューラルネットワーク3(図7)に単語を表す情報を入力する際に用いられる。例えば、図8のステップS10において、j=1の場合に、HT−LSTM部5は、1−of−K表現で単語を表す入力ベクトルx[1,m]を入力し、木データにおいて単語を表すノードの出力ベクトルh[1,m]を出力する。また、j>1の場合にはx[j,m]=0に設定される。
中間層51は、HT−LSTM部5において中間的に生成される中間ベクトルc[j,m]を一時記憶部21b(図3)等において保持するデータバッファである。
本開示に係るHT−LSTMでは、所謂ツリーLSTMと同様に(非特許文献1参照)、親ノードの出力ベクトルh[j,m]を生成する際に、子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]と共に、子ノードの中間ベクトルc[j−1,1]〜c[j−1,N]を参照する。この際、中間層51は、特定の世代数jのノードにおいて中間ベクトルc[j,m]が生成されてから、世代数jのインクリメント(時間遅れ)に伴い当該ノードが子ノードとして参照されるまで中間ベクトルc[j,m]を保持するメモリとして機能する。
出力層52は、HT−LSTM部5におけるHT−LSTMの処理結果として生成される親ノードの出力ベクトルh[j,m]を格納部21a(図3)等に格納するデータバッファである。
入力ゲート53は、入力層50等から入力する情報を制御して、HT−LSTM部5における処理対象として用いる情報を取り出すフィルタである。本実施形態において、入力ゲート53は、ゲート関数生成部53aと、二つの乗算部53b,53cとを備える。
忘却ゲート54は、子ノードの中間ベクトルc[j,1]〜c[j,N]が保持された子ノード側の中間層51から参照する情報を制御するフィルタである。忘却ゲート54は、ゲート関数生成部54aと、子ノードの中間ベクトルc[j,1]〜c[j,N]と同じ個数の乗算部54bとを備える。
出力ゲート55は、HT−LSTM部5における処理結果として出力する情報を制御するフィルタである。出力ゲート55は、ゲート関数生成部55aと、二つの乗算部55b,55cとを備える。
ゲート関数生成部53a〜55aは、各種ゲート53〜55において用いられるゲート関数を生成する。ゲート関数は、HT−LSTM部5における処理中の情報を出力側に伝達させる度合いを設定するための関数であり、例えば0〜1の値を有する。また、各ゲート関数はベクトル値関数であり、引数とするベクトルの成分毎に共通の関数形に基づく値を有する。それぞれのゲート関数は、固有の学習パラメータによって規定され、それぞれの引数は、例えば各種ゲート53〜55に入力されるベクトルである。
乗算部53b〜55b,53c,55cは、ベクトルの成分毎の積(Hadamard積)を演算することにより、ベクトル同士の乗算「×」を演算する。各種ゲート53〜55において、乗算部53b〜55cは、対象とする種々のベクトルにゲート関数を乗算する。これにより、乗算されたベクトルに含まれる情報(成分)は、ゲート関数の値が「1」に近いほど出力側に伝達され、「0」に近いほど遮断される。
線形変換部56〜58は、それぞれ固有の学習パラメータを行列要素として有するパラメータ行列W〜W,U〜Uに基づいて、各種ベクトルの線形変換を行う。例えば、線形変換部56は、それぞれパラメータ行列W〜Wに基づいて、入力層50からの子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]を、子ノードの左右位置に応じて別々に線形変換する。
加算部59〜62は、ベクトルの成分毎の和を演算することにより、ベクトル同士の加算「+」を行う。例えば、加算部59は、子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]及び入力ベクトルx[j,m]の線形変換部56,57による線形変換結果を全て加算(合算)し、総和を算出する。
非線形変換部63,64は、線形変換のみでは表現できない複雑な関数を表現可能にするための非線形変換を行う。非線形変換は、変換対象のベクトルを引数として、所定の関数形において、ゲート関数と同様に引数と同次元のベクトル値関数を演算することによって行われる。非線形変換の関数形は、シグモイド関数、ReLU或いはtanh等の種々の活性化関数に設定される。
例えば、非線形変換部63は、加算部59による総和の非線形変換を行う。非線形変換部63による変換結果のベクトルは、入力ゲート53に入力される。
入力ゲート53は、ゲート関数生成部53aにおいてゲート関数Iを生成し、上記の入力されたベクトルに対して、乗算部53bにおいてゲート関数Iを乗算する。これにより、入力ゲート53において、非線形変換部63による変換結果から中間層51に入力する情報が取り出すフィルタリングが行われる。
また、子ノードの中間ベクトルc[j−1,1]〜c[j−1,N]は、子ノード側の中間層51から忘却ゲート54に入力される。忘却ゲート54は、ゲート関数生成部54aにおいて子ノードの中間ベクトルc[j−1,1]〜c[j−1,N]の個数と同じN個のゲート関数F〜Fを生成し、それぞれの乗算部54bにおいて各ゲート関数F〜Fを個々の中間ベクトルに乗算する。これにより、複数の子ノードの中間ベクトルc[j−1,1]〜c[j−1,N]から不要な情報を除去(忘却)するフィルタリングが行われる。
忘却ゲート54でフィルタリングされた子ノードの中間ベクトルは、線形変換部58によってそれぞれ線形変換され、さらに加算部60によって合算される。本実施形態において、加算部60による合算結果のベクトルは、入力ゲート53に入力される。
本実施形態において、入力ゲート53は、加算部60による合算結果のベクトルに対して、ゲート関数生成部53aにおいてゲート関数Iとは別のゲート関数Iを生成し、乗算部53cにおいて乗算を行う。このような入力ゲート53によると、非線形変換部63からの子ノードの出力ベクトルの総和に基づく情報と、加算部60による子ノードの中間ベクトルの合算結果に基づく情報との間にトレードオフの関係を設定できる。また、忘却ゲート54で個々にフィルタリングされる子ノードの中間ベクトルに対して、入力ゲート53において一括したフィルタリングを行うことができる。
入力ゲート53は、乗算部53b、53cにおいて別々のゲート関数I,Iでフィルタリングした二つのベクトルを、加算部61に出力する。加算部61は、入力ゲート53からの異なる二つのベクトルを加算して、(親ノードの)中間ベクトルc[j,m]を生成する。中間ベクトルc[j,m]は、(親ノード側の)中間層51において保持されると共に、非線形変換部64において非線形変換され、出力ゲート55に入力される。
出力ゲート55は、非線形変換部64による変換結果のベクトルに対して、ゲート関数生成部55aにおいてゲート関数Gを生成し、乗算部55bにおいてゲート関数Gを乗算する。これにより、入力層50等から非線形変換部64まで種々の演算を行って得られた情報に対して、最終的に出力するか否かを制御するフィルタリングが行われる。
本実施形態に係るHT−LSTMでは、入力層50からの情報が、非線形変換される前に、出力ゲート55を介して出力層52に入力される迂回路6が構成される。本実施形態における迂回路6では、加算部59による子ノードの出力ベクトルの総和のベクトルが、出力ゲート55に入力される。
出力ゲート55は、ゲート関数生成部55aにおいてゲート関数Gとは別のゲート関数Gを生成し、迂回路6中の乗算部55cにおいて、加算部59による総和のベクトルにゲート関数Gを乗算する。これにより、入力層50における情報に対して余計な変換を加えない状態で出力すべき情報を取り出すフィルタリングを実現できる。
出力ゲート55は、乗算部55b、55cにおいて別々のゲート関数G,Gでフィルタリングした二つのベクトルを、加算部62に出力する。加算部62は、出力ゲート55からの異なる二つのベクトルを加算して、親ノードの出力ベクトルh[j,m]を生成し、出力層52に出力する。
出力層52は、以上のように生成された出力ベクトルh[j,m]を格納する。格納された出力ベクトルh[j,m]は、世代数jのインクリメントに伴い、適宜、子ノードの出力ベクトルとして用いられる。また、出力層52に格納された出力ベクトルは、HT−LSTM部5の処理結果として適宜、読み出して使用することができる。
以上の本実施形態に係るHT−LSTM部5によると、迂回路6から出力される情報を制御する出力ゲート55により、不必要な演算を選択的に回避すると共に、HT−LSTM部5における情報伝達経路を多様化することができる。
また、HT−LSTM部5によると、過去に演算した子ノードの中間状態などに含まれる履歴の情報を選択的に削除し、性能劣化を低減することができる。例えば、機械翻訳の翻訳文には、文章として意味を成していない部分が含まれることが想定されるが、HT−LSTM部5によると、このような部分の情報が文章全体の判断に悪影響を及ぼすことを抑制することができる。
2−5.学習モードの動作
以上のような文章評価装置2における深層ニューラルネットワーク3を機械学習させる学習モードの動作について、図11を参照して説明する。
図11は、文章評価装置2の学習モードの動作を示すフローチャートである。図11のフローチャートは、文章評価装置2の演算処理部20によって実行される。
まず、文章評価装置2の演算処理部20は、格納部21aに格納された主観評価の学習用データD2から一つの翻訳文のデータを読み出し、深層ニューラルネットワーク3に学習させる翻訳文を取得する(S31)。
また、演算処理部20は、主観評価の学習用データD2において、取得した翻訳文に関連付けされた正解文のデータを読み出し、深層ニューラルネットワーク3に学習させる正解文を取得する(S32)。
次に、演算処理部20は、取得した翻訳文及び正解文に基づいて、図6のステップS3と同様に、深層ニューラルネットワーク3による文章評価処理を実行する(S33)。ステップS33の処理は、深層ニューラルネットワーク3(図7)における第1及び第2のエンコーダ31,32並びに全結合層33のそれぞれに予め設定された値の学習パラメータに基づき実行される。これにより、現状の学習パラメータに基づく深層ニューラルネットワーク3による、入力された二文が同義である確率の予測結果として、類似度pが出力される。
次に、演算処理部20は、主観評価の学習用データD2において、取得した翻訳文及び正解文に関連付けされた主観評価結果を取得する(S34)。例えば、演算処理部20は、取得した主観評価結果が「Good(4)」又は「So-so(3)」の分類であるか否かに応じて、値「1」又は「0」を得る。
演算処理部20は、現状の学習パラメータに基づく文章評価処理(S33)の出力の、取得した主観評価結果(S34)に対する誤差を算出する(S35)。ステップS35では、ステップS33,S34で得られる値をそれぞれ確率値として扱い、演算処理部20が二つの確率値間の交差エントロピー等を計算することによって誤差を求める。具体的には、ステップS33において算出された主観評価結果が「Good(4)」又は「So-so(3)」の分類である確率(類似度p)と、その真値(S34)との誤差が計算される。
次に、演算処理部20は、誤差逆伝播法にしたがって、深層ニューラルネットワーク3における各種学習パラメータの値を調整する(S36)。ステップS36において、演算処理部20は、算出した誤差を各種学習パラメータで微分して勾配を計算し、得られた勾配に応じて各学習パラメータを更新する。例えば、誤差が「0」の場合には、勾配も「0」になることから、更新前後の学習パラメータの差分は「0」となる。
次に、演算処理部20は、主観評価の学習用データD2を用いた深層ニューラルネットワーク3の学習が完了したか否かを判断する(S37)。演算処理部20は、深層ニューラルネットワーク3の学習が完了していない場合(S37でNO)、ステップS31の処理に戻り、主観評価の学習用データD2から新たなデータを取得してステップS31以降の処理を行う。主観評価の学習用データD2における各データを深層ニューラルネットワーク3に学習させるまで、ステップS31〜S37の処理が繰り返される。
演算処理部20は、主観評価の学習用データD2を用いた学習が完了した場合(S37でYES)、学習後の各種学習パラメータの値を格納部21a等に記録し、実行モードの文章評価処理(図6のS3)で採用する学習パラメータを決定する(S38)。
演算処理部20は、学習パラメータを決定することにより(S38)、本フローチャートによる処理を終了する。
以上の処理によると、文章評価装置2における深層ニューラルネットワーク3の機械学習を行うことができる。主観評価の学習用データD2を用いて、学習用データD2に含まれる人の主観的な評価基準が獲得されるように、文章評価装置2を学習させることができる。
以上の説明では、予め格納部21aに格納された主観評価の学習用データD2を用いた深層ニューラルネットワーク3の学習が完了した場合(S37でYES)に、図11のフローチャートを終了した。文章評価装置2における学習終了の条件は、ステップS37に限らず、例えば、主観評価の学習用データD2を学習させた後に、別途、動作確認用のデータを用いて未知のデータに対する文章評価装置2の適応性を確認し、確認結果に応じて学習終了を判断してもよい。また、深層ニューラルネットワーク3の出力に基づく所定の誤差関数を用いて、誤差関数が所定値以上か否かを学習終了の判断に用いてもよい。
3.まとめ
以上のように、本実施形態に係る文章評価装置2は、入力される文章の評価を行う。文章評価装置2は、各種取得部22〜25と、演算処理部20とを備える。取得部22〜25は、第1の入力文として翻訳文を示す情報と、第2の入力文として正解文を示す情報とを取得する。演算処理部20は、取得部22〜25によって取得された情報に対して、機械学習に基づくアルゴリズムとしての深層ニューラルネットワーク3による情報処理を行う。深層ニューラルネットワーク3は、第1の入力文を認識する第1のエンコーダ31と、第2の入力文を認識する第2のエンコーダ32とを備える。演算処理部20は、第1のエンコーダ31における第1の入力文の認識結果と第2のエンコーダ32における第2の入力文の認識結果とに基づいて、第2の入力文に対する第1の入力文の評価を示す評価情報を生成する。
以上の文章評価装置2によると、深層ニューラルネットワークにおいて機械学習する二つのエンコーダ31,32を用いて各入力文を認識することにより、自動で行う文章の評価において、適切な文章の評価が行われ易くすることができる。
本実施形態において、第1及び第2のエンコーダ31,32は、別々の学習パラメータに基づいて機械学習する。これにより、例えば翻訳文と正解文とに適した学習が行われ、正解文(第2の入力文)に対する翻訳文(第1の入力文)の適切な評価を示す評価情報が生成され易くすることができる。
また、本実施形態において、第1のエンコーダ31は、複数の要素で構成される所定のデータ構造に基づいて、第1の入力文におけるデータ構造の各要素を認識する(S10〜S14)。第1のエンコーダ31は、第2のエンコーダ32における第2の入力文の認識結果を参照して、第1の入力文の各要素において第2の入力文に対する重要度を判定する(S20)。第1のエンコーダ31におけるアテンション処理(S20)により、第2の入力文との比較の観点から重要と考えられる第1の入力文の要素を特定することができる。
また、本実施形態において、演算処理部20は、判定された重要度に応じて評価を示す評価情報を生成する。これにより、例えば翻訳文において重要な意味を有する部分の翻訳結果に注目した評価情報を生成することができる。
また、本実施形態において、第1のエンコーダ31による認識に用いられる所定のデータ構造は、親ノード及び子ノードを有する木構造、及び子ノードが互いに重複する複数の木構造を含むデータ構造の内の少なくとも一方を含む。このようなデータ構造を用いて入力文を認識することにより、文章の構造を適度に反映した評価が行われ易くすることができる。
また、本実施形態において、第2のエンコーダ32は、上記の所定のデータ構造に基づいて、第2の入力文におけるデータ構造の各要素を認識する(S15〜19)。第2のエンコーダ32は、第1のエンコーダ31における第1の入力文の認識結果を参照して、第2の入力文の各要素において第1の入力文に対する重要度を判定する(S21)。第2のエンコーダ32におけるアテンション処理(S21)により、例えば翻訳文との比較の観点から重要と考えられる正解文の要素を特定することができる。
また、本実施形態において、深層ニューラルネットワーク3は、第1のエンコーダ31における第1の入力文の認識結果と第2のエンコーダ32における第2の入力文の認識結果とを統合する演算処理を行う全結合層33をさらに備える。これにより、深層ニューラルネットワーク3から第1及び第2のエンコーダの認識結果を統合した情報を出力することができる。
また、本実施形態において、全結合層33は、ロジスティック関数に基づく演算処理を行う。これにより、全結合層33において第1及び第2のエンコーダの認識結果を統合するロジットモデルが機械学習される。なお、全結合層33は、これに限らず、例えば2クラス判別器などで構成されてもよい。
また、本実施形態において、第1の入力文は、翻訳機1による機械翻訳の結果の翻訳文である。第2の入力文は、翻訳機1による機械翻訳の対象となった翻訳原文の翻訳における正解例を示す正解文である。文章評価装置によると、正解文に対する翻訳機1の翻訳文の主観評価を自動で行うことができる。
また、本実施形態において、第1及び第2の入力文間の類似度、第1の入力文に対する複数段階の分類、および第1の入力文中の特定の箇所の内の少なくとも一つ示す情報を含む。文章評価装置のユーザは、各種評価情報により、自動で行われた文章評価装置2の評価結果を確認することができる。
また、本実施形態に係る文章評価方法は、文章評価装置2に入力される文章の評価を実行する方法である。本方法は、第1の入力文を示す情報を取得するステップ(S1)と、第2の入力文を示す情報を取得するステップ(S2)とを含む。本方法は、機械学習に基づく第1のエンコーダ31において、第1の入力文を認識するステップ(S10〜S14)を含む。本方法は、第1のエンコーダ31とは別の第2のエンコーダ32において、第2の入力文を認識するステップ(S15〜S19)を含む。本方法は、第1のエンコーダ31における第1の入力文の認識結果と第2のエンコーダ32における第2の入力文の認識結果とに基づいて、第2の入力文に対する第1の入力文の評価を示す評価情報を生成するステップ(S22)を含む。
以上の文章評価方法によると、深層ニューラルネットワークにおいて機械学習する二つのエンコーダ31,32を用いて各入力文を認識することにより、自動で行う文章の評価において、適切な文章の評価が行われ易くすることができる。
(実施形態1の変形例)
実施形態1では、翻訳文と正解文とを入力文として、文章評価装置2に自動的な評価を行わせたが、文章評価装置2に対する入力文は、これに限らない。以下、翻訳文と翻訳原文とを入力文として、翻訳精度の評価を文章評価装置2に行わせる変形例について、図12を用いて説明する。
図12は、実施形態1の変形例に係る文章評価装置2の実行モードの動作を示すフローチャートである。図12に示すように、本変形例に係る文章評価装置2は、実施形態1と同様の実行モードにおいて、翻訳文(第1の入力文)と比較する第2の入力文として、翻訳文の翻訳対象となった翻訳原文を取得する(S2A)。取得した翻訳原文は、深層ニューラルネットワーク3における第2のエンコーダ32に入力され、実施形態1と同様の文章評価処理が実行される(S3)。
文章評価処理を実行する深層ニューラルネットワーク3では、実施形態1と同様に第1及び第2のエンコーダ31,32のエンコード結果に基づき全結合層33においてロジスティック関数に基づく演算処理が行われる。この際、全結合層33から出力される0〜1の範囲内の値は、翻訳原文を別言語の翻訳文に翻訳した際の整合性を表すものとなる。なお、このような整合性を表す出力が得られるように、予め深層ニューラルネットワーク3の機械学習が所定の学習用データを用いて行われる。
実行モードの文章評価処理(図12のS3)で得られた整合性を表す情報に基づいて、文章評価装置2は、例えば図8のステップS4と同様のしきい値判定により、翻訳文が翻訳原文に整合しているか否かを判断する(S4A)。
文章評価装置2は、翻訳文が翻訳原文に整合していないと判断した場合(S4A)、実施形態1と同様にアテンション処理による重要度の判定結果{α[j,n]}に基づいて、翻訳文中の特定箇所を検出する(S5)。この場合、検出される特定箇所は、翻訳文中で翻訳原文に整合していない不整合箇所になる。
続くステップS6,S7においても、文章評価装置2は、実施形態1と同様の処理を機械学習において予め獲得した精度で適宜、実行する。
以上の処理によると、文章評価装置2において、翻訳原文に対する翻訳文の翻訳精度の評価を自動で行うことができる。
(実施形態2)
以下、図面を用いて、実施形態2を説明する。実施形態1におけるHT−LSTM(図10)では、入力ゲート53が入力層50からの情報を一括してフィルタリングした。実施形態2では、入力層からの情報を個別にフィルタリングするHT−LSTMについて説明する。
以下、実施形態1に係る情報処理装置2と同様の構成、動作の説明は適宜、省略して、本実施形態に係る情報処理装置2を説明する。
図13は、実施形態2におけるHT−LSTM部5Aを説明するための図である。本実施形態におけるHT−LSTM部5Aは、例えば実施形態1に係る文章評価装置2の演算処理部20において、本実施形態におけるHT−LSTMのニューラルネットワークを構築する。
図13に示すように、本実施形態におけるHT−LSTM部5Aは、実施形態1(図10)と同様の構成において入力ゲート53の代わりに、入力層50からの各ベクトルが個別に入力される入力ゲート53Aを備える。
本実施形態における入力ゲート53Aは、ゲート関数生成部53aと、入力層50から入力されるベクトルの個数と同じ個数の乗算部53dとを備える。入力ゲート53Aは、ゲート関数生成部53aにおいて入力層50からのベクトルの個数と同じ個数のゲート関数I〜Iを生成し、それぞれの乗算部53dにおいて個々のゲート関数I〜Iを上記各ベクトルに乗算する。これにより、入力層50からの子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]に対して、別々のゲート関数I〜Iに基づく個別のフィルタリングが行われる。
また、図10に示すように、HT−LSTM部5Aは、本実施形態における迂回路6Aを構成するための加算部65をさらに備える。加算部65は、迂回路6Aにおいて、入力ゲート53によってフィルタリングされた各ベクトルを合算する。加算部65による合算結果のベクトルは、迂回路6A中で出力ゲート55に入力する。
本実施形態における迂回路6Aにより、出力ゲート55は、ゲート関数Gに応じて入力ゲート53Aでフィルタリングされた情報を短絡的に出力ベクトルh[j,m]に含めるように出力層52への出力を制御する。また、本実施形態では、一例として出力ゲート55における二つのゲート関数G,Gを相補的に設定し(即ちG=1−G)、演算効率を向上させている。
また、本実施形態において、迂回路6Aを介した出力とは別に、入力ゲート53によってフィルタリングされた子ノードの出力ベクトルが、加算部59aで合算され、合算結果のベクトルに対するパラメータ行列Wを用いて線形変換部56Aで線形変換される。線形変換部56Aで変換されたベクトルは、入力ベクトルx[j,m]が用いられた場合には入力ゲート53Aを介して線形変換された入力ベクトルと加算部59bで加算され、非線形変換部63で変換される。
また、上記のように子ノードの出力ベクトルに対する線形変換をパラメータ行列Wで統合したことと共に、本実施形態では、線形変換部56Aにおけるパラメータ行列Uにより、子ノードの中間ベクトルに対する線形変換も統合している。パラメータ行列Uによる線形変換は、忘却ゲート54が中間層51から各子ノードの中間ベクトルc[j−1,1]〜h[j−1,N]にフィルタリングした結果を合算したベクトルに対して行われる。このようなパラメータ行列W,Uの設定は一例であり、例えばベクトル毎に個別に設定するなど、適宜、変更されてもよい。
以上のように、本実施形態に係るHT−LSTMは、文章評価装置2等の情報処理装置でHT−LSTM部5Aとして、木構造における子ノードから親ノードの出力ベクトルh[j,m]を生成するように構築されるニューラルネットワークである。HT−LSTM部5Aは、一組の子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]を入力する入力層50と、入力層50から取り出す情報を制御する入力ゲート53Aとを備える。HT−LSTM部5Aは、各出力ベクトルh[j,m],h[j−1,1]〜h[j−1,N]の生成に伴う各ノードの中間ベクトルc[j,m],c[j−1,1]〜[j−1,N]を保持する中間層51と、中間層51から参照する情報を制御する忘却ゲート54とを備える。HT−LSTM部5Aは、親ノードの出力ベクトルh[j,m]を格納する出力層52と、子ノードの出力ベクトル及び中間ベクトルに基づき親ノードの出力ベクトルとして出力層52に出力する情報を制御する出力ゲート55とを備える。HT−LSTM部5Aにおいて、入力ゲート53Aは、一組の子ノードの出力ベクトルh[j−1,1]〜h[j−1,N]の内の各出力ベクトルから個別に情報を取り出す。出力ゲート55は、出力層52に出力する情報に、入力ゲート53Aにおいて取り出された情報を含める。
以上のHT−LSTM部5Aによると、入力ゲート53Aにおいて複数の子ノードの左右が識別され、対象の文中の語順に応じた判断を学習させ易くすることができる。
例えば、文章評価装置2に入力された入力文(翻訳文)が、「turn turn left」のように同じ単語が連なって不要な情報を含んでいるような場合に、不要であるという判断を学習させ易くすることができる。つまり、HT−LSTM部5Aによると、一組の子ノードとして連続する単語「turn」「turn」「left」の情報が入力された際に、入力ゲート53Aにおいて、連続する単語から一つの「turn」の情報を個別に除去することが可能になる。このように、HT−LSTMによると、木構造等のデータ構造に対する機械学習において多様な判断の学習をし易くすることができる。
(実施形態2の変形例)
以上のように実施形態1,2においてHT−LSTMの例を説明したが、本開示に係るHT−LSTMは実施形態1,2に限らず、種々の変更を加えてもよい。HT−LSTMの変形例について、図14,15を用いて説明する。
図14は、実施形態2の変形例1におけるHT−LSTM部5Bを説明するための図である。本変形例におけるHT−LSTM部5Bは、実施形態2におけるHT−LSTM部5Aの加算部61,62の代わりに、乗算部51A,62Aを備える。
乗算部61Aでは、入力層50からの子ノードの出力ベクトルに由来するベクトルと、子ノードの中間ベクトルに由来するベクトルとが、乗算によって合成される。また、乗算部62Aでは、親ノードの中間ベクトルc[j、m]が変換されたベクトルと、迂回路6Aを介して入力層50から迂回させたベクトルとが、乗算によって合成される。このような異種のベクトル間の合成を乗算によって行うことにより、機械学習における更新則が改善され、性能及び収束速度を向上することができる。
本変形例では、実施形態2におけるHT−LSTM部5Aの加算部61,62を乗算部51A,62Aに置き換えたが、これに限らず、例えば加算部61,62の一方を乗算部に置き換えてもよい。また、加算部61,62に代えて、又はこれに加えて、HT−LSTM部5Aの他の加算部を乗算部に置き換えてもよい。
図15は、実施形態2の変形例2におけるHT−LSTM部5Cを説明するための図である。本変形例におけるHT−LSTM部5Cは、実施形態2におけるHT−LSTM部5Aの迂回路6Aの代わりに、線形変換部56A,57による変換後の情報を迂回させる迂回路6Bを備える。
本変形例における迂回路6Bによっても、非線形変換部63による非線形変換の前の情報を出力ゲート55に迂回させ、HT−LSTMにおける情報伝達経路の多様化を図ることができる。HT−LSTMにおける迂回路は、出力ゲート55が入力ゲート53Aにおいて取り出された情報を含めるように出力する情報を制御可能な範囲で適宜、設定されてもよい。
以上の説明では、実施形態2におけるHT−LSTM部5Aの変形例1,2を説明したが、変形例1,2のような変更は適宜、実施形態1におけるHT−LSTM部5に行われてもよい。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1〜2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
上記の各実施形態では、文章評価装置2に入力する第1の入力文が、翻訳原文の翻訳文であり、第2の入力文が翻訳文に対応する正解文や翻訳原文など、第1の入力文の翻訳元として参照される文章(参照文)である例を説明した。文章評価装置2の評価対象は、翻訳元を有する翻訳文に限らず、種々の文章を評価対象として第1の入力文に用いてもよい。この場合、第2の入力文は、例えば種々の対応関係で第1の入力文に対応する参照文に設定される。また、第2の入力文は特に参照文でなくてもよく、例えば無作為な二つの文章間の意味的な類似度或いは整合性などを評価するために、文章評価装置が用いられてもよい。
また、上記の各実施形態では、本開示に係る深層ニューラルネットワーク3の構成の一例を説明したが、深層ニューラルネットワーク3の構成はこれに限らない。例えば、深層ニューラルネットワーク3における第1及び第2のツリーLSTM処理部31a,31bと共に、LSTM或いは双方向型LSTMを用いてもよい。LSTM等に各入力文中で時系列に並ぶ単語を計算させて、計算結果の出力を第1及び第2のツリーLSTM処理部31a,31bに入力してもよい。
また、上記の各実施形態では、本開示に係るHT−LSTMを実行するHT−LSTM部5,5’,5A〜5Cを用いて文章評価処理のための深層ニューラルネットワーク3を構築した。本開示に係る深層ニューラルネットワークはこれに限らず、例えば各ツリーLSTM処理部31a,31bにおいてHT−LSTMの代わりに所謂ツリーLSTMを用いてもよい(非特許文献1参照)。
また、本開示に係るHT−LSTMを実行するHT−LSTM部5,5’,5A〜5Cは、文章評価処理のための深層ニューラルネットワーク3に限らず、機械学習に基づく種々の情報処理装置及び方法に適用可能である。本開示に係るHT−LSTMが適用された情報処理装置及び方法によると、木構造のような系統的なデータ構造に対する機械学習において多様な判断を学習させ易くするという課題を解決することができる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において、種々の変更、置換、付加、省略などを行うことができる。
本開示は、種々の文章の評価を自動で行う技術に適用可能であり、例えば翻訳機の性能評価に利用可能である。

Claims (8)

  1. 入力される文章の評価を行う文章評価装置であって、
    第1の入力文および第2の入力文を取得する取得部と、
    前記取得部によって取得された各入力文に対して、機械学習に基づくアルゴリズムによる情報処理を行う演算処理部とを備え、
    前記演算処理部は、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、機械学習に基づくアルゴリズムにおいて、前記第1の入力文における前記データ構造の各要素を認識する第1のエンコーダと前記第2の入力文における前記データ構造の各要素を認識する第2のエンコーダとを備え、
    前記第1の入力文は、翻訳機による機械翻訳の結果の翻訳文であり、
    前記第2の入力文は、前記翻訳機による機械翻訳の対象となった翻訳原文、及び前記翻訳原文の翻訳における正解例を示す正解文の内のいずれかであり、
    前記演算処理部は、
    前記第2のエンコーダにおいて認識された第2の入力文の要素を参照するアテンション処理により、前記第1の入力文の各要素において前記第2の入力文に対する重要度を判定し、
    前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とに基づいて、前記判定された重要度に応じた要素間の重み付け合算により、前記第2の入力文に対する前記第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成する
    文章評価装置。
  2. 入力される文章の評価を行う文章評価装置であって、
    第1の入力文および第2の入力文を取得する取得部と、
    前記取得部によって取得された各入力文に対して、機械学習に基づくアルゴリズムによる情報処理を行う演算処理部とを備え、
    前記演算処理部は、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、機械学習に基づくアルゴリズムにおいて、前記第1の入力文における前記データ構造の各要素を認識する第1のエンコーダと前記第2の入力文における前記データ構造の各要素を認識する第2のエンコーダとを備え、
    前記第1の入力文は、翻訳機による機械翻訳の結果の翻訳文であり、
    前記第2の入力文は、前記翻訳機による機械翻訳の対象となった翻訳原文、及び前記翻訳原文の翻訳における正解例を示す正解文の内のいずれかであり、
    前記演算処理部は、
    前記第1のエンコーダにおいて認識された第1の入力文の要素を参照するアテンション処理により、前記第2の入力文の各要素において前記第1の入力文に対する重要度を判定し、
    前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とに基づいて、前記判定された重要度に応じた要素間の重み付け合算により、前記第2の入力文に対する前記第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成する
    文章評価装置。
  3. 前記第1及び第2のエンコーダは、別々の学習パラメータに基づいて機械学習する
    請求項1又は2に記載の文章評価装置。
  4. 前記所定のデータ構造は、親ノード及び子ノードを有する木構造、及び子ノードが互いに重複する複数の木構造を含むデータ構造の内の少なくとも一方を含む
    請求項1〜3のいずれか1項に記載の文章評価装置。
  5. 前記演算処理部は、機械学習に基づくアルゴリズムにおいて、前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とを統合する演算処理を行う全結合層をさらに備える
    請求項1〜4のいずれか1項に記載の文章評価装置。
  6. 前記全結合層は、ロジスティック関数に基づく演算処理を行う
    請求項5に記載の文章評価装置。
  7. 前記評価情報は、前記第1及び第2の入力文間の類似度、前記第2の入力文に対する前記第1の入力文の整合性、前記第1の入力文に対する複数段階の分類、および前記第1の入力文中の特定の箇所の内の少なくとも一つ示す情報を含む
    請求項1〜のいずれか1項に記載の文章評価装置。
  8. 文章評価装置に入力される文章の評価を実行する文章評価方法であって、
    翻訳機による機械翻訳の結果の翻訳文である第1の入力文を取得するステップと、
    前記翻訳機による機械翻訳の対象となった翻訳原文、及び前記翻訳原文の翻訳における正解例を示す正解文の内のいずれかである第2の入力文を取得するステップと、
    機械学習に基づく第1のエンコーダにおいて、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、前記第1の入力文における前記データ構造の各要素を認識するステップと、
    前記第1のエンコーダとは別の第2のエンコーダにおいて、前記所定のデータ構造に基づいて、前記第2の入力文における前記データ構造の各要素を認識するステップと、
    前記第2のエンコーダにおいて認識された第2の入力文の要素を参照するアテンション処理により、前記第1の入力文の各要素において前記第2の入力文に対する重要度を判定するステップと、
    前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とに基づいて、前記判定された重要度に応じた要素間の重み付け合算により、前記第2の入力文に対する前記第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成するステップと
    を含む文章評価方法。
JP2018561820A 2017-01-11 2017-10-26 文章評価装置、及び文章評価方法 Active JP6910012B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021075010A JP7122582B2 (ja) 2017-01-11 2021-04-27 演算処理装置、並びに文章評価装置、及び文章評価方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017002777 2017-01-11
JP2017002777 2017-01-11
PCT/JP2017/038781 WO2018131259A1 (ja) 2017-01-11 2017-10-26 文章評価装置、及び文章評価方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021075010A Division JP7122582B2 (ja) 2017-01-11 2021-04-27 演算処理装置、並びに文章評価装置、及び文章評価方法

Publications (2)

Publication Number Publication Date
JPWO2018131259A1 JPWO2018131259A1 (ja) 2019-11-07
JP6910012B2 true JP6910012B2 (ja) 2021-07-28

Family

ID=62839908

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018561820A Active JP6910012B2 (ja) 2017-01-11 2017-10-26 文章評価装置、及び文章評価方法
JP2021075010A Active JP7122582B2 (ja) 2017-01-11 2021-04-27 演算処理装置、並びに文章評価装置、及び文章評価方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021075010A Active JP7122582B2 (ja) 2017-01-11 2021-04-27 演算処理装置、並びに文章評価装置、及び文章評価方法

Country Status (3)

Country Link
US (1) US11182568B2 (ja)
JP (2) JP6910012B2 (ja)
WO (1) WO2018131259A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210074713A (ko) * 2019-12-12 2021-06-22 서울대학교산학협력단 양방향 언어 모델을 이용한 문장 평가 방법 및 장치

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468286B2 (en) * 2017-05-30 2022-10-11 Leica Microsystems Cms Gmbh Prediction guided sequential data learning method
WO2019118299A1 (en) * 2017-12-13 2019-06-20 Sentient Technologies (Barbados) Limited Evolving recurrent networks using genetic programming
CN109522600B (zh) * 2018-10-16 2020-10-16 浙江大学 基于组合深度神经网络的复杂装备剩余使用寿命预测方法
CN111626065A (zh) * 2019-02-26 2020-09-04 株式会社理光 神经机器翻译模型的训练方法、装置及存储介质
WO2020198520A1 (en) 2019-03-27 2020-10-01 Cognizant Technology Solutions U.S. Corporation Process and system including an optimization engine with evolutionary surrogate-assisted prescriptions
CN110083842B (zh) * 2019-03-27 2023-10-03 华为技术有限公司 译文质量检测方法、装置、机器翻译系统和存储介质
JP7348746B2 (ja) * 2019-04-26 2023-09-21 一般財団法人日本特許情報機構 調査支援方法、調査支援用コンピュータプログラムおよび調査支援システム
JP7077265B2 (ja) * 2019-05-07 2022-05-30 株式会社東芝 文書解析装置、学習装置、文書解析方法および学習方法
US11544461B2 (en) * 2019-05-14 2023-01-03 Intel Corporation Early exit for natural language processing models
CN110570226B (zh) * 2019-07-10 2020-05-22 杭州电子科技大学 一种联合主题模型和异质信息网络的评分预测方法
KR20220045215A (ko) * 2019-09-25 2022-04-12 딥마인드 테크놀로지스 리미티드 게이팅된 어텐션 신경망
CN111027331B (zh) 2019-12-05 2022-04-05 百度在线网络技术(北京)有限公司 用于评估翻译质量的方法和装置
CN111339748B (zh) * 2020-02-17 2023-11-17 北京声智科技有限公司 一种解析模型的评估方法、装置、设备和介质
US20210312297A1 (en) * 2020-04-07 2021-10-07 Cognizant Technology Solutions U.S. Corporation Framework For Interactive Exploration, Evaluation, and Improvement of AI-Generated Solutions
US11775841B2 (en) 2020-06-15 2023-10-03 Cognizant Technology Solutions U.S. Corporation Process and system including explainable prescriptions through surrogate-assisted evolution
CN111931045B (zh) * 2020-07-30 2022-11-25 北京邮电大学 一种基于元学习的异质信息网络冷启动推荐方法及装置
CN114743421B (zh) * 2022-04-27 2023-05-16 广东亚外国际文化产业有限公司 一种外语学习智慧教学综合考核系统及方法
CN116757223A (zh) * 2023-08-16 2023-09-15 中国石油大学(华东) 一种机器翻译模型高语义相似度对抗性样本生成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148756A (ja) * 1998-11-12 2000-05-30 Matsushita Electric Ind Co Ltd 対訳文誤り検出装置
JP2003085172A (ja) * 2001-09-13 2003-03-20 Atr Onsei Gengo Tsushin Kenkyusho:Kk 機械翻訳文の自動評価方法および機械翻訳文の自動評価プログラムを記録した記録媒体
JP2008276517A (ja) 2007-04-27 2008-11-13 Oki Electric Ind Co Ltd 訳文評価装置、訳文評価方法およびプログラム
JP6649124B2 (ja) * 2015-05-25 2020-02-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機械翻訳方法、機械翻訳装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210074713A (ko) * 2019-12-12 2021-06-22 서울대학교산학협력단 양방향 언어 모델을 이용한 문장 평가 방법 및 장치

Also Published As

Publication number Publication date
JP7122582B2 (ja) 2022-08-22
WO2018131259A1 (ja) 2018-07-19
US20190332678A1 (en) 2019-10-31
US11182568B2 (en) 2021-11-23
JPWO2018131259A1 (ja) 2019-11-07
JP2021120882A (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
JP6910012B2 (ja) 文章評価装置、及び文章評価方法
US11645541B2 (en) Machine learning model interpretation
Bernico Deep Learning Quick Reference: Useful hacks for training and optimizing deep neural networks with TensorFlow and Keras
CN108460028B (zh) 将句子权重融入神经机器翻译的领域适应方法
Ahmed et al. Identifying protein-protein interaction using tree LSTM and structured attention
KR102355489B1 (ko) 약물-표적 단백질의 상호작용을 예측하는 방법 및 그 방법을 수행하는 장치
JP7061594B2 (ja) 文章変換システム、文章変換方法、及びプログラム
JP6906181B2 (ja) 情報処理装置、時系列データの情報処理方法、及びプログラム
CN113412492A (zh) 用于量子玻尔兹曼机的监督训练的量子算法
JP6743942B2 (ja) 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体
WO2019187696A1 (ja) ベクトル化装置、言語処理方法及びプログラム
Manogaran et al. ADCCF: Adaptive deep concatenation coder framework for visual question answering
US20240020096A1 (en) Systems and methods for generating code using language models trained on computer code
CN118318222A (zh) 使用序列到序列转换器的自动笔记本补全
EP4064038B1 (en) Automated generation and integration of an optimized regular expression
JP6705506B2 (ja) 学習プログラム、情報処理装置および学習方法
JP2019133563A (ja) 情報処理装置および情報処理システム
JP2018109862A (ja) 句構造解析装置およびプログラム
CN113761944A (zh) 翻译模型的训练语料处理方法、装置、设备和存储介质
Rios et al. Large Language Model-assisted Surrogate Modelling for Engineering Optimization
Andersson Deep learning applied to system identification: A probabilistic approach
US20240232519A1 (en) Automated notebook completion using sequence-to-sequence transformer
Chen et al. Improving Adaptive Knowledge Graph Construction via Large Language Models with Multiple Views
Lin et al. Applying neural networks to consumer-oriented product design
Gavhane et al. Graph Embeddings for Natural Language Processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210427

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210511

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R151 Written notification of patent or utility model registration

Ref document number: 6910012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151