JP2019149030A - 学習品質推定装置、方法、及びプログラム - Google Patents

学習品質推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP2019149030A
JP2019149030A JP2018033719A JP2018033719A JP2019149030A JP 2019149030 A JP2019149030 A JP 2019149030A JP 2018033719 A JP2018033719 A JP 2018033719A JP 2018033719 A JP2018033719 A JP 2018033719A JP 2019149030 A JP2019149030 A JP 2019149030A
Authority
JP
Japan
Prior art keywords
learning
discrete
sequence
quality score
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018033719A
Other languages
English (en)
Other versions
JP6969443B2 (ja
Inventor
睦 森下
Mutsumi Morishita
睦 森下
鈴木 潤
Jun Suzuki
潤 鈴木
永田 昌明
Masaaki Nagata
昌明 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018033719A priority Critical patent/JP6969443B2/ja
Priority to PCT/JP2019/006555 priority patent/WO2019167794A1/ja
Priority to US16/975,679 priority patent/US20200410345A1/en
Publication of JP2019149030A publication Critical patent/JP2019149030A/ja
Application granted granted Critical
Publication of JP6969443B2 publication Critical patent/JP6969443B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)

Abstract

【課題】自然言語処理等の機械学習に用いる学習用データ中の誤ったデータを取り除くことができる学習品質推定装置、方法、及びプログラムを提供する。【解決手段】学習品質推定装置90は、離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部16と、対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、順方向学習済みモデルを用いて品質スコアを計算する品質スコア計算部14と、を備える。【選択図】図1

Description

本発明は、学習品質推定装置、方法、及びプログラムに係り、特に、自然言語処理等の機械学習に用いる学習用データの品質を推定する学習品質推定装置、方法、及びプログラムに関する。
自然言語処理分野の問題を題材として背景技術を説明する。計算機により自然言語を処理する技術は、文章に現れる表層的な文字や単語といった離散シンボルの集合を処理する技術と言える。例えば、ある言語の文を入力し、別の言語の文を出力する自動翻訳システムを考える。このシステムでは、入力および出力の文を単語列(文字列)とみなして処理が行われる。よって、システム内の計算機により、離散系列(シンボル列)から別の離散系列へ変換する処理を行っているとみなすことができる。また、文書要約システム、対話システム、文書構成システムなどの言語を入出力とするシステムは、上述の自動翻訳システム同様、離散系列から別の離散系列へ変換する処理によってシステムが構成されると言える。このように、上述の自然言語処理システム以外の自然言語処理システムでも、自然言語を扱うシステムでは、扱う対象が単語、文、文書といった離散系列であるため、入力から出力へどのような変換を行うかという定義の違いはあるにせよ、処理のフレームワークは同じであり、離散系列から離散系列の変換問題に帰着できる。図5に自然言語処理における変換問題の各種の例を示す。
上述したように、離散系列-離散系列変換問題は、自然言語処理分野において数多くの方法が開発され、様々な方法論が確立されている。古典的には、人間が系列から系列への変換ルールや規則などを記述して変換方法を構築してきた。近年では、正解データを利用したり、最適化法を用いたりするなど、機械学習技術を活用する方法が主流となっている。最近では、機械学習法の中でもリカレントニューラルネットの枠組みを使い、離散系列を実数値ベクトルへ符号化し、その実数値ベクトルから離散系列を復号するという方法論で離散系列-離散系列変換問題を解く方法が提案されている(例えば、非特許文献1を参照。)。この方法は、人手による事前知識を全く使わず、可変長の系列構造から系列構造への変換を固定長の実数値ベクトルへの符号化と復号化のみで実現していることが大きな特徴である。図6に符号化器による符号化及び復号化器による復号化の例を示す。
この「リカレントニューラルネットに基づく離散系列から離散系列への変換器」を、ここでは単純に「離散系列−離散系列変換器」と呼ぶことにする。また、離散系列-離散系列変換器は、離散系列符号化器と離散系列復号化器の二つの組み合わせにて構築されている。また、符号化器/復号化器のパラメタである固定長の実数値ベクトルは、学習用データから自動的に獲得する。パラメタ学習は、それぞれの変換器の理想的な入力と出力のペアの集合を学習用データとして準備し、その学習用データの入力が正しく出力できるようにパラメタ調整を行うことで学習が進む。
離散系列-離散系列変換器のひとつとして,Attention付き離散系列-離散系列変換器がある(例えば、非特許文献2を参照。)。この手法によれば、符号化器の出力に対して復号化器が各時刻で重み付けを行うことで、より精度の高い系列変換を行うことができる。図7にAttention付き離散系列-離散系列変換器の例を示す。
Ilya Sutskever, Oriol Vinyals, and Quoc V Le, Sequence to Sequence Learning with Neural Networks. Advances in Neural Information Processing Systems 27, 2014. Minh-Thang Luong, Hieu Pham and Christopher D. Manning, Effective Approaches to Attention-based Neural Machine Translation. Proceedings of the Conference on Empirical Methods in Natural Language Processing, 2015.
ところで、自然言語処理では、前述のように学習用データと機械学習技術を用いて変換器を学習する方法が主流となっている。このときの学習用データとは、機械翻訳システムであれば同じ意味を表す2つの言語の文の対であり、対話システムであれば入力文と理想的な対話システムの出力文の対などである。このような機械学習技術を用いる際、使用する学習用データは正しい入出力のペアを前提としており、学習用データに誤ったデータが混入している可能性は通常考慮しない。
しかしながら、一般的にこれらの学習用データは、機械的に収集されたものであることが多く、ゆえに誤ったデータが混入している場合が多い。こういった誤ったデータは、機械学習に悪影響を及ぼし、最終的な変換精度が低下することがある。つまり、自然言語処理で用いられる学習用データには誤ったデータが混入している可能性があり、これが機械学習に悪影響を与える場合がある。従って、これらの誤ったデータを取り除くことができれば、機械学習の精度がより高まることが期待できる。
本発明は、上記の事情に鑑みてなされたものであり、自然言語処理等の機械学習に用いる学習用データ中の誤ったデータを取り除くことができる学習品質推定装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る学習品質推定装置は、離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部と、対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、前記順方向学習済みモデルを用いて品質スコアを計算する品質スコア計算部と、を備えている。
また、第2の発明に係る学習品質推定装置は、第1の発明において、前記離散系列変換器が、ニューラルネットワークであり、前記入力に含まれる各離散シンボルを、固定長のベクトルに変換し、変換した各離散シンボルの固定長のベクトルを符号化して固定長のベクトル系列を得る符号化器と、前記符号化器により得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、前記隠れベクトルに基づいて、前記入力に対する出力を得る復号化器と、を含み、前記品質スコア計算部が、前記第2学習用ペアに含まれる出力について、前記第2学習用ペアに含まれる入力から前記符号化器により得られた固定長のベクトル系列を入力として、前記復号化器により得られた固定長のベクトル系列に基づいて前記復号化器から前記出力が得られる際の負の対数尤度を用いて、前記品質スコアを計算する。
また、第3の発明に係る学習品質推定装置は、第2の発明において、前記品質スコア計算部が、前記負の対数尤度を前記出力に含まれる離散シンボル数で除することで得られる離散シンボル当たりの負の対数尤度を、前記品質スコアとして出力する。
また、第4の発明に係る学習品質推定装置は、第1〜第3のいずれか1の発明において、前記品質スコア計算部が、複数の第2学習用ペアの各々について、前記品質スコアを計算し、前記複数の第2学習用ペアの中から、前記品質スコア計算部により計算された品質スコアが高い順に予め定められた数の第2学習用ペアを選択する選択部を更に備えている。
また、第5の発明に係る学習品質推定装置は、第1〜第4のいずれか1の発明において、前記記憶部が、前記複数の第1学習用ペアに基づいて予め学習された、離散系列の第2離散系列を第1離散系列に変換する離散系列変換器の逆方向学習済みモデルを更に記憶しており、前記品質スコア計算部が、前記第2学習用ペアについて、前記順方向学習済みモデル及び前記逆方向学習済みモデルの各々を用いて前記品質スコアを計算する。
一方、上記目的を達成するために、第6の発明に係る学習品質推定方法は、離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部を備えた学習品質推定装置による学習品質推定方法であって、品質スコア計算部が、対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、前記順方向学習済みモデルを用いて品質スコアを計算するステップ、を含んでいる。
更に、上記目的を達成するために、第7の発明に係るプログラムは、コンピュータを、第1〜第5のいずれか1の発明に係る学習品質推定装置が備える品質スコア計算部として機能させる。
以上説明したように、本発明に係る学習品質推定装置、方法、及びプログラムによれば、自然言語処理等の分野でよく用いられる、対訳データ、対話データ等の離散系列-離散系列変換のための学習用データ中の誤ったデータを取り除くことができる。その結果、誤ったデータによる機械学習への悪影響が抑えられ、機械学習の精度を向上させることができる。
第1の実施形態に係る学習品質推定装置の機能的な構成の一例を示すブロック図である。 実施形態に係る品質スコア計算部の構成の一例を示すブロック図である。 第1の実施形態に係る学習品質推定プログラムの処理の流れの一例を示すフローチャートである。 第2の実施形態に係る学習品質推定装置の機能的な構成の一例を示すブロック図である。 自然言語処理における変換問題の各種の例を示す図である。 符号化器による符号化及び復号化器による復号化の例を示す図である。 Attention付き離散系列-離散系列変換器の例を示す図である。
以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
本実施形態では、上述の非特許文献2に記載のAttention付き離散系列-離散系列変換器を用いて対訳学習用データに品質スコアを付与して選択する場合について説明する。この離散系列-離散系列変換器には、上記以外にも様々な手法(例えば、非特許文献3を参照。)が考えられるが、本実施形態においてはどの変換器を使用してもよい。
(非特許文献3)
Dzmitry Bahdanau, Kyunghyun Cho and Yoshua Bengio, Neural Machine Translation by Jointly Learning to Align and Translate. Proceedings of the 3rd International Conference on Learning Representations, 2015.
なお、本実施形態では、離散系列の入力及び出力の一例として図5に示すように、翻訳元言語の入力文及び翻訳先言語の出力文が適用される。この場合、離散シンボルには、入力文に含まれる単語及び出力文に含まれる単語が適用される。なお、離散系列の入力及び出力として、文書要約前の入力文章及び文書要約後の出力文章、あるいは、文書校正前の入力文章及び文書校正後の出力文章を適用してもよい。
まず、問題の定義を述べる。誤り(ノイズ)を含まない入力文及び出力文からなる対訳学習用ペアの文章群を(CF、CE)とし、誤りを含んでいる可能性のある入力文及び出力文からなる対訳学習用ペアの文章群を(NF、NE)とする。本実施形態では、誤りを含まない対訳学習用ペアに基づいて離散系列-離散系列変換器の学習済みモデルを構築し、構築した離散系列-離散系列変換器の学習済みモデルを用いて誤りを含んでいる可能性のある対訳学習用ペアに品質スコアを付与する。本実施形態に係る品質スコア付与の処理の手順は以下のようになる。
(入力)
誤りを含んでいる可能性のある対訳学習用ペアの入力を受け付ける。
(前処理)
既存の単語分割器を用いて、対訳学習用ペアの入力文及び出力文の各々を単語系列に分割する。
(品質スコア計算)
事前に学習して得られた離散系列-離散系列変換器の学習済みモデルを用いて、出力文の品質スコアを計算する。
(繰り返し)
上記手順を対訳学習用ペア全てについて繰り返し、全ての対訳学習用ペアについて品質スコアを得る。
(選択)
得られた対訳学習用ペアの品質スコアに基づいて、対訳学習用ペアの並べ替えを行い、品質スコアが高い順に予め定められた数の対訳学習用ペアを選択する。
次に、非特許文献2に記載の離散系列-離散系列変換器を用いた学習処理の概要について説明する。
ここでは、上述のように誤りを含んでいない対訳学習用ペアに基づいて離散系列-離散系列変換器を学習する。
なお、i番目の入力文をf∈CF、出力文をe∈CEと表す。ここで、入力単語の種類を頻出V単語、出力単語の種類を頻出V単語に制限し、ここに含まれない単語については未知語として専用のトークンに置き換えるようにしてもよい。
離散系列-離散系列変換器は、図7に示すように、符号化器及び復号化器を備えている。符号化器は、入力文fに含まれる各単語を固定長のベクトルeに変換する。その後、符号化器は、変換した各単語の固定長のベクトルeから固定長のベクトル系列hに各々符号化する。
復号化器は、符号化器で最終的に得られた固定長のベクトル系列hに基づいて、隠れ層(隠れベクトル)hを求め、固定長のベクトル系列hと、隠れ層hとに基づいて、出力文eを復号化する。その際、各時刻で符号化器が出力した固定長のベクトル系列hへの重みa、重み付き和cを、以下に示す式(1)〜(4)により求める。次に、式(5)によりcとhから
を求める。最後に式(6)を用いて出力単語の確率分布を予測し、これを復号に利用する。なお、これらの式は、非特許文献2に記載されている。
ここで、
は、各時刻での符号化器が出力した固定長のベクトル系列を表す。このベクトル系列に基づいて各時刻において符号化器の出力に対して重み付けを行う。また、
は、隠れ層hの転置を表す。また、
は、モデルパラメータを表す。また、
は、時刻tでの復号化器が出力した固定長のベクトル系列を表す。また、
は、モデルパラメータを表す。また、
は、モデルパラメータを表す。また、
は、出力文eのt単語目を表す。
符号化器の内部は、様々な構成が考えられるが、ここでは長短期記憶メモリ(LSTM)により構築する。ただし、リカレントニューラルネット(Recurrent Neural Network、RNN)や、ゲート付きリカレントユニット(Gated Recurrent Unit、GRU)など他の構成であっても問題ない。符号化器と復号化器内のパラメタθfeは、上述の通り、誤りを含んでいない対訳学習用ペア(CF、CE)を使って決定する。学習後、パラメタθfeは固定される。このパラメタθfeが符号化の精度を決定する。
パラメタ学習法は、従来の系列構造-系列構造変換器と基本的に同じでよい。学習用ペアの入力文を離散系列-離散系列変換器への入力として、符号化器・復号化器のパラメタに基づき出力文を得る。その際に、学習用ペアの出力文(正解データ)と同じ出力文が得られれば、現在のパラメタはうまく調節ができていると言える。一方、出力文が正解データと同じでない場合は、正解が出るような方向にパラメタを調整する、といった処理を行う。最終的に、学習用ペアすべて正解ができるような方向にパラメタ探索することでパラメタを調整する。
次に、図1を参照して、第1の実施形態に係る学習品質推定装置の構成について説明する。
図1は、第1の実施形態に係る学習品質推定装置90の機能的な構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る学習品質推定装置90は、機能的には、演算部10と、入力部20と、出力部30と、を備えている。
また、本実施形態に係る学習品質推定装置90は、電気的には、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及びHDD(Hard Disk Drive)等を備えたコンピュータとして構成される。ROMには、本実施形態に係る学習品質推定プログラムが記憶されている。なお、学習品質推定プログラムは、HDDに記憶されていてもよい。
上記の学習品質推定プログラムは、例えば、学習品質推定装置90に予めインストールされていてもよい。この学習品質推定プログラムは、不揮発性の記憶媒体に記憶して、又は、ネットワークを介して配布して、学習品質推定総著90に適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が挙げられる。
CPUは、ROMに記憶されている学習品質推定プログラムを読み込んで実行することにより、上記の演算部10、入力部20、及び出力部30として機能する。
本実施形態に係る演算部10は、分割部12、品質スコア計算部14、記憶部16、及び選択部18により構成されている。
記憶部16には、離散系列の入力文と出力文とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の入力文を出力文に変換する離散系列-離散系列変換器(以下、単に離散系列変換器という。)の順方向学習済みモデルが記憶されている。つまり、離散系列変換器の順方向学習済みモデルは、複数の第1学習用ペアを入力として予め離散系列変換器の機械学習により得られた固定長のベクトルにより示されるパラメタθfeに基づき生成される。このパラメタθfeは、離散系列変換器による入力文から出力文への離散系列の変換に用いられる。なお、入力文は第1離散系列の一例であり、出力文は第2離散系列の一例である。
本実施形態に係る入力部20は、対応関係に誤りを含んでいる可能性がある入力文及び出力文からなる複数の第2学習用ペアによって構成される文章群の入力を受け付ける。
本実施形態に係る分割部12は、入力部20により入力を受け付けた複数の第2学習用ペアの各ペアに含まれる入力文及び出力文の各々を、既存の単語分割器を用いて単語系列に分割する。
本実施形態に係る品質スコア計算部14は、分割部12により単語系列に分割された複数の第2学習用ペアを入力として、記憶部16に記憶されている順方向学習済みモデルを用いて、複数の第2学習用ペアの各ペアについて品質スコアを計算する。
本実施形態に係る選択部18は、複数の第2学習用ペアの中から、品質スコア計算部14により計算された品質スコアが高い順に予め定められた数の第2学習用ペアを選択する。予め定められた数n(nは1以上の整数)は、ユーザにより適宜設定できるものとする。
本実施形態に係る出力部30は、選択部18により選択されたn個の第2学習用ペアを出力する。出力部30の出力先としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等の表示部が適用される。
次に、図2を参照して、本実施形態に係る品質スコア計算部14の具体的な構成について説明する。
図2は、本実施形態に係る品質スコア計算部14の構成の一例を示すブロック図である。
図2に示すように、本実施形態に係る品質スコア計算部14は、符号化器14A、復号化器14B、及び尤度算出部14Cを含んで構成されている。なお、これらの符号化器14A及び復号化器14Bは、離散系列変換器を構成している。
本実施形態に係る符号化器14Aは、第2学習用ペアに含まれる入力文の各単語を、記憶部16に記憶されている順方向学習済みモデルを用いて固定長のベクトルに変換し、変換した各単語の固定長のベクトルを符号化して固定長のベクトル系列の各々を得る。
本実施形態に係る復号化器14Bは、符号化器14Aにより得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、固定長のベクトル系列の各々と、隠れベクトルと、固定長のベクトル系列の各々に対する重みとに基づいて、入力文に対する出力文を得る。
本実施形態に係る尤度算出部14Cは、第2学習用ペアに含まれる出力文について、第2学習用ペアに含まれる入力文から、符号化器14Aにより得られた固定長のベクトル系列を入力として、復号化器14Bにより得られた固定長のベクトル系列に基づいて、復号化器14Bから出力文が得られる際の負の対数尤度を算出する。そして、尤度算出部14Cは、第2学習用ペアに含まれる出力文の負の対数尤度を出力文の単語数で除することで得られる単語当たりの負の対数尤度を、品質スコアとして出力する。
すなわち、第2学習用ペアの入力文をf∈NF、出力文をe∈NE、固定長のベクトル系列を
、入力文fを符号化器により符号化した固定長のベクトル系列をhs、入力文から出力文への離散系列の変換に用いるパラメタをθfe、条件付き確率をpとした場合に、出力文eについて、固定長のベクトル系列hから復号化器14Bにより得られた固定長のベクトル系列
に基づいて、復号化器14Bから出力文eが得られる際の負の対数尤度Jは、以下に示す式(7)及び式(8)により求められる。
更に、出力文eの単語数を|e|とした場合、上記で得られた負の対数尤度Jを、出力文eの単語数|e|で除する。このように単語数を用いて規格化を行うことで、長い文と短い文との違いを品質スコアに反映することができる。この場合、単語当たりの対数尤度Jは、以下に示す式(9)により求められる。なお、式(8)の条件付き確率pは、例えば、式(6)の確率分布を元に、eを構成する各単語の出力確率を求め、その積を取ることで求めることができる。
以上によって得られた単語当たりの対数尤度Jを、第2学習用ペアの品質スコアとして出力する。この品質スコアは、複数の第2学習用ペアからなる文章群(NF、NE)に含まれる全ペアについて求められる。
更に、複数の第2学習用ペアの全てについて得られた品質スコアに基づいて、複数の第2学習用ペアの並べ替えを行う。並べ替えた後のスコア上位n(n≧1)個の第2学習用ペアを機械学習に用いる。
なお、上記では、離散系列変換器の一例として、図7に示すAttention付き離散系列-離散系列変換器を適用した場合について説明したが、図6に示す一般的な離散系列-離散系列変換器を適用してもよい。この場合、符号化器14Aは、第2学習用ペアに含まれる入力文の各単語を、記憶部16に記憶されている順方向学習済みモデルを用いて固定長のベクトルに変換し、変換した各単語の固定長のベクトルを符号化して固定長のベクトル系列を得る。そして、復号化器14Bは、符号化器14Aにより得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、求めた隠れベクトルに基づいて、入力文に対する出力文を得る。
次に、図3を参照して、第1の実施形態に係る学習品質推定装置10の作用について説明する。なお、図3は、第1の実施形態に係る学習品質推定プログラムの処理の流れの一例を示すフローチャートである。
図3のステップ100では、入力部20が、誤りを含んでいる可能性がある入力文及び出力文からなる第2学習用ペアの入力を受け付ける。
ステップ102では、分割部12が、ステップ100で入力を受け付けた第2学習用ペアに含まれる入力文及び出力文の各々を単語系列に分割する。
ステップ104では、品質スコア計算部14が、ステップ102で単語系列に分割した第2学習用ペアについて、記憶部16に記憶されている順方向学習済みモデルを用いて、第2学習用ペアに含まれる出力文の尤度を算出し、算出した尤度から品質スコアを計算する。
ステップ106では、品質スコア計算部14が、ステップ104で計算した品質スコアを、全ての第2学習用ペアについて得られたか否かを判定する。品質スコアが得られたと判定した場合(肯定判定の場合)、ステップ108に移行し、品質スコアが得られていないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。
ステップ108では、選択部18が、上記処理で計算した品質スコアが高い順にn個の第2学習用ペアを選択し、本学習品質推定プログラムによる一連の処理を終了する。
このように本実施形態によれば、離散系列変換器の学習済みモデルを用いて、誤りを含んでいる可能性のある学習用ペアについて品質スコアを計算することにより、誤った学習用ペアを取り除くことができる。これにより、誤った学習用ペアによる機械学習への悪影響を抑え、機械学習の精度を向上させることができ、更に機械学習に要する時間を短縮することができる。
[第2の実施形態]
上記第1の実施形態では、誤りを含まない第1学習用ペアの文章群(CF、CE)を利用して離散系列変換器の入力文から出力文への順方向のパラメタθfeを学習して利用した。本実施形態では、離散系列変換器の出力文から入力文への逆方向のパラメタθefも学習して利用する。これにより更なる精度向上を図ることが可能となる。この場合、例えば、両方向で得られた品質スコアJの和を取り、それを選択に利用することができる。
図4は、第2の実施形態に係る学習品質推定装置92の機能的な構成の一例を示すブロック図である。
図4に示すように、本実施形態に係る学習品質推定装置92は、機能的には、演算部10と、入力部20と、出力部30と、を備えている。なお、第1の実施形態に係る学習品質推定装置90と同一の機能を有する構成要素には、同一の符号を付しここでの繰り返しの説明は省略する。
記憶部16Aには、第1の実施形態と同様に、複数の第1学習用ペアに基づいて予め学習された、離散系列の入力文を出力文に変換する離散系列変換器の順方向学習済みモデルが記憶されている。また、記憶部16Bには、複数の第1学習用ペアに基づいて予め学習された、離散系列の出力文を入力文に変換する離散系列変換器の逆方向学習済みモデルが記憶されている。この離散系列変換器の逆方向学習済みモデルは、離散系列変換器による出力文から入力文への離散系列の変換に用いられるパラメタに基づき生成される。なお、これらの記憶部16A及び記憶部16Bは、1つの記憶部として構成してもよい。
本実施形態に係る品質スコア計算部14は、第2学習用ペアについて、順方向学習済みモデル及び逆方向学習済みモデルの各々を用いて品質スコアを計算する。具体的には、複数の第2学習用ペアを入力として、記憶部16Aに記憶されている順方向学習済みモデルを用いて、複数の第2学習用ペアの各ペアに含まれる出力文の品質スコアを計算し、更に、記憶部16Bに記憶されている逆方向学習済みモデルを用いて、複数の第2学習用ペアの各ペアに含まれる入力文の品質スコアを計算する。
ここで、本実施形態に係る品質スコア計算部14は、図2に示す品質スコア計算部14と同様に、符号化器14A、復号化器14B、及び尤度算出部14Cを含んで構成されている。
本実施形態に係る符号化器14Aは、第2学習用ペアに含まれる入力文の各単語を、記憶部16Aに記憶されている順方向学習済みモデルを用いて固定長のベクトルに変換し、変換した各単語の固定長のベクトルを符号化して固定長のベクトル系列の各々を得る。また、符号化器14Aは、第2学習用ペアに含まれる出力文の各単語を、記憶部16Bに記憶されている逆方向学習済みモデルを用いて固定長のベクトルに変換し、変換した各単語の固定長のベクトルを符号化して固定長のベクトル系列の各々を得る。
本実施形態に係る復号化器14Bは、符号化器14Aにより得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、固定長のベクトル系列の各々と、隠れベクトルと、固定長のベクトル系列の各々に対する重みとに基づいて、入力文に対する出力文を得る。また、復号化器14Bは、符号化器14Aにより得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、固定長のベクトル系列の各々と、隠れベクトルと、固定長のベクトル系列の各々に対する重みとに基づいて、出力文に対する入力文を得る。
本実施形態に係る尤度算出部14Cは、第2学習用ペアに含まれる出力文について、第2学習用ペアに含まれる入力文から、符号化器14Aにより得られた固定長のベクトル系列を入力として、復号化器14Bにより得られた固定長のベクトル系列に基づいて、復号化器14Bから出力文が得られる際の負の対数尤度を算出する。具体的には、上述の式(7)及び式(8)を用いて算出する。そして、尤度算出部14Cは、第2学習用ペアに含まれる出力文の負の対数尤度を出力文の単語数で除することで得られる単語当たりの負の対数尤度を、順方向の品質スコアとして出力する。また、尤度算出部14Cは、第2学習用ペアに含まれる入力文について、第2学習用ペアに含まれる出力文から、符号化器14Aにより得られた固定長のベクトル系列を入力として、復号化器14Bにより得られた固定長のベクトル系列に基づいて、復号化器14Bから入力文が得られる際の負の対数尤度を算出する。この場合、上述の式(7)及び式(8)において入力文と出力文との関係を逆にすればよい。そして、尤度算出部14Cは、第2学習用ペアに含まれる入力文の負の対数尤度を入力文の単語数で除することで得られる単語当たりの負の対数尤度を、逆方向の品質スコアとして出力する。
本実施形態に係る選択部18は、複数の第2学習用ペアの中から、品質スコア計算部14により計算された品質スコアが高い順に予め定められた数の第2学習用ペアを選択する。なお、本実施形態では、品質スコアとして、順方向学習済みモデルを用いた場合に得られる順方向の品質スコアと、逆方向学習済みモデルを用いた場合に得られる逆方向の品質スコアとの和を適用する。
このように本実施形態によれば、入力文から出力文への順方向、及び、出力文から入力文への逆方向の両方向についての学習済みモデルを用いて、誤りを含んでいる可能性のある学習用ペアについて両方向から品質スコアを計算する。これにより、誤った学習用ペアをより精度よく取り除くことができる。
上述したように、一般に自然言語処理で用いられる離散系列-離散系列変換器の学習用データには誤ったデータが混入していないことが前提となっている。しかし、現実には多くの場合、誤ったデータが混入しており、これらが機械学習に悪影響を与えることがある。
これに対して、上記各実施形態を用いることにより学習用データの品質を推定することができ、それを基に学習用データを選択することで、機械学習に悪影響を与える誤ったデータを取り除くことができる。ゆえに、本実施形態を適用することで機械学習の学習精度を向上させることができる。
以上、実施形態として学習品質推定装置を例示して説明した。実施形態は、コンピュータを、学習品質推定装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
その他、上記実施形態で説明した学習品質推定装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10 演算部
12 分割部
14 品質スコア計算部
14A 符号化器
14B 復号化器
14C 尤度算出部
16、16A、16B 記憶部
18 選択部
20 入力部
30 出力部
90、92 学習品質推定装置

Claims (7)

  1. 離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部と、
    対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、前記順方向学習済みモデルを用いて品質スコアを計算する品質スコア計算部と、
    を備えた学習品質推定装置。
  2. 前記離散系列変換器は、ニューラルネットワークであり、
    前記入力に含まれる各離散シンボルを、固定長のベクトルに変換し、変換した各離散シンボルの固定長のベクトルを符号化して固定長のベクトル系列を得る符号化器と、
    前記符号化器により得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、前記隠れベクトルに基づいて、前記入力に対する出力を得る復号化器と、
    を含み、
    前記品質スコア計算部は、前記第2学習用ペアに含まれる出力について、前記第2学習用ペアに含まれる入力から前記符号化器により得られた固定長のベクトル系列を入力として、前記復号化器により得られた固定長のベクトル系列に基づいて前記復号化器から前記出力が得られる際の負の対数尤度を用いて、前記品質スコアを計算する請求項1に記載の学習品質推定装置。
  3. 前記品質スコア計算部は、前記負の対数尤度を前記出力に含まれる離散シンボル数で除することで得られる離散シンボル当たりの負の対数尤度を、前記品質スコアとして出力する請求項2に記載の学習品質推定装置。
  4. 前記品質スコア計算部は、複数の第2学習用ペアの各々について、前記品質スコアを計算し、
    前記複数の第2学習用ペアの中から、前記品質スコア計算部により計算された品質スコアが高い順に予め定められた数の第2学習用ペアを選択する選択部を更に備えた請求項1〜3のいずれか1項に記載の学習品質推定装置。
  5. 前記記憶部は、前記複数の第1学習用ペアに基づいて予め学習された、離散系列の第2離散系列を第1離散系列に変換する離散系列変換器の逆方向学習済みモデルを更に記憶しており、
    前記品質スコア計算部は、前記第2学習用ペアについて、前記順方向学習済みモデル及び前記逆方向学習済みモデルの各々を用いて前記品質スコアを計算する請求項1〜4のいずれか1項に記載の学習品質推定装置。
  6. 離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部を備えた学習品質推定装置による学習品質推定方法であって、
    品質スコア計算部が、対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、前記順方向学習済みモデルを用いて品質スコアを計算するステップ、
    を含む学習品質推定方法。
  7. コンピュータを、請求項1〜5のいずれか1項に記載の学習品質推定装置が備える品質スコア計算部として機能させるためのプログラム。
JP2018033719A 2018-02-27 2018-02-27 学習品質推定装置、方法、及びプログラム Active JP6969443B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018033719A JP6969443B2 (ja) 2018-02-27 2018-02-27 学習品質推定装置、方法、及びプログラム
PCT/JP2019/006555 WO2019167794A1 (ja) 2018-02-27 2019-02-21 学習品質推定装置、方法、及びプログラム
US16/975,679 US20200410345A1 (en) 2018-02-27 2019-02-21 Learning quality estimation device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018033719A JP6969443B2 (ja) 2018-02-27 2018-02-27 学習品質推定装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019149030A true JP2019149030A (ja) 2019-09-05
JP6969443B2 JP6969443B2 (ja) 2021-11-24

Family

ID=67804942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018033719A Active JP6969443B2 (ja) 2018-02-27 2018-02-27 学習品質推定装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20200410345A1 (ja)
JP (1) JP6969443B2 (ja)
WO (1) WO2019167794A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021140957A1 (ja) * 2020-01-08 2021-07-15 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2021193025A1 (ja) * 2020-03-25 2021-09-30 パナソニックIpマネジメント株式会社 データ生成方法、判定方法、プログラム、及び、データ生成システム
WO2022038785A1 (ja) 2020-08-21 2022-02-24 富士通株式会社 訓練データ生成プログラム、訓練データ生成方法および訓練データ生成装置
JP7476578B2 (ja) 2020-03-06 2024-05-01 富士フイルムビジネスイノベーション株式会社 学習装置及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114971425B (zh) * 2022-07-27 2022-10-21 深圳市必提教育科技有限公司 数据库信息监控方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110099133A1 (en) * 2009-10-28 2011-04-28 Industrial Technology Research Institute Systems and methods for capturing and managing collective social intelligence information
CN102945232A (zh) * 2012-11-16 2013-02-27 沈阳雅译网络技术有限公司 面向统计机器翻译的训练语料质量评价及选取方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074242A (zh) * 2016-05-06 2018-12-21 电子湾有限公司 在神经机器翻译中使用元信息
US10402495B1 (en) * 2016-09-01 2019-09-03 Facebook, Inc. Abstractive sentence summarization
WO2018203147A2 (en) * 2017-04-23 2018-11-08 Voicebox Technologies Corporation Multi-lingual semantic parser based on transferred learning
US10733380B2 (en) * 2017-05-15 2020-08-04 Thomson Reuters Enterprise Center Gmbh Neural paraphrase generator
US10867595B2 (en) * 2017-05-19 2020-12-15 Baidu Usa Llc Cold fusing sequence-to-sequence models with language models
CN107357775A (zh) * 2017-06-05 2017-11-17 百度在线网络技术(北京)有限公司 基于人工智能的循环神经网络的文本纠错方法及装置
EP3454260A1 (en) * 2017-09-11 2019-03-13 Tata Consultancy Services Limited Bilstm-siamese network based classifier for identifying target class of queries and providing responses thereof
US20190095961A1 (en) * 2017-09-22 2019-03-28 Facebook, Inc. Applying a trained model for predicting quality of a content item along a graduated scale
US10380236B1 (en) * 2017-09-22 2019-08-13 Amazon Technologies, Inc. Machine learning system for annotating unstructured text
KR102462426B1 (ko) * 2017-12-14 2022-11-03 삼성전자주식회사 발화의 의미를 분석하기 위한 전자 장치 및 그의 동작 방법
US10489792B2 (en) * 2018-01-05 2019-11-26 Asapp, Inc. Maintaining quality of customer support messages

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110099133A1 (en) * 2009-10-28 2011-04-28 Industrial Technology Research Institute Systems and methods for capturing and managing collective social intelligence information
CN102945232A (zh) * 2012-11-16 2013-02-27 沈阳雅译网络技术有限公司 面向统计机器翻译的训练语料质量评价及选取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
今村 賢治、隅田 英一郎: "疑似原文生成によるニューラル機械翻訳への単言語コーパスの導入", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6021005519, 6 March 2017 (2017-03-06), JP, pages 1026 - 1029, ISSN: 0004448684 *
松村 雪桜 外2名: "逆翻訳によるニューラル機械翻訳の最適化", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6021005521, 6 March 2017 (2017-03-06), JP, pages 986 - 989, ISSN: 0004448685 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021140957A1 (ja) * 2020-01-08 2021-07-15 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7476578B2 (ja) 2020-03-06 2024-05-01 富士フイルムビジネスイノベーション株式会社 学習装置及びプログラム
WO2021193025A1 (ja) * 2020-03-25 2021-09-30 パナソニックIpマネジメント株式会社 データ生成方法、判定方法、プログラム、及び、データ生成システム
WO2022038785A1 (ja) 2020-08-21 2022-02-24 富士通株式会社 訓練データ生成プログラム、訓練データ生成方法および訓練データ生成装置

Also Published As

Publication number Publication date
JP6969443B2 (ja) 2021-11-24
US20200410345A1 (en) 2020-12-31
WO2019167794A1 (ja) 2019-09-06

Similar Documents

Publication Publication Date Title
WO2019167794A1 (ja) 学習品質推定装置、方法、及びプログラム
US11106714B2 (en) Summary generating apparatus, summary generating method and computer program
CN109871529B (zh) 语言处理方法和设备
US11487950B2 (en) Autonomous evolution intelligent dialogue method, system, and device based on a game with a physical environment
CN111401084B (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
CN107729322B (zh) 分词方法及装置、建立句子向量生成模型方法及装置
CN108090218B (zh) 基于深度强化学习的对话系统生成方法和装置
CN111291166A (zh) 基于Bert的语言模型的训练方法及装置
CN112686058A (zh) Bert嵌入语音翻译模型训练方法、系统及语音翻译方法和设备
CN111008266B (zh) 文本分析模型的训练方法及装置、文本分析方法及装置
CN110689048A (zh) 用于样本分类的神经网络模型的训练方法和装置
JPWO2019163718A1 (ja) 学習装置、音声認識順位推定装置、それらの方法、およびプログラム
CN113822054A (zh) 基于数据增强的中文语法纠错方法及装置
CN112364659B (zh) 一种无监督的语义表示自动识别方法及装置
CN110287487B (zh) 主谓语识别方法、装置、设备及计算机可读存储介质
CN110399619B (zh) 面向神经机器翻译的位置编码方法及计算机存储介质
CN114707518B (zh) 面向语义片段的目标情感分析方法、装置、设备及介质
JP2017142746A (ja) 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム
CN113486160B (zh) 基于跨语言知识的对话方法及系统
WO2019171537A1 (ja) 意味推定システム、方法およびプログラム
JP6633999B2 (ja) 符号器学習装置、変換装置、方法、及びプログラム
Heymann et al. Improving CTC using stimulated learning for sequence modeling
CN113011149B (zh) 一种文本纠错方法及系统
WO2019171538A1 (ja) 意味推定システム、方法およびプログラム
KR102645628B1 (ko) 선다형 질문에 대한 정답 선택 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6969443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150