JP2020135689A - モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム - Google Patents
モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム Download PDFInfo
- Publication number
- JP2020135689A JP2020135689A JP2019031257A JP2019031257A JP2020135689A JP 2020135689 A JP2020135689 A JP 2020135689A JP 2019031257 A JP2019031257 A JP 2019031257A JP 2019031257 A JP2019031257 A JP 2019031257A JP 2020135689 A JP2020135689 A JP 2020135689A
- Authority
- JP
- Japan
- Prior art keywords
- model
- learning
- intent
- slot
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000012549 training Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 description 84
- 238000004364 calculation method Methods 0.000 description 37
- 238000013500 data storage Methods 0.000 description 33
- 238000012546 transfer Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】インテントおよびスロットの認識に用いるモデルの学習について、高精度なモデルを学習するために、インテントおよびスロットの特性を活用可能とする。【解決手段】モデル学習システム1のモデル学習装置2は、学習データについて認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなるロスを用いて意図解釈モデルを学習するモデル学習部11を備え、これにより、学習後の意図解釈モデルがインテントとスロットとの関係の制約を満たしていない組み合わせでインテントおよびスロットを認識する確率を低減する。【選択図】図1
Description
本発明は、入力データのインテントおよびスロットの認識に用いるモデルを学習するモデル学習システム、モデル学習方法およびモデル学習用プログラム、および、学習されたモデルによってインテントおよびスロットを認識する意図解釈システムに関する。
従来、意図解釈に用いるモデルの学習について広く研究が行われている。ここでの意図解釈は、文章を対象として、インテントおよびスロットを認識することを意味している。インテント(タスクや機能と呼ばれる場合もある)は、対象となる文章の意図の種別を意味する。また、スロット(キーワードと呼ばれる場合もある)は、インテントが示す意図を処理するために必要な付属的情報を意味し、インテントに対応する処理を実行する際の引数として用いられる(ただし、インテントによっては、スロットが存在しない場合もある)。なお、「文章」は、インテントおよびスロットを認識する対象となり得る情報を総称して便宜的に表すものであり、言語学において定義された「文章」を厳密に意味するものではない。例えば、意図解釈は、インテントの種別として「電車の乗換案内」が定義されており、インテント:「電車の乗換案内」に対してスロットとして「出発駅」および「到着駅」が定義されている場合において、「A駅からB駅までの乗り換えを教えて」という文章について、インテントとして「電車の乗換案内」を、出発駅に係るスロットとして「A駅」を、到着駅に係るスロットとして「B駅」を認識することを意味する。
意図解釈に用いるモデルの学習に関しては、インテントとスロットとを同時に認識する一つのモデルを学習するマルチタスク学習が知られている(例えば、非特許文献1、2参照)。インテントの認識およびスロットの認識に関し、非特許文献1、2に記載されたマルチタスク学習を行うことにより、インテントに関する情報およびスロットに関する情報を共有しつつモデルを学習することができ、独立にモデルを構築する場合よりも、高い精度で認識を行うことが可能なモデルを学習できることが知られている。
Chih-Wen Goo, Guang Gao, Yun-Kai Hsu, Chih-Li Huo, Tsung-Chieh Chen, Keng-Wei Hsu, and Yun-Nung Chen. Slot-gated modeling for joint slot filling and intent prediction. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 753-757, 2018.
Bing Liu and Ian Lane. Attention-based recurrent neural network models for joint intent detection and slot filling. In Proceedings of Interspeech 2016, pp. 685-689, 2016.
モデルにより認識されるインテントおよびスロットは、インテントおよびスロットのうち一方が正しく一方が正しくない場合には、インテントに対応する処理(例えば、インテントが「電車の乗換案内」の場合において、乗換案内検索)を実行するときの引数(例えば、インテントに対応する処理が乗換案内検索の場合において、出発駅および到着駅)として不適切な値が引き渡されてしまいエラーの発生の要因となる。このため、インテントおよびスロットの両方が正しく認識される必要がある。上述した非特許文献1、2に記載された学習は、インテントに関する情報とスロットに関する情報とを共有しつつインテントおよびスロットを同時に認識するモデルを対象とするものであるが、インテントおよびスロットの双方がモデルにより正しく認識される必要があるという点について考慮されておらず、その点で改善の余地がある。
本発明は、このような問題を解決するために成されたものであり、高精度なインテントおよびスロットの認識のモデルを学習するために、インテントおよびスロットの特性を活用可能とすることを目的とする。
上記した課題を解決するために、本発明では、学習データについて認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなるロスを用いて意図解釈モデルを学習するようにしている。
インテントおよびスロットについて、インテントとスロットとの関係には制約があるという特性がある。インテントとスロットとの関係の制約とは、ある文章について、あるインテントが認識されたときに、そのインテントについて同時に認識されるべきスロットを制限するような条件、または、あるスロットが認識されたときに、その文章について同時に認識されるべきインテントを制限するような条件を意味する。例えば、ある文章について、インテントとして電車の乗換案内が認識された場合に、スロットは何でもよいというわけではなく、乗換案内に係るインテントと同時に認識されるスロットは出発駅および到着駅である必要があり、この点で、インテントと同時に認識されるべきスロットは制限される。
以上を踏まえ、上記のように構成した本発明によれば、学習中のモデルを用いて認識した、ある学習データのインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなるロスを用いて意図解釈モデルの学習がなされるため、学習後の意図解釈モデルは、インテントとスロットとの関係の制約を満たしていない組み合わせでインテントおよびスロットを認識する確率が低くなるモデルとなり、インテントとスロットとの関係の制約を考慮せずにインテントおよびスロットを認識する従来の手法で学習されたモデルと比較して、意図解釈モデルを用いた認識の精度を高めることができる。すなわち、本発明によれば、高精度なインテントおよびスロットの認識のモデルを学習するために、インテントおよびスロットの特性を活用できる。
<第1実施形態>
図1は、本実施形態に係るモデル学習システム1のモデル学習装置2の機能的構成例を示すブロック図である。本実施形態に係るモデル学習装置2は、ラベル付き学習データを用いた学習を行って、意図解釈モデルの学習を行う装置である。本実施形態において、意図解釈は、文章を対象として、インテントおよびスロットを認識することを意味しており、意図解釈モデルは、文章のインテントおよびスロットの認識に用いられるモデルを意味している。インテントは、対象となる文章の意図の種別を意味し、また、スロットは、インテントが示す意図を処理するために必要な付属的情報を意味する。なお、本実施形態において、「文章」は、インテントおよびスロットを認識する対象となり得る情報を総称して便宜的に表すものである。特に、モデル学習装置2により学習された意図解釈モデルが処理対象とする文章としては、人間の発話音声をテキスト化したものや、ウェブページの入力欄や、アンケート等に人間が入力したテキストを想定している。
図1は、本実施形態に係るモデル学習システム1のモデル学習装置2の機能的構成例を示すブロック図である。本実施形態に係るモデル学習装置2は、ラベル付き学習データを用いた学習を行って、意図解釈モデルの学習を行う装置である。本実施形態において、意図解釈は、文章を対象として、インテントおよびスロットを認識することを意味しており、意図解釈モデルは、文章のインテントおよびスロットの認識に用いられるモデルを意味している。インテントは、対象となる文章の意図の種別を意味し、また、スロットは、インテントが示す意図を処理するために必要な付属的情報を意味する。なお、本実施形態において、「文章」は、インテントおよびスロットを認識する対象となり得る情報を総称して便宜的に表すものである。特に、モデル学習装置2により学習された意図解釈モデルが処理対象とする文章としては、人間の発話音声をテキスト化したものや、ウェブページの入力欄や、アンケート等に人間が入力したテキストを想定している。
図1に示すように、モデル学習装置2は、機能構成として、学習データ変換部10およびモデル学習部11を備えている。モデル学習部11は、学習処理部12、標準ロス算出部13および関係制約ロス算出部14を備えている。なお、上記各機能ブロック10〜14は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック10〜14は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたモデル学習用プログラムが動作することによって実現される。以上のことは、後述する第2実施形態に係るモデル学習装置2Aの各機能ブロックについても同様である。また、モデル学習装置2は、記憶手段として、モデル記憶部16、教師ありデータ記憶部17、制約データ記憶部18および処理用データ記憶部19を備えている。
モデル記憶部16には、モデル学習部11により学習された意図解釈モデルが記憶される。上述したように、意図解釈モデルは、文章のインテントおよびスロットの認識に用いられるモデルである。本実施形態では、説明の明確化、単純化のため、以下のような意図解釈モデルを対象として学習が行われるものとする。すなわち、意図解釈モデルごとに、意図解釈モデルにより認識され得るインテントの種別(特定の意図が存在しない「その他」を含む。以下、「候補インテント種別」という)が予め定められており、更に、意図解釈モデルにより認識され得るスロットの種別が予め定められている。そして、本実施形態に係る意図解釈モデルは、入力情報(文章)に基づくデータ(対象となる文章について、前処理(形態素解析やカテゴリ付与等)や、特徴量抽出等の必要な処理が行われて、意図解釈モデルが処理可能な情報へと変換されたデータ)を入力し、(1)インテントの種別、(2)スロット(複数のスロットが認識された場合には、複数のスロットのそれぞれ。以下、同じ)の種別および、(3)スロットの値を出力するモデルであるものとする。
なお、意図解釈モデルは、文章のインテントおよびスロットの認識に用いられるモデルであればよく、その機能が本実施形態に係る意図解釈モデルと同じである必要はない。一例として、意図解釈モデルは、複数のインテントの種別の候補について正しい種別である確率を出力したり、複数のスロットの値の候補について正しい値である確率を出力したりするモデルであってもよい。例えば、意図解釈モデルとして、上述した非特許文献1、2のモデルを用いることもできる。
教師ありデータ記憶部17には、複数のラベル付き学習データが記憶される。ラベル付き学習データとは、意図解釈モデルの学習に用いられる学習データであり、文章と正解ラベルとの組み合わせを含んでいる。本実施形態では、ある文章に対応する正解ラベルは、その文章のインテントの種別、スロットの種別およびスロットの値を示すラベルである。インテントの種別によって、スロットは複数の場合もあり、また存在しない場合もある。なお、本実施形態に係るラベル付き学習データの態様は、あくまで一例であり、ラベル付き学習データの文章の内容や、正解ラベルの態様は、学習の対象とする意図解釈モデルに応じて適切に定められるべきものである。
制約データ記憶部18には、制約データが記憶される。制約データは、インテントとスロットとの関係の制約を示す情報が記述されたデータである。以下、適宜、インテントとスロットとの関係の制約を「関係制約」と表現し、制約データに記述される、関係制約を示す情報を「関係制約情報」という。ここで、インテントおよびスロットについて、インテントとスロットとの関係には制約があるという特性がある。関係制約とは、ある文章について、あるインテントが認識されたときに、その文章について同時に認識されるべきスロットを制限するような条件、または、あるスロットが認識されたときに、その文章について同時に認識されるべきインテントを制限するような条件を意味する。関係制約は、インテントに対応する処理を実行する際に使用する引数の妥当性を向上するための条件ということもできる。
例えば、関係制約は、「インテントの種別が「電車の乗換案内」の場合、同時に認識されるスロットの種別は、出発駅(種別)および到着駅(種別)である」というものである。この制約は、食べ物(種別)や、人物(種別)等のオブジェクトは電車の乗換案内における出発駅および到着駅となり得ないことに基づくものである。また、インテントとスロットとの関係が、この関係制約を満たす場合、例えば、認識結果に基づいて乗換案内検索エンジンにより乗換案内検索(インテントに対応する処理)が行われる場合に、少なくとも種別については正しい値を引数として乗換案内検索エンジンに引き渡すことができる。
なお、関係制約は、上記で例示したもののほか、様々なものを設定することができる。関係制約の例は、「インテントの種別が○の場合、同時に認識される所定のスロットの種別は○ではない」や、「所定のスロットの種別が○の場合、インテントの種別は○ではない」、「インテントの種別が○の場合、スロットは認識されない(または、○個のスロットあるいは○個以上のスロットが認識される)」、「インテントの種別が○の場合、同時に認識されるスロットの種別は、○か○である」等である。関係制約情報は、モデル学習部11が処理可能な形式で制約データに記述される。本実施形態では、説明の明確化、単純化のため、制約データには、インテントの種別ごとに、取り得るスロットの種別を示す情報が、関係制約情報として記述されているものとする。この場合、関係制約情報は、例えば、インテントの種別が「電車の乗換案内」の場合には、取り得るスロットの種別は「出発駅」および「到着駅」であるという情報である。
処理用データ記憶部19には、学習データ変換部10により生成された第1処理用データ(後述)が記憶される。
以下、教師ありデータ記憶部17に記憶されたラベル付き学習データを使用して意図解釈モデルの学習を行う場合の各機能ブロックの処理を説明する。
学習データ変換部10は、教師ありデータ記憶部17に記憶されたラベル付き学習データを1件ずつ入力し、ラベル付き学習データに含まれる文章について前処理(形態素解析やカテゴリ付与等)や、特徴量抽出等の処理を行って、特徴を数値列として表現する特徴ベクトルを生成し、生成した特徴ベクトルと元の文章と正解ラベルとの組み合わせを含む第1処理用データを生成する。第1処理用データの生成に必要な情報は学習データ変換部10に適切に与えられる。この第1処理用データは、モデル学習部11が処理可能な形式のデータである。学習データ変換部10は、生成した第1処理用データを処理用データ記憶部19に記憶する。この結果、学習データ変換部10の機能により、ラベル付き学習データのそれぞれが、第1処理用データに変換され、処理用データ記憶部19に記憶される。
モデル学習部11の学習処理部12は、以下の処理を行って、意図解釈モデルを決定し、モデル記憶部16に記憶する。本実施形態では、意図解釈モデルは、インテントとスロットとを同時に認識するモデルであり、特徴ベクトルデータの各要素を変数の一部とし、各変数を調整するパラメータを含む関数によって構成されている。そして、意図解釈モデルを決定するとは、マルチタスク学習によって意図解釈モデルの各パラメータの値を調整し、決定することを意味する。
意図解釈モデルの決定に際し、学習処理部12は、意図解釈モデルと同構造のモデル(以下、便宜的に「仮モデル」という)の各パラメータの更新を繰り返し行い、各パラメータを更新する度に各パラメータを更新した後の仮モデルの総合ロス(後述)を算出する。そして、学習処理部12は、総合ロスが小さくなるように各パラメータが調整された仮モデルを最終的な意図解釈モデルとして決定する(つまり、最終的な各パラメータの値を決定する)。なお、仮モデルの各パラメータの更新は、例えば確率的勾配降下法など、統合ロスを下げるようにパラメタを学習する任意の方法を用いることができる。
学習処理部12は、一の仮モデルの総合ロス(特許請求の範囲の「ロス」に相当)を以下の方法で算出する。すなわち、学習処理部12は、標準ロス算出部13に対して、当該一の仮モデルを通知すると共に、標準ロスの応答を要求する。学習処理部12は、当該要求に対する応答として標準ロスを取得する。また、学習処理部12は、関係制約ロス算出部14に対して、当該一の仮モデルを通知すると共に、関係制約ロスの応答を要求する。学習処理部12は、当該要求に対する応答として関係制約ロスを取得する。学習処理部12は、標準ロス算出部13から取得した標準ロス、および、関係制約ロス算出部14から取得した関係制約ロスについて、正規化や、最終的に算出される総合ロスへの影響度を調整する重みづけ等を適切に行った上で、これらを加算し、総合ロスを算出する。つまり、学習処理部12は、標準ロスおよび関係制約ロスの双方を加味して総合ロスを算出する。このため、総合ロスは、関係制約ロスが大きいほど、大きくなる。
モデル学習部11の標準ロス算出部13は、学習処理部12から標準ロスの応答要求があった場合に、学習処理部12から通知された仮モデル(以下の標準ロス算出部13の処理の説明において、単に「仮モデル」という)に基づいて、標準ロスを算出し、応答する。標準ロスとは、第1処理用データを対象として仮モデルを用いて認識された結果が表す値(以降、認識値と呼ぶ)と、正解ラベルにより表される値(以降、正解値と呼ぶ)との乖離を表す損失値のことであり、乖離する場合に大きな値になる。標準ロス算出部13は、処理用データ記憶部19に記憶された第1処理用データのそれぞれを入力し、第1処理用データのそれぞれについて、仮モデルを使用して出力される認識値と正解値との乖離を所定の計算方法で算出し、それぞれの結果から標準ロスを算出する。なお、標準ロスの算出方法は、インテントおよびスロットを同時に認識するモデルを学習するマルチタスク学習に適用可能な方法であれば、どのような方法であってもよく、例えば、上述した非特許文献1、2で開示されている方法を用いることができる。
モデル学習部11の関係制約ロス算出部14は、学習処理部12から関係制約ロスの応答要求があった場合に、学習処理部12から通知された仮モデル(以下の関係制約ロス算出部14の処理において、単に「仮モデル」という)に基づいて、関係制約ロスを算出し、応答する。関係制約ロスとは、第1処理用データを対象として認識されるインテント(本実施形態では、具体的にはインテントの種別)およびスロット(本実施形態では、具体的にはスロットの種別)について、インテントとスロットとの関係の制約の非充足性を総合的に表す損失値のことであり、各第1処理用データについて関係の制約が満たされていない場合に大きくなる。
関係制約ロス算出部14は、処理用データ記憶部19に記憶された第1処理用データのそれぞれを入力し、第1処理用データのそれぞれについて、仮モデルを使用してインテントの種別と、スロットの種別とを認識し、制約データ記憶部18の制約データに記述された関係制約情報を参照して、認識したインテントの種別およびスロットの種別が、関係制約情報が示す関係制約を満たすか否かを判定する。そして、関係制約ロス算出部14は、処理対象とした第1処理用データが関係の制約を満たさない場合に関係制約ロスが大きくなる計算方法で、全ての第1処理用データについての判定結果を反映して関係制約ロスを算出する。一例として、関係制約情報に「インテントの種別が「電車の乗換案内」の場合、同時に認識されるスロットの種別は「出発駅」および「到着駅」である」という情報が含まれているとする。この場合において、関係制約ロス算出部14は、ある第1処理用データについて仮モデルを用いて認識されたインテントの種別が「電車の乗換案内」であり、出発駅に係るスロットまたは到着駅に係るスロットの種別が「店舗名称」(つまり出発駅や到着駅ではない)である場合、制約を満たさないため、関係制約ロスが大きくなるようにする。
以下で、関係制約ロスを算出するロス関数の具体的な一例を示す。まず、命題論理の文を用いたロス関数であるSemantic Loss Functionが、文αに含まれる原始命題をX={Xi,...,Xn}とし、各原始命題が真となる確率を表すp={pi,...,pn}を用いて以下の通り定義される。
ただし、破線のアンダーラインL1のxは、文αを充足する真理値割り当てである。また、文章が何れかのインテントとして認識され、かつ、文章内の全トークン(スロットの値を構成する最小単位)が、認識されたインテントのスロットか、どのスロットでもない場合に真になる文<Intent-slot-rel>を以下の通り定義する。
ただし、∨は論理和、∧は論理積、intenti(u)は、文章uがi番目のインテントの場合に真となる原始命題、Siはi番目のインテントに定義されたスロットのインデックスの集合、slotj(ut)は文章uのt番目のトークンがj番目のスロットの場合に真となる原始命題である。各トークンが必ずスロットに属するわけではないため、全てのSiに対して、どのスロットでもないことを表す特殊なスロットを含める。そして、Intent-slot-relを用いた関係制約ロスのロス関数は以下となる。
ただし、Uは第1処理用データであり、破線のアンダーラインL2の部分は、Semantic Loss Functionの定義と、Intent-slot-relに従って、発話uのインテントの確率pI u、発話u内の各トークンのスロットの確率ps uから計算する。
なお、関係制約ロスの計算方法は、インテントとスロットとの関係の制約を満たさないことが関係制約ロスの増大に寄与するような方法であればどのような方法であってもよい。従って、インテントとスロットとの関係の制約を満たさない場合に、制約が満たされない度合によって、関係制約ロスの増大への寄与度が変化するようにしてもよく、また、インテントとスロットとの関係の制約を満たすことが関係制約ロスの低減に寄与するようにしてもよい。
以上のように、本実施形態に係るモデル学習システム1のモデル学習装置2は、意図解釈モデルを学習する際に、標準ロスだけではなく、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなる関係制約ロスが加味された総合ロスを用いて意図解釈モデルを学習する。この構成によれば、関係制約ロスが加味された総合ロスを用いて意図解釈モデルの学習がなされるため、学習後の意図解釈モデルは、インテントとスロットとの関係の制約を満たしていない組み合わせでインテントおよびスロットを認識する確率が低くなるモデルとなり、インテントとスロットとの関係の制約を考慮せずにインテントおよびスロットを認識する従来の手法で学習されたモデルと比較して、意図解釈モデルを用いた認識の精度を高めることができる。すなわち、本実施形態によれば、高精度なインテントおよびスロットの認識のモデル(意図解釈モデル)を学習するために、インテントおよびスロットの特性を活用できる。
次に、本実施形態に係るモデル学習装置2の動作例、特に、意図解釈モデルを学習するときのモデル学習部11の動作例について図2のフローチャートを用いて説明する。図2に示すように、モデル学習部11は、処理用データ記憶部19に記憶された第1処理用データ(学習データ)を入力する(ステップSA1)。次いで、モデル学習部11は、入力した学習データに基づいて意図解釈モデルを学習する(ステップSA2)。ステップSA2において、上述したように、モデル学習部11は、標準ロスおよび関係制約ロスを加味した総合ロス、つまり、仮モデルを使用して認識されるインテントとスロットとが関係制約を満たさない場合に大きくなるロスを用いて意図解釈モデルを学習する。
次に、本実施形態に係るモデル学習システム1の利用態様の例について説明する。例えば、モデル学習システム1は、以下の態様で利用される。すなわち、モデル学習システム1を運用する主体(以下、「運用主体」という)に対して、学習データおよび関係制約情報が提供される。ラベル付き学習データおよび関係制約情報の提供は、どのような方法で行われてもよく、例えば、ラベル付き学習データおよび関係制約情報は、インターネットを介してアップロードされる。一部または全部の情報を運用主体自身が収集してもよい。運用主体に提供されたラベル付き学習データは、教師ありデータ記憶部17に記憶される。また、運用主体に提供された関係制約情報は制約データに記述され、この制約データが制約データ記憶部18に記憶される。その後、上述した手法でラベル付き学習データおよび関係制約情報を利用した意図解釈モデルの学習が行われ、最終的な意図解釈モデルがモデル記憶部16に記憶される。
次に、モデル学習システム1により学習された意図解釈モデルの利用態様の例について図3を用いて説明する。意図解釈モデルは、例えば、以下の態様で利用される。すなわち、運用主体によって、意図解釈モデルを利用するためのサービス提供システムS1(図3(A))が構築されると共に、サービス提供システムの意図解釈モデルを、WebAPIを使用してユーザが利用可能な状態とされる。この場合、ユーザは、所定の端末のブラウザにより、所定のWebAPIを指定する情報を含み、文章をクエリパラメータの1つとするリクエストを行って、その文章のインテントおよびスロットの認識を要求する。サービス提供システムS1は、リクエストに応じて、意図解釈モデルを用いてインテントおよびスロットの認識を行い、認識結果をレスポンスする。ユーザは、例えば、そのユーザにとっての顧客が発話した文章を音声認識し、その文章のインテントに対応する処理を実行するサービスを提供する場合において、インテントおよびスロットを得るためにサービス提供システムを利用する。この例の場合、サービス提供システムS1が、特許請求の範囲の「意図解釈システム」に相当する。
他の例として、意図解釈モデルは、以下の態様で利用される。すなわち、モデル学習システム1を運用する主体によって、意図解釈モデルがユーザに提供される。意図解釈モデルが提供されるとは、ユーザ側の環境で意図解釈モデルを再現するために必要な情報が提供されることを意味する。ユーザは、サービス提供システムS2(図3(B))において、提供された意図解釈モデルを意図解釈エンジンの一部として使用し、文章の意図解釈を伴う様々なサービスを提供する。この例の場合、意図解釈モデルを使用して文章の意図解釈を伴うサービスを提供するシステムが、特許請求の範囲の「意図解釈システム」に相当する。
<第2実施形態>
次に、第2実施形態について説明する。なお、以下の本実施形態の説明において、第1実施形態で説明した要素と同じ要素については同一の符号を付し、その詳細な説明を省略する。
次に、第2実施形態について説明する。なお、以下の本実施形態の説明において、第1実施形態で説明した要素と同じ要素については同一の符号を付し、その詳細な説明を省略する。
図4は、本実施形態に係るモデル学習システム1Aのモデル学習装置2Aの機能的構成例を示すブロック図である。本実施形態に係るモデル学習装置2Aは、ラベル付き学習データ、および、ラベルなし学習データを用いた半教師あり学習を行って意図解釈モデルの学習を行う装置である。図4に示すように、モデル学習装置2Aは、学習データ変換部10に代えて学習データ変換部10Aを備え、モデル学習部11に代えてモデル学習部11Aを備えている。また、モデル学習部11Aは、学習処理部12に代えて学習処理部12Aを備え、標準ロス算出部13に代えて標準ロス算出部13Aを備え、関係制約ロス算出部14に代えて関係制約ロス算出部14Aを備えている。
また、図4に示すように、モデル学習装置2Aは、教師ありデータ記憶部17に加えて、教師なしデータ記憶部20を備えている。教師なしデータ記憶部20には、複数のラベルなし学習データが記憶される。ラベルなし学習データとは、意図解釈モデルの学習に用いられる学習データであって、文章を含む一方、正解ラベルを含まないデータである。また、図4に示すように、モデル学習装置2Aは、処理用データ記憶部19に代えて、処理用データ記憶部19Aを備えている。処理用データ記憶部19Aは第1処理用データおよび後述する第2処理用データを記憶する。
以下、教師ありデータ記憶部17に記憶されたラベル付き学習データ、および、教師なしデータ記憶部20に記憶されたラベルなし学習データを使用して意図解釈モデルの学習を行う場合の各機能ブロックの処理を説明する。
学習データ変換部10Aは、第1実施形態と同様の手段で、教師ありデータ記憶部17に記憶されたラベル付き学習データを第1処理用データに変換し、処理用データ記憶部19Aに記憶する。更に、学習データ変換部10Aは、教師なしデータ記憶部20に記憶されたラベルなし学習データのそれぞれについて、必要な自然言語処理を施して特徴ベクトルを生成し、特徴ベクトルと文章とを含む第2処理用データを処理用データ記憶部19Aに記憶する。この結果、学習データ変換部10Aの機能により、ラベル付き学習データに基づく第1処理用データ、および、ラベルなし学習データに基づく第2処理用データが処理用データ記憶部19Aに記憶される。
モデル学習部11Aの学習処理部12Aは、第1実施形態と同様の方法で、意図解釈モデルを決定し(=意図解釈モデルの各パラメータを決定し)、モデル記憶部16に記憶する。すなわち、学習処理部12Aは、仮モデルの各パラメータの更新を繰り返し行い、各パラメータを更新する度に各パラメータを更新した後の仮モデルの総合ロスを算出し、総合ロスが最も小さくなるように各パラメータが調整された仮モデルを最終的な意図解釈モデルとして決定する。モデル学習部11Aは、標準ロス算出部13Aに標準ロスの算出を要求すると共に、関係制約ロス算出部14Aに関係制約ロスの算出を要求し、標準ロスおよび関係制約ロスを加味して総合ロスを算出する。
モデル学習部11Aの標準ロス算出部13Aは、学習処理部12Aから標準ロスの応答要求があった場合に、学習処理部12Aから通知された仮モデルに基づいて、標準ロスを算出し、応答する。その際、標準ロス算出部13Aは、処理用データ記憶部19Aに記憶されたデータのうち、ラベル付き学習データに基づく第1処理用データのみを入力し、第1処理用データを処理対象として(つまり、第2処理用データを処理対象としない)、第1実施形態に係る標準ロス算出部13と同様の方法で標準ロスを算出する。本実施形態に係る標準ロス算出部13Aが算出する標準ロスは、特許請求の範囲の「第1ロス」に相当する。
モデル学習部11Aの関係制約ロス算出部14Aは、学習処理部12Aから関係制約ロスの応答要求があった場合に、学習処理部12Aから通知された仮モデルに基づいて、関係制約ロスを算出し、応答する。その際、関係制約ロス算出部14Aは、処理用データ記憶部19Aに記憶されたデータのうち、ラベル無し学習データに基づく第2処理用データのみを入力し、第2処理用データを処理対象として(つまり、第1処理用データを処理対象としない)、第1実施形態に係る関係制約ロス算出部14と同様の方法で関係制約ロスを算出する。本実施形態に係る関係制約ロス算出部14Aが算出得る関係制約ロスは、特許請求の範囲の「第2ロス」に相当する。
以上のように、本実施形態では、モデル学習装置2は、ラベル付き学習データおよびラベルなし学習データの双方を記憶し、ラベル付き学習データを使用して標準ロスを算出すると共に、ラベルなし学習データを使用して関係制約ロスを算出し、標準ロスと関係制約ロスとを加味した総合ロスを用いて意図解釈モデルを学習する。このような構成のため、以下の効果を奏する。
すなわち、ラベルなし学習データ(に基づく第2処理用データ)は、正解ラベルが付加されていないため、そのままでは標準ロスの算出には用いることができない。一方で、ラベルなし学習データを対象として仮モデルを用いて認識されたインテントおよびスロットについては、認識されたインテントおよびスロットが正解であるならば、関係制約を満たし、正解でないならば関係制約を満たさない可能性が高いはずである(正解でないのに関係制約を偶然満たす場合はあり得る)。つまり、ラベルなし学習データについては、正解ラベルとの比較を行うことなく、関係制約の充足性を検証することにより、仮モデルの妥当性(=仮モデルが出力する認識値の妥当性)を検証できる。
これを踏まえ、本実施形態によれば、ラベルなし学習データに対して、正解ラベルを新たに付与するといった処理を行うことなく、インテントおよびスロットが関係制約を満たさなければならないという特性を利用して、ラベルなし学習データを有効活用して意図解釈モデルを学習できる。第1実施形態で説明したように、関係制約の充足性を考慮して学習された意図解釈モデルは、高い精度でインテントおよびスロットを認識できる。ここで、ラベルなし学習データは、ラベルあり学習データと比較して、低コストで多量を収集できるが、このような低コストで多量を収集可能なラベルなし学習データを有効活用できるという点でも本実施形態の構成は優位性がある。
また、本実施形態では、標準ロスの算出についてラベルあり学習データのみを用い、ラベルなし学習データを用いない構成であるが、これを、ラベルあり学習データにより学習されたモデルを使用して、ラベルなし学習データに正解ラベルを付与し、これも用いて標準ロスを算出する構成とすることも可能である。しかしながら、この場合、正解ラベルが付与されたラベルなし学習データは、人間が正解ラベルを付与したデータと比較して正解ラベルの正確性が劣り、標準ロスの算出に悪影響を与える可能性がある。一方で、本実施形態では、標準ロスの算出にはラベルあり学習データのみが用いられる一方、関係制約ロスの算出にはラベルなし学習データのみが用いられるため、各学習データの特徴を踏まえた適切な態様で効果的にモデルの学習を行うことができる。
なお、関係制約ロスの算出に、ラベルなし学習データと共にラベルあり学習データを用いることを排除するものではなく、関係制約ロスの算出にラベルなし学習データおよびラベルあり学習データの双方を用いる構成であってもよい。また、標準ロスの算出に、ラベルあり学習データと共にラベルなし学習データ(より具体的には、ラベルなし学習データに機械的にラベルを付与したデータ)を用いることを排除するものではなく、標準ロスの算出にラベルあり学習データおよびラベルなし学習データ(より具体的には、ラベルなし学習データに機械的にラベルを付与したデータ)を用いる構成であってもよい。
次に、本実施形態に係るモデル学習装置2Aの動作例、特に、意図解釈モデルを学習するときのモデル学習部11Aの動作例について図2のフローチャートを援用して説明する。図2に示すように、モデル学習部11Aは、処理用データ記憶部19Aに記憶された第1処理用データおよび第2処理用データ(学習データ)を入力する(ステップSA1)。次いで、モデル学習部11Aは、入力した学習データに基づいて意図解釈モデルを学習する(ステップSA2)。ステップSA2において、上述したように、モデル学習部11Aは、第1処理用データ(ラベル付き学習データ)を用いて出力される認識値と正解値との乖離がある場合に大きくなる標準ロス、および、第2処理用データ(ラベルなし学習データ)を用いて認識されるインテントおよびスロットが関係制約を満たさない場合に大きくなる関係制約ロスを加味した総合ロスを用いて意図解釈モデルを学習する。
なお、本実施形態に係るモデル学習システム1Aにより学習された意図解釈モデルは、例えば、第1実施形態で説明した態様で使用可能である。
以上、本発明の第1、第2実施形態について説明したが、上記各実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば、第1実施形態においてモデル学習装置2が記憶していたデータの一部又は全部をモデル学習装置2以外の装置が記憶する構成としてもよい。一例として、教師ありデータ記憶部17が記憶するラベル付き学習データについて、モデル学習装置2と通信可能に接続された記憶装置が記憶する構成としてもよい。このことは第2実施形態についても同様である。
また、第1実施形態で、モデル学習装置2が実行した処理の少なくとも一部をモデル学習装置2以外の外部装置が実行する構成でもよい。一例として、学習データ変換部10(当然、他の機能ブロックでもよい)が実行する処理の一部または全部を、モデル学習装置2と通信可能に接続された外部装置が実行する構成でもよい。この場合、モデル学習装置2と外部装置とが共同してモデル学習システムとして機能する。このことは第2実施形態についても同様である。
1、1A モデル学習システム
11、11A モデル学習部
11、11A モデル学習部
Claims (8)
- 入力情報のインテントおよびスロットの認識に用いる意図解釈モデルを学習するモデル学習システムであって、
学習データについて認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなるロスを用いて前記意図解釈モデルを学習するモデル学習部を備える
ことを特徴とするモデル学習システム。 - 前記モデル学習部は、
ラベル付き学習データ、および、ラベルなし学習データを学習データとして使用し、
前記ロスを用いて前記意図解釈モデルを学習する際に、前記ラベル付き学習データを少なくとも利用してインテントおよびスロットの認識値を算出し、認識値と正解値との乖離に基づき前記ロスを算出すると共に、前記ラベルなし学習データを少なくとも利用してインテントおよびスロットを認識し、認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に前記ロスを大きくするように算出する
ことを特徴とする請求項1に記載のモデル学習システム。 - 前記モデル学習部は、
前記ロスを用いて前記意図解釈モデルを学習する際に、前記ラベル付き学習データを少なくとも利用して出力したインテントおよびスロットの認識値と正解値との乖離が大きい場合に大きくなる第1ロスと、前記ラベルなし学習データを少なくとも利用して出力したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなる第2ロスとを加味して前記ロスを算出する
ことを特徴とする請求項2に記載のモデル学習システム。 - 請求項1〜3に記載のモデル学習システムにより学習された意図解釈モデルを使用して、入力情報のインテントおよびスロットを認識することを特徴とする意図解釈システム。
- 入力情報のインテントおよびスロットの認識に用いる意図解釈モデルを学習するモデル学習方法であって、
モデル学習システムのモデル学習部が、学習データを入力する第1のステップと、
前記モデル学習システムの前記モデル学習部が、前記学習データについて認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなるロスを用いて前記意図解釈モデルを学習する第2のステップと、
を含むことを特徴とするモデル学習方法。 - 前記第2のステップにおいて、前記モデル学習部は、ラベル付き学習データを少なくとも利用してインテントおよびスロットの認識値を出力し、認識値と正解値との乖離が大きい場合に前記ロスを大きくすると共に、ラベルなし学習データを少なくとも利用してインテントおよびスロットを認識し、認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に前記ロスを大きくすることを特徴とする請求項5に記載のモデル学習方法。
- 入力情報のインテントおよびスロットの認識に用いる意図解釈モデルを学習するモデル学習システムを制御するコンピュータにより実行されるモデル学習用プログラムであって、
前記コンピュータを、学習データについて認識したインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に大きくなるロスを用いて前記意図解釈モデルを学習するモデル学習部として機能させる
ことを特徴とするモデル学習用プログラム。 - 前記モデル学習部として機能させた前記コンピュータに、ラベル付き学習データを少なくとも利用してインテントおよびスロットの認識値を出力させ、認識値と正解値との乖離が大きい場合に前記ロスを大きくさせると共に、ラベルなし学習データを少なくとも利用してインテントおよびスロットを認識させ、認識させたインテントおよびスロットが、事前に定義されたインテントとスロットとの関係の制約を満たさない場合に前記ロスを大きくさせる
ことを特徴とする請求項7に記載のモデル学習用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019031257A JP2020135689A (ja) | 2019-02-25 | 2019-02-25 | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019031257A JP2020135689A (ja) | 2019-02-25 | 2019-02-25 | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020135689A true JP2020135689A (ja) | 2020-08-31 |
Family
ID=72263404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019031257A Pending JP2020135689A (ja) | 2019-02-25 | 2019-02-25 | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020135689A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113157939A (zh) * | 2021-03-26 | 2021-07-23 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN113326360A (zh) * | 2021-04-25 | 2021-08-31 | 哈尔滨工业大学 | 一种小样本场景下的自然语言理解方法 |
JP2022097396A (ja) * | 2020-12-18 | 2022-06-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016122336A (ja) * | 2014-12-25 | 2016-07-07 | クラリオン株式会社 | 意図推定装置、および意図推定システム |
CN107766559A (zh) * | 2017-11-06 | 2018-03-06 | 第四范式(北京)技术有限公司 | 对话模型的训练方法、训练装置、对话方法及对话系统 |
JP6370962B1 (ja) * | 2017-05-12 | 2018-08-08 | ヤフー株式会社 | 生成装置、生成方法および生成プログラム |
US20190035387A1 (en) * | 2017-07-27 | 2019-01-31 | Microsoft Technology Licensing, Llc | Intent and Slot Detection For Digital Assistants |
-
2019
- 2019-02-25 JP JP2019031257A patent/JP2020135689A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016122336A (ja) * | 2014-12-25 | 2016-07-07 | クラリオン株式会社 | 意図推定装置、および意図推定システム |
JP6370962B1 (ja) * | 2017-05-12 | 2018-08-08 | ヤフー株式会社 | 生成装置、生成方法および生成プログラム |
US20190035387A1 (en) * | 2017-07-27 | 2019-01-31 | Microsoft Technology Licensing, Llc | Intent and Slot Detection For Digital Assistants |
CN107766559A (zh) * | 2017-11-06 | 2018-03-06 | 第四范式(北京)技术有限公司 | 对话模型的训练方法、训练装置、对话方法及对话系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022097396A (ja) * | 2020-12-18 | 2022-06-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 |
JP7283009B2 (ja) | 2020-12-18 | 2023-05-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 |
CN113157939A (zh) * | 2021-03-26 | 2021-07-23 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN113326360A (zh) * | 2021-04-25 | 2021-08-31 | 哈尔滨工业大学 | 一种小样本场景下的自然语言理解方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12039280B2 (en) | Multi-turn dialogue response generation with persona modeling | |
US11568855B2 (en) | System and method for defining dialog intents and building zero-shot intent recognition models | |
US20230077515A1 (en) | Creating a knowledge graph based on text-based knowledge corpora | |
CN108334891B (zh) | 一种任务型意图分类方法及装置 | |
US20200019863A1 (en) | Generative Adversarial Network Based Modeling of Text for Natural Language Processing | |
US11734519B2 (en) | Systems and methods for slot relation extraction for machine learning task-oriented dialogue systems | |
US20220100963A1 (en) | Event extraction from documents with co-reference | |
JP7290861B2 (ja) | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム | |
US20230121711A1 (en) | Content augmentation with machine generated content to meet content gaps during interaction with target entities | |
US20220100772A1 (en) | Context-sensitive linking of entities to private databases | |
Vlachos et al. | Biomedical event extraction from abstracts and full papers using search-based structured prediction | |
CN111401077A (zh) | 语言模型的处理方法、装置和计算机设备 | |
US10839033B1 (en) | Referring expression generation | |
CN109857846B (zh) | 用户问句与知识点的匹配方法和装置 | |
US20220351634A1 (en) | Question answering systems | |
US20220100967A1 (en) | Lifecycle management for customized natural language processing | |
JP2020135689A (ja) | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム | |
CN117785964B (zh) | 应用于网络服务的数据处理方法及系统 | |
WO2022085533A1 (ja) | 回答特定用テキスト分類器及び背景知識表現ジェネレータ及びその訓練装置、並びにコンピュータプログラム | |
CN113569578B (zh) | 一种用户意图识别方法、装置和计算机设备 | |
CN113780418A (zh) | 一种数据的筛选方法、系统、设备和存储介质 | |
US20220164598A1 (en) | Determining a denoised named entity recognition model and a denoised relation extraction model | |
CN114116975A (zh) | 一种多意图识别方法及系统 | |
US10169074B2 (en) | Model driven optimization of annotator execution in question answering system | |
KR20200010679A (ko) | 이질성 학습 기반의 정보 분류 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230829 |