JP7382633B2 - 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム - Google Patents

学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム Download PDF

Info

Publication number
JP7382633B2
JP7382633B2 JP2019220445A JP2019220445A JP7382633B2 JP 7382633 B2 JP7382633 B2 JP 7382633B2 JP 2019220445 A JP2019220445 A JP 2019220445A JP 2019220445 A JP2019220445 A JP 2019220445A JP 7382633 B2 JP7382633 B2 JP 7382633B2
Authority
JP
Japan
Prior art keywords
input
training
neural network
data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019220445A
Other languages
English (en)
Other versions
JP2021089655A (ja
Inventor
義尚 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meiji University
Original Assignee
Meiji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meiji University filed Critical Meiji University
Priority to JP2019220445A priority Critical patent/JP7382633B2/ja
Publication of JP2021089655A publication Critical patent/JP2021089655A/ja
Application granted granted Critical
Publication of JP7382633B2 publication Critical patent/JP7382633B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Description

本発明は、学習モデル構築装置、学習モデル構築方法及びコンピュータプログラムに関する。
入力された情報に基づき予め設定された1又は複数のルールにしたがって予測対象の状態を予想するプロダクションシステムという数理モデルがある。プロダクションシステムにおいて、予め設定されたルールはプロダクションシステムの設計者が予め想定したルールである。より具体的には、予め設定されたルールは、プロダクションシステムの設計者が予め入力される情報を想定し、その想定した情報に基づいてプロダクションシステムの設計者が設定したルールである。このようなプロダクションシステムの使用例としては、例えば、自然言語処理での使用が挙げられる。このような場合、プロダクションシステムは入力された文中に予め定められた特定の用語があるか否かを判定することで、入力された文が示す意味を判定する。
特開平05-165886号公報
ところで、上述したようにプロダクションシステムにおけるルールは、設計者の想定した入力に対して設定されたものである。そのため、プロダクションシステムは、設計者の想定と異なる入力が行われた場合に適切な予測結果を出力できない、という問題がある。例えば、上述の自然言語処理に利用される場合であれば、入力された文が設計者の想定を超えた遠回しな表現で意味を伝える文である場合にプロダクションシステムは入力された文が示す意味を予測することができない場合がある。
上記事情に鑑み、本発明は、プロダクションシステムよりも予測の精度が高い数理モデルを生成する技術の提供を目的とする。
本発明の一態様は、機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得部と、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得部と、前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって学習する第1のニューラルネットワークである第1層学習部と、前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習する第2のニューラルネットワークである第2層学習部と、前記第1層学習部によって得られる学習済みモデルである第1学習済みモデルの出力が前記第2層学習部によって得られる学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキング部と、を備える学習モデル構築装置である。
本発明の一態様は、上記の学習モデル構築装置であって、前記第3学習済みモデルに入力されるデータを訓練データの説明変数として用い、前記データが入力された場合の前記第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習する第3のニューラルネットワークである第3層学習部、をさらに備える。
本発明の一態様は、上記の学習モデル構築装置であって、前記第3のニューラルネットワークは、前記第3学習済みモデルの生成後に、さらに、追加で入力された訓練データである追加訓練データに基づいてさらに学習する。
本発明の一態様は、上記の学習モデル構築装置であって、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度である基準一致度よりも低いという条件を第1説明変数条件とし、前記第1説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第1目的変数条件とし、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が前記基準一致度以上という条件を第2説明変数条件とし、前記第2説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第2目的変数条件として、説明変数が前記第1説明変数条件を満たし目的変数が前記第1目的変数条件を満たす訓練データと、説明変数が前記第2説明変数条件を満たし目的変数が前記第2目的変数条件を満たす訓練データと、を前記追加訓練データは含む。
本発明の一態様は、上記の学習モデル構築装置であって、前記第2のニューラルネットワークは、さらに、構築用入力データとプロダクション出力との組のデータであるプロダクション入出力訓練情報に基づいて学習する。
本発明の一態様は、機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得ステップと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得ステップと、前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって第1のニューラルネットワークが学習する第1層学習ステップと、前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2のニューラルネットワークが学習する第2層学習ステップと、前記第1層学習ステップにおいて得られた学習済みモデルである第1学習済みモデルの出力が前記第2層学習ステップにおいて得られた学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキングステップと、を有する学習モデル構築方法である。
本発明の一態様は、上記の学習モデル構築装置としてコンピュータを機能させるためのコンピュータプログラムである。
本発明により、プロダクションシステムよりも予測の精度が高い数理モデルを生成することが可能となる。
実施形態の学習モデル構築装置1の動作の概要を説明する説明図。 実施形態の学習モデル構築装置1のハードウェア構成の一例を示す図。 実施形態における制御部10の機能構成の一例を示す図。 実施形態の学習モデル構築装置1が実行する処理の流れの一例を示すフローチャート。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、実施形態の学習モデル構築装置1の動作の概要を説明する説明図である。
学習モデル構築装置1は、構築用入力データと、プロダクション出力と、発火ルール情報とに基づいて、変換対象のプロダクションシステム9を機械学習の手法によって学習するニューラルネットワークへ変換する。構築用入力データは、プロダクションシステム9に入力される情報である。プロダクション出力は、構築用入力データが入力された場合のプロダクションシステム9の出力である。発火ルール情報は、構築用入力データが入力された場合にプロダクションシステム9において発火するルール(以下「発火ルール」という。)を示す情報である。
プロダクションシステム9をニューラルネットワークへ変換するとは、被構築モデルを表現するニューラルネットワークを生成することを意味する。被構築モデルは、想定内入力データが入力された場合に、プロダクションシステム9に想定内入力データが入力された場合にプロダクションシステム9が出力する情報との違いが所定の違いよりも小さい情報を出力する学習済みモデルである。所定の違いの一例としては、例えば出力する情報がベクトルである場合、Cos類似度推定法に基づくベクトル同士の類似度が、プロダクションシステム9が出力するベクトルと被構築モデルが出力するベクトルとの間で所定の範囲内にあるものである。また、被構築モデルは、想定内入力データ以外の情報が入力された場合に学習結果に基づいた予測結果を出力する学習済みモデルである。想定内入力データは、プロダクションシステム9に入力された場合にプロダクションシステム9が適切な予測を行うことができると、プロダクションシステム9の設計者が予め想定した入力である。
学習モデル構築装置1は、第1訓練情報に基づき、第1学習済みモデルを生成する。第1訓練情報は、構築用入力データと発火ルール情報が示す発火ルールとを示す情報である。すなわち、第1訓練情報は、構築用入力データと発火ルール情報との組の情報である。また、第1訓練情報は、第1学習済みモデルを生成するための訓練データである。
第1学習済みモデルは、想定内入力データが入力された場合に、入力された想定内入力データの示す情報がプロダクションシステム9に入力された場合にプロダクションシステム9において発火すると予想されるルールを示す情報を出力する。
学習モデル構築装置1は、より具体的には、構築用入力データを訓練データの説明変数として用い発火ルール情報を訓練データの目的変数として用いる機械学習の手法によって第1学習済みモデルを生成する。
学習モデル構築装置1は、第2訓練情報に基づき、第2学習済みモデルを生成する。第1訓練情報は、発火ルール情報が示す発火ルールとプロダクション出力とを示す情報である。すなわち、第2訓練情報は、発火ルール情報とプロダクション出力との組の情報である。また、第2訓練情報は、第2学習済みモデルを生成するための訓練データである。
第2学習済みモデルは、想定内発火ルール情報が入力された場合に、入力された想定内発火ルール情報の示す発火ルールがプロダクションシステム9において発火した場合にプロダクションシステム9が出力すると予想されるプロダクション出力を出力する。想定内発火ルール情報は、想定内入力データがプロダクションシステム9に入力された場合にプロダクションシステム9において発火するルールを示す情報である。
学習モデル構築装置1は、より具体的には、発火ルール情報を訓練データの説明変数として用いプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2学習済みモデルを生成する。
学習モデル構築装置1は、第1学習済みモデル及び第2学習済みモデルに基づき、被構築モデルを生成する。より具体的には、学習モデル構築装置1は、第1学習済みモデルの出力が第2学習済みモデルに入力されるように接続処理を含む処理(以下「仕上げ処理」という。)を行うことで、被構築モデルを生成する。接続処理は、第1学習済みモデルを表現するニューラルネットワークと第2学習済みモデルを表現するニューラルネットワークとを接続する処理である。仕上げ処理は、例えば、接続処理に加えて、いわゆる蒸留の処理を含んでもよい。具体的には、仕上げ処理では、接続処理の実行後に蒸留の処理が実行されてもよい。
図2は、実施形態の学習モデル構築装置1のハードウェア構成の一例を示す図である。学習モデル構築装置1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、プログラムを実行することによって制御部10、インタフェース部11、記憶部12、入力部13及び出力部14を備える装置として機能する。
より具体的には、学習モデル構築装置1は、プロセッサ91が記憶部12に記憶されているプログラムを読み出し、読み出したプログラムをメモリ92に記憶させる。プロセッサ91が、メモリ92に記憶させたプログラムを実行することによって、学習モデル構築装置1は、制御部10、インタフェース部11、記憶部12、入力部13及び出力部14を備える装置として機能する。
学習モデル構築装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。プログラムは、電気通信回線を介して送信されてもよい。
インタフェース部11は、自装置を、プロダクションシステム9等の外部装置に接続するための通信インタフェースを含んで構成される。インタフェース部11は、例えばネットワークを介して、例えば、プロダクションシステム9と通信する。インタフェース部11は、プロダクションシステム9との通信によって、プロダクションシステム9から、構築用入力データ、発火ルール及びプロダクション出力を取得する。外部装置の1つは、例えば、USB(Universal Serial Bus)メモリ等の外部記憶装置であってもよい。インタフェース部11は、USB(Universal Serial Bus)メモリ等の外部記憶装置に、学習モデル構築装置1が生成した被構築モデルを表すプログラムを出力する。
記憶部12は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部12は学習モデル構築装置1に関する各種情報を記憶する。記憶部12は、例えば、プロダクションシステム9から取得した構築用入力データ、発火ルール及びプロダクション出力を記憶する。
入力部13は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部13は、これらの入力装置を自装置に接続するインタフェースとして構成されてもよい。入力部13は、自装置に対する各種情報の入力を受け付ける。各種情報は、例えば、学習モデル構築装置1に対する学習開始の指示を示す情報である。
出力部14は、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を含んで構成される。出力部14は、これらの表示装置を自装置に接続するインタフェースとして構成されてもよい。出力部14は、自装置に関する情報を表示する。
図3は、実施形態における制御部10の機能構成の一例を示す図である。制御部10は、第1訓練情報取得部111、第2訓練情報取得部112、第1層学習部113、第2層学習部114、スタッキング部115、第3層学習部116及びインタフェース制御部117を備える。
第1訓練情報取得部111は、インタフェース部11を介して、第1訓練情報を取得する。第2訓練情報取得部112は、インタフェース部11を介して、第2訓練情報を取得する。
第1層学習部113は、第1訓練情報の構築用入力データを訓練データの説明変数として用い、第1訓練情報の発火ルール情報を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。以下、第1層学習部113のニューラルネットワークを第1のニューラルネットワークという。第1のニューラルネットワークが表現する学習モデルの学習済みモデルが第1学習済みモデルである。第1層学習部113は、第1訓練情報に基づく学習によって第1学習済みモデルを生成する。すなわち、第1学習済みモデルは、第1層学習部によって得られる学習済みモデルである。
第2層学習部114は、第2訓練情報の発火ルール情報を訓練データの説明変数として用い、第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。以下、第2層学習部114のニューラルネットワークを第2のニューラルネットワークという。第2のニューラルネットワークが表現する学習モデルの学習済みモデルが第2学習済みモデルである。第2層学習部114は、第2訓練情報に基づく学習によって第2学習済みモデルを生成する。すなわち、第2学習済みモデルは、第2層学習部によって得られる学習済みモデルである。
スタッキング部115は、第3学習済みモデルを第1のニューラルネットワークと第2のニューラルネットワークとを用いて表現するように第1のニューラルネットワークと第2のニューラルネットワークとを接続する。すなわち、スタッキング部115は、第1のニューラルネットワークの出力を第2のニューラルネットワークに入力させる。第3学習済みモデルは、第1学習済みモデルと第2学習済みモデルとを含む学習済みモデルであって第1学習済みモデルの出力が第2学習済みモデルに入力される学習済みモデルである。第3学習済みモデルは被構築モデルの一例である。スタッキング部115が実行する処理は、接続処理の一例である。
以下、第1のニューラルネットワーク及び第2のニューラルネットワークを含み、第1のニューラルネットワークの出力が第2のニューラルネットワークの入力であるニューラルネットワークをスタックトニューラルネットワークという。スタックトニューラルネットワークが表現する学習モデルの学習済みモデルは、被構築モデルの一例である。
第3層学習部116は、継承用データを訓練データの説明変数として用い継承用データが入力された場合の第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。継承用データは、第3学習済みモデルに入力されるデータである。以下、第3層学習部116のニューラルネットワークを第3のニューラルネットワークという。第3層学習部116は、第3訓練情報に基づく学習によって、被継承学習済みモデルを生成する。
被継承学習済みモデルは、第3のニューラルネットワークが表現する学習モデルの学習済みモデルである。第3訓練情報は、継承用データと、継承用データが入力された場合の第3学習済みモデルの出力とを示す情報である。すなわち、第3訓練情報は、継承用データと継承用データが入力された場合の第3学習済みモデルの出力との組の情報である。第3層学習部116が実行する処理は、いわゆる蒸留の処理である。第3層学習部116が実行する処理は、いわゆるGAN(Generative Adversarial Networks)を用いて行われてもよい。被継承学習済みモデルは被構築モデルの一例である。
インタフェース制御部117は、インタフェース部11の動作を制御する。インタフェース制御部117は、例えば、インタフェース部11の動作を制御して被構築モデルを外部装置に出力する。
図4は、実施形態の学習モデル構築装置1が実行する処理の流れの一例を示すフローチャートである。
第1訓練情報取得部111が、第1訓練情報を取得する(ステップS101)。次に、第2訓練情報取得部112が、第2訓練情報を取得する(ステップS102)。次に、第1層学習部113が、第1訓練情報の構築用入力データを訓練データの説明変数として用い第1訓練情報の発火ルール情報を訓練データの目的変数として用いる機械学習の手法を用いて、第1学習済みモデルを生成する(ステップS103)。次に、第2層学習部114が、第2訓練情報の発火ルール情報を訓練データの説明変数として用い第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法を用いて、第2学習済みモデルを生成する(ステップS104)。
次に、スタッキング部115が、第3学習済みモデルを第1のニューラルネットワークと第2のニューラルネットワークとを用いて表現するように第1のニューラルネットワークと第2のニューラルネットワークとを接続する(ステップS105)。次に、第3層学習部116は、第3訓練情報に基づく学習によって、被継承学習済みモデルを生成する(ステップS106)。
このように構成された実施形態の学習モデル構築装置1は、構築用入力データ、発火ルール情報及びプロダクション出力を用いた機械学習により、被構築モデルを生成する。機械学習の手法で生成された学習済みモデルは外挿の機能を備える数理モデルであるため、学習済みモデルは、学習段階では学習しなかった情報が入力された場合であっても精度の高い予測結果を出力することができる。このように、学習モデル構築装置1は、プロダクションシステムよりも予測の精度が高い数理モデルを生成することができる。
また、このように構成された実施形態の学習モデル構築装置1は、構築用入力データ及びプロダクション出力に加えて、発火ルール情報も用いて学習する。そのため、構築用入力データ及びプロダクション出力だけを用いた機械学習よりも、予測の精度が高い数理モデルを生成することができる。
(変形例)
第2のニューラルネットワークは、第2訓練情報だけでなく、さらに、プロダクション入出力訓練情報に基づいて学習してもよい。プロダクション入出力訓練情報は、構築用入力データとプロダクション出力との組のデータである。
このような場合、第2のニューラルネットワークは、第2訓練情報が示す説明変数と目的変数との関係が正しい確率を、構築用入力データとプロダクション出力との関係に基づいて推定しながら学習することができる。そのため、第2訓練情報及びプロダクション入出力訓練情報を用いて学習した結果の第2学習済みモデルは、第2訓練情報だけを用いて学習した第2学習済みモデルよりも、精度のよい結果を出力することができる。
学習モデル構築装置1は、ステップS106の次に、さらに追加学習してもよい。このような場合、具体的には、第3層学習部116の第3のニューラルネットワークが、追加で入力された訓練データ(以下「追加訓練データ」という。)に基づいてさらに学習する。なお、ステップS106の次とは、第3学習済みモデルの生成後の意味である。
このような場合、被継承学習済みモデルは、ステップS106の時点よりもさらに学習が進むため、ステップS106の処理で生成された学習済みモデルよりも予測の精度が高い。追加訓練データを用いて被継承学習済みモデルが学習した結果の学習済みモデルも、被構築モデルの一例である。
追加訓練データは、例えば、以下の第1説明変数条件及び第1目的変数条件を満たす訓練データ(以下「不一致データ」という。)と、第2説明変数条件及び第2目的変数条件を満たす訓練データ(以下「一致データ」という。)とを含んでもよい。
第1説明変数条件は、説明変数は、説明変数がプロダクションシステム9に入力された場合のプロダクション出力と、説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度(以下「基準一致度」という。)よりも低い、という条件である。
第1目的変数条件は、第1説明変数条件を満たす説明変数に対してユーザが決定した教師データである、という条件である。
第2説明変数条件は、説明変数は、説明変数がプロダクションシステム9に入力された場合のプロダクション出力と、説明変数の情報に対してユーザが決定した教師データとの一致度が基準一致度以上、という条件である。
第2目的変数条件は、第2説明変数条件を満たす説明変数に対してユーザが決定した教師データである、という条件である。
このような場合、被継承学習済みモデルは、プロダクションシステム9の結果のみに基づいて学習した場合よりも正確な情報に基づいて学習する。そのため、一致データ及び不一致データを含む追加訓練データを用いて学習をした学習済みモデルは、ステップS106の処理で生成された学習済みモデルよりも予測の精度が高い。一致データ及び不一致データを含む追加訓練データを用いて被継承学習済みモデルが学習した結果の学習済みモデルも、被構築モデルの一例である。
一致データ及び不一致データを含む追加訓練データを用いて学習する場合には、例えば、学習時の予測で不一致データの予測に失敗した場合に値が大きくなる損失関数を用いて学習が行われてもよい。
なお、第1学習済みモデルは、プロダクションシステム9が有するルールごとに各ルールが発火するか否かを判定する識別機を備える学習済みモデルであってもよい。第1学習済みモデルは、プロダクションシステム9が有するルールのいずれが発火したかを示す情報を出力する1つの学習済みモデルであってもよい。
なお、ステップS101及びステップS102は、必ずしも図4に示す順番に実行される必要は無い。ステップS101は、ステップS103の実行前に実行されればどのようなタイミングで実行されてもよい。ステップS102は、ステップS104の実行前に実行されれば、どのようなタイミングで実行されてもよい。なお、ステップS103及びステップS104の処理は、必ずしも図4に示す順番に実行される必要は無い。ステップS103及びステップS104の処理は、ステップS105の処理の実行前に実行されれば、どのようなタイミングで実行されてもよい。例えば、ステップS103の処理は、ステップS105の実行前に実行され、ステップS104の処理がステップS103の処理の実行前に実行されてもよい。
なお、学習とは、学習モデルのパラメータを好適に調整することである。学習済みモデルは、終了条件が満たされた時点における学習モデルである。終了条件は、学習の終了に関する条件であればどのような条件であってもよい。終了条件は、例えば、所定数の訓練データによる学習が実行された、という条件であってもよいし、学習によるパラメータの変化量が所定の大きさ未満であるという条件であってもよい。
なお、ニューラルネットワークは、出力結果の精度が所定の精度以上であるニューラルネットワークであればどのようなニューラルネットワークであってもよい。ニューラルネットワークは、例えば、順伝搬型ニューラルネットワークであってもよいし、RBF(Radial Basis Function)ネットワークであってもよい。ニューラルネットワークは、畳み込みニューラルネットワークであってもよいし、再帰型ニューラルネットワークであってもよいし、確率的ニューラルネットワークであってもよい。ニューラルネットワークは、スパイキングニューラルネットワークであってもよいし、複素ニューラルネットワークであってもよい。
なお、学習モデルのパラメータは、出力結果の精度が高い学習のアルゴリズムであれば、ニューラルネットワークの種類に応じてどのような機械学習のアルゴリズムによって調整されてもよい。例えば、学習モデルのパラメータは、順伝搬型のニューラルネットワーク以外のニューラルネットワークであれば、誤差逆伝搬法のアルゴリズムによって調整されてもよい。
学習モデル構築装置1は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、学習モデル構築装置1が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。例えば、第3層学習部116は制御部10が備える他の機能部とは異なる情報処理装置に実装されてもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…学習モデル構築装置、 10…制御部、 11…インタフェース部、 12…記憶部、 13…入力部、 14…出力部、 111…第1訓練情報取得部、 112…第2訓練情報取得部、 113…第1層学習部、 114…第2層学習部、 115…スタッキング部、 116…第3層学習部、 117…インタフェース制御部

Claims (7)

  1. 機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得部と、
    前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得部と、
    前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって学習する第1のニューラルネットワークである第1層学習部と、
    前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習する第2のニューラルネットワークである第2層学習部と、
    前記第1層学習部によって得られる学習済みモデルである第1学習済みモデルの出力が前記第2層学習部によって得られる学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキング部と、
    を備える学習モデル構築装置。
  2. 前記第3学習済みモデルに入力されるデータを訓練データの説明変数として用い、前記データが入力された場合の前記第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習する第3のニューラルネットワークである第3層学習部、
    をさらに備える請求項1に記載の学習モデル構築装置。
  3. 前記第3のニューラルネットワークは、前記第3学習済みモデルの生成後に、さらに、追加で入力された訓練データである追加訓練データに基づいてさらに学習する、
    請求項2に記載の学習モデル構築装置。
  4. 説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度である基準一致度よりも低いという条件を第1説明変数条件とし、前記第1説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第1目的変数条件とし、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が前記基準一致度以上という条件を第2説明変数条件とし、前記第2説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第2目的変数条件として、説明変数が前記第1説明変数条件を満たし目的変数が前記第1目的変数条件を満たす訓練データと、説明変数が前記第2説明変数条件を満たし目的変数が前記第2目的変数条件を満たす訓練データと、を前記追加訓練データは含む、
    請求項3に記載の学習モデル構築装置。
  5. 前記第2のニューラルネットワークは、さらに、構築用入力データとプロダクション出力との組のデータであるプロダクション入出力訓練情報に基づいて学習する、
    請求項1から4のいずれか一項に記載の学習モデル構築装置。
  6. 機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得ステップと、
    前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得ステップと、
    前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって第1のニューラルネットワークが学習する第1層学習ステップと、
    前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2のニューラルネットワークが学習する第2層学習ステップと、
    前記第1層学習ステップにおいて得られた学習済みモデルである第1学習済みモデルの出力が前記第2層学習ステップにおいて得られた学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキングステップと、
    を有する学習モデル構築方法。
  7. 請求項1から請求項5のいずれか一項に記載の学習モデル構築装置としてコンピュータを機能させるためのコンピュータプログラム。
JP2019220445A 2019-12-05 2019-12-05 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム Active JP7382633B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220445A JP7382633B2 (ja) 2019-12-05 2019-12-05 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220445A JP7382633B2 (ja) 2019-12-05 2019-12-05 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021089655A JP2021089655A (ja) 2021-06-10
JP7382633B2 true JP7382633B2 (ja) 2023-11-17

Family

ID=76220312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220445A Active JP7382633B2 (ja) 2019-12-05 2019-12-05 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7382633B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119460A1 (ja) * 2021-12-22 2023-06-29 日本電気株式会社 質問予測システム、質問予測方法およびプログラム記録媒体
EP4332847A1 (en) 2022-05-11 2024-03-06 Aizoth Inc. Coupled learner formation device, coupled learner formation program, and non-transitory recording medium with a coupled learner formation program recorded therein

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6463572B1 (ja) 2017-07-24 2019-02-06 アクシオンリサーチ株式会社 対象システムの内部状態を推定する支援システム
WO2019229931A1 (ja) 2018-05-31 2019-12-05 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6463572B1 (ja) 2017-07-24 2019-02-06 アクシオンリサーチ株式会社 対象システムの内部状態を推定する支援システム
WO2019229931A1 (ja) 2018-05-31 2019-12-05 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤嘉則 ほか,"ニューラルネットワークに基づくプロダクションシステムの実現方式",電子情報通信学会技術研究報告,社団法人電子情報通信学会,1993年07月,Vol. 93,No. 154,p. 33-40,AI93-29

Also Published As

Publication number Publication date
JP2021089655A (ja) 2021-06-10

Similar Documents

Publication Publication Date Title
US20210390416A1 (en) Variable parameter probability for machine-learning model generation and training
US11790238B2 (en) Multi-task neural networks with task-specific paths
EP3485432B1 (en) Training machine learning models on multiple machine learning tasks
US20200210847A1 (en) Ensembling of neural network models
US9785886B1 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
KR102483643B1 (ko) 모델을 학습하는 방법 및 장치 및 상기 뉴럴 네트워크를 이용한 인식 방법 및 장치
JP6610278B2 (ja) 機械学習装置、機械学習方法及び機械学習プログラム
US20210365782A1 (en) Method and apparatus for generating neural network model, and computer-readable storage medium
WO2020088330A1 (en) Latent space and text-based generative adversarial networks (latext-gans) for text generation
US20190073591A1 (en) Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm
KR20160102690A (ko) 신경망 학습 방법 및 장치, 및 인식 방법 및 장치
JP7382633B2 (ja) 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム
JP6892424B2 (ja) ハイパーパラメータチューニング方法、装置及びプログラム
WO2017197330A1 (en) Two-stage training of a spoken dialogue system
WO2019006541A1 (en) SYSTEM AND METHOD FOR AUTOMATIC CONSTRUCTION OF LEARNING MACHINES USING LEARNING MACHINES
US11836590B2 (en) User intent classification using a multi-agent reinforcement learning framework
WO2019163718A1 (ja) 学習装置、音声認識順位推定装置、それらの方法、およびプログラム
JP6325762B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN113965313B (zh) 基于同态加密的模型训练方法、装置、设备以及存储介质
US20240095535A1 (en) Executing a genetic algorithm on a low-power controller
JP2020198135A (ja) ハイパーパラメータチューニング方法、装置及びプログラム
CN112733433A (zh) 装备测试性策略优化方法和装置
KR102378187B1 (ko) 자동화된 기계학습에 기반한 모델 추천 방법 및 장치
WO2023228290A1 (ja) 学習装置、学習方法、及びプログラム
JP7462206B2 (ja) 学習装置、学習方法、及び学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7382633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150