JP2021089655A - Learning model construction device, method for constructing learning model, and computer program - Google Patents

Learning model construction device, method for constructing learning model, and computer program Download PDF

Info

Publication number
JP2021089655A
JP2021089655A JP2019220445A JP2019220445A JP2021089655A JP 2021089655 A JP2021089655 A JP 2021089655A JP 2019220445 A JP2019220445 A JP 2019220445A JP 2019220445 A JP2019220445 A JP 2019220445A JP 2021089655 A JP2021089655 A JP 2021089655A
Authority
JP
Japan
Prior art keywords
input
neural network
data
training
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019220445A
Other languages
Japanese (ja)
Other versions
JP7382633B2 (en
Inventor
義尚 櫻井
Yoshinao Sakurai
義尚 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meiji University
Original Assignee
Meiji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meiji University filed Critical Meiji University
Priority to JP2019220445A priority Critical patent/JP7382633B2/en
Publication of JP2021089655A publication Critical patent/JP2021089655A/en
Application granted granted Critical
Publication of JP7382633B2 publication Critical patent/JP7382633B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

To provide a technique of generating a mathematical model which can be predicted more accurately than a production system.SOLUTION: A learning model construction device includes: a first training information acquisition unit for acquiring first training information showing construction input data input in a production system and a rule that a fire occurs when the construction input data is input; a second training information acquisition unit for acquiring second training information showing the rule that a fire occurs when the construction input data is input and an output of the production system when the construction input data is input; a first layer learning unit as a first neural network for learning with the first training information; a second layer learning unit as a second neural network for learning with the second training information; and a stacking unit for connecting the first neural network and the second neural network to each other so that output of a first-learned model obtained by the first layer learning unit is input into a second-learned model obtained by the second layer learning unit.SELECTED DRAWING: Figure 1

Description

本発明は、学習モデル構築装置、学習モデル構築方法及びコンピュータプログラムに関する。 The present invention relates to a learning model construction device, a learning model construction method, and a computer program.

入力された情報に基づき予め設定された1又は複数のルールにしたがって予測対象の状態を予想するプロダクションシステムという数理モデルがある。プロダクションシステムにおいて、予め設定されたルールはプロダクションシステムの設計者が予め想定したルールである。より具体的には、予め設定されたルールは、プロダクションシステムの設計者が予め入力される情報を想定し、その想定した情報に基づいてプロダクションシステムの設計者が設定したルールである。このようなプロダクションシステムの使用例としては、例えば、自然言語処理での使用が挙げられる。このような場合、プロダクションシステムは入力された文中に予め定められた特定の用語があるか否かを判定することで、入力された文が示す意味を判定する。 There is a mathematical model called a production system that predicts the state of the prediction target according to one or a plurality of preset rules based on the input information. In the production system, the preset rules are the rules assumed in advance by the designer of the production system. More specifically, the preset rule is a rule set by the designer of the production system based on the information input in advance by the designer of the production system. Examples of the use of such a production system include use in natural language processing. In such a case, the production system determines the meaning of the input sentence by determining whether or not there is a predetermined specific term in the input sentence.

特開平05−165886号公報Japanese Unexamined Patent Publication No. 05-165886

ところで、上述したようにプロダクションシステムにおけるルールは、設計者の想定した入力に対して設定されたものである。そのため、プロダクションシステムは、設計者の想定と異なる入力が行われた場合に適切な予測結果を出力できない、という問題がある。例えば、上述の自然言語処理に利用される場合であれば、入力された文が設計者の想定を超えた遠回しな表現で意味を伝える文である場合にプロダクションシステムは入力された文が示す意味を予測することができない場合がある。 By the way, as described above, the rules in the production system are set for the input assumed by the designer. Therefore, there is a problem that the production system cannot output an appropriate prediction result when an input different from the designer's assumption is made. For example, in the case of being used for the above-mentioned natural language processing, when the input sentence is a sentence that conveys the meaning in a roundabout expression beyond the designer's expectation, the production system has the meaning indicated by the input sentence. May not be predictable.

上記事情に鑑み、本発明は、プロダクションシステムよりも予測の精度が高い数理モデルを生成する技術の提供を目的とする。 In view of the above circumstances, an object of the present invention is to provide a technique for generating a mathematical model having higher prediction accuracy than a production system.

本発明の一態様は、機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得部と、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得部と、前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって学習する第1のニューラルネットワークである第1層学習部と、前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習する第2のニューラルネットワークである第2層学習部と、前記第1層学習部によって得られる学習済みモデルである第1学習済みモデルの出力が前記第2層学習部によって得られる学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキング部と、を備える学習モデル構築装置である。 One aspect of the present invention is the construction input data input to the production system to be converted into the neural network learned by the machine learning method, and the production system when the construction input data is input. The first training information acquisition unit that acquires the first training information indicating the information indicating the ignition rule, the information indicating the rule that ignites in the production system when the construction input data is input, and the construction Description of the second training information acquisition unit that acquires the second training information indicating the production output that is the output of the production system when the input data is input, and the training data for the construction input data of the first training information. The first layer learning unit, which is a first neural network that is used as a variable and uses the information indicating the rule of the first training information as the objective variable of the training data to be learned by the machine learning method, and the rule of the second training information. The second layer learning unit, which is a second neural network that learns by a machine learning method that uses the information indicating the above as an explanatory variable of the training data and uses the production output of the second training data as the objective variable of the training data, and the above. The first trained model, which is a trained model obtained by the first layer learning unit, is a trained model in which the output of the first trained model is input to the second trained model, which is the trained model obtained by the second layer learning unit. 3 Learning including a stacking unit that connects the first neural network and the second neural network so that the trained model is expressed by using the first neural network and the second neural network. It is a model building device.

本発明の一態様は、上記の学習モデル構築装置であって、前記第3学習済みモデルに入力されるデータを訓練データの説明変数として用い、前記データが入力された場合の前記第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習する第3のニューラルネットワークである第3層学習部、をさらに備える。 One aspect of the present invention is the above-mentioned learning model construction device, in which the data input to the third trained model is used as an explanatory variable of the training data, and the third trained when the data is input. It further includes a third layer learning unit, which is a third neural network that learns by a machine learning method that uses the output of the model as an objective variable of training data.

本発明の一態様は、上記の学習モデル構築装置であって、前記第3のニューラルネットワークは、前記第3学習済みモデルの生成後に、さらに、追加で入力された訓練データである追加訓練データに基づいてさらに学習する。 One aspect of the present invention is the training model construction device, and the third neural network is added to additional training data which is training data additionally input after the generation of the third trained model. Learn more based on.

本発明の一態様は、上記の学習モデル構築装置であって、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度である基準一致度よりも低いという条件を第1説明変数条件とし、前記第1説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第1目的変数条件とし、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が前記基準一致度以上という条件を第2説明変数条件とし、前記第2説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第2目的変数条件として、説明変数が前記第1説明変数条件を満たし目的変数が前記第1目的変数条件を満たす訓練データと、説明変数が前記第2説明変数条件を満たし目的変数が前記第2目的変数条件を満たす訓練データと、を前記追加訓練データは含む。 One aspect of the present invention is the above-mentioned learning model construction device, in which the degree of agreement between the production output when the explanatory variables are input to the production system and the teacher data determined by the user with respect to the information of the explanatory variables is. The first explanatory variable condition is a condition that is lower than the standard matching degree, which is a predetermined matching degree, and the first purpose is the condition that the teacher data is determined by the user for the explanatory variable that satisfies the first explanatory variable condition. The second explanatory variable condition is a variable condition in which the degree of agreement between the production output when the explanatory variable is input to the production system and the teacher data determined by the user with respect to the information of the explanatory variable is equal to or higher than the reference degree of agreement. As a second objective variable condition, the condition that the teacher data is determined by the user for the explanatory variable satisfying the second explanatory variable condition is set as the second objective variable condition, the explanatory variable satisfies the first explanatory variable condition, and the objective variable is the first objective variable. The additional training data includes training data satisfying one objective variable condition and training data in which the explanatory variable satisfies the second explanatory variable condition and the objective variable satisfies the second objective variable condition.

本発明の一態様は、上記の学習モデル構築装置であって、前記第2のニューラルネットワークは、さらに、構築用入力データとプロダクション出力との組のデータであるプロダクション入出力訓練情報に基づいて学習する。 One aspect of the present invention is the above-mentioned learning model construction device, and the second neural network further learns based on production input / output training information which is a set of data of a construction input data and a production output. To do.

本発明の一態様は、機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得ステップと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得ステップと、前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって第1のニューラルネットワークが学習する第1層学習ステップと、前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2のニューラルネットワークが学習する第2層学習ステップと、前記第1層学習ステップにおいて得られた学習済みモデルである第1学習済みモデルの出力が前記第2層学習ステップにおいて得られた学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキングステップと、を有する学習モデル構築方法である。 One aspect of the present invention is the construction input data input to the production system to be converted into the neural network learned by the machine learning method, and the production system when the construction input data is input. The first training information acquisition step for acquiring the first training information indicating the information indicating the firing rule, the information indicating the rule indicating the firing rule in the production system when the construction input data is input, and the construction Explanation of the second training information acquisition step for acquiring the second training information indicating the production output which is the output of the production system when the input data is input, and the training data for the construction input data of the first training information. The first layer learning step that the first neural network learns by the machine learning method that uses the information indicating the rule of the first training information as a variable and uses the information indicating the rule of the first training data as the objective variable of the training data, and the rule of the second training information. The second layer learning step in which the second neural network learns by a machine learning method using the indicated information as an explanatory variable of the training data and the production output of the second training data as the objective variable of the training data, and the first The output of the first trained model, which is the trained model obtained in the layer learning step, is the trained model that is input to the second trained model, which is the trained model obtained in the second layer learning step. 3 Learning having a stacking step for connecting the first neural network and the second neural network so as to represent the trained model using the first neural network and the second neural network. This is a model construction method.

本発明の一態様は、上記の学習モデル構築装置としてコンピュータを機能させるためのコンピュータプログラムである。 One aspect of the present invention is a computer program for operating a computer as the above-mentioned learning model construction device.

本発明により、プロダクションシステムよりも予測の精度が高い数理モデルを生成することが可能となる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to generate a mathematical model with higher prediction accuracy than a production system.

実施形態の学習モデル構築装置1の動作の概要を説明する説明図。Explanatory drawing explaining the outline of operation of the learning model construction apparatus 1 of embodiment. 実施形態の学習モデル構築装置1のハードウェア構成の一例を示す図。The figure which shows an example of the hardware composition of the learning model construction apparatus 1 of embodiment. 実施形態における制御部10の機能構成の一例を示す図。The figure which shows an example of the functional structure of the control part 10 in embodiment. 実施形態の学習モデル構築装置1が実行する処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the process executed by the learning model construction apparatus 1 of embodiment.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、実施形態の学習モデル構築装置1の動作の概要を説明する説明図である。
学習モデル構築装置1は、構築用入力データと、プロダクション出力と、発火ルール情報とに基づいて、変換対象のプロダクションシステム9を機械学習の手法によって学習するニューラルネットワークへ変換する。構築用入力データは、プロダクションシステム9に入力される情報である。プロダクション出力は、構築用入力データが入力された場合のプロダクションシステム9の出力である。発火ルール情報は、構築用入力データが入力された場合にプロダクションシステム9において発火するルール(以下「発火ルール」という。)を示す情報である。
FIG. 1 is an explanatory diagram illustrating an outline of the operation of the learning model construction device 1 of the embodiment.
The learning model construction device 1 converts the production system 9 to be converted into a neural network to be learned by a machine learning method based on the construction input data, the production output, and the firing rule information. The construction input data is information input to the production system 9. The production output is the output of the production system 9 when the construction input data is input. The ignition rule information is information indicating a rule (hereinafter referred to as “ignition rule”) for firing in the production system 9 when input data for construction is input.

プロダクションシステム9をニューラルネットワークへ変換するとは、被構築モデルを表現するニューラルネットワークを生成することを意味する。被構築モデルは、想定内入力データが入力された場合に、プロダクションシステム9に想定内入力データが入力された場合にプロダクションシステム9が出力する情報との違いが所定の違いよりも小さい情報を出力する学習済みモデルである。所定の違いの一例としては、例えば出力する情報がベクトルである場合、Cos類似度推定法に基づくベクトル同士の類似度が、プロダクションシステム9が出力するベクトルと被構築モデルが出力するベクトルとの間で所定の範囲内にあるものである。また、被構築モデルは、想定内入力データ以外の情報が入力された場合に学習結果に基づいた予測結果を出力する学習済みモデルである。想定内入力データは、プロダクションシステム9に入力された場合にプロダクションシステム9が適切な予測を行うことができると、プロダクションシステム9の設計者が予め想定した入力である。 Converting the production system 9 to a neural network means generating a neural network that represents the model to be constructed. The built model outputs information in which the difference from the information output by the production system 9 when the expected input data is input to the production system 9 is smaller than the predetermined difference when the expected input data is input. It is a trained model to do. As an example of a predetermined difference, for example, when the information to be output is a vector, the similarity between the vectors based on the Cos similarity estimation method is between the vector output by the production system 9 and the vector output by the model to be constructed. Is within the specified range. The constructed model is a trained model that outputs a prediction result based on the learning result when information other than the expected input data is input. The expected input data is an input that the designer of the production system 9 assumes in advance that the production system 9 can make an appropriate prediction when it is input to the production system 9.

学習モデル構築装置1は、第1訓練情報に基づき、第1学習済みモデルを生成する。第1訓練情報は、構築用入力データと発火ルール情報が示す発火ルールとを示す情報である。すなわち、第1訓練情報は、構築用入力データと発火ルール情報との組の情報である。また、第1訓練情報は、第1学習済みモデルを生成するための訓練データである。 The learning model construction device 1 generates the first trained model based on the first training information. The first training information is information indicating the construction input data and the ignition rule indicated by the ignition rule information. That is, the first training information is a set of information of the construction input data and the firing rule information. The first training information is training data for generating the first trained model.

第1学習済みモデルは、想定内入力データが入力された場合に、入力された想定内入力データの示す情報がプロダクションシステム9に入力された場合にプロダクションシステム9において発火すると予想されるルールを示す情報を出力する。 The first trained model shows a rule that is expected to fire in the production system 9 when the information indicated by the input expected input data is input to the production system 9 when the expected input data is input. Output information.

学習モデル構築装置1は、より具体的には、構築用入力データを訓練データの説明変数として用い発火ルール情報を訓練データの目的変数として用いる機械学習の手法によって第1学習済みモデルを生成する。 More specifically, the training model construction device 1 generates the first trained model by a machine learning method using the construction input data as an explanatory variable of the training data and the firing rule information as the objective variable of the training data.

学習モデル構築装置1は、第2訓練情報に基づき、第2学習済みモデルを生成する。第1訓練情報は、発火ルール情報が示す発火ルールとプロダクション出力とを示す情報である。すなわち、第2訓練情報は、発火ルール情報とプロダクション出力との組の情報である。また、第2訓練情報は、第2学習済みモデルを生成するための訓練データである。 The learning model construction device 1 generates a second trained model based on the second training information. The first training information is information indicating the ignition rule and the production output indicated by the ignition rule information. That is, the second training information is the information of the set of the firing rule information and the production output. The second training information is training data for generating the second trained model.

第2学習済みモデルは、想定内発火ルール情報が入力された場合に、入力された想定内発火ルール情報の示す発火ルールがプロダクションシステム9において発火した場合にプロダクションシステム9が出力すると予想されるプロダクション出力を出力する。想定内発火ルール情報は、想定内入力データがプロダクションシステム9に入力された場合にプロダクションシステム9において発火するルールを示す情報である。 The second trained model is a production that is expected to be output by the production system 9 when the expected ignition rule information is input and the ignition rule indicated by the input expected ignition rule information is ignited in the production system 9. Output the output. The expected firing rule information is information indicating a rule for firing in the production system 9 when the expected input data is input to the production system 9.

学習モデル構築装置1は、より具体的には、発火ルール情報を訓練データの説明変数として用いプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2学習済みモデルを生成する。 More specifically, the learning model construction device 1 generates a second trained model by a machine learning method using the firing rule information as an explanatory variable of the training data and the production output as the objective variable of the training data.

学習モデル構築装置1は、第1学習済みモデル及び第2学習済みモデルに基づき、被構築モデルを生成する。より具体的には、学習モデル構築装置1は、第1学習済みモデルの出力が第2学習済みモデルに入力されるように接続処理を含む処理(以下「仕上げ処理」という。)を行うことで、被構築モデルを生成する。接続処理は、第1学習済みモデルを表現するニューラルネットワークと第2学習済みモデルを表現するニューラルネットワークとを接続する処理である。仕上げ処理は、例えば、接続処理に加えて、いわゆる蒸留の処理を含んでもよい。具体的には、仕上げ処理では、接続処理の実行後に蒸留の処理が実行されてもよい。 The learning model construction device 1 generates a model to be constructed based on the first trained model and the second trained model. More specifically, the learning model construction device 1 performs a process including a connection process (hereinafter referred to as "finishing process") so that the output of the first trained model is input to the second trained model. , Generate a model to be constructed. The connection process is a process of connecting a neural network representing the first trained model and a neural network representing the second trained model. The finishing process may include, for example, a so-called distillation process in addition to the connection process. Specifically, in the finishing process, the distillation process may be executed after the connection process is executed.

図2は、実施形態の学習モデル構築装置1のハードウェア構成の一例を示す図である。学習モデル構築装置1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、プログラムを実行することによって制御部10、インタフェース部11、記憶部12、入力部13及び出力部14を備える装置として機能する。 FIG. 2 is a diagram showing an example of the hardware configuration of the learning model construction device 1 of the embodiment. The learning model construction device 1 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and by executing a program, a control unit 10, an interface unit 11, a storage unit 12, an input unit 13, and the like. It functions as a device including the output unit 14.

より具体的には、学習モデル構築装置1は、プロセッサ91が記憶部12に記憶されているプログラムを読み出し、読み出したプログラムをメモリ92に記憶させる。プロセッサ91が、メモリ92に記憶させたプログラムを実行することによって、学習モデル構築装置1は、制御部10、インタフェース部11、記憶部12、入力部13及び出力部14を備える装置として機能する。 More specifically, in the learning model construction device 1, the processor 91 reads a program stored in the storage unit 12, and stores the read program in the memory 92. When the processor 91 executes the program stored in the memory 92, the learning model construction device 1 functions as a device including the control unit 10, the interface unit 11, the storage unit 12, the input unit 13, and the output unit 14.

学習モデル構築装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。プログラムは、電気通信回線を介して送信されてもよい。 All or a part of each function of the learning model construction device 1 may be realized by using hardware such as an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), or an FPGA (Field Programmable Gate Array). The program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a flexible disk, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, or a storage device such as a hard disk built in a computer system. The program may be transmitted over a telecommunication line.

インタフェース部11は、自装置を、プロダクションシステム9等の外部装置に接続するための通信インタフェースを含んで構成される。インタフェース部11は、例えばネットワークを介して、例えば、プロダクションシステム9と通信する。インタフェース部11は、プロダクションシステム9との通信によって、プロダクションシステム9から、構築用入力データ、発火ルール及びプロダクション出力を取得する。外部装置の1つは、例えば、USB(Universal Serial Bus)メモリ等の外部記憶装置であってもよい。インタフェース部11は、USB(Universal Serial Bus)メモリ等の外部記憶装置に、学習モデル構築装置1が生成した被構築モデルを表すプログラムを出力する。 The interface unit 11 includes a communication interface for connecting the own device to an external device such as a production system 9. The interface unit 11 communicates with, for example, the production system 9 via, for example, a network. The interface unit 11 acquires construction input data, firing rules, and production output from the production system 9 by communicating with the production system 9. One of the external devices may be, for example, an external storage device such as a USB (Universal Serial Bus) memory. The interface unit 11 outputs a program representing the model to be constructed generated by the learning model construction device 1 to an external storage device such as a USB (Universal Serial Bus) memory.

記憶部12は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部12は学習モデル構築装置1に関する各種情報を記憶する。記憶部12は、例えば、プロダクションシステム9から取得した構築用入力データ、発火ルール及びプロダクション出力を記憶する。 The storage unit 12 is configured by using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 12 stores various information related to the learning model construction device 1. The storage unit 12 stores, for example, the construction input data, the firing rule, and the production output acquired from the production system 9.

入力部13は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部13は、これらの入力装置を自装置に接続するインタフェースとして構成されてもよい。入力部13は、自装置に対する各種情報の入力を受け付ける。各種情報は、例えば、学習モデル構築装置1に対する学習開始の指示を示す情報である。 The input unit 13 includes an input device such as a mouse, a keyboard, and a touch panel. The input unit 13 may be configured as an interface for connecting these input devices to its own device. The input unit 13 receives input of various information to its own device. The various information is, for example, information indicating an instruction to start learning to the learning model construction device 1.

出力部14は、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を含んで構成される。出力部14は、これらの表示装置を自装置に接続するインタフェースとして構成されてもよい。出力部14は、自装置に関する情報を表示する。 The output unit 14 includes display devices such as a CRT (Cathode Ray Tube) display, a liquid crystal display, and an organic EL (Electro-Luminescence) display. The output unit 14 may be configured as an interface for connecting these display devices to its own device. The output unit 14 displays information about the own device.

図3は、実施形態における制御部10の機能構成の一例を示す図である。制御部10は、第1訓練情報取得部111、第2訓練情報取得部112、第1層学習部113、第2層学習部114、スタッキング部115、第3層学習部116及びインタフェース制御部117を備える。 FIG. 3 is a diagram showing an example of the functional configuration of the control unit 10 in the embodiment. The control unit 10 includes a first training information acquisition unit 111, a second training information acquisition unit 112, a first layer learning unit 113, a second layer learning unit 114, a stacking unit 115, a third layer learning unit 116, and an interface control unit 117. To be equipped.

第1訓練情報取得部111は、インタフェース部11を介して、第1訓練情報を取得する。第2訓練情報取得部112は、インタフェース部11を介して、第2訓練情報を取得する。 The first training information acquisition unit 111 acquires the first training information via the interface unit 11. The second training information acquisition unit 112 acquires the second training information via the interface unit 11.

第1層学習部113は、第1訓練情報の構築用入力データを訓練データの説明変数として用い、第1訓練情報の発火ルール情報を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。以下、第1層学習部113のニューラルネットワークを第1のニューラルネットワークという。第1のニューラルネットワークが表現する学習モデルの学習済みモデルが第1学習済みモデルである。第1層学習部113は、第1訓練情報に基づく学習によって第1学習済みモデルを生成する。すなわち、第1学習済みモデルは、第1層学習部によって得られる学習済みモデルである。 The first layer learning unit 113 uses the input data for constructing the first training information as the explanatory variable of the training data, and the firing rule information of the first training information is used as the objective variable of the training data. It is a network. Hereinafter, the neural network of the first layer learning unit 113 is referred to as a first neural network. The trained model of the learning model represented by the first neural network is the first trained model. The first layer learning unit 113 generates the first trained model by learning based on the first training information. That is, the first trained model is a trained model obtained by the first layer learning unit.

第2層学習部114は、第2訓練情報の発火ルール情報を訓練データの説明変数として用い、第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。以下、第2層学習部114のニューラルネットワークを第2のニューラルネットワークという。第2のニューラルネットワークが表現する学習モデルの学習済みモデルが第2学習済みモデルである。第2層学習部114は、第2訓練情報に基づく学習によって第2学習済みモデルを生成する。すなわち、第2学習済みモデルは、第2層学習部によって得られる学習済みモデルである。 The second layer learning unit 114 is a neural network that learns by a machine learning method that uses the firing rule information of the second training information as an explanatory variable of the training data and the production output of the second training information as the objective variable of the training data. is there. Hereinafter, the neural network of the second layer learning unit 114 is referred to as a second neural network. The trained model of the learning model represented by the second neural network is the second trained model. The second layer learning unit 114 generates a second trained model by learning based on the second training information. That is, the second trained model is a trained model obtained by the second layer learning unit.

スタッキング部115は、第3学習済みモデルを第1のニューラルネットワークと第2のニューラルネットワークとを用いて表現するように第1のニューラルネットワークと第2のニューラルネットワークとを接続する。すなわち、スタッキング部115は、第1のニューラルネットワークの出力を第2のニューラルネットワークに入力させる。第3学習済みモデルは、第1学習済みモデルと第2学習済みモデルとを含む学習済みモデルであって第1学習済みモデルの出力が第2学習済みモデルに入力される学習済みモデルである。第3学習済みモデルは被構築モデルの一例である。スタッキング部115が実行する処理は、接続処理の一例である。 The stacking unit 115 connects the first neural network and the second neural network so as to represent the third trained model using the first neural network and the second neural network. That is, the stacking unit 115 causes the output of the first neural network to be input to the second neural network. The third trained model is a trained model including the first trained model and the second trained model, and the output of the first trained model is input to the second trained model. The third trained model is an example of the model to be constructed. The process executed by the stacking unit 115 is an example of the connection process.

以下、第1のニューラルネットワーク及び第2のニューラルネットワークを含み、第1のニューラルネットワークの出力が第2のニューラルネットワークの入力であるニューラルネットワークをスタックトニューラルネットワークという。スタックトニューラルネットワークが表現する学習モデルの学習済みモデルは、被構築モデルの一例である。 Hereinafter, a neural network including a first neural network and a second neural network and whose output of the first neural network is an input of the second neural network is referred to as a stacked neural network. The trained model of the training model represented by the stacked neural network is an example of the model to be constructed.

第3層学習部116は、継承用データを訓練データの説明変数として用い継承用データが入力された場合の第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。継承用データは、第3学習済みモデルに入力されるデータである。以下、第3層学習部116のニューラルネットワークを第3のニューラルネットワークという。第3層学習部116は、第3訓練情報に基づく学習によって、被継承学習済みモデルを生成する。 The third layer learning unit 116 learns by a machine learning method that uses the inheritance data as an explanatory variable of the training data and uses the output of the third trained model when the inheritance data is input as the objective variable of the training data. It is a neural network. The inheritance data is the data input to the third trained model. Hereinafter, the neural network of the third layer learning unit 116 is referred to as a third neural network. The third layer learning unit 116 generates the inherited trained model by learning based on the third training information.

被継承学習済みモデルは、第3のニューラルネットワークが表現する学習モデルの学習済みモデルである。第3訓練情報は、継承用データと、継承用データが入力された場合の第3学習済みモデルの出力とを示す情報である。すなわち、第3訓練情報は、継承用データと継承用データが入力された場合の第3学習済みモデルの出力との組の情報である。第3層学習部116が実行する処理は、いわゆる蒸留の処理である。第3層学習部116が実行する処理は、いわゆるGAN(Generative Adversarial Networks)を用いて行われてもよい。被継承学習済みモデルは被構築モデルの一例である。 The inherited trained model is a trained model of the learning model represented by the third neural network. The third training information is information indicating the inheritance data and the output of the third trained model when the inheritance data is input. That is, the third training information is a set of information of the inheritance data and the output of the third trained model when the inheritance data is input. The process executed by the third layer learning unit 116 is a so-called distillation process. The process executed by the third layer learning unit 116 may be performed using so-called GAN (Generative Adversarial Networks). The inherited trained model is an example of the constructed model.

インタフェース制御部117は、インタフェース部11の動作を制御する。インタフェース制御部117は、例えば、インタフェース部11の動作を制御して被構築モデルを外部装置に出力する。 The interface control unit 117 controls the operation of the interface unit 11. The interface control unit 117 controls the operation of the interface unit 11, for example, and outputs the model to be constructed to the external device.

図4は、実施形態の学習モデル構築装置1が実行する処理の流れの一例を示すフローチャートである。
第1訓練情報取得部111が、第1訓練情報を取得する(ステップS101)。次に、第2訓練情報取得部112が、第2訓練情報を取得する(ステップS102)。次に、第1層学習部113が、第1訓練情報の構築用入力データを訓練データの説明変数として用い第1訓練情報の発火ルール情報を訓練データの目的変数として用いる機械学習の手法を用いて、第1学習済みモデルを生成する(ステップS103)。次に、第2層学習部114が、第2訓練情報の発火ルール情報を訓練データの説明変数として用い第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法を用いて、第2学習済みモデルを生成する(ステップS104)。
FIG. 4 is a flowchart showing an example of the flow of processing executed by the learning model building apparatus 1 of the embodiment.
The first training information acquisition unit 111 acquires the first training information (step S101). Next, the second training information acquisition unit 112 acquires the second training information (step S102). Next, the first layer learning unit 113 uses a machine learning method in which the input data for constructing the first training information is used as the explanatory variable of the training data and the firing rule information of the first training information is used as the objective variable of the training data. Then, the first trained model is generated (step S103). Next, the second layer learning unit 114 uses a machine learning method that uses the firing rule information of the second training information as the explanatory variable of the training data and the production output of the second training information as the objective variable of the training data. A second trained model is generated (step S104).

次に、スタッキング部115が、第3学習済みモデルを第1のニューラルネットワークと第2のニューラルネットワークとを用いて表現するように第1のニューラルネットワークと第2のニューラルネットワークとを接続する(ステップS105)。次に、第3層学習部116は、第3訓練情報に基づく学習によって、被継承学習済みモデルを生成する(ステップS106)。 Next, the stacking unit 115 connects the first neural network and the second neural network so as to represent the third trained model using the first neural network and the second neural network (step). S105). Next, the third layer learning unit 116 generates an inherited trained model by learning based on the third training information (step S106).

このように構成された実施形態の学習モデル構築装置1は、構築用入力データ、発火ルール情報及びプロダクション出力を用いた機械学習により、被構築モデルを生成する。機械学習の手法で生成された学習済みモデルは外挿の機能を備える数理モデルであるため、学習済みモデルは、学習段階では学習しなかった情報が入力された場合であっても精度の高い予測結果を出力することができる。このように、学習モデル構築装置1は、プロダクションシステムよりも予測の精度が高い数理モデルを生成することができる。 The learning model construction device 1 of the embodiment configured in this way generates a model to be constructed by machine learning using the input data for construction, the firing rule information, and the production output. Since the trained model generated by the machine learning method is a mathematical model with extrapolation function, the trained model makes highly accurate predictions even when information that was not learned in the learning stage is input. The result can be output. In this way, the learning model construction device 1 can generate a mathematical model with higher prediction accuracy than the production system.

また、このように構成された実施形態の学習モデル構築装置1は、構築用入力データ及びプロダクション出力に加えて、発火ルール情報も用いて学習する。そのため、構築用入力データ及びプロダクション出力だけを用いた機械学習よりも、予測の精度が高い数理モデルを生成することができる。 Further, the learning model construction device 1 of the embodiment configured in this way learns by using the ignition rule information in addition to the construction input data and the production output. Therefore, it is possible to generate a mathematical model with higher prediction accuracy than machine learning using only construction input data and production output.

(変形例)
第2のニューラルネットワークは、第2訓練情報だけでなく、さらに、プロダクション入出力訓練情報に基づいて学習してもよい。プロダクション入出力訓練情報は、構築用入力データとプロダクション出力との組のデータである。
(Modification example)
The second neural network may be learned not only based on the second training information but also based on the production input / output training information. The production input / output training information is a set of data of the construction input data and the production output.

このような場合、第2のニューラルネットワークは、第2訓練情報が示す説明変数と目的変数との関係が正しい確率を、構築用入力データとプロダクション出力との関係に基づいて推定しながら学習することができる。そのため、第2訓練情報及びプロダクション入出力訓練情報を用いて学習した結果の第2学習済みモデルは、第2訓練情報だけを用いて学習した第2学習済みモデルよりも、精度のよい結果を出力することができる。 In such a case, the second neural network learns while estimating the probability that the relationship between the explanatory variable and the objective variable indicated by the second training information is correct based on the relationship between the construction input data and the production output. Can be done. Therefore, the second trained model as a result of learning using the second training information and the production input / output training information outputs a more accurate result than the second trained model trained using only the second training information. can do.

学習モデル構築装置1は、ステップS106の次に、さらに追加学習してもよい。このような場合、具体的には、第3層学習部116の第3のニューラルネットワークが、追加で入力された訓練データ(以下「追加訓練データ」という。)に基づいてさらに学習する。なお、ステップS106の次とは、第3学習済みモデルの生成後の意味である。 The learning model building apparatus 1 may further perform additional learning after step S106. In such a case, specifically, the third neural network of the third layer learning unit 116 further learns based on the additionally input training data (hereinafter referred to as “additional training data”). The following step S106 means after the generation of the third trained model.

このような場合、被継承学習済みモデルは、ステップS106の時点よりもさらに学習が進むため、ステップS106の処理で生成された学習済みモデルよりも予測の精度が高い。追加訓練データを用いて被継承学習済みモデルが学習した結果の学習済みモデルも、被構築モデルの一例である。 In such a case, since the inherited trained model is further trained from the time of step S106, the prediction accuracy is higher than that of the trained model generated in the process of step S106. The trained model as a result of learning by the inherited trained model using the additional training data is also an example of the constructed model.

追加訓練データは、例えば、以下の第1説明変数条件及び第1目的変数条件を満たす訓練データ(以下「不一致データ」という。)と、第2説明変数条件及び第2目的変数条件を満たす訓練データ(以下「一致データ」という。)とを含んでもよい。 The additional training data includes, for example, training data satisfying the following first explanatory variable condition and first objective variable condition (hereinafter referred to as “mismatch data”), and training data satisfying the second explanatory variable condition and second objective variable condition. (Hereinafter referred to as "matching data") and may be included.

第1説明変数条件は、説明変数は、説明変数がプロダクションシステム9に入力された場合のプロダクション出力と、説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度(以下「基準一致度」という。)よりも低い、という条件である。 The first explanatory variable condition is that the explanatory variable has a predetermined degree of coincidence between the production output when the explanatory variable is input to the production system 9 and the teacher data determined by the user with respect to the information of the explanatory variable. The condition is that it is lower than the "standard degree of agreement").

第1目的変数条件は、第1説明変数条件を満たす説明変数に対してユーザが決定した教師データである、という条件である。 The first objective variable condition is a condition that the teacher data is determined by the user for the explanatory variable satisfying the first explanatory variable condition.

第2説明変数条件は、説明変数は、説明変数がプロダクションシステム9に入力された場合のプロダクション出力と、説明変数の情報に対してユーザが決定した教師データとの一致度が基準一致度以上、という条件である。 The second explanatory variable condition is that the degree of agreement between the production output when the explanatory variable is input to the production system 9 and the teacher data determined by the user with respect to the information of the explanatory variable is equal to or greater than the reference degree. It is a condition.

第2目的変数条件は、第2説明変数条件を満たす説明変数に対してユーザが決定した教師データである、という条件である。 The second objective variable condition is a condition that the teacher data is determined by the user for the explanatory variable satisfying the second explanatory variable condition.

このような場合、被継承学習済みモデルは、プロダクションシステム9の結果のみに基づいて学習した場合よりも正確な情報に基づいて学習する。そのため、一致データ及び不一致データを含む追加訓練データを用いて学習をした学習済みモデルは、ステップS106の処理で生成された学習済みモデルよりも予測の精度が高い。一致データ及び不一致データを含む追加訓練データを用いて被継承学習済みモデルが学習した結果の学習済みモデルも、被構築モデルの一例である。 In such a case, the inherited trained model is trained based on more accurate information than when trained based only on the result of the production system 9. Therefore, the trained model trained using the additional training data including the match data and the mismatch data has higher prediction accuracy than the trained model generated in the process of step S106. The trained model as a result of learning by the inherited trained model using the additional training data including the match data and the mismatch data is also an example of the constructed model.

一致データ及び不一致データを含む追加訓練データを用いて学習する場合には、例えば、学習時の予測で不一致データの予測に失敗した場合に値が大きくなる損失関数を用いて学習が行われてもよい。 When learning using additional training data including match data and mismatch data, for example, even if training is performed using a loss function whose value increases when the prediction of mismatch data fails in the prediction at the time of training. Good.

なお、第1学習済みモデルは、プロダクションシステム9が有するルールごとに各ルールが発火するか否かを判定する識別機を備える学習済みモデルであってもよい。第1学習済みモデルは、プロダクションシステム9が有するルールのいずれが発火したかを示す情報を出力する1つの学習済みモデルであってもよい。 The first trained model may be a trained model provided with a discriminator for determining whether or not each rule fires for each rule of the production system 9. The first trained model may be one trained model that outputs information indicating which of the rules of the production system 9 has fired.

なお、ステップS101及びステップS102は、必ずしも図4に示す順番に実行される必要は無い。ステップS101は、ステップS103の実行前に実行されればどのようなタイミングで実行されてもよい。ステップS102は、ステップS104の実行前に実行されれば、どのようなタイミングで実行されてもよい。なお、ステップS103及びステップS104の処理は、必ずしも図4に示す順番に実行される必要は無い。ステップS103及びステップS104の処理は、ステップS105の処理の実行前に実行されれば、どのようなタイミングで実行されてもよい。例えば、ステップS103の処理は、ステップS105の実行前に実行され、ステップS104の処理がステップS103の処理の実行前に実行されてもよい。 It should be noted that steps S101 and S102 do not necessarily have to be executed in the order shown in FIG. Step S101 may be executed at any timing as long as it is executed before the execution of step S103. Step S102 may be executed at any timing as long as it is executed before the execution of step S104. The processes of steps S103 and S104 do not necessarily have to be executed in the order shown in FIG. The processing of step S103 and step S104 may be executed at any timing as long as it is executed before the processing of step S105 is executed. For example, the process of step S103 may be executed before the execution of step S105, and the process of step S104 may be executed before the execution of the process of step S103.

なお、学習とは、学習モデルのパラメータを好適に調整することである。学習済みモデルは、終了条件が満たされた時点における学習モデルである。終了条件は、学習の終了に関する条件であればどのような条件であってもよい。終了条件は、例えば、所定数の訓練データによる学習が実行された、という条件であってもよいし、学習によるパラメータの変化量が所定の大きさ未満であるという条件であってもよい。 The learning is to appropriately adjust the parameters of the learning model. The trained model is a trained model at the time when the end condition is satisfied. The end condition may be any condition as long as it is a condition related to the end of learning. The end condition may be, for example, a condition that learning with a predetermined number of training data has been executed, or a condition that the amount of change in parameters due to learning is less than a predetermined magnitude.

なお、ニューラルネットワークは、出力結果の精度が所定の精度以上であるニューラルネットワークであればどのようなニューラルネットワークであってもよい。ニューラルネットワークは、例えば、順伝搬型ニューラルネットワークであってもよいし、RBF(Radial Basis Function)ネットワークであってもよい。ニューラルネットワークは、畳み込みニューラルネットワークであってもよいし、再帰型ニューラルネットワークであってもよいし、確率的ニューラルネットワークであってもよい。ニューラルネットワークは、スパイキングニューラルネットワークであってもよいし、複素ニューラルネットワークであってもよい。 The neural network may be any neural network as long as the accuracy of the output result is equal to or higher than a predetermined accuracy. The neural network may be, for example, a forward propagation type neural network or an RBF (Radial Basis Function) network. The neural network may be a convolutional neural network, a recurrent neural network, or a stochastic neural network. The neural network may be a spiking neural network or a complex neural network.

なお、学習モデルのパラメータは、出力結果の精度が高い学習のアルゴリズムであれば、ニューラルネットワークの種類に応じてどのような機械学習のアルゴリズムによって調整されてもよい。例えば、学習モデルのパラメータは、順伝搬型のニューラルネットワーク以外のニューラルネットワークであれば、誤差逆伝搬法のアルゴリズムによって調整されてもよい。 The parameters of the learning model may be adjusted by any machine learning algorithm according to the type of neural network, as long as it is a learning algorithm with high accuracy of the output result. For example, the parameters of the learning model may be adjusted by the algorithm of the error back propagation method if it is a neural network other than the forward propagation type neural network.

学習モデル構築装置1は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、学習モデル構築装置1が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。例えば、第3層学習部116は制御部10が備える他の機能部とは異なる情報処理装置に実装されてもよい。 The learning model construction device 1 may be implemented by using a plurality of information processing devices connected so as to be able to communicate via a network. In this case, each functional unit included in the learning model construction device 1 may be distributed and mounted in a plurality of information processing devices. For example, the third layer learning unit 116 may be mounted on an information processing device different from other functional units included in the control unit 10.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.

1…学習モデル構築装置、 10…制御部、 11…インタフェース部、 12…記憶部、 13…入力部、 14…出力部、 111…第1訓練情報取得部、 112…第2訓練情報取得部、 113…第1層学習部、 114…第2層学習部、 115…スタッキング部、 116…第3層学習部、 117…インタフェース制御部 1 ... Learning model construction device, 10 ... Control unit, 11 ... Interface unit, 12 ... Storage unit, 13 ... Input unit, 14 ... Output unit, 111 ... 1st training information acquisition unit, 112 ... 2nd training information acquisition unit, 113 ... 1st layer learning unit, 114 ... 2nd layer learning unit, 115 ... Stacking unit, 116 ... 3rd layer learning unit, 117 ... Interface control unit

Claims (7)

機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得部と、
前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得部と、
前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって学習する第1のニューラルネットワークである第1層学習部と、
前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習する第2のニューラルネットワークである第2層学習部と、
前記第1層学習部によって得られる学習済みモデルである第1学習済みモデルの出力が前記第2層学習部によって得られる学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキング部と、
を備える学習モデル構築装置。
Construction input data input to the production system to be converted into a neural network learned by a machine learning method, and information indicating a rule that fires in the production system when the construction input data is input. The first training information acquisition unit that acquires the first training information indicating
Second training information indicating a rule indicating a rule to ignite in the production system when the construction input data is input and a production output which is an output of the production system when the construction input data is input. The second training information acquisition department to acquire
In a first neural network that learns by a machine learning method that uses the input data for constructing the first training information as an explanatory variable of the training data and uses the information indicating the rule of the first training information as the objective variable of the training data. With a certain first layer learning department
A second neural network that learns by a machine learning method that uses information indicating the rules of the second training information as an explanatory variable for training data and uses the production output of the second training information as an objective variable for training data. Two-layer learning department and
It is a trained model in which the output of the first trained model, which is the trained model obtained by the first layer learning unit, is input to the second trained model, which is the trained model obtained by the second layer learning unit. A stacking unit that connects the first neural network and the second neural network so as to express the third trained model using the first neural network and the second neural network, and
A learning model construction device equipped with.
前記第3学習済みモデルに入力されるデータを訓練データの説明変数として用い、前記データが入力された場合の前記第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習する第3のニューラルネットワークである第3層学習部、
をさらに備える請求項1に記載の学習モデル構築装置。
Learning by a machine learning method in which the data input to the third trained model is used as an explanatory variable of the training data and the output of the third trained model when the data is input is used as the objective variable of the training data. Third layer learning unit, which is the third neural network
The learning model construction apparatus according to claim 1.
前記第3のニューラルネットワークは、前記第3学習済みモデルの生成後に、さらに、追加で入力された訓練データである追加訓練データに基づいてさらに学習する、
請求項2に記載の学習モデル構築装置。
After the generation of the third trained model, the third neural network further learns based on the additional training data which is the additional training data input.
The learning model building apparatus according to claim 2.
説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度である基準一致度よりも低いという条件を第1説明変数条件とし、前記第1説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第1目的変数条件とし、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が前記基準一致度以上という条件を第2説明変数条件とし、前記第2説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第2目的変数条件として、説明変数が前記第1説明変数条件を満たし目的変数が前記第1目的変数条件を満たす訓練データと、説明変数が前記第2説明変数条件を満たし目的変数が前記第2目的変数条件を満たす訓練データと、を前記追加訓練データは含む、
請求項3に記載の学習モデル構築装置。
The first condition is that the degree of agreement between the production output when the explanatory variable is input to the production system and the teacher data determined by the user with respect to the information of the explanatory variable is lower than the reference degree of agreement, which is a predetermined degree of agreement. Production when the explanatory variable is input to the production system, with the condition that the explanatory variable condition is the teacher data determined by the user for the explanatory variable satisfying the first explanatory variable condition as the first objective variable condition. The condition that the degree of matching between the output and the information of the explanatory variable with the teacher data determined by the user is equal to or higher than the reference degree of matching is set as the second explanatory variable condition, and the user with respect to the explanatory variable satisfying the second explanatory variable condition As the second objective variable condition, the training data that the explanatory variable satisfies the first explanatory variable condition and the objective variable satisfies the first objective variable condition, and the explanatory variable is the second objective variable condition. The additional training data includes training data that satisfies the variable condition and the objective variable satisfies the second objective variable condition.
The learning model building apparatus according to claim 3.
前記第2のニューラルネットワークは、さらに、構築用入力データとプロダクション出力との組のデータであるプロダクション入出力訓練情報に基づいて学習する、
請求項1から4のいずれか一項に記載の学習モデル構築装置。
The second neural network further learns based on the production input / output training information, which is a set of data of the construction input data and the production output.
The learning model construction device according to any one of claims 1 to 4.
機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得ステップと、
前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得ステップと、
前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって第1のニューラルネットワークが学習する第1層学習ステップと、
前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2のニューラルネットワークが学習する第2層学習ステップと、
前記第1層学習ステップにおいて得られた学習済みモデルである第1学習済みモデルの出力が前記第2層学習ステップにおいて得られた学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキングステップと、
を有する学習モデル構築方法。
Construction input data input to the production system to be converted into a neural network learned by a machine learning method, and information indicating a rule that fires in the production system when the construction input data is input. The first training information acquisition step to acquire the first training information indicating
Second training information indicating a rule indicating a rule to ignite in the production system when the construction input data is input and a production output which is an output of the production system when the construction input data is input. The second training information acquisition step to acquire
The first neural network learns by a machine learning method in which the input data for constructing the first training information is used as an explanatory variable of the training data and the information indicating the rule of the first training information is used as the objective variable of the training data. First layer learning step and
The second neural network learns by a machine learning method in which the information indicating the rule of the second training information is used as an explanatory variable of the training data and the production output of the second training information is used as the objective variable of the training data. Layer learning steps and
A trained model in which the output of the first trained model, which is the trained model obtained in the first layer learning step, is input to the second trained model, which is the trained model obtained in the second layer learning step. A stacking step for connecting the first neural network and the second neural network so as to represent the third trained model using the first neural network and the second neural network.
How to build a learning model with.
請求項1から請求項5のいずれか一項に記載の学習モデル構築装置としてコンピュータを機能させるためのコンピュータプログラム。 A computer program for operating a computer as the learning model construction device according to any one of claims 1 to 5.
JP2019220445A 2019-12-05 2019-12-05 Learning model construction device, learning model construction method, and computer program Active JP7382633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220445A JP7382633B2 (en) 2019-12-05 2019-12-05 Learning model construction device, learning model construction method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220445A JP7382633B2 (en) 2019-12-05 2019-12-05 Learning model construction device, learning model construction method, and computer program

Publications (2)

Publication Number Publication Date
JP2021089655A true JP2021089655A (en) 2021-06-10
JP7382633B2 JP7382633B2 (en) 2023-11-17

Family

ID=76220312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220445A Active JP7382633B2 (en) 2019-12-05 2019-12-05 Learning model construction device, learning model construction method, and computer program

Country Status (1)

Country Link
JP (1) JP7382633B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119460A1 (en) * 2021-12-22 2023-06-29 日本電気株式会社 Question prediction system, question prediction method, and program recording medium
WO2023218553A1 (en) 2022-05-11 2023-11-16 株式会社エイゾス Coupled learner formation device, coupled learner formation program, and non-transitory recording medium with a coupled learner formation program recorded therein

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6463572B1 (en) 2017-07-24 2019-02-06 アクシオンリサーチ株式会社 Support system to estimate the internal state of the target system
WO2019229931A1 (en) 2018-05-31 2019-12-05 日本電気株式会社 Information processing device, control method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119460A1 (en) * 2021-12-22 2023-06-29 日本電気株式会社 Question prediction system, question prediction method, and program recording medium
WO2023218553A1 (en) 2022-05-11 2023-11-16 株式会社エイゾス Coupled learner formation device, coupled learner formation program, and non-transitory recording medium with a coupled learner formation program recorded therein

Also Published As

Publication number Publication date
JP7382633B2 (en) 2023-11-17

Similar Documents

Publication Publication Date Title
JP2018063504A (en) Generation model learning method, device and program
US10635975B2 (en) Method and apparatus for machine learning
CN108885787B (en) Method for training image restoration model, image restoration method, device, medium, and apparatus
CN110795569B (en) Method, device and equipment for generating vector representation of knowledge graph
JP6892424B2 (en) Hyperparameter tuning methods, devices and programs
JP7044839B2 (en) End-to-end model training methods and equipment
EP3443450A1 (en) Two-stage training of a spoken dialogue system
JP6712644B2 (en) Acoustic model learning device, method and program
JP2021089655A (en) Learning model construction device, method for constructing learning model, and computer program
JP7058202B2 (en) Information processing method and information processing system
CN114511472A (en) Visual positioning method, device, equipment and medium
KR20210127613A (en) Method and apparatus for generating conversation, electronic device and storage medium
EP3786851A1 (en) Method and apparatus for providing recommendations for completion of an engineering project
CN113965313B (en) Model training method, device, equipment and storage medium based on homomorphic encryption
JP2020064535A (en) Optimization device and method for controlling optimization device
JP2021026291A (en) Learning device, learning method and program
US20220261301A1 (en) Machine learning technique to diagnose software crashes
WO2018135515A1 (en) Information processing device, neural network design method, and recording medium
JP2017058848A (en) Information processing system, information processing method, and program
JP6591945B2 (en) Information terminal, information processing method, program, and information processing system
US20220044121A1 (en) Training device, inferring device, training method, inferring method, and non-transitory computer readable medium
JP7252862B2 (en) Control device, control system and control method
JP2019046188A (en) Sentence generation device, sentence generation learning device, sentence generation method, and program
US11657323B2 (en) Machine learning model accuracy fairness
JP2020198135A (en) Hyper parameter tuning method, device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7382633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150