JP2021089655A - Learning model construction device, method for constructing learning model, and computer program - Google Patents
Learning model construction device, method for constructing learning model, and computer program Download PDFInfo
- Publication number
- JP2021089655A JP2021089655A JP2019220445A JP2019220445A JP2021089655A JP 2021089655 A JP2021089655 A JP 2021089655A JP 2019220445 A JP2019220445 A JP 2019220445A JP 2019220445 A JP2019220445 A JP 2019220445A JP 2021089655 A JP2021089655 A JP 2021089655A
- Authority
- JP
- Japan
- Prior art keywords
- input
- neural network
- data
- training
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 77
- 238000004590 computer program Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 title abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 143
- 238000004519 manufacturing process Methods 0.000 claims abstract description 99
- 238000013528 artificial neural network Methods 0.000 claims abstract description 86
- 238000010801 machine learning Methods 0.000 claims description 25
- 238000013178 mathematical model Methods 0.000 abstract description 7
- 238000010304 firing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004821 distillation Methods 0.000 description 3
- 238000007730 finishing process Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 108700002783 roundabout Proteins 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 238000013530 stochastic neural network Methods 0.000 description 1
Images
Landscapes
- Feedback Control In General (AREA)
Abstract
Description
本発明は、学習モデル構築装置、学習モデル構築方法及びコンピュータプログラムに関する。 The present invention relates to a learning model construction device, a learning model construction method, and a computer program.
入力された情報に基づき予め設定された1又は複数のルールにしたがって予測対象の状態を予想するプロダクションシステムという数理モデルがある。プロダクションシステムにおいて、予め設定されたルールはプロダクションシステムの設計者が予め想定したルールである。より具体的には、予め設定されたルールは、プロダクションシステムの設計者が予め入力される情報を想定し、その想定した情報に基づいてプロダクションシステムの設計者が設定したルールである。このようなプロダクションシステムの使用例としては、例えば、自然言語処理での使用が挙げられる。このような場合、プロダクションシステムは入力された文中に予め定められた特定の用語があるか否かを判定することで、入力された文が示す意味を判定する。 There is a mathematical model called a production system that predicts the state of the prediction target according to one or a plurality of preset rules based on the input information. In the production system, the preset rules are the rules assumed in advance by the designer of the production system. More specifically, the preset rule is a rule set by the designer of the production system based on the information input in advance by the designer of the production system. Examples of the use of such a production system include use in natural language processing. In such a case, the production system determines the meaning of the input sentence by determining whether or not there is a predetermined specific term in the input sentence.
ところで、上述したようにプロダクションシステムにおけるルールは、設計者の想定した入力に対して設定されたものである。そのため、プロダクションシステムは、設計者の想定と異なる入力が行われた場合に適切な予測結果を出力できない、という問題がある。例えば、上述の自然言語処理に利用される場合であれば、入力された文が設計者の想定を超えた遠回しな表現で意味を伝える文である場合にプロダクションシステムは入力された文が示す意味を予測することができない場合がある。 By the way, as described above, the rules in the production system are set for the input assumed by the designer. Therefore, there is a problem that the production system cannot output an appropriate prediction result when an input different from the designer's assumption is made. For example, in the case of being used for the above-mentioned natural language processing, when the input sentence is a sentence that conveys the meaning in a roundabout expression beyond the designer's expectation, the production system has the meaning indicated by the input sentence. May not be predictable.
上記事情に鑑み、本発明は、プロダクションシステムよりも予測の精度が高い数理モデルを生成する技術の提供を目的とする。 In view of the above circumstances, an object of the present invention is to provide a technique for generating a mathematical model having higher prediction accuracy than a production system.
本発明の一態様は、機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得部と、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得部と、前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって学習する第1のニューラルネットワークである第1層学習部と、前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習する第2のニューラルネットワークである第2層学習部と、前記第1層学習部によって得られる学習済みモデルである第1学習済みモデルの出力が前記第2層学習部によって得られる学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキング部と、を備える学習モデル構築装置である。 One aspect of the present invention is the construction input data input to the production system to be converted into the neural network learned by the machine learning method, and the production system when the construction input data is input. The first training information acquisition unit that acquires the first training information indicating the information indicating the ignition rule, the information indicating the rule that ignites in the production system when the construction input data is input, and the construction Description of the second training information acquisition unit that acquires the second training information indicating the production output that is the output of the production system when the input data is input, and the training data for the construction input data of the first training information. The first layer learning unit, which is a first neural network that is used as a variable and uses the information indicating the rule of the first training information as the objective variable of the training data to be learned by the machine learning method, and the rule of the second training information. The second layer learning unit, which is a second neural network that learns by a machine learning method that uses the information indicating the above as an explanatory variable of the training data and uses the production output of the second training data as the objective variable of the training data, and the above. The first trained model, which is a trained model obtained by the first layer learning unit, is a trained model in which the output of the first trained model is input to the second trained model, which is the trained model obtained by the second layer learning unit. 3 Learning including a stacking unit that connects the first neural network and the second neural network so that the trained model is expressed by using the first neural network and the second neural network. It is a model building device.
本発明の一態様は、上記の学習モデル構築装置であって、前記第3学習済みモデルに入力されるデータを訓練データの説明変数として用い、前記データが入力された場合の前記第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習する第3のニューラルネットワークである第3層学習部、をさらに備える。 One aspect of the present invention is the above-mentioned learning model construction device, in which the data input to the third trained model is used as an explanatory variable of the training data, and the third trained when the data is input. It further includes a third layer learning unit, which is a third neural network that learns by a machine learning method that uses the output of the model as an objective variable of training data.
本発明の一態様は、上記の学習モデル構築装置であって、前記第3のニューラルネットワークは、前記第3学習済みモデルの生成後に、さらに、追加で入力された訓練データである追加訓練データに基づいてさらに学習する。 One aspect of the present invention is the training model construction device, and the third neural network is added to additional training data which is training data additionally input after the generation of the third trained model. Learn more based on.
本発明の一態様は、上記の学習モデル構築装置であって、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度である基準一致度よりも低いという条件を第1説明変数条件とし、前記第1説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第1目的変数条件とし、説明変数が前記プロダクションシステムに入力された場合のプロダクション出力と説明変数の情報に対してユーザが決定した教師データとの一致度が前記基準一致度以上という条件を第2説明変数条件とし、前記第2説明変数条件を満たす前記説明変数に対してユーザが決定した教師データであるという条件を第2目的変数条件として、説明変数が前記第1説明変数条件を満たし目的変数が前記第1目的変数条件を満たす訓練データと、説明変数が前記第2説明変数条件を満たし目的変数が前記第2目的変数条件を満たす訓練データと、を前記追加訓練データは含む。 One aspect of the present invention is the above-mentioned learning model construction device, in which the degree of agreement between the production output when the explanatory variables are input to the production system and the teacher data determined by the user with respect to the information of the explanatory variables is. The first explanatory variable condition is a condition that is lower than the standard matching degree, which is a predetermined matching degree, and the first purpose is the condition that the teacher data is determined by the user for the explanatory variable that satisfies the first explanatory variable condition. The second explanatory variable condition is a variable condition in which the degree of agreement between the production output when the explanatory variable is input to the production system and the teacher data determined by the user with respect to the information of the explanatory variable is equal to or higher than the reference degree of agreement. As a second objective variable condition, the condition that the teacher data is determined by the user for the explanatory variable satisfying the second explanatory variable condition is set as the second objective variable condition, the explanatory variable satisfies the first explanatory variable condition, and the objective variable is the first objective variable. The additional training data includes training data satisfying one objective variable condition and training data in which the explanatory variable satisfies the second explanatory variable condition and the objective variable satisfies the second objective variable condition.
本発明の一態様は、上記の学習モデル構築装置であって、前記第2のニューラルネットワークは、さらに、構築用入力データとプロダクション出力との組のデータであるプロダクション入出力訓練情報に基づいて学習する。 One aspect of the present invention is the above-mentioned learning model construction device, and the second neural network further learns based on production input / output training information which is a set of data of a construction input data and a production output. To do.
本発明の一態様は、機械学習の手法によって学習するニューラルネットワークへ変換される対象であるプロダクションシステムに入力される構築用入力データと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報とを示す第1訓練情報を取得する第1訓練情報取得ステップと、前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得ステップと、前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって第1のニューラルネットワークが学習する第1層学習ステップと、前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2のニューラルネットワークが学習する第2層学習ステップと、前記第1層学習ステップにおいて得られた学習済みモデルである第1学習済みモデルの出力が前記第2層学習ステップにおいて得られた学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキングステップと、を有する学習モデル構築方法である。 One aspect of the present invention is the construction input data input to the production system to be converted into the neural network learned by the machine learning method, and the production system when the construction input data is input. The first training information acquisition step for acquiring the first training information indicating the information indicating the firing rule, the information indicating the rule indicating the firing rule in the production system when the construction input data is input, and the construction Explanation of the second training information acquisition step for acquiring the second training information indicating the production output which is the output of the production system when the input data is input, and the training data for the construction input data of the first training information. The first layer learning step that the first neural network learns by the machine learning method that uses the information indicating the rule of the first training information as a variable and uses the information indicating the rule of the first training data as the objective variable of the training data, and the rule of the second training information. The second layer learning step in which the second neural network learns by a machine learning method using the indicated information as an explanatory variable of the training data and the production output of the second training data as the objective variable of the training data, and the first The output of the first trained model, which is the trained model obtained in the layer learning step, is the trained model that is input to the second trained model, which is the trained model obtained in the second layer learning step. 3 Learning having a stacking step for connecting the first neural network and the second neural network so as to represent the trained model using the first neural network and the second neural network. This is a model construction method.
本発明の一態様は、上記の学習モデル構築装置としてコンピュータを機能させるためのコンピュータプログラムである。 One aspect of the present invention is a computer program for operating a computer as the above-mentioned learning model construction device.
本発明により、プロダクションシステムよりも予測の精度が高い数理モデルを生成することが可能となる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to generate a mathematical model with higher prediction accuracy than a production system.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、実施形態の学習モデル構築装置1の動作の概要を説明する説明図である。
学習モデル構築装置1は、構築用入力データと、プロダクション出力と、発火ルール情報とに基づいて、変換対象のプロダクションシステム9を機械学習の手法によって学習するニューラルネットワークへ変換する。構築用入力データは、プロダクションシステム9に入力される情報である。プロダクション出力は、構築用入力データが入力された場合のプロダクションシステム9の出力である。発火ルール情報は、構築用入力データが入力された場合にプロダクションシステム9において発火するルール(以下「発火ルール」という。)を示す情報である。
FIG. 1 is an explanatory diagram illustrating an outline of the operation of the learning
The learning
プロダクションシステム9をニューラルネットワークへ変換するとは、被構築モデルを表現するニューラルネットワークを生成することを意味する。被構築モデルは、想定内入力データが入力された場合に、プロダクションシステム9に想定内入力データが入力された場合にプロダクションシステム9が出力する情報との違いが所定の違いよりも小さい情報を出力する学習済みモデルである。所定の違いの一例としては、例えば出力する情報がベクトルである場合、Cos類似度推定法に基づくベクトル同士の類似度が、プロダクションシステム9が出力するベクトルと被構築モデルが出力するベクトルとの間で所定の範囲内にあるものである。また、被構築モデルは、想定内入力データ以外の情報が入力された場合に学習結果に基づいた予測結果を出力する学習済みモデルである。想定内入力データは、プロダクションシステム9に入力された場合にプロダクションシステム9が適切な予測を行うことができると、プロダクションシステム9の設計者が予め想定した入力である。 Converting the production system 9 to a neural network means generating a neural network that represents the model to be constructed. The built model outputs information in which the difference from the information output by the production system 9 when the expected input data is input to the production system 9 is smaller than the predetermined difference when the expected input data is input. It is a trained model to do. As an example of a predetermined difference, for example, when the information to be output is a vector, the similarity between the vectors based on the Cos similarity estimation method is between the vector output by the production system 9 and the vector output by the model to be constructed. Is within the specified range. The constructed model is a trained model that outputs a prediction result based on the learning result when information other than the expected input data is input. The expected input data is an input that the designer of the production system 9 assumes in advance that the production system 9 can make an appropriate prediction when it is input to the production system 9.
学習モデル構築装置1は、第1訓練情報に基づき、第1学習済みモデルを生成する。第1訓練情報は、構築用入力データと発火ルール情報が示す発火ルールとを示す情報である。すなわち、第1訓練情報は、構築用入力データと発火ルール情報との組の情報である。また、第1訓練情報は、第1学習済みモデルを生成するための訓練データである。
The learning
第1学習済みモデルは、想定内入力データが入力された場合に、入力された想定内入力データの示す情報がプロダクションシステム9に入力された場合にプロダクションシステム9において発火すると予想されるルールを示す情報を出力する。 The first trained model shows a rule that is expected to fire in the production system 9 when the information indicated by the input expected input data is input to the production system 9 when the expected input data is input. Output information.
学習モデル構築装置1は、より具体的には、構築用入力データを訓練データの説明変数として用い発火ルール情報を訓練データの目的変数として用いる機械学習の手法によって第1学習済みモデルを生成する。
More specifically, the training
学習モデル構築装置1は、第2訓練情報に基づき、第2学習済みモデルを生成する。第1訓練情報は、発火ルール情報が示す発火ルールとプロダクション出力とを示す情報である。すなわち、第2訓練情報は、発火ルール情報とプロダクション出力との組の情報である。また、第2訓練情報は、第2学習済みモデルを生成するための訓練データである。
The learning
第2学習済みモデルは、想定内発火ルール情報が入力された場合に、入力された想定内発火ルール情報の示す発火ルールがプロダクションシステム9において発火した場合にプロダクションシステム9が出力すると予想されるプロダクション出力を出力する。想定内発火ルール情報は、想定内入力データがプロダクションシステム9に入力された場合にプロダクションシステム9において発火するルールを示す情報である。 The second trained model is a production that is expected to be output by the production system 9 when the expected ignition rule information is input and the ignition rule indicated by the input expected ignition rule information is ignited in the production system 9. Output the output. The expected firing rule information is information indicating a rule for firing in the production system 9 when the expected input data is input to the production system 9.
学習モデル構築装置1は、より具体的には、発火ルール情報を訓練データの説明変数として用いプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2学習済みモデルを生成する。
More specifically, the learning
学習モデル構築装置1は、第1学習済みモデル及び第2学習済みモデルに基づき、被構築モデルを生成する。より具体的には、学習モデル構築装置1は、第1学習済みモデルの出力が第2学習済みモデルに入力されるように接続処理を含む処理(以下「仕上げ処理」という。)を行うことで、被構築モデルを生成する。接続処理は、第1学習済みモデルを表現するニューラルネットワークと第2学習済みモデルを表現するニューラルネットワークとを接続する処理である。仕上げ処理は、例えば、接続処理に加えて、いわゆる蒸留の処理を含んでもよい。具体的には、仕上げ処理では、接続処理の実行後に蒸留の処理が実行されてもよい。
The learning
図2は、実施形態の学習モデル構築装置1のハードウェア構成の一例を示す図である。学習モデル構築装置1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、プログラムを実行することによって制御部10、インタフェース部11、記憶部12、入力部13及び出力部14を備える装置として機能する。
FIG. 2 is a diagram showing an example of the hardware configuration of the learning
より具体的には、学習モデル構築装置1は、プロセッサ91が記憶部12に記憶されているプログラムを読み出し、読み出したプログラムをメモリ92に記憶させる。プロセッサ91が、メモリ92に記憶させたプログラムを実行することによって、学習モデル構築装置1は、制御部10、インタフェース部11、記憶部12、入力部13及び出力部14を備える装置として機能する。
More specifically, in the learning
学習モデル構築装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。プログラムは、電気通信回線を介して送信されてもよい。
All or a part of each function of the learning
インタフェース部11は、自装置を、プロダクションシステム9等の外部装置に接続するための通信インタフェースを含んで構成される。インタフェース部11は、例えばネットワークを介して、例えば、プロダクションシステム9と通信する。インタフェース部11は、プロダクションシステム9との通信によって、プロダクションシステム9から、構築用入力データ、発火ルール及びプロダクション出力を取得する。外部装置の1つは、例えば、USB(Universal Serial Bus)メモリ等の外部記憶装置であってもよい。インタフェース部11は、USB(Universal Serial Bus)メモリ等の外部記憶装置に、学習モデル構築装置1が生成した被構築モデルを表すプログラムを出力する。
The
記憶部12は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部12は学習モデル構築装置1に関する各種情報を記憶する。記憶部12は、例えば、プロダクションシステム9から取得した構築用入力データ、発火ルール及びプロダクション出力を記憶する。
The
入力部13は、マウスやキーボード、タッチパネル等の入力装置を含んで構成される。入力部13は、これらの入力装置を自装置に接続するインタフェースとして構成されてもよい。入力部13は、自装置に対する各種情報の入力を受け付ける。各種情報は、例えば、学習モデル構築装置1に対する学習開始の指示を示す情報である。
The
出力部14は、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を含んで構成される。出力部14は、これらの表示装置を自装置に接続するインタフェースとして構成されてもよい。出力部14は、自装置に関する情報を表示する。
The
図3は、実施形態における制御部10の機能構成の一例を示す図である。制御部10は、第1訓練情報取得部111、第2訓練情報取得部112、第1層学習部113、第2層学習部114、スタッキング部115、第3層学習部116及びインタフェース制御部117を備える。
FIG. 3 is a diagram showing an example of the functional configuration of the
第1訓練情報取得部111は、インタフェース部11を介して、第1訓練情報を取得する。第2訓練情報取得部112は、インタフェース部11を介して、第2訓練情報を取得する。
The first training
第1層学習部113は、第1訓練情報の構築用入力データを訓練データの説明変数として用い、第1訓練情報の発火ルール情報を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。以下、第1層学習部113のニューラルネットワークを第1のニューラルネットワークという。第1のニューラルネットワークが表現する学習モデルの学習済みモデルが第1学習済みモデルである。第1層学習部113は、第1訓練情報に基づく学習によって第1学習済みモデルを生成する。すなわち、第1学習済みモデルは、第1層学習部によって得られる学習済みモデルである。
The first
第2層学習部114は、第2訓練情報の発火ルール情報を訓練データの説明変数として用い、第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。以下、第2層学習部114のニューラルネットワークを第2のニューラルネットワークという。第2のニューラルネットワークが表現する学習モデルの学習済みモデルが第2学習済みモデルである。第2層学習部114は、第2訓練情報に基づく学習によって第2学習済みモデルを生成する。すなわち、第2学習済みモデルは、第2層学習部によって得られる学習済みモデルである。
The second
スタッキング部115は、第3学習済みモデルを第1のニューラルネットワークと第2のニューラルネットワークとを用いて表現するように第1のニューラルネットワークと第2のニューラルネットワークとを接続する。すなわち、スタッキング部115は、第1のニューラルネットワークの出力を第2のニューラルネットワークに入力させる。第3学習済みモデルは、第1学習済みモデルと第2学習済みモデルとを含む学習済みモデルであって第1学習済みモデルの出力が第2学習済みモデルに入力される学習済みモデルである。第3学習済みモデルは被構築モデルの一例である。スタッキング部115が実行する処理は、接続処理の一例である。
The stacking
以下、第1のニューラルネットワーク及び第2のニューラルネットワークを含み、第1のニューラルネットワークの出力が第2のニューラルネットワークの入力であるニューラルネットワークをスタックトニューラルネットワークという。スタックトニューラルネットワークが表現する学習モデルの学習済みモデルは、被構築モデルの一例である。 Hereinafter, a neural network including a first neural network and a second neural network and whose output of the first neural network is an input of the second neural network is referred to as a stacked neural network. The trained model of the training model represented by the stacked neural network is an example of the model to be constructed.
第3層学習部116は、継承用データを訓練データの説明変数として用い継承用データが入力された場合の第3学習済みモデルの出力を訓練データの目的変数として用いる機械学習の手法によって学習するニューラルネットワークである。継承用データは、第3学習済みモデルに入力されるデータである。以下、第3層学習部116のニューラルネットワークを第3のニューラルネットワークという。第3層学習部116は、第3訓練情報に基づく学習によって、被継承学習済みモデルを生成する。
The third
被継承学習済みモデルは、第3のニューラルネットワークが表現する学習モデルの学習済みモデルである。第3訓練情報は、継承用データと、継承用データが入力された場合の第3学習済みモデルの出力とを示す情報である。すなわち、第3訓練情報は、継承用データと継承用データが入力された場合の第3学習済みモデルの出力との組の情報である。第3層学習部116が実行する処理は、いわゆる蒸留の処理である。第3層学習部116が実行する処理は、いわゆるGAN(Generative Adversarial Networks)を用いて行われてもよい。被継承学習済みモデルは被構築モデルの一例である。
The inherited trained model is a trained model of the learning model represented by the third neural network. The third training information is information indicating the inheritance data and the output of the third trained model when the inheritance data is input. That is, the third training information is a set of information of the inheritance data and the output of the third trained model when the inheritance data is input. The process executed by the third
インタフェース制御部117は、インタフェース部11の動作を制御する。インタフェース制御部117は、例えば、インタフェース部11の動作を制御して被構築モデルを外部装置に出力する。
The
図4は、実施形態の学習モデル構築装置1が実行する処理の流れの一例を示すフローチャートである。
第1訓練情報取得部111が、第1訓練情報を取得する(ステップS101)。次に、第2訓練情報取得部112が、第2訓練情報を取得する(ステップS102)。次に、第1層学習部113が、第1訓練情報の構築用入力データを訓練データの説明変数として用い第1訓練情報の発火ルール情報を訓練データの目的変数として用いる機械学習の手法を用いて、第1学習済みモデルを生成する(ステップS103)。次に、第2層学習部114が、第2訓練情報の発火ルール情報を訓練データの説明変数として用い第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法を用いて、第2学習済みモデルを生成する(ステップS104)。
FIG. 4 is a flowchart showing an example of the flow of processing executed by the learning
The first training
次に、スタッキング部115が、第3学習済みモデルを第1のニューラルネットワークと第2のニューラルネットワークとを用いて表現するように第1のニューラルネットワークと第2のニューラルネットワークとを接続する(ステップS105)。次に、第3層学習部116は、第3訓練情報に基づく学習によって、被継承学習済みモデルを生成する(ステップS106)。
Next, the stacking
このように構成された実施形態の学習モデル構築装置1は、構築用入力データ、発火ルール情報及びプロダクション出力を用いた機械学習により、被構築モデルを生成する。機械学習の手法で生成された学習済みモデルは外挿の機能を備える数理モデルであるため、学習済みモデルは、学習段階では学習しなかった情報が入力された場合であっても精度の高い予測結果を出力することができる。このように、学習モデル構築装置1は、プロダクションシステムよりも予測の精度が高い数理モデルを生成することができる。
The learning
また、このように構成された実施形態の学習モデル構築装置1は、構築用入力データ及びプロダクション出力に加えて、発火ルール情報も用いて学習する。そのため、構築用入力データ及びプロダクション出力だけを用いた機械学習よりも、予測の精度が高い数理モデルを生成することができる。
Further, the learning
(変形例)
第2のニューラルネットワークは、第2訓練情報だけでなく、さらに、プロダクション入出力訓練情報に基づいて学習してもよい。プロダクション入出力訓練情報は、構築用入力データとプロダクション出力との組のデータである。
(Modification example)
The second neural network may be learned not only based on the second training information but also based on the production input / output training information. The production input / output training information is a set of data of the construction input data and the production output.
このような場合、第2のニューラルネットワークは、第2訓練情報が示す説明変数と目的変数との関係が正しい確率を、構築用入力データとプロダクション出力との関係に基づいて推定しながら学習することができる。そのため、第2訓練情報及びプロダクション入出力訓練情報を用いて学習した結果の第2学習済みモデルは、第2訓練情報だけを用いて学習した第2学習済みモデルよりも、精度のよい結果を出力することができる。 In such a case, the second neural network learns while estimating the probability that the relationship between the explanatory variable and the objective variable indicated by the second training information is correct based on the relationship between the construction input data and the production output. Can be done. Therefore, the second trained model as a result of learning using the second training information and the production input / output training information outputs a more accurate result than the second trained model trained using only the second training information. can do.
学習モデル構築装置1は、ステップS106の次に、さらに追加学習してもよい。このような場合、具体的には、第3層学習部116の第3のニューラルネットワークが、追加で入力された訓練データ(以下「追加訓練データ」という。)に基づいてさらに学習する。なお、ステップS106の次とは、第3学習済みモデルの生成後の意味である。
The learning
このような場合、被継承学習済みモデルは、ステップS106の時点よりもさらに学習が進むため、ステップS106の処理で生成された学習済みモデルよりも予測の精度が高い。追加訓練データを用いて被継承学習済みモデルが学習した結果の学習済みモデルも、被構築モデルの一例である。 In such a case, since the inherited trained model is further trained from the time of step S106, the prediction accuracy is higher than that of the trained model generated in the process of step S106. The trained model as a result of learning by the inherited trained model using the additional training data is also an example of the constructed model.
追加訓練データは、例えば、以下の第1説明変数条件及び第1目的変数条件を満たす訓練データ(以下「不一致データ」という。)と、第2説明変数条件及び第2目的変数条件を満たす訓練データ(以下「一致データ」という。)とを含んでもよい。 The additional training data includes, for example, training data satisfying the following first explanatory variable condition and first objective variable condition (hereinafter referred to as “mismatch data”), and training data satisfying the second explanatory variable condition and second objective variable condition. (Hereinafter referred to as "matching data") and may be included.
第1説明変数条件は、説明変数は、説明変数がプロダクションシステム9に入力された場合のプロダクション出力と、説明変数の情報に対してユーザが決定した教師データとの一致度が所定の一致度(以下「基準一致度」という。)よりも低い、という条件である。 The first explanatory variable condition is that the explanatory variable has a predetermined degree of coincidence between the production output when the explanatory variable is input to the production system 9 and the teacher data determined by the user with respect to the information of the explanatory variable. The condition is that it is lower than the "standard degree of agreement").
第1目的変数条件は、第1説明変数条件を満たす説明変数に対してユーザが決定した教師データである、という条件である。 The first objective variable condition is a condition that the teacher data is determined by the user for the explanatory variable satisfying the first explanatory variable condition.
第2説明変数条件は、説明変数は、説明変数がプロダクションシステム9に入力された場合のプロダクション出力と、説明変数の情報に対してユーザが決定した教師データとの一致度が基準一致度以上、という条件である。 The second explanatory variable condition is that the degree of agreement between the production output when the explanatory variable is input to the production system 9 and the teacher data determined by the user with respect to the information of the explanatory variable is equal to or greater than the reference degree. It is a condition.
第2目的変数条件は、第2説明変数条件を満たす説明変数に対してユーザが決定した教師データである、という条件である。 The second objective variable condition is a condition that the teacher data is determined by the user for the explanatory variable satisfying the second explanatory variable condition.
このような場合、被継承学習済みモデルは、プロダクションシステム9の結果のみに基づいて学習した場合よりも正確な情報に基づいて学習する。そのため、一致データ及び不一致データを含む追加訓練データを用いて学習をした学習済みモデルは、ステップS106の処理で生成された学習済みモデルよりも予測の精度が高い。一致データ及び不一致データを含む追加訓練データを用いて被継承学習済みモデルが学習した結果の学習済みモデルも、被構築モデルの一例である。 In such a case, the inherited trained model is trained based on more accurate information than when trained based only on the result of the production system 9. Therefore, the trained model trained using the additional training data including the match data and the mismatch data has higher prediction accuracy than the trained model generated in the process of step S106. The trained model as a result of learning by the inherited trained model using the additional training data including the match data and the mismatch data is also an example of the constructed model.
一致データ及び不一致データを含む追加訓練データを用いて学習する場合には、例えば、学習時の予測で不一致データの予測に失敗した場合に値が大きくなる損失関数を用いて学習が行われてもよい。 When learning using additional training data including match data and mismatch data, for example, even if training is performed using a loss function whose value increases when the prediction of mismatch data fails in the prediction at the time of training. Good.
なお、第1学習済みモデルは、プロダクションシステム9が有するルールごとに各ルールが発火するか否かを判定する識別機を備える学習済みモデルであってもよい。第1学習済みモデルは、プロダクションシステム9が有するルールのいずれが発火したかを示す情報を出力する1つの学習済みモデルであってもよい。 The first trained model may be a trained model provided with a discriminator for determining whether or not each rule fires for each rule of the production system 9. The first trained model may be one trained model that outputs information indicating which of the rules of the production system 9 has fired.
なお、ステップS101及びステップS102は、必ずしも図4に示す順番に実行される必要は無い。ステップS101は、ステップS103の実行前に実行されればどのようなタイミングで実行されてもよい。ステップS102は、ステップS104の実行前に実行されれば、どのようなタイミングで実行されてもよい。なお、ステップS103及びステップS104の処理は、必ずしも図4に示す順番に実行される必要は無い。ステップS103及びステップS104の処理は、ステップS105の処理の実行前に実行されれば、どのようなタイミングで実行されてもよい。例えば、ステップS103の処理は、ステップS105の実行前に実行され、ステップS104の処理がステップS103の処理の実行前に実行されてもよい。 It should be noted that steps S101 and S102 do not necessarily have to be executed in the order shown in FIG. Step S101 may be executed at any timing as long as it is executed before the execution of step S103. Step S102 may be executed at any timing as long as it is executed before the execution of step S104. The processes of steps S103 and S104 do not necessarily have to be executed in the order shown in FIG. The processing of step S103 and step S104 may be executed at any timing as long as it is executed before the processing of step S105 is executed. For example, the process of step S103 may be executed before the execution of step S105, and the process of step S104 may be executed before the execution of the process of step S103.
なお、学習とは、学習モデルのパラメータを好適に調整することである。学習済みモデルは、終了条件が満たされた時点における学習モデルである。終了条件は、学習の終了に関する条件であればどのような条件であってもよい。終了条件は、例えば、所定数の訓練データによる学習が実行された、という条件であってもよいし、学習によるパラメータの変化量が所定の大きさ未満であるという条件であってもよい。 The learning is to appropriately adjust the parameters of the learning model. The trained model is a trained model at the time when the end condition is satisfied. The end condition may be any condition as long as it is a condition related to the end of learning. The end condition may be, for example, a condition that learning with a predetermined number of training data has been executed, or a condition that the amount of change in parameters due to learning is less than a predetermined magnitude.
なお、ニューラルネットワークは、出力結果の精度が所定の精度以上であるニューラルネットワークであればどのようなニューラルネットワークであってもよい。ニューラルネットワークは、例えば、順伝搬型ニューラルネットワークであってもよいし、RBF(Radial Basis Function)ネットワークであってもよい。ニューラルネットワークは、畳み込みニューラルネットワークであってもよいし、再帰型ニューラルネットワークであってもよいし、確率的ニューラルネットワークであってもよい。ニューラルネットワークは、スパイキングニューラルネットワークであってもよいし、複素ニューラルネットワークであってもよい。 The neural network may be any neural network as long as the accuracy of the output result is equal to or higher than a predetermined accuracy. The neural network may be, for example, a forward propagation type neural network or an RBF (Radial Basis Function) network. The neural network may be a convolutional neural network, a recurrent neural network, or a stochastic neural network. The neural network may be a spiking neural network or a complex neural network.
なお、学習モデルのパラメータは、出力結果の精度が高い学習のアルゴリズムであれば、ニューラルネットワークの種類に応じてどのような機械学習のアルゴリズムによって調整されてもよい。例えば、学習モデルのパラメータは、順伝搬型のニューラルネットワーク以外のニューラルネットワークであれば、誤差逆伝搬法のアルゴリズムによって調整されてもよい。 The parameters of the learning model may be adjusted by any machine learning algorithm according to the type of neural network, as long as it is a learning algorithm with high accuracy of the output result. For example, the parameters of the learning model may be adjusted by the algorithm of the error back propagation method if it is a neural network other than the forward propagation type neural network.
学習モデル構築装置1は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、学習モデル構築装置1が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。例えば、第3層学習部116は制御部10が備える他の機能部とは異なる情報処理装置に実装されてもよい。
The learning
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.
1…学習モデル構築装置、 10…制御部、 11…インタフェース部、 12…記憶部、 13…入力部、 14…出力部、 111…第1訓練情報取得部、 112…第2訓練情報取得部、 113…第1層学習部、 114…第2層学習部、 115…スタッキング部、 116…第3層学習部、 117…インタフェース制御部 1 ... Learning model construction device, 10 ... Control unit, 11 ... Interface unit, 12 ... Storage unit, 13 ... Input unit, 14 ... Output unit, 111 ... 1st training information acquisition unit, 112 ... 2nd training information acquisition unit, 113 ... 1st layer learning unit, 114 ... 2nd layer learning unit, 115 ... Stacking unit, 116 ... 3rd layer learning unit, 117 ... Interface control unit
Claims (7)
前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得部と、
前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって学習する第1のニューラルネットワークである第1層学習部と、
前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって学習する第2のニューラルネットワークである第2層学習部と、
前記第1層学習部によって得られる学習済みモデルである第1学習済みモデルの出力が前記第2層学習部によって得られる学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキング部と、
を備える学習モデル構築装置。 Construction input data input to the production system to be converted into a neural network learned by a machine learning method, and information indicating a rule that fires in the production system when the construction input data is input. The first training information acquisition unit that acquires the first training information indicating
Second training information indicating a rule indicating a rule to ignite in the production system when the construction input data is input and a production output which is an output of the production system when the construction input data is input. The second training information acquisition department to acquire
In a first neural network that learns by a machine learning method that uses the input data for constructing the first training information as an explanatory variable of the training data and uses the information indicating the rule of the first training information as the objective variable of the training data. With a certain first layer learning department
A second neural network that learns by a machine learning method that uses information indicating the rules of the second training information as an explanatory variable for training data and uses the production output of the second training information as an objective variable for training data. Two-layer learning department and
It is a trained model in which the output of the first trained model, which is the trained model obtained by the first layer learning unit, is input to the second trained model, which is the trained model obtained by the second layer learning unit. A stacking unit that connects the first neural network and the second neural network so as to express the third trained model using the first neural network and the second neural network, and
A learning model construction device equipped with.
をさらに備える請求項1に記載の学習モデル構築装置。 Learning by a machine learning method in which the data input to the third trained model is used as an explanatory variable of the training data and the output of the third trained model when the data is input is used as the objective variable of the training data. Third layer learning unit, which is the third neural network
The learning model construction apparatus according to claim 1.
請求項2に記載の学習モデル構築装置。 After the generation of the third trained model, the third neural network further learns based on the additional training data which is the additional training data input.
The learning model building apparatus according to claim 2.
請求項3に記載の学習モデル構築装置。 The first condition is that the degree of agreement between the production output when the explanatory variable is input to the production system and the teacher data determined by the user with respect to the information of the explanatory variable is lower than the reference degree of agreement, which is a predetermined degree of agreement. Production when the explanatory variable is input to the production system, with the condition that the explanatory variable condition is the teacher data determined by the user for the explanatory variable satisfying the first explanatory variable condition as the first objective variable condition. The condition that the degree of matching between the output and the information of the explanatory variable with the teacher data determined by the user is equal to or higher than the reference degree of matching is set as the second explanatory variable condition, and the user with respect to the explanatory variable satisfying the second explanatory variable condition As the second objective variable condition, the training data that the explanatory variable satisfies the first explanatory variable condition and the objective variable satisfies the first objective variable condition, and the explanatory variable is the second objective variable condition. The additional training data includes training data that satisfies the variable condition and the objective variable satisfies the second objective variable condition.
The learning model building apparatus according to claim 3.
請求項1から4のいずれか一項に記載の学習モデル構築装置。
The second neural network further learns based on the production input / output training information, which is a set of data of the construction input data and the production output.
The learning model construction device according to any one of claims 1 to 4.
前記構築用入力データが入力された場合に前記プロダクションシステムにおいて発火するルールを示す情報と、前記構築用入力データが入力された場合の前記プロダクションシステムの出力であるプロダクション出力とを示す第2訓練情報を取得する第2訓練情報取得ステップと、
前記第1訓練情報の構築用入力データを訓練データの説明変数として用い、前記第1訓練情報のルールを示す情報を訓練データの目的変数として用いる機械学習の手法によって第1のニューラルネットワークが学習する第1層学習ステップと、
前記第2訓練情報のルールを示す情報を訓練データの説明変数として用い、前記第2訓練情報のプロダクション出力を訓練データの目的変数として用いる機械学習の手法によって第2のニューラルネットワークが学習する第2層学習ステップと、
前記第1層学習ステップにおいて得られた学習済みモデルである第1学習済みモデルの出力が前記第2層学習ステップにおいて得られた学習済みモデルである第2学習済みモデルに入力される学習済みモデルである第3学習済みモデルを前記第1のニューラルネットワークと前記第2のニューラルネットワークとを用いて表現するように前記第1のニューラルネットワークと前記第2のニューラルネットワークとを接続するスタッキングステップと、
を有する学習モデル構築方法。 Construction input data input to the production system to be converted into a neural network learned by a machine learning method, and information indicating a rule that fires in the production system when the construction input data is input. The first training information acquisition step to acquire the first training information indicating
Second training information indicating a rule indicating a rule to ignite in the production system when the construction input data is input and a production output which is an output of the production system when the construction input data is input. The second training information acquisition step to acquire
The first neural network learns by a machine learning method in which the input data for constructing the first training information is used as an explanatory variable of the training data and the information indicating the rule of the first training information is used as the objective variable of the training data. First layer learning step and
The second neural network learns by a machine learning method in which the information indicating the rule of the second training information is used as an explanatory variable of the training data and the production output of the second training information is used as the objective variable of the training data. Layer learning steps and
A trained model in which the output of the first trained model, which is the trained model obtained in the first layer learning step, is input to the second trained model, which is the trained model obtained in the second layer learning step. A stacking step for connecting the first neural network and the second neural network so as to represent the third trained model using the first neural network and the second neural network.
How to build a learning model with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220445A JP7382633B2 (en) | 2019-12-05 | 2019-12-05 | Learning model construction device, learning model construction method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220445A JP7382633B2 (en) | 2019-12-05 | 2019-12-05 | Learning model construction device, learning model construction method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021089655A true JP2021089655A (en) | 2021-06-10 |
JP7382633B2 JP7382633B2 (en) | 2023-11-17 |
Family
ID=76220312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019220445A Active JP7382633B2 (en) | 2019-12-05 | 2019-12-05 | Learning model construction device, learning model construction method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7382633B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023119460A1 (en) * | 2021-12-22 | 2023-06-29 | 日本電気株式会社 | Question prediction system, question prediction method, and program recording medium |
WO2023218553A1 (en) | 2022-05-11 | 2023-11-16 | 株式会社エイゾス | Coupled learner formation device, coupled learner formation program, and non-transitory recording medium with a coupled learner formation program recorded therein |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6463572B1 (en) | 2017-07-24 | 2019-02-06 | アクシオンリサーチ株式会社 | Support system to estimate the internal state of the target system |
WO2019229931A1 (en) | 2018-05-31 | 2019-12-05 | 日本電気株式会社 | Information processing device, control method, and program |
-
2019
- 2019-12-05 JP JP2019220445A patent/JP7382633B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023119460A1 (en) * | 2021-12-22 | 2023-06-29 | 日本電気株式会社 | Question prediction system, question prediction method, and program recording medium |
WO2023218553A1 (en) | 2022-05-11 | 2023-11-16 | 株式会社エイゾス | Coupled learner formation device, coupled learner formation program, and non-transitory recording medium with a coupled learner formation program recorded therein |
Also Published As
Publication number | Publication date |
---|---|
JP7382633B2 (en) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018063504A (en) | Generation model learning method, device and program | |
US10635975B2 (en) | Method and apparatus for machine learning | |
CN108885787B (en) | Method for training image restoration model, image restoration method, device, medium, and apparatus | |
CN110795569B (en) | Method, device and equipment for generating vector representation of knowledge graph | |
JP6892424B2 (en) | Hyperparameter tuning methods, devices and programs | |
JP7044839B2 (en) | End-to-end model training methods and equipment | |
EP3443450A1 (en) | Two-stage training of a spoken dialogue system | |
JP6712644B2 (en) | Acoustic model learning device, method and program | |
JP2021089655A (en) | Learning model construction device, method for constructing learning model, and computer program | |
JP7058202B2 (en) | Information processing method and information processing system | |
CN114511472A (en) | Visual positioning method, device, equipment and medium | |
KR20210127613A (en) | Method and apparatus for generating conversation, electronic device and storage medium | |
EP3786851A1 (en) | Method and apparatus for providing recommendations for completion of an engineering project | |
CN113965313B (en) | Model training method, device, equipment and storage medium based on homomorphic encryption | |
JP2020064535A (en) | Optimization device and method for controlling optimization device | |
JP2021026291A (en) | Learning device, learning method and program | |
US20220261301A1 (en) | Machine learning technique to diagnose software crashes | |
WO2018135515A1 (en) | Information processing device, neural network design method, and recording medium | |
JP2017058848A (en) | Information processing system, information processing method, and program | |
JP6591945B2 (en) | Information terminal, information processing method, program, and information processing system | |
US20220044121A1 (en) | Training device, inferring device, training method, inferring method, and non-transitory computer readable medium | |
JP7252862B2 (en) | Control device, control system and control method | |
JP2019046188A (en) | Sentence generation device, sentence generation learning device, sentence generation method, and program | |
US11657323B2 (en) | Machine learning model accuracy fairness | |
JP2020198135A (en) | Hyper parameter tuning method, device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7382633 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |