JP7058202B2 - Information processing method and information processing system - Google Patents

Information processing method and information processing system Download PDF

Info

Publication number
JP7058202B2
JP7058202B2 JP2018177725A JP2018177725A JP7058202B2 JP 7058202 B2 JP7058202 B2 JP 7058202B2 JP 2018177725 A JP2018177725 A JP 2018177725A JP 2018177725 A JP2018177725 A JP 2018177725A JP 7058202 B2 JP7058202 B2 JP 7058202B2
Authority
JP
Japan
Prior art keywords
data
learning model
learning
model
output data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018177725A
Other languages
Japanese (ja)
Other versions
JP2019133626A (en
Inventor
洋平 中田
宗太郎 築澤
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN201910063043.7A priority Critical patent/CN110097191B/en
Priority to EP19153167.2A priority patent/EP3518151A1/en
Priority to US16/256,335 priority patent/US10885447B2/en
Publication of JP2019133626A publication Critical patent/JP2019133626A/en
Priority to US17/109,687 priority patent/US11694099B2/en
Application granted granted Critical
Publication of JP7058202B2 publication Critical patent/JP7058202B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Description

本発明は、学習モデルを実行する情報処理システム及び当該情報処理システムで行われる情報処理方法に関する。 The present invention relates to an information processing system that executes a learning model and an information processing method performed by the information processing system.

近年、機械学習によって得られる学習モデルを軽量化して組込システムへ適用することに関連する技術が提案されている。このように提案される技術には、適用後の組込システムでの学習モデルの性能を高めるための手法がある(例えば特許文献1及び非特許文献1参照)。 In recent years, techniques related to reducing the weight of the learning model obtained by machine learning and applying it to an embedded system have been proposed. The technique proposed in this way includes a method for improving the performance of the learning model in the embedded system after application (see, for example, Patent Document 1 and Non-Patent Document 1).

国際公開第2017/038104号International Publication No. 2017/038104

Benoit Jacob、他7名、"Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference"、[online]、インターネット〈URL:https://arxiv.org/abs/1712.05877〉Benoit Jacob, 7 others, "Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference", [online], Internet <URL: https://arxiv.org/abs/1712.05877>

しかしながら、学習モデルを変換する変換ツールの変換内容が不明(すなわち変換ツールがブラックボックス)である場合には、上記従来技術を利用することができない。 However, when the conversion content of the conversion tool that converts the learning model is unknown (that is, the conversion tool is a black box), the above-mentioned conventional technique cannot be used.

そこで本発明は、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる情報処理方法等を提供する。 Therefore, the present invention provides an information processing method and the like that can improve the performance of the learning model after conversion even if the conversion content of the conversion tool for converting the learning model is unknown.

本発明の一態様に係る情報処理方法は、コンピュータを用いて、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う情報処理方法である。 In the information processing method according to one aspect of the present invention, the output data of the first learning model is used as training data by using a computer, and the output data of the second learning model obtained by the conversion of the first learning model is correctly answered. The first output data corresponding to the first input data to the first training model is input to the third training model obtained by the training used as data to acquire the second output data, and the first input data is used. It is an information processing method that acquires the first correct answer data and relearns the first learning model by using the first difference data corresponding to the difference between the second output data and the first correct answer data.

また、本発明の一態様に係る情報処理システムは、コンピュータを備える情報処理システムであって、前記コンピュータは、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う。 Further, the information processing system according to one aspect of the present invention is an information processing system including a computer, in which the computer uses the output data of the first learning model as training data and is converted by the first learning model. The first output data corresponding to the first input data to the first learning model is input to the third learning model obtained by learning using the output data of the obtained second learning model as correct answer data, and the second output is performed. Data is acquired, the first correct answer data for the first input data is acquired, and the first difference data corresponding to the difference between the second output data and the first correct answer data is used to obtain the first learning model. Relearn.

なお、本発明のこの包括的又は具体的な態様は、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that this comprehensive or specific embodiment of the present invention may be realized by a recording medium such as a device, an integrated circuit, a computer program or a computer-readable CD-ROM, and the device, system, method, integrated circuit, etc. It may be realized by any combination of a computer program and a recording medium.

本発明の情報処理方法及び情報処理システムでは、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる。 In the information processing method and the information processing system of the present invention, even if the conversion content of the conversion tool for converting the learning model is unknown, the performance of the learning model after conversion can be improved.

図1は、学習モデルの学習及び組込システムへの適用の概要を説明するための図である。FIG. 1 is a diagram for explaining an outline of learning of a learning model and application to an embedded system. 図2は、実施の形態における、組込システムでのモデルの出力の損失を学習モデルに反映するための仕組みの概要を説明するための図である。FIG. 2 is a diagram for explaining an outline of the mechanism for reflecting the loss of the output of the model in the embedded system in the learning model in the embodiment. 図3は、実施の形態における再学習の工程を実現する情報処理システムの機能構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of an information processing system that realizes the relearning process in the embodiment. 図4は、実施の形態におけるデータの流れを時系列的に示すシーケンス図である。FIG. 4 is a sequence diagram showing the flow of data in the embodiment in chronological order. 図5は、実施の形態の変形例における、組込システムでのモデルの出力の損失を学習モデルに反映するための仕組みの概要を説明するための図である。FIG. 5 is a diagram for explaining an outline of a mechanism for reflecting a loss of model output in an embedded system in a learning model in a modified example of the embodiment.

(本発明の基礎となった知見)
本発明者らは、上述した機械学習によって得られるモデル(以下、学習モデルともいう)を軽量化しての組込システムへの適用に関して以下の問題が生じることを見出した。
(Knowledge that became the basis of the present invention)
The present inventors have found that the following problems arise with respect to the application of the above-mentioned model obtained by machine learning (hereinafter, also referred to as a learning model) to an embedded system by reducing the weight.

組込システムは通常、演算速度、メモリサイズ、供給可能な電力量の面で、学習モデルが構築される環境に劣る。例えば学習には、より高い精度を求めて、FP32(32ビット浮動小数点)等の数値表現が用いられ、またこのような大きさの数値表現であってもより短い時間で処理ができるようなコンピュータが用いられる。その一方で組込システムは、その組込先である機器に応じて処理回路の規模が制限される。また、自動車のように利用できる電力にも制限がある環境で使用される組込システムには、処理回路の選択に消費電力も考慮される必要がある。 Embedded systems are usually inferior to the environment in which the learning model is built in terms of computing speed, memory size, and the amount of power that can be supplied. For example, for learning, a numerical expression such as FP32 (32-bit floating point) is used for higher accuracy, and a computer that can process a numerical expression of such a size in a shorter time. Is used. On the other hand, in the embedded system, the scale of the processing circuit is limited depending on the device to which the embedded system is embedded. In addition, for embedded systems used in environments where the available power is limited, such as automobiles, it is necessary to consider power consumption when selecting the processing circuit.

上記のようなコンピュータで構築された学習モデルは、これらの制限下でも要求される速度で実行が可能なように、軽量化のための変換を行った上で組込システムに実装される。図1は、学習モデルの構築とその組込システムへの適用の概要を説明するための図である。この例では、学習部での学習処理によりニューラルネットワーク型の学習モデルLMが構築されている。学習部は、例えば商用電源の供給を受けて動作するパーソナルコンピュータ上で所定のプログラムが実行されることで構築される機能的構成であり、FP32の数値表現を用いて学習処理を行う。そして、このニューラルネットワークのパラメタである、ノードに対応する重み1A、2A及び3Aが、量子化ツールによって16ビット又は8ビット等のより少ない桁数での整数表現に変換、つまり量子化されたものが、重み1a、2a及び3aである。これらのパラメタを含む学習モデルlmは元の学習モデルLMよりも実行の負荷が小さいため、パーソナルコンピュータのものより処理速度が遅いプロセッサ及び小さなメモリを備える組込システム上での処理時間の短縮に貢献する。 The learning model built on the computer as described above is implemented in the embedded system after being converted for weight reduction so that it can be executed at the required speed even under these restrictions. FIG. 1 is a diagram for explaining an outline of construction of a learning model and its application to an embedded system. In this example, a neural network type learning model LM is constructed by the learning process in the learning unit. The learning unit has, for example, a functional configuration constructed by executing a predetermined program on a personal computer that operates under the supply of commercial power, and performs learning processing using the numerical representation of FP32. Then, the weights 1A, 2A, and 3A corresponding to the nodes, which are the parameters of this neural network, are converted into an integer representation with a smaller number of digits such as 16 bits or 8 bits by a quantization tool, that is, quantized. Are the weights 1a, 2a and 3a. Since the learning model lm including these parameters has a smaller execution load than the original learning model LM, it contributes to shortening the processing time on an embedded system equipped with a processor having a slower processing speed and a smaller memory than that of a personal computer. do.

ただし、このように量子化によって得られた学習モデルlmでは、入力に対する結果として出力される推論は、元の学習モデルによる推論とは一致しない場合がある。そして、学習モデルlmは、推論の精度で元の学習モデルLMに劣るのが通常である。つまり、入力に対する正解データとの差分である損失は、学習モデルlmの方が大きい傾向にある。しかしながら、組込システムが、例えば上記で例に挙げた自動車の運転支援、又は自動運転において認識機能を担う場合、推論の不十分な精度がもとで物体の誤検出又は未検出が発生すれば、安全問題に関わる。 However, in the learning model lm obtained by the quantization in this way, the inference output as a result for the input may not match the inference by the original learning model. The learning model lm is usually inferior to the original learning model LM in inference accuracy. That is, the loss, which is the difference from the correct answer data for the input, tends to be larger in the learning model lm. However, when the embedded system plays a recognition function in, for example, the driving support of the automobile mentioned above or automatic driving, if false detection or non-detection of the object occurs due to insufficient accuracy of inference. , Involved in safety issues.

学習モデルの推論の精度の改善には既存の方法がある。例えば図1の学習部では、誤差逆伝播法と呼ばれる方法を用いて再学習が実行される。この方法の流れを大まかに説明すると、まず、推論の出力データBと、その出力データBに対応する入力データに対する正解データとの差分である損失Cが求められ、その損失を用いて出力層から前段に順次遡るようにニューロンの重みが調整される(図1の一点鎖線の矢印参照)。 There are existing methods for improving the inference accuracy of learning models. For example, in the learning unit of FIG. 1, re-learning is executed using a method called an error back-propagation method. To roughly explain the flow of this method, first, a loss C, which is the difference between the inference output data B and the correct answer data for the input data corresponding to the output data B, is obtained, and the loss C is used from the output layer. The weights of the neurons are adjusted so as to go back to the previous stage (see the arrow of the alternate long and short dash line in Fig. 1).

しかし、この方法は、あくまで精度の高い推論が可能な数値表現が利用される学習部で実行される推論の損失を小さくするためのものである。この損失が小さくなるように学習モデルLMの再学習が実行されたとしても、組込システムでの推論の結果のデータであって出力データBとは異なる出力データbと正解データとの差分が小さくなるとは限らない。別の表現をすると、この方法で出力データBの損失が解消されても、出力データbの正解データに対する差分が解消するとは限らない。このように組込システムで解消されない差分は、上記の自動車の例で言えば、車両外部の物体の誤検出又は未検出につながる。 However, this method is only for reducing the loss of inference executed in the learning unit in which a numerical expression capable of highly accurate inference is used. Even if the learning model LM is retrained so that this loss is small, the difference between the output data b, which is the result data of inference in the embedded system and is different from the output data B, and the correct answer data is small. It is not always the case. In other words, even if the loss of the output data B is eliminated by this method, the difference of the output data b with respect to the correct answer data is not always eliminated. Such a difference that cannot be eliminated by the embedded system leads to erroneous detection or non-detection of an object outside the vehicle in the above-mentioned example of an automobile.

また、特許文献1には、上記の学習部に相当するパーソナルコンピュータのCPUでの推論の結果と、図1の組込システムに相当する組込系チップでの推論の結果とを比較するステップが開示されている。その次のステップではコードのチューニングが実行されているが、この比較の結果をチューニングでどのように用いるかの詳細がその開示に含まれていないため、組込システムでの推論の精度の改善効果は知り得ない。 Further, Patent Document 1 includes a step of comparing the inference result in the CPU of the personal computer corresponding to the learning unit and the inference result in the embedded chip corresponding to the embedded system of FIG. It has been disclosed. The next step is to tune the code, but the disclosure does not include details on how to use the results of this comparison in tuning, thus improving the accuracy of inference in embedded systems. I don't know.

非特許文献1に開示される技術では、上記の学習部に相当するパーソナルコンピュータでの学習モデルにおいて推論のパスに、上記の量子化ツールに相当する変換ツールが埋め込まれている。これにより、組込システムに実装される学習モデルがパーソナルコンピュータ上に仮想的に構築される。そして、この仮想的に構築された学習モデルの推論の結果を用いて再学習が行われる。これにより、パーソナルコンピュータ上の学習モデルと組込システム上の学習モデルとが不一致であることに起因する、組込システムでの推論の精度の向上が図れないという問題を解決している。ここで、非特許文献1に開示される方法は、変換ツールの中身が明らかであることが前提である。しかしながら、量子化ツール等の変換ツールは、当該ツールを含むフレームワークの提供元であるベンダーが中身を公開しておらず、利用者にとってはブラックボックスであることが一般的である。つまり、変換ツールの利用者は、組込システムでの学習モデルlmの出力データbの損失の解消を図るためにこの方法を利用することができない。 In the technique disclosed in Non-Patent Document 1, a conversion tool corresponding to the above-mentioned quantization tool is embedded in the inference path in the learning model in the personal computer corresponding to the above-mentioned learning unit. As a result, the learning model implemented in the embedded system is virtually constructed on the personal computer. Then, re-learning is performed using the inference result of this virtually constructed learning model. This solves the problem that the accuracy of inference in the embedded system cannot be improved due to the disagreement between the learning model on the personal computer and the learning model on the embedded system. Here, the method disclosed in Non-Patent Document 1 is premised on the fact that the contents of the conversion tool are clear. However, the contents of the conversion tool such as the quantization tool are not disclosed by the vendor who provides the framework including the tool, and it is generally a black box for the user. That is, the user of the conversion tool cannot use this method in order to eliminate the loss of the output data b of the learning model lm in the embedded system.

本発明は、上記のように変換ツールの中身を知り得ないニューラルネットワークの利用者であっても、組込システムで学習モデルの出力の誤差を解消するために利用可能な情報処理方法を提供するものである。 The present invention provides an information processing method that can be used to eliminate an error in the output of a learning model in an embedded system even for a user of a neural network who cannot know the contents of the conversion tool as described above. It is a thing.

本発明の一態様に係る情報処理方法は、コンピュータを用いて、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う情報処理方法である。 In the information processing method according to one aspect of the present invention, the output data of the first learning model is used as training data by using a computer, and the output data of the second learning model obtained by the conversion of the first learning model is correctly answered. The first output data corresponding to the first input data to the first training model is input to the third training model obtained by the training used as data to acquire the second output data, and the first input data is used. It is an information processing method that acquires the first correct answer data and relearns the first learning model by using the first difference data corresponding to the difference between the second output data and the first correct answer data.

これにより、組込システムの推論の結果である出力データの正解データに対する差分(損失)に基づいて再学習を実行できるため、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる。具体的には、組込システムでの学習モデルの出力の誤差の解消が図られ、組込システムの推論の精度を向上させることができる。 As a result, re-learning can be executed based on the difference (loss) of the output data that is the result of inference of the embedded system with respect to the correct answer data. Therefore, even if the conversion content of the conversion tool that converts the learning model is unknown, the conversion is performed. The performance of the later learning model can be improved. Specifically, the error of the output of the learning model in the embedded system can be eliminated, and the inference accuracy of the embedded system can be improved.

また例えば、前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いた学習により得られる第4学習モデルに、前記第1差分データを入力して第2差分データを取得し、前記第2差分データを用いて、前記第1学習モデルの再学習を行ってもよい。 Further, for example, the difference data corresponding to the difference between the output data of the second learning model and the correct answer data for the input data to the first learning model is used as the training data, and the output data of the first learning model and the first training model are used. The first difference data is input to the fourth learning model obtained by learning using the difference data corresponding to the difference from the correct answer data corresponding to the input data of the first training model as the correct answer data, and the second difference data is acquired. Then, the first learning model may be retrained using the second difference data.

例えば、異なる環境での差分をそのまま再学習に利用すると、誤差逆伝播法での重み付けの調整が過剰又は不足し、再学習の結果、推論の精度が向上しなかったり、かえって悪化したりする事態も起こり得る。しかし、この構成によって、再学習に用いる上記の差分として、このような事態を発生させにくい、より適切なものが得られ、再学習の効率の向上が図られる。 For example, if the difference in different environments is used as it is for re-learning, the weighting adjustment by the back-propagation method is excessive or insufficient, and as a result of re-learning, the inference accuracy does not improve or worsens. Can also occur. However, with this configuration, as the above-mentioned difference used for re-learning, a more appropriate one that is less likely to cause such a situation can be obtained, and the efficiency of re-learning can be improved.

また例えば、前記第3学習モデルは、前記第1学習モデルの出力データに対応する入力データをさらなる学習データとして用いた学習により得られてもよく、または、前記第3学習モデルは、前記第1学習モデルの出力データに対応する学習パラメタをさらなる学習データとして用いた学習により得られてもよい。 Further, for example, the third learning model may be obtained by learning using the input data corresponding to the output data of the first learning model as further learning data, or the third learning model may be obtained by the first learning model. It may be obtained by learning using the learning parameters corresponding to the output data of the learning model as further learning data.

これにより、推論される組込システムの出力データとしてより適切なものが得られ、再学習の効率の向上が図られる。 As a result, more appropriate output data of the embedded system to be inferred can be obtained, and the efficiency of re-learning can be improved.

また例えば、前記第1学習モデル及び前記第2学習モデルは、ニューラルネットワーク型の学習モデルであり、前記学習パラメタは、ニューラルネットワークのノードに対応する重みであってもよい。 Further, for example, the first learning model and the second learning model are neural network type learning models, and the learning parameters may be weights corresponding to the nodes of the neural network.

これにより、学習環境下で得られた高精度のニューラルネットワークの、実行環境の制約の厳しい組込システムへの適用時に懸念される精度の低下を抑えることができる。 As a result, it is possible to suppress a decrease in accuracy of a high-precision neural network obtained in a learning environment, which is a concern when applied to an embedded system with severe restrictions on the execution environment.

また例えば、前記第1学習モデルの変換は、ニューラルネットワークの軽量化である。 Further, for example, the conversion of the first learning model is to reduce the weight of the neural network.

これにより、構築時の環境よりもリソースの制限の厳しい組込システムで使用されるために軽量化される学習モデルの性能の向上が図られる。 This improves the performance of the learning model, which is lighter because it is used in an embedded system that has stricter resource restrictions than the environment at the time of construction.

また例えば、前記第1学習モデルの出力データを学習データとして用い、かつ前記第2学習モデルの出力データを正解データとして用いて、前記第3学習モデルの学習を行ってもよい。また、前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いて、前記第4学習モデルの学習を行ってもよい。 Further, for example, the output data of the first learning model may be used as training data, and the output data of the second learning model may be used as correct answer data to train the third learning model. Further, the difference data corresponding to the difference between the output data of the second learning model and the correct answer data for the input data to the first learning model is used as the training data, and the output data of the first training model and the first training model are used. The fourth learning model may be trained by using the difference data corresponding to the difference from the correct answer data corresponding to the input data of the training model as the correct answer data.

これにより、組込システムで使用される学習モデルを得るための量子化ツールの中身がブラックボックスであるという条件下でも利用可能なデータを用いて第2学習モデルの出力データの損失を模擬したものが得られる。この模擬したもので第1学習モデルにフィードバックして、組込システムで使用される学習モデルの性能の向上が図られる。 This simulates the loss of the output data of the second training model using data that can be used even under the condition that the content of the quantization tool for obtaining the training model used in the embedded system is a black box. Is obtained. This simulation feeds back to the first learning model to improve the performance of the learning model used in the embedded system.

また、本発明の一態様に係る情報処理システムは、コンピュータを備える情報処理システムであって、前記コンピュータは、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う。 Further, the information processing system according to one aspect of the present invention is an information processing system including a computer, in which the computer uses the output data of the first learning model as training data and is converted by the first learning model. The first output data corresponding to the first input data to the first learning model is input to the third learning model obtained by learning using the output data of the obtained second learning model as correct answer data, and the second output is performed. Data is acquired, the first correct answer data for the first input data is acquired, and the first difference data corresponding to the difference between the second output data and the first correct answer data is used to obtain the first learning model. Relearn.

これにより、組込システムの推論の結果である出力データの正解データに対する差分(損失)に基づいて再学習を実行できるため、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる。具体的には、組込システムでの学習モデルの出力の誤差の解消が図られ、組込システムの推論の精度を向上させることができる。 As a result, re-learning can be executed based on the difference (loss) of the output data that is the result of inference of the embedded system with respect to the correct answer data. Therefore, even if the conversion content of the conversion tool that converts the learning model is unknown, the conversion is performed. The performance of the later learning model can be improved. Specifically, the error of the output of the learning model in the embedded system can be eliminated, and the inference accuracy of the embedded system can be improved.

以下、実施の形態に係る情報処理方法及び情報処理システムについて、図面を参照しながら具体的に説明する。 Hereinafter, the information processing method and the information processing system according to the embodiment will be specifically described with reference to the drawings.

なお、以下の実施の形態は、本発明の包括的又は具体的な例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、並びにステップ(工程)及びステップの順序等は、一例であって本発明を限定するものではない。そして、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 The following embodiments show a comprehensive or specific example of the present invention. Therefore, the numerical values, shapes, materials, components, arrangement and connection forms of the components, steps (processes), order of steps, etc. shown in the following embodiments are merely examples and do not limit the present invention. not. Then, among the components in the following embodiments, the components not described in the independent claims are components that can be arbitrarily added. Further, each figure is a schematic view and is not necessarily exactly shown.

(実施の形態)
図2は、実施の形態における、組込システムでのモデルの出力の、正解データに対する差分を学習モデルに反映するための仕組みの概要を説明するための図である。以下、この仕組みを欠く図1に示される状況と比較しながら説明する。
(Embodiment)
FIG. 2 is a diagram for explaining an outline of the mechanism for reflecting the difference between the correct answer data and the output of the model in the embedded system in the learning model in the embodiment. Hereinafter, the situation will be described in comparison with the situation shown in FIG. 1 lacking this mechanism.

ニューラルネットワーク学習部10は、例えばパーソナルコンピュータ等において、プロセッサにより所定のプログラムが実行されることで実現される。ニューラルネットワーク学習部10は、例えばFP32といった高精度な推論が可能な数値表現を扱って、学習による学習モデルLMの構築を行う。また、ニューラルネットワーク学習部10は、構築された学習モデルLMによる入力データに対する推論の実行、及び推論の結果である出力データの正解データとの差分を用いての学習モデルLMの再学習も行うことができる。これらの点は図1に示されるものと共通である。学習モデルLMは、本実施の形態における第1学習モデルの例である。 The neural network learning unit 10 is realized by executing a predetermined program by a processor in, for example, a personal computer or the like. The neural network learning unit 10 handles a numerical expression capable of high-precision inference, such as FP32, and constructs a learning model LM by learning. In addition, the neural network learning unit 10 also executes reasoning on the input data by the constructed learning model LM, and relearns the learning model LM using the difference between the correct answer data and the output data which is the result of the reasoning. Can be done. These points are common to those shown in FIG. The learning model LM is an example of the first learning model in the present embodiment.

量子化ツール15は、図1に示されるものと共通であり、ニューラルネットワーク学習部10において構築された学習モデルLMの重みを量子化することで、より軽量な学習モデルlmを取得する。量子化ツールは、例えばTensorRT、XNNC(Xtensa Neural Network Compiler)、CDNN(CEVA Deep Neural Network)といった、ベンダーが提供するディープニューラルネットワークソフトウェアフレームワークに含まれるものであり、ユーザにとってはブラックボックスである。 The quantization tool 15 is common to that shown in FIG. 1, and obtains a lighter learning model lm by quantizing the weight of the learning model LM constructed in the neural network learning unit 10. Quantization tools are included in vendor-provided deep neural network software frameworks such as TensorRT, XNNC (Xtensa Neural Network Compiler), CDNN (CEVA Deep Neural Network), and are a black box for users.

学習モデルlmも図1に示されるものと共通であり、例えばint16(整数16ビット)又はint8(整数8ビット)といった、ニューラルネットワーク学習部10よりも処理負荷が小さい数値表現を扱う組込システム20に実装される。学習モデルlmは、本実施の形態における第2学習モデルの例である。 The learning model lm is also the same as that shown in FIG. 1, and is an embedded system 20 that handles numerical expressions such as int16 (integer 16 bits) or int8 (integer 8 bits) that have a smaller processing load than the neural network learning unit 10. Is implemented in. The learning model lm is an example of the second learning model in the present embodiment.

フィードバック部30は、学習モデルlmの出力データの損失を学習モデルLMにフィードバックする、図1の仕組みにはない要素である。 The feedback unit 30 is an element not included in the mechanism of FIG. 1 that feeds back the loss of the output data of the learning model lm to the learning model LM.

フィードバック部30に含まれる第1変換モデルCM1は、学習モデルLMの推論の結果である出力データを学習データとして用い、かつ学習モデルlmの出力データを正解データとして用いた学習により得られる学習モデルであり、例えばニューラルネットワークによるものである。フィードバック部30における第1変換モデルCM1の機能は、学習モデルLMへのある入力データに対応する出力データBを入力として受け、学習モデルlmによる推論の結果を模擬した出力データbbを取得することである。学習モデルlmからの出力を示す矢印の軸が破線であるのは、出力データbbが模擬的なものであり、実際に学習モデルlmによって出力されたものではないことを示す。第1変換モデルCM1は、本実施の形態における第3学習モデルの例である。また、出力データBは、本実施の形態における第1出力データの例であり、第1出力データと対応する入力データは本実施の形態における第1入力データの例である。また、出力データbbは、本実施の形態における第2出力データの例である。つまり、第2出力データは、第2学習モデルの出力データを模擬したものである。 The first conversion model CM1 included in the feedback unit 30 is a learning model obtained by learning using the output data which is the result of the inference of the learning model LM as the learning data and the output data of the learning model lm as the correct answer data. Yes, for example by a neural network. The function of the first conversion model CM1 in the feedback unit 30 is to receive the output data B corresponding to a certain input data to the learning model LM as an input and acquire the output data bb simulating the result of inference by the learning model lm. be. The fact that the axis of the arrow indicating the output from the learning model lm is a broken line indicates that the output data bb is simulated and is not actually output by the learning model lm. The first conversion model CM1 is an example of the third learning model in the present embodiment. Further, the output data B is an example of the first output data in the present embodiment, and the input data corresponding to the first output data is an example of the first input data in the present embodiment. Further, the output data bb is an example of the second output data in the present embodiment. That is, the second output data is a simulation of the output data of the second learning model.

フィードバック部30では、さらに損失計算部(図2に図示なし、後述)が第1入力データに対する正解データを取得し、この正解データと出力データbbとの差分である損失cを算出する。損失計算部によって出力データbbと比較される、第1入力データに対する正解データは、本実施の形態における第1正解データの例である。また、損失cは本実施の形態における第1差分データの例である。 In the feedback unit 30, a loss calculation unit (not shown in FIG. 2, which will be described later) further acquires correct answer data for the first input data, and calculates a loss c which is a difference between the correct answer data and the output data bb. The correct answer data for the first input data, which is compared with the output data bb by the loss calculation unit, is an example of the first correct answer data in the present embodiment. Further, the loss c is an example of the first difference data in the present embodiment.

第2変換モデルCM2は、ある入力データに対応する、学習モデルlmの推論の結果である出力データと、当該入力データに対する正解データとの差分である損失を学習データとして用い、かつ学習モデルLMの出力データと当該出力データに対応する入力データに対する正解データとの差分を正解データとして用いた学習により得られる学習モデルであり、例えばニューラルネットワークによるものである。フィードバック部30における第2変換モデルCM2の機能は、損失cを入力として受け、学習モデルLMからの出力データの損失を模擬した損失CCを取得することである。第2変換モデルCM2は、本実施の形態における第4学習モデルの例であり、損失CCは、本実施の形態における第2差分データの例である。つまり、第2差分データは、学習モデルLMの出力データの損失を模擬したものである。 The second conversion model CM2 uses the loss, which is the difference between the output data corresponding to the input data, which is the result of the inference of the training model lm, and the correct answer data for the input data, as the training data, and also uses the loss of the training model LM. It is a learning model obtained by learning using the difference between the output data and the correct answer data for the input data corresponding to the output data as the correct answer data, and is, for example, by a neural network. The function of the second conversion model CM2 in the feedback unit 30 is to receive the loss c as an input and acquire the loss CC simulating the loss of the output data from the learning model LM. The second conversion model CM2 is an example of the fourth learning model in the present embodiment, and the loss CC is an example of the second difference data in the present embodiment. That is, the second difference data simulates the loss of the output data of the learning model LM.

ニューラルネットワーク学習部10は、第2変換モデルCM2が出力した損失CCを用いて学習モデルLMの重みの再調整、つまり再学習を行う。 The neural network learning unit 10 uses the loss CC output by the second conversion model CM2 to readjust, that is, relearn the weights of the learning model LM.

このような仕組みにより、まず、パーソナルコンピュータ上の学習モデルLMの出力データから組込システム20上の学習モデルLMの模擬的な出力データが生成される。そして、この模擬的な出力データと、対応する入力データに対する正解データとの差分を用いて学習モデルLMの再学習が行われる。これにより、組込システムによる推論の結果の学習モデルLMへのフィードバックを、量子化ツール15がブラックボックスであり、量子化ツール15による変換の内容が不明である場合にも適切に行うことができる。 By such a mechanism, first, simulated output data of the learning model LM on the embedded system 20 is generated from the output data of the learning model LM on the personal computer. Then, the learning model LM is relearned using the difference between the simulated output data and the correct answer data for the corresponding input data. As a result, feedback of the result of inference by the embedded system to the learning model LM can be appropriately performed even when the quantization tool 15 is a black box and the content of the conversion by the quantization tool 15 is unknown. ..

なお、損失cは、第2変換モデルCM2によって損失CCに変換されることなく学習モデルLMの再学習に用いられてもよい。ただし、学習モデルLMと、推論の結果が模擬される学習モデルlmとの仕様の差異、例えば使用される数値表現の違いに起因して、損失cをそのまま用いた再学習では、学習モデルLM自体の推論の精度が悪化することも起こり得る。このような場合には再学習後の学習モデルLMを変換して得られる学習モデルlmの精度も向上しないおそれがある。第2変換モデルCM2は、このような状況の回避の目的で必要に応じてフィードバック部30に含められる。 The loss c may be used for re-learning of the learning model LM without being converted into the loss CC by the second conversion model CM2. However, in the re-learning using the loss c as it is due to the difference in specifications between the learning model LM and the learning model lm in which the inference result is simulated, for example, the difference in the numerical expression used, the learning model LM itself. It is possible that the accuracy of the inference of is deteriorated. In such a case, the accuracy of the learning model lm obtained by converting the learning model LM after re-learning may not be improved. The second conversion model CM2 is included in the feedback unit 30 as necessary for the purpose of avoiding such a situation.

また、本実施の形態における再学習の工程は、図1に示される再学習の工程にとって代わるものではない。図2では示されていないが、図1に示される再学習によって学習モデルLMの精度の向上も図られてもよい。 Further, the re-learning process in the present embodiment does not replace the re-learning process shown in FIG. Although not shown in FIG. 2, the re-learning shown in FIG. 1 may also improve the accuracy of the learning model LM.

次に、本実施の形態における再学習の工程を実現する構成について説明する。図3は、本実施の形態における上記の再学習の工程を実現する情報処理システム100の機能構成を示すブロック図である。 Next, a configuration that realizes the re-learning process in the present embodiment will be described. FIG. 3 is a block diagram showing a functional configuration of the information processing system 100 that realizes the above-mentioned re-learning process in the present embodiment.

情報処理システム100は学習モデルの学習及び再学習を実行するシステムであり、一台又は複数のコンピュータで構成される。この学習モデルの学習及び再学習は、図2にも示されるニューラルネットワーク(図3では英文表記Neural Networkの頭字語を用いてNNと表記)学習部10によって行われる。情報処理システム100はニューラルネットワーク学習部10の他に、第1変換部31、損失計算部33、正解データ35及び第2変換部37を機能的な構成要素として備える。 The information processing system 100 is a system that executes learning and relearning of a learning model, and is composed of one or a plurality of computers. The learning and re-learning of this learning model is performed by the learning unit 10 of the neural network (denoted as NN using the acronym of the English notation Natural Network in FIG. 3) also shown in FIG. In addition to the neural network learning unit 10, the information processing system 100 includes a first conversion unit 31, a loss calculation unit 33, correct answer data 35, and a second conversion unit 37 as functional components.

第1変換部31は、情報処理システム100を構成するコンピュータが備えるプロセッサによって図2の第1変換モデルCM1が構築されることで実現される機能的な構成要素である。第1変換部31は、入力として受けた学習モデルLMの推論の結果を示す出力データBを、構築した第1変換モデルCM1によって変換して、学習モデルlmの推論の結果を示す出力データを模擬した出力データbbを取得し出力する。 The first conversion unit 31 is a functional component realized by constructing the first conversion model CM1 of FIG. 2 by a processor included in the computer constituting the information processing system 100. The first conversion unit 31 converts the output data B showing the inference result of the learning model LM received as an input by the constructed first conversion model CM1 and simulates the output data showing the inference result of the learning model lm. The output data bb is acquired and output.

損失計算部33は、情報処理システム100を構成するコンピュータが備えるプロセッサによって実行される所定のプログラムによって提供される機能的な構成要素である。損失計算部33は、出力データbb及び第1正解データを入力として受け、これらの差分を算出し、この差分を損失cとして出力する。 The loss calculation unit 33 is a functional component provided by a predetermined program executed by a processor included in the computer constituting the information processing system 100. The loss calculation unit 33 receives the output data bb and the first correct answer data as inputs, calculates the difference between them, and outputs this difference as the loss c.

正解データ35は、情報処理システム100を構成するコンピュータが備える記憶装置に保持されるデータであり、第1正解データは正解データ35に含まれる。また、図1に示される、ニューラルネットワーク学習部10が再学習に用いる損失を求めるための正解データもこの正解データ35に含まれる。 The correct answer data 35 is data held in a storage device included in a computer constituting the information processing system 100, and the first correct answer data is included in the correct answer data 35. Further, the correct answer data 35 for obtaining the loss used for the re-learning by the neural network learning unit 10 shown in FIG. 1 is also included in the correct answer data 35.

第2変換部37は、情報処理システム100を構成するコンピュータが備えるプロセッサによって図2の第2変換モデルCM2が構築されることで実現される機能的な構成要素である。第2変換部37は、入力として受けた学習モデルlmの出力データの損失cを構築した第2変換モデルCM2によって変換して損失CCを取得し、出力する。損失CCは、ニューラルネットワーク学習部10によって学習モデルLMの再学習に用いられる。 The second conversion unit 37 is a functional component realized by constructing the second conversion model CM2 of FIG. 2 by the processor included in the computer constituting the information processing system 100. The second conversion unit 37 converts the loss c of the output data of the learning model lm received as an input by the second conversion model CM2 constructed, acquires the loss CC, and outputs the loss CC. The loss CC is used by the neural network learning unit 10 for re-learning the learning model LM.

なお、上記の第1変換部31、損失計算部33、正解データ35及び第2変換部37は、ニューラルネットワーク学習部10を実現するコンピュータ上で実現されてもよいし、別のコンピュータ上で実現されてもよい。また、ニューラルネットワーク学習部10自体も一台のコンピュータ上で実現されてもよいし、複数台のコンピュータ上で実現されてもよい。 The first conversion unit 31, the loss calculation unit 33, the correct answer data 35, and the second conversion unit 37 may be realized on a computer that realizes the neural network learning unit 10, or may be realized on another computer. May be done. Further, the neural network learning unit 10 itself may be realized on one computer or may be realized on a plurality of computers.

次に、図3を用いて説明した構成要素を含む上記の仕組みの中でのデータの流れ及び処理の手順について説明する。 Next, a procedure of data flow and processing in the above mechanism including the components described with reference to FIG. 3 will be described.

図4は、本実施の形態におけるデータの流れを時系列的に示すシーケンス図である。以下の説明では、データの流れを次の4つのフェーズに分けて説明する。 FIG. 4 is a sequence diagram showing the flow of data in the present embodiment in chronological order. In the following description, the data flow will be described by dividing it into the following four phases.

第1フェーズ:学習モデルの構築から組込システムへの実装まで
第2フェーズ:学習による第一変換モデルの構築
第3フェーズ:学習による第二変換モデルの構築
第4フェーズ:再学習
1st phase: From construction of learning model to implementation in embedded system 2nd phase: Construction of 1st transformation model by learning 3rd phase: Construction of 2nd transformation model by learning 4th phase: Re-learning

なお、図4では見やすさのために正解データ35は図示を省略している。 In FIG. 4, the correct answer data 35 is not shown for the sake of readability.

まず、第1フェーズにおいては、ニューラルネットワーク学習部10において、学習データ及び正解データを用いた学習によって学習モデルLMが構築される(ステップS10)。図示していないが、この段階でも、図1に示されるような再学習による学習モデルLMの推論の精度の向上が図られてもよい。構築された学習モデルLMは、量子化ツール15に入力されて(ステップS11)、量子化される(ステップS12)。量子化済みの学習モデルlmは、組込システム20に実装される(ステップS13)。これにより、組込システム20では、学習モデルlmによる推論が実行可能な状態となる。 First, in the first phase, the neural network learning unit 10 constructs a learning model LM by learning using learning data and correct answer data (step S10). Although not shown, the accuracy of inference of the learning model LM may be improved by re-learning as shown in FIG. 1 at this stage as well. The constructed learning model LM is input to the quantization tool 15 (step S11) and quantized (step S12). The quantized learning model lm is implemented in the embedded system 20 (step S13). As a result, the embedded system 20 is in a state where inference by the learning model lm can be executed.

第2フェーズにおいては、ニューラルネットワーク学習部10において、第1フェーズで構築された学習モデルLMによる推論が行われる(ステップS20)。また、組込システム20において、第1フェーズで実装された学習モデルlmによる推論が行われる(ステップS22)。これらの推論は、同一の入力データを用いて実行される。なお、組込システム20において入力データが加工されてもよい。 In the second phase, the neural network learning unit 10 performs inference by the learning model LM constructed in the first phase (step S20). Further, in the embedded system 20, inference is performed by the learning model lm implemented in the first phase (step S22). These inferences are performed using the same input data. The input data may be processed in the embedded system 20.

学習モデルLMによる推論の結果及び学習モデルlmによる推論の結果を取得(ステップS21、S23)した第1変換部31は、学習モデルLMによる推論の結果を学習データとして用い、かつ学習モデルlmによる推論の結果を正解データとして用いる学習(ステップS24)によって、第1変換モデルCM1を構築する。なお、事前に行われた学習処理により構築された第1変換モデルCM1がメモリなどから取得されてもよい。 The first conversion unit 31 which acquired the result of the inference by the learning model LM and the result of the inference by the learning model lm (steps S21 and S23) uses the result of the inference by the learning model LM as learning data and infersed by the learning model lm. The first conversion model CM1 is constructed by learning using the result of the above as correct answer data (step S24). The first conversion model CM1 constructed by the learning process performed in advance may be acquired from a memory or the like.

第3フェーズにおいては、損失計算部33は、学習モデルlmによって既にした推論の結果を取得し(ステップS30)、また、正解データ35からこの推論の結果(出力データ)に対応する入力データに対する正解データを取得する(ステップS31)。そして損失計算部33は、学習モデルlmによる推論の結果に対する当該正解データからの損失(差分)を算出する(ステップS32)。 In the third phase, the loss calculation unit 33 acquires the result of the inference already made by the learning model lm (step S30), and also obtains the correct answer from the correct answer data 35 to the input data corresponding to the result of this inference (output data). Acquire data (step S31). Then, the loss calculation unit 33 calculates the loss (difference) from the correct answer data with respect to the result of inference by the learning model lm (step S32).

一方で、ニューラルネットワーク学習部10は、学習モデルLMによって既にした推論の結果(出力データ)に対応する入力データに対する正解データを正解データ35から取得し(ステップS34)、学習モデルLMによる推論の結果に対する当該正解データからの損失(差分)を算出する(ステップS35)。 On the other hand, the neural network learning unit 10 acquires the correct answer data for the input data corresponding to the inference result (output data) already performed by the learning model LM from the correct answer data 35 (step S34), and the inference result by the learning model LM. The loss (difference) from the correct answer data for is calculated (step S35).

損失計算部33が算出した学習モデルlmの推論結果の損失、及びニューラルネットワーク学習部10が算出した学習モデルLMの推論結果の損失を取得(ステップS33、S36)した第2変換部37は、学習モデルlmの推論結果の損失を学習データとして用い、かつ学習モデルLMの推論結果の損失を正解データとして用いる学習(ステップS37)によって、第2変換モデルCM2を構築する。なお、事前に行われた学習処理により構築された第2変換モデルCM2がメモリなどから取得されてもよい。 The second conversion unit 37 that has acquired the loss of the inference result of the learning model lm calculated by the loss calculation unit 33 and the loss of the inference result of the learning model LM calculated by the neural network learning unit 10 (steps S33 and S36) is learning. The second conversion model CM2 is constructed by learning (step S37) in which the loss of the inference result of the model lm is used as learning data and the loss of the inference result of the learning model LM is used as correct answer data. The second conversion model CM2 constructed by the learning process performed in advance may be acquired from a memory or the like.

第1フェーズから第3フェーズまでを経て、図2に示されるフィードバック部30が情報処理システム100に構築される。第4フェーズは、この状態に至った情報処理システム100で実行される。 From the first phase to the third phase, the feedback unit 30 shown in FIG. 2 is constructed in the information processing system 100. The fourth phase is executed by the information processing system 100 that has reached this state.

第4フェーズにおいては、ニューラルネットワーク学習部10で学習モデルLMによって実行された推論の結果(出力データB)が、第1変換部31において第1変換モデルCM1によって変換される(ステップS40~S42)。変換されたこの推論の結果(出力データbb)は、学習モデルLMによる推論の結果(出力データB)に対応する入力データから学習モデルlmによって推論される結果を模擬したものである。 In the fourth phase, the result of inference (output data B) executed by the learning model LM in the neural network learning unit 10 is converted by the first conversion model CM1 in the first conversion unit 31 (steps S40 to S42). .. The converted inference result (output data bb) is a simulation of the result inferred by the learning model lm from the input data corresponding to the inference result by the learning model LM (output data B).

出力データbbを取得(ステップS43)した損失計算部33は、学習モデルLMによる推論の結果(出力データB)に対応する入力データに対する正解データ(第1正解データ)を正解データ35から取得する(ステップS44)。そして損失計算部33は、模擬された学習モデルlmによる推論の結果に対する第1正解データからの損失(差分)を算出する(ステップS45)。 The loss calculation unit 33 that has acquired the output data bb (step S43) acquires the correct answer data (first correct answer data) for the input data corresponding to the result of inference by the learning model LM (output data B) from the correct answer data 35 (step S43). Step S44). Then, the loss calculation unit 33 calculates the loss (difference) from the first correct answer data with respect to the result of inference by the simulated learning model lm (step S45).

第2変換部37は、第2変換モデルCM2によって当該損失を変換する(ステップS46、S47)。ニューラルネットワーク学習部10は、この変換済みの損失を取得し(ステップS48)、学習モデルLMの再学習(ステップS49)に用いる。 The second conversion unit 37 converts the loss by the second conversion model CM2 (steps S46 and S47). The neural network learning unit 10 acquires this converted loss (step S48) and uses it for re-learning of the learning model LM (step S49).

学習モデルLMの再学習によって重み1A~3Aが更新されると、第1フェーズに戻って、量子化(ステップS12)以降の処理を実行することで再学習が重ねられもよい。 When the weights 1A to 3A are updated by the re-learning of the learning model LM, the re-learning may be repeated by returning to the first phase and executing the processing after the quantization (step S12).

(変形例)
以上、1つ又は複数の態様に係る情報処理方法及び情報処理システムについて、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものも、1つ又は複数の態様の範囲内に含まれてもよい。
(Modification example)
Although the information processing method and the information processing system according to one or more embodiments have been described above based on the embodiments, the present invention is not limited to these embodiments. As long as it does not deviate from the gist of the present invention, various modifications that can be considered by those skilled in the art to the present embodiment may be included within the scope of one or more embodiments.

図5は、そのような変形の一例を説明するための図である。以下、図2に示される仕組みとの差異点を中心に説明する。 FIG. 5 is a diagram for explaining an example of such a modification. Hereinafter, the differences from the mechanism shown in FIG. 2 will be mainly described.

図5に示される、本変形例における正解データに対する差分を学習モデルに反映するための仕組みでは、第1変換モデルへの入力が、学習モデルLMの出力データBに加えて、出力データBに対応する入力データ、及び学習モデルLMのパラメタである重み1A~3Aを含む点が図2に示される仕組みと異なる。 In the mechanism shown in FIG. 5 for reflecting the difference to the correct answer data in this modification in the learning model, the input to the first conversion model corresponds to the output data B in addition to the output data B of the learning model LM. The mechanism is different from the mechanism shown in FIG. 2 in that the input data to be input and the weights 1A to 3A which are the parameters of the learning model LM are included.

つまりは、本変形例においては、第2フェーズにおいて、第1変換モデルCM1の構築のための学習データとして、出力データB、出力データBに対応する入力データ、及び学習モデルLMのパラメタが用いられている。このように、第1変換モデルCM1の学習のための学習データとしても用いられる学習モデルLMのパラメタは、本変形例における学習パラメタの例である。 That is, in this modification, in the second phase, the output data B, the input data corresponding to the output data B, and the parameters of the learning model LM are used as the learning data for constructing the first conversion model CM1. ing. As described above, the parameters of the learning model LM, which is also used as the learning data for the learning of the first conversion model CM1, are examples of the learning parameters in this modification.

このように、より多くの学習データを用いた学習により得られる第1変換モデルCM1は、学習モデルlmの出力データをより高い精度で模擬する出力データbbを出力することができる。 As described above, the first conversion model CM1 obtained by learning using more learning data can output the output data bb that simulates the output data of the learning model lm with higher accuracy.

なお、第1変換モデルCM1に入力される学習データ及び推論のための入力データとして出力データBに追加されるデータは、出力データBに対応する入力データ及び学習モデルLMのパラメタのいずれかのみであってもよい。 The learning data input to the first conversion model CM1 and the data added to the output data B as input data for inference are only one of the input data corresponding to the output data B and the parameters of the learning model LM. There may be.

また別の変形例として、出力データbbの代わりに、出力データbが使用されて損失cが算出されてもよい。つまり、第1変換モデルCM1を用いることなく、学習モデルlmの推論結果による出力データが損失cの算出に用いられてもよい。 As another modification, the output data b may be used instead of the output data bb to calculate the loss c. That is, the output data based on the inference result of the learning model lm may be used for calculating the loss c without using the first conversion model CM1.

また別の変形例として、第1変換モデルCM1及び第2変換モデルCM2を用いた変換の有無に応じて、予測される学習モデルlmの性能の変化が提示されてもよい。例えば、損失計算部33は、第1変換モデルCM1のみが用いられる場合、算出される損失cと損失Cとの差分から学習モデルlmの精度の変化を推定する。また、損失計算部33は、第1変換モデルCM1及び第2変換モデルCM2が用いられる場合、算出される損失CCと損失Cとの差分から学習モデルlmの精度の変化を推定する。そして、情報処理システムが別途に備える提示装置が推定された学習モデルlmの精度の変化を提示する。提示装置は、ディスプレイ、プロジェクタ、又はスピーカなどであってよい。 As another modification, a predicted change in the performance of the learning model lm may be presented depending on the presence or absence of conversion using the first conversion model CM1 and the second conversion model CM2. For example, when only the first conversion model CM1 is used, the loss calculation unit 33 estimates a change in the accuracy of the learning model lm from the difference between the calculated loss c and the loss C. Further, when the first conversion model CM1 and the second conversion model CM2 are used, the loss calculation unit 33 estimates the change in the accuracy of the learning model lm from the difference between the calculated loss CC and the loss C. Then, the presentation device separately provided in the information processing system presents the change in the accuracy of the estimated learning model lm. The presenting device may be a display, a projector, a speaker, or the like.

本発明は、学習モデルが構築時の環境よりも制限の厳しい実行環境に適用される分野に利用可能であり、例えば自動車(自動運転車を含む)、家庭用電気機器、ウエアラブル情報端末、産業機器、その他のIoTに取り込まれる各種の産業分野において利用可能である。 The present invention can be used in fields where the learning model is applied to a more restrictive execution environment than the environment at the time of construction, such as automobiles (including self-driving cars), household electrical equipment, wearable information terminals, and industrial equipment. , And other IoT-incorporated industrial fields.

1A、1a、2A、2a、3A、3a パラメタ(重み)
10 ニューラルネットワーク学習部
15 量子化ツール
20 組込システム
30 フィードバック部
31 第1変換部
33 損失計算部
35 正解データ
37 第2変換部
100 情報処理システム
B、b、bb 出力データ
C、CC、c 損失
CM1 第1変換モデル
CM2 第2変換モデル
LM、lm 学習モデル
1A, 1a, 2A, 2a, 3A, 3a parameters (weights)
10 Neural network learning unit 15 Quantization tool 20 Embedded system 30 Feedback system 31 First conversion unit 33 Loss calculation unit 35 Correct answer data 37 Second conversion unit 100 Information processing system B, b, bb Output data C, CC, c Loss CM1 1st conversion model CM2 2nd conversion model LM, lm learning model

Claims (9)

コンピュータを用いて、
第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、
前記第1入力データに対する第1正解データを取得し、
前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う、
情報処理方法。
Using a computer,
The first learning model obtained by learning using the output data of the first learning model as training data and using the output data of the second learning model obtained by the conversion of the first learning model as correct answer data. The first output data corresponding to the first input data to the training model is input to acquire the second output data.
Acquire the first correct answer data for the first input data,
The first learning model is retrained using the first difference data corresponding to the difference between the second output data and the first correct answer data.
Information processing method.
前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いた学習により得られる第4学習モデルに、前記第1差分データを入力して第2差分データを取得し、
前記第2差分データを用いて、前記第1学習モデルの再学習を行う、
請求項1に記載の情報処理方法。
Difference data corresponding to the difference between the output data of the second learning model and the correct answer data for the input data to the first learning model is used as training data, and the output data of the first training model and the first training model are used. The first difference data is input to the fourth learning model obtained by learning using the difference data corresponding to the difference from the correct answer data corresponding to the input data of the above as the correct answer data, and the second difference data is acquired.
The first learning model is retrained using the second difference data.
The information processing method according to claim 1.
前記第3学習モデルは、前記第1学習モデルの出力データに対応する入力データをさらなる学習データとして用いた学習により得られる、
請求項1又は2に記載の情報処理方法。
The third learning model is obtained by learning using the input data corresponding to the output data of the first learning model as further learning data.
The information processing method according to claim 1 or 2.
前記第3学習モデルは、前記第1学習モデルの出力データに対応する学習パラメタをさらなる学習データとして用いた学習により得られる、
請求項1から3のいずれか一項に記載の情報処理方法。
The third learning model is obtained by learning using the learning parameters corresponding to the output data of the first learning model as further learning data.
The information processing method according to any one of claims 1 to 3.
前記第1学習モデル及び前記第2学習モデルは、ニューラルネットワーク型の学習モデルであり、
前記学習パラメタは、ニューラルネットワークのノードに対応する重みである、
請求項4に記載の情報処理方法。
The first learning model and the second learning model are neural network type learning models.
The learning parameter is a weight corresponding to a node of the neural network.
The information processing method according to claim 4.
前記第1学習モデルの変換は、ニューラルネットワークの軽量化である、
請求項5に記載の情報処理方法。
The transformation of the first training model is to reduce the weight of the neural network.
The information processing method according to claim 5.
前記第1学習モデルの出力データを学習データとして用い、かつ前記第2学習モデルの出力データを正解データとして用いて、前記第3学習モデルの学習を行う、
請求項1から6のいずれか1項に記載の情報処理方法。
The output data of the first learning model is used as training data, and the output data of the second learning model is used as correct answer data to train the third learning model.
The information processing method according to any one of claims 1 to 6.
前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いて、前記第4学習モデルの学習を行う、
請求項2に記載の情報処理方法。
Difference data corresponding to the difference between the output data of the second learning model and the correct answer data for the input data to the first learning model is used as training data, and the output data of the first training model and the first training model are used. The fourth learning model is trained using the difference data corresponding to the difference from the correct answer data corresponding to the input data of the above as the correct answer data.
The information processing method according to claim 2.
コンピュータを備える情報処理システムであって、
前記コンピュータは、
第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、
前記第1入力データに対する第1正解データを取得し、
前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う、
情報処理システム。
An information processing system equipped with a computer
The computer
The first learning model obtained by learning using the output data of the first learning model as training data and using the output data of the second learning model obtained by the conversion of the first learning model as correct answer data. The first output data corresponding to the first input data to the training model is input to acquire the second output data.
Acquire the first correct answer data for the first input data,
The first learning model is retrained using the first difference data corresponding to the difference between the second output data and the first correct answer data.
Information processing system.
JP2018177725A 2018-01-29 2018-09-21 Information processing method and information processing system Active JP7058202B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910063043.7A CN110097191B (en) 2018-01-29 2019-01-23 Information processing method and information processing system
EP19153167.2A EP3518151A1 (en) 2018-01-29 2019-01-23 Data processing method and data processing system
US16/256,335 US10885447B2 (en) 2018-01-29 2019-01-24 Data processing method and data processing system
US17/109,687 US11694099B2 (en) 2018-01-29 2020-12-02 Data processing method and data processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862623137P 2018-01-29 2018-01-29
US62/623,137 2018-01-29

Publications (2)

Publication Number Publication Date
JP2019133626A JP2019133626A (en) 2019-08-08
JP7058202B2 true JP7058202B2 (en) 2022-04-21

Family

ID=67546321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177725A Active JP7058202B2 (en) 2018-01-29 2018-09-21 Information processing method and information processing system

Country Status (1)

Country Link
JP (1) JP7058202B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7171478B2 (en) * 2018-08-09 2022-11-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method and information processing system
JP7163894B2 (en) * 2019-09-26 2022-11-01 いすゞ自動車株式会社 MODEL CREATED DEVICE AND MODEL CREATED METHOD
JP7230755B2 (en) * 2019-09-26 2023-03-01 いすゞ自動車株式会社 MODEL CREATED DEVICE AND MODEL CREATED METHOD
WO2021064833A1 (en) * 2019-09-30 2021-04-08 日本電気株式会社 Abnormality detection device, abnormality detection method, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (en) 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation Student DNN learning by output distribution
JP2019133628A (en) 2018-01-29 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method and information processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (en) 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation Student DNN learning by output distribution
JP2019133628A (en) 2018-01-29 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method and information processing system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CARREIRA-PERPINAN, M.A.,Model compression as constrained optimization, with application to neural nets. Part I: general framework,arXiv.org [online],2017年07月05日,[retrieved on 2022-03-22], Retrieved from the Internet: <URL: https://arxiv.org/abs/1707.01209>

Also Published As

Publication number Publication date
JP2019133626A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP7058202B2 (en) Information processing method and information processing system
Gomes et al. Co-simulation: State of the art
US11861474B2 (en) Dynamic placement of computation sub-graphs
CN110097191B (en) Information processing method and information processing system
KR20160143548A (en) Method and apparatus for automatic tuning of artificial neural networks
JP2001236337A (en) Predicting device using neural network
US20180268816A1 (en) Generating device, generating method, and non-transitory computer readable storage medium
WO2018143019A1 (en) Information processing device, information processing method, and program recording medium
JP6088613B1 (en) Machine learning apparatus and method for learning magnet placement position in rotor, and rotor design apparatus provided with the machine learning apparatus
US20130261787A1 (en) Optimization of System Control Based on Solving Multi-Point Boundary Value Problems
JP2021002322A (en) Ising machine data input apparatus and method for inputting data in ising machine
JPWO2018135515A1 (en) Information processing apparatus, neural network design method and program
JP2021089655A (en) Learning model construction device, method for constructing learning model, and computer program
KR102105951B1 (en) Constructing method of classification restricted boltzmann machine and computer apparatus for classification restricted boltzmann machine
Kato et al. Falsification of cyber-physical systems with reinforcement learning
KR20200090061A (en) Method and apparatus for artificial neural network
CN113971032A (en) Full-process automatic deployment method and system of machine learning model for code generation
JP2021082014A (en) Estimation device, training device, estimation method, training method, program, and non-transitory computer readable medium
JP2005056340A (en) Information processing device and method, program storage media, and program
JP2010134926A (en) Multi-modal green computing fusion system, computer program, method, and developing method of system (multi-modal green computing fusion using problem analytics)
JP2022064643A (en) Model learning device, controller, model learning method and computer program
JP2020179438A (en) Computing system and machine learning method
WO2024052996A1 (en) Learning device, conversion device, learning method, conversion method, and program
Padberg On the potential of process simulation in software project schedule optimization
JP2020119108A (en) Data processing device, data processing method, and data processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7058202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150