JP2019133626A - 情報処理方法及び情報処理システム - Google Patents

情報処理方法及び情報処理システム Download PDF

Info

Publication number
JP2019133626A
JP2019133626A JP2018177725A JP2018177725A JP2019133626A JP 2019133626 A JP2019133626 A JP 2019133626A JP 2018177725 A JP2018177725 A JP 2018177725A JP 2018177725 A JP2018177725 A JP 2018177725A JP 2019133626 A JP2019133626 A JP 2019133626A
Authority
JP
Japan
Prior art keywords
data
learning model
learning
output data
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018177725A
Other languages
English (en)
Other versions
JP7058202B2 (ja
Inventor
洋平 中田
Yohei Nakada
洋平 中田
宗太郎 築澤
Sotaro Tsukizawa
宗太郎 築澤
育規 石井
Yasunori Ishii
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to EP19153167.2A priority Critical patent/EP3518151A1/en
Priority to CN201910063043.7A priority patent/CN110097191B/zh
Priority to US16/256,335 priority patent/US10885447B2/en
Publication of JP2019133626A publication Critical patent/JP2019133626A/ja
Priority to US17/109,687 priority patent/US11694099B2/en
Application granted granted Critical
Publication of JP7058202B2 publication Critical patent/JP7058202B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】組込システムでの学習モデルの出力の損失を軽量化前の学習モデルにフィードバックする方法を提供する。【解決手段】コンピュータを用いて実行する情報処理方法では、第1学習モデルの出力データを学習データとして用い、かつ第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られた第3学習モデルに、第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し(S42)、第1入力データに対する第1正解データを取得し(S44)、第3学習モデル出力データと第1正解データとの差分に対応する第1差分データを用いて、第1学習モデルの再学習を行う(S49)。【選択図】図4

Description

本発明は、学習モデルを実行する情報処理システム及び当該情報処理システムで行われる情報処理方法に関する。
近年、機械学習によって得られる学習モデルを軽量化して組込システムへ適用することに関連する技術が提案されている。このように提案される技術には、適用後の組込システムでの学習モデルの性能を高めるための手法がある(例えば特許文献1及び非特許文献1参照)。
国際公開第2017/038104号
Benoit Jacob、他7名、"Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference"、[online]、インターネット〈URL:https://arxiv.org/abs/1712.05877〉
しかしながら、学習モデルを変換する変換ツールの変換内容が不明(すなわち変換ツールがブラックボックス)である場合には、上記従来技術を利用することができない。
そこで本発明は、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる情報処理方法等を提供する。
本発明の一態様に係る情報処理方法は、コンピュータを用いて、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う情報処理方法である。
また、本発明の一態様に係る情報処理システムは、コンピュータを備える情報処理システムであって、前記コンピュータは、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う。
なお、本発明のこの包括的又は具体的な態様は、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本発明の情報処理方法及び情報処理システムでは、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる。
図1は、学習モデルの学習及び組込システムへの適用の概要を説明するための図である。 図2は、実施の形態における、組込システムでのモデルの出力の損失を学習モデルに反映するための仕組みの概要を説明するための図である。 図3は、実施の形態における再学習の工程を実現する情報処理システムの機能構成を示すブロック図である。 図4は、実施の形態におけるデータの流れを時系列的に示すシーケンス図である。 図5は、実施の形態の変形例における、組込システムでのモデルの出力の損失を学習モデルに反映するための仕組みの概要を説明するための図である。
(本発明の基礎となった知見)
本発明者らは、上述した機械学習によって得られるモデル(以下、学習モデルともいう)を軽量化しての組込システムへの適用に関して以下の問題が生じることを見出した。
組込システムは通常、演算速度、メモリサイズ、供給可能な電力量の面で、学習モデルが構築される環境に劣る。例えば学習には、より高い精度を求めて、FP32(32ビット浮動小数点)等の数値表現が用いられ、またこのような大きさの数値表現であってもより短い時間で処理ができるようなコンピュータが用いられる。その一方で組込システムは、その組込先である機器に応じて処理回路の規模が制限される。また、自動車のように利用できる電力にも制限がある環境で使用される組込システムには、処理回路の選択に消費電力も考慮される必要がある。
上記のようなコンピュータで構築された学習モデルは、これらの制限下でも要求される速度で実行が可能なように、軽量化のための変換を行った上で組込システムに実装される。図1は、学習モデルの構築とその組込システムへの適用の概要を説明するための図である。この例では、学習部での学習処理によりニューラルネットワーク型の学習モデルLMが構築されている。学習部は、例えば商用電源の供給を受けて動作するパーソナルコンピュータ上で所定のプログラムが実行されることで構築される機能的構成であり、FP32の数値表現を用いて学習処理を行う。そして、このニューラルネットワークのパラメタである、ノードに対応する重み1A、2A及び3Aが、量子化ツールによって16ビット又は8ビット等のより少ない桁数での整数表現に変換、つまり量子化されたものが、重み1a、2a及び3aである。これらのパラメタを含む学習モデルlmは元の学習モデルLMよりも実行の負荷が小さいため、パーソナルコンピュータのものより処理速度が遅いプロセッサ及び小さなメモリを備える組込システム上での処理時間の短縮に貢献する。
ただし、このように量子化によって得られた学習モデルlmでは、入力に対する結果として出力される推論は、元の学習モデルによる推論とは一致しない場合がある。そして、学習モデルlmは、推論の精度で元の学習モデルLMに劣るのが通常である。つまり、入力に対する正解データとの差分である損失は、学習モデルlmの方が大きい傾向にある。しかしながら、組込システムが、例えば上記で例に挙げた自動車の運転支援、又は自動運転において認識機能を担う場合、推論の不十分な精度がもとで物体の誤検出又は未検出が発生すれば、安全問題に関わる。
学習モデルの推論の精度の改善には既存の方法がある。例えば図1の学習部では、誤差逆伝播法と呼ばれる方法を用いて再学習が実行される。この方法の流れを大まかに説明すると、まず、推論の出力データBと、その出力データBに対応する入力データに対する正解データとの差分である損失Cが求められ、その損失を用いて出力層から前段に順次遡るようにニューロンの重みが調整される(図1の一点鎖線の矢印参照)。
しかし、この方法は、あくまで精度の高い推論が可能な数値表現が利用される学習部で実行される推論の損失を小さくするためのものである。この損失が小さくなるように学習モデルLMの再学習が実行されたとしても、組込システムでの推論の結果のデータであって出力データBとは異なる出力データbと正解データとの差分が小さくなるとは限らない。別の表現をすると、この方法で出力データBの損失が解消されても、出力データbの正解データに対する差分が解消するとは限らない。このように組込システムで解消されない差分は、上記の自動車の例で言えば、車両外部の物体の誤検出又は未検出につながる。
また、特許文献1には、上記の学習部に相当するパーソナルコンピュータのCPUでの推論の結果と、図1の組込システムに相当する組込系チップでの推論の結果とを比較するステップが開示されている。その次のステップではコードのチューニングが実行されているが、この比較の結果をチューニングでどのように用いるかの詳細がその開示に含まれていないため、組込システムでの推論の精度の改善効果は知り得ない。
非特許文献1に開示される技術では、上記の学習部に相当するパーソナルコンピュータでの学習モデルにおいて推論のパスに、上記の量子化ツールに相当する変換ツールが埋め込まれている。これにより、組込システムに実装される学習モデルがパーソナルコンピュータ上に仮想的に構築される。そして、この仮想的に構築された学習モデルの推論の結果を用いて再学習が行われる。これにより、パーソナルコンピュータ上の学習モデルと組込システム上の学習モデルとが不一致であることに起因する、組込システムでの推論の精度の向上が図れないという問題を解決している。ここで、非特許文献1に開示される方法は、変換ツールの中身が明らかであることが前提である。しかしながら、量子化ツール等の変換ツールは、当該ツールを含むフレームワークの提供元であるベンダーが中身を公開しておらず、利用者にとってはブラックボックスであることが一般的である。つまり、変換ツールの利用者は、組込システムでの学習モデルlmの出力データbの損失の解消を図るためにこの方法を利用することができない。
本発明は、上記のように変換ツールの中身を知り得ないニューラルネットワークの利用者であっても、組込システムで学習モデルの出力の誤差を解消するために利用可能な情報処理方法を提供するものである。
本発明の一態様に係る情報処理方法は、コンピュータを用いて、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う情報処理方法である。
これにより、組込システムの推論の結果である出力データの正解データに対する差分(損失)に基づいて再学習を実行できるため、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる。具体的には、組込システムでの学習モデルの出力の誤差の解消が図られ、組込システムの推論の精度を向上させることができる。
また例えば、前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いた学習により得られる第4学習モデルに、前記第1差分データを入力して第2差分データを取得し、前記第2差分データを用いて、前記第1学習モデルの再学習を行ってもよい。
例えば、異なる環境での差分をそのまま再学習に利用すると、誤差逆伝播法での重み付けの調整が過剰又は不足し、再学習の結果、推論の精度が向上しなかったり、かえって悪化したりする事態も起こり得る。しかし、この構成によって、再学習に用いる上記の差分として、このような事態を発生させにくい、より適切なものが得られ、再学習の効率の向上が図られる。
また例えば、前記第3学習モデルは、前記第1学習モデルの出力データに対応する入力データをさらなる学習データとして用いた学習により得られてもよく、または、前記第3学習モデルは、前記第1学習モデルの出力データに対応する学習パラメタをさらなる学習データとして用いた学習により得られてもよい。
これにより、推論される組込システムの出力データとしてより適切なものが得られ、再学習の効率の向上が図られる。
また例えば、前記第1学習モデル及び前記第2学習モデルは、ニューラルネットワーク型の学習モデルであり、前記学習パラメタは、ニューラルネットワークのノードに対応する重みであってもよい。
これにより、学習環境下で得られた高精度のニューラルネットワークの、実行環境の制約の厳しい組込システムへの適用時に懸念される精度の低下を抑えることができる。
また例えば、前記第1学習モデルの変換は、ニューラルネットワークの軽量化である。
これにより、構築時の環境よりもリソースの制限の厳しい組込システムで使用されるために軽量化される学習モデルの性能の向上が図られる。
また例えば、前記第1学習モデルの出力データを学習データとして用い、かつ前記第2学習モデルの出力データを正解データとして用いて、前記第3学習モデルの学習を行ってもよい。また、前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いて、前記第4学習モデルの学習を行ってもよい。
これにより、組込システムで使用される学習モデルを得るための量子化ツールの中身がブラックボックスであるという条件下でも利用可能なデータを用いて第2学習モデルの出力データの損失を模擬したものが得られる。この模擬したもので第1学習モデルにフィードバックして、組込システムで使用される学習モデルの性能の向上が図られる。
また、本発明の一態様に係る情報処理システムは、コンピュータを備える情報処理システムであって、前記コンピュータは、第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、前記第1入力データに対する第1正解データを取得し、前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う。
これにより、組込システムの推論の結果である出力データの正解データに対する差分(損失)に基づいて再学習を実行できるため、学習モデルを変換する変換ツールの変換内容が不明であっても、変換後の学習モデルの性能を高めることができる。具体的には、組込システムでの学習モデルの出力の誤差の解消が図られ、組込システムの推論の精度を向上させることができる。
以下、実施の形態に係る情報処理方法及び情報処理システムについて、図面を参照しながら具体的に説明する。
なお、以下の実施の形態は、本発明の包括的又は具体的な例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、並びにステップ(工程)及びステップの順序等は、一例であって本発明を限定するものではない。そして、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は模式図であり、必ずしも厳密に図示されたものではない。
(実施の形態)
図2は、実施の形態における、組込システムでのモデルの出力の、正解データに対する差分を学習モデルに反映するための仕組みの概要を説明するための図である。以下、この仕組みを欠く図1に示される状況と比較しながら説明する。
ニューラルネットワーク学習部10は、例えばパーソナルコンピュータ等において、プロセッサにより所定のプログラムが実行されることで実現される。ニューラルネットワーク学習部10は、例えばFP32といった高精度な推論が可能な数値表現を扱って、学習による学習モデルLMの構築を行う。また、ニューラルネットワーク学習部10は、構築された学習モデルLMによる入力データに対する推論の実行、及び推論の結果である出力データの正解データとの差分を用いての学習モデルLMの再学習も行うことができる。これらの点は図1に示されるものと共通である。学習モデルLMは、本実施の形態における第1学習モデルの例である。
量子化ツール15は、図1に示されるものと共通であり、ニューラルネットワーク学習部10において構築された学習モデルLMの重みを量子化することで、より軽量な学習モデルlmを取得する。量子化ツールは、例えばTensorRT、XNNC(Xtensa Neural Network Compiler)、CDNN(CEVA Deep Neural Network)といった、ベンダーが提供するディープニューラルネットワークソフトウェアフレームワークに含まれるものであり、ユーザにとってはブラックボックスである。
学習モデルlmも図1に示されるものと共通であり、例えばint16(整数16ビット)又はint8(整数8ビット)といった、ニューラルネットワーク学習部10よりも処理負荷が小さい数値表現を扱う組込システム20に実装される。学習モデルlmは、本実施の形態における第2学習モデルの例である。
フィードバック部30は、学習モデルlmの出力データの損失を学習モデルLMにフィードバックする、図1の仕組みにはない要素である。
フィードバック部30に含まれる第1変換モデルCM1は、学習モデルLMの推論の結果である出力データを学習データとして用い、かつ学習モデルlmの出力データを正解データとして用いた学習により得られる学習モデルであり、例えばニューラルネットワークによるものである。フィードバック部30における第1変換モデルCM1の機能は、学習モデルLMへのある入力データに対応する出力データBを入力として受け、学習モデルlmによる推論の結果を模擬した出力データbbを取得することである。学習モデルlmからの出力を示す矢印の軸が破線であるのは、出力データbbが模擬的なものであり、実際に学習モデルlmによって出力されたものではないことを示す。第1変換モデルCM1は、本実施の形態における第3学習モデルの例である。また、出力データBは、本実施の形態における第1出力データの例であり、第1出力データと対応する入力データは本実施の形態における第1入力データの例である。また、出力データbbは、本実施の形態における第2出力データの例である。つまり、第2出力データは、第2学習モデルの出力データを模擬したものである。
フィードバック部30では、さらに損失計算部(図2に図示なし、後述)が第1入力データに対する正解データを取得し、この正解データと出力データbbとの差分である損失cを算出する。損失計算部によって出力データbbと比較される、第1入力データに対する正解データは、本実施の形態における第1正解データの例である。また、損失cは本実施の形態における第1差分データの例である。
第2変換モデルCM2は、ある入力データに対応する、学習モデルlmの推論の結果である出力データと、当該入力データに対する正解データとの差分である損失を学習データとして用い、かつ学習モデルLMの出力データと当該出力データに対応する入力データに対する正解データとの差分を正解データとして用いた学習により得られる学習モデルであり、例えばニューラルネットワークによるものである。フィードバック部30における第2変換モデルCM2の機能は、損失cを入力として受け、学習モデルLMからの出力データの損失を模擬した損失CCを取得することである。第2変換モデルCM2は、本実施の形態における第4学習モデルの例であり、損失CCは、本実施の形態における第2差分データの例である。つまり、第2差分データは、学習モデルLMの出力データの損失を模擬したものである。
ニューラルネットワーク学習部10は、第2変換モデルCM2が出力した損失CCを用いて学習モデルLMの重みの再調整、つまり再学習を行う。
このような仕組みにより、まず、パーソナルコンピュータ上の学習モデルLMの出力データから組込システム20上の学習モデルLMの模擬的な出力データが生成される。そして、この模擬的な出力データと、対応する入力データに対する正解データとの差分を用いて学習モデルLMの再学習が行われる。これにより、組込システムによる推論の結果の学習モデルLMへのフィードバックを、量子化ツール15がブラックボックスであり、量子化ツール15による変換の内容が不明である場合にも適切に行うことができる。
なお、損失cは、第2変換モデルCM2によって損失CCに変換されることなく学習モデルLMの再学習に用いられてもよい。ただし、学習モデルLMと、推論の結果が模擬される学習モデルlmとの仕様の差異、例えば使用される数値表現の違いに起因して、損失cをそのまま用いた再学習では、学習モデルLM自体の推論の精度が悪化することも起こり得る。このような場合には再学習後の学習モデルLMを変換して得られる学習モデルlmの精度も向上しないおそれがある。第2変換モデルCM2は、このような状況の回避の目的で必要に応じてフィードバック部30に含められる。
また、本実施の形態における再学習の工程は、図1に示される再学習の工程にとって代わるものではない。図2では示されていないが、図1に示される再学習によって学習モデルLMの精度の向上も図られてもよい。
次に、本実施の形態における再学習の工程を実現する構成について説明する。図3は、本実施の形態における上記の再学習の工程を実現する情報処理システム100の機能構成を示すブロック図である。
情報処理システム100は学習モデルの学習及び再学習を実行するシステムであり、一台又は複数のコンピュータで構成される。この学習モデルの学習及び再学習は、図2にも示されるニューラルネットワーク(図3では英文表記Neural Networkの頭字語を用いてNNと表記)学習部10によって行われる。情報処理システム100はニューラルネットワーク学習部10の他に、第1変換部31、損失計算部33、正解データ35及び第2変換部37を機能的な構成要素として備える。
第1変換部31は、情報処理システム100を構成するコンピュータが備えるプロセッサによって図2の第1変換モデルCM1が構築されることで実現される機能的な構成要素である。第1変換部31は、入力として受けた学習モデルLMの推論の結果を示す出力データBを、構築した第1変換モデルCM1によって変換して、学習モデルlmの推論の結果を示す出力データを模擬した出力データbbを取得し出力する。
損失計算部33は、情報処理システム100を構成するコンピュータが備えるプロセッサによって実行される所定のプログラムによって提供される機能的な構成要素である。損失計算部33は、出力データbb及び第1正解データを入力として受け、これらの差分を算出し、この差分を損失cとして出力する。
正解データ35は、情報処理システム100を構成するコンピュータが備える記憶装置に保持されるデータであり、第1正解データは正解データ35に含まれる。また、図1に示される、ニューラルネットワーク学習部10が再学習に用いる損失を求めるための正解データもこの正解データ35に含まれる。
第2変換部37は、情報処理システム100を構成するコンピュータが備えるプロセッサによって図2の第2変換モデルCM2が構築されることで実現される機能的な構成要素である。第2変換部37は、入力として受けた学習モデルlmの出力データの損失cを構築した第2変換モデルCM2によって変換して損失CCを取得し、出力する。損失CCは、ニューラルネットワーク学習部10によって学習モデルLMの再学習に用いられる。
なお、上記の第1変換部31、損失計算部33、正解データ35及び第2変換部37は、ニューラルネットワーク学習部10を実現するコンピュータ上で実現されてもよいし、別のコンピュータ上で実現されてもよい。また、ニューラルネットワーク学習部10自体も一台のコンピュータ上で実現されてもよいし、複数台のコンピュータ上で実現されてもよい。
次に、図3を用いて説明した構成要素を含む上記の仕組みの中でのデータの流れ及び処理の手順について説明する。
図4は、本実施の形態におけるデータの流れを時系列的に示すシーケンス図である。以下の説明では、データの流れを次の4つのフェーズに分けて説明する。
第1フェーズ:学習モデルの構築から組込システムへの実装まで
第2フェーズ:学習による第一変換モデルの構築
第3フェーズ:学習による第二変換モデルの構築
第4フェーズ:再学習
なお、図4では見やすさのために正解データ35は図示を省略している。
まず、第1フェーズにおいては、ニューラルネットワーク学習部10において、学習データ及び正解データを用いた学習によって学習モデルLMが構築される(ステップS10)。図示していないが、この段階でも、図1に示されるような再学習による学習モデルLMの推論の精度の向上が図られてもよい。構築された学習モデルLMは、量子化ツール15に入力されて(ステップS11)、量子化される(ステップS12)。量子化済みの学習モデルlmは、組込システム20に実装される(ステップS13)。これにより、組込システム20では、学習モデルlmによる推論が実行可能な状態となる。
第2フェーズにおいては、ニューラルネットワーク学習部10において、第1フェーズで構築された学習モデルLMによる推論が行われる(ステップS20)。また、組込システム20において、第1フェーズで実装された学習モデルlmによる推論が行われる(ステップS22)。これらの推論は、同一の入力データを用いて実行される。なお、組込システム20において入力データが加工されてもよい。
学習モデルLMによる推論の結果及び学習モデルlmによる推論の結果を取得(ステップS21、S23)した第1変換部31は、学習モデルLMによる推論の結果を学習データとして用い、かつ学習モデルlmによる推論の結果を正解データとして用いる学習(ステップS24)によって、第1変換モデルCM1を構築する。なお、事前に行われた学習処理により構築された第1変換モデルCM1がメモリなどから取得されてもよい。
第3フェーズにおいては、損失計算部33は、学習モデルlmによって既にした推論の結果を取得し(ステップS30)、また、正解データ35からこの推論の結果(出力データ)に対応する入力データに対する正解データを取得する(ステップS31)。そして損失計算部33は、学習モデルlmによる推論の結果に対する当該正解データからの損失(差分)を算出する(ステップS32)。
一方で、ニューラルネットワーク学習部10は、学習モデルLMによって既にした推論の結果(出力データ)に対応する入力データに対する正解データを正解データ35から取得し(ステップS34)、学習モデルLMによる推論の結果に対する当該正解データからの損失(差分)を算出する(ステップS35)。
損失計算部33が算出した学習モデルlmの推論結果の損失、及びニューラルネットワーク学習部10が算出した学習モデルLMの推論結果の損失を取得(ステップS33、S36)した第2変換部37は、学習モデルlmの推論結果の損失を学習データとして用い、かつ学習モデルLMの推論結果の損失を正解データとして用いる学習(ステップS37)によって、第2変換モデルCM2を構築する。なお、事前に行われた学習処理により構築された第2変換モデルCM2がメモリなどから取得されてもよい。
第1フェーズから第3フェーズまでを経て、図2に示されるフィードバック部30が情報処理システム100に構築される。第4フェーズは、この状態に至った情報処理システム100で実行される。
第4フェーズにおいては、ニューラルネットワーク学習部10で学習モデルLMによって実行された推論の結果(出力データB)が、第1変換部31において第1変換モデルCM1によって変換される(ステップS40〜S42)。変換されたこの推論の結果(出力データbb)は、学習モデルLMによる推論の結果(出力データB)に対応する入力データから学習モデルlmによって推論される結果を模擬したものである。
出力データbbを取得(ステップS43)した損失計算部33は、学習モデルLMによる推論の結果(出力データB)に対応する入力データに対する正解データ(第1正解データ)を正解データ35から取得する(ステップS44)。そして損失計算部33は、模擬された学習モデルlmによる推論の結果に対する第1正解データからの損失(差分)を算出する(ステップS45)。
第2変換部37は、第2変換モデルCM2によって当該損失を変換する(ステップS46、S47)。ニューラルネットワーク学習部10は、この変換済みの損失を取得し(ステップS48)、学習モデルLMの再学習(ステップS49)に用いる。
学習モデルLMの再学習によって重み1A〜3Aが更新されると、第1フェーズに戻って、量子化(ステップS12)以降の処理を実行することで再学習が重ねられもよい。
(変形例)
以上、1つ又は複数の態様に係る情報処理方法及び情報処理システムについて、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものも、1つ又は複数の態様の範囲内に含まれてもよい。
図5は、そのような変形の一例を説明するための図である。以下、図2に示される仕組みとの差異点を中心に説明する。
図5に示される、本変形例における正解データに対する差分を学習モデルに反映するための仕組みでは、第1変換モデルへの入力が、学習モデルLMの出力データBに加えて、出力データBに対応する入力データ、及び学習モデルLMのパラメタである重み1A〜3Aを含む点が図2に示される仕組みと異なる。
つまりは、本変形例においては、第2フェーズにおいて、第1変換モデルCM1の構築のための学習データとして、出力データB、出力データBに対応する入力データ、及び学習モデルLMのパラメタが用いられている。このように、第1変換モデルCM1の学習のための学習データとしても用いられる学習モデルLMのパラメタは、本変形例における学習パラメタの例である。
このように、より多くの学習データを用いた学習により得られる第1変換モデルCM1は、学習モデルlmの出力データをより高い精度で模擬する出力データbbを出力することができる。
なお、第1変換モデルCM1に入力される学習データ及び推論のための入力データとして出力データBに追加されるデータは、出力データBに対応する入力データ及び学習モデルLMのパラメタのいずれかのみであってもよい。
また別の変形例として、出力データbbの代わりに、出力データbが使用されて損失cが算出されてもよい。つまり、第1変換モデルCM1を用いることなく、学習モデルlmの推論結果による出力データが損失cの算出に用いられてもよい。
また別の変形例として、第1変換モデルCM1及び第2変換モデルCM2を用いた変換の有無に応じて、予測される学習モデルlmの性能の変化が提示されてもよい。例えば、損失計算部33は、第1変換モデルCM1のみが用いられる場合、算出される損失cと損失Cとの差分から学習モデルlmの精度の変化を推定する。また、損失計算部33は、第1変換モデルCM1及び第2変換モデルCM2が用いられる場合、算出される損失CCと損失Cとの差分から学習モデルlmの精度の変化を推定する。そして、情報処理システムが別途に備える提示装置が推定された学習モデルlmの精度の変化を提示する。提示装置は、ディスプレイ、プロジェクタ、又はスピーカなどであってよい。
本発明は、学習モデルが構築時の環境よりも制限の厳しい実行環境に適用される分野に利用可能であり、例えば自動車(自動運転車を含む)、家庭用電気機器、ウエアラブル情報端末、産業機器、その他のIoTに取り込まれる各種の産業分野において利用可能である。
1A、1a、2A、2a、3A、3a パラメタ(重み)
10 ニューラルネットワーク学習部
15 量子化ツール
20 組込システム
30 フィードバック部
31 第1変換部
33 損失計算部
35 正解データ
37 第2変換部
100 情報処理システム
B、b、bb 出力データ
C、CC、c 損失
CM1 第1変換モデル
CM2 第2変換モデル
LM、lm 学習モデル

Claims (9)

  1. コンピュータを用いて、
    第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、
    前記第1入力データに対する第1正解データを取得し、
    前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う、
    情報処理方法。
  2. 前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いた学習により得られる第4学習モデルに、前記第1差分データを入力して第2差分データを取得し、
    前記第2差分データを用いて、前記第1学習モデルの再学習を行う、
    請求項1に記載の情報処理方法。
  3. 前記第3学習モデルは、前記第1学習モデルの出力データに対応する入力データをさらなる学習データとして用いた学習により得られる、
    請求項1又は2に記載の情報処理方法。
  4. 前記第3学習モデルは、前記第1学習モデルの出力データに対応する学習パラメタをさらなる学習データとして用いた学習により得られる、
    請求項1から3のいずれか一項に記載の情報処理方法。
  5. 前記第1学習モデル及び前記第2学習モデルは、ニューラルネットワーク型の学習モデルであり、
    前記学習パラメタは、ニューラルネットワークのノードに対応する重みである、
    請求項4に記載の情報処理方法。
  6. 前記第1学習モデルの変換は、ニューラルネットワークの軽量化である、
    請求項5に記載の情報処理方法。
  7. 前記第1学習モデルの出力データを学習データとして用い、かつ前記第2学習モデルの出力データを正解データとして用いて、前記第3学習モデルの学習を行う、
    請求項1から6のいずれか1項に記載の情報処理方法。
  8. 前記第2学習モデルの出力データと前記第1学習モデルへの入力データに対する正解データとの差分に対応する差分データを学習データとして用い、かつ前記第1学習モデルの出力データと前記第1学習モデルの入力データに対応する正解データとの差分に対応する差分データを正解データとして用いて、前記第4学習モデルの学習を行う、
    請求項2に記載の情報処理方法。
  9. コンピュータを備える情報処理システムであって、
    前記コンピュータは、
    第1学習モデルの出力データを学習データとして用い、かつ前記第1学習モデルの変換により得られる第2学習モデルの出力データを正解データとして用いた学習により得られる第3学習モデルに、前記第1学習モデルへの第1入力データに対応する第1出力データを入力して第2出力データを取得し、
    前記第1入力データに対する第1正解データを取得し、
    前記第2出力データと前記第1正解データとの差分に対応する第1差分データを用いて、前記第1学習モデルの再学習を行う、
    情報処理システム。
JP2018177725A 2018-01-29 2018-09-21 情報処理方法及び情報処理システム Active JP7058202B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19153167.2A EP3518151A1 (en) 2018-01-29 2019-01-23 Data processing method and data processing system
CN201910063043.7A CN110097191B (zh) 2018-01-29 2019-01-23 信息处理方法以及信息处理系统
US16/256,335 US10885447B2 (en) 2018-01-29 2019-01-24 Data processing method and data processing system
US17/109,687 US11694099B2 (en) 2018-01-29 2020-12-02 Data processing method and data processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862623137P 2018-01-29 2018-01-29
US62/623,137 2018-01-29

Publications (2)

Publication Number Publication Date
JP2019133626A true JP2019133626A (ja) 2019-08-08
JP7058202B2 JP7058202B2 (ja) 2022-04-21

Family

ID=67546321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177725A Active JP7058202B2 (ja) 2018-01-29 2018-09-21 情報処理方法及び情報処理システム

Country Status (1)

Country Link
JP (1) JP7058202B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027604A (ja) * 2018-08-09 2020-02-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、及び情報処理システム
JP2021051640A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP2021051642A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
WO2021064833A1 (ja) * 2019-09-30 2021-04-08 日本電気株式会社 異常検知装置、異常検知方法、及び、記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (ja) * 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation 出力分布による生徒dnnの学習
JP2019133628A (ja) * 2018-01-29 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (ja) * 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation 出力分布による生徒dnnの学習
JP2019133628A (ja) * 2018-01-29 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CARREIRA-PERPINAN, M.A.: "Model compression as constrained optimization, with application to neural nets. Part I: general fram", ARXIV.ORG [ONLINE], JPN6022012164, 5 July 2017 (2017-07-05), ISSN: 0004742180 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027604A (ja) * 2018-08-09 2020-02-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、及び情報処理システム
JP7171478B2 (ja) 2018-08-09 2022-11-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、及び情報処理システム
JP2021051640A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP2021051642A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7163894B2 (ja) 2019-09-26 2022-11-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7230755B2 (ja) 2019-09-26 2023-03-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
WO2021064833A1 (ja) * 2019-09-30 2021-04-08 日本電気株式会社 異常検知装置、異常検知方法、及び、記録媒体
JPWO2021064833A1 (ja) * 2019-09-30 2021-04-08

Also Published As

Publication number Publication date
JP7058202B2 (ja) 2022-04-21

Similar Documents

Publication Publication Date Title
JP2019133626A (ja) 情報処理方法及び情報処理システム
US11861474B2 (en) Dynamic placement of computation sub-graphs
WO2020182989A1 (en) Scheduling computation graphs using neural networks
Schulman Optimizing expectations: From deep reinforcement learning to stochastic computation graphs
CN110097191B (zh) 信息处理方法以及信息处理系统
JP5795743B2 (ja) 適応的重み付けを用いた様々な文書間類似度計算方法に基づいた文書比較方法および文書比較システム
CN110832509A (zh) 使用神经网络的黑盒优化
JP2001236337A (ja) ニューラルネットワークによる予測装置
CN113112013A (zh) 针对分辨率降低的神经网络的优化量化
JP6088613B1 (ja) ロータにおける磁石の配置位置を学習する機械学習装置および方法ならびに該機械学習装置を備えたロータ設計装置
CN113487018A (zh) 一种基于会话推荐的全局上下文增强图神经网络方法
US20180268816A1 (en) Generating device, generating method, and non-transitory computer readable storage medium
Ferranti et al. A parallel dual fast gradient method for MPC applications
US11526690B2 (en) Learning device, learning method, and computer program product
JP2021089655A (ja) 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム
CN110971683A (zh) 基于强化学习的服务组合方法
CN112115407A (zh) 伊辛机数据输入设备以及将数据输入至伊辛机的方法
CN114118358A (zh) 图像处理方法、装置、电子设备、介质及程序产品
JP2020179438A (ja) 計算機システム及び機械学習方法
JP2020119108A (ja) データ処理装置、データ処理方法、データ処理プログラム
JP2021082014A (ja) 推定装置、訓練装置、推定方法、訓練方法、プログラム及び非一時的コンピュータ可読媒体
WO2024052996A1 (ja) 学習装置、変換装置、学習方法、変換方法及びプログラム
KR102134972B1 (ko) 속도와 전력효율이 향상된 결정 트리 장치 및 이의 분류 방법
US11956152B2 (en) Traffic fluctuation prediction device, method and program
US20220004817A1 (en) Data analysis system, learning device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7058202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150