JP7495833B2 - Dnnモデル圧縮システム - Google Patents

Dnnモデル圧縮システム Download PDF

Info

Publication number
JP7495833B2
JP7495833B2 JP2020116945A JP2020116945A JP7495833B2 JP 7495833 B2 JP7495833 B2 JP 7495833B2 JP 2020116945 A JP2020116945 A JP 2020116945A JP 2020116945 A JP2020116945 A JP 2020116945A JP 7495833 B2 JP7495833 B2 JP 7495833B2
Authority
JP
Japan
Prior art keywords
pruning
model
unit
sub
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020116945A
Other languages
English (en)
Other versions
JP2022014569A (ja
Inventor
豪一 小野
直弘 高武
クレシテリ,ヴィヴィアナ
光祥 猪貝
純一 北上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Technology Ltd
Original Assignee
Hitachi Solutions Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Technology Ltd filed Critical Hitachi Solutions Technology Ltd
Priority to JP2020116945A priority Critical patent/JP7495833B2/ja
Publication of JP2022014569A publication Critical patent/JP2022014569A/ja
Application granted granted Critical
Publication of JP7495833B2 publication Critical patent/JP7495833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、DNNモデル圧縮システムに関する。
CNN(Convolutional Neural Network)が組み込まれた組み込みデバイスを用いた画像認識が行われている。CNNが組み込まれた組み込みデバイスは、例えば乗用車、建機、農機等の車両等に搭載され、画像認識を用いた自動運転等に応用されている。
例えば特許文献1では、対象物体の特徴点、姿勢又は動作を推定する用に、より好適な推定装置が開示されている。具体的には、画像に映る対象物体の領域における各画素値を、前記画像を表現する全階調域のうちの第1の階調範囲内に圧縮する圧縮処理部(23)と、前記圧縮処理が施された前記画像に対して、学習済みの第1の識別器モデル(Dm1)を用いた画像解析を施して、前記対象物体の特徴点、姿勢又は動作を推定する推定部(24)と、を備え、前記第1の識別器モデル(Dm1)は、前記圧縮処理が施された教師画像と当該教師画像に映る前記対象物体の特徴点、姿勢又は動作とが関連付けられた第1の学習データ(Dt1)を用いて、学習処理が施されている旨、特許文献1には記載されている。
特開2019-175093号公報
CNNのベースモデルを用いれば、画像に含まれるすべての物体を高精度に認識可能である。ただし、演算量が非常に多大になるため、プロセッサに大きな負荷が掛かってしまう。また、CNNよりも層が深いDNN(Deep Neural Network)を用いた場合、CNNよりもさらに演算量が多くなるため、プロセッサに掛かる負荷がさらに増大する。一方、CNNやDNNが搭載される装置(車両等)ごとに必要な情報は異なる。
そこで、本発明は、装置の要求仕様に応じたモデル圧縮を行うことが可能なDNNモデル圧縮システムを提供することを目的とする。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。
本発明の代表的な実施の形態によるDNNモデル圧縮システムは、データセットから認識対象種の物体のみを切り出したサブデータセットを生成するサブデータセット生成部と、サブデータセットを用いてDNNの内部のニューロンの物体に対する感度情報を取得する感度解析部と、感度情報およびプルーニング仕様情報を用いてプルーニング前モデルからニューロンを削減したプルーニング後モデルを生成するプルーニング部と、データセットを用いてプルーニング後モデルにおける物体の認識精度を評価する推論部と、サブデータセット、感度情報、プルーニング後モデルを格納する格納部と、を備えている。プルーニング部は、プルーニング仕様情報に含まれる認識対象種ごとの優先度を示すプルーニング優先度に基づき削減対象のニューロンを選択する。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
すなわち、本発明の代表的な実施の形態によれば、装置の要求仕様に応じたモデル圧縮を行うことが可能となる。
上記した以外の課題、構成および効果は、以下の「発明を実施するための形態」の説明により明らかにされる。
本発明の一実施の形態に係るDNNモデル圧縮システムの一例を示すブロック図である。 DNNモデル圧縮方法を説明する図である。 本発明の実施の形態1に係るDNNモデル圧縮方法の一例を示すフロー図である。 本発明の実施の形態1による効果を説明する図である。 本発明の実施の形態2に係るDNNモデル圧縮方法の一例を示すフロー図である。
以下、図面を参照して本発明の実施の形態を説明する。実施の形態は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。
図面において示す各構成要素の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲などに限定されない。
同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。
(実施の形態1)
<DNNモデル圧縮システムの構成>
図1は、本発明の一実施の形態に係るDNNモデル圧縮システムの一例を示すブロック図である。DNNモデル圧縮システム1は、DNNモデルが搭載される装置の要求仕様に応じて、DNNのベースモデルを圧縮するシステムである。図2は、DNNモデル圧縮方法を説明する図である。
DNNモデル圧縮システム1は、例えば計算機においてプログラムを実行することで実現される。ここで、計算機は、プロセッサ(例えばCPU、GPU)によりプログラムを実行し、記憶資源(例えばメモリ)やインターフェースデバイス(例えば通信ポート)等を用いながら、プログラムで定められた処理を行う。そのため、プログラムを実行して行う処理の主体を、プロセッサとしてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路を含んでいてもよい。ここで、専用回路とは、例えばFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等である。
プログラムは、プログラムソースから計算機にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、実施例において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
図1に示すように、DNNモデル圧縮システム1は、サブデータセット生成部10、感度解析部20、プルーニング部30、推論部40、格納部50を備えている。
また、図1には、プルーニング前の初期モデル情報100が示されている。初期モデル情報100は、例えば図1の格納部50または別の格納部に格納されてもよいし、外部装置に格納されてもよい。初期モデル情報100は、データセット101、プルーニング前モデル103、プルーニング仕様情報105を含む。
データセット101は、後述するサブデータの元となるデータであり、認識対象種(以下、クラスと呼ぶ場合がある)の物体が写る複数の画像データを含む。それぞれの画像データは、プルーニング仕様情報105に規定されるすべてのクラスの物体を含んでもよいし、一部の認識対象物の物体のみを含んでもよい。
プルーニング前モデル103は、プルーニングの対象すなわち圧縮対象のモデルである。プルーニング前モデル103は、例えばDNNのベースモデルであるが、すでに圧縮されたモデルでも構わない。
プルーニング仕様情報105は、プルーニングの仕様を規定する情報である。プルーニング仕様情報105は、例えば、認識対象物ごとのプルーニング優先度105a、ニューロンのプルーニング率105b等を含む。プルーニング率とは、プルーニング前モデル103のニューロン数に対し、削除されるニューロン数の割合を示す。あるいは、プルーニング率は、プルーニング前モデル103のニューロン数に対する、プルーニング後モデルのニューロン数の割合で規定されてもよい。
プルーニング優先度とは、クラスごとの優先度を示す情報である。すなわち、プルーニング優先度が高いクラスは、プルーニング後モデルにおける画像認識において物体の認識精度が優先されるクラスである。プルーニング優先度が低いクラスは、プルーニング後モデルにおける画像認識において、プルーニング優先度が高いクラスより物体の認識精度が優先されないクラスである。
例えば車両の自動運転に最適化したプルーニング後モデルを生成する場合、例えば車両や歩行者等、自動運転時の安全確保に必要なこれらのクラスについては、高い認識精度が要求される。したがって、これらのクラスに対しては、プルーニング優先度が高く設定される。一方、その他の家屋、田畑および山等の風景や地形等を構成するものについては、高い認識精度を必要としないので、プルーニング優先度が低く設定される。
サブデータセット生成部10は、図1に示すデータセット101から認識対象種の物体のみを切り出したサブデータセットを生成する機能ブロックである。具体的に述べると、サブデータセット生成部10は、データセット101のそれぞれの画像データに対する画像認識を行い、画像データに含まれるクラスおよび物体を認識する。そして、サブデータセット生成部10は、認識した物体を元の画像データから抽出し、抽出した物体の画像データをサブデータとして生成する。そして、サブデータセット生成部10は、複数のサブデータからなるサブデータセット51を生成する。生成されたサブデータセット51は、例えば格納部50に格納される。また、生成されたサブデータセット51は、サブデータセット生成部10から感度解析部20へ送信される。
また、サブデータセット生成部10は、例えば、プルーニング仕様情報105に基づき、所定のクラスのサブデータのみを含むサブデータセットを生成してもよい。また、これとは逆に、サブデータセット生成部10は、所定のクラスのサブデータを含まないサブデータセットを生成してもよい。
それぞれのサブデータは、対応するクラスと関連付けられている。例えば、それぞれのサブデータに、対応するクラスを識別する情報が含まれてもよいし、それぞれのサブデータと、対応するクラスとを一覧にまとめたテーブルが生成されてもよい。このテーブルも、例えば格納部50に格納される。
なお、図2では、データセット101から1つのサブデータセットが生成される場合が例示されているがこのような場合に限定されるものではない。サブデータセットは、例えば同じクラスのサブデータのみで構成されてもよい。この場合、クラスごとに対応するサブデータセットが生成されることとなり、1つのデータセット101から複数のサブデータセットが生成される。
図2には、データセット101から生成された、車両の複数のサブデータおよび歩行者の複数のサブデータを含むサブデータセット51が示されている。なお、図2では、説明の便宜上2種類のクラスのみが示されているが、実際のサブデータセット51には、他のクラス(例えば道路等)のサブデータも含まれる。
感度解析部20は、サブデータセット51を用いて、物体に対するDNN内部のニューロンの物体に対する感度情報を取得する機能ブロックである。具体的に述べると、感度解析部20は、初期モデル情報100のプルーニング前モデル103を読み出す。そして、感度解析部20は、サブデータセット51に含まれる複数のサブデータをプルーニング前モデル103へ入力し、それぞれのサブデータに対する画像認識を実行させる。このとき、感度解析部20は、プルーニング前モデル103の各ニューロンを監視し、各ニューロンの発火情報(例えば発火レベル)を取得する。
感度解析部20は、画像の注視領域ごとに各ニューロンの発火情報を取得してもよい。すなわち、感度解析部20は、データセット101に含まれる画像データにおける注視領域ごとにそれぞれのニューロンの物体に対する感度情報を取得してもよい。注視領域は、例えば、画像データにおける物体の方向、撮像位置から物体までの距離等で規定される。
感度解析部20は、例えば、画像データの同じ方向にある物体のサブデータに対する各ニューロンの発火情報を抽出してもよい。これにより、特定の方向における認識精度を向上させたプルーニング後モデルを生成することが可能となる。また、感度解析部20は、同じ距離の物体のサブデータに対する各ニューロンの発火情報を抽出してもよい。これにより、特定の距離における認識精度を向上させたプルーニング後モデルを生成することが可能となる。このように、注視領域ごとの発火情報を取得することで、特定の注視領域に最適化したプルーニング後モデルを生成することが可能となる。なお、プルーニング後モデルの生成については、後で詳しく説明する。
そして、それぞれのサブデータに対する画像認識が完了すると、感度解析部20は、発火情報に基づきニューロンごとに最も発火したクラスを抽出し、それぞれのニューロンと抽出したクラスとを関連付けた感度情報53を生成する。例えば、感度解析部20は、それぞれのサブデータに対する発火レベルを比較し、発火レベルが最も高かったクラスを抽出することで、それぞれのニューロンと抽出したクラスとを関連付けてもよい。生成された感度情報53は、例えば格納部50に格納される。また、感度情報53は、感度解析部20からプルーニング部30へ送信される。
なお、感度解析部20で用いられるサブデータセット51は、サブデータセット生成部10から送信されたものでもよいし、格納部50から読み出されたものでもよい。
また、感度解析部20は、例えば、ニューロンごとに、発火レベルと予め設定された発火レベル閾値とを比較し、発火レベルが発火レベル閾値以上となるクラスを抽出してもよい。そして、感度解析部20は、ニューロンと発火レベル閾値を用いて抽出したクラスとを関連付けた感度情報を生成してもよい。この場合、1つのニューロンに複数のクラスが関連付けられてもよい。
図2には、車両および歩行者のサブデータを用いた推論結果が示されている。図2において「1」と表示されたニューロンは、車両のサブデータに対して最も発火したニューロンを示している。図2において「2」と表示されたニューロンは、歩行者のサブデータに対して最も発火したニューロンを示している。
図2において「3」と表示されたニューロンは、車両および歩行者のサブデータに対して共通に最も発火したニューロンを示している。あるいは、「3」と表示されたニューロンについては、車両および歩行者のサブデータに対して発火レベルが所定の発火レベル閾値以上であるとしてもよい。すなわち、このニューロンは、車両および歩行者の両方に反応したニューロンである。図2において「4」と表示されたニューロンは、車両および歩行者以外のクラスのサブデータに対して最も発火したニューロンを示している。
プルーニング部30は、感度情報53を用いてニューロンを削減したプルーニング後モデルを生成する機能ブロックである。プルーニング部30は、プルーニング仕様情報105に基づき、プルーニング前モデル103から削減対象のニューロンを選択し、選択した削減対象のニューロンを削減する。このように、プルーニング部30は、プルーニング後モデル55を生成する。プルーニング部30は、生成したプルーニング後モデル55を格納部50へ格納する。
削減対象のニューロンの選択方法について、具体的に述べる。プルーニング部30は、プルーニング仕様情報105に規定される各クラスのプルーニング優先度を参照する。そして、プルーニング部30は、プルーニング優先度の低いクラスと関連付けられたニューロンを削減対象のニューロンとして選択し、プルーニング優先度の高いクラスと関連付けられたニューロンをモデルに残すニューロン、すなわち削減しないニューロンとして選択する。このように、プルーニング部30は、それぞれのニューロンに対し、モデルに残すか、またはモデルから削減するかの選択を行う。その際、プルーニング部30は、例えば、所定のプルーニング優先度閾値以上のプルーニング優先度のクラスと関連付けられたニューロンを残し、プルーニング優先度閾値よりプルーニング優先度が低いクラスと関連付けられたニューロンを削減対象のニューロンとしてもよい。
また、プルーニング部30は、プルーニング仕様情報105に規定されたプルーニング率105bに基づき、削減対象のニューロンを選択してもよい。この場合、プルーニング部30は、例えば、プルーニング優先度の最も低いクラスと関連付けられたニューロンから順に、規定されたプルーニング率105bに達するまで削減対象のニューロンを選択する。
例えば、図2に示すように、自動運転においては、安全確保に必要な車両の認識精度が優先されるので、車両と関連付けられたニューロン(「1」)は残される。
また、歩行者の認識精度も安全確保においては重要であるので、歩行者と関連付けられたニューロン(「2」、「3」)も残されてよい。一方、安全確保に直接影響を与えない風景や地形等に関わるその他のクラスと関連付けられたニューロン(「4」)は削除される。
プルーニング部30は、中間層ごとに、削除せずに残したニューロンを用いた全結合層をそれぞれ生成する。このように、プルーニング部30は、プルーニング仕様情報105に含まれるクラスのプルーニング優先度を用いてプルーニング後モデル55を生成する。
推論部40は、データセット101を用いて、プルーニング後モデル55における物体の認識精度を評価する機能ブロックである。図2に示すように、推論部40は、プルーニング後モデル55にデータセット101の各画像データを入力し、全結合層における各クラスの認識精度、および各物体の位置や面積等(以下では、ボックスとも呼ぶ)の認識精度を検出し評価する。全結合層における認識精度の検出は、出力層直前の中間層のみに対して行われてもよいし、複数の中間層ひいてはすべての中間層に対して行われてもよい。
格納部50は、サブデータセット51、感度情報53、プルーニング後モデル55を格納する記憶装置である。
<DNNモデル圧縮方法>
図3は、本発明の実施の形態1に係るDNNモデル圧縮方法の一例を示すフロー図である。図3では、各ステップS10~40とともに、各種情報やデータの流れが示されている。
ステップS10において、サブデータセット生成部10は、サブデータセットを生成する。サブデータセット生成部10は、初期モデル情報100からデータセット101を読み出し、データセット101から物体のみを切り出したサブデータを生成する。そして、サブデータセット生成部10は、複数のサブデータからなるサブデータセット51を生成する。
そして、ステップS15において、サブデータセット生成部10は、生成したサブデータセット51を感度解析部20へ送信するとともに、格納部50に格納する。
ここで、サブデータセット生成部10は、1つのデータセット101から複数のサブデータセットを生成してもよい。例えば、同じクラスのサブデータのみで構成されるサブデータセットが生成されてもよいし、所定数の画像データから生成されるサブデータをまとめたサブデータセットが生成されてもよい。図3では、3つのサブデータセット51_1~51_3が生成された場合が例示されている。
ステップS20において、感度解析部20は、サブデータセット生成部10からサブデータセット51(例えば51_1~51_3)を受信し、あるいは格納部50からサブデータセット51を読み出し、サブデータに対するプルーニング前モデル103の各ニューロンの発火情報を取得することで、ニューロンの感度を解析する。また、感度解析部20は、発火情報に基づきニューロンごとに最も発火したクラスを抽出し、それぞれのニューロンと抽出したクラスとを関連付けた感度情報53を生成する。
そして、ステップS25において、感度解析部20は、生成した感度情報53をプルーニング部30へ送信するとともに、格納部50に格納する。
ステップS30において、プルーニング部30は、感度解析部20から感度情報53を受信し、あるいは格納部50から感度情報53を読み出す。また、プルーニング部30は、初期モデル情報100からプルーニング仕様情報105に含まれるプルーニング優先度105aおよびプルーニング率105bを読み出す。プルーニング部30は、感度情報53、プルーニング優先度105a、およびプルーニング率105bに基づき、プルーニング前モデル103から削除するニューロンを選択し、選択したニューロンをプルーニング前モデル103から削除する。プルーニング部30は、中間層ごとに、残したニューロンを用いた全結合層を生成する。言い換えれば、プルーニング部30は、残したニューロンにより全結合層の再構築を行う。これにより、プルーニング部30は、プルーニング後モデル55を生成する。
そして、ステップS35において、プルーニング部30は、生成したプルーニング後モデル55を推論部40へ送信するとともに、格納部50へ格納する。
ステップS40において、推論部40は、プルーニング部30からプルーニング後モデル55を受信し、あるいは格納部50からプルーニング後モデル55を読み出す。また、推論部40は、初期モデル情報100からデータセット101を読み出す。推論部40は、プルーニング後モデル55にデータセット101の各画像データを入力し、プルーニング後モデル55に対し、画像データに含まれる物体の認識精度を評価する。
その際、推論部40は、物体のクラス、および位置や面積等のボックスについての評価をそれぞれ行う。推論部40は、例えば、プルーニング後モデル55において認識した物体数に対する、クラスを正しく認識できた物体数の割合によりクラスの認識精度を評価する。クラスの認識精度が所定のクラス認識精度閾値より低い場合、推論部40は、クラスの認識精度は十分でないと判断する。
一方、推論部40は、例えば、プルーニング後モデル55において認識した物体の位置と、物体の実際の位置(例えば対応する画像データにおける物体の位置)とのずれ量(位置ずれ量)により位置(ボックス)についての認識精度を評価する。具体的には、推論部40は、位置のずれ量に基づき物体ごとに位置ずれ量の可否を判断する。
例えば、位置ずれ量が所定の位置ずれ量閾値以内の場合、推論部40は、検出した位置ずれ量は小さいので「可」であると判断する。一方、位置ずれ量が所定の位置ずれ量閾値より大きい場合、推論部40は、検出した位置ずれ量は大きいので「否」であると判断する。そして、推論部40は、プルーニング後モデル55において認識した物体数に対する、位置ずれ量が「否」であると判定した物体数の割合を位置の認識精度として評価する。位置の認識精度が所定の位置認識精度閾値(ボックス認識精度閾値)より低い場合、推論部40は、プルーニング後モデル55の位置(ボックス)の認識精度は十分でないと判断する。
また、推論部40は、例えば、プルーニング後モデル55において認識した物体の面積と、物体の実際の面積(例えば対応する画像データにおける物体の面積)とのずれ量により位置(ボックス)についての認識精度を評価する。具体的には、推論部40は、面積のずれ量に基づき物体ごとに面積ずれ量の可否を判断する。
例えば、面積ずれ量が所定の面積ずれ量閾値以内の場合、推論部40は、検出した面積ずれ量は小さいので「可」であると判断する。一方、面積ずれ量が所定の面積ずれ量閾値より大きい場合、推論部40は、検出した面積ずれ量は大きいので「否」であると判断する。そして、推論部40は、プルーニング後モデル55において認識した物体数に対する、面積ずれ量が「否」であると判定した物体数の割合を面積の認識精度として評価する。面積の認識精度が所定の面積認識精度閾値(ボックス認識精度閾値)より低い場合、推論部40は、プルーニング後モデル55の面積(ボックス)の認識精度は十分でないと判断する。
なお、推論部40は、位置や面積についてのそれぞれの認識精度の評価結果を組み合わせることでボックスについての認識精度の評価を行ってもよい。
認識精度の評価は、プルーニング優先度が高く設定されたクラスの物体について行えばよく、プルーニング優先度が低いクラスの物体について行わなくても構わない。プルーニング優先度が低いクラスと関連付けられたニューロンを削除しており、このクラスの物体の認識精度の低下は想定されているからである。
したがって、プルーニング後モデル55に対する認識精度の評価対象のクラスの物体をプルーニング優先度に基づき設定してもよい。例えば、プルーニング優先度が、予め設定された評価対象プルーニング優先度以上に設定されたクラスの物体は認識精度の評価対象となる。一方、プルーニング優先度が、評価対象プルーニング優先度より低く設定されたクラスの物体は認識精度の評価対象とはならない。
なお、クラスおよびボックスに対する認識精度の評価方法はこれらに限定されるものではない。なお、クラスまたはボックスの認識精度の評価結果が十分でないと判断された場合、作業者により、例えばプルーニング率105bの変更、データセットやサブデータセットの変更等が行われる。
<本実施の形態による主な効果>
本実施の形態によれば、プルーニング部30は、プルーニング仕様情報105に含まれるプルーニング優先度105aに基づき削減対象のニューロンを選択する。この構成によれば、プルーニング優先度の高いクラスと関連付けられたニューロンを残しつつ、ニューロンを削減することができるので、装置の要求仕様に応じたモデル圧縮を行うことが可能となる。
図4は、本発明の実施の形態1による効果を説明する図である。図4の横軸は、プルーニング後モデルにおける演算量を示す。横軸は、プルーニング前モデルにおける演算量に対する割合を示している。すなわち、横軸の100%は、プルーニング前モデルで構成されたDNNにおける演算量を示している。図4の縦軸は、認識精度を示している。図4において、従来手法における認識精度が破線で示され、本実施の形態(図4では本発明と表記)における認識精度が実線で示されている。
図4に示すように、プルーニングにより演算量を減少させつつ、従来手法より認識精度を高く維持できている。このように、本実施の形態によれば、従来手法より認識精度を向上させつつ、装置の要求仕様に応じたモデル圧縮を行うことが可能である。
また、本実施の形態によれば、プルーニング部30は、プルーニング率に基づき削減対象のニューロンを選択する。この構成によれば、プルーニング後モデルによる画像認識においてプロセッサに掛かる負荷を考慮したプルーニングを行うことが可能となる。
また、本実施の形態によれば、推論部40は、プルーニング後モデル55の全結合層における物体の認識精度を評価する。この構成によれば、プルーニング後モデル55の評価を行うことができる。また、評価結果は、プルーニング後モデル55を再度生成するかどうかの判断に用いられる。
また、本実施の形態によれば、推論部40は、物体のクラスの認識精度を評価する。また、推論部40は、物体の位置および面積の認識精度を評価する。この構成によれば、必要な項目に応じてプルーニング後モデル55をそれぞれ評価することが可能となる。
また、本実施の形態によれば、推論部40は、プルーニング後モデル55の複数の全結合層に対し、物体の認識精度を評価する。この構成によれば、プルーニング後モデル55に対するより正確な評価を行うことが可能となる。また、全結合層ごとの評価結果を比較し、認識精度が低くなった層を抽出することが可能となる。
また、本実施の形態によれば、感度解析部20は、注視領域ごとにニューロンの物体に対する感度情報を取得する。注視領域は、画像データにおける物体の方向、または撮像位置から物体までの距離である。この構成によれば、特定の方向における認識精度を向上させたプルーニング後モデルを生成することが可能となる。また、特定の距離における認識精度を向上させたプルーニング後モデルを生成することが可能となる。このように、注視領域ごとの発火情報を取得することで、特定の注視領域に最適化したプルーニング後モデルを生成することが可能となる。
また、本実施の形態によれば、推論部40は、プルーニング優先度が高いクラスの物体の認識精度を評価する。この構成によれば、認識精度の低下が想定されるプルーニング優先度が低いクラスの物体についての評価結果を考慮しなくてよいので、装置の要求仕様に応じた適切な評価を行うことが可能となる。
(実施の形態2)
次に、実施の形態2について説明する。本実施の形態では、プルーニング部モデル55に対する評価結果に応じてプルーニング仕様情報105を自動で変更する場合について説明する。なお、以下では、前述の実施の形態と重複する箇所については、説明を適宜省略する。
図5は、本発明の実施の形態2に係るDNNモデル圧縮方法の一例を示すフロー図である。図5は、図3のフローに、プルーニング後モデルの評価結果に応じたステップが追加されたものとなっている。
ステップS40において、プルーニング後モデル55に対する物体の認識精度を評価すると、ステップS50が実行される。ステップS50において、推論部40は、図3のステップS40にて行ったプルーニング後モデル55に対する評価結果の可否について判定する。ステップS40における評価結果が肯定的な結果である場合(YES)、フローが終了する。すなわち、プルーニング後モデル55における物体の認識精度が所定の認識精度閾値以上である場合、推論部40は、プルーニング後モデル55が十分な認識精度を備えていると判断する。この場合、プルーニング仕様情報の変更は行われない。
一方、ステップS40における評価結果が否定的な結果である場合(NO)、ステップS60が実行される。すなわち、プルーニング後モデル55における物体の認識精度が所定の認識精度閾値より低い場合、推論部40は、プルーニング後モデル55が十分な認識精度を備えていないと判断する。例えば、推論部40は、クラスおよびボックスのいずれかについて認識精度が認識精度閾値より低い場合、プルーニング後モデル55が十分な認識精度を備えていないと判断する。あるいは、推論部40は、クラスおよびボックスの両方について認識精度が認識精度閾値より低い場合のみ、プルーニング後モデル55が十分な認識精度を備えていないと判断してもよい。
ステップS60において、推論部40は、プルーニング仕様情報(例えばプルーニング率)を変更する。推論部40は、例えば現在のプルーニング率から所定の値または所定の割合だけ変更した値を新たなプルーニング率として算出する。そして、推論部40は、算出した新たなプルーニング率を出力し、現在のプルーニング率を新たなプルーニング率に変更させる。
プルーニング仕様情報が変更されると、ステップS30が実行され、プルーニング部30は、変更後のプルーニング仕様情報を用いて新たなプルーニング後モデルを生成する。新たなプルーニング後モデルに対する認識精度の評価結果が否定的な場合、変更後のプルーニング仕様情報の変更が繰り返し行われる。なお、プルーニング仕様情報の変更回数が所定の回数となった場合には、推論部40は、プルーニング仕様情報の変更(ステップS60)を停止してもよい。
なお、プルーニング仕様情報の変更は、推論部40以外の機能ブロックで行われてもよい。例えば、図1に示す各部とは別に、プルーニング仕様情報の変更を行う機能ブロックが設けられてもよい。
本実施の形態によれば、推論部40は、プルーニング後モデルにおける物体の認識精度が所定の認識精度閾値より低い場合、プルーニング仕様情報(例えばプルーニング率)を変更する。この構成によれば、プルーニング後モデルに対する評価結果に応じて、プルーニング仕様情報を自動で変更することが可能となる。
また、プルーニング部30は、変更後のプルーニング仕様情報等を用いて新たなプルーニング後モデルを生成する。この構成によれば、プルーニング後モデルに対する評価結果に応じて、新たなプルーニング後モデルを自動で生成することが可能となる。
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。なお、図面に記載した各部材や相対的なサイズは、本発明を分かりやすく説明するため簡素化・理想化しており、実装上はより複雑な形状となる場合がある。
1…DNNモデル圧縮システム、10…サブデータセット生成部、20…感度解析部、30…プルーニング部、40…推論部、50…格納部、51…サブデータセット、53…感度情報、55…プルーニング後モデル、100…初期モデル情報、101…データセット、103…プルーニング前モデル、105…プルーニング仕様情報、105a…プルーニング優先度、105b…プルーニング率

Claims (4)

  1. データセットから認識対象種の物体のみを切り出したサブデータセットを生成するサブデータセット生成部と、
    前記サブデータセットを用いてDNN(Deep Neural Network)の内部のニューロンの前記物体に対する感度情報を取得する感度解析部と、
    前記感度情報およびプルーニング仕様情報を用いてプルーニング前モデルからニューロンを削減したプルーニング後モデルを生成するプルーニング部と、
    前記データセットを用いて前記プルーニング後モデルにおける前記物体の認識精度を評価する推論部と、
    前記サブデータセット、前記感度情報、前記プルーニング後モデルを格納する格納部と、 を備え、
    前記プルーニング部は、前記プルーニング仕様情報に含まれる前記認識対象種ごとの優先度を示すプルーニング優先度に基づき削減対象の前記ニューロンを選択し、
    前記推論部は、前記プルーニング優先度が高い前記認識対象種の前記物体の認識精度を評価する、
    DNNモデル圧縮システム。
  2. 請求項1に記載のDNNモデル圧縮システムにおいて、
    前記プルーニング部は、前記プルーニング仕様情報に含まれる前記プルーニング前モデルのニューロン数に対し削除されるニューロン数の割合を示すプルーニング率に基づき削減対象の前記ニューロンを選択する、
    DNNモデル圧縮システム。
  3. 請求項1に記載のDNNモデル圧縮システムにおいて、
    前記感度解析部は、前記データセットに含まれる画像データにおける注視領域ごとに前記ニューロンの前記物体に対する感度情報を取得する、
    DNNモデル圧縮システム。
  4. 請求項に記載のDNNモデル圧縮システムにおいて、
    前記注視領域は、前記画像データにおける前記物体の方向、または撮像位置から前記物体までの距離である、
    DNNモデル圧縮システム。
JP2020116945A 2020-07-07 2020-07-07 Dnnモデル圧縮システム Active JP7495833B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020116945A JP7495833B2 (ja) 2020-07-07 2020-07-07 Dnnモデル圧縮システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020116945A JP7495833B2 (ja) 2020-07-07 2020-07-07 Dnnモデル圧縮システム

Publications (2)

Publication Number Publication Date
JP2022014569A JP2022014569A (ja) 2022-01-20
JP7495833B2 true JP7495833B2 (ja) 2024-06-05

Family

ID=80120286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020116945A Active JP7495833B2 (ja) 2020-07-07 2020-07-07 Dnnモデル圧縮システム

Country Status (1)

Country Link
JP (1) JP7495833B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016031564A (ja) 2014-07-25 2016-03-07 株式会社デンソー 歩行者検出装置および歩行者検出方法
JP2018129033A (ja) 2016-12-21 2018-08-16 アクシス アーベー 人工ニューラルネットワークのクラスに基づく枝刈り
JP2018207222A (ja) 2017-05-31 2018-12-27 パナソニックIpマネジメント株式会社 カメラ及びパラメータ登録方法
JP2020098455A (ja) 2018-12-18 2020-06-25 国立大学法人豊橋技術科学大学 物体識別システム、物体識別方法、並びに、画像識別プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016031564A (ja) 2014-07-25 2016-03-07 株式会社デンソー 歩行者検出装置および歩行者検出方法
JP2018129033A (ja) 2016-12-21 2018-08-16 アクシス アーベー 人工ニューラルネットワークのクラスに基づく枝刈り
JP2018207222A (ja) 2017-05-31 2018-12-27 パナソニックIpマネジメント株式会社 カメラ及びパラメータ登録方法
JP2020098455A (ja) 2018-12-18 2020-06-25 国立大学法人豊橋技術科学大学 物体識別システム、物体識別方法、並びに、画像識別プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山本 康平 外,ディープラーニングのモデル軽量化技術,OKIテクニカルレビュー 第233号 Vol.86 No.1,2019年05月20日,第86巻

Also Published As

Publication number Publication date
JP2022014569A (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
CN112232293B (zh) 图像处理模型训练、图像处理方法及相关设备
KR102008290B1 (ko) 영상에서 객체의 행동을 인식하는 방법 및 그 장치
US11068754B1 (en) Systems and methods regarding image distification and prediction models
US10262226B1 (en) Systems and methods regarding 2D image and 3D image ensemble prediction models
US11670097B2 (en) Systems and methods for 3D image distification
US9563822B2 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
CN111797983A (zh) 一种神经网络构建方法以及装置
US11727277B2 (en) Method and apparatus for automatically producing an artificial neural network
US20140294293A1 (en) Image processing circuit and image detection device
US9619729B2 (en) Density measuring device, density measuring method, and computer program product
US20200250544A1 (en) Learning method, storage medium, and learning apparatus
CN111160481B (zh) 基于深度学习的adas目标检测方法及系统
CN114997393A (zh) 利用空间表示学习和对抗生成的对可移动对象的功能测试
CN111292377A (zh) 目标检测方法、装置、计算机设备和存储介质
CN109978058B (zh) 确定图像分类的方法、装置、终端及存储介质
JP7495833B2 (ja) Dnnモデル圧縮システム
CN112749617A (zh) 通过聚集父实例确定输出信号
US10997493B2 (en) Information processing device and information processing method
US20220270351A1 (en) Image recognition evaluation program, image recognition evaluation method, evaluation apparatus, and evaluation system
CN112614199A (zh) 语义分割图像转换方法、装置、计算机设备和存储介质
KR20210089044A (ko) 물체 인식을 위한 학습 데이터를 선택하는 방법 및 상기 방법을 이용하여 학습된 물체 인식 모델을 이용하여 물체를 인식하는 물체 인식 장치
US20240212361A1 (en) Method and apparatus for determining driving risks by using deep learning algorithms
US20230252763A1 (en) Model generation method, model generation device, and inference device
EP4318318A1 (en) Information processing device for improving quality of generator of generative adversarial network (gan)
US20220139071A1 (en) Information processing device, information processing method, information processing program, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240524

R150 Certificate of patent or registration of utility model

Ref document number: 7495833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150