JP2021076927A - 解析装置、解析プログラム及び解析方法 - Google Patents
解析装置、解析プログラム及び解析方法 Download PDFInfo
- Publication number
- JP2021076927A JP2021076927A JP2019200866A JP2019200866A JP2021076927A JP 2021076927 A JP2021076927 A JP 2021076927A JP 2019200866 A JP2019200866 A JP 2019200866A JP 2019200866 A JP2019200866 A JP 2019200866A JP 2021076927 A JP2021076927 A JP 2021076927A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- inference
- map
- refined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 119
- 238000012545 processing Methods 0.000 claims abstract description 106
- 238000012800 visualization Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 128
- 238000004364 calculation method Methods 0.000 claims description 73
- 238000000605 extraction Methods 0.000 claims description 69
- 230000008569 process Effects 0.000 claims description 46
- 239000000284 extract Substances 0.000 claims description 9
- 230000006866 deterioration Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 27
- 230000013016 learning Effects 0.000 description 20
- 230000009471 action Effects 0.000 description 18
- 238000013527 convolutional neural network Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000009795 derivation Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成する画像生成部と、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成する注目度合いマップ生成部と、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する可視化部とを有する。
<解析装置の機能構成>
はじめに、第1の実施形態に係る解析装置の機能構成について説明する。図1は、解析装置の機能構成の一例を示す図である。解析装置100には、解析プログラムがインストールされており、当該プログラムが実行されることで、解析装置100は、推論部110、誤推論画像抽出部120、誤推論原因抽出部140として機能する。
次に、解析装置100のハードウェア構成について説明する。図2は、解析装置のハードウェア構成の一例を示す図である。図2に示すように、解析装置100は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203を有する。CPU201、ROM202、RAM203は、いわゆるコンピュータを形成する。
次に、第1の実施形態に係る解析装置100において実現される機能のうち、誤推論原因抽出部140の機能構成の詳細について説明する。図3は、誤推論原因抽出部の機能構成の一例を示す図である。以下、誤推論原因抽出部140の各部(ここでは、リファイン画像生成部141、注目度合いマップ生成部142)の詳細について説明する。
はじめに、リファイン画像生成部141の詳細について説明する。図3に示すように、リファイン画像生成部141は、画像リファイナ部301、画像誤差演算部302、推論部303、誤差演算部304を有する。
・生成したリファイン画像を用いて推論した際のスコアと、正解ラベルのスコアを最大にしたスコアとの誤差であるスコア誤差と、
・生成したリファイン画像を用いてラベルを推論した際のオブジェクト(推論対象)に関する情報と、正解ラベルのオブジェクトに関する正解情報との誤差であるオブジェクト誤差と、
・生成したリファイン画像と誤推論画像との差分である画像差分値(例えば、画像差分(L1差分)やSSIM(Structural Similarity)やそれらの組み合わせ)と、
が最小化するようにCNNの学習を行う。
・予め定められた学習回数分(例えば、最大学習回数=N回分)、あるいは、
・正解ラベルのスコアが所定の閾値を超えるまで、あるいは、
・正解ラベルのスコアが所定の閾値を超え、かつ、画像差分値が所定の閾値より小さくなるまで、あるいは、
・オブジェクト誤差が所定の閾値より小さくなるまで、
行われる。これにより、推論部303より出力される正解ラベルのスコアが最大化した際のリファイン画像であるスコア最大化リファイン画像が、リファイン画像格納部305に格納される。
次に、注目度合いマップ生成部142の詳細について説明する。図3に示すように、注目度合いマップ生成部142は、注目領域導出部311を有する。
・推論部303が推論したラベルから、そのラベルのみ誤差があるとして逆伝播し、畳み込み最終層、あるいは、選択した層で得られる勾配情報についてチャネルごとに平均値を求め、各チャネルの重要度を決定する。
・各チャネルの特徴マップに重要度を重みとして乗算し、全てのチャネルの同一座標の値を足し合わせた結果に、活性化関数(ReLU)を適用することで正値のみの画像を生成する。
・生成した画像において、画素値が大きい(勾配が大きい)注目部分をヒートマップ(注目度合いが同レベルとなる画素の領域を示すマップ)により可視化することで、注目度合いマップを生成する。
次に、誤推論原因抽出部140の各部(リファイン画像生成部141、注目度合いマップ生成部142、詳細原因解析部143)の処理の具体例について説明する。なお、以下では、誤推論画像内に、推論対象として、複数のオブジェクト(本実施形態では複数の車両)が含まれているものとして説明を行う。
はじめに、リファイン画像生成部141の各部(ここでは、画像リファイナ部301、推論部303、誤差演算部304)の処理の具体例について説明する。
図4は、画像リファイナ部の処理の具体例を示す図である。図4に示すように、画像リファイナ部301に、誤推論画像410が入力されると、画像リファイナ部301では、入力された誤推論画像410に含まれる、それぞれのオブジェクト(車両411、412)についてスコア最大化リファイン画像を生成する。
・車両411は、正解ラベル="車種A"のところ、"車種B"と誤推論した車両、
・車両412は、正解ラベル="車種B"のところ、"車種C"と誤推論した車両、
であるとする。
・車両411のヘッドライト421の色、道路標示422の色、車両411のフロントグリルの色、車両411のフロントグリル423と左側ヘッドライト421との間の車体424の色、
・車両412のフロントグリル425の色、道路標示426の色、
を変更することで、車両411を"車種A"、車両412を"車種B"と正しく推論することが可能な、1のスコア最大化リファイン画像420が生成された様子を示している。
図5は、推論部の処理の具体例を示す図である。図5の例の場合、画像リファイナ部301において、第1の生成方法により生成されたリファイン画像500(スコア最大化リファイン画像を生成する途中過程で生成されるリファイン画像)を推論部303に入力した様子を示している。
図6は、リファイン画像に含まれるオブジェクトの位置及び大きさの算出方法の一例を示す図である。推論部303では、リファイン画像500に含まれるオブジェクト(車両411、412)の外接矩形601、602を特定することで、オブジェクトの位置及び大きさを算出する。
・車両412の位置及び大きさとして、(x11,y11)、(x12,y12)が、
・車両411の位置及び大きさとして、(x21,y21)、(x22,y22)が、
それぞれ算出される。
・車両412の位置及び大きさとして、dx11、dy11、dx12、dy12が、
・車両411の位置及び大きさとして、dx21、dy21、dx22、dy22が、
それぞれ算出される。
・車両412の位置及び大きさとして、(x1,y1)、h1、w1が、
・車両411の位置及び大きさとして、(x2,y2)、h2、w2が、
それぞれ算出される。
図7は、リファイン画像に含まれるオブジェクトの存在確率の一例を示す図である。推論部303では、リファイン画像500を複数のブロックに分割して、それぞれのブロックにおいてオブジェクトが存在する確率を算出することができる。
IoU(Intersection over Union)は、推論部303がリファイン画像500において、車両411、412を正しく検出できたか否かを示す評価指標である。図8は、リファイン画像に含まれるオブジェクトのIoUの算出方法の一例を示す図である。図8に示すように、推論部303において推論された車両411の外接矩形601に対して、正解外接矩形801が与えられたとすると、車両411のIoUは、下式により算出することができる。
(式1)
車両411のIoU=AoO1/AoU1
ただし、AoO1は、推論部303において推論された車両411の外接矩形601と、正解外接矩形801とが重なっている部分の面積を指す。また、AoU1は、推論部303において推論された車両411の外接矩形601と、正解外接矩形801との和集合の面積を指す。
(式2)
車両412のIoU=AoO2/AoU2
ただし、AoO2は、推論部303において推論された車両412の外接矩形602と、正解外接矩形802とが重なっている部分の面積を指す。また、AoU2は、推論部303において推論された車両412の外接矩形602と、正解外接矩形802との和集合の面積を指す。
図9は、誤差演算部の処理の具体例を示す図である。図9に示すように、誤差演算部304には、リファイン画像が入力されることで推論部303がラベルを推論した際に算出した、スコア、オブジェクトに関する情報(位置及び大きさ、存在確率、IoU、Pr)が入力される。
・生成したリファイン画像を用いて推論した際のスコアと、正解ラベルのスコアを最大にしたスコアとの誤差であるスコア誤差、
・生成したリファイン画像を用いてラベルを推論した際のオブジェクトに関する情報と、正解ラベルのオブジェクトに関する正解情報との誤差であるオブジェクト誤差として、
・位置及び大きさの誤差、
・存在確率の誤差(=(オブジェクトが存在する領域の存在確率と1.0との差分)+(オブジェクトが存在しない領域の存在確率と0.0との差分))、
・信頼度(=IoU×Pr)、
を算出する。
次に、注目度合いマップ生成部142の処理の具体例について説明する。図10は、注目度合いマップ生成部の処理の具体例を示す図である。図10(a)に示すように、推論部構造情報及び特徴マップ1001を取得すると、注目領域導出部311では、Grad−CAM法を用いることで、注目度合いマップ1010を生成する。
次に、詳細原因解析部143の処理の具体例について説明する。説明に際しては、まず、詳細原因解析部143の機能構成について説明する。
図11は、詳細原因解析部の機能構成の一例を示す第1の図である。図11に示すように、詳細原因解析部143は、画像差分演算部1101、SSIM演算部1102、切り出し部1103、作用部1104を有する。
図12は、詳細原因解析部の処理の具体例を示す図である。図12に示すように、はじめに、画像差分演算部1101において、スコア最大化リファイン画像(A)と誤推論画像(B)との差分(=(A)−(B))が演算され、差分画像が出力される。差分画像は、誤推論の原因となる画像箇所での画素修正情報である。
(式3)
強調乗算画像(H)=255×(G)/(max(G)−min(G))
続いて作用部1104では、誤推論画像(B)から強調乗算画像(H)を減算することで重要部分を画素単位で可視化し、作用結果画像を生成する。
次に、誤推論原因抽出部140による誤推論原因抽出処理の流れについて説明する。図13は、誤推論原因抽出処理の流れを示す第1のフローチャートである。
次に、誤推論原因抽出処理(図13)のスコア最大化リファイン画像生成処理(ステップS1302)の詳細について説明する。図14は、スコア最大化リファイン画像生成処理の流れを示すフローチャートである。
次に、詳細原因解析部143による詳細原因解析処理の流れについて説明する。図15は、詳細原因解析処理の流れを示す第1のフローチャートである。
次に、誤推論原因抽出部140による誤推論原因抽出処理の具体例について説明する。図16は、誤推論原因抽出処理の具体例を示す第1の図である。
・レベル1以上となる画素の領域、
・レベル2以上となる画素の領域、
・レベル3以上となる画素の領域、
についてそれぞれ詳細原因解析処理を行い、それぞれの作用結果画像を出力する。
上記第1の実施形態では、誤推論画像抽出部120により誤推論画像として抽出された入力画像について、誤推論原因抽出処理を行うものとして説明した。しかしながら、誤推論原因抽出処理を行う入力画像は、誤推論画像抽出部120により誤推論画像として抽出された入力画像に限定されない。
上記第1の実施形態では、誤推論画像に2つのオブジェクトが含まれる場合について説明したが、誤推論画像に含まれるオブジェクトの数は、2つに限定されず、1つであってもよいし、3つ以上であってもよい。
上記第1乃至第3の実施形態では、Grad−CAM法を用いて生成した注目度合いマップに基づいて、詳細原因解析処理の際に切り出す領域を決定するものとして説明した。しかしながら、詳細原因解析処理の際に切り出す領域を決定する方法はこれに限定されず、他の解析技術を用いて生成したマップを用いて決定してもよい。
はじめに、第4の実施形態に係る解析装置100の、誤推論原因抽出部140の機能構成について説明する。図17は、誤推論原因抽出部の機能構成の一例を示す第2の図である。図3を用いて説明した機能構成との相違点は、図17に示す機能構成の場合、重要特徴指標マップ生成部1710と特定部1720とを有する点、及び、詳細原因解析部143とは異なる機能を有する詳細原因解析部1730を有する点である。
はじめに、重要特徴指標マップ生成部1710の詳細について説明する。図17に示すように、重要特徴指標マップ生成部1710は、重要特徴マップ生成部1711、劣化尺度マップ生成部1712、重畳部1713を有する。
次に、特定部1720の詳細について説明する。図17に示すように、特定部1720は、スーパーピクセル分割部1721、重要スーパーピクセル決定部1722、絞り込み部1723を有する。
次に、詳細原因解析部1730の詳細について説明する。詳細原因解析部1730は、スコア最大化リファイン画像と、誤推論画像と、推論部構造情報と、を取得する。また、詳細原因解析部1730は、スコア最大化リファイン画像と、誤推論画像と、推論部構造情報に基づいて生成された重要特徴マップのうち、絞り込み重要スーパーピクセルに対応する領域を切り出して画素単位で強度調整処理する。これにより、詳細原因解析部1730では、誤推論の原因となる画像箇所を可視化した作用結果画像を出力する。
次に、誤推論原因抽出部140の各部(ここでは、重要特徴指標マップ生成部1710、特定部1720、詳細原因解析部1730)の処理の具体例について説明する。なお、以下では、誤推論画像内に、推論対象として、複数のオブジェクト(複数の車両)が含まれているものとして説明を行う。
(1−1)重要特徴マップ生成部、劣化尺度マップ、重畳部の処理の具体例
はじめに、重要特徴指標マップ生成部1710に含まれる、重要特徴マップ生成部1711、劣化尺度マップ生成部1712、重畳部1713の処理の具体例について説明する。図18は、重要特徴指標マップ生成部の処理の具体例を示す図である。
(式3)
オブジェクト単位重要特徴指標マップ=オブジェクト単位グレイスケール化重要特徴マップ×(1−オブジェクト単位劣化尺度マップ)
上式において、(1−オブジェクト単位劣化尺度マップ)の項は、0から1の値をとり、1に近いほど変更度合いが大きく、0に近いほど変更度合いが小さい。つまり、オブジェクト単位重要特徴指標マップ1831、1832は、推論時に注目した各画素の注目度合いを示すオブジェクト単位グレイスケール化重要特徴マップに、変更度合いの大小による強弱をつけることで生成される。
・オブジェクト単位劣化尺度マップ1821、1822において変更度合いが小さい部分について、オブジェクト単位グレイスケール化重要特徴マップの画素値を小さくし、
・オブジェクト単位劣化尺度マップ1821、1822において変更度合いが大きい部分について、オブジェクト単位グレイスケール化重要特徴マップの画素値を大きくする、
ことで生成される。
(式4)
(反転した)オブジェクト単位重要特徴指標マップ=255−[オブジェクト単位グレイスケール化重要特徴マップ×(1−オブジェクト単位劣化尺度マップ)]
ここで、重畳部1713が、上式に基づいて、オブジェクト単位グレイスケール化重要特徴マップ1811、1812とオブジェクト単位劣化尺度マップ1821、1822とを重畳することによる利点について説明する。
次に、重要特徴マップ生成部1711が、選択的BP法を用いて、オブジェクトごとに重要特徴マップを生成する生成方法の詳細について説明する。上述したように、重要特徴マップ生成部1711では、スコア最大化リファイン画像に含まれるオブジェクトごとに、重要特徴マップを生成する。
次に、特定部1720の各部(ここでは、スーパーピクセル分割部1721、重要スーパーピクセル決定部1722、絞り込み部1723)の処理の具体例について説明する。
はじめに、特定部1720に含まれるスーパーピクセル分割部1721の処理の具体例について説明する。図20は、スーパーピクセル分割部の処理の具体例を示す図である。図20に示すように、スーパーピクセル分割部1721は、例えば、SLIC(Simple Linear Iterative Clustering)処理を行う分割部2010を有する。なお、分割されたピクセルの集合をスーパーピクセルと称す。
次に、特定部1720に含まれる重要スーパーピクセル決定部1722の処理の具体例について説明する。図21は、重要スーパーピクセル決定部の処理の具体例を示す図である。図21に示すように、重要スーパーピクセル決定部1722では、
・重畳部1713より出力された、オブジェクト単位重要特徴指標マップ1831、1832と、
・スーパーピクセル分割部1721より出力されたオブジェクト単位スーパーピクセル分割情報2011、2012と、
を重ね合わせる。これにより、重要スーパーピクセル決定部1722では、オブジェクト単位重要スーパーピクセル画像2101、2102を生成する。なお、図21では、オブジェクト単位重要特徴指標マップ1831、1832として、(白黒を反転した)重要特徴指標マップを用いた場合を示している。
次に、特定部1720に含まれる絞り込み部1723の処理の具体例について説明する。図22は、絞り込み部の処理の具体例を示す図である。
・全てのオブジェクトを含む大きさのオブジェクト単位重要スーパーピクセルに、
・オブジェクトごとの大きさの注目度合いマップを、
重畳することで、オブジェクトごとのオブジェクト単位絞り込み重要スーパーピクセルを、詳細原因解析部1730に通知する。
次に、詳細原因解析部1730の処理の具体例について説明する。説明に際しては、まず、詳細原因解析部1730の機能構成について説明する。
図23は、詳細原因解析部の機能構成の一例を示す第2の図である。図11に示した機能構成との相違点は、図23の場合、BP演算部2301を有する点、及び、切り出し部2302の機能が、図11の切り出し部1103の機能とは異なる点である。
次に、詳細原因解析部1730の処理の具体例について説明する。図24は、詳細原因解析部の処理の具体例を示す第2の図である。なお、図12に示した詳細原因解析部143の処理の具体例との相違点は、BP演算部2301において、推論部構造情報(I)に基づいて、選択的BP法を用いた処理が行われ、オブジェクト単位重要特徴マップが生成されている点である。また、切り出し部2302において、オブジェクト単位重要特徴マップから、オブジェクト単位絞り込み重要スーパーピクセルに対応する画像部分が切り出され、切り出し画像(J)が出力されている点である。更に、切り出し部2302において、切り出し画像(C)と切り出し画像(D)と切り出し画像(J)とが乗算され、乗算画像(G)が生成されている点である。
次に、誤推論原因抽出部140による誤推論原因抽出処理の流れについて説明する。図25は、誤推論原因抽出処理の流れを示す第2のフローチャートである。図13に示したフローチャートとの相違点は、ステップS2501、S2502である。
次に、図25のステップS2501(オブジェクト単位絞り込み重要スーパーピクセル抽出処理)の流れについて説明する。図26は、オブジェクト単位絞り込み重要スーパーピクセル抽出処理の流れを示すフローチャートである。
次に、詳細原因解析部1730による詳細原因解析処理の流れについて説明する。図27は、詳細原因解析処理の流れを示す第2のフローチャートである。図15に示したフローチャートとの相違点は、ステップS2701〜S2705である。
次に、誤推論原因抽出部140による誤推論原因抽出処理の具体例について説明する。図28は、誤推論原因抽出処理の具体例を示す第2の図である。
上記第4の実施形態では、誤推論画像抽出部120により誤推論画像として抽出された入力画像について、誤推論原因抽出処理を行うものとして説明した。しかしながら、誤推論原因抽出処理を行う入力画像は、誤推論画像抽出部120により誤推論画像として抽出された入力画像に限定されない。
上記第4の実施形態では、誤推論画像に2つのオブジェクトが含まれる場合について説明したが、誤推論画像に含まれるオブジェクトの数は、2つに限定されず、1つであってもよいし、3つ以上であってもよい。
上記第4の実施形態では、オブジェクト単位重要スーパーピクセルを、注目度合いマップの所定レベルの領域に絞り込むものとして説明した。しかしながら、絞り込み部1723による絞り込み方法はこれに限定されず、レベルに応じた絞り込み処理を行うようにしてもよい。
・領域1011_1内に位置するオブジェクト単位重要スーパーピクセルと、
・領域1011_1の境界線を含むオブジェクト単位重要スーパーピクセルと、
をオブジェクト単位絞り込み重要スーパーピクセルとして出力する場合を示している。
・領域1011_1内に位置するオブジェクト単位重要スーパーピクセル、
をオブジェクト単位絞り込み重要スーパーピクセルとして出力する場合を示している。
・領域1011_1内に位置するオブジェクト単位重要スーパーピクセルと、
・領域1011_1の境界線に沿って分割されたオブジェクト単位重要スーパーピクセルと、
をオブジェクト単位絞り込み重要スーパーピクセルとして出力する場合を示している。
上記第1の実施形態では、誤推論画像に含まれる2つのオブジェクトが、いずれも車両である場合について説明した。しかしながら、誤推論画像に含まれる2つのオブジェクトは、車両に限定されず、車両以外のオブジェクトであってもよい。
(付記1)
画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成する画像生成部と、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成する注目度合いマップ生成部と、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する可視化部と
を有する解析装置。
(付記2)
前記注目度合いマップ生成部は、Grad−CAM法を用いることで、前記注目度合いマップを生成する、付記1に記載の解析装置。
(付記3)
前記可視化部は、
前記誤推論画像と前記リファイン画像との差分に基づいて演算される差分画像から、前記注目度合いマップの所定レベルの領域を切り出した画像と、
前記誤推論画像と前記リファイン画像とをSSIM演算することで得られるSSIM画像から、前記注目度合いマップの所定レベルの領域を切り出した画像と、
を乗算することで得られる乗算画像を、画素単位で強度調整処理する、付記1または2に記載の解析装置。
(付記4)
前記可視化部は、
前記注目度合いマップの所定レベルの領域に対応する画像を、ピクセルの集合単位で切り出して画素単位で強度調整処理する、付記1または2に記載の解析装置。
(付記5)
前記誤推論画像の複数の画素のうち前記リファイン画像を生成する際に変更がなされた画素を示すマップと、前記リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップとを、重畳することで、正解ラベルを推論するための各画素の重要度を示す重要特徴指標マップを生成する重要特徴指標マップ生成部と、
前記重要特徴指標マップの画素値をピクセルの集合単位で加算し、加算値が所定の条件を満たすピクセルの集合を抽出する抽出部と、
抽出されたピクセルの集合を、前記注目度合いマップの所定レベルの領域に絞り込む絞り込み部と、を有し、
前記可視化部は、前記注目度合いマップの所定レベルの領域に対応する画像を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出して画素単位で強度調整処理する、付記4に記載の解析装置。
(付記6)
前記可視化部は、
前記誤推論画像と前記リファイン画像との差分に基づいて算出される差分画像から、前記注目度合いの所定レベルの領域を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出した画像と、
前記誤推論画像と前記リファイン画像とをSSIM演算することで得られるSSIM画像から、前記注目度合いマップの所定レベルの領域を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出した画像と、
前記リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップから、前記注目度合いマップの所定レベルの領域を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出した画像と、
を乗算することで得られる乗算画像を、画素単位で強度調整処理する、付記5に記載の解析装置。
(付記7)
前記強度調整処理は、画素値の強弱を調整する処理である、付記6に記載の解析装置。
(付記8)
前記画像生成部は、推論時に算出する、前記誤推論画像に含まれる推論対象に関する情報を用いて、前記誤推論画像から前記リファイン画像を生成する、付記1に記載の解析装置。
(付記9)
前記画像生成部は、推論時に、前記推論対象に関する情報として、前記誤推論画像における推論対象の位置及び大きさ、存在確率、推論対象を正しく検出できたか否かを示す評価指標、推論対象が外接矩形に含まれる確率、のいずれかを算出する、付記8に記載の解析装置。
(付記10)
前記画像生成部は、推論時に算出する前記推論対象に関する情報と、前記誤推論画像に含まれる推論対象に関する正解情報との誤差を用いて、前記誤推論画像から前記リファイン画像を生成する、付記8に記載の解析装置。
(付記11)
前記画像生成部は、前記誤推論画像に複数の推論対象が含まれる場合、該複数の推論対象全ての推論の正解ラベルのスコアを最大化させた1のリファイン画像を生成する、付記8乃至10のいずれかの付記に記載の解析装置。
(付記12)
画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成し、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成し、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する、
処理をコンピュータに実行させるための解析プログラム。
(付記13)
画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成し、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成し、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する、
処理をコンピュータが実行する解析方法。
140 :誤推論原因抽出部
141 :リファイン画像生成部
142 :注目度合いマップ生成部
143 :詳細原因解析部
301 :画像リファイナ部
302 :画像誤差演算部
303 :推論部
304 :誤差演算部
311 :注目領域導出部
1101 :画像差分演算部
1102 :SSIM演算部
1103 :切り出し部
1104 :作用部
1710 :重要特徴指標マップ生成部
1711 :重要特徴マップ生成部
1712 :劣化尺度マップ生成部
1713 :重畳部
1720 :特定部
1721 :スーパーピクセル分割部
1722 :重要スーパーピクセル決定部
1723 :絞り込み部
1730 :詳細原因解析部
2010 :分割部
2301 :BP演算部
2302 :切り出し部
Claims (9)
- 画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成する画像生成部と、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成する注目度合いマップ生成部と、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する可視化部と
を有する解析装置。 - 前記注目度合いマップ生成部は、Grad−CAM法を用いることで、前記注目度合いマップを生成する、請求項1に記載の解析装置。
- 前記可視化部は、
前記誤推論画像と前記リファイン画像との差分に基づいて演算される差分画像から、前記注目度合いマップの所定レベルの領域を切り出した画像と、
前記誤推論画像と前記リファイン画像とをSSIM演算することで得られるSSIM画像から、前記注目度合いマップの所定レベルの領域を切り出した画像と、
を乗算することで得られる乗算画像を、画素単位で強度調整処理する、請求項1または2に記載の解析装置。 - 前記可視化部は、
前記注目度合いマップの所定レベルの領域に対応する画像を、ピクセルの集合単位で切り出して画素単位で強度調整処理する、請求項1または2に記載の解析装置。 - 前記誤推論画像の複数の画素のうち前記リファイン画像を生成する際に変更がなされた画素を示すマップと、前記リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップとを、重畳することで、正解ラベルを推論するための各画素の重要度を示す重要特徴指標マップを生成する重要特徴指標マップ生成部と、
前記重要特徴指標マップの画素値をピクセルの集合単位で加算し、加算値が所定の条件を満たすピクセルの集合を抽出する抽出部と、
抽出されたピクセルの集合を、前記注目度合いマップの所定レベルの領域に絞り込む絞り込み部と、を有し、
前記可視化部は、前記注目度合いマップの所定レベルの領域に対応する画像を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出して画素単位で強度調整処理する、請求項4に記載の解析装置。 - 前記可視化部は、
前記誤推論画像と前記リファイン画像との差分に基づいて算出される差分画像から、前記注目度合いマップの所定レベルの領域を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出した画像と、
前記誤推論画像と前記リファイン画像とをSSIM演算することで得られるSSIM画像から、前記注目度合いマップの所定レベルの領域を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出した画像と、
前記リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップから、前記注目度合いマップの所定レベルの領域を、前記絞り込み部により絞り込まれたピクセルの集合単位で切り出した画像と、
を乗算することで得られる乗算画像を、画素単位で強度調整処理する、請求項5に記載の解析装置。 - 前記強度調整処理は、画素値の強弱を調整する処理である、請求項6に記載の解析装置。
- 画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成し、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成し、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する、
処理をコンピュータに実行させるための解析プログラム。 - 画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成し、
前記リファイン画像の複数の画素のうち推論時に注目した注目度合いが同レベルとなる画素の領域を示す注目度合いマップを生成し、
前記誤推論画像と前記リファイン画像とに基づいて演算される画像のうち、前記注目度合いマップの所定レベルの領域に対応する画像を切り出して画素単位で強度調整処理することで、誤推論の原因となる画像箇所を可視化する、
処理をコンピュータが実行する解析方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019200866A JP7363384B2 (ja) | 2019-11-05 | 2019-11-05 | 解析装置、解析プログラム及び解析方法 |
US17/063,742 US11341361B2 (en) | 2019-11-05 | 2020-10-06 | Analysis apparatus, storage medium storing analysis program, and analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019200866A JP7363384B2 (ja) | 2019-11-05 | 2019-11-05 | 解析装置、解析プログラム及び解析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021076927A true JP2021076927A (ja) | 2021-05-20 |
JP7363384B2 JP7363384B2 (ja) | 2023-10-18 |
Family
ID=75687412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019200866A Active JP7363384B2 (ja) | 2019-11-05 | 2019-11-05 | 解析装置、解析プログラム及び解析方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11341361B2 (ja) |
JP (1) | JP7363384B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7229795B2 (ja) * | 2019-02-01 | 2023-02-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | アノテーション装置、アノテーション方法、及び、プログラム |
US11410433B2 (en) * | 2020-03-31 | 2022-08-09 | Robert Bosch Gbmh | Semantically-consistent augmented training data for traffic light detection |
US11983241B2 (en) * | 2021-03-01 | 2024-05-14 | Fotonation Limited | Method and system for training a neural network |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009223414A (ja) * | 2008-03-13 | 2009-10-01 | Hitachi High-Technologies Corp | 一致度計算装置及び方法、プログラム |
JP2013131077A (ja) * | 2011-12-21 | 2013-07-04 | Casio Comput Co Ltd | 画像処理装置、画像処理方法及びプログラム、画像処理システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4868530B2 (ja) | 2007-09-28 | 2012-02-01 | Kddi株式会社 | 画像認識装置 |
JP4993615B2 (ja) | 2008-03-05 | 2012-08-08 | Kddi株式会社 | 画像認識方法および装置 |
JP5823270B2 (ja) | 2011-11-30 | 2015-11-25 | Kddi株式会社 | 画像認識装置及び方法 |
JP6598746B2 (ja) | 2016-08-22 | 2019-10-30 | Kddi株式会社 | 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法 |
JP6697356B2 (ja) | 2016-09-13 | 2020-05-20 | Kddi株式会社 | 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法 |
JP2018097807A (ja) | 2016-12-16 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | 学習装置 |
CA3055597A1 (en) * | 2017-03-17 | 2018-09-20 | Magic Leap, Inc. | Room layout estimation methods and techniques |
US20190313963A1 (en) * | 2018-04-17 | 2019-10-17 | VideaHealth, Inc. | Dental Image Feature Detection |
WO2020047177A1 (en) * | 2018-08-28 | 2020-03-05 | Essenlix Corporation | Assay accuracy improvement |
-
2019
- 2019-11-05 JP JP2019200866A patent/JP7363384B2/ja active Active
-
2020
- 2020-10-06 US US17/063,742 patent/US11341361B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009223414A (ja) * | 2008-03-13 | 2009-10-01 | Hitachi High-Technologies Corp | 一致度計算装置及び方法、プログラム |
JP2013131077A (ja) * | 2011-12-21 | 2013-07-04 | Casio Comput Co Ltd | 画像処理装置、画像処理方法及びプログラム、画像処理システム |
Non-Patent Citations (2)
Title |
---|
RAMPRASAATH R. SELVARAJU ET AL.: "Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION(ICCV), JPN6023022600, October 2017 (2017-10-01), pages 618 - 626, ISSN: 0005076211 * |
久保田智規他: "CNNを用いた物体認識における誤認識の原因を可視化する一手法", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2019−CVIM−21, JPN6023022601, 28 August 2019 (2019-08-28), JP, pages 99 - 104, ISSN: 0005076210 * |
Also Published As
Publication number | Publication date |
---|---|
US11341361B2 (en) | 2022-05-24 |
US20210133485A1 (en) | 2021-05-06 |
JP7363384B2 (ja) | 2023-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9530071B2 (en) | Hierarchical interlinked multi-scale convolutional network for image parsing | |
US10803352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7363384B2 (ja) | 解析装置、解析プログラム及び解析方法 | |
JP7279526B2 (ja) | 解析プログラム、解析装置及び解析方法 | |
CN111507153A (zh) | 用分割得分图和聚类图检测车道线的后处理方法以及装置 | |
JP7363382B2 (ja) | 解析装置、解析プログラム及び解析方法 | |
CN110889421A (zh) | 目标物检测方法及装置 | |
US11443526B2 (en) | Road obstacle detection device, road obstacle detection method, and recording medium storing a road obstacle detection program | |
Talwar et al. | Evaluating validity of synthetic data in perception tasks for autonomous vehicles | |
CN112132164B (zh) | 目标检测方法、系统、计算机装置及存储介质 | |
JP7363383B2 (ja) | 解析装置、解析プログラム及び解析方法 | |
CN113221757B (zh) | 一种改善行人属性识别准确率的方法、终端及介质 | |
JP7351186B2 (ja) | 解析装置、解析プログラム及び解析方法 | |
US10997467B1 (en) | Visual analytics exposure of image object detector weakness | |
Lu et al. | Hallucinating beyond observation: Learning to complete with partial observation and unpaired prior knowledge | |
CN111091581A (zh) | 基于生成对抗网络的行人轨迹模拟方法、装置和存储介质 | |
US20230005255A1 (en) | Analysis device and computer-readable recording medium storing analysis program | |
US20220415026A1 (en) | Analysis device and computer-readable recording medium storing analysis program | |
JP7535934B2 (ja) | 不良箇所検出装置、不良箇所検出方法、およびコンピュータプログラム | |
EP4325463A1 (en) | Image processing algorithm evaluation device | |
Boreiko et al. | Identification of Fine-grained Systematic Errors via Controlled Scene Generation | |
Krämer et al. | Real-time visual off-road path detection | |
CN116152734A (zh) | 一种基于多模型的行人检测方法、装置及存储介质 | |
Wang et al. | OccludedInst: An Efficient Instance Segmentation Network for Automatic Driving Occlusion Scenes | |
CN116012585A (zh) | 一种基于类别核化动态卷积的实例分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7363384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |