JP7351186B2 - Analysis equipment, analysis program and analysis method - Google Patents

Analysis equipment, analysis program and analysis method Download PDF

Info

Publication number
JP7351186B2
JP7351186B2 JP2019200863A JP2019200863A JP7351186B2 JP 7351186 B2 JP7351186 B2 JP 7351186B2 JP 2019200863 A JP2019200863 A JP 2019200863A JP 2019200863 A JP2019200863 A JP 2019200863A JP 7351186 B2 JP7351186 B2 JP 7351186B2
Authority
JP
Japan
Prior art keywords
image
inference
unit
refined
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019200863A
Other languages
Japanese (ja)
Other versions
JP2021076924A (en
Inventor
智規 久保田
康之 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019200863A priority Critical patent/JP7351186B2/en
Priority to US17/031,966 priority patent/US11663487B2/en
Publication of JP2021076924A publication Critical patent/JP2021076924A/en
Application granted granted Critical
Publication of JP7351186B2 publication Critical patent/JP7351186B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、解析装置、解析プログラム及び解析方法に関する。 The present invention relates to an analysis device, an analysis program, and an analysis method.

近年、CNN(Convolutional Neural Network)を用いた画像認識処理において、誤ったラベルが推論された場合の誤推論の原因を解析する解析技術が提案されている。一例として、スコア最大化法(Activation Maximization)が挙げられる。また、画像認識処理において推論時に注目される画像箇所を解析する解析技術が提案されている。一例として、BP(Back Propagation)法、GBP(Guided Back Propagation)法等が挙げられる。 In recent years, analysis techniques have been proposed for analyzing the cause of erroneous inference when an erroneous label is inferred in image recognition processing using CNN (Convolutional Neural Network). An example is the score maximization method (activation maximization). Furthermore, an analysis technique has been proposed for analyzing image parts that are of interest during inference in image recognition processing. Examples include the BP (Back Propagation) method and the GBP (Guided Back Propagation) method.

スコア最大化法は、推論の正解ラベルが最大スコアとなるように入力画像を変更した際の変更部分を、誤推論の原因となる画像箇所として特定する方法である。また、BP法やGBP法は、推論したラベルから逆伝播し、入力画像までたどることで、推論の際に反応した特徴部分を可視化する方法である。 The score maximization method is a method in which a changed part when an input image is changed so that the correct label for inference has the maximum score is identified as an image part that causes incorrect inference. Furthermore, the BP method and the GBP method are methods for visualizing characteristic parts that reacted during inference by backpropagating from the inferred label and tracing it to the input image.

特開2018-097807号公報JP2018-097807A 特開2018-045350号公報Japanese Patent Application Publication No. 2018-045350 Ramprasaath R. Selvariju, et al.: Grad-cam: Visual explanations from deep networks via gradient-based localization. The IEEE International Conference on Computer Vision (ICCV), pp. 618-626, 2017.Ramprasaath R. Selvariju, et al.: Grad-cam: Visual explanations from deep networks via gradient-based localization. The IEEE International Conference on Computer Vision (ICCV), pp. 618-626, 2017.

しかしながら、上述した解析技術の場合、誤推論の原因となる画像箇所を十分な精度で特定することができないという問題がある。 However, in the case of the above-mentioned analysis technique, there is a problem in that it is not possible to specify with sufficient accuracy the image location that causes the incorrect inference.

一つの側面では、誤推論の原因となる画像箇所を特定する際の精度を向上させることを目的としている。 One aspect of the invention is to improve accuracy in identifying image locations that cause erroneous inferences.

一態様によれば、解析装置は、
画像認識処理の際に誤ったラベルが推論される誤推論画像と、リファイン画像との差分を用いて、前記誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成するリファイン画像生成部と、
前記誤推論画像の複数の画素のうち前記スコアを最大化させたリファイン画像を生成する際に変更がなされた画素を示す第1のマップと、前記スコアを最大化させたリファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップであって、各注目度合いの出現頻度に基づいて調整した第2のマップと、を重畳することで、正解ラベルを推論するための各画素の重要度を示す第3のマップを生成するマップ生成部と、
前記誤推論画像において、ピクセルの集合ごとに前記第3のマップの画素値を算出することで、誤推論の原因となるピクセルの集合を特定する特定部と、を有し、
前記リファイン画像生成部は、
前記特定部により前記ピクセルの集合が特定された場合、前記特定されたピクセルの集合の領域について前記差分を補正し、補正後の差分を用いて、前記誤推論画像から、前記推論の正解ラベルのスコアを最大化させたリファイン画像を再生成する
According to one aspect, the analysis device includes:
Refinement that generates a refined image that maximizes the score of the correct label of inference from the incorrect inference image by using the difference between the incorrect inference image in which an incorrect label is inferred during image recognition processing and the refined image. an image generation unit;
a first map indicating pixels of the plurality of pixels of the incorrect inference image that have been changed when generating the refined image whose score is maximized ; and a plurality of pixels of the refined image whose score is maximized. By superimposing a second map that shows the degree of attention of each pixel that was focused on at the time of inference and that is adjusted based on the frequency of appearance of each degree of attention, each pixel for inferring the correct label is a map generation unit that generates a third map indicating the importance of the
In the erroneous inference image, a specifying unit that identifies a set of pixels that causes an erroneous inference by calculating a pixel value of the third map for each set of pixels ,
The refined image generation unit includes:
When the set of pixels is identified by the identification unit, the difference is corrected for the area of the identified set of pixels, and the correct label of the inference is determined from the incorrect inference image using the corrected difference. Regenerate a refined image that maximizes the score .

誤推論の原因となる画像箇所を特定する際の精度を向上させることができる。 It is possible to improve the accuracy in identifying image locations that cause incorrect inferences.

解析装置の機能構成の一例を示す図である。FIG. 2 is a diagram showing an example of a functional configuration of an analysis device. 解析装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of a hardware configuration of an analysis device. 誤推論原因抽出部の機能構成の一例を示す第1の図である。FIG. 2 is a first diagram showing an example of the functional configuration of an erroneous inference cause extraction unit. リファイン画像生成部の処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of processing by a refined image generation unit. マップ生成部の処理の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of processing by a map generation unit. 重要特徴マップ生成部の機能構成の詳細を示す図である。FIG. 3 is a diagram showing details of the functional configuration of an important feature map generation section. 選択的逆誤差伝播部の処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of processing by a selective back-error propagation unit. 非注目画素オフセット調整部の処理内容を示す図である。FIG. 7 is a diagram illustrating processing contents of a non-target pixel offset adjustment section. 非注目画素オフセット調整部の処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of processing by a non-target pixel offset adjustment unit. スーパーピクセル分割部の処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of processing by a superpixel dividing section. 重要スーパーピクセル決定部の処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of processing by an important superpixel determining unit. 領域抽出部及び合成部の処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of processing by a region extracting unit and a combining unit. 誤推論原因抽出処理の流れを示す第1のフローチャートである。It is a 1st flowchart which shows the flow of incorrect inference cause extraction processing. 誤推論原因抽出処理の流れを示す第2のフローチャートである。It is a 2nd flowchart which shows the flow of incorrect inference cause extraction processing. 重要特徴マップ生成処理の流れを示すフローチャートである。3 is a flowchart showing the flow of important feature map generation processing. 誤推論原因抽出処理の具体例を示す第1の図である。FIG. 2 is a first diagram illustrating a specific example of incorrect inference cause extraction processing. 誤推論原因抽出部の機能構成の一例を示す第2の図である。FIG. 2 is a second diagram illustrating an example of the functional configuration of an erroneous inference cause extraction unit. 誤推論原因抽出処理の具体例を示す第2の図である。FIG. 7 is a second diagram showing a specific example of the incorrect inference cause extraction process. 誤推論原因抽出部の機能構成の一例を示す第3の図である。FIG. 7 is a third diagram illustrating an example of the functional configuration of an erroneous inference cause extraction unit. 誤推論原因抽出処理の具体例を示す第3の図である。FIG. 7 is a third diagram showing a specific example of the incorrect inference cause extraction process. 誤推論原因抽出部の機能構成の一例を示す第4の図である。FIG. 4 is a fourth diagram showing an example of the functional configuration of the incorrect inference cause extraction unit. 詳細原因解析部の機能構成の一例を示す第1の図である。FIG. 2 is a first diagram showing an example of a functional configuration of a detailed cause analysis section. 詳細原因解析部の処理の具体例を示す第1の図である。FIG. 2 is a first diagram showing a specific example of processing by a detailed cause analysis unit. 詳細原因解析処理の流れを示す第1のフローチャートである。It is a 1st flowchart which shows the flow of detailed cause analysis processing. 誤推論原因抽出部の機能構成の一例を示す第5の図である。FIG. 5 is a fifth diagram showing an example of the functional configuration of an incorrect inference cause extraction unit. 詳細原因解析部の機能構成の一例を示す第2の図である。FIG. 2 is a second diagram showing an example of the functional configuration of a detailed cause analysis section. 詳細原因解析部の処理の具体例を示す第2の図である。FIG. 7 is a second diagram showing a specific example of processing by the detailed cause analysis unit. 詳細原因解析処理の流れを示す第2のフローチャートである。It is a 2nd flowchart which shows the flow of detailed cause analysis processing.

以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Each embodiment will be described below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, thereby omitting redundant explanation.

[第1の実施形態]
<解析装置の機能構成>
はじめに、第1の実施形態に係る解析装置の機能構成について説明する。図1は、解析装置の機能構成の一例を示す図である。解析装置100には、解析プログラムがインストールされており、当該プログラムが実行されることで、解析装置100は、推論部110、誤推論画像抽出部120、誤推論原因抽出部140として機能する。
[First embodiment]
<Functional configuration of analysis device>
First, the functional configuration of the analysis device according to the first embodiment will be described. FIG. 1 is a diagram showing an example of the functional configuration of an analysis device. An analysis program is installed in the analysis device 100, and by executing the program, the analysis device 100 functions as an inference section 110, an erroneous inference image extraction section 120, and an erroneous inference cause extraction section 140.

推論部110は、学習済みのCNNを用いて画像認識処理を行う。具体的には、推論部110は、入力画像10が入力されることで、入力画像10に含まれるオブジェクトの種類(本実施形態では、車両の種類)を示すラベルを推論し、推論したラベルを出力する。 The inference unit 110 performs image recognition processing using the trained CNN. Specifically, upon receiving the input image 10, the inference unit 110 infers a label indicating the type of object (in this embodiment, the type of vehicle) included in the input image 10, and uses the inferred label. Output.

誤推論画像抽出部120は、入力画像10に含まれるオブジェクトの種類を示すラベル(既知)と、推論部110により推論されたラベルとが一致するか否かを判定する。また、誤推論画像抽出部120は、一致しないと判定した際の(誤ったラベルが推論された際の)入力画像を、"誤推論画像"として抽出し、誤推論画像格納部130に格納する。 The incorrect inference image extraction unit 120 determines whether a label (known) indicating the type of object included in the input image 10 matches the label inferred by the inference unit 110. In addition, the incorrect inference image extraction unit 120 extracts the input image when it is determined that there is no match (when an incorrect label is inferred) as an “incorrect inference image” and stores it in the incorrect inference image storage unit 130. .

誤推論原因抽出部140は、誤推論画像について、誤推論の原因となる画像箇所を特定し、誤推論原因情報を出力する。具体的には、誤推論原因抽出部140は、リファイン画像生成部141と、マップ生成部142と、特定部143とを有する。 The erroneous inference cause extraction unit 140 identifies an image part that causes an erroneous inference in the erroneous inference image, and outputs erroneous inference cause information. Specifically, the incorrect inference cause extraction unit 140 includes a refined image generation unit 141, a map generation unit 142, and a specification unit 143.

リファイン画像生成部141は、誤推論画像格納部130に格納された誤推論画像を読み出す。また、リファイン画像生成部141は、読み出した誤推論画像から、推論の正解ラベルのスコアを最大化させたスコア最大化リファイン画像を生成する。 The refined image generation unit 141 reads out the incorrect inference image stored in the incorrect inference image storage unit 130. Further, the refined image generation unit 141 generates a score-maximizing refined image in which the score of the correct inference label is maximized from the read incorrect inference image.

マップ生成部142は、誤推論の原因を解析する既知の解析技術等を用いて、ラベルの推論に影響する領域を識別するマップを生成する。 The map generation unit 142 generates a map that identifies areas that influence label inference using known analysis techniques that analyze the causes of erroneous inference.

特定部143は、誤推論画像のうち、生成されたマップに含まれる、ラベルの推論に影響する領域について、生成されたリファイン画像で置き換える。また、特定部143は、当該領域をリファイン画像で置き換えた誤推論画像を入力としてラベルを推論し、推論したラベルのスコアから、置き換えの効果を判定する。 The specifying unit 143 replaces a region of the incorrect inference image that is included in the generated map and that affects label inference with the generated refined image. Further, the specifying unit 143 infers a label by inputting the incorrect inference image in which the region is replaced with a refined image, and determines the effect of the replacement from the score of the inferred label.

また、特定部143は、ラベルの推論に影響する領域の大きさを変えながら入力することでラベルを推論し、推論したラベルのスコアから、誤推論の原因となる画像箇所を特定する。更に、特定部143は、特定した誤推論の原因となる画像箇所を、誤推論原因情報として出力する。 Further, the specifying unit 143 infers a label by inputting data while changing the size of a region that affects inference of a label, and specifies an image location that causes incorrect inference from the score of the inferred label. Further, the specifying unit 143 outputs the identified image portion that causes the erroneous inference as erroneous inference cause information.

このように、ラベルの推論に影響する領域をリファイン画像で置き換える際、置き換えの効果を参照することで、誤推論の原因となる画像箇所を精度よく特定することができる。 In this way, when replacing an area that affects label inference with a refined image, by referring to the effect of the replacement, it is possible to accurately identify the image location that causes incorrect inference.

<解析装置のハードウェア構成>
次に、解析装置100のハードウェア構成について説明する。図2は、解析装置のハードウェア構成の一例を示す図である。図2に示すように、解析装置100は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203を有する。CPU201、ROM202、RAM203は、いわゆるコンピュータを形成する。
<Hardware configuration of analysis device>
Next, the hardware configuration of the analysis device 100 will be explained. FIG. 2 is a diagram showing an example of the hardware configuration of the analysis device. As shown in FIG. 2, the analysis device 100 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203. CPU201, ROM202, and RAM203 form what is called a computer.

また、解析装置100は、補助記憶装置204、表示装置205、操作装置206、I/F(Interface)装置207、ドライブ装置208を有する。なお、解析装置100の各ハードウェアは、バス209を介して相互に接続されている。 The analysis device 100 also includes an auxiliary storage device 204, a display device 205, an operating device 206, an I/F (Interface) device 207, and a drive device 208. Note that each piece of hardware in the analysis device 100 is interconnected via a bus 209.

CPU201は、補助記憶装置204にインストールされている各種プログラム(例えば、解析プログラム等)を実行する演算デバイスである。なお、図2には示していないが、演算デバイスとしてアクセラレータ(例えば、GPU(Graphics Processing Unit)など)を組み合わせてもよい。 The CPU 201 is a calculation device that executes various programs (for example, an analysis program, etc.) installed in the auxiliary storage device 204. Note that although not shown in FIG. 2, an accelerator (for example, a GPU (Graphics Processing Unit), etc.) may be combined as a calculation device.

ROM202は、不揮発性メモリである。ROM202は、補助記憶装置204にインストールされている各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM202はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。 ROM202 is a nonvolatile memory. The ROM 202 functions as a main storage device that stores various programs, data, etc. necessary for the CPU 201 to execute various programs installed in the auxiliary storage device 204 . Specifically, the ROM 202 functions as a main storage device that stores boot programs such as BIOS (Basic Input/Output System) and EFI (Extensible Firmware Interface).

RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM203は、補助記憶装置204にインストールされている各種プログラムがCPU201によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。 The RAM 203 is a volatile memory such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory). The RAM 203 functions as a main storage device that provides a work area in which various programs installed in the auxiliary storage device 204 are expanded when executed by the CPU 201 .

補助記憶装置204は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。例えば、誤推論画像格納部130は、補助記憶装置204において実現される。 The auxiliary storage device 204 is an auxiliary storage device that stores various programs and information used when the various programs are executed. For example, the incorrect inference image storage unit 130 is implemented in the auxiliary storage device 204.

表示装置205は、誤推論原因情報等を含む各種表示画面を表示する表示デバイスである。操作装置206は、解析装置100のユーザが解析装置100に対して各種指示を入力するための入力デバイスである。 The display device 205 is a display device that displays various display screens including erroneous inference cause information and the like. The operating device 206 is an input device through which a user of the analysis device 100 inputs various instructions to the analysis device 100.

I/F装置207は、例えば、不図示のネットワークと接続するための通信デバイスである。 The I/F device 207 is, for example, a communication device for connecting to a network (not shown).

ドライブ装置208は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。 The drive device 208 is a device for setting the recording medium 210. The recording medium 210 here includes a medium for recording information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk. Further, the recording medium 210 may include a semiconductor memory or the like that electrically records information, such as a ROM or a flash memory.

なお、補助記憶装置204にインストールされる各種プログラムは、例えば、配布された記録媒体210がドライブ装置208にセットされ、該記録媒体210に記録された各種プログラムがドライブ装置208により読み出されることでインストールされる。あるいは、補助記憶装置204にインストールされる各種プログラムは、不図示のネットワークよりダウンロードされることでインストールされてもよい。 The various programs to be installed in the auxiliary storage device 204 can be installed by, for example, setting the distributed recording medium 210 in the drive device 208 and reading out the various programs recorded on the recording medium 210 by the drive device 208. be done. Alternatively, various programs to be installed in the auxiliary storage device 204 may be installed by being downloaded from a network (not shown).

<誤推論原因抽出部の機能構成>
次に、第1の実施形態に係る解析装置100において実現される機能のうち、誤推論原因抽出部140の機能構成の詳細について説明する。図3は、誤推論原因抽出部の機能構成の一例を示す第1の図である。以下、誤推論原因抽出部140の各部(リファイン画像生成部141、マップ生成部142、特定部143)の詳細について説明する。
<Functional configuration of incorrect inference cause extraction unit>
Next, the details of the functional configuration of the incorrect inference cause extraction unit 140 among the functions implemented in the analysis device 100 according to the first embodiment will be described. FIG. 3 is a first diagram showing an example of the functional configuration of the incorrect inference cause extraction unit. The details of each part (refined image generation unit 141, map generation unit 142, identification unit 143) of the incorrect inference cause extraction unit 140 will be described below.

(1)リファイン画像生成部の詳細
はじめに、リファイン画像生成部141の詳細について説明する。図3に示すように、リファイン画像生成部141は、画像リファイナ部301、画像誤差演算部302、推論部303、スコア誤差演算部304を有する。
(1) Details of refined image generation section First, details of the refined image generation section 141 will be explained. As shown in FIG. 3, the refined image generation unit 141 includes an image refiner unit 301, an image error calculation unit 302, an inference unit 303, and a score error calculation unit 304.

画像リファイナ部301は、例えば、画像の生成モデルとしてCNNを用いて、誤推論画像からリファイン画像を生成する。 The image refiner unit 301 generates a refined image from the incorrectly inferred image using, for example, CNN as an image generation model.

なお、画像リファイナ部301では、生成したリファイン画像を用いて推論した際に、正解ラベルのスコアが最大となるように、誤推論画像を変更する。また、画像リファイナ部301では、例えば、画像の生成モデルを用いてリファイン画像を生成する場合には、誤推論画像からの変更量(リファイン画像と誤推論画像との差分)が小さくなるように、リファイン画像を生成する。これにより、画像リファイナ部301によれば、視覚的に変更前の画像(誤推論画像)に近い画像(リファイン画像)を得ることができる。 Note that, when inference is made using the generated refined image, the image refiner unit 301 changes the incorrect inference image so that the score of the correct label is maximized. In addition, in the image refiner unit 301, for example, when generating a refined image using an image generation model, the image refiner 301 uses Generate a refined image. Thereby, the image refiner unit 301 can obtain an image (refined image) that is visually similar to the image before change (erroneous inference image).

具体的には、画像リファイナ部301では、画像の生成モデルとしてCNNを用いる場合、
・生成したリファイン画像を用いて推論した際のスコアと、正解ラベルのスコアを最大にしたスコアとの誤差であるスコア誤差と、
・生成したリファイン画像と誤推論画像との差分である画像差分値(例えば、画像差分(L1差分)やSSIM(Structural Similarity)やそれらの組み合わせ)と、
を最小化するようにCNNの学習を行う。
Specifically, when the image refiner unit 301 uses CNN as an image generation model,
・Score error, which is the error between the score when inferring using the generated refined image and the score that maximizes the score of the correct answer label,
・An image difference value (for example, image difference (L1 difference), SSIM (Structural Similarity), or a combination thereof) that is the difference between the generated refined image and the incorrectly inferred image,
The CNN is trained to minimize .

画像誤差演算部302は、誤推論画像と、学習中に画像リファイナ部301より出力されるリファイン画像との差分を算出し、画像差分値を、画像リファイナ部301に入力する。画像誤差演算部302では、例えば、画素ごとの差分(L1差分)やSSIM(Structural Similarity)演算を行うことにより、画像差分値を算出し、画像リファイナ部301に入力する。 The image error calculation unit 302 calculates the difference between the incorrect inference image and the refined image output from the image refiner unit 301 during learning, and inputs the image difference value to the image refiner unit 301. The image error calculation unit 302 calculates an image difference value by, for example, performing a pixel-by-pixel difference (L1 difference) or SSIM (Structural Similarity) calculation, and inputs it to the image refiner unit 301.

推論部303は、画像リファイナ部301により生成されたリファイン画像または後述する重要スーパーピクセル決定部322で生成された合成画像を入力として推論し、推論したラベルのスコアを出力する、学習済みのCNNを有する。合成画像とは、誤推論画像のうち、マップ生成部142で生成されたマップ(重要特徴指標マップ)に含まれる、正解ラベルの推論に影響する領域について、リファイン画像で置き換えた誤推論画像に他ならない。 The inference unit 303 uses a trained CNN that performs inference using the refined image generated by the image refiner unit 301 or the composite image generated by the important superpixel determining unit 322 (described later) as input, and outputs the score of the inferred label. have A synthesized image is an erroneous inference image in which a region of the erroneous inference image that is included in the map (important feature index map) generated by the map generation unit 142 and that affects the inference of the correct label is replaced with a refined image. No.

なお、推論部303により出力されたスコアは、スコア誤差演算部304または重要スーパーピクセル評価部323に通知される。 Note that the score output by the inference section 303 is notified to the score error calculation section 304 or the important superpixel evaluation section 323.

スコア誤差演算部304は、推論部303により通知されたスコアと、正解ラベルのスコアを最大にしたスコアとの誤差を算出し、画像リファイナ部301にスコア誤差を通知する。スコア誤差演算部304により通知されたスコア誤差は、画像リファイナ部301においてCNNの学習に用いられる。 The score error calculation unit 304 calculates the error between the score notified by the inference unit 303 and the score that maximizes the score of the correct label, and notifies the image refiner unit 301 of the score error. The score error notified by the score error calculation unit 304 is used for CNN learning in the image refiner unit 301.

なお、画像リファイナ部301が有するCNNの学習中に画像リファイナ部301から出力されるリファイン画像は、リファイン画像格納部305に格納される。画像リファイナ部301が有するCNNの学習は、
・予め定められた学習回数分(例えば、最大学習回数=N回分)、あるいは、
・正解ラベルのスコアが所定の閾値を超えるまで、あるいは、
・正解ラベルのスコアが所定の閾値を超え、かつ、画像差分値が所定の閾値より小さくなるまで、
行われ、推論部303より出力される正解ラベルのスコアが最大化した際のリファイン画像を、以下では、"スコア最大化リファイン画像"と称す。
Note that the refined image output from the image refiner unit 301 during learning of the CNN included in the image refiner unit 301 is stored in the refined image storage unit 305. Learning of the CNN included in the image refiner unit 301 is as follows:
- A predetermined number of learning times (for example, maximum number of learning times = N times), or
・Until the score of the correct label exceeds a predetermined threshold, or
・Until the score of the correct label exceeds the predetermined threshold and the image difference value becomes smaller than the predetermined threshold,
The refined image obtained when the score of the correct label output from the inference unit 303 is maximized is hereinafter referred to as a "score-maximized refined image."

(2)マップ生成部の詳細
次に、マップ生成部142の詳細について説明する。図3に示すように、マップ生成部142は、重要特徴マップ生成部311、劣化尺度マップ生成部312、重畳部313を有する。
(2) Details of Map Generation Unit Next, details of the map generation unit 142 will be explained. As shown in FIG. 3, the map generation section 142 includes an important feature map generation section 311, a deterioration measure map generation section 312, and a superimposition section 313.

重要特徴マップ生成部311は、スコア最大化リファイン画像を入力として推論した際の推論部構造情報を、推論部303より取得する。また、重要特徴マップ生成部311は、BP(Back Propagation)法、GBP(Guided Back Propagation)法または選択的BP法を用いることで、推論部構造情報に基づいて"グレイスケール化重要特徴マップ"を生成する。グレイスケール化重要特徴マップは第2のマップの一例であり、スコア最大化リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップを、グレイスケール化したものである。 The important feature map generation unit 311 acquires inference unit structure information from the inference unit 303 when inference is made using the score-maximized refined image as input. In addition, the important feature map generation unit 311 generates a “grayscale important feature map” based on the inference unit structure information by using the BP (Back Propagation) method, the GBP (Guided Back Propagation) method, or the selective BP method. generate. The grayscale important feature map is an example of the second map, and is a grayscale map showing the degree of attention of each pixel of the plurality of pixels of the score-maximizing refined image that was focused upon during inference.

なお、BP法は、推論したラベルが正解する入力データ(ここでは、スコア最大化リファイン画像)の推論を行うことで得た分類確率から各ラベルの誤差を計算し、入力層まで逆伝播して得られる勾配の大小を画像化することで、特徴部分を可視化する方法である。また、GBP法は、勾配情報の正値のみを特徴部分として画像化することで、特徴部分を可視化する方法である。 Note that in the BP method, the error of each label is calculated from the classification probability obtained by performing inference on input data for which the inferred label is correct (in this case, the score maximization refined image), and the error is back-propagated to the input layer. This is a method of visualizing characteristic parts by creating an image of the magnitude of the obtained gradient. Further, the GBP method is a method of visualizing a characteristic part by imaging only positive values of gradient information as a characteristic part.

更に、選択的BP法は、正解ラベルの誤差のみを最大にしたうえで、BP法またはGBP法を用いて処理を行う方法である。選択的BP法の場合、可視化される特徴部分は、正解ラベルのスコアのみに影響を与える特徴部分となる。 Furthermore, the selective BP method is a method in which processing is performed using the BP method or the GBP method after maximizing only the error of the correct label. In the case of the selective BP method, the visualized feature part is a feature part that only affects the score of the correct label.

劣化尺度マップ生成部312は、誤推論画像とスコア最大化リファイン画像とに基づいて、第1のマップの一例である"劣化尺度マップ"を生成する。劣化尺度マップは、スコア最大化リファイン画像を生成する際に変更がなされた各画素の変更度合いを示している。 The deterioration measure map generation unit 312 generates a "deterioration measure map" which is an example of a first map, based on the incorrect inference image and the score maximization refined image. The deterioration scale map shows the degree of change of each pixel that was changed when generating the score-maximizing refined image.

重畳部313は、重要特徴マップ生成部311において生成されたグレイスケール化重要特徴マップと、劣化尺度マップ生成部312において生成された劣化尺度マップとに基づいて、第3のマップの一例である"重要特徴指標マップ"を生成する。重要特徴指標マップは、正解ラベルを推論するための各画素の重要度を示している。 The superimposition unit 313 generates an example of a third map based on the grayscale important feature map generated in the important feature map generation unit 311 and the deterioration measure map generated in the deterioration measure map generation unit 312. "Important feature index map" is generated. The important feature index map indicates the importance of each pixel for inferring the correct label.

(3)特定部の詳細
次に、特定部143の詳細について説明する。図3に示すように、特定部143は、スーパーピクセル分割部321、重要スーパーピクセル決定部322、重要スーパーピクセル評価部323を有する。
(3) Details of Specification Unit Next, details of the specification unit 143 will be explained. As shown in FIG. 3, the identification unit 143 includes a superpixel division unit 321, an important superpixel determination unit 322, and an important superpixel evaluation unit 323.

スーパーピクセル分割部321は、誤推論画像を、誤推論画像に含まれるオブジェクト(本実施形態では車両)の部品ごとの領域(ピクセルの集合)である"スーパーピクセル"に分割し、スーパーピクセル分割情報を出力する。なお、誤推論画像をスーパーピクセルに分割するにあたっては、既存の分割機能を利用するか、あるいは、車両の部品ごとに分割するように学習したCNN等を利用する。 The superpixel dividing unit 321 divides the incorrectly inferred image into "superpixels" which are regions (sets of pixels) for each part of the object (vehicle in this embodiment) included in the incorrectly inferred image, and divides the incorrectly inferred image into "superpixels", Output. Note that to divide the incorrectly inferred image into superpixels, an existing division function is used, or a CNN or the like that has been trained to divide the image into parts of the vehicle is used.

重要スーパーピクセル決定部322は、スーパーピクセル分割部321により出力されたスーパーピクセル分割情報に基づいて、重畳部313により生成された重要特徴指標マップの各画素の値を、スーパーピクセルごとに加算する。 The important superpixel determining unit 322 adds the values of each pixel of the important feature index map generated by the superimposing unit 313 for each superpixel based on the superpixel division information output by the superpixel division unit 321.

また、重要スーパーピクセル決定部322は、各スーパーピクセルのうち、加算した各画素の加算値が所定の条件を満たす(重要特徴指標閾値以上)のスーパーピクセルを抽出する。また、重要スーパーピクセル決定部322は、抽出したスーパーピクセルの中から選択したスーパーピクセルを組み合わせたスーパーピクセル群を、変更可能領域(スコア最大化リファイン画像によって置き換えられる領域)と規定する。また、重要スーパーピクセル決定部322は、組み合わせたスーパーピクセル群以外のスーパーピクセル群を変更不可領域(スコア最大化リファイン画像によって置き換えられない領域)と規定する。 In addition, the important superpixel determination unit 322 extracts, from each superpixel, a superpixel whose summed value of each pixel satisfies a predetermined condition (greater than or equal to the important feature index threshold). Further, the important superpixel determining unit 322 defines a superpixel group that is a combination of superpixels selected from the extracted superpixels as a changeable region (a region to be replaced by the score-maximizing refined image). Furthermore, the important superpixel determining unit 322 defines superpixel groups other than the combined superpixel group as unchangeable areas (areas that cannot be replaced by the score-maximizing refined image).

更に、重要スーパーピクセル決定部322は、誤推論画像から、変更不可領域に対応する画像部分を抽出し、リファイン画像から、変更可能領域に対応する画像部分を抽出し、両者を合成することで、合成画像を生成する。画像リファイナ部301からは、学習回数に応じた数のリファイン画像であって、画像リファイナ部301で出力条件を満たしたリファイン画像が出力される。このため、重要スーパーピクセル決定部322では、当該数のリファイン画像それぞれについて、合成画像を生成する。 Furthermore, the important superpixel determination unit 322 extracts an image part corresponding to the unchangeable area from the incorrect inference image, extracts an image part corresponding to the changeable area from the refined image, and combines the two. Generate a composite image. The image refiner unit 301 outputs refined images whose number corresponds to the number of times of learning and which satisfies the output conditions of the image refiner unit 301 . Therefore, the important superpixel determining unit 322 generates a composite image for each of the number of refined images.

なお、重要スーパーピクセル決定部322では、変更可能領域及び変更不可領域を規定する際に用いる重要特徴指標閾値を徐々に下げることで、抽出するスーパーピクセルの数を増やす(変更可能領域を広げ、変更不可領域を狭めていく)。また、重要スーパーピクセル決定部322では、抽出したスーパーピクセルの中から選択するスーパーピクセルの組み合わせを変えながら、変更可能領域及び変更不可領域を更新する。 Note that the important superpixel determination unit 322 increases the number of superpixels to be extracted by gradually lowering the important feature index threshold used to define the changeable area and the unchangeable area (expands the changeable area, (Narrowing down the areas that are not allowed) Further, the important superpixel determining unit 322 updates the changeable area and the unchangeable area while changing the combination of superpixels selected from the extracted superpixels.

重要スーパーピクセル評価部323は、重要スーパーピクセル決定部322において生成された合成画像が推論部303に入力されるごとに推論される正解ラベルのスコアを取得する。上述したように、重要スーパーピクセル決定部322では、画像リファイナ部301により出力されたリファイン画像の数、重要特徴指標閾値を下げる回数、スーパーピクセルの組み合わせの数、に応じた数の合成画像を生成する。このため、重要スーパーピクセル評価部323では、当該数に応じた正解ラベルのスコアを取得する。また、重要スーパーピクセル評価部323は、取得したスコアに基づいて、誤推論の原因となるスーパーピクセルの組み合わせ(変更可能領域)を特定し、誤推論原因情報として出力する。 The important superpixel evaluation unit 323 obtains the score of the correct label that is inferred every time the composite image generated by the important superpixel determination unit 322 is input to the inference unit 303. As described above, the important superpixel determining unit 322 generates a number of composite images according to the number of refined images output by the image refiner unit 301, the number of times the important feature index threshold is lowered, and the number of superpixel combinations. do. Therefore, the important superpixel evaluation unit 323 obtains the score of the correct label according to the number. Further, the important superpixel evaluation unit 323 identifies a combination of superpixels (changeable region) that causes an erroneous inference based on the obtained score, and outputs it as erroneous inference cause information.

このとき、重要スーパーピクセル評価部323では、面積がなるべく小さくなるように、変更可能領域を特定する。例えば、重要スーパーピクセル評価部323では、推論部303より取得したスコアを評価する際、重要特徴指標閾値を下げる前のスーパーピクセルあるいはスーパーピクセルの組み合わせのうち、面積が小さいものから優先して評価する。また、重要スーパーピクセル評価部323では、重要特徴指標閾値が下がることで、正解ラベルが推論されるようになった時点での変更可能領域(正解ラベルを推論可能な限界の重要特徴指標閾値により抽出され、面積が最小の変更可能領域)を特定する。 At this time, the important superpixel evaluation unit 323 specifies the changeable area so that the area is as small as possible. For example, when evaluating the score obtained from the inference unit 303, the important superpixel evaluation unit 323 prioritizes and evaluates the superpixels or combinations of superpixels that have the smallest area before lowering the important feature index threshold. . In addition, in the important super pixel evaluation unit 323, by lowering the important feature index threshold, the changeable region (extracted by the important feature index threshold at the limit at which the correct label can be inferred) is determined at the time when the correct label can be inferred. (changeable area with the smallest area).

<誤推論原因抽出部の各部の処理の具体例>
次に、誤推論原因抽出部140の各部の処理の具体例について説明する。
<Specific examples of processing of each part of the incorrect inference cause extraction unit>
Next, a specific example of the processing of each part of the incorrect inference cause extraction unit 140 will be described.

(1)リファイン画像生成部の処理の具体例
はじめに、リファイン画像生成部141の処理の具体例について説明する。図4は、リファイン画像生成部の処理の具体例を示す図である。図4の左側の例は、正解ラベル="車種A"の車両が含まれる誤推論画像410を入力として推論した結果、ラベル="車種B"と誤推論した様子を示している。
(1) Specific example of processing by refined image generation unit First, a specific example of processing by the refined image generation unit 141 will be described. FIG. 4 is a diagram showing a specific example of processing by the refined image generation section. The example on the left side of FIG. 4 shows how, as a result of inference using an incorrect inference image 410 that includes a vehicle with the correct label=“car type A” as input, the incorrect inference is made that the label=“car type B”.

また、図4の左側の例は、誤推論画像410を入力として推論した際のスコアが、
・車種Aのスコア=0.0142、
・車種Bのスコア=0.4549、
・車種Cのスコア=0.0018、
であったことを示している。
In addition, in the example on the left side of FIG. 4, the score when inference is made using the incorrect inference image 410 as input is
・Score of car type A = 0.0142,
・Score of car type B = 0.4549,
・Score of car type C = 0.0018,
It shows that it was.

一方、図4の右側の例は、リファイン画像生成部141が、誤推論画像410からリファイン画像を生成する処理を行い、スコア最大化リファイン画像420を生成した様子を示している。図4の右側の例では、リファイン画像生成部141が、誤推論画像410に対して、ヘッドライト421の色や、道路標示422の色を変更することで、スコア最大化リファイン画像420を生成したことを示している。 On the other hand, the example on the right side of FIG. 4 shows how the refined image generation unit 141 performs processing to generate a refined image from the incorrect inference image 410 and generates a score-maximizing refined image 420. In the example on the right side of FIG. 4, the refined image generation unit 141 generates the score-maximizing refined image 420 by changing the color of the headlights 421 and the color of the road markings 422 with respect to the incorrect inference image 410. It is shown that.

また、図4の右側の例は、スコア最大化リファイン画像420を入力として推論した場合、正解ラベル="車種A"と一致するラベルを推論できたことを示している。更に、図4の右側の例は、スコア最大化リファイン画像420を入力として推論した際のスコアが、
・車種Aのスコア=0.9927、
・車種Bのスコア=0.0042、
・車種Cのスコア=0.0022、
であったことを示している。
Further, the example on the right side of FIG. 4 shows that when inference is made using the score maximization refined image 420 as input, a label that matches the correct label = "car type A" can be inferred. Furthermore, in the example on the right side of FIG. 4, the score when inferred using the score maximization refined image 420 as input is
・Score of car type A = 0.9927,
・Score of car type B = 0.0042,
・Score of car type C = 0.0022,
It shows that it was.

このように、リファイン画像生成部141によれば、誤推論画像410を変更することで、正解ラベルと一致するラベルを推論でき、かつ、正解ラベルのスコアが最大となるスコア最大化リファイン画像420を生成することができる。 In this way, the refined image generation unit 141 can infer a label that matches the correct label by changing the incorrect inference image 410, and generates the score-maximizing refined image 420 in which the correct label has the maximum score. can be generated.

なお、図4の右側の例で示すように、リファイン画像生成部141により生成されるスコア最大化リファイン画像420の場合、誤推論画像410に対して、車両と無関係な路面標示まで変更される可能性がある。正解ラベルのスコアを最大化する学習での誤差逆伝播は、正解ラベルのスコアに影響するCNNの経路(ユニット)に影響を及ぼすが、影響を及ぼされた経路(ユニット)が必ずしも誤推論の原因と関係しているとは限らないためである。 Note that, as shown in the example on the right side of FIG. 4, in the case of the score maximization refined image 420 generated by the refined image generation unit 141, even road markings unrelated to the vehicle may be changed with respect to the incorrect inference image 410. There is sex. Error backpropagation in learning that maximizes the score of the correct label affects the CNN path (unit) that affects the score of the correct label, but the affected path (unit) is not necessarily the cause of incorrect inference. This is because it is not necessarily related to

つまり、既知のスコア最大化法のように、変更部分に基づいて誤推論の原因となる画像箇所を特定しようとした場合、十分な精度で特定することができないという問題がある(変更部分について、更なる絞り込みが必要である)。本実施形態に係る誤推論原因抽出部140ではマップ生成部142、特定部143が機能することで、更なる絞り込みが行われる。 In other words, when trying to identify image parts that cause incorrect inferences based on the changed parts, as in the known score maximization method, there is a problem that it is not possible to identify with sufficient accuracy (for the changed parts, (further narrowing down is necessary). In the erroneous inference cause extraction unit 140 according to the present embodiment, the map generation unit 142 and the identification unit 143 function to perform further narrowing down.

(2)マップ生成部の処理の具体例
(2-1)マップ生成部全体の処理の具体例
次に、マップ生成部142の処理の具体例について説明する。はじめに、マップ生成部142全体の処理の具体例について説明する。図5は、マップ生成部の処理の具体例を示す図である。
(2) Specific example of processing of map generation unit (2-1) Specific example of processing of entire map generation unit Next, a specific example of processing of map generation unit 142 will be described. First, a specific example of the overall processing of the map generation unit 142 will be described. FIG. 5 is a diagram illustrating a specific example of processing by the map generation unit.

図5に示すように、マップ生成部142において重要特徴マップ生成部311は、推論部303がスコア最大化リファイン画像を入力として推論した際の推論部構造情報501を、推論部303から取得する。また、重要特徴マップ生成部311は、取得した推論部構造情報501に基づいて、例えば、選択的BP法を用いて重要特徴マップを生成し、生成した重要特徴マップについてオフセット調整を行う。なお、重要特徴マップ生成部311によるこれらの処理の詳細は、後述する。 As shown in FIG. 5, in the map generation unit 142, the important feature map generation unit 311 acquires from the inference unit 303 inference unit structure information 501 when the inference unit 303 infers using the score-maximized refined image as input. Further, the important feature map generation unit 311 generates an important feature map using, for example, the selective BP method based on the acquired inference unit structure information 501, and performs offset adjustment on the generated important feature map. Note that the details of these processes by the important feature map generation unit 311 will be described later.

また、重要特徴マップ生成部311は、オフセット調整した重要特徴マップをグレイスケール化し、グレイスケール化重要特徴マップ502を生成する。 Further, the important feature map generation unit 311 converts the offset-adjusted important feature map into a gray scale to generate a gray scale important feature map 502.

図5に示すグレイスケール化重要特徴マップ502は、0から255の画素値でグレイスケール化されている。このため、グレイスケール化重要特徴マップ502において、画素値が255に近い画素は、推論時に注目される画素(注目画素)であり、画素値が0に近い画素は、推論時に注目されない画素(非注目画素)である。 The gray scaled important feature map 502 shown in FIG. 5 is gray scaled with pixel values from 0 to 255. Therefore, in the grayscale important feature map 502, pixels with pixel values close to 255 are pixels that are noticed during inference (pixels of interest), and pixels whose pixel values are close to 0 are pixels that are not noticed during inference (non-target pixels). pixel of interest).

一方、劣化尺度マップ生成部312は、リファイン画像格納部305よりスコア最大化リファイン画像512を読み出し、誤推論画像511との間でSSIM(Structural Similarity)演算を行う。これにより、劣化尺度マップ生成部312は、劣化尺度マップ513を生成する。劣化尺度マップ513は0から1の値をとり、画素値が1に近いほど、画像の差分が小さいことを表し、画素値が0に近いほど、画像の差分が大きいことを表す。 On the other hand, the deterioration scale map generation unit 312 reads the score-maximizing refined image 512 from the refined image storage unit 305 and performs SSIM (Structural Similarity) calculation between it and the incorrect inference image 511. Thereby, the deterioration measure map generation unit 312 generates the deterioration measure map 513. The deterioration scale map 513 takes values from 0 to 1, and the closer the pixel value is to 1, the smaller the image difference is, and the closer the pixel value is to 0, the larger the image difference.

また、重畳部313は、重要特徴マップ生成部311により生成されたグレイスケール化重要特徴マップ502と、劣化尺度マップ生成部312により生成された劣化尺度マップ513とを用いて、重要特徴指標マップ520を生成する。 Further, the superimposition unit 313 uses the grayscale important feature map 502 generated by the important feature map generation unit 311 and the deterioration measure map 513 generated by the deterioration measure map generation unit 312 to create an important feature index map 520. generate.

具体的には、重畳部313は、下式に基づいて、重要特徴指標マップ520を生成する。
(式1)
重要特徴指標マップ=グレイスケール化重要特徴マップ×(1-劣化尺度マップ)
上式において、(1-劣化尺度マップ)の項は、0から1の値をとり、1に近いほど画像の差分が大きく、0に近いほど画像の差分が小さい。したがって、重要特徴指標マップ520は、スコア最大化リファイン画像の複数の画素のうち推論時に注目される画素の注目度合いを示すグレイスケール化重要特徴マップに、画像の差分の大小による強弱をつけた画像となる。
Specifically, the superimposition unit 313 generates the important feature index map 520 based on the following formula.
(Formula 1)
Important feature index map = grayscale important feature map × (1 - deterioration scale map)
In the above equation, the term (1-degradation scale map) takes a value from 0 to 1, and the closer it is to 1, the larger the image difference is, and the closer it is to 0, the smaller the image difference. Therefore, the important feature index map 520 is an image obtained by adding strength to a grayscale important feature map that indicates the degree of attention of a pixel that is noticed during inference among a plurality of pixels of the score-maximizing refined image, based on the magnitude of the image difference. becomes.

具体的には、重要特徴指標マップ520は、
・劣化尺度マップ513において画像の差分が小さい部分について、グレイスケール化重要特徴マップの画素値を小さくし、
・劣化尺度マップ513において画像の差分が大きい部分について、グレイスケール化重要特徴マップの画素値を大きくする、
ことで生成される。
Specifically, the important feature index map 520 is
- For parts of the deterioration scale map 513 where the image difference is small, reduce the pixel value of the grayscale important feature map,
・Increasing the pixel value of the grayscale important feature map for the portion where the image difference is large in the deterioration scale map 513,
It is generated by

なお、より識別しやすく可視化するために、重要特徴指標マップを反転させてもよい。図5に示す重要特徴指標マップは、下式に基づいて反転させたものを表示している。
(式2)
(反転した)重要特徴指標マップ=255-[グレイスケール化重要特徴マップ×(1-劣化尺度マップ)]
ここで、重畳部313が、上式に基づいて、グレイスケール化重要特徴マップ502と劣化尺度マップ513とを重畳することによる利点について説明する。
Note that the important feature index map may be inverted to make it easier to identify and visualize. The important feature index map shown in FIG. 5 is displayed inverted based on the following formula.
(Formula 2)
(Inverted) important feature index map = 255 - [grayscaled important feature map x (1 - deterioration scale map)]
Here, the advantage of superimposing the gray scaled important feature map 502 and the deterioration measure map 513 by the superimposing unit 313 based on the above equation will be explained.

重要特徴マップ生成部311において生成されるグレイスケール化重要特徴マップ502は、スコア最大化リファイン画像を入力として推論し、正解ラベルのスコアが最大となった際に、推論部303が算出した注目部分に他ならない。 The gray scaled important feature map 502 generated by the important feature map generation unit 311 is a portion of interest calculated by the inference unit 303 when inference is made using the score-maximized refined image as input, and the score of the correct label becomes the maximum. Nothing but.

一方、劣化尺度マップ生成部312において生成される劣化尺度マップ513は、正解ラベルのスコアが最大化するように誤推論画像を変更した際の変更部分を表しており、誤推論の原因となる領域を表している。ただし、劣化尺度マップ生成部312において生成される劣化尺度マップ513は、正解ラベルのスコアを最大化するために必要な最小限の領域ではない。 On the other hand, the deterioration scale map 513 generated by the deterioration scale map generation unit 312 represents the changed part when the incorrect inference image is changed so that the score of the correct label is maximized, and represents the area that causes the incorrect inference. represents. However, the deterioration measure map 513 generated by the deterioration measure map generation unit 312 is not the minimum area necessary to maximize the score of the correct label.

重畳部313では、正解ラベルのスコアが最大化するように誤推論画像を変更した際の変更部分と、推論部303が算出した注目部分とを重畳することで、正解ラベルのスコアを最大化するために必要な領域を絞り込む。これにより、誤推論の原因となる領域を絞り込むことができる。 The superimposition unit 313 maximizes the score of the correct label by superimposing the changed part when changing the incorrect inference image and the part of interest calculated by the inference unit 303 so as to maximize the score of the correct label. Narrow down the necessary areas. This makes it possible to narrow down the area that causes the incorrect inference.

(2-2)重要特徴マップ生成部の処理の具体例
次に、マップ生成部142の重要特徴マップ生成部311の更なる詳細について、図7~図9を参照しながら、図6を用いて説明する。図6は、重要特徴マップ生成部の機能構成の詳細を示す図である。
(2-2) Specific example of processing of important feature map generation unit Next, further details of the important feature map generation unit 311 of the map generation unit 142 will be explained using FIG. 6 with reference to FIGS. 7 to 9. explain. FIG. 6 is a diagram showing details of the functional configuration of the important feature map generation section.

図6に示すように、重要特徴マップ生成部311は、選択的逆誤差伝播部611、非注目画素オフセット調整部612、グレイスケール化部613を有する。 As shown in FIG. 6, the important feature map generation section 311 includes a selective back error propagation section 611, a non-target pixel offset adjustment section 612, and a gray scale conversion section 613.

選択的逆誤差伝播部611は生成部の一例であり、推論部303から推論部構造情報501を取得し、選択的BP法を用いて重要特徴マップ601を生成する。図7は、選択的逆誤差伝播部の処理の具体例を示す図である。図7に示すように、選択的逆誤差伝播部611では、推論部303において推論された正解ラベルについて、推論の誤差がゼロでないという制約のもとで選択的逆誤差伝播を行う。これにより、選択的逆誤差伝播部611では、重要特徴マップ601を生成する。なお、重要特徴マップ601の生成に際しては、選択的逆誤差伝播部611の出力をそのまま用いてもよいし、あるいは、絶対値をとったものを用いてもよい。 The selective back-propagation unit 611 is an example of a generation unit, and acquires the inference unit structure information 501 from the inference unit 303 and generates the important feature map 601 using the selective BP method. FIG. 7 is a diagram illustrating a specific example of processing by the selective back error propagation unit. As shown in FIG. 7, the selective backpropagation unit 611 performs selective backpropagation on the correct label inferred by the inference unit 303 under the constraint that the inference error is not zero. As a result, the selective back error propagation unit 611 generates an important feature map 601. Note that when generating the important feature map 601, the output of the selective back error propagation unit 611 may be used as is, or the absolute value may be used.

非注目画素オフセット調整部612は調整部の一例であり、生成された重要特徴マップ601において、非注目画素の画素値がゼロになるように、オフセット調整を行う。ここで、選択的逆誤差伝播部611により生成される重要特徴マップ601は、非注目画素の画素値がゼロとして算出される場合と、非ゼロとして算出される場合とがありうる(推論部303に用いられるCNNの種類によって変わる)。 The non-target pixel offset adjustment unit 612 is an example of an adjustment unit, and performs offset adjustment so that the pixel value of the non-target pixel becomes zero in the generated important feature map 601. Here, in the important feature map 601 generated by the selective back error propagation unit 611, the pixel value of the non-target pixel may be calculated as zero or non-zero (inference unit 303 (depending on the type of CNN used).

そこで、非注目画素オフセット調整部612では、重要特徴マップ601に含まれる非注目画素の画素値がゼロになるように、オフセット調整を行う。ここで、非注目画素オフセット調整部612では、重要特徴マップ601に含まれる各画素値の出現頻度が最大となる画素値の画素を、非注目画素としてオフセット調整を行う。 Therefore, the non-target pixel offset adjustment unit 612 performs offset adjustment so that the pixel value of the non-target pixel included in the important feature map 601 becomes zero. Here, the non-attention pixel offset adjustment unit 612 performs offset adjustment on a pixel having a pixel value that has the maximum frequency of occurrence of each pixel value included in the important feature map 601 as a non-attention pixel.

図8は、非注目画素オフセット調整部の処理内容を示す図である。図8(a)に示すように、非注目画素オフセット調整部612では、選択的逆誤差伝播部611より重要特徴マップ601を取得すると、各画素値の出現頻度を示すヒストグラムを生成する。続いて、非注目画素オフセット調整部612では、最小値が"0"、最大値が"255"になるようにスケーリング処理を行う(図8(b))。なお、選択的逆誤差伝播部611の信号出力を維持した可視化や適用を行う場合には、スケーリング処理を行わない方法を用いてもよい。以下の説明では、特に断わりがない場合には、スケーリングを行うものとする。 FIG. 8 is a diagram showing the processing contents of the non-target pixel offset adjustment section. As shown in FIG. 8A, when the non-target pixel offset adjustment unit 612 obtains the important feature map 601 from the selective back error propagation unit 611, it generates a histogram indicating the appearance frequency of each pixel value. Subsequently, the non-target pixel offset adjustment unit 612 performs scaling processing so that the minimum value becomes "0" and the maximum value becomes "255" (FIG. 8(b)). Note that when visualizing or applying the signal output of the selective back error propagation unit 611 while maintaining it, a method that does not perform scaling processing may be used. In the following description, unless otherwise specified, scaling will be performed.

続いて、非注目画素オフセット調整部612では、選択的逆誤差伝播部611の出力の絶対値が用いる場合にあっては、出現頻度が最大となる画素値を探索し(図8(c))、出現頻度が最大となる画素値がゼロになるように、オフセット調整を行う(図8(d))。 Next, in the case where the absolute value of the output of the selective back error propagation unit 611 is used, the non-target pixel offset adjustment unit 612 searches for the pixel value with the maximum frequency of occurrence (FIG. 8(c)). , offset adjustment is performed so that the pixel value with the maximum frequency of appearance becomes zero (FIG. 8(d)).

続いて、非注目画素オフセット調整部612では、画素値の絶対値を算出する(図8(e))。これにより、非注目画素オフセット調整部612では、オフセット重要特徴マップ602(図6参照)を生成する。 Subsequently, the non-target pixel offset adjustment unit 612 calculates the absolute value of the pixel value (FIG. 8(e)). As a result, the non-target pixel offset adjustment unit 612 generates an offset important feature map 602 (see FIG. 6).

図9は、非注目画素オフセット調整部の処理の具体例を示す図である。このうち、図9(a)は、選択的逆誤差伝播部611により生成される重要特徴マップにおいて、非注目画素の画素値がゼロとして算出されたケースを示している。一方、図9(b)は、選択的逆誤差伝播部611により生成される重要特徴マップにおいて、非注目画素の画素値が非ゼロとして算出されたケースを示している。非注目画素をオフセットで調整するのは、例えば、上記のように注目度合いで情報をフィルタリングしたり、信号の強さを調整する場合に、注目度合いに応じた信号の強さに調整した情報を作用させることで、意図した情報に加工することができるからである。既知の可視化に用いる場合には、注目されていない箇所が暗黙的に何らかの画素値であることを読み取ることは可能であるが、例えば、コンピュータで処理する場合には、暗黙的な扱いはなされないため、上記のようなオフセット調整が必要になる。 FIG. 9 is a diagram illustrating a specific example of processing by the non-target pixel offset adjustment section. Of these, FIG. 9A shows a case in which the pixel value of a non-target pixel is calculated as zero in the important feature map generated by the selective back-error propagation unit 611. On the other hand, FIG. 9B shows a case in which the pixel value of a non-target pixel is calculated as non-zero in the important feature map generated by the selective back-error propagation unit 611. Adjusting non-attention pixels with an offset is used, for example, when filtering information or adjusting signal strength according to the degree of attention as described above. This is because by acting on it, it is possible to process it into the intended information. When used for known visualization, it is possible to implicitly read that the unfocused part is some pixel value, but for example, when processed by a computer, it is not handled implicitly. Therefore, offset adjustment as described above is required.

なお、上述したように、いずれのケースになるかは、推論部303に用いられるCNNの種類によって変わる。したがって、それぞれのオフセット量は、例えば、均一な画素値からなる画像(図9(a)、(b)に示す画像901のように、特徴のない画像(つまり、非注目画素からなる画像))に基づいて算出することができる。具体的には、画像901を、異なる種類のCNNが用いられた推論部303にそれぞれ入力した際の推論部構造情報501を取得し、選択的BP法を用いて重要特徴マップを生成することで、オフセット量を算出することができる。 Note that, as described above, which case occurs depends on the type of CNN used in the inference unit 303. Therefore, each offset amount is, for example, an image consisting of uniform pixel values (an image without features (that is, an image consisting of non-target pixels), such as images 901 shown in FIGS. 9(a) and 9(b)). It can be calculated based on Specifically, the inference unit structure information 501 obtained when the image 901 is input to the inference units 303 using different types of CNNs is acquired, and an important feature map is generated using the selective BP method. , the offset amount can be calculated.

図9(a)は、オフセット量が"0"のケースであり、この場合、非注目画素オフセット調整部612では、オフセット調整を行わない(符号902に示す重要特徴マップ=オフセット重要特徴マップ)。一方、図9(b)は、オフセット量が"128"のケースであり、この場合、非注目画素オフセット調整部612では、オフセット調整を行う(符号912に示す重要特徴マップ→符号913に示すオフセット重要特徴マップ)。 FIG. 9A shows a case where the offset amount is "0", and in this case, the non-target pixel offset adjustment unit 612 does not perform offset adjustment (important feature map indicated by reference numeral 902 = offset important feature map). On the other hand, FIG. 9B shows a case where the offset amount is "128", and in this case, the non-target pixel offset adjustment unit 612 performs offset adjustment (important feature map indicated by reference numeral 912→offset indicated by reference numeral 913). important feature map).

図6の説明に戻る。グレイスケール化部613では、非注目画素オフセット調整部612によりオフセット調整された、オフセット重要特徴マップ602について、グレイスケール化処理を行い、グレイスケール化重要特徴マップ502を生成する。具体的には、オフセット重要特徴マップ602がカラーであった場合に、グレイスケール化処理を行い、グレイスケール化重要特徴マップ502を生成する。なお、RGBの各チャネルを分離し、個々のチャネルをグレイスケールとして扱い、チャネルごとにグレイスケール化重要特徴マップ502を生成してもよい。ただし、オフセット重要特徴マップ602がカラーでない場合、グレイスケール化部613では、グレイスケール化処理を行わない。 Returning to the explanation of FIG. 6. The gray scale conversion unit 613 performs gray scale processing on the offset important feature map 602 whose offset has been adjusted by the non-target pixel offset adjustment unit 612 to generate a gray scale important feature map 502. Specifically, when the offset important feature map 602 is in color, grayscale processing is performed to generate the grayscale important feature map 502. Note that it is also possible to separate each RGB channel, treat each channel as a gray scale, and generate the gray scale important feature map 502 for each channel. However, if the offset important feature map 602 is not in color, the grayscale conversion unit 613 does not perform grayscale processing.

(3)特定部の処理の具体例
次に、特定部143の各部(スーパーピクセル分割部321、重要スーパーピクセル決定部322、重要スーパーピクセル評価部323)の処理の具体例について説明する。
(3) Specific example of processing by specifying unit Next, a specific example of processing by each unit of the specifying unit 143 (superpixel dividing unit 321, important superpixel determining unit 322, important superpixel evaluating unit 323) will be described.

(3-1)スーパーピクセル分割部の処理の具体例
はじめに、特定部143に含まれるスーパーピクセル分割部321の処理の具体例について説明する。図10は、スーパーピクセル分割部の処理の具体例を示す図である。図10に示すように、スーパーピクセル分割部321は、例えば、SLIC(Simple Linear Iterative Clustering)処理を行う分割部1010を有する。分割部1010は、誤推論画像511を、誤推論画像511に含まれる車両の部品ごとの部分画像であるスーパーピクセルに分割する。また、スーパーピクセル分割部321は、分割部1010によりスーパーピクセルに分割されることで生成されたスーパーピクセル分割情報1001を出力する。
(3-1) Specific Example of Processing of Super Pixel Dividing Unit First, a specific example of processing of the super pixel dividing unit 321 included in the specifying unit 143 will be described. FIG. 10 is a diagram showing a specific example of processing by the superpixel dividing section. As shown in FIG. 10, the superpixel dividing section 321 includes a dividing section 1010 that performs, for example, SLIC (Simple Linear Iterative Clustering) processing. The dividing unit 1010 divides the incorrect inference image 511 into superpixels that are partial images for each vehicle part included in the incorrect inference image 511. Further, the superpixel division unit 321 outputs superpixel division information 1001 generated by division into superpixels by the division unit 1010.

(3-2)重要スーパーピクセル決定部の処理の具体例
次に、特定部143に含まれる重要スーパーピクセル決定部322の処理の具体例について説明する。図11は、重要スーパーピクセル決定部の処理の具体例を示す図である。
(3-2) Specific example of processing by important super pixel determining unit Next, a specific example of processing by important super pixel determining unit 322 included in identifying unit 143 will be described. FIG. 11 is a diagram showing a specific example of the processing of the important superpixel determining unit.

図11に示すように、重要スーパーピクセル決定部322は、領域抽出部1110、合成部1111を有する。 As shown in FIG. 11, the important superpixel determining section 322 includes a region extracting section 1110 and a combining section 1111.

重要スーパーピクセル決定部322では、重畳部313より出力された重要特徴指標マップ520と、スーパーピクセル分割部321より出力されたスーパーピクセル分割情報1001とを重ね合わせる。これにより、重要スーパーピクセル決定部322では、重要スーパーピクセル画像1101を生成する。なお、図11では、重要特徴指標マップ520として、(反転した)重要特徴指標マップを表示している。 The important superpixel determining section 322 superimposes the important feature index map 520 output from the superimposing section 313 and the superpixel division information 1001 output from the superpixel division section 321. As a result, the important superpixel determining unit 322 generates the important superpixel image 1101. Note that in FIG. 11, an (inverted) important feature index map is displayed as the important feature index map 520.

また、重要スーパーピクセル決定部322では、生成した重要スーパーピクセル画像1101内の各スーパーピクセルについて、重要特徴指標マップ520の各画素の値を加算する。 Further, the important superpixel determination unit 322 adds the values of each pixel of the important feature index map 520 for each superpixel in the generated important superpixel image 1101.

また、重要スーパーピクセル決定部322では、スーパーピクセルごとの加算値が、重要特徴指標閾値以上であるかを判定し、加算値が重要特徴指標閾値以上であると判定したスーパーピクセルを抽出する。なお、図11において、重要スーパーピクセル画像1102は、スーパーピクセルごとの加算値の一例を明示したものである。 In addition, the important superpixel determining unit 322 determines whether the added value of each superpixel is equal to or greater than the important feature index threshold, and extracts superpixels for which the added value is determined to be equal to or greater than the important feature index threshold. Note that in FIG. 11, an important superpixel image 1102 clearly shows an example of the added value for each superpixel.

また、重要スーパーピクセル決定部322では、抽出したスーパーピクセルの中から、選択したスーパーピクセルを組み合わせて変更可能領域と規定し、組み合わせたスーパーピクセル以外のスーパーピクセルを変更不可領域と規定する。更に、重要スーパーピクセル決定部322は、規定した変更可能領域及び変更不可領域を領域抽出部1110に通知する。 Furthermore, the important superpixel determining unit 322 combines selected superpixels from among the extracted superpixels to define a changeable area, and defines superpixels other than the combined superpixels as an unchangeable area. Further, the important superpixel determining unit 322 notifies the area extracting unit 1110 of the defined changeable area and unchangeable area.

領域抽出部1110は、誤推論画像511から、変更不可領域に対応する画像部分を抽出し、リファイン画像1121から、変更可能領域に対応する画像部分を抽出する。 The region extraction unit 1110 extracts an image portion corresponding to an unchangeable region from the incorrect inference image 511, and extracts an image portion corresponding to a changeable region from the refined image 1121.

合成部1111は、リファイン画像1121から抽出した変更可能領域に対応する画像部分と、誤推論画像511から抽出した変更不可領域に対応する画像部分とを合成し、合成画像を生成する。 The combining unit 1111 combines the image portion corresponding to the changeable area extracted from the refined image 1121 and the image portion corresponding to the unchangeable area extracted from the incorrect inference image 511 to generate a combined image.

図12は、領域抽出部及び合成部の処理の具体例を示す図である。図12において、上段は、領域抽出部1110が、リファイン画像1121から、変更可能領域に対応する画像部分(画像1201の白色部分)を抽出した様子を示している。 FIG. 12 is a diagram illustrating a specific example of processing by the region extracting unit and the combining unit. In FIG. 12, the upper row shows how the region extraction unit 1110 extracts an image portion (white portion of the image 1201) corresponding to the changeable region from the refined image 1121.

一方、図12において、下段は、領域抽出部1110が、誤推論画像511から、変更不可領域に対応する画像部分(画像1201'の白色部分)を抽出した様子を示している。なお、画像1201'は、画像1201の白色部分と黒色部分とを反転した画像である(説明の便宜上、図12の下段では、白色部分を、変更不可領域に対応する画像部分としている)。 On the other hand, in FIG. 12, the lower part shows how the region extracting unit 1110 extracts the image portion (white portion of the image 1201') corresponding to the unchangeable region from the incorrect inference image 511. Note that the image 1201' is an image obtained by inverting the white part and the black part of the image 1201 (for convenience of explanation, in the lower part of FIG. 12, the white part is the image part corresponding to the unchangeable area).

合成部1111は、図12に示すように、領域抽出部1110より出力された、リファイン画像1121の変更可能領域に対応する画像部分と、誤推論画像511の変更不可領域に対応する画像部分とを合成し、合成画像1220を生成する。 As shown in FIG. 12, the combining unit 1111 combines the image portion corresponding to the changeable area of the refined image 1121 and the image portion corresponding to the unchangeable area of the incorrect inference image 511 output from the area extraction unit 1110. The images are combined to generate a composite image 1220.

このように、特定部143によれば、合成画像1220を生成する際、重要特徴指標マップ520を用いることで、リファイン画像1121で置き換える領域を、スーパーピクセル単位で特定することができる。 In this way, according to the specifying unit 143, when generating the composite image 1220, by using the important feature index map 520, the area to be replaced with the refined image 1121 can be specified in units of super pixels.

<誤推論原因抽出処理の流れ>
次に、誤推論原因抽出部140による誤推論原因抽出処理の流れについて説明する。図13及び図14は、誤推論原因抽出処理の流れを示す第1及び第2のフローチャートである。
<Flow of incorrect inference cause extraction process>
Next, the flow of the erroneous inference cause extraction process by the erroneous inference cause extraction unit 140 will be described. 13 and 14 are first and second flowcharts showing the flow of the incorrect inference cause extraction process.

ステップS1301において、誤推論原因抽出部140の各部は、初期化処理を行う。具体的には、画像リファイナ部301は、CNNの学習回数をゼロに設定するとともに、最大学習回数をユーザが指示した値に設定する。また、判断部325は、重要特徴指標閾値及びその下限値を、ユーザが指示した値に設定する。 In step S1301, each part of the incorrect inference cause extraction unit 140 performs initialization processing. Specifically, the image refiner unit 301 sets the number of learning times of the CNN to zero, and sets the maximum number of learning times to a value specified by the user. Further, the determining unit 325 sets the important feature index threshold and its lower limit to values specified by the user.

ステップS1302において、画像リファイナ部301は、誤推論画像を変更し、リファイン画像を生成する。 In step S1302, the image refiner unit 301 changes the incorrect inference image and generates a refined image.

ステップS1303において、推論部303は、リファイン画像を入力として推論し、正解ラベルのスコアを算出する。 In step S1303, the inference unit 303 performs inference using the refined image as input, and calculates the score of the correct label.

ステップS1304において、画像リファイナ部301は、画像差分値とスコア誤差とを用いてCNNの学習を行う。 In step S1304, the image refiner unit 301 performs CNN learning using the image difference value and the score error.

ステップS1305において、画像リファイナ部301は、学習回数が最大学習回数を超えたか否かを判定する。ステップS1305において、学習回数が最大学習回数を超えていないと判定した場合には(ステップS1305においてNoの場合には)、ステップS1302に戻り、リファイン画像の生成を継続する。 In step S1305, the image refiner unit 301 determines whether the number of learning times exceeds the maximum number of learning times. If it is determined in step S1305 that the number of learning times does not exceed the maximum number of learning times (No in step S1305), the process returns to step S1302 and continues generating refined images.

一方、ステップS1305において、学習回数が最大学習回数を超えたと判定した場合には(ステップS1305においてYesの場合は)、ステップS1306に進む。なお、この時点で、リファイン画像格納部305には、学習ごとに生成されたリファイン画像(スコア最大化リファイン画像を含む)が格納されている。 On the other hand, if it is determined in step S1305 that the number of times of learning exceeds the maximum number of times of learning (if YES in step S1305), the process advances to step S1306. Note that, at this point, the refined image storage unit 305 stores the refined images (including the score-maximized refined image) generated for each learning.

ステップS1306において、重要特徴マップ生成部311は、推論部303よりスコア最大化リファイン画像を入力として推論された際の推論部構造情報を取得し、取得した推論部構造情報に基づいてグレイスケール化重要特徴マップを生成する(詳細は後述)。 In step S1306, the important feature map generation unit 311 acquires the inference unit structure information when inference is made using the score maximization refined image as input from the inference unit 303, and converts the important feature map into gray scale based on the acquired inference unit structure information. Generate a feature map (details will be described later).

ステップS1307において、劣化尺度マップ生成部312は、誤推論画像とスコア最大化リファイン画像とに基づいて、劣化尺度マップを生成する。 In step S1307, the deterioration measure map generation unit 312 generates a deterioration measure map based on the incorrect inference image and the score-maximizing refined image.

ステップ1308において、重畳部313は、グレイスケール化重要特徴マップと劣化尺度マップとに基づいて、重要特徴指標マップを生成する。 In step 1308, the superimposition unit 313 generates an important feature index map based on the grayscaled important feature map and the deterioration measure map.

ステップS1309において、スーパーピクセル分割部321は、誤推論画像をスーパーピクセルに分割し、スーパーピクセル分割情報を生成する。 In step S1309, the superpixel division unit 321 divides the incorrectly inferred image into superpixels and generates superpixel division information.

ステップS1310において、重要スーパーピクセル決定部322は、重要特徴指標マップの各画素の値を、スーパーピクセル単位で加算する。 In step S1310, the important superpixel determination unit 322 adds the values of each pixel of the important feature index map in units of superpixels.

ステップS1311において、重要スーパーピクセル決定部322は、加算値が重要特徴指標閾値以上のスーパーピクセルを抽出し、抽出したスーパーピクセルの中から選択したスーパーピクセルを組み合わせて変更可能領域を規定する。また、重要スーパーピクセル決定部322は、組み合わせたスーパーピクセル以外のスーパーピクセルを変更不可領域と規定する。 In step S1311, the important superpixel determination unit 322 extracts superpixels whose added value is greater than or equal to the important feature index threshold, and defines a changeable region by combining the superpixels selected from the extracted superpixels. Furthermore, the important superpixel determination unit 322 defines superpixels other than the combined superpixels as unchangeable areas.

続いて、図14のステップS1401において、重要スーパーピクセル決定部322は、リファイン画像格納部305からリファイン画像を読み出す。 Subsequently, in step S1401 in FIG. 14, the important superpixel determination unit 322 reads the refined image from the refined image storage unit 305.

ステップS1402において、重要スーパーピクセル決定部322は、リファイン画像から、変更可能領域に対応する画像部分を抽出する。 In step S1402, the important superpixel determining unit 322 extracts an image portion corresponding to the changeable region from the refined image.

ステップS1403において、重要スーパーピクセル決定部322は、誤推論画像から、変更不可領域に対応する画像部分を抽出する。 In step S1403, the important superpixel determining unit 322 extracts an image portion corresponding to the unchangeable region from the incorrectly inferred image.

ステップS1404において、重要スーパーピクセル決定部322は、リファイン画像から抽出した変更可能領域に対応する画像部分と、誤推論画像から抽出した変更不可領域に対応する画像部分とを合成し、合成画像を生成する。 In step S1404, the important superpixel determination unit 322 combines the image portion corresponding to the changeable area extracted from the refined image and the image portion corresponding to the unchangeable area extracted from the incorrect inference image, and generates a composite image. do.

ステップS1405において、推論部303は、合成画像を入力として推論し、正解ラベルのスコアを算出する。また、重要スーパーピクセル評価部323は、推論部303により算出された正解ラベルのスコアを取得する。 In step S1405, the inference unit 303 performs inference using the composite image as input, and calculates the score of the correct label. Further, the important superpixel evaluation unit 323 obtains the score of the correct label calculated by the inference unit 303.

ステップS1407において、画像リファイナ部301は、リファイン画像格納部305に格納された全てのリファイン画像を読み出したか否かを判定する。ステップS1407において、読み出していないリファイン画像があると判定した場合には(ステップS1407においてNoの場合には)、ステップS1401に戻る。 In step S1407, the image refiner unit 301 determines whether all refined images stored in the refined image storage unit 305 have been read out. If it is determined in step S1407 that there is a refined image that has not been read out (No in step S1407), the process returns to step S1401.

一方、ステップS1407において、全てのリファイン画像を読み出したと判定した場合には(ステップS1407においてYesの場合には)、ステップS1408に進む。 On the other hand, if it is determined in step S1407 that all refined images have been read out (in the case of Yes in step S1407), the process advances to step S1408.

ステップS1408において、重要スーパーピクセル決定部322は、重要特徴指標閾値が下限値に到達したか否かを判定する。ステップS1408において、下限値に到達していないと判定した場合には(ステップS1408においてNoの場合には)、ステップS1409に進む。 In step S1408, the important superpixel determining unit 322 determines whether the important feature index threshold has reached the lower limit. If it is determined in step S1408 that the lower limit has not been reached (No in step S1408), the process advances to step S1409.

ステップS1409において、重要スーパーピクセル決定部322は、重要特徴指標閾値を下げた後、図13のステップS1311に戻る。 In step S1409, the important superpixel determining unit 322 lowers the important feature index threshold, and then returns to step S1311 in FIG. 13.

一方、ステップS1408において、下限値に到達したと判定した場合には(ステップS1408においてYesの場合には)、ステップS1410に進む。 On the other hand, if it is determined in step S1408 that the lower limit value has been reached (in the case of Yes in step S1408), the process advances to step S1410.

ステップS1410において、重要スーパーピクセル評価部323は、取得した正解ラベルのスコアに基づいて、誤推論の原因となるスーパーピクセルの組み合わせ(変更可能領域)を特定し、誤推論原因情報として出力する。 In step S1410, the important superpixel evaluation unit 323 identifies a superpixel combination (changeable region) that causes incorrect inference based on the score of the acquired correct label, and outputs it as incorrect inference cause information.

<重要特徴マップ生成処理の流れ>
次に、図13のステップS1306の重要特徴マップ生成処理の詳細について説明する。図15は、重要特徴マップ生成処理の流れを示すフローチャートである。
<Flow of important feature map generation process>
Next, details of the important feature map generation process in step S1306 in FIG. 13 will be described. FIG. 15 is a flowchart showing the flow of important feature map generation processing.

ステップS1501において、選択的逆誤差伝播部611は、推論部303から推論部構造情報を取得する。 In step S1501, the selective back error propagation unit 611 obtains inference unit structure information from the inference unit 303.

ステップS1502において、選択的逆誤差伝播部611は、推論部構造情報について選択的BP法を用いて、重要特徴マップを生成する。 In step S1502, the selective backpropagation unit 611 generates an important feature map using the selective BP method for the inference unit structure information.

ステップS1503において、非注目画素オフセット調整部612は、重要特徴マップに基づいてヒストグラムを生成し、出現頻度が最大となる画素値を特定する。 In step S1503, the non-target pixel offset adjustment unit 612 generates a histogram based on the important feature map, and identifies the pixel value with the maximum frequency of appearance.

ステップS1504において、非注目画素オフセット調整部612は、出現頻度が最大となる画素値に基づいて、オフセット量を算出する。 In step S1504, the non-target pixel offset adjustment unit 612 calculates the offset amount based on the pixel value with the highest frequency of appearance.

ステップS1505において、非注目画素オフセット調整部612は、算出したオフセット量に基づいて、重要特徴マップのオフセット調整を行い、オフセット重要特徴マップを生成する。 In step S1505, the non-target pixel offset adjustment unit 612 performs offset adjustment of the important feature map based on the calculated offset amount, and generates an offset important feature map.

ステップS1506において、グレイスケール化部613は、オフセット重要特徴マップについて、グレイスケール化処理を行い、グレイスケール化重要特徴マップを生成する。 In step S1506, the grayscale conversion unit 613 performs grayscale processing on the offset important feature map to generate a grayscale important feature map.

<誤推論原因抽出処理の具体例>
次に、誤推論原因抽出処理の具体例について説明する。図16は、誤推論原因抽出処理の具体例を示す第1の図である。
<Specific example of incorrect inference cause extraction process>
Next, a specific example of the incorrect inference cause extraction process will be described. FIG. 16 is a first diagram showing a specific example of the incorrect inference cause extraction process.

図16に示すように、はじめに、リファイン画像生成部141により、誤推論画像からスコア最大化リファイン画像が生成されると、マップ生成部142では、重要特徴指標マップを生成する。 As shown in FIG. 16, first, when the refined image generation unit 141 generates a score-maximizing refined image from the incorrect inference image, the map generation unit 142 generates an important feature index map.

続いて、誤推論画像に基づいて、スーパーピクセル分割部321によりスーパーピクセル分割情報が生成されると、重要スーパーピクセル決定部322では、重要スーパーピクセル画像を生成する。 Subsequently, when the superpixel division section 321 generates superpixel division information based on the incorrect inference image, the important superpixel determination section 322 generates an important superpixel image.

続いて、重要スーパーピクセル決定部322では、重要特徴指標マップのもと、重要スーパーピクセル画像において変更可能領域及び変更不可領域を規定する。このとき、重要スーパーピクセル決定部322では、重要特徴指標閾値を変えるとともに、重要特徴指標閾値を超えるスーパーピクセルの中から選択する組み合わせを変えることで、複数の変更可能領域と変更不可領域との組を生成する。また、重要スーパーピクセル決定部322では、生成した複数の変更可能領域と変更不可領域との組を用いて、合成画像を生成する。 Subsequently, the important superpixel determination unit 322 defines a changeable area and an unchangeable area in the important superpixel image based on the important feature index map. At this time, the important superpixel determination unit 322 changes the important feature index threshold and also changes the combination selected from among the superpixels exceeding the important feature index threshold, thereby forming a combination of a plurality of changeable regions and non-changeable regions. generate. Furthermore, the important superpixel determining unit 322 generates a composite image using the generated sets of the plurality of changeable areas and non-changeable areas.

続いて、重要スーパーピクセル評価部323では、生成された合成画像を入力として推論部303が推論した正解ラベルのスコアを取得する。これにより、重要スーパーピクセル評価部323では、取得した正解ラベルのスコアに基づいて、誤推論の原因となるスーパーピクセルの組み合わせ(変更可能領域)を特定し、誤推論原因情報として出力する。 Subsequently, the important superpixel evaluation unit 323 receives the generated composite image as input and obtains the score of the correct label inferred by the inference unit 303. Thereby, the important superpixel evaluation unit 323 identifies the superpixel combination (changeable region) that causes the incorrect inference based on the score of the acquired correct label, and outputs it as incorrect inference cause information.

なお、合成画像の生成処理は、図16に示すように、リファイン画像生成部141により生成された複数のリファイン画像それぞれに対して行ってもよいし、
・最後の回のリファイン画像に対して行ってもよい、あるいは、
・それぞれのリファイン画像を入力とした推論での正解ラベルのスコアが一番よいリファイン画像(スコア最大化リファイン画像)に対して行ってもよい。
Note that the composite image generation process may be performed for each of the plurality of refined images generated by the refined image generation unit 141, as shown in FIG.
・You can perform this on the last refined image, or
- It may be performed on the refined image (score-maximizing refined image) with the highest score of the correct label in inference using each refined image as input.

以上の説明から明らかなように、第1の実施形態に係る解析装置100は、画像認識処理の際に誤ったラベルが推論される誤推論画像から、推論の正解ラベルのスコアを最大化させたスコア最大化リファイン画像を生成する。 As is clear from the above description, the analysis device 100 according to the first embodiment maximizes the score of the correct label of inference from the incorrect inference image from which an incorrect label is inferred during image recognition processing. Generate a score-maximizing refined image.

また、第1の実施形態に係る解析装置100は、スコア最大化リファイン画像を生成した際の推論部構造情報に基づいて、スコア最大化リファイン画像の複数の画素のうち推論時の非注目画素の画素値がゼロとなるグレイスケール化重要特徴マップを生成する。 Furthermore, the analysis device 100 according to the first embodiment selects non-target pixels at the time of inference among the plurality of pixels of the score-maximizing refined image based on the inference unit structure information when the score-maximizing refined image is generated. Generate a grayscale important feature map whose pixel values are zero.

また、第1の実施形態に係る解析装置100は、スコア最大化リファイン画像と誤推論画像との差分に基づいて、スコア最大化リファイン画像を生成する際に変更された画素の変更度合いを示す劣化尺度マップを生成する。 In addition, the analysis device 100 according to the first embodiment also detects degradation that indicates the degree of change in pixels that have been changed when generating the score-maximizing refined image, based on the difference between the score-maximizing refined image and the incorrect inference image. Generate a scale map.

また、第1の実施形態に係る解析装置100は、グレイスケール化重要特徴マップと、劣化尺度マップと、を重畳することで、正解ラベルを推論するための各画素の重要度を示す重要特徴指標マップを生成する。 Furthermore, the analysis device 100 according to the first embodiment superimposes the grayscaled important feature map and the deterioration scale map to obtain an important feature index that indicates the importance of each pixel for inferring a correct label. Generate a map.

また、第1の実施形態に係る解析装置100は、誤推論画像を分割することでスーパーピクセルを生成し、重要特徴指標マップの各画素値を、スーパーピクセル単位で加算する。また、第1の実施形態に係る解析装置100は、加算値が重要特徴指標閾値以上のスーパーピクセルを抽出し、抽出したスーパーピクセルの中から選択したスーパーピクセルの組み合わせに基づいて、変更可能領域と変更不可領域とを規定する。 Furthermore, the analysis device 100 according to the first embodiment generates superpixels by dividing the incorrect inference image, and adds each pixel value of the important feature index map in units of superpixels. Furthermore, the analysis device 100 according to the first embodiment extracts superpixels whose added value is equal to or greater than an important feature index threshold, and determines a changeable region based on a combination of superpixels selected from the extracted superpixels. A non-changeable area is defined.

また、第1の実施形態に係る解析装置100は、規定した変更可能領域をリファイン画像で置き換えた誤推論画像を、推論部に入力することで正解ラベルを推論する。更に第1の実施形態に係る解析装置100は、重要特徴指標閾値及び選択するスーパーピクセルの組み合わせを変えながら推論し、推論した正解ラベルの各スコアから、誤推論の原因となるスーパーピクセルの組み合わせ(変更可能領域)を特定する。 Furthermore, the analysis device 100 according to the first embodiment infers a correct label by inputting an incorrect inference image in which the defined changeable region is replaced with a refined image to the inference unit. Furthermore, the analysis device 100 according to the first embodiment performs inference while changing the important feature index threshold and the combination of selected superpixels, and from each score of the inferred correct label, the combination of superpixels that causes incorrect inference ( (areas that can be changed).

このように、第1の実施形態では、正解ラベルの推論に影響するスーパーピクセルをリファイン画像で置き換え、置き換えの効果を参照しながら、スーパーピクセルを特定することで、誤推論の原因となる画像箇所を特定する。これにより、第1の実施形態によれば、誤推論の原因となる画像箇所を特定する際の精度を向上させることができる。 In this way, in the first embodiment, superpixels that affect the inference of correct labels are replaced with refined images, and the superpixels are identified while referring to the effect of the replacement, thereby identifying image locations that cause incorrect inferences. Identify. As a result, according to the first embodiment, it is possible to improve the accuracy in identifying image locations that cause erroneous inferences.

[第2の実施形態]
上記第1の実施形態では、スコア最大化リファイン画像を生成した際の推論部構造情報に基づいて、重要特徴指標マップを生成した。これに対して、第2の実施形態では、スコア最大化リファイン画像を生成するまでの学習中に取得した、リファイン画像それぞれに基づいて重要特徴指標マップを生成し、生成した重要特徴指標マップに基づいて、平均重要特徴指標マップを生成する。そして、重要スーパーピクセル決定部322では、平均重要特徴指標マップに基づいて、重要特徴指標閾値以上のスーパーピクセルを抽出する。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
[Second embodiment]
In the first embodiment described above, the important feature index map is generated based on the inference unit structure information when the score-maximizing refined image is generated. On the other hand, in the second embodiment, an important feature index map is generated based on each refined image acquired during learning until the score maximization refined image is generated, and an important feature index map is generated based on the generated important feature index map. Then, an average important feature index map is generated. Then, the important superpixel determining unit 322 extracts superpixels whose value is equal to or greater than the important feature index threshold based on the average important feature index map. The second embodiment will be described below, focusing on the differences from the first embodiment.

<誤推論原因抽出部の機能構成>
はじめに、第2の実施形態に係る解析装置の、誤推論原因抽出部の機能構成について説明する。図17は、誤推論原因抽出部の機能構成の一例を示す第2の図である。図3に示した誤推論原因抽出部の機能構成との相違点は、マップ生成部1710である。以下、マップ生成部1710の詳細について説明する。
<Functional configuration of incorrect inference cause extraction unit>
First, the functional configuration of the erroneous inference cause extraction unit of the analysis device according to the second embodiment will be described. FIG. 17 is a second diagram illustrating an example of the functional configuration of the incorrect inference cause extraction unit. The difference from the functional configuration of the incorrect inference cause extraction unit shown in FIG. 3 is the map generation unit 1710. The details of the map generation unit 1710 will be explained below.

図17に示すように、マップ生成部1710は、重要特徴マップ生成部311、劣化尺度マップ生成部312、重畳部313に加えて、平均化部1711を有する。 As shown in FIG. 17, the map generation section 1710 includes an averaging section 1711 in addition to an important feature map generation section 311, a deterioration measure map generation section 312, and a superimposition section 313.

マップ生成部1710は、画像リファイナ部301の学習中に生成されたリファイン画像と、当該リファイン画像を入力として推論部303が推論した際の推論部構造情報とを、逐次、取得する。また、リファイン画像及び推論部構造情報を取得するごとに、マップ生成部1710では、重要特徴マップ生成部311、劣化尺度マップ生成部312、重畳部313が動作し、重要特徴指標マップを生成する。 The map generation unit 1710 sequentially acquires a refined image generated during learning by the image refiner unit 301 and inference unit structure information when the inference unit 303 performs inference using the refined image as input. Furthermore, each time a refined image and inference unit structure information are acquired, in the map generation unit 1710, the important feature map generation unit 311, the deterioration measure map generation unit 312, and the superimposition unit 313 operate to generate an important feature index map.

平均化部1711は、重要特徴マップ生成部311及び劣化尺度マップ生成部312がリファイン画像及び推論部構造情報を取得するごとに重畳部313が生成した複数回分の重要特徴指標マップの平均値を算出し、平均重要特徴指標マップを生成する。 The averaging unit 1711 calculates the average value of the multiple important feature index maps generated by the superimposing unit 313 each time the important feature map generating unit 311 and the deterioration scale map generating unit 312 acquire the refined image and the inference part structure information. and generate an average important feature index map.

<誤推論原因抽出処理の具体例>
次に、誤推論原因抽出処理の具体例について説明する。図18は、誤推論原因抽出処理の具体例を示す第2の図である。
<Specific example of incorrect inference cause extraction process>
Next, a specific example of the incorrect inference cause extraction process will be described. FIG. 18 is a second diagram showing a specific example of the incorrect inference cause extraction process.

図18に示すように、リファイン画像生成部141において、画像リファイナ部301が、1回目の学習結果に基づき、誤推論画像からリファイン画像を生成すると、マップ生成部1710では、重要特徴指標マップを生成する。 As shown in FIG. 18, in the refined image generation unit 141, when the image refiner unit 301 generates a refined image from the incorrect inference image based on the first learning result, the map generation unit 1710 generates an important feature index map. do.

また、リファイン画像生成部141において、画像リファイナ部301が、2回目の学習結果に基づき、誤推論画像からリファイン画像を生成すると、マップ生成部1710では、重要特徴指標マップを生成する。以降、同様の処理を繰り返し、リファイン画像生成部141がスコア最大化リファイン画像を生成すると、マップ生成部1710では、重要特徴指標マップを生成する。 Further, in the refined image generation unit 141, when the image refiner unit 301 generates a refined image from the incorrectly inferred image based on the second learning result, the map generation unit 1710 generates an important feature index map. Thereafter, similar processing is repeated, and when the refined image generation unit 141 generates a score-maximized refined image, the map generation unit 1710 generates an important feature index map.

続いて、平均化部1711では、1回目のリファイン画像が生成されてからスコア最大化リファイン画像が生成されるまでの間に生成された、複数回分の重要特徴指標マップを取得する。また、平均化部1711では、取得した複数回分の重要特徴指標マップの平均値を算出し、平均重要特徴指標マップを生成する。 Subsequently, the averaging unit 1711 obtains multiple important feature index maps that have been generated between the generation of the first refined image and the generation of the score-maximizing refined image. Furthermore, the averaging unit 1711 calculates the average value of the plurality of acquired important feature index maps to generate an average important feature index map.

続いて、スーパーピクセル分割部321では、誤推論画像に基づいて、スーパーピクセル分割情報を生成し、重要スーパーピクセル決定部322では、重要スーパーピクセル画像を生成する。 Subsequently, the superpixel division section 321 generates superpixel division information based on the incorrectly inferred image, and the important superpixel determination section 322 generates an important superpixel image.

続いて、重要スーパーピクセル決定部322では、平均重要特徴指標マップのもと、重要スーパーピクセル画像において変更可能領域及び変更不可領域を規定する。このとき、重要スーパーピクセル決定部322では、重要特徴指標閾値を変えるとともに、重要特徴指標閾値を超えるスーパーピクセルの中から選択する組み合わせを変えることで、複数の変更可能領域と変更不可領域との組を生成する。また、重要スーパーピクセル決定部322では、生成した複数の変更可能領域と変更不可領域との組を用いて、合成画像を生成する。 Subsequently, the important superpixel determination unit 322 defines a changeable area and an unchangeable area in the important superpixel image based on the average important feature index map. At this time, the important superpixel determination unit 322 changes the important feature index threshold and also changes the combination selected from among the superpixels exceeding the important feature index threshold, thereby forming a combination of a plurality of changeable regions and non-changeable regions. generate. Furthermore, the important superpixel determining unit 322 generates a composite image using the generated sets of the plurality of changeable areas and non-changeable areas.

続いて、重要スーパーピクセル評価部323では、生成された合成画像を入力として推論部303が推論した正解ラベルのスコアを取得する。これにより、重要スーパーピクセル評価部323では、取得した正解ラベルに基づいて誤推論の原因となるスーパーピクセルの組み合わせ(変更可能領域)を特定し、誤推論原因情報として出力する。 Subsequently, the important superpixel evaluation unit 323 receives the generated composite image as input and obtains the score of the correct label inferred by the inference unit 303. Thereby, the important superpixel evaluation unit 323 identifies the superpixel combination (changeable region) that causes the incorrect inference based on the obtained correct label and outputs it as incorrect inference cause information.

なお、上記誤推論原因抽出処理において、リファイン画像を取得して重要特徴指標マップを生成する間隔は任意であり、1回の学習ごとに重要特徴指標マップを生成しても、複数回の学習ごとに重要特徴指標マップを生成してもよい。あるいは、リファイン画像を入力した際の推論部303の正解ラベルのスコアを評価し、所定の閾値よりも大きい場合に、当該リファイン画像を取得して重要特徴指標マップを生成してもよい。 In addition, in the above-mentioned incorrect inference cause extraction process, the interval at which refined images are acquired and important feature index maps are generated is arbitrary. An important feature index map may be generated. Alternatively, the score of the correct label of the inference unit 303 upon input of the refined image may be evaluated, and if the score is greater than a predetermined threshold, the refined image may be acquired to generate the important feature index map.

また、合成画像の生成処理は、図18に示すように、リファイン画像生成部141により生成された複数のリファイン画像それぞれに対して行ってもよいし、
・最後の回のリファイン画像に対して行ってもよい、あるいは、
・それぞれのリファイン画像を入力とした推論での正解ラベルのスコアが一番よいリファイン画像(スコア最大化リファイン画像)に対して行ってもよい。
Further, the composite image generation process may be performed for each of the plurality of refined images generated by the refined image generation unit 141, as shown in FIG.
・You can perform this on the last refined image, or
- It may be performed on the refined image (score-maximizing refined image) with the highest score of the correct label in inference using each refined image as input.

以上の説明から明らかなように、第2の実施形態に係る解析装置100は、スコア最大化リファイン画像を生成するまでの学習中に生成した、重要特徴指標マップに基づいて、平均重要特徴指標マップを生成する。また、第2の実施形態に係る解析装置100は、平均重要特徴指標マップに基づいて、重要特徴指標閾値以上のスーパーピクセルを抽出する。 As is clear from the above description, the analysis device 100 according to the second embodiment calculates the average important feature index map based on the important feature index map generated during learning up to the generation of the score-maximizing refined image. generate. Furthermore, the analysis device 100 according to the second embodiment extracts superpixels having an important feature index equal to or greater than the threshold based on the average important feature index map.

これにより、第2の実施形態によれば、上記第1の実施形態による効果に加えて、更に、リファイン画像のゆらぎによる、重要特徴指標マップへの影響を低減させることが可能となる。 As a result, according to the second embodiment, in addition to the effects of the first embodiment, it is possible to further reduce the influence of fluctuations in the refined image on the important feature index map.

[第3の実施形態]
上記第1の実施形態では、スコア最大化リファイン画像が生成され、重要特徴指標マップが生成されると、特定部143では、変更可能領域及び変更不可領域を規定し、誤推論の原因となる画像箇所を特定する処理を開始するものとして説明した。
[Third embodiment]
In the first embodiment, when a score-maximizing refined image is generated and an important feature index map is generated, the specifying unit 143 defines a changeable area and an unchangeable area, and defines an image that may cause erroneous inference. The explanation has been made assuming that the process of identifying a location is started.

また、上記第2の実施形態では、スコア最大化リファイン画像が生成され、平均重要特徴指標マップが生成されると、特定部143では、変更可能領域及び変更不可領域を規定し、誤推論の原因となる画像箇所を特定する処理を開始するものとして説明した。 Furthermore, in the second embodiment, when a score-maximizing refined image is generated and an average important feature index map is generated, the specifying unit 143 defines a changeable area and an unchangeable area, and defines the cause of erroneous inference. The explanation has been made assuming that the process of identifying an image location where .

これに対して、第3の実施形態では、特定部143が変更可能領域及び変更不可領域を規定した後に、リファイン画像生成部が、規定された変更可能領域を加味して、再度、スコア最大化リファイン画像を生成しなおす。 On the other hand, in the third embodiment, after the specifying unit 143 defines the changeable area and the unchangeable area, the refine image generation unit takes into account the specified changeable area and maximizes the score again. Regenerate the refined image.

このように、変更可能領域を加味してスコア最大化リファイン画像を再生成することで、第3の実施形態によれば、正解ラベルの推論に影響する特徴部分がより明確になった重要特徴指標マップ(あるいは平均重要特徴指標マップ)を生成することが可能となる。この結果、合成画像を入力としてラベルを推論した際のスコアを上げることが可能となる。 According to the third embodiment, by regenerating the score-maximizing refined image with the changeable region taken into consideration, the important feature index that makes the feature parts that influence the inference of the correct label more clear It becomes possible to generate a map (or an average important feature index map). As a result, it is possible to increase the score when inferring a label using a composite image as input.

以下、第3の実施形態について、上記第1または第2の実施形態との相違点を中心に説明する。 The third embodiment will be described below, focusing on the differences from the first or second embodiment.

<誤推論原因抽出部の機能構成>
はじめに、第3の実施形態に係る解析装置の、誤推論原因抽出部の機能構成について説明する。図19は、誤推論原因抽出部の機能構成の一例を示す第3の図である。図17に示した誤推論原因抽出部の機能構成との相違点は、リファイン画像生成部1910及び特定部1920である。以下、リファイン画像生成部1910及び特定部1920の詳細について説明する。
<Functional configuration of incorrect inference cause extraction unit>
First, the functional configuration of the erroneous inference cause extraction unit of the analysis device according to the third embodiment will be described. FIG. 19 is a third diagram showing an example of the functional configuration of the incorrect inference cause extraction unit. The difference from the functional configuration of the incorrect inference cause extraction unit shown in FIG. 17 is the refined image generation unit 1910 and the identification unit 1920. Details of the refined image generation section 1910 and the identification section 1920 will be described below.

(1)リファイン画像生成部の詳細
はじめに、リファイン画像生成部1910の詳細について説明する。図19に示すように、リファイン画像生成部1910は、リファイン画像生成部141の画像誤差演算部302とは機能の異なる画像誤差演算部1911を有する。
(1) Details of refined image generation section First, details of the refined image generation section 1910 will be explained. As shown in FIG. 19, the refined image generation section 1910 includes an image error calculation section 1911 that has a different function from the image error calculation section 302 of the refined image generation section 141.

画像誤差演算部1911は、画像誤差演算部302と同様、学習中に画像リファイナ部301に入力される誤推論画像と、学習中に画像リファイナ部301より出力されるリファイン画像との差分を算出し、画像差分値を、画像リファイナ部301に入力する。ただし、画像誤差演算部1911の場合、画像リファイナ部301に画像差分値を入力する際、補正部1921より通知された変更可能領域に対応する画像部分について、画像差分値を補正する。 Similar to the image error calculation unit 302, the image error calculation unit 1911 calculates the difference between the incorrect inference image input to the image refiner unit 301 during learning and the refined image output from the image refiner unit 301 during learning. , and the image difference values are input to the image refiner unit 301. However, in the case of the image error calculation unit 1911, when inputting the image difference value to the image refiner unit 301, the image difference value is corrected for the image portion corresponding to the changeable area notified by the correction unit 1921.

具体的には、画像誤差演算部1911は、変更可能領域に対応する画像部分の画像差分値に1未満の係数をかけて補正する。これにより、画像リファイナ部301では、変更可能領域に対応する画像部分の画像差分値を、変更可能領域以外の領域に対応する画像部分の画像差分値よりも弱めて再学習したうえで、スコア最大化リファイン画像を再生成することができる。 Specifically, the image error calculation unit 1911 corrects the image difference value of the image portion corresponding to the changeable area by multiplying it by a coefficient less than 1. As a result, the image refiner unit 301 relearns the image difference value of the image part corresponding to the changeable area to be weaker than the image difference value of the image part corresponding to the area other than the changeable area, and then It is possible to regenerate a refined image.

(2)特定部の詳細
次に、特定部1920の詳細について説明する。図19に示すように、特定部1920は、スーパーピクセル分割部321、重要スーパーピクセル決定部322、重要スーパーピクセル評価部323に加えて、補正部1921を有する。
(2) Details of Specification Unit Next, details of the specification unit 1920 will be explained. As shown in FIG. 19, the identification unit 1920 includes a correction unit 1921 in addition to a superpixel division unit 321, an important superpixel determination unit 322, and an important superpixel evaluation unit 323.

補正部1921は、重要スーパーピクセル決定部322において規定された変更可能領域を取得し、画像誤差演算部1911に通知する。これにより、リファイン画像生成部1910では、変更可能領域を加味して再学習したうえで、スコア最大化リファイン画像を再生成することができる。 The correction unit 1921 acquires the changeable area defined by the important superpixel determination unit 322 and notifies the image error calculation unit 1911. As a result, the refined image generation unit 1910 can regenerate the score-maximizing refined image after re-learning with the changeable area taken into consideration.

<誤推論原因抽出処理の具体例>
次に、誤推論原因抽出処理の具体例について説明する。図20は、誤推論原因抽出処理の具体例を示す第3の図である。図18を用いて説明した、誤推論原因抽出処理の具体例との相違点は、重要スーパーピクセル画像に基づいて変更可能領域と変更不可領域との組が生成された際、補正部1921が、変更可能領域を画像誤差演算部1911に通知する点である。これにより、リファイン画像生成部1910では、変更可能領域を加味して再学習したうえで、スコア最大化リファイン画像を再生成し、マップ生成部1710では、平均重要特徴指標マップを再生成することができる。
<Specific example of incorrect inference cause extraction process>
Next, a specific example of the incorrect inference cause extraction process will be described. FIG. 20 is a third diagram showing a specific example of the incorrect inference cause extraction process. The difference from the specific example of the erroneous inference cause extraction process described using FIG. The point is to notify the image error calculation unit 1911 of the changeable area. As a result, the refined image generation unit 1910 re-generates the score-maximizing refined image after re-learning with the changeable region taken into account, and the map generation unit 1710 regenerates the average important feature index map. can.

なお、上記誤推論原因抽出処理において、リファイン画像を取得して重要特徴指標マップを生成する間隔は任意であり、1回の学習ごとに重要特徴指標マップを生成しても、複数回の学習ごとに重要特徴指標マップを生成してもよい。あるいは、リファイン画像を入力した際の推論部303の正解ラベルのスコアを評価し、所定の閾値よりも大きい場合に、当該リファイン画像を取得して重要特徴指標マップを生成してもよい。 In addition, in the above-mentioned incorrect inference cause extraction process, the interval at which refined images are acquired and important feature index maps are generated is arbitrary. An important feature index map may be generated. Alternatively, the score of the correct label of the inference unit 303 upon input of the refined image may be evaluated, and if the score is greater than a predetermined threshold, the refined image may be acquired to generate the important feature index map.

また、合成画像の生成処理は、図20に示すように、リファイン画像生成部1910により生成された複数のリファイン画像それぞれに対して行ってもよいし、
・最後の回のリファイン画像に対して行ってもよい、あるいは、
・それぞれのリファイン画像を入力とした推論での正解ラベルのスコアが一番よいリファイン画像(スコア最大化リファイン画像)に対して行ってもよい。
Further, the composite image generation process may be performed for each of the plurality of refined images generated by the refined image generation unit 1910, as shown in FIG.
・You can perform this on the last refined image, or
- It may be performed on the refined image (score-maximizing refined image) with the highest score of the correct label in inference using each refined image as input.

以上の説明から明らかなように、第3の実施形態に係る解析装置100は、変更可能領域を加味して再学習することで、スコア最大化リファイン画像を再生成するとともに、重要特徴指標マップ(あるいは平均重要特徴指標マップ)を再生成する。 As is clear from the above description, the analysis device 100 according to the third embodiment regenerates the score-maximizing refined image by relearning with the changeable region taken into account, and also regenerates the important feature index map ( or the average important feature index map).

これにより、第3の実施形態によれば、正解ラベルの推論に影響する特徴部分がより明確になった重要特徴指標マップ(あるいは平均重要特徴指標マップ)を生成することが可能となり、合成画像を入力としてラベルを推論した際のスコアを上げることが可能となる。 As a result, according to the third embodiment, it is possible to generate an important feature index map (or an average important feature index map) in which the feature parts that influence the inference of the correct answer label are made clearer, and the composite image can be It is possible to increase the score when inferring a label as input.

[第4の実施形態]
上記第1乃至第3の実施形態では、誤推論の原因となるスーパーピクセルの組み合わせ(変更可能領域)を特定し、誤推論原因情報として出力するものとして説明した。しかしながら、誤推論原因情報の出力方法はこれに限定されず、例えば、変更可能領域内の重要部分を可視化して出力してもよい。以下、第4の実施形態について、上記第1乃至第3の実施形態との相違点を中心に説明する。
[Fourth embodiment]
In the first to third embodiments described above, the combination of superpixels (changeable area) that causes erroneous inference is specified and is output as erroneous inference cause information. However, the method of outputting the erroneous inference cause information is not limited to this, and for example, important parts within the changeable area may be visualized and output. The fourth embodiment will be described below, focusing on the differences from the first to third embodiments.

<誤推論原因抽出部の機能構成>
はじめに、第4の実施形態に係る解析装置100における、誤推論原因抽出部の機能構成について説明する。図21は、誤推論原因抽出部の機能構成の一例を示す第4の図である。図3に示した誤推論原因抽出部140の機能構成との相違点は、詳細原因解析部2110を有する点である。
<Functional configuration of incorrect inference cause extraction unit>
First, the functional configuration of the erroneous inference cause extraction unit in the analysis device 100 according to the fourth embodiment will be described. FIG. 21 is a fourth diagram illustrating an example of the functional configuration of the incorrect inference cause extraction unit. The difference from the functional configuration of the incorrect inference cause extraction unit 140 shown in FIG. 3 is that it includes a detailed cause analysis unit 2110.

詳細原因解析部2110は、誤推論画像とスコア最大化リファイン画像とを用いて、変更可能領域内の重要部分を可視化し、作用結果画像として出力する。 The detailed cause analysis unit 2110 uses the incorrect inference image and the score maximization refinement image to visualize important parts within the changeable region and outputs it as an action result image.

<詳細原因解析部の機能構成>
次に、詳細原因解析部2110の機能構成について説明する。図22は、詳細原因解析部の機能構成の一例を示す第1の図である。図22に示すように、詳細原因解析部2110は、画像差分演算部2201、SSIM演算部2202、切り出し部2203、作用部2204を有する。
<Functional configuration of detailed cause analysis section>
Next, the functional configuration of detailed cause analysis section 2110 will be explained. FIG. 22 is a first diagram showing an example of the functional configuration of the detailed cause analysis section. As shown in FIG. 22, the detailed cause analysis unit 2110 includes an image difference calculation unit 2201, an SSIM calculation unit 2202, a cutting unit 2203, and an action unit 2204.

画像差分演算部2201は、誤推論画像とスコア最大化リファイン画像との画素単位での差分を演算し、差分画像を出力する。 The image difference calculation unit 2201 calculates the difference in pixel units between the incorrect inference image and the score-maximizing refined image, and outputs a difference image.

SSIM演算部2202は、誤推論画像とスコア最大化リファイン画像とを用いて、SSIM演算を行うことで、SSIM画像を出力する。 The SSIM calculation unit 2202 outputs an SSIM image by performing SSIM calculation using the incorrect inference image and the score maximization refined image.

切り出し部2203は、差分画像から変更可能領域に対応する画像部分を切り出す。また、切り出し部2203は、SSIM画像から変更可能領域に対応する画像部分を切り出す。更に、切り出し部2203は、変更可能領域に対応する画像部分を切り出した、差分画像とSSIM画像とを乗算して、乗算画像を生成する。 The cutting unit 2203 cuts out an image portion corresponding to the changeable area from the difference image. Furthermore, the cutting unit 2203 cuts out an image portion corresponding to the changeable area from the SSIM image. Furthermore, the cutout unit 2203 multiplies the SSIM image by the difference image, which has been cut out from the image portion corresponding to the changeable area, to generate a multiplied image.

作用部2204は、誤推論画像と乗算画像とに基づいて、作用結果画像を生成する。 The action unit 2204 generates an action result image based on the incorrect inference image and the multiplication image.

<詳細原因解析部の処理の具体例>
次に、詳細原因解析部2110の処理の具体例について説明する。図23は、詳細原因解析部の処理の具体例を示す図である。
<Specific example of processing by the detailed cause analysis unit>
Next, a specific example of processing by the detailed cause analysis unit 2110 will be described. FIG. 23 is a diagram showing a specific example of processing by the detailed cause analysis unit.

図23に示すように、はじめに、画像差分演算部2201において、誤推論画像(A)とスコア最大化リファイン画像(B)との差分(=(A)-(B))が演算され、差分画像が出力される。差分画像は、誤推論の原因となる画像箇所での画素修正情報である。 As shown in FIG. 23, first, the image difference calculation unit 2201 calculates the difference (=(A)-(B)) between the incorrect inference image (A) and the score-maximizing refined image (B), and is output. The difference image is pixel correction information at a portion of the image that causes incorrect inference.

続いて、SSIM演算部2202において、誤推論画像(A)とスコア最大化リファイン画像(B)とに基づいてSSIM演算が行われる(y=SSIM((A),(B))。更に、SSIM演算部2202において、SSIM演算の結果が反転されることで(y'=255-(y×255))、SSIM画像が出力される。SSIM画像は、誤推論の原因となる画像箇所を高精度に指定した画像であり、画素値が大きいと差分が大きく、画素値が小さいと差分が小さいことを表す。なお、SSIM演算の結果を反転する処理は、例えば、y'=1-yを算出することにより行ってもよい。 Next, the SSIM calculation unit 2202 performs SSIM calculation based on the incorrect inference image (A) and the score maximization refined image (B) (y=SSIM((A), (B)). In the calculation unit 2202, the result of the SSIM calculation is inverted (y' = 255 - (y x 255)) to output an SSIM image. This is an image specified by , and a large pixel value indicates a large difference, and a small pixel value indicates a small difference.The process of inverting the result of SSIM calculation is, for example, by calculating y' = 1 - y. This can also be done by doing this.

続いて、切り出し部2203において、差分画像から変更可能領域に対応する画像部分が切り出され、切り出し画像(C)が出力される。同様に、切り出し部2203において、SSIM画像から変更可能領域に対応する画像部分が切り出され、切り出し画像(D)が出力される。 Subsequently, the cutout unit 2203 cuts out an image portion corresponding to the changeable area from the difference image, and outputs a cutout image (C). Similarly, the cutout unit 2203 cuts out an image portion corresponding to the changeable area from the SSIM image, and outputs a cutout image (D).

ここで、変更可能領域は、誤推論の原因となる画像部分の領域を特定したものであり、詳細原因解析部2110では、特定した領域の中で、更に、画素粒度での原因解析を行うことを目的としている。 Here, the changeable area is a specified area of the image part that causes incorrect inference, and the detailed cause analysis unit 2110 further performs cause analysis at pixel granularity within the specified area. It is an object.

このため、切り出し部2203では、切り出し画像(C)と切り出し画像(D)とを乗算し、乗算画像(G)を生成する。乗算画像(G)は、誤推論の原因となる画像箇所での画素修正情報を更に高精度に指定した、画素修正情報に他ならない。 Therefore, the cropping unit 2203 multiplies the cropped image (C) and the cropped image (D) to generate a multiplied image (G). The multiplied image (G) is nothing but pixel correction information in which pixel correction information at a portion of the image that causes erroneous inference is specified with higher precision.

また、切り出し部2203では、乗算画像(G)に対して強調処理を行い、強調乗算画像(H)を出力する。なお、切り出し部2203では、強調乗算画像(H)を下式に基づいて算出する。
(式3)
強調乗算画像(H)=255×(G)/(max(G)-min(G))
続いて作用部2204では、誤推論画像(A)から強調乗算画像(H)を減算することで重要部分を可視化し、作用結果画像を生成する。
Furthermore, the cutting unit 2203 performs emphasis processing on the multiplied image (G) and outputs an emphasized multiplied image (H). Note that the cutout unit 2203 calculates the emphasized multiplied image (H) based on the following formula.
(Formula 3)
Enhanced multiplication image (H) = 255 × (G) / (max (G) - min (G))
Subsequently, the action unit 2204 visualizes important parts by subtracting the emphasized multiplication image (H) from the incorrect inference image (A), and generates an action result image.

なお、図23に示した強調処理の方法は一例にすぎず、可視化した際に重要部分がより識別しやすくなる方法であれば、他の方法により強調処理を行ってもよい。 Note that the emphasizing process shown in FIG. 23 is only an example, and the emphasizing process may be performed using any other method as long as it makes it easier to identify important parts when visualized.

<詳細原因解析処理の流れ>
次に、詳細原因解析部2110による詳細原因解析処理の流れについて説明する。図24は、詳細原因解析処理の流れを示す第1のフローチャートである。
<Detailed cause analysis process flow>
Next, the flow of detailed cause analysis processing by the detailed cause analysis unit 2110 will be described. FIG. 24 is a first flowchart showing the flow of detailed cause analysis processing.

ステップS2401において、画像差分演算部2201は、誤推論画像とスコア最大化リファイン画像との差分画像を算出する。 In step S2401, the image difference calculation unit 2201 calculates a difference image between the incorrect inference image and the score-maximizing refined image.

ステップS2402において、SSIM演算部2202は、誤推論画像とスコア最大化リファイン画像とに基づいて、SSIM画像を演算する。 In step S2402, the SSIM calculation unit 2202 calculates an SSIM image based on the incorrect inference image and the score maximization refined image.

ステップS2403において、切り出し部2203は、変更可能領域に対応する差分画像を切り出す。 In step S2403, the cutting unit 2203 cuts out a difference image corresponding to the changeable area.

ステップS2404において、切り出し部2203は、変更可能領域に対応するSSIM画像を切り出す。 In step S2404, the cutting unit 2203 cuts out the SSIM image corresponding to the changeable area.

ステップS2405において、切り出し部2203は、切り出した差分画像と切り出したSSIM画像とを乗算し、乗算画像を生成する。 In step S2405, the cutout unit 2203 multiplies the cutout difference image and the cutout SSIM image to generate a multiplied image.

ステップS2406において、切り出し部2203は、乗算画像に対して強調処理を行う。また、作用部2204は、強調処理された乗算画像を、誤推論画像から減算し、作用結果画像を出力する。 In step S2406, the cutting unit 2203 performs emphasis processing on the multiplied image. Further, the effecting unit 2204 subtracts the emphasized multiplication image from the incorrect inference image, and outputs an effect result image.

以上の説明から明らかなように、第4の実施形態に係る解析装置100は、誤推論画像とスコア最大化リファイン画像とに基づいて、差分画像とSSIM画像とを生成し、変更可能領域を切り出して乗算する。これにより、第4の実施形態に係る解析装置100によれば、変更可能領域内において、誤推論の原因となる画像箇所を画素単位で視認することが可能となる。 As is clear from the above description, the analysis device 100 according to the fourth embodiment generates a difference image and an SSIM image based on an incorrect inference image and a score maximization refined image, and cuts out a changeable region. Multiply by Thereby, according to the analysis device 100 according to the fourth embodiment, it is possible to visually recognize image locations that cause incorrect inferences in pixel units within the changeable region.

[第5の実施形態]
上記第4の実施形態では、誤推論画像とスコア最大化リファイン画像とに基づいて生成した差分画像とSSIM画像とを用いて、誤推論の原因となる画像箇所を画素単位で可視化する場合について説明した。
[Fifth embodiment]
In the fourth embodiment described above, a case will be described in which image parts that cause incorrect inference are visualized pixel by pixel using a difference image generated based on an incorrect inference image and a score-maximizing refined image and an SSIM image. did.

これに対して、第5の実施形態では、更に、グレイスケール化重要特徴マップを用いて、誤推論の原因となる画像箇所を画素単位で可視化する。以下、第5の実施形態について、上記第4の実施形態との相違点を中心に説明する。 In contrast, in the fifth embodiment, a grayscale important feature map is further used to visualize image locations that cause erroneous inferences on a pixel-by-pixel basis. The fifth embodiment will be described below, focusing on the differences from the fourth embodiment.

<誤推論原因抽出部の機能構成>
はじめに、第5の実施形態に係る解析装置100における、誤推論原因抽出部の機能構成について説明する。図25は、誤推論原因抽出部の機能構成の一例を示す第5の図である。図21に示した誤推論原因抽出部の機能構成との相違点は、図25の場合、詳細原因解析部2510の機能が、図21に示す詳細原因解析部2110の機能とは異なる点、及び、詳細原因解析部2510が、推論部303より推論部構造情報を取得する点である。
<Functional configuration of incorrect inference cause extraction unit>
First, the functional configuration of the erroneous inference cause extraction unit in the analysis device 100 according to the fifth embodiment will be described. FIG. 25 is a fifth diagram showing an example of the functional configuration of the incorrect inference cause extraction unit. The difference from the functional configuration of the incorrect inference cause extraction unit shown in FIG. 21 is that in the case of FIG. 25, the function of the detailed cause analysis unit 2510 is different from the function of the detailed cause analysis unit 2110 shown in FIG. , the detailed cause analysis unit 2510 acquires inference unit structure information from the inference unit 303.

詳細原因解析部2510は、誤推論画像とスコア最大化リファイン画像と推論部構造情報とに基づいて生成した、差分画像とSSIM画像とグレイスケール化重要特徴マップとを用いて、誤推論の原因となる画像箇所を画素単位で可視化する。 The detailed cause analysis unit 2510 uses the difference image, SSIM image, and grayscale important feature map generated based on the erroneous inference image, the score-maximizing refined image, and the inference unit structure information to determine the cause of the erroneous inference. Visualize image locations pixel by pixel.

なお、詳細原因解析部2510が誤推論の原因となる画像箇所を画素単位で可視化する際に用いる差分画像、SSIM画像、グレイスケール化重要特徴マップは、以下のような属性を有する。
・差分画像:画素ごとの差分情報であり、指定したラベルの分類確率をよくするために画素をどのくらい修正すればよいかを示す、正負値を有する情報である。
・SSIM画像:画像全体及び局所領域の変化状況を考慮した差分情報であり、画素ごとの差分情報よりもアーティファクト(意図しないノイズ)が少ない情報である。つまり、より高い精度の差分情報である(ただし、正値のみの情報である)。
・グレイスケール化重要特徴マップ:正解ラベルの推論に影響を与える特徴部分を可視化したマップである。
Note that the difference image, SSIM image, and grayscale important feature map used by the detailed cause analysis unit 2510 to visualize image locations that cause erroneous inference in units of pixels have the following attributes.
- Difference image: This is difference information for each pixel, and is information having positive and negative values that indicates how much the pixel should be modified to improve the classification probability of the specified label.
- SSIM image: This is difference information that takes into account changes in the entire image and local regions, and is information that has fewer artifacts (unintended noise) than difference information for each pixel. In other words, it is differential information with higher precision (however, it is information only about positive values).
・Grayscale important feature map: This is a map that visualizes the feature parts that affect the inference of the correct label.

<詳細原因解析部の機能構成>
次に、詳細原因解析部2510の機能構成について説明する。図26は、詳細原因解析部の機能構成の一例を示す第2の図である。図22に示す機能構成との相違点は、図26の場合、重要特徴マップ生成部2601を有する点、及び、切り出し部2602の機能が、図22の切り出し部2203の機能とは異なる点である。
<Functional configuration of detailed cause analysis section>
Next, the functional configuration of detailed cause analysis section 2510 will be explained. FIG. 26 is a second diagram showing an example of the functional configuration of the detailed cause analysis section. The differences from the functional configuration shown in FIG. 22 are that in the case of FIG. 26, an important feature map generation section 2601 is included, and the function of the extraction section 2602 is different from the function of the extraction section 2203 of FIG. 22. .

重要特徴マップ生成部2601は、スコア最大化リファイン画像を入力として推論した際の推論部構造情報を、推論部303より取得する。また、重要特徴マップ生成部2601は、選択的BP法を用いることで、推論部構造情報に基づいて、グレイスケール化重要特徴マップを生成する。 The important feature map generation unit 2601 obtains inference unit structure information from the inference unit 303 when inference is made using the score maximization refined image as input. Further, the important feature map generation unit 2601 generates a grayscale important feature map based on the inference unit structure information by using the selective BP method.

切り出し部2602は、差分画像及びSSIM画像から、変更可能領域に対応する画像部分を切り出すことに加えて、グレイスケール化重要特徴マップから、変更可能領域に対応する画像部分を切り出す。更に、切り出し部2602は、変更可能領域に対応する画像部分を切り出した、差分画像とSSIM画像とグレイスケール化重要特徴マップとを乗算して、乗算画像を生成する。 The cutting unit 2602 cuts out an image portion corresponding to the changeable area from the difference image and the SSIM image, and also cuts out an image portion corresponding to the changeable area from the grayscale important feature map. Further, the cutout unit 2602 multiplies the difference image, the SSIM image, and the grayscale important feature map, which have been cut out from the image portion corresponding to the changeable region, to generate a multiplied image.

このように、差分画像とSSIM画像とグレイスケール化重要特徴マップとを乗算することで、作用結果画像において、誤推論の原因となる画像箇所を画素単位で視認することが可能となる。 In this way, by multiplying the difference image, the SSIM image, and the gray scaled important feature map, it becomes possible to visually recognize image locations that cause erroneous inferences on a pixel-by-pixel basis in the action result image.

なお、乗算の際に差分画像を用いることで、作用結果画像は、正解ラベルのスコアが上がる画像に自動的に修正されることになる。したがって、差分画像を作用結果画像として出力してもよい。更に、このような利点を考慮しないのであれば、詳細原因解析部2510は、(差分画像を用いずに)SSIM画像とグレイスケール化重要特徴マップとを用いて乗算を行い、作用結果画像を出力してもよい。 Note that by using the difference image during multiplication, the action result image is automatically modified to an image that increases the score of the correct label. Therefore, the difference image may be output as the action result image. Furthermore, if such advantages are not taken into consideration, the detailed cause analysis unit 2510 may perform multiplication using the SSIM image and the grayscaled important feature map (without using the difference image) and output an effect result image. You may.

<詳細原因解析部の処理の具体例>
次に、詳細原因解析部2510の処理の具体例について説明する。図27は、詳細原因解析部の処理の具体例を示す第2の図である。なお、図23の詳細原因解析部2110の処理の具体例との相違点は、重要特徴マップ生成部2601が、推論部構造情報(I)に基づいて、選択的BP法を用いた重要特徴マップ生成処理を行い、グレイスケール化重要特徴マップを生成している点である。また、切り出し部2602が、グレイスケール化重要特徴マップから変更可能領域に対応する画像部分が切り出され、切り出し画像(J)を出力している点である。更に、切り出し部2602が、切り出し画像(C)と切り出し画像(D)と切り出し画像(J)とを乗算し、乗算画像(G)を生成している点である。
<Specific example of processing by the detailed cause analysis unit>
Next, a specific example of processing by the detailed cause analysis unit 2510 will be described. FIG. 27 is a second diagram showing a specific example of processing by the detailed cause analysis unit. The difference from the specific example of the processing of the detailed cause analysis unit 2110 in FIG. 23 is that the important feature map generation unit 2601 generates an important feature map using the selective BP method based on the inference unit structure information (I). The point is that generation processing is performed to generate a grayscale important feature map. Another point is that the clipping unit 2602 clips the image portion corresponding to the changeable region from the grayscale important feature map and outputs the clipped image (J). Furthermore, the cutout unit 2602 multiplies the cutout image (C), the cutout image (D), and the cutout image (J) to generate a multiplied image (G).

<詳細原因解析処理の流れ>
次に、詳細原因解析部2510による詳細原因解析処理の流れについて説明する。図28は、詳細原因解析処理の流れを示す第2のフローチャートである。図24に示したフローチャートとの相違点は、ステップS2801、ステップS2802、ステップS2803である。
<Detailed cause analysis process flow>
Next, the flow of detailed cause analysis processing by the detailed cause analysis unit 2510 will be explained. FIG. 28 is a second flowchart showing the flow of detailed cause analysis processing. The differences from the flowchart shown in FIG. 24 are steps S2801, S2802, and S2803.

ステップS2801において、重要特徴マップ生成部2601は、スコア最大化リファイン画像を入力としてラベルを推論した際の推論部構造情報を、推論部303より取得する。また、重要特徴マップ生成部2601は、選択的BP法を用いることで、推論部構造情報に基づいてグレイスケール化重要特徴マップを生成する。 In step S2801, the important feature map generation unit 2601 obtains inference unit structure information from the inference unit 303 when a label is inferred using the score-maximized refined image as input. Further, the important feature map generation unit 2601 uses the selective BP method to generate a grayscale important feature map based on the inference unit structure information.

ステップS2802において、切り出し部2602は、グレイスケール化重要特徴マップから、変更可能領域に対応する画像部分を切り出す。 In step S2802, the cutting unit 2602 cuts out an image portion corresponding to the changeable region from the grayscale important feature map.

ステップS2803において、切り出し部2602は、変更可能領域に対応する画像部分を切り出した、差分画像とSSIM画像とグレイスケール化重要特徴マップとを乗算して、乗算画像を生成する。 In step S2803, the cropping unit 2602 generates a multiplied image by multiplying the difference image, the SSIM image, and the grayscale important feature map, which are extracted from the image portion corresponding to the changeable region.

以上の説明から明らかなように、第5の実施形態に係る解析装置100は、誤推論画像とスコア最大化リファイン画像と推論部構造情報とに基づいて、差分画像とSSIM画像とグレイスケール化重要特徴マップとを生成し、変更可能領域を切り出して乗算する。これにより、第5の実施形態に係る解析装置100によれば、変更可能領域内において、誤推論の原因となる画像箇所を画素単位で視認することが可能となる。 As is clear from the above description, the analysis device 100 according to the fifth embodiment converts the difference image, the SSIM image, and the A feature map is generated, and a changeable region is cut out and multiplied. Thereby, according to the analysis device 100 according to the fifth embodiment, it is possible to visually recognize image locations that cause incorrect inferences in pixel units within the changeable region.

なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 Note that the present invention is not limited to the configurations shown here, such as combinations of other elements with the configurations listed in the above embodiments. These points can be modified without departing from the spirit of the present invention, and can be appropriately determined depending on the application thereof.

100 :解析装置
140 :誤推論原因抽出部
141 :リファイン画像生成部
142 :マップ生成部
143 :特定部
301 :画像リファイナ部
302 :画像誤差演算部
303 :推論部
304 :スコア誤差演算部
311 :重要特徴マップ生成部
312 :劣化尺度マップ生成部
313 :重畳部
321 :スーパーピクセル分割部
322 :重要スーパーピクセル決定部
323 :重要スーパーピクセル評価部
611 :選択的逆誤差伝播部
612 :非注目画素オフセット調整部
613 :グレイスケール化部
1110 :領域抽出部
1111 :合成部
1710 :マップ生成部
1711 :平均化部
1910 :リファイン画像生成部
1911 :画像誤差演算部
1920 :特定部
1921 :補正部
2110 :詳細原因解析部
2201 :画像差分演算部
2202 :SSIM演算部
2203 :切り出し部
2204 :作用部
2510 :詳細原因解析部
2601 :重要特徴マップ生成部
2602 :切り出し部
100: Analysis device 140: Misinference cause extraction unit 141: Refine image generation unit 142: Map generation unit 143: Specification unit 301: Image refiner unit 302: Image error calculation unit 303: Inference unit 304: Score error calculation unit 311: Important Feature map generation unit 312 : Deterioration scale map generation unit 313 : Superposition unit 321 : Super pixel division unit 322 : Important super pixel determination unit 323 : Important super pixel evaluation unit 611 : Selective back error propagation unit 612 : Non-target pixel offset adjustment Section 613: Grayscale section 1110: Area extraction section 1111: Composition section 1710: Map generation section 1711: Averaging section 1910: Refine image generation section 1911: Image error calculation section 1920: Specification section 1921: Correction section 2110: Detailed cause Analysis unit 2201 : Image difference calculation unit 2202 : SSIM calculation unit 2203 : Cutout unit 2204 : Action unit 2510 : Detailed cause analysis unit 2601 : Important feature map generation unit 2602 : Cutout unit

Claims (6)

画像認識処理の際に誤ったラベルが推論される誤推論画像と、リファイン画像との差分を用いて、前記誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成するリファイン画像生成部と、
前記誤推論画像の複数の画素のうち前記スコアを最大化させたリファイン画像を生成する際に変更がなされた画素を示す第1のマップと、前記スコアを最大化させたリファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップであって、各注目度合いの出現頻度に基づいて調整した第2のマップと、を重畳することで、正解ラベルを推論するための各画素の重要度を示す第3のマップを生成するマップ生成部と、
前記誤推論画像において、ピクセルの集合ごとに前記第3のマップの画素値を算出することで、誤推論の原因となるピクセルの集合を特定する特定部と、を有し、
前記リファイン画像生成部は、
前記特定部により前記ピクセルの集合が特定された場合、前記特定されたピクセルの集合の領域について前記差分を補正し、補正後の差分を用いて、前記誤推論画像から、前記推論の正解ラベルのスコアを最大化させたリファイン画像を再生成する、解析装置。
Refinement that generates a refined image that maximizes the score of the correct label of inference from the incorrect inference image by using the difference between the incorrect inference image in which an incorrect label is inferred during image recognition processing and the refined image. an image generation unit;
a first map indicating pixels of the plurality of pixels of the incorrect inference image that have been changed when generating the refined image whose score is maximized ; and a plurality of pixels of the refined image whose score is maximized. By superimposing a second map that shows the degree of attention of each pixel that was focused on at the time of inference and that is adjusted based on the frequency of appearance of each degree of attention, each pixel for inferring the correct label is a map generation unit that generates a third map indicating the importance of the
In the erroneous inference image, a specifying unit that identifies a set of pixels that causes an erroneous inference by calculating a pixel value of the third map for each set of pixels ,
The refined image generation unit includes:
When the set of pixels is identified by the identification unit, the difference is corrected for the area of the identified set of pixels, and the correct label of the inference is determined from the incorrect inference image using the corrected difference. An analysis device that regenerates a refined image that maximizes the score .
前記マップ生成部は、各注目度合いの出現頻度が最大となる画素値を特定し、特定した画素値がゼロになるように、前記リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップを調整する、請求項1に記載の解析装置。 The map generation unit identifies the pixel value at which the frequency of appearance of each degree of attention is maximum, and determines the attention of each pixel that was noticed at the time of inference among the plurality of pixels of the refined image so that the identified pixel value becomes zero. The analysis device according to claim 1, which adjusts a map indicating the degree. 前記マップ生成部は、BP法、GBP法または選択的BP法のいずれかを用いて、前記リファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップを生成する、請求項2に記載の解析装置。 2. The map generation unit generates a map indicating the degree of attention of each pixel that is focused upon inference among the plurality of pixels of the refined image using any one of a BP method, a GBP method, or a selective BP method. 2. The analysis device according to 2. 前記誤推論画像と前記スコアを最大化させたリファイン画像との差分に基づいて算出される差分画像から、所定の領域を切り出した画像と、
前記誤推論画像と前記スコアを最大化させたリファイン画像とをSSIM演算することで得られるSSIM画像から、所定の領域を切り出した画像と、
前記第2のマップから、所定の領域を切り出した画像と、
を乗算することで得られる乗算画像を、前記誤推論画像にて可視化する請求項1に記載の解析装置。
an image in which a predetermined area is cut out from a difference image calculated based on the difference between the incorrect inference image and the refined image that maximizes the score ;
an image in which a predetermined region is cut out from an SSIM image obtained by performing SSIM calculation on the incorrect inference image and the refined image that maximizes the score ;
an image cut out from a predetermined area from the second map;
The analysis device according to claim 1, wherein a multiplied image obtained by multiplying is visualized in the incorrect inference image.
画像認識処理の際に誤ったラベルが推論される誤推論画像と、リファイン画像との差分を用いて、前記誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成し、
前記誤推論画像の複数の画素のうち前記スコアを最大化させたリファイン画像を生成する際に変更がなされた画素を示す第1のマップと、前記スコアを最大化させたリファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップであって、各注目度合いの出現頻度に基づいて調整した第2のマップと、を重畳することで、正解ラベルを推論するための各画素の重要度を示す第3のマップを生成し、
前記誤推論画像において、ピクセルの集合ごとに前記第3のマップの画素値を算出することで、誤推論の原因となるピクセルの集合を特定する、処理をコンピュータに実行させ
前記ピクセルの集合が特定された場合、前記特定されたピクセルの集合の領域について前記差分を補正し、補正後の差分を用いて、前記誤推論画像から、前記推論の正解ラベルのスコアを最大化させたリファイン画像を再生成する、解析プログラム。
Generating a refined image that maximizes the score of the correct label of inference from the erroneous inference image using the difference between the erroneous inference image in which an incorrect label is inferred during image recognition processing and the refined image,
a first map indicating pixels of the plurality of pixels of the incorrect inference image that have been changed when generating the refined image whose score is maximized ; and a plurality of pixels of the refined image whose score is maximized. By superimposing a second map that shows the degree of attention of each pixel that was focused on at the time of inference and that is adjusted based on the frequency of appearance of each degree of attention, each pixel for inferring the correct label is generate a third map showing the importance of
causing a computer to perform a process of identifying a set of pixels that causes an erroneous inference by calculating a pixel value of the third map for each set of pixels in the erroneous inference image ;
When the set of pixels is identified, the difference is corrected for the area of the identified set of pixels, and the corrected difference is used to maximize the score of the correct label of the inference from the incorrect inference image. An analysis program that regenerates refined images .
画像認識処理の際に誤ったラベルが推論される誤推論画像と、リファイン画像との差分を用いて、前記誤推論画像から、推論の正解ラベルのスコアを最大化させたリファイン画像を生成し、
前記誤推論画像の複数の画素のうち前記スコアを最大化させたリファイン画像を生成する際に変更がなされた画素を示す第1のマップと、前記スコアを最大化させたリファイン画像の複数の画素のうち推論時に注目した各画素の注目度合いを示すマップであって、各注目度合いの出現頻度に基づいて調整した第2のマップと、を重畳することで、正解ラベルを推論するための各画素の重要度を示す第3のマップを生成し、
前記誤推論画像において、ピクセルの集合ごとに前記第3のマップの画素値を算出することで、誤推論の原因となるピクセルの集合を特定する、処理をコンピュータが実行し、
前記ピクセルの集合が特定された場合、前記特定されたピクセルの集合の領域について前記差分を補正し、補正後の差分を用いて、前記誤推論画像から、前記推論の正解ラベルのスコアを最大化させたリファイン画像を再生成する、解析方法。
Generating a refined image that maximizes the score of the correct label of inference from the erroneous inference image using the difference between the erroneous inference image in which an incorrect label is inferred during image recognition processing and the refined image,
a first map indicating pixels of the plurality of pixels of the incorrect inference image that have been changed when generating the refined image whose score is maximized ; and a plurality of pixels of the refined image whose score is maximized. By superimposing a second map that shows the degree of attention of each pixel that was focused on at the time of inference and that is adjusted based on the frequency of appearance of each degree of attention, each pixel for inferring the correct label is generate a third map showing the importance of
In the erroneous inference image, a computer executes a process of identifying a set of pixels that causes the erroneous inference by calculating a pixel value of the third map for each set of pixels,
When the set of pixels is identified, the difference is corrected for the area of the identified set of pixels, and the corrected difference is used to maximize the score of the correct label of the inference from the incorrect inference image. An analysis method that regenerates refined images .
JP2019200863A 2019-11-05 2019-11-05 Analysis equipment, analysis program and analysis method Active JP7351186B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019200863A JP7351186B2 (en) 2019-11-05 2019-11-05 Analysis equipment, analysis program and analysis method
US17/031,966 US11663487B2 (en) 2019-11-05 2020-09-25 Analysis apparatus, non-transitory computer-readable storage medium for analysis program, and analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019200863A JP7351186B2 (en) 2019-11-05 2019-11-05 Analysis equipment, analysis program and analysis method

Publications (2)

Publication Number Publication Date
JP2021076924A JP2021076924A (en) 2021-05-20
JP7351186B2 true JP7351186B2 (en) 2023-09-27

Family

ID=75687413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019200863A Active JP7351186B2 (en) 2019-11-05 2019-11-05 Analysis equipment, analysis program and analysis method

Country Status (2)

Country Link
US (1) US11663487B2 (en)
JP (1) JP7351186B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115018723A (en) * 2022-05-30 2022-09-06 南京航空航天大学 Convolutional neural network-based method for processing blurred images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191481A (en) 2014-03-28 2015-11-02 株式会社ニコン Image processing apparatus and image processing program
JP2016523405A (en) 2013-06-04 2016-08-08 メドスナップ・リミテッド・ライアビリティ・カンパニーMedsnap, LLC System and method using mark analysis in tablet identification

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6582416B2 (en) 2014-05-15 2019-10-02 株式会社リコー Image processing apparatus, image processing method, and program
JP6267139B2 (en) 2015-02-10 2018-01-24 有限会社葛山製作所 Rolling tapping device
JP6697356B2 (en) 2016-09-13 2020-05-20 Kddi株式会社 Device, program and method for identifying state of specific object among predetermined objects
JP2018097807A (en) 2016-12-16 2018-06-21 株式会社デンソーアイティーラボラトリ Learning device
JP7279526B2 (en) * 2019-05-31 2023-05-23 富士通株式会社 Analysis program, analysis device and analysis method
JP7363383B2 (en) * 2019-11-05 2023-10-18 富士通株式会社 Analysis equipment, analysis program and analysis method
JP7363382B2 (en) * 2019-11-05 2023-10-18 富士通株式会社 Analysis equipment, analysis program and analysis method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016523405A (en) 2013-06-04 2016-08-08 メドスナップ・リミテッド・ライアビリティ・カンパニーMedsnap, LLC System and method using mark analysis in tablet identification
JP2015191481A (en) 2014-03-28 2015-11-02 株式会社ニコン Image processing apparatus and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久保田智規他,CNNを用いた物体認識における誤認識の原因を可視化する一手法,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2019-CVIM-218 [online] ,日本,情報処理学会,2019年08月28日

Also Published As

Publication number Publication date
US11663487B2 (en) 2023-05-30
US20210133481A1 (en) 2021-05-06
JP2021076924A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US11507788B2 (en) Non-transitory computer-readable storage medium for storing analysis program, analysis apparatus, and analysis method
KR102275452B1 (en) Method for tracking image in real time considering both color and shape at the same time and apparatus therefor
JP7011146B2 (en) Image processing device, image processing method, image processing program, and teacher data generation method
JP5487610B2 (en) Image processing apparatus and method, and program
US11341361B2 (en) Analysis apparatus, storage medium storing analysis program, and analysis method
CN111145188A (en) Image segmentation method based on ResNet and UNet models
CN109858487A (en) Weakly supervised semantic segmentation method based on watershed algorithm and image category label
US11436431B2 (en) Analysis apparatus, non-transitory computer-readable storage medium for analysis program, and analysis method
CN104732509A (en) Self-adaptation image segmentation method and device
US11526963B2 (en) Image processing apparatus, image processing method, and storage medium
JP7363383B2 (en) Analysis equipment, analysis program and analysis method
JP7351186B2 (en) Analysis equipment, analysis program and analysis method
CN112132164B (en) Target detection method, system, computer device and storage medium
US20240185574A1 (en) Composite car image generator
US20090315910A1 (en) Systems and methods for obtaining an image alpha matte
US9916694B2 (en) Method for hole filling in 3D model, and recording medium and apparatus for performing the same
CN113409224B (en) Image target pertinence enhancement method, device, equipment and storage medium
CN116630188A (en) Underwater image enhancement method, system, electronic equipment and storage medium
JP7392835B2 (en) Analysis device and analysis program
CN116309902A (en) Vascular image reconstruction method, vascular image reconstruction device, electronic equipment and storage medium
US20220415026A1 (en) Analysis device and computer-readable recording medium storing analysis program
Xia et al. Lazy texture selection based on active learning
KR101095859B1 (en) Apparatus and method for image segmentation
CN117173534A (en) Method, terminal and medium for generating countermeasure sample of computer vision task
CN118865466A (en) Image fusion method, device, electronic equipment, storage medium and product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7351186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150