JP2022099572A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2022099572A
JP2022099572A JP2020213408A JP2020213408A JP2022099572A JP 2022099572 A JP2022099572 A JP 2022099572A JP 2020213408 A JP2020213408 A JP 2020213408A JP 2020213408 A JP2020213408 A JP 2020213408A JP 2022099572 A JP2022099572 A JP 2022099572A
Authority
JP
Japan
Prior art keywords
class
contribution
image
discrimination
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020213408A
Other languages
Japanese (ja)
Other versions
JP7461866B2 (en
Inventor
裕生 宮下
Yuki Miyashita
恵介 石黒
Keisuke Ishiguro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Electric Works Co Ltd
Original Assignee
Nagoya Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Electric Works Co Ltd filed Critical Nagoya Electric Works Co Ltd
Priority to JP2020213408A priority Critical patent/JP7461866B2/en
Publication of JP2022099572A publication Critical patent/JP2022099572A/en
Application granted granted Critical
Publication of JP7461866B2 publication Critical patent/JP7461866B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processor, an information processing method, and a program that assist a user in grasping the degree to which each area of an image contributes to which class discrimination.SOLUTION: An information processor 10 includes an acquisition unit 21c that acquires contribution indicating the degree to which an area of an input image put into a machine learning model contributes to a class discrimination by the machine learning model for each class, and a derivation unit 21d that derives comparison information showing a comparison result of the contribution of each class acquired by the acquisition unit 21c.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and a program.

機械学習されたモデルを用いた画像のクラス判別において、クラス判別の判断の根拠となった画像内の領域を可視化する技術がある。
非特許文献1には、CNNの判断根拠の可視化技術であるGrad-CAM(Gradient-weighted Class Activation Mapping)が開示されている。
In image class discrimination using a machine-learned model, there is a technique for visualizing an area in an image that is the basis for class discrimination judgment.
Non-Patent Document 1 discloses Grad-CAM (Gradient-weighted Class Activation Mapping), which is a technique for visualizing the judgment basis of CNN.

R. R. Selvaraju、 M. Cogswell、 A.Das、 R. Vedantam、 D. Parikh、 D. Batra、 "Grad-CAM: VisualExplanations from Deep Networks via Gradient-based Localization、"arXiv: 1610.02391v3、 2017.R. R. Selvaraju, M.D. Cogswell, A. Das, R.M. Vedantam, D.M. Parikh, D. Batra, "Grad-CAM: Visual Explanations from Deep Networks Via Gradient-based Localization," arXiv: 1610.02391v3, 2017.

しかし、非特許文献1では、複数のクラスそれぞれに対応するヒートマップを表示する場合、複数のヒートマップにおける同じ領域の色が同じような色だと、その領域が何れのクラスの判別により寄与したかがユーザーにより把握できないという課題があった。
本発明は、前記課題にかんがみてなされたもので、画像の各領域が何れのクラスの判別により寄与したかについて、ユーザーによる把握を支援することを目的とする。
However, in Non-Patent Document 1, when displaying heat maps corresponding to each of a plurality of classes, if the colors of the same region in the plurality of heat maps are similar, the region contributed to the discrimination of which class. There was a problem that the user could not grasp the color.
The present invention has been made in view of the above problems, and an object of the present invention is to support a user's understanding as to which class each region of an image contributes to the discrimination.

前記の目的を達成するため、本発明の情報処理装置は、機械学習モデルに入力される入力画像の領域が前記機械学習モデルによるクラス判別に寄与した度合いを示す寄与度を、クラス毎に取得する取得部と、前記取得部により取得されるクラス毎の寄与度の比較結果を示す比較情報を導出する導出部と、を備える。 In order to achieve the above object, the information processing apparatus of the present invention acquires the contribution degree indicating the degree to which the region of the input image input to the machine learning model contributes to the class discrimination by the machine learning model for each class. It includes an acquisition unit and a derivation unit for deriving comparison information indicating a comparison result of contributions for each class acquired by the acquisition unit.

以上、説明した構成によれば、入力画像の領域毎に、クラス毎のクラス判別の寄与度の比較結果を示す比較情報を導出できる。この比較情報がユーザーに提示されるとユーザーは、入力画像の各領域がどのクラスの判別により寄与したかを容易に把握できる。すなわち、本発明の構成により、このようなユーザーによる把握を支援することができる。 According to the configuration described above, comparison information showing the comparison result of the contribution of the class discrimination for each class can be derived for each area of the input image. When this comparison information is presented to the user, the user can easily grasp which class each area of the input image contributed to. That is, the configuration of the present invention can support such a user's grasp.

情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an information processing apparatus. モデルの構造を示す図である。It is a figure which shows the structure of a model. 導出処理を示すフローチャートである。It is a flowchart which shows the derivation process. 原画像を示す図である。It is a figure which shows the original image. 評価画像の導出処理の概要を説明する図である。It is a figure explaining the outline of the derivation process of the evaluation image. 空車クラスについての評価画像を示す図である。It is a figure which shows the evaluation image about an empty car class. 駐車クラスについての評価画像を示す図である。It is a figure which shows the evaluation image about a parking class. 導出処理を示すフローチャートである。It is a flowchart which shows the derivation process. 出力される比較画像を示す図である。It is a figure which shows the output comparative image. 表示画面を示す図である。It is a figure which shows the display screen.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)情報処理装置の構成:
(2)導出処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of information processing device:
(2) Derivation processing:
(3) Other embodiments:

(1)情報処理装置の構成:
図1は、本発明の一実施形態にかかる情報処理装置10の構成を示すブロック図である。情報処理装置10は、制御部20と記録媒体30と表示部40とを備えている。制御部20は、CPUとRAMとROM等を備えたコンピュータであり、記録媒体30等に記録された導出プログラム21等の各種プログラムを実行する。導出プログラム21は、クラス判別対象の画像における各領域について、各クラスの判別に対する寄与度の比較結果を示す画像を導出する機能を制御部20に実行させるプログラムである。
(1) Configuration of information processing device:
FIG. 1 is a block diagram showing a configuration of an information processing apparatus 10 according to an embodiment of the present invention. The information processing apparatus 10 includes a control unit 20, a recording medium 30, and a display unit 40. The control unit 20 is a computer including a CPU, RAM, ROM, and the like, and executes various programs such as a derivation program 21 recorded on the recording medium 30 and the like. The derivation program 21 is a program that causes the control unit 20 to execute a function of deriving an image showing a comparison result of contributions to each class discrimination for each region in the image to be classified.

記録媒体30は、導出プログラム21等の各種プログラム、各種データを記録する。記録媒体30は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等である。本実施形態では、記録媒体30は、教師データ31、機械学習モデル32、原画像33、判定基準データ34、評価画像35、比較画像36等を記録する。
教師データ31は、機械学習モデル32の機械学習に用いられる教師データである。機械学習モデル32は、入力される画像のクラス判別に用いられるモデルである。ここで、モデルとは、クラス判別対象のデータと、クラス判別結果のデータと、の対応関係を示す情報(例えば、式等)である。本実施形態では、機械学習モデル32は、入力される画像が、駐車されている状況を示す駐車クラスと空車の状況を示す空車クラスとの2つのクラスのうちの何れであるかを判別するモデルである。また、本実施形態では、機械学習モデル32は、CNN(畳込みニューラルネットワーク)を含むモデルである。
The recording medium 30 records various programs such as the derivation program 21 and various data. The recording medium 30 is, for example, a hard disk drive (HDD), a solid state drive (SSD), or the like. In the present embodiment, the recording medium 30 records teacher data 31, machine learning model 32, original image 33, determination reference data 34, evaluation image 35, comparative image 36, and the like.
The teacher data 31 is teacher data used for machine learning of the machine learning model 32. The machine learning model 32 is a model used for class discrimination of an input image. Here, the model is information (for example, an expression or the like) showing the correspondence relationship between the data of the class discrimination target and the data of the class discrimination result. In the present embodiment, the machine learning model 32 is a model that determines whether the input image is one of two classes, a parking class indicating a parked situation and an empty vehicle class indicating an empty vehicle status. Is. Further, in the present embodiment, the machine learning model 32 is a model including a CNN (convolutional neural network).

図2は、本実施形態の機械学習モデル32の構造を示す図である。図2においては、CNNによるデータフォーマットの変化を直方体で示している。本実施形態の機械学習モデル32は、クラス判別対象の画像を示す画像データをCNNの入力層Lへの入力データとし、1つ以上の畳込み層、1つ以上のプーリング層、全結合層Lを経由して、出力層Lの各ノードへ出力データが出力される。本実施形態では、機械学習モデル32のCNNに入力される画像データは、縦Hピクセル、横Wピクセルであり、各ピクセルについてR:赤、G:緑、B:青の3チャネルの階調値が規定されている。従って、図2において入力層Lの画像は、縦H、横W、奥行き3の直方体で模式的に示されている。 FIG. 2 is a diagram showing the structure of the machine learning model 32 of the present embodiment. In FIG. 2, the change in the data format due to CNN is shown in a rectangular parallelepiped. In the machine learning model 32 of the present embodiment, image data showing an image to be classified is used as input data to the input layer Li of CNN, and one or more convolutional layers, one or more pooling layers, and fully connected layers. Output data is output to each node of the output layer Lo via L n . In the present embodiment, the image data input to the CNN of the machine learning model 32 is vertical H pixels and horizontal W pixels, and the gradation values of three channels of R: red, G: green, and B: blue for each pixel. Is stipulated. Therefore, in FIG. 2, the image of the input layer Li is schematically shown as a rectangular parallelepiped having vertical H, horizontal W, and depth 3.

図2においては、入力層Lに入力された画像は、既定の大きさおよび個数のフィルターによる畳み込み演算、活性化関数による演算およびプーリング層の演算を経て縦H×横W×チャネルDの特徴マップに変換される例を示している。図2においては、この後、複数の層を経て、最終的には、畳込み層の最終層である層Lにおいて縦H×横W×チャネルDの特徴マップに変換される例を示している。CNNによって、縦H×横W×チャネルDの特徴マップが得られた後、全結合によって全結合層Lの各ノードの値が得られる。全結合層Lの各ノードの値を入力データとして、出力層Lの各ノードの値が出力される。本実施形態の機械学習モデル32のCNNの出力層Lには、空車クラス、駐車クラスにそれぞれ対応する2つのノードが含まれ、この2つのノードそれぞれには、入力された画像が対応するクラスに属する可能性の大きさに応じた値が出力される。また、畳込み層における特徴マップの各チャネルは、入力層Lに入力された画像がフィルターによって畳込まれた形式のデータであり、各チャネルにおける各領域は、入力された画像における各領域と対応付いている。すなわち、畳込み層における特徴マップの各チャネルは、入力された画像における位置情報が維持されている。 In FIG. 2, the image input to the input layer Li is subjected to a convolution operation by a filter of a predetermined size and number, an operation by an activation function, and an operation of a pooling layer, and then H 1 × horizontal W 1 × channel D. An example of conversion to the feature map of 1 is shown. In FIG. 2, an example in which a feature map of vertical Hm × horizontal W m × channel D m is finally converted into a layer L m , which is the final layer of the convolutional layer, via a plurality of layers. Is shown. After the feature map of vertical H m × horizontal W m × channel D m is obtained by CNN, the value of each node of the fully connected layer Ln is obtained by the full bond. The value of each node of the fully connected layer L n is used as input data, and the value of each node of the output layer Lo is output. The output layer Lo of the CNN of the machine learning model 32 of the present embodiment includes two nodes corresponding to an empty vehicle class and a parking class, and each of these two nodes is a class to which an input image corresponds. A value is output according to the magnitude of the possibility of belonging to. Further, each channel of the feature map in the convolution layer is data in a format in which the image input to the input layer Li is convoluted by a filter, and each area in each channel is the same as each area in the input image. There is a correspondence. That is, each channel of the feature map in the convolutional layer maintains the position information in the input image.

原画像33は、クラス判別の対象の画像であり、本実施形態では、駐車場における駐車スペースの画像である。判定基準データ34は、評価画像35同士の比較の基準を示す情報である。評価画像35は、対応するクラスの判別に対し、原画像33の各領域がどの程度寄与したかを示す画像であり、本実施形態では、Grad-CAMで得られるヒートマップである。比較画像36は、出力クラス毎の評価画像35の比較結果を示す画像である。表示部40は、各種情報を表示する。表示部40は、例えば、モニタ、タッチパネル等である。 The original image 33 is an image to be classified, and in the present embodiment, is an image of a parking space in a parking lot. The determination standard data 34 is information indicating a standard for comparison between the evaluation images 35. The evaluation image 35 is an image showing how much each region of the original image 33 contributed to the discrimination of the corresponding class, and is a heat map obtained by Grad-CAM in the present embodiment. The comparison image 36 is an image showing the comparison result of the evaluation image 35 for each output class. The display unit 40 displays various information. The display unit 40 is, for example, a monitor, a touch panel, or the like.

制御部20は、記録媒体30に記録された導出プログラム21を実行することで、学習部21a、判別部21b、取得部21c、導出部21d、表示制御部21eとして機能する。学習部21aは、機械学習モデル32を機械学習する機能である。判別部21bは、学習部21aにより機械学習された機械学習モデル32を用いて、原画像33のクラスを判別する機能である。取得部21cは、空車クラス判別、駐車クラス判別それぞれに対する、原画像33の各領域の寄与度を示す情報を取得する機能である。本実施形態では、取得部21cは、空車クラス判別、駐車クラス判別それぞれに対する、原画像33の各領域の寄与度を示す情報として、Grad-CAMで得られるヒートマップである評価画像35を取得する機能である。導出部21dは、取得部21cにより取得される出力クラス毎の寄与度の比較結果を示す情報を導出する機能である。以下では、出力クラス毎の寄与度の比較結果を示す情報を比較情報とする。本実施形態では、導出部21dは、この比較情報として比較画像36を導出する機能である。表示制御部21eは、導出部21dにより導出された比較情報(本実施形態では、比較画像36)を表示する機能である。 The control unit 20 functions as a learning unit 21a, a discrimination unit 21b, an acquisition unit 21c, a derivation unit 21d, and a display control unit 21e by executing the derivation program 21 recorded on the recording medium 30. The learning unit 21a is a function of machine learning the machine learning model 32. The discrimination unit 21b is a function of discriminating the class of the original image 33 by using the machine learning model 32 machine-learned by the learning unit 21a. The acquisition unit 21c is a function of acquiring information indicating the degree of contribution of each region of the original image 33 to each of the empty vehicle class determination and the parking class determination. In the present embodiment, the acquisition unit 21c acquires the evaluation image 35, which is a heat map obtained by the Grad-CAM, as information indicating the contribution of each region of the original image 33 to each of the empty vehicle class discrimination and the parking class discrimination. It is a function. The derivation unit 21d is a function of deriving information indicating the comparison result of the contribution degree for each output class acquired by the acquisition unit 21c. In the following, the information showing the comparison result of the contribution of each output class will be referred to as the comparison information. In the present embodiment, the derivation unit 21d is a function of deriving the comparison image 36 as this comparison information. The display control unit 21e is a function of displaying the comparison information (comparative image 36 in the present embodiment) derived by the derivation unit 21d.

(2)導出処理:
図3は、情報処理装置10が実行する導出処理の一例を示すフローチャートである。制御部20は、図3の処理の開始前に、学習部21aの機能により、記録媒体30に予め記録された教師データ31を用いて、記録媒体30に予め記録された機械学習モデル32を機械学習する。ここで、教師データ31は、ラベルが対応付けられた複数の画像である。教師データ31の複数の画像それぞれは、原画像33と同一のフォーマット(縦横画素)の駐車スペースの画像であって、画像に含まれる駐車スペースに車両が駐車しているか否かのラベルが対応づけられている。制御部20は、教師データ31を入力データとして機械学習モデル32に入力し、出力を取得し、出力値と入力データに対応づけられたラベル(各ノードのいずれかが1)との差が少なくなるように、機械学習モデルの可変パラメータを変化させ、差が既定値以下になるまで演算を繰り返すことで、機械学習モデル32の機械学習を行う。そして、制御部20は、学習済みの機械学習モデル32を記録媒体30に記録する。
(2) Derivation processing:
FIG. 3 is a flowchart showing an example of the derivation process executed by the information processing apparatus 10. Prior to the start of the process of FIG. 3, the control unit 20 uses the teacher data 31 pre-recorded on the recording medium 30 by the function of the learning unit 21a to machine the machine learning model 32 pre-recorded on the recording medium 30. learn. Here, the teacher data 31 is a plurality of images to which labels are associated. Each of the plurality of images of the teacher data 31 is an image of a parking space in the same format (vertical and horizontal pixels) as the original image 33, and a label indicating whether or not the vehicle is parked is associated with the parking space included in the image. Has been done. The control unit 20 inputs the teacher data 31 as input data to the machine learning model 32, acquires the output, and the difference between the output value and the label associated with the input data (one of the nodes is 1) is small. The machine learning of the machine learning model 32 is performed by changing the variable parameters of the machine learning model and repeating the calculation until the difference becomes equal to or less than the default value. Then, the control unit 20 records the trained machine learning model 32 on the recording medium 30.

図3の比較結果導出処理が開始されると、制御部20は、判別部21bの機能により、機械学習モデル32を用いたクラス判別を行う(ステップS100)。より具体的には、制御部20は、原画像33を入力画像として、機械学習モデル32による演算を行い、出力層Lの各ノードの出力値を取得する。そして、制御部20は、出力値が最も大きいノードに対応するクラスを判別結果とする。ここでは、本実施形態で用いられる原画像33を図4に示す。本実施形態では、原画像33は、図4に示すように、駐車場における空車状態の駐車スペースの画像である。 When the comparison result derivation process of FIG. 3 is started, the control unit 20 performs class discrimination using the machine learning model 32 by the function of the discrimination unit 21b (step S100). More specifically, the control unit 20 performs an operation by the machine learning model 32 using the original image 33 as an input image, and acquires the output value of each node of the output layer Lo . Then, the control unit 20 determines the class corresponding to the node having the largest output value as the determination result. Here, the original image 33 used in this embodiment is shown in FIG. In the present embodiment, the original image 33 is an image of an empty parking space in a parking lot, as shown in FIG.

次に、制御部20は、取得部21cの機能により、機械学習モデル32が判別するクラス(空車クラスおよび駐車クラス)から1つを選択する(ステップS105)。以下では、最新のステップS105の処理で選択されたクラスを選択クラスとする。次に、制御部20は、取得部21cの機能により、機械学習モデル32のCNNにおける畳込み層の最終層である層Lにおける特徴マップから1つのチャネルを選択する(ステップS110)。図2の例では、制御部20は、層Lで得られる縦H×横W×チャネルDの特徴マップから1つのチャネル(縦H×横Wの特徴マップ)を選択する。以下では、最新のステップS110で選択されたチャネルを、選択チャネルとする。 Next, the control unit 20 selects one from the classes (empty car class and parking class) determined by the machine learning model 32 by the function of the acquisition unit 21c (step S105). In the following, the class selected in the latest process of step S105 will be referred to as a selection class. Next, the control unit 20 selects one channel from the feature map in the layer Lm , which is the final layer of the convolutional layer in the CNN of the machine learning model 32, by the function of the acquisition unit 21c (step S110). In the example of FIG. 2, the control unit 20 selects one channel (vertical H m × horizontal W m feature map) from the feature map of vertical H m × horizontal W m × channel D m obtained in the layer L m . .. In the following, the channel selected in the latest step S110 will be referred to as a selected channel.

次に、制御部20は、取得部21cの機能により、選択クラスの判別に対する選択チャネルの重要さを示す重みを取得する(ステップS115)。ステップS115での処理の詳細を説明する。ここで、機械学習モデル32が判別するクラス(空車クラス、駐車クラス)のうち、選択クラスを示すインデックスをcとする。また、出力層Lにおける選択クラスに対応するノードの出力値をyとする。また、層Lにおける特徴マップにおけるD個のチャネルのうち、選択チャネルを示すインデックスをkとする。また、選択チャネルにおける特徴マップ(縦H×横Wの特徴マップ)をAとする。Aにおける画素数(H×W)をZとおく。Aにおける横の位置、縦の位置を示すインデックスを、それぞれi、jとする。Aにおける位置(i、j)の画素の画素値を、A i、jとする。また、選択クラスの判別に対する選択チャネルの重みを、α とする。
制御部20は、以下の式1を用いて、重みα を取得する。

Figure 2022099572000002
Next, the control unit 20 acquires a weight indicating the importance of the selection channel for the determination of the selection class by the function of the acquisition unit 21c (step S115). The details of the process in step S115 will be described. Here, c is an index indicating a selected class among the classes (empty car class, parking class) determined by the machine learning model 32. Further, let y c be the output value of the node corresponding to the selection class in the output layer Lo . Further, of the D m channels in the feature map in the layer L m , the index indicating the selected channel is k. Further, the feature map (feature map of vertical H m × horizontal W m ) in the selected channel is defined as Ak . Let Z be the number of pixels (H m × W m ) in Ak. Let i and j be the indexes indicating the horizontal position and the vertical position in Ak, respectively. Let the pixel values of the pixels at the positions (i, j ) at Ak be Ak i, j . Further, the weight of the selection channel for determining the selection class is α c k .
The control unit 20 acquires the weight α c k using the following equation 1.
Figure 2022099572000002

このように、制御部20は、選択チャネルの全画素について、yを選択チャネルの画素の値(A i、j)で偏微分した値(δy/δA i、j)、すなわち、yのA i、jに対する勾配を、画素の選択クラスの判別への寄与の度合を示す指標として求める。そして、制御部20は、求めた指標の選択チャネルの全画素(Z個の画素)についての平均値を、重みα として取得する。本実施形態では、制御部20は、式1におけるδy/δA i、jを、以下のようにして求める。機械学習モデル32においては、層Lの特徴マップの各画素の値が全結合層の各ノードとして結合され、全結合層の各ノード値を入力データとして、出力層Lの各ノードの出力値が得られる。そのため、出力層Lの各ノード値は、層Lの特徴マップの各画素の値を引数とする関数として表すことができる。すなわち、yは、少なくともAを引数とする関数y(A 1、1、A 1、2、・・・、A i、j、・・・、A Wm、Hm)として表すことができる。そして、制御部20は、A i、jの変動に応じたyの変動率を、δy/δA i、jの値として求める。本実施形態では、制御部20は、以下の式2を用いて、δy/δA i、jを求める。式2におけるhは、予め定められた実数である。

Figure 2022099572000003
As described above, the control unit 20 partially differentiates y c from the values of the pixels of the selected channel (A k i, j ) for all the pixels of the selected channel (δ y c / δ A k i, j ), that is, The gradient of y c with respect to Ak i and j is obtained as an index showing the degree of contribution to the discrimination of the pixel selection class. Then, the control unit 20 acquires the average value of all the pixels (Z pixels) of the selected channel of the obtained index as the weight α c k . In the present embodiment, the control unit 20 obtains δy c / δA k i and j in the equation 1 as follows. In the machine learning model 32, the values of each pixel of the feature map of the layer Lm are combined as each node of the fully connected layer, and each node value of the fully connected layer is used as input data, and the output of each node of the output layer Lo is used. The value is obtained. Therefore, each node value of the output layer Lo can be expressed as a function having the value of each pixel of the feature map of the layer L m as an argument. That is, y c is a function y c (A k 1 , 1, A k 1, 2 , ..., A k i, j , ..., A k Wm, Hm ) with at least Ak as an argument. Can be represented. Then, the control unit 20 obtains the volatility of y c according to the fluctuation of A k i, j as the value of δ y c / δA k i, j . In the present embodiment, the control unit 20 obtains δy c / δA k i and j using the following equation 2. H in Equation 2 is a predetermined real number.
Figure 2022099572000003

ただし、(δy/δA i、j)を求める方法は、式2を用いる方法に限定されない。例えば、yをA i、jで偏微分した式の情報であって、機械学習モデル32で用いられるパラメータ(ノードの結合の重み、畳込み等に用いられるフィルターの要素値、特徴マップの各画素の値等)で表される式の情報が予め記録媒体30に記録されているとしてもよい。この場合、制御部20は、この情報が示す式に各パラメータの値を代入することで、(δy/δA i、j)を求めてもよい。 However, the method for obtaining (δy c / δA ki , j ) is not limited to the method using Equation 2. For example, it is the information of the equation obtained by partially differentiating y c by A k i and j , and is the parameter used in the machine learning model 32 (weight of connection of nodes, element value of filter used for convolution, etc., feature map). The information of the formula represented by the value of each pixel, etc.) may be recorded in advance on the recording medium 30. In this case, the control unit 20 may obtain (δy c / δA k i, j ) by substituting the value of each parameter into the equation indicated by this information.

次に、制御部20は、取得部21cの機能により、全チャネルを選択済であるか否か判定する(ステップS120)。すなわち、制御部20は、ステップS105において選択された選択クラスにおいて、層Lにおける特徴マップにおける全てのチャネル(チャネル数D個分)について、ステップS110~ステップS120のループ処理を行ったか否かを判定する。選択クラスを選択した後で全チャネルを選択済であると、ステップS120において判定されない場合、制御部20は、ステップS110以降の処理を繰り返す。 Next, the control unit 20 determines whether or not all channels have been selected by the function of the acquisition unit 21c (step S120). That is, whether or not the control unit 20 has performed the loop processing of steps S110 to S120 for all the channels (for the number of channels Dm ) in the feature map in the layer Lm in the selection class selected in step S105. To judge. If it is not determined in step S120 that all channels have been selected after selecting the selection class, the control unit 20 repeats the processes after step S110.

ステップS120において、選択クラスを選択した後で全チャネルを選択済であると判定された場合、制御部20は、取得部21cの機能により、各チャネルにおける特徴マップを重みに応じて合成し、選択クラスの評価画像を取得する(ステップS125)。具体的には、制御部20は、以下の式3を用いて、層Lにおける特徴マップの全てのチャネルをステップS115で取得した重みをかけて線形結合することで、選択クラスについての評価画像35を取得する。

Figure 2022099572000004
When it is determined in step S120 that all channels have been selected after selecting the selection class, the control unit 20 synthesizes the feature maps in each channel according to the weights by the function of the acquisition unit 21c and selects them. The evaluation image of the class is acquired (step S125). Specifically, the control unit 20 linearly combines all the channels of the feature map in the layer Lm with the weights acquired in step S115 by using the following equation 3 to evaluate the selection class. Get 35.
Figure 2022099572000004

式3のL Grad-CAMは、選択クラスについての評価画像35である。画像L Grad-CAMの各画素の値は、対応する原画像における領域の選択クラスの判別への寄与の度合を示す指標(寄与度)となる。本実施形態では、制御部20は、式3を用いて、図5に示すように、層Lにおける特徴マップの全てのチャネルにおける特徴マップを、対応する重みと掛け合わせて足し合わせ、1つの縦H×横Wの画像データとする。そして、制御部20は、ReLU関数により、この画像データにおける画素値が0未満の各画素の画素値を0にする。選択クラスの判別に寄与するのは、画素値が正の部分であると考えられる。そこで、制御部20は、このようにすることで、クラスの判別に寄与しない部分の情報量を低減できる。 The L c Grad-CAM of Equation 3 is an evaluation image 35 for the selection class. The value of each pixel of the image L c Grad-CAM is an index (contribution degree) indicating the degree of contribution to the discrimination of the selection class of the region in the corresponding original image. In the present embodiment, the control unit 20 uses Equation 3 to multiply the feature maps in all channels of the feature map in the layer Lm by the corresponding weights and add one, as shown in FIG. Image data of vertical H m × horizontal W m . Then, the control unit 20 sets the pixel value of each pixel whose pixel value in the image data is less than 0 to 0 by the ReLU function. It is considered that the part where the pixel value is positive contributes to the determination of the selection class. Therefore, by doing so, the control unit 20 can reduce the amount of information in the portion that does not contribute to the discrimination of the class.

図6に、選択クラスが空車クラスである場合にステップS120で取得される評価画像35aを示す。また、図7に、選択クラスが駐車クラスである場合にステップS120で取得される評価画像35bを示す。図6、7では、評価画像35a、評価画像35bそれぞれは、ヒートマップで表されている。図6、7では、評価画像35a、bの画素の値が大きいほど、その画素は、より明るい色(図6、7の例では、より白い色)で表示される。これにより、ユーザーは、評価画像35を視認することで、より明るい領域に対応する原画像33の領域が、より対応するクラスの判別により寄与したことを直感的に把握できる。 FIG. 6 shows an evaluation image 35a acquired in step S120 when the selection class is an empty vehicle class. Further, FIG. 7 shows an evaluation image 35b acquired in step S120 when the selection class is a parking class. In FIGS. 6 and 7, each of the evaluation image 35a and the evaluation image 35b is represented by a heat map. In FIGS. 6 and 7, the larger the value of the pixel of the evaluation images 35a and b, the brighter the pixel is displayed (in the example of FIGS. 6 and 7, the whiter color). As a result, the user can intuitively grasp that the region of the original image 33 corresponding to the brighter region contributed to the discrimination of the corresponding class by visually recognizing the evaluation image 35.

次に、制御部20は、取得部21cの機能により、機械学習モデル32で判別できるクラス(空車クラス、駐車クラス)の全てをステップS105で選択したか否かを判定する(ステップS130)。機械学習モデル32で判別できるクラス(空車クラス、駐車クラス)の全てをステップS105で選択したと判定されない場合、制御部20は、ステップS105以降の処理を繰り返す。このように、本実施形態では、制御部20は、ステップS105~ステップS130の処理を実行することで、Grad-CAMの手法により、原画像33の各領域のクラス判別への寄与度を示す評価画像35をクラス毎に取得する。 Next, the control unit 20 determines whether or not all of the classes (empty car class, parking class) that can be determined by the machine learning model 32 are selected in step S105 by the function of the acquisition unit 21c (step S130). If it is not determined in step S105 that all of the classes (empty car class, parking class) that can be discriminated by the machine learning model 32 are selected, the control unit 20 repeats the processes after step S105. As described above, in the present embodiment, the control unit 20 executes the processes of steps S105 to S130 to evaluate the degree of contribution to the class discrimination of each region of the original image 33 by the method of Grad-CAM. Image 35 is acquired for each class.

ステップS130において選択していないクラスがあると判定された場合、制御部20は、導出部21dの機能により、ステップS125で取得された評価画像35aと、評価画像35bと、を画素毎に比較し、比較結果を示す比較画像36を導出する(ステップS135)。記録媒体30に記録された判定基準データ34は、評価画像35同士の比較の基準を示す。制御部20は、判定基準データ34に基づいて、評価画像35aと、評価画像35bと、の比較を行う。本実施形態では、判定基準データ34は、画素毎に、空車クラスの評価画像の画素値と空車クラスの評価画像の画素値との差をとることで、画素値の比較を行うことを示す。 When it is determined in step S130 that there is a class not selected, the control unit 20 compares the evaluation image 35a acquired in step S125 with the evaluation image 35b pixel by pixel by the function of the derivation unit 21d. , A comparative image 36 showing the comparison result is derived (step S135). The determination reference data 34 recorded on the recording medium 30 indicates a reference for comparison between the evaluation images 35. The control unit 20 compares the evaluation image 35a and the evaluation image 35b based on the determination reference data 34. In the present embodiment, the determination reference data 34 indicates that the pixel values are compared by taking the difference between the pixel value of the evaluation image of the empty vehicle class and the pixel value of the evaluation image of the empty vehicle class for each pixel.

ここで、図8を用いて、ステップS135の処理の詳細を説明する。ステップS200において、制御部20は、導出部21dの機能により、ステップS125で取得した評価画像35と同じサイズの画像データを、初期化状態の比較画像36として生成する。本実施形態では、縦H×横Wの画像データを生成し、RAMに記録する。次に、制御部20は、導出部21dの機能により、インデックスi、jを初期化する(ステップS205)。具体的には、制御部20は、画像中の画素の横の位置を示すインデックスiと、画像中の画素の縦の位置を示すインデックスjと、について値を1に初期化し、RAMに記録する。次に、制御部20は、導出部21dの機能により、評価画像35aにおける位置(i、j)の画素の画素値と、評価画像35bにおける位置(i、j)の画素の画素値と、を比較する(ステップS210)。具体的には、制御部20は、この2つの画素の画素値の大小関係(大小またはイコール)を特定する。 Here, the details of the process of step S135 will be described with reference to FIG. In step S200, the control unit 20 generates image data having the same size as the evaluation image 35 acquired in step S125 as the comparison image 36 in the initialized state by the function of the derivation unit 21d. In the present embodiment, image data of vertical H m × horizontal W m is generated and recorded in RAM. Next, the control unit 20 initializes the indexes i and j by the function of the derivation unit 21d (step S205). Specifically, the control unit 20 initializes the values of the index i indicating the horizontal position of the pixel in the image and the index j indicating the vertical position of the pixel in the image to 1, and records the value in the RAM. .. Next, the control unit 20 uses the function of the derivation unit 21d to obtain the pixel value of the pixel at the position (i, j) in the evaluation image 35a and the pixel value of the pixel at the position (i, j) in the evaluation image 35b. Compare (step S210). Specifically, the control unit 20 specifies the magnitude relationship (large or small or equal) of the pixel values of these two pixels.

次に、制御部20は、導出部21dの機能により、ステップS210での比較結果に応じて、比較画像36における位置(i、j)の画素を着色する(ステップS215)。本実施形態では、制御部20は、図6に示す評価画像35aにおける位置(i、j)の画素の画素値が、図7に示す評価画像35bにおける位置(i、j)の画素の画素値よりも大きい場合、比較画像36における位置(i、j)の画素を、第1の色で着色する。より具体的には、制御部20は、比較画像36における位置(i、j)の画素の画素値を、第1の色に応じた画素値にする。本実施形態では、第1の色は、黒とするが、赤、青、黄、緑等の他の色でもよい。 Next, the control unit 20 colors the pixels at the positions (i, j) in the comparison image 36 according to the comparison result in step S210 by the function of the derivation unit 21d (step S215). In the present embodiment, in the control unit 20, the pixel value of the pixel at the position (i, j) in the evaluation image 35a shown in FIG. 6 is the pixel value of the pixel at the position (i, j) in the evaluation image 35b shown in FIG. If it is larger than, the pixel at the position (i, j) in the comparative image 36 is colored with the first color. More specifically, the control unit 20 sets the pixel value of the pixel at the position (i, j) in the comparative image 36 to the pixel value corresponding to the first color. In the present embodiment, the first color is black, but other colors such as red, blue, yellow, and green may be used.

また、制御部20は、図6に示す評価画像35aにおける位置(i、j)の画素の画素値が、図7に示す評価画像35bにおける位置(i、j)の画素の画素値よりも小さい場合、比較画像36における位置(i、j)の画素を、第1の色と異なる第2の色で着色する。より具体的には、制御部20は、比較画像36における位置(i、j)の画素の画素値を、第2の色に応じた画素値にする。本実施形態では、第2の色は、白色とするが、赤、青、黄、緑等の他の色でもよい。 Further, in the control unit 20, the pixel value of the pixel at the position (i, j) in the evaluation image 35a shown in FIG. 6 is smaller than the pixel value of the pixel at the position (i, j) in the evaluation image 35b shown in FIG. In this case, the pixel at the position (i, j) in the comparative image 36 is colored with a second color different from the first color. More specifically, the control unit 20 sets the pixel value of the pixel at the position (i, j) in the comparative image 36 to the pixel value corresponding to the second color. In the present embodiment, the second color is white, but other colors such as red, blue, yellow, and green may be used.

また、制御部20は、図6に示す評価画像35aにおける位置(i、j)の画素の画素値が、図7に示す評価画像35bにおける位置(i、j)の画素の画素値と等しい場合、比較画像36における位置(i、j)の画素を、第3の色で着色する。より具体的には、制御部20は、比較画像36における位置(i、j)の画素の画素値を、第3の色に応じた画素値にする。本実施形態では、第3の色は、灰色とするが、赤、青、黄、緑等の他の色でもよい。 Further, the control unit 20 is in the case where the pixel value of the pixel at the position (i, j) in the evaluation image 35a shown in FIG. 6 is equal to the pixel value of the pixel at the position (i, j) in the evaluation image 35b shown in FIG. , The pixel at the position (i, j) in the comparative image 36 is colored with a third color. More specifically, the control unit 20 sets the pixel value of the pixel at the position (i, j) in the comparative image 36 to the pixel value corresponding to the third color. In the present embodiment, the third color is gray, but other colors such as red, blue, yellow, and green may be used.

次に、制御部20は、導出部21dの機能により、インデックスiがW以上であるか否かを判定する(ステップS220)。ステップS220においてインデックスiがW以上であると判定されない場合、制御部20は、導出部21dの機能により、インデックスiの値をインクリメントし(ステップS230)、ステップS210以降の処理を繰り返す。 Next, the control unit 20 determines whether or not the index i is W m or more by the function of the derivation unit 21d (step S220). If it is not determined in step S220 that the index i is W m or more, the control unit 20 increments the value of the index i by the function of the derivation unit 21d (step S230), and repeats the processing after step S210.

ステップS220においてインデックスiがW以上であると判定された場合、制御部20は、導出部21dの機能により、インデックスiの値を1に初期化する(ステップS225)。次に、制御部20は、導出部21dの機能により、インデックスjがH以上であるか否かを判定する(ステップS235)。ステップS235において、インデックスjがH未満であると判定された場合、制御部20は、導出部21dの機能により、インデックスjの値をインクリメントし(ステップS240)、ステップS210以降の処理を繰り返す。一方、ステップS235において、インデックスjがH以上であると判定された場合、制御部20は、比較画像36が完成したとして図8の処理を終了し、図3に示すステップS140以降を実行する。以上の処理によれば、画素毎の色が比較結果に応じた色に着色された比較画像36であって、横W個、縦H個の画素からなる比較画像36が生成される。図9に、図8の処理で生成された比較画像36を示す。 When it is determined in step S220 that the index i is W m or more, the control unit 20 initializes the value of the index i to 1 by the function of the derivation unit 21d (step S225). Next, the control unit 20 determines whether or not the index j is H m or more by the function of the derivation unit 21d (step S235). When it is determined in step S235 that the index j is less than H m , the control unit 20 increments the value of the index j by the function of the derivation unit 21d (step S240), and repeats the processing after step S210. On the other hand, when it is determined in step S235 that the index j is H m or more, the control unit 20 ends the process of FIG. 8 assuming that the comparative image 36 is completed, and executes step S140 and subsequent steps shown in FIG. .. According to the above processing, the comparison image 36 in which the color of each pixel is colored according to the comparison result is generated, and the comparison image 36 composed of W m in the horizontal direction and H m in the vertical direction is generated. FIG. 9 shows a comparative image 36 generated by the process of FIG.

比較画像36の領域は、黒色、白色、灰色に分かれる。図9の例では、比較画像36は、1つの黒色の領域361と、複数の白色の領域362と、複数の灰色の領域363と、に分かれている。 The area of the comparative image 36 is divided into black, white, and gray. In the example of FIG. 9, the comparative image 36 is divided into one black region 361, a plurality of white regions 362, and a plurality of gray regions 363.

比較画像36における黒色の領域は、原画像33における駐車クラスの判別よりも空車クラスの判別により寄与する領域に対応する領域である。図9の例では、比較画像36と図4の原画像33とのサイズを合わせて重ね合わせた場合に、原画像33における領域361と重なる領域は、駐車クラスの判別よりも空車クラスの判別により寄与する。比較画像36における白色の領域は、原画像33における空車クラスの判別よりも駐車クラスの判別により寄与する領域に対応する領域である。図9の例では、比較画像36と原画像33とのサイズを合わせて重ね合わせた場合に、原画像33における領域362と重なる領域は、空車クラスの判別よりも駐車クラスの判別により寄与する。比較画像36における灰色の領域は、原画像33における駐車クラスの判別、空車クラスの判別に対する寄与度が同じ領域に対応する領域である。図9の例では、比較画像36と原画像33とのサイズを合わせて重ね合わせた場合に、原画像33における領域363と重なる領域は、空車クラスの判別、駐車クラスの判別の何れにも寄与したと取れる領域である。 The black region in the comparative image 36 is a region corresponding to a region contributing to the discrimination of the empty vehicle class rather than the discrimination of the parking class in the original image 33. In the example of FIG. 9, when the comparative image 36 and the original image 33 of FIG. 4 are overlapped with each other in size, the area overlapping the area 361 in the original image 33 is determined by the empty vehicle class rather than the parking class. Contribute. The white region in the comparative image 36 is a region corresponding to a region contributing to the discrimination of the parking class rather than the discrimination of the empty vehicle class in the original image 33. In the example of FIG. 9, when the sizes of the comparative image 36 and the original image 33 are overlapped and overlapped, the region overlapping with the region 362 in the original image 33 contributes to the discrimination of the parking class rather than the discrimination of the empty vehicle class. The gray area in the comparative image 36 is an area corresponding to the area having the same contribution to the discrimination of the parking class and the discrimination of the empty vehicle class in the original image 33. In the example of FIG. 9, when the sizes of the comparative image 36 and the original image 33 are overlapped and overlapped, the area overlapping with the area 363 in the original image 33 contributes to both the determination of the empty vehicle class and the determination of the parking class. It is an area that can be taken as a result.

ユーザーは、このような比較画像36を視認することで、原画像33における各領域が何れのクラスの判別により寄与したかをより容易に把握できる。例えば、図9の比較画像36の場合、ユーザーは、黒色の領域361、白色の領域362、灰色の領域363を確認することで、空車クラスの判別により寄与した領域、駐車クラスの判別により寄与した領域、各クラスの判別への寄与度が同じ領域を把握できる。また、ユーザーは、比較画像36において、黒色の領域361が多く、空車クラスの判別により寄与する領域が多いことを直感的に把握できる。 By visually recognizing such a comparison image 36, the user can more easily grasp which class each region in the original image 33 contributes to. For example, in the case of the comparative image 36 of FIG. 9, the user confirmed the black region 361, the white region 362, and the gray region 363, thereby contributing to the determination of the empty vehicle class and the parking class. It is possible to grasp the area and the area with the same contribution to the discrimination of each class. Further, the user can intuitively understand that in the comparative image 36, there are many black regions 361 and many regions contribute to the determination of the empty vehicle class.

図3のフローチャートの説明に戻る。ステップS140において、制御部20は、表示制御部21eの機能により、ステップS135で導出した比較画像36を原画像33とステップS135で取得された評価画像35と並べて、表示部40に表示する。図10に、ステップS140で表示部40に表示される画面を示す。なお、制御部20は、比較画像36、評価画像35a、b、原画像33を同じサイズにリサイズして、表示する。制御部20は、評価画像35については、ヒートマップ画像として表示する。この際に、制御部20は、各クラスについてのヒートマップ画像の各画素値の規格化を行う。すなわち、複数の評価画像35における画素値が等しい画素は、同じ色で表されることとなる。 Returning to the explanation of the flowchart of FIG. In step S140, the control unit 20 displays the comparative image 36 derived in step S135 side by side with the original image 33 and the evaluation image 35 acquired in step S135 on the display unit 40 by the function of the display control unit 21e. FIG. 10 shows a screen displayed on the display unit 40 in step S140. The control unit 20 resizes the comparison image 36, the evaluation images 35a and b, and the original image 33 to the same size and displays them. The control unit 20 displays the evaluation image 35 as a heat map image. At this time, the control unit 20 normalizes each pixel value of the heat map image for each class. That is, the pixels having the same pixel value in the plurality of evaluation images 35 are represented by the same color.

これにより、ユーザーは、原画像33と同じサイズの比較画像36を視認することで、比較画像36における各領域が、原画像33におけるどの領域であるかをより容易に把握できる。結果として、ユーザーは、原画像におけるどの領域がどのクラスの判別により寄与したかを、より容易に把握できる。また、制御部20は、比較画像36を、原画像33と並べて表示してもよい。これにより、ユーザーは、原画像33と比較画像36とを見比べることができ、比較画像36における各領域が、原画像33におけるどの領域であるかをより容易に把握できる。 As a result, the user can more easily grasp which region in the original image 33 each region in the comparative image 36 is by visually recognizing the comparative image 36 having the same size as the original image 33. As a result, the user can more easily understand which region in the original image contributed to the discrimination of which class. Further, the control unit 20 may display the comparison image 36 side by side with the original image 33. As a result, the user can compare the original image 33 and the comparative image 36, and can more easily grasp which region in the original image 33 each region in the comparative image 36 is.

以上の構成により、情報処理装置10は、機械学習モデル32に入力される原画像33の領域が機械学習モデル32によるクラス判別に寄与した度合いを示す寄与度を、クラス毎に取得し、取得したクラス毎の寄与度の比較結果を示す比較画像36を導出する。これにより、原画像33の領域毎に、クラス毎のクラス判別の寄与度の比較結果を示す比較画像36を導出できる。この比較画像36がユーザーに提示されると、ユーザーは、原画像33の各領域がどのクラスの判別により寄与したかを容易に把握できる。すなわち、情報処理装置10は、このようなユーザーによる把握を支援することができる。
また、情報処理装置10は、導出した比較画像36を表示部40に表示することで、ユーザーは、比較画像36によって示される情報を、一見して把握することができる。
With the above configuration, the information processing apparatus 10 acquires and acquires the contribution degree indicating the degree to which the region of the original image 33 input to the machine learning model 32 contributes to the class discrimination by the machine learning model 32 for each class. A comparison image 36 showing the comparison result of the contribution of each class is derived. As a result, a comparative image 36 showing the comparison result of the contribution of the class discrimination for each class can be derived for each region of the original image 33. When the comparison image 36 is presented to the user, the user can easily grasp which class each region of the original image 33 contributes to. That is, the information processing apparatus 10 can support such grasping by the user.
Further, the information processing apparatus 10 displays the derived comparison image 36 on the display unit 40, so that the user can grasp the information shown by the comparison image 36 at a glance.

また、情報処理装置10は、比較画像36における位置(i、j)の画素を、評価画像35aの位置(i、j)の画素の画素値が評価画像35bの位置(i、j)の画素の画素値よりも大きい場合と、評価画像35aの位置(i、j)の画素の画素値が評価画像35bの位置(i、j)の画素の画素値よりも小さい場合と、で異なる色で着色するとした。これにより、情報処理装置10は、原画像33における各領域がどのクラスの判別により寄与するかを、ユーザーがより把握しやすいように比較画像36を表示できる。 Further, the information processing apparatus 10 has a pixel at the position (i, j) in the comparative image 36 and a pixel value of the pixel at the position (i, j) of the evaluation image 35a is a pixel at the position (i, j) of the evaluation image 35b. The pixel value of the pixel at the position (i, j) of the evaluation image 35a is smaller than the pixel value of the pixel at the position (i, j) of the evaluation image 35b. I decided to color it. As a result, the information processing apparatus 10 can display the comparative image 36 so that the user can more easily understand which class each region in the original image 33 contributes to.

また、情報処理装置10は、比較画像36における位置(i、j)の画素を、評価画像35aの位置(i、j)の画素の画素値と評価画像35bの位置(i、j)の画素の画素値とが等しい場合、既定の色で着色するとした。これにより、情報処理装置10は、原画像33におけるクラス判別への寄与度が各クラスについて等しい領域を、ユーザーがより把握しやすいように比較画像36を表示できる。 Further, the information processing apparatus 10 uses the pixels at the position (i, j) in the comparative image 36 as the pixel values of the pixels at the position (i, j) of the evaluation image 35a and the pixels at the position (i, j) of the evaluation image 35b. If the pixel value of is equal to, it is supposed to be colored with the default color. As a result, the information processing apparatus 10 can display the comparative image 36 so that the user can more easily grasp the region in which the contribution to the class discrimination in the original image 33 is the same for each class.

また、従来、Grad-CAMを用いて、ヒートマップを表示する場合、以下のような問題があった。各クラスについてヒートマップの各画素値の規格化が行われ、規格化によってヒートマップにおける際立たせたい領域が目立たなくなるという問題である。ヒートマップの各画素値の規格化が行われると、複数のヒートマップにおける画素値が等しい画素は、同じ色で表されることとなる。この規格化により、一部の領域の画素値が他の領域よりも極端に大きくなる場合がある。このような場合、この一部の領域のみが明るい色で表示され、他の領域が暗い色で表示される。こうなると、他の領域においてもクラス判別の判断根拠となる領域が含まれる場合であっても、その領域が目立たなくなる。 Further, conventionally, when displaying a heat map using Grad-CAM, there are the following problems. The problem is that each pixel value of the heat map is standardized for each class, and the standardization makes the area to be emphasized in the heat map inconspicuous. When the pixel values of the heat maps are standardized, the pixels having the same pixel values in the plurality of heat maps are represented by the same color. Due to this standardization, the pixel value in some areas may be extremely larger than in other areas. In such a case, only a part of this area is displayed in a light color, and the other area is displayed in a dark color. In this case, even if an area that is a basis for determining the class is included in other areas, that area becomes inconspicuous.

駐車クラスの評価画像35aにおける領域701は、空車クラスの評価画像35の各領域、駐車クラスの評価画像における他の領域よりも極端に大きい画素値となっている領域である。そのため、原画像33は、空車状態の画像であるにも関わらず、図6、10に示すように、空車クラスについての評価画像35aのヒートマップ画像は、全体的に暗い色で表されている。すなわち、Grad-CAMの数値を同じ条件で評価するために、各クラスについてのヒートマップを正規化して表現することで、空車クラスの判定に大きく貢献した箇所が埋もれてしまう。結果として、空車クラスの判別の根拠となった領域の把握が困難となる。
対して、本実施形態の情報処理装置10が導出する比較画像36は、領域毎の各クラスの判別に対する寄与度の比較結果から得られるため、クラス判別の根拠となった領域に対応する部分を示せないという事態は生じにくい。すなわち、情報処理装置10は、クラスの判別の根拠となった領域の把握が困難となる可能性を低減できる。
また、Grad-CAMにおけるヒートマップでは、クラス判別に寄与した領域のうち、画素値(寄与の度合い)が比較的大きい画素が明るい色で表示され、他の画素は暗めの色で表示される。すなわち、寄与の度合いが比較的大きいものしか目立たない。対して、本実施形態の手法では、クラス判別に寄与した判定に貢献した領域を、寄与の度合いの大きさに関係なく示すことができる。
The area 701 in the parking class evaluation image 35a is an area having an extremely large pixel value than each area of the empty vehicle class evaluation image 35 and the other areas in the parking class evaluation image. Therefore, although the original image 33 is an image of an empty vehicle state, as shown in FIGS. 6 and 10, the heat map image of the evaluation image 35a for the empty vehicle class is represented in a dark color as a whole. .. That is, in order to evaluate the numerical value of the Grad-CAM under the same conditions, the heat map for each class is normalized and expressed, so that the part that greatly contributes to the determination of the empty car class is buried. As a result, it becomes difficult to grasp the area that is the basis for determining the empty vehicle class.
On the other hand, since the comparison image 36 derived by the information processing apparatus 10 of the present embodiment is obtained from the comparison result of the degree of contribution to the discrimination of each class for each region, the portion corresponding to the region that is the basis of the class discrimination is provided. It is unlikely that you will not be able to show it. That is, the information processing apparatus 10 can reduce the possibility that it becomes difficult to grasp the region that is the basis for class discrimination.
Further, in the heat map in Grad-CAM, among the regions that contributed to the class discrimination, the pixels having a relatively large pixel value (degree of contribution) are displayed in a bright color, and the other pixels are displayed in a dark color. That is, only those with a relatively large degree of contribution are conspicuous. On the other hand, in the method of the present embodiment, the region that contributed to the determination that contributed to the class discrimination can be shown regardless of the degree of contribution.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、機械学習モデルに入力される画像の領域が前記機械学習モデルによるクラス判別に寄与した度合いを示す寄与度を、クラス毎に取得し、クラス毎の寄与度の比較結果を示す比較情報を導出する限りにおいて、他にも種々の実施形態を採用可能である。例えば、機械学習モデルを学習する機能を、外部の装置が備えていてもよい。また、導出された比較画像を表示する機能を、外部の装置が備えていてもよい。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and the contribution degree indicating the degree to which the region of the image input to the machine learning model contributes to the class discrimination by the machine learning model is acquired for each class. Various other embodiments can be adopted as long as the comparison information indicating the comparison result of the contribution of each class is derived. For example, an external device may have a function of learning a machine learning model. Further, the external device may have a function of displaying the derived comparative image.

上述の実施形態では、制御部20は、ステップS215において、ステップS210での比較結果に応じて、空車クラスについての画素値>駐車クラスについての画素値となる場合に、第1の色で対応する画素を着色することとした。ただし、制御部20は、空車クラスについての画素値>駐車クラスについての画素値となる場合であっても、空車クラスについての画素値と駐車クラスについての画素値との差分の大きさに応じて、対応する画素を異なる色で着色してもよい。例えば、制御部20は、(空車クラスについての画素値-駐車クラスについての画素値)が、既定の閾値以上となる場合、赤色で着色し、(空車クラスについての画素値-駐車クラスについての画素値)が、既定の閾値未満となる場合、桃色で着色してもよい。また、制御部20は、(空車クラスについての画素値-駐車クラスについての画素値)の値の大きさに応じた濃度で、着色するようにしてもよい。 In the above-described embodiment, in step S215, when the pixel value for the empty vehicle class> the pixel value for the parking class is satisfied according to the comparison result in step S210, the control unit 20 corresponds to the first color. I decided to color the pixels. However, even if the pixel value for the empty car class> the pixel value for the parking class, the control unit 20 responds to the size of the difference between the pixel value for the empty car class and the pixel value for the parking class. , The corresponding pixels may be colored with different colors. For example, when the (pixel value for the empty car class-pixel value for the parking class) becomes equal to or higher than the predetermined threshold value, the control unit 20 colors the image in red and (pixel value for the empty car class-pixel value for the parking class). If the value) is less than the default threshold, it may be colored pink. Further, the control unit 20 may be colored with a density corresponding to the magnitude of the value (pixel value for the empty car class-pixel value for the parking class).

また、上述の実施形態では、制御部20は、ステップS215において、ステップS210での比較結果に応じて、空車クラスについての画素値<駐車クラスについての画素値となる場合に、第2の色で対応する画素を着色することとした。ただし、制御部20は、空車クラスについての画素値<駐車クラスについての画素値となる場合であっても、駐車クラスについての画素値と空車クラスについての画素値との差分の大きさに応じて、対応する画素を異なる色で着色してもよい。例えば、制御部20は、(駐車クラスについての画素値-空車クラスについての画素値)が、既定の閾値以上となる場合、青色で着色し、(駐車クラスについての画素値-空車クラスについての画素値)が、既定の閾値未満となる場合、水色で着色してもよい。また、制御部20は、(駐車クラスについての画素値-空車クラスについての画素値)の値の大きさに応じた濃度で、着色するようにしてもよい。 Further, in the above-described embodiment, in step S215, the control unit 20 uses the second color when the pixel value for the empty vehicle class <the pixel value for the parking class is satisfied according to the comparison result in step S210. We decided to color the corresponding pixels. However, even if the pixel value for the empty car class is less than the pixel value for the parking class, the control unit 20 responds to the size of the difference between the pixel value for the parking class and the pixel value for the empty car class. , The corresponding pixels may be colored with different colors. For example, the control unit 20 is colored in blue when (pixel value for parking class-pixel value for empty car class) is equal to or higher than a predetermined threshold value, and (pixel value for parking class-pixel value for empty car class). If the value) is less than the default threshold, it may be colored in light blue. Further, the control unit 20 may be colored with a density corresponding to the magnitude of the value (pixel value for the parking class-pixel value for the empty car class).

また、上述の実施形態では、制御部20は、ステップS210において、空車クラスについての画素値と駐車クラスについての画素値とを比較する。そして、制御部20は、比較結果として、車クラスについての画素値と駐車クラスについての画素値との関係が、(空車クラスについての画素値>駐車クラスについての画素値)、(空車クラスについての画素値<駐車クラスについての画素値)、(空車クラスについての画素値=駐車クラスについての画素値)の何れであるかを特定した。ただし、制御部20は、ステップS210において、空車クラスについての画素値と駐車クラスについての画素値との関係として、(空車クラスについての画素値>(駐車クラスについての画素値+既定の閾値))、((空車クラスについての画素値+既定の閾値)<駐車クラスについての画素値)、(|空車クラスについての画素値-駐車クラスについての画素値|≦既定の閾値)の何れであるかを特定してもよい。その場合、制御部20は、ステップS215で、(空車クラスについての画素値>(駐車クラスについての画素値+既定の閾値))、((空車クラスについての画素値+既定の閾値)<駐車クラスについての画素値)、(|空車クラスについての画素値-駐車クラスについての画素値|<=既定の閾値)のそれぞれの場合で、異なる色で対応する画素を着色するようにしてもよい。 Further, in the above-described embodiment, the control unit 20 compares the pixel value for the empty vehicle class with the pixel value for the parking class in step S210. Then, as a comparison result, the control unit 20 determines that the relationship between the pixel value for the vehicle class and the pixel value for the parking class is (pixel value for the empty vehicle class> pixel value for the parking class) and (pixel value for the empty vehicle class). It was specified whether the pixel value <pixel value for the parking class) or (pixel value for the empty car class = pixel value for the parking class). However, in step S210, the control unit 20 determines that the relationship between the pixel value for the empty vehicle class and the pixel value for the parking class is (pixel value for the empty vehicle class> (pixel value for the parking class + default threshold value)). , ((Pixel value for empty car class + default threshold) <pixel value for parking class), (| Pixel value for empty car class-pixel value for parking class | ≤ default threshold) You may specify. In that case, in step S215, the control unit 20 has (pixel value for empty car class> (pixel value for parking class + default threshold value)), ((pixel value for empty car class + default threshold value) <parking class. Pixel value for) and (| Pixel value for empty car class-Pixel value for parking class | <= Default threshold value), the corresponding pixels may be colored with different colors.

また、上述の実施形態では、制御部20は、ステップS215において、ステップS210での比較結果に応じて、(空車クラスについての画素値=駐車クラスについての画素値)となる場合に、第3の色で対応する画素を着色することとした。ただし、制御部20は、(空車クラスについての画素値=駐車クラスについての画素値)となる場合には、対応する画素の着色を行わないこととしてもよい。例えば、制御部20は、(空車クラスについての画素値=駐車クラスについての画素値)となる場合には、対応する画素を透明に設定したり、Null値を設定したりしてもよい。 Further, in the above-described embodiment, when the control unit 20 becomes (pixel value for empty vehicle class = pixel value for parking class) in step S215 according to the comparison result in step S210, a third We decided to color the corresponding pixels with color. However, when the control unit 20 (pixel value for empty vehicle class = pixel value for parking class), the control unit 20 may not color the corresponding pixel. For example, when the control unit 20 has (pixel value for empty vehicle class = pixel value for parking class), the corresponding pixel may be set to be transparent or a Null value may be set.

また、上述の実施形態では、機械学習モデル32は、駐車されているか否かに関するクラス(空車クラス、駐車クラス)の判別に用いられるモデルである。しかし、機械学習モデルによるクラス分類対象はこの例に限定されない。例えば、機械学習モデル32は、他の種類のクラスの判別に用いられるモデルであってもよい。具体的には、例えば、機械学習モデル32は、入力画像のクラスが、犬であることを示す犬クラスと、猫であることを示す猫クラスと、の何れであるかを判別するモデルであってもよい。 Further, in the above-described embodiment, the machine learning model 32 is a model used for discriminating a class (empty car class, parking class) regarding whether or not the vehicle is parked. However, the classification target by the machine learning model is not limited to this example. For example, the machine learning model 32 may be a model used for discriminating other types of classes. Specifically, for example, the machine learning model 32 is a model for determining whether the class of the input image is a dog class indicating that it is a dog or a cat class indicating that it is a cat. You may.

また、上述の実施形態では、機械学習モデル32は、入力された画像が、2つのクラスのうちの何れに属するかを判別するモデルである。しかし、モデルにおける出力の態様はこのような態様に限定されない。例えば、機械学習モデル32は、入力された画像が、3つ以上のクラスのうちの何れに属するかを判別するモデルであってもよい。具体的には、例えば、機械学習モデル32は、入力された画像が、3つのクラスのうちの何れに属するかを判別するモデルであってもよい。この場合、情報処理装置10は、例えば、ステップS105~ステップS130の処理により、3つのクラス(クラスA、クラスB、クラスCとおく)それぞれについての評価画像35を取得してもよい。 Further, in the above-described embodiment, the machine learning model 32 is a model for determining which of the two classes the input image belongs to. However, the mode of output in the model is not limited to such a mode. For example, the machine learning model 32 may be a model for determining which of the three or more classes the input image belongs to. Specifically, for example, the machine learning model 32 may be a model for determining which of the three classes the input image belongs to. In this case, the information processing apparatus 10 may acquire the evaluation image 35 for each of the three classes (class A, class B, and class C) by processing steps S105 to S130, for example.

そして、制御部20は、ステップS210で、3つのクラスそれぞれについての評価画像35における位置(i、j)の画素の画素値の比較を行い、比較結果に応じて、ステップS215で比較画像36の位置(i、j)の画素の着色を行ってもよい。例えば、制御部20は、クラスAについての画素値が最も大きい場合と、クラスBについての画素値が最も大きい場合と、クラスCについての画素値が最も大きい場合と、クラスA~Cそれぞれについての画素値が等しい場合とで、それぞれ異なる色で着色してもよい。また、例えば、制御部20は、(クラスAについての画素値>クラスBについての画素値>クラスCについての画素値)の場合、(クラスAについての画素値>クラスCについての画素値>クラスBについての画素値)の場合、(クラスBについての画素値>クラスAについての画素値>クラスCについての画素値)の場合、(クラスBについての画素値>クラスCについての画素値>クラスAについての画素値)の場合、(クラスCについての画素値>クラスAについての画素値>クラスBについての画素値)の場合、(クラスCについての画素値>クラスBについての画素値>クラスAについての画素値)の場合、(クラスCについての画素値=クラスAについての画素値=クラスBについての画素値)の場合等の大小関係に応じて、それぞれ異なる色で着色してもよい。 Then, the control unit 20 compares the pixel values of the pixels at the positions (i, j) in the evaluation image 35 for each of the three classes in step S210, and according to the comparison result, in step S215, the comparison image 36 The pixel at the position (i, j) may be colored. For example, the control unit 20 has a case where the pixel value for the class A is the largest, a case where the pixel value for the class B is the largest, a case where the pixel value for the class C is the largest, and each of the classes A to C. Coloring may be performed with different colors depending on whether the pixel values are the same. Further, for example, in the case of (pixel value for class A> pixel value for class B> pixel value for class C), the control unit 20 may (pixel value for class A> pixel value for class C> class). In the case of (pixel value for B), (pixel value for class B> pixel value for class A> pixel value for class C), (pixel value for class B> pixel value for class C> class In the case of (pixel value for A), (pixel value for class C> pixel value for class A> pixel value for class B), (pixel value for class C> pixel value for class B> class In the case of (pixel value for A), different colors may be used depending on the magnitude relationship such as (pixel value for class C = pixel value for class A = pixel value for class B). ..

また、上述の実施形態では、制御部20は、導出部21dの機能により、比較画像36を導出する。しかし、比較結果の出力態様は比較画像による出力に限定されない。例えば、制御部20は、導出部21dの機能により、2つのクラスの一方のクラスの判別に対する寄与度が他方のクラスの判別に対する寄与度よりも大きい原画像33の領域、一方のクラスの判別に対する寄与度が他方のクラスの判別に対する寄与度よりも小さい原画像33の領域、一方のクラスの判別に対する寄与度が他方のクラスの判別に対する寄与度と等しい原画像33の領域それぞれの存在割合を示す情報を導出してもよい。 Further, in the above-described embodiment, the control unit 20 derives the comparative image 36 by the function of the derivation unit 21d. However, the output mode of the comparison result is not limited to the output by the comparison image. For example, the control unit 20 may use the function of the derivation unit 21d to control the area of the original image 33 in which the contribution to the discrimination of one class of the two classes is larger than the contribution to the discrimination of the other class, and the discrimination of one class. Shows the abundance ratio of each region of the original image 33 whose contribution is smaller than the contribution to the discrimination of the other class, and the region of the original image 33 whose contribution to the discrimination of one class is equal to the contribution to the discrimination of the other class. Information may be derived.

より具体的には、制御部20は、比較画像36のうち第1の色で着色された領域と、第2の色で着色された領域と、第3の色で着色された領域と、の比較画像36における存在割合を特定してもよい。そして、制御部20は、特定した割合を示す情報(例えば、テキスト情報、グラフ(例えば、棒グラフ・円グラフ等)情報等)を導出してもよい。そして、制御部20は、表示制御部21eとして、導出された情報を表示部40に表示してもよい。これにより、ユーザーは、空車クラスの判別により寄与した領域、駐車クラスの判別により寄与した領域、空車クラスの判別と駐車クラスの判別に同程度に寄与した領域それぞれがどの程度の割合で存在するかをより容易に把握できる。 More specifically, the control unit 20 includes a region of the comparative image 36 colored with the first color, a region colored with the second color, and a region colored with the third color. The abundance ratio in the comparative image 36 may be specified. Then, the control unit 20 may derive information indicating the specified ratio (for example, text information, graph (for example, bar graph, pie chart, etc.) information, etc.). Then, the control unit 20 may display the derived information on the display unit 40 as the display control unit 21e. As a result, the user can determine the proportion of each of the areas that contributed by the discrimination of the empty car class, the areas that contributed by the discrimination of the parking class, and the areas that contributed to the discrimination of the empty car class and the parking class to the same extent. Can be grasped more easily.

また、上述の実施形態では、制御部20は、原画像33の各領域の選択クラスの判別への寄与度を示す情報として、Grad-CAMと同様の手法で、畳込み層の最終層である層Lにおける特徴マップにおける各チャネルを合成した評価画像35を取得することとした。ただし、制御部20は、原画像33の各領域の選択クラスの判別への寄与度を示す情報として、他の情報を取得してもよい。例えば、制御部20は、選択クラスの判別への寄与度を示す情報として、CAM(Class Activation Mapping)の手法で得られる画像を取得してもよい。 Further, in the above-described embodiment, the control unit 20 is the final layer of the convolution layer by the same method as the Grad-CAM as information indicating the degree of contribution to the discrimination of the selection class of each region of the original image 33. It was decided to acquire an evaluation image 35 in which each channel in the feature map in the layer Lm was synthesized. However, the control unit 20 may acquire other information as information indicating the degree of contribution to the determination of the selection class of each region of the original image 33. For example, the control unit 20 may acquire an image obtained by a method of CAM (Class Activation Mapping) as information indicating the degree of contribution to the discrimination of the selection class.

また、例えば、制御部20は、畳込み層の中間層における特徴マップから、各画素がクラス判別への寄与度を示す評価画像35を取得してもよい。例えば、制御部20は、畳込み層の最終層である層Lにおける特徴マップの代わりに、畳込み層の中間層(層Lよりも入力側に近い層)を層Lとして、層Lおける特徴マップを用いて、上述の実施形態と同様の処理を行うこととしてもよい。その場合、制御部20は、Wm、Hmの代わりに、層Lにおける特徴マップの横サイズ、縦サイズを用いる。この場合も、制御部20は、比較画像36を入力される原画像33と同じサイズになるようにリサイズしてもよい。 Further, for example, the control unit 20 may acquire an evaluation image 35 showing the degree of contribution of each pixel to class discrimination from the feature map in the intermediate layer of the convolutional layer. For example, the control unit 20 uses the intermediate layer of the convolutional layer (the layer closer to the input side than the layer L m ) as the layer L l instead of the feature map in the layer L m which is the final layer of the convolutional layer. The same processing as in the above-described embodiment may be performed using the feature map in L l . In that case, the control unit 20 uses the horizontal size and the vertical size of the feature map in the layer L l instead of Wm and Hm. In this case as well, the control unit 20 may resize the comparison image 36 so that it has the same size as the input original image 33.

また、上述の実施形態では、制御部20は、原画像33の各領域の選択クラスの判別への寄与度を示す情報、クラス毎の寄与度の比較結果を示す比較情報を、評価画像35、比較画像36として画像の形式で求めた。ただし、制御部20は、これらの情報を、画像と異なる形式の情報(例えば、csvデータ、配列データ、テキストデータ等)として求めてもよい。 Further, in the above-described embodiment, the control unit 20 provides information indicating the contribution of each region of the original image 33 to the discrimination of the selected class, and comparative information indicating the comparison result of the contribution of each class, to the evaluation image 35. It was obtained in the form of an image as a comparative image 36. However, the control unit 20 may obtain these information as information in a format different from that of the image (for example, csv data, array data, text data, etc.).

寄与度は、機械学習モデルに入力される入力画像の領域が前記機械学習モデルによるクラス判別に寄与した度合いであればよい。従って、寄与度は、機械学習モデルにおける出力層のクラスに対応するノード値への影響の大きさを示す指標であってよく、他にも種々の定義を利用可能である。例えば、画像を複数の領域に分けた場合の当該領域毎の勾配値の平均であってもよい。
導出部は、クラス毎の寄与度の比較結果として、クラス毎の寄与度の比較により得られる情報を導出すればよい。例えば、導出部は、クラス毎の寄与度の大小関係を示す情報を導出してもよいし、クラス毎、領域毎の寄与度の差分を示す情報を導出してもよい。
第1の色、第2の色、第3の色は、それぞれ異なる色であればよい。例えば、第1の色、第2の色、第3の色は、それぞれ見分けやすい色(例えば、彩度、明度、色相の違いが顕著な色)であればよい。
The degree of contribution may be any degree as long as the region of the input image input to the machine learning model contributes to the class discrimination by the machine learning model. Therefore, the degree of contribution may be an index indicating the magnitude of the influence on the node value corresponding to the class of the output layer in the machine learning model, and various other definitions can be used. For example, it may be the average of the gradient values for each region when the image is divided into a plurality of regions.
The derivation unit may derive the information obtained by comparing the contributions of each class as the comparison result of the contributions of each class. For example, the derivation unit may derive information indicating the magnitude relationship of the contributions of each class, or may derive information indicating the difference of the contributions of each class and each region.
The first color, the second color, and the third color may be different colors. For example, the first color, the second color, and the third color may be colors that are easily distinguishable from each other (for example, colors having a remarkable difference in saturation, lightness, and hue).

さらに、本発明の手法は、プログラムや方法としても適用可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、装置を制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし半導体メモリであってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。 Further, the method of the present invention can be applied as a program or a method. In addition, some of them are software and some of them are hardware, so they can be changed as appropriate. Further, the invention is also established as a recording medium for a program for controlling an apparatus. Of course, the recording medium of the software may be a magnetic recording medium or a semiconductor memory, and any recording medium developed in the future can be considered in exactly the same way.

10…情報処理装置、20…制御部、21…導出プログラム、21a…学習部、21b…判別部、21c…取得部、21d…導出部、21e…表示制御部、30…記録媒体、31…教師データ、32…機械学習モデル、33…原画像、34…判定基準データ、35…評価画像、36…比較画像、40…表示部 10 ... Information processing device, 20 ... Control unit, 21 ... Derivation program, 21a ... Learning unit, 21b ... Discrimination unit, 21c ... Acquisition unit, 21d ... Derivation unit, 21e ... Display control unit, 30 ... Recording medium, 31 ... Teacher Data, 32 ... Machine learning model, 33 ... Original image, 34 ... Judgment standard data, 35 ... Evaluation image, 36 ... Comparison image, 40 ... Display unit

Claims (8)

機械学習モデルに入力される入力画像の領域が前記機械学習モデルによるクラス判別に寄与した度合いを示す寄与度を、クラス毎に取得する取得部と、
前記取得部により取得されるクラス毎の寄与度の比較結果を示す比較情報を導出する導出部と、
を備える情報処理装置。
An acquisition unit that acquires the degree of contribution indicating the degree to which the area of the input image input to the machine learning model contributes to the class discrimination by the machine learning model for each class.
A derivation unit that derives comparison information indicating the comparison result of the contribution of each class acquired by the acquisition unit, and a derivation unit.
Information processing device equipped with.
前記導出部により導出される前記比較情報を表示する表示制御部をさらに備える請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a display control unit that displays the comparison information derived by the derivation unit. 前記取得部は、Grad-CAMで導出される画像の各画素値を、前記寄与度として取得する請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the acquisition unit acquires each pixel value of an image derived by Grad-CAM as the contribution degree. 前記機械学習モデルは、前記入力画像が、空車の画像であることを示す空車クラスと駐車の画像であることを示す駐車クラスとの2つのクラスの何れであるかの判別に用いられ、
前記導出部は、前記空車クラスの判別に対する前記寄与度が前記駐車クラスの判別に対する前記寄与度よりも大きい前記入力画像の領域に対応する部分を第1の色、前記空車クラスの判別に対する前記寄与度が前記駐車クラスの判別に対する前記寄与度よりも大きい前記入力画像の領域に対応する部分を第2の色に着色した画像を前記比較情報として導出する請求項1~3のいずれか1項に記載の情報処理装置。
The machine learning model is used to determine whether the input image is one of two classes, an empty car class indicating that it is an image of an empty car and a parking class indicating that it is an image of parking.
The derivation unit has a portion corresponding to the region of the input image in which the contribution to the discrimination of the empty vehicle class is larger than the contribution to the discrimination of the parking class as the first color, and the contribution to the discrimination of the empty vehicle class. In any one of claims 1 to 3, an image in which a portion corresponding to a region of the input image having a degree larger than the contribution to the discrimination of the parking class is colored in a second color is derived as the comparative information. The information processing device described.
前記導出部は、前記空車クラスの判別に対する前記寄与度が前記駐車クラスの判別に対する前記寄与度と等しい前記入力画像の領域に対応する部分を第3の色に着色した前記画像を前記比較情報として導出する請求項4に記載の情報処理装置。 The derivation unit uses the image in which the portion corresponding to the region of the input image whose contribution to the discrimination of the empty vehicle class is equal to the contribution to the discrimination of the parking class is colored in a third color as the comparison information. The information processing apparatus according to claim 4 to be derived. 前記機械学習モデルは、前記入力画像が、2つのクラスの何れであるかの判別に用いられ、
前記導出部は、さらに、一方のクラスの判別に対する前記寄与度が他方のクラスの判別に対する前記寄与度よりも大きい前記入力画像の領域、前記他方のクラスの判別に対する前記寄与度が前記一方のクラスの判別に対する前記寄与度よりも小さい前記入力画像の領域、前記一方のクラスの判別に対する前記寄与度が前記他方のクラスの判別に対する前記寄与度と等しい前記入力画像の領域それぞれの存在割合を示す情報を導出する請求項1~5のいずれか1項に記載の情報処理装置。
The machine learning model is used to determine which of the two classes the input image belongs to.
The derivation unit further includes a region of the input image in which the contribution to the discrimination of one class is larger than the contribution to the discrimination of the other class, and the contribution to the discrimination of the other class is the one class. Information indicating the abundance ratio of each of the region of the input image that is smaller than the contribution to the discrimination of the input image and the region of the input image whose contribution to the discrimination of one class is equal to the contribution to the discrimination of the other class. The information processing apparatus according to any one of claims 1 to 5.
情報処理装置が実行する情報処理方法であって、
機械学習モデルに入力される入力画像の領域が前記機械学習モデルによるクラス判別に寄与した度合いを示す寄与度を、クラス毎に取得するステップと、
取得されたクラス毎の寄与度の比較結果を示す比較情報を導出するステップと、
を含む情報処理方法。
It is an information processing method executed by an information processing device.
A step of acquiring the degree of contribution indicating the degree to which the area of the input image input to the machine learning model contributes to the class discrimination by the machine learning model for each class, and
A step to derive comparison information showing the comparison result of the acquired contribution of each class, and
Information processing methods including.
コンピュータを、
機械学習モデルに入力される入力画像の領域が前記機械学習モデルによるクラス判別に寄与した度合いを示す寄与度を、クラス毎に取得する取得部、
前記取得部により取得されるクラス毎の寄与度の比較結果を示す比較情報を導出する導出部、
として機能させるプログラム。
Computer,
An acquisition unit that acquires the degree of contribution indicating the degree to which the area of the input image input to the machine learning model contributes to the class discrimination by the machine learning model for each class.
A derivation unit that derives comparison information indicating the comparison result of the contribution of each class acquired by the acquisition unit.
A program that functions as.
JP2020213408A 2020-12-23 2020-12-23 Information processing device, information processing method, and program Active JP7461866B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020213408A JP7461866B2 (en) 2020-12-23 2020-12-23 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020213408A JP7461866B2 (en) 2020-12-23 2020-12-23 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022099572A true JP2022099572A (en) 2022-07-05
JP7461866B2 JP7461866B2 (en) 2024-04-04

Family

ID=82269917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020213408A Active JP7461866B2 (en) 2020-12-23 2020-12-23 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7461866B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090054A1 (en) * 2022-10-28 2024-05-02 パナソニックIpマネジメント株式会社 Image processing method, program, and image processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5361576B2 (en) 2009-07-02 2013-12-04 公立大学法人大阪府立大学 Vehicle detection system and detection method in parking lot
CN112367896A (en) 2018-07-09 2021-02-12 富士胶片株式会社 Medical image processing apparatus, medical image processing system, medical image processing method, and program
WO2020245954A1 (en) 2019-06-05 2020-12-10 三菱電機株式会社 Information processing device and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090054A1 (en) * 2022-10-28 2024-05-02 パナソニックIpマネジメント株式会社 Image processing method, program, and image processing device

Also Published As

Publication number Publication date
JP7461866B2 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
US10430707B2 (en) Information processing device
US8139852B2 (en) Color classification method, color recognition method, color classification apparatus, color recognition apparatus, color recognition system, computer program, and recording medium
CN105243667B (en) The recognition methods again of target based on Local Feature Fusion
CN110198437A (en) Processing method, device, storage medium and the electronic device of image
AU2015201623A1 (en) Choosing optimal images with preference distributions
CN113822951B (en) Image processing method, device, electronic equipment and storage medium
CN112991371B (en) Automatic image coloring method and system based on coloring overflow constraint
CN112489143A (en) Color identification method, device, equipment and storage medium
CN102088539B (en) Method and system for evaluating pre-shot picture quality
CN110738132A (en) target detection quality blind evaluation method with discriminant perception capability
JP2022099572A (en) Information processor, information processing method and program
Li et al. Color vision deficiency datasets & recoloring evaluation using GANs
CN109740527B (en) Image processing method in video frame
KR102438076B1 (en) Method and apparatus for detecting parking area
JP7362924B2 (en) Data augmentation-based spatial analysis model learning device and method
US11687782B2 (en) Systems and methods for recognition of user-provided images
KR20210089044A (en) Method of selecting training data for object detection and object detection device for detecting object using object detection model trained using method
KR20200125131A (en) Methdo and system for measuring image thickness based on artificial intelligence
KR102563621B1 (en) Artificial intelligence-based tooth shade diagnostic system and operation method therefor
JP7467247B2 (en) Image processing device, image processing method, and program
KR102591594B1 (en) Method and apparatus for correcting a colored image using an artificial neural network
CN116883414B (en) Multi-system data selection method and system suitable for operation and maintenance of power transmission line
CN111080743B (en) Character drawing method and device for connecting head and limb characteristic points
CN110781904B (en) Vehicle color recognition method and device, computer equipment and readable storage medium
CN109727218B (en) Complete graph extraction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7461866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150