JP7383684B2 - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP7383684B2 JP7383684B2 JP2021199409A JP2021199409A JP7383684B2 JP 7383684 B2 JP7383684 B2 JP 7383684B2 JP 2021199409 A JP2021199409 A JP 2021199409A JP 2021199409 A JP2021199409 A JP 2021199409A JP 7383684 B2 JP7383684 B2 JP 7383684B2
- Authority
- JP
- Japan
- Prior art keywords
- processing
- image
- information processing
- processed
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 35
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims description 109
- 238000000034 method Methods 0.000 claims description 66
- 230000006870 function Effects 0.000 claims description 3
- 230000000052 comparative effect Effects 0.000 claims 1
- 238000011156 evaluation Methods 0.000 description 38
- 238000004458 analytical method Methods 0.000 description 14
- 238000012217 deletion Methods 0.000 description 10
- 230000037430 deletion Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理方法、並びにプログラムに関し、特に、画像分類AIを再学習させる情報処理装置、情報処理方法、並びにプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program, and particularly to an information processing device, an information processing method, and a program for relearning image classification AI.
従来より、精度の高い画像分類AIを生成するために、入力画像を学習データとして用いて画像分類AIの再学習を行い、その再学習によって生成されたモデルを検証するということを繰り返すことが行われている。また、再学習の際には、検証結果に基づいて精度向上に必要な学習データを見極め、用意する必要があり、既存の画像に加工を施すことで学習データとすることも行われている。 Conventionally, in order to generate highly accurate image classification AI, it has been necessary to repeatedly retrain the image classification AI using input images as training data and then verify the model generated by the relearning. It is being said. In addition, when relearning, it is necessary to identify and prepare learning data necessary to improve accuracy based on the verification results, and existing images are sometimes processed to be used as learning data.
画像分類AIの性能を向上させるため学習データとして用いる入力画像に加工を施す手法として、入力画像の一部を隠すように他の値で置き換える手法が提案されている。 As a method of processing input images used as learning data to improve the performance of image classification AI, a method of replacing a part of the input image with other values so as to hide it has been proposed.
非特許文献1には、入力画像内のランダムな位置を、大きさと値がランダムな矩形で置き換えることが記載されている。
Non-Patent
非特許文献2には、入力画像内のランダムな位置を中心として、正方形領域を0で置き換えることが記載されている。 Non-Patent Document 2 describes replacing square areas with 0 centered at random positions in an input image.
非特許文献1,2に記載の技術では、学習データとして用いる入力画像に施す加工位置がランダムであるため、入力画像における、画像分類AIの性能向上に寄与しそうな領域が分かっていても、その領域を指定してピンポイントで加工することができない。
In the techniques described in
そこで、本発明では、画像分類AIの精度向上に資する学習データを効率的に生成することができる情報処理装置、情報処理方法、並びにプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing method, and a program that can efficiently generate learning data that contributes to improving the accuracy of image classification AI.
上記課題を解決するため、本発明に係る情報処理装置は、学習済みモデルによる予測ラベルの出力処理の対象となる複数の入力画像のうち、加工を施す対象の画像を受け付ける加工受付手段と、前記学習済みモデルの予測根拠となった特徴領域を取得する取得手段と、前記加工受付手段により加工を施す対象の画像として受け付けた画像であって、第1の確率で選択された画像に対して、前記特徴領域の少なくとも一部のピクセルの値を、第1の所定値に置換する第1の加工処理を行い、前記複数の入力画像のうち、前記加工受付手段により加工を施す対象の画像として受け付けていない画像であって、第2の確率で選択された画像に対して、当該画像の一部のピクセルの値を、第2の所定値に置換する第2の加工処理を行う処理手段と、前記第1及び第2の加工処理が行われた画像を用いて、学習済みモデルの再学習を行うための学習データを更新する更新手段と、を備えることを特徴とする。 In order to solve the above problems, an information processing apparatus according to the present invention includes a processing reception means for receiving an image to be processed from among a plurality of input images to be processed for outputting a predicted label by a trained model ; an acquisition means for acquiring a feature region that is the basis for prediction of the learned model; and an image accepted as an image to be processed by the processing reception means , and selected with a first probability ; Performing a first processing process to replace the values of at least some pixels in the characteristic region with a first predetermined value, and accepting the image as a target image to be processed by the processing receiving means among the plurality of input images. processing means for performing a second processing process for replacing the values of some pixels of the image with a second predetermined value on an image that is not selected with a second probability; The present invention is characterized by comprising an update unit that updates learning data for relearning a trained model using images subjected to the first and second processing.
本発明によれば、画像分類AIの精度向上に資する学習データを効率的に生成することができる。 According to the present invention, learning data that contributes to improving the accuracy of image classification AI can be efficiently generated.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.
図1は、本発明の実施形態に係る情報処理装置101を含むAI予測根拠表示システム1のシステム構成の一例を示す図である。
FIG. 1 is a diagram showing an example of the system configuration of an AI prediction
AI予測根拠表示システム1は、情報処理装置101と、外部装置102とを備え、これらがネットワーク110を介して通信可能に接続されたシステムである。
The AI prediction
情報処理装置101は、ユーザにより操作される装置であり、後述する再学習/評価処理(図3)の処理対象となる入力画像やこれに紐づくデータを結果分析画面(図4)に表示すると共に、ユーザによるこの画面上の各種ボタンの押下を受け付ける。
The
外部装置102は、上記再学習/評価処理の処理対象となる入力画像やこれに紐づくデータの管理などを行う。
The
尚、本発明の実施形態においては、情報処理装置101が図3のフローチャートで示す処理を実行するものとして説明するが、外部装置102が実行する形態であってもよい。また、処理対象の画像の管理など、外部装置102で行うものとして説明した処理について、情報処理装置101で行ってもよい。
In the embodiment of the present invention, the
図2は、情報処理装置101のハードウェア構成の一例を示すブロック図である。尚、外部装置102は、情報処理装置101と同様のハードウェア構成を有する為、重複した説明は省略する。
FIG. 2 is a block diagram showing an example of the hardware configuration of the
図2において、情報処理装置101は、CPU201、ROM202、RAM203、記憶装置204、入力制御部205、音声制御部206、ビデオ制御部207、メモリ制御部208、および通信I/F制御部209を備える。これらのデバイスやコントローラはシステムバス200を介して互いに接続する。
In FIG. 2, the
CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。
The
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ213からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。
The
記憶装置204は、SSDやHDD等にからなり、後述する画像分類AI等を保持する。
The
入力制御部205は、キーボード、タッチパネル、マウス等のポインティングデバイス等からなる入力装置210からの入力を制御する。例えば、入力装置210がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でのタッチ操作)をすることにより、各種の指示を行うことができる。尚、この場合のタッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。
The
音声制御部206は、マイクやスピーカ等の音声入出力装置211への音声入出力を制御する。
The
ビデオ制御部207は、ディスプレイやプロジェクタ等からなる表示装置212への表示を制御する。この場合のディスプレイには、本体と一体になったノート型パソコンのディスプレイも含まれるものとする。尚、表示装置212が、前述のタッチ操作を受け付け可能な装置である場合、入力装置210としての役割も兼用する。また、ビデオ制御部207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能であり、そのビデオメモリの領域としてRAM203の一部を利用してもよいし、別途専用のビデオメモリを設けてもよい。
A
メモリ制御部208は、外部メモリ213へのアクセスを制御する。外部メモリ213としては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する記憶装置であれば特に限定されない。例えば、外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等が外部メモリ213として利用可能である。
通信I/F制御部209は、ネットワーク110を介して外部機器と接続・通信するものであり、ネットワーク110での通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の4G回線、5G回線等を用いた通信が可能である。
The communication I/
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、表示装置212上での表示を可能としている。また、CPU201は、表示装置212上の不図示のマウスカーソル等でのユーザ指示の受付も可能とする。
Note that the
次に図3のフローチャートを用いて、本発明の実施形態に係る再学習/評価処理について説明する。 Next, the relearning/evaluation process according to the embodiment of the present invention will be described using the flowchart in FIG. 3.
この処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出すことにより実行される。この処理では、画像分類AIの予測結果に関する情報が結果分析画面(図4)に表示される。また、結果分析画面上でユーザから受け付けた操作(学習・加工・削除ボタンの押下)に応じて学習データや評価データが更新された後、その更新後の学習データや評価データを用いて画像分類AIの再学習や評価が行われる。学習データや評価データについては後述する。
This process is executed by the
まずステップS301では、CPU201は、外部装置102から、入力画像及びこれに紐づくデータ、具体的には、正解ラベル、予測ラベル、及びヒートマップの情報を取得し、RAM203に保存する。その後、CPU201は、入力画像及びこれに紐づくデータに基づき、表示装置212の結果分析画面(図4:表示手段)に、正解ラベル、予測ラベル、入力画像、及び予測根拠画像を表示するよう制御する。
First, in step S<b>301 , the
ここで正解ラベルとは、ユーザ等により予め定められた、入力画像に対する画像分類AIによる推論の正解を示すラベルである。 Here, the correct label is a label that is predetermined by the user or the like and indicates the correct answer for the inference made by the image classification AI on the input image.
画像分類AIは、外部装置102内の学習部(図1において不図示)で予め学習させ、記憶装置204にて保持するConvolutional Neural Network(CNN)を用いた学習済みモデルである。なお、ここでは画像分類AIにCNNを用いているがこれに限定されず、例えば、サポートベクタマシン等の公知の他のアルゴリズムを用いてもよい。
The image classification AI is a trained model using a Convolutional Neural Network (CNN) that is trained in advance by a learning unit (not shown in FIG. 1) in the
CPU201は、入力画像(及びその正解ラベル)を外部から受信すると、記憶装置204から画像分類AIを読み出し、受信した入力画像を読み出した画像分類AIに入力することで、入力画像から推論される予測ラベルを出力する。CPU201は、複数の入力画像と、これらの夫々に紐づくデータとして、正解ラベル及び予測ラベルを、本処理の前に予め外部装置102に送信する。
When the
ヒートマップは、入力画像における、画像分類AIの予測根拠となった特徴領域であり、CPU201が公知の技術であるGrad-CAMを用いてヒートマップを算出する。CPU201は、このヒートマップの情報を複数の入力画像の夫々に紐づく情報として、本処理の前に予め外部装置102に送信する。なお、ここではヒートマップの算出にGrad-CAMを用いているがこれに限定されず、例えば、RISE、Score-CAM、XRAI、Group-CAM等の公知の他のアルゴリズムを用いてもよい。
The heat map is a feature region in the input image that is the basis for the prediction of the image classification AI, and the
このように、CPU201は、入力画像及びこれに紐づく正解ラベル、予測ラベル、及びヒートマップの情報を、本処理の前に予め、外部装置102に保存しておく。尚、入力画像は、学習データであるか評価データであるかを示す情報を紐づけて登録しておく等の方法により、学習データであるか評価データであるかを特定可能に管理されているものとする。また、本実施例では、CPU201がヒートマップを算出したが、本処理の前に予め外部装置102にヒートマップの情報が保存されれば、これに限定されない。例えば、CPU201は、外部で算出されたヒートマップを取得するようにしてもよい。
In this way, the
予測根拠画像は、ヒートマップを入力画像に重畳し、画像分類AIの予測根拠を可視化した画像である。予測根拠画像においてヒートマップには色が付される。具体的には予測根拠の程度が高い程、ヒートマップの特徴領域は暖色系の色が付され、予測根拠の程度が低い程、ヒートマップの特徴領域は寒色系の色が付される。例えば、ヒートマップの特徴領域は予測根拠の程度が高い順に、赤色、オレンジ色、黄色、黄緑色、水色が付される。 The prediction basis image is an image in which a heat map is superimposed on the input image to visualize the prediction basis of the image classification AI. The heat map in the prediction basis image is colored. Specifically, the higher the degree of prediction basis, the warmer color is assigned to the characteristic region of the heat map, and the lower the degree of prediction basis, the colder color is assigned to the characteristic region of the heat map. For example, the feature regions of the heat map are colored red, orange, yellow, yellow-green, and light blue in descending order of the degree of basis for prediction.
ステップS302では、CPU201は、ステップS301で受け付けた入力画像(対象)が評価データであるか否かを判定する。この判定の結果、対象が評価データである場合(ステップS302でYES)、ステップS303に進み、そうでない場合、ステップS305に進む。
In step S302, the
ステップS303では、CPU201は、図4の結果分析画面の学習ボタン405が押下されたか否かを判定する。この判定の結果、学習ボタン405が押下された場合(ステップS303でYES)、ステップS304に進み、そうでない場合、ステップS305に進む。
In step S303, the
ステップS304では、CPU201は、対象の入力画像及びその正解ラベルを用いて再学習をさせることで画像分類AIの精度を向上させるために、対象の入力画像のパスを学習テーブル(図5)に登録する。例えば、対象の予測ラベルが間違っている場合、対象の入力画像及びその正解ラベルを用いて、画像分類AIを再学習させることで、同じような間違いをしなくなる効果が期待できる。後述するデータ加工処理の場合と比較すると、もともとの予測根拠に関わらず画像分類AIが出力する予測ラベルを正すことができるため、予測根拠は正しいが、予測ラベルが間違っている場合に適すると考えられる。
In step S304, the
ステップS305では、CPU201は、図4の結果分析画面の加工ボタン406が押下されたか否かを判定する。この判定の結果、加工ボタン406が押下された場合(ステップS305でYES)、ステップS306に進み、そうでない場合、ステップS307に進む。
In step S305, the
ステップS306では、CPU201(登録手段)は、データ加工処理を実行するために、対象の入力画像のパスを加工テーブル(図6)に登録する。尚、データ加工処理とは、不適切な部分が予測根拠となる特徴部分となった場合、入力画像におけるその不適切な部分を単一の値に置き換えるなどの加工を施す処理を指す。 In step S306, the CPU 201 (registration means) registers the path of the target input image in the processing table (FIG. 6) in order to perform data processing. Note that the data processing process refers to a process that performs processing such as replacing the inappropriate part in the input image with a single value when the inappropriate part becomes a feature part that is the basis for prediction.
ここで、後述する図8に例示するデータ加工処理は、エクスポートボタン408(図4)が押下された際、加工テーブルにパスが登録された全ての入力画像に対して行うことを想定した処理である。また後述する図9に例示するデータ加工処理は、加工自体の一貫性を予測根拠としてしまうことを防ぐために、加工する確率を設定できるようにしたものであり、画像分類AIの再学習に用いる対象の入力画像を用いてに対して行うことを想定した処理である。このように、予測根拠が不適切である場合、入力画像に加工を施した後、これを用いて画像分類AIの再学習を行うことで、画像分類AIが正しい予測根拠を学習し、正しい予測を行うことが期待できる。前述した再学習処理の場合と比較すると、データ加工処理は、予測根拠を正すことができるため、予測根拠が間違っているため、予測ラベルも間違っている場合に適すると考えられる。 Here, the data processing process illustrated in FIG. 8, which will be described later, is a process that is assumed to be performed on all input images whose paths are registered in the processing table when the export button 408 (FIG. 4) is pressed. be. In addition, the data processing process illustrated in FIG. 9, which will be described later, allows the probability of processing to be set in order to prevent the consistency of the processing itself from being used as a basis for prediction. This is a process that is assumed to be performed on an input image. In this way, if the prediction basis is inappropriate, by processing the input image and relearning the image classification AI using this, the image classification AI will learn the correct prediction basis and make the correct prediction. can be expected to do so. Compared to the above-mentioned relearning process, the data processing process can correct the prediction basis and is therefore considered suitable for cases where the prediction basis is incorrect and the predicted label is also incorrect.
ステップS307では、CPU201は、図4の結果分析画面の削除ボタン407が押下されたか否かを判定する。この判定の結果、削除ボタン407が押下された場合(ステップS307でYES)、ステップS308に進み、そうでない場合、ステップS309に進む。ここで、削除ボタン407は、ユーザが、対象の入力画像を学習データや評価データとして用いると画像分類AIの再学習や評価に悪影響を及ぼすため、学習データや評価データから対象の入力画像を削除する削除処理を行いたい場合に押下されるボタンである。ここで、対象の入力画像が画像分類AIの再学習や評価に悪影響を及ぼす場合とは、例えば、入力情報に含まれる入力画像が、学習や評価に関係のない画像である場合や、対象物が大きすぎる又は小さすぎる画像である場合などである。
In step S307, the
ステップS308では、CPU201は、上記削除処理を実行するために、対象の入力画像のパスを削除テーブル(図7)に登録する。
In step S308, the
ステップS309では、CPU201は、図4の結果分析画面のエクスポートボタン408(更新受付手段)が押下されたか否かを判定する。この判定の結果、エクスポートボタン408が押下された場合(ステップS309でYES)、ステップS310に進み、そうでない場合、ステップS301に戻る。
In step S309, the
ステップS310では、CPU201は、対象の入力画像が評価データであるか否かを判定する。この判定の結果、対象が評価データである場合(ステップS310でYES)、ステップS311に進み、そうでない場合、すなわち対象が学習データである場合(ステップS310でNO)、ステップS312に進む。
In step S310, the
ステップS311では、CPU201(更新手段)は、学習テーブルに対象の入力画像のパスが登録されている場合は、対象の入力画像を評価データから学習データに変更する。すなわち、学習ボタン405の押下後、エクスポートボタン408の押下を学習結果表示部400が受け付けた場合、対象の入力画像の保存先を外部装置102の評価データ用フォルダから学習データ用フォルダに移動する。また、CPU201は、加工テーブルに対象の入力画像のパスが登録されている場合は、データ加工処理により対象の入力画像を加工し、加工後の入力画像を評価データから学習データに変更する。すなわち、加工ボタン406の押下後、エクスポートボタン408の押下を学習結果表示部400が受け付けた場合、上記加工後、対象の入力画像の保存先を外部装置102の評価データ用フォルダから学習データ用フォルダに移動する。さらにCPU201は、削除テーブルに対象の入力画像のパスが登録されている場合は、対象の入力画像を評価データから削除する。すなわち、削除ボタン407の押下後、エクスポートボタン408の押下を学習結果表示部400が受け付けた場合、対象の入力画像を、現在保存されている外部装置102の評価データ用フォルダから削除する。その後、ステップS313に進む。
In step S311, if the path of the target input image is registered in the learning table, the CPU 201 (updating unit) changes the target input image from evaluation data to learning data. That is, when the learning result display unit 400 receives the pressing of the export button 408 after pressing the
このように、対象が評価データである場合、評価データだけでなく学習データも更新される。尚、この場合、削除ボタン407のみ押下された後エクスポートボタン408が押下されると、学習データは更新されないため、後述のステップS313において画像分類AIの再学習は行わなくてもよい。
In this way, when the target is evaluation data, not only the evaluation data but also the learning data is updated. In this case, if the export button 408 is pressed after only the
ステップS312では、CPU201(更新手段)は、加工テーブルに対象の入力画像のパスが登録されている場合は、データ加工処理によりその対象の入力画像を加工し、加工後の入力画像で学習データとしての対象の入力画像を置換する。すなわち、上記加工後の対象の入力画像で、外部装置102の学習データ用フォルダにある対象の入力画像を置換する。またCPU201は、削除テーブルに対象の入力画像のパスが登録されている場合は、対象の入力画像を学習データから削除する。すなわち、対象の入力画像を、現在保存されている外部装置102の学習データ用フォルダから削除する。その後、ステップS313に進む。
In step S312, if the path of the target input image is registered in the processing table, the CPU 201 (updating means) processes the target input image through data processing processing, and uses the processed input image as learning data. Replace the input image for the target. That is, the target input image in the learning data folder of the
このように、対象が学習データである場合、学習データのみが更新され、評価データは更新されない。このため、対象が学習データである場合、後述のステップS313において画像分類AIの評価は行わなくてもよい。 In this way, when the target is learning data, only the learning data is updated, and the evaluation data is not updated. Therefore, when the target is learning data, it is not necessary to evaluate the image classification AI in step S313, which will be described later.
ステップS313では、CPU201は、外部装置102の学習データ用フォルダから学習データを出力し、画像分類AIの再学習を行う。また、CPU201は、外部装置102の評価データ用フォルダから評価データを出力し、画像分類AIの評価を行う。その後、本処理を終了する。
In step S313, the
尚、本実施形態では、画像分類AIの再学習は情報処理装置101のCPU201が実行したが、更新後の学習データを用いて画像分類AIの再学習が行われるのであれば、かかる実施形態に限定されない。例えば、CPU201は、外部装置102に画像分類AIの再学習の実行指示を行い、外部装置102から再学習後の画像分類AI(又は、その内部パラメータ)を取得するようにしてもよい。同様に、画像分類AIの評価は情報処理装置101のCPU201が実行したが、更新後の評価データを用いて画像分類AIの評価が行われるのであれば、かかる実施形態に限定されない。例えば、CPU201は、外部装置102に画像分類AIの評価の実行指示を行い、外部装置102からその評価結果を取得するようにしてもよい。
In this embodiment, the
図4は、図3のステップS301で表示装置212において表示される結果分析画面である。
FIG. 4 is a result analysis screen displayed on the
結果分析画面は、入力画像毎の学習結果表示部400a~400d(以下、「学習結果表示部400」と総称する)、及びエクスポートボタン408を有する。
The result analysis screen includes learning
学習結果表示部400は、正解ラベル表示部401、予測ラベル表示部402、入力画像表示部403、予測根拠画像表示部404、学習ボタン405、加工ボタン406、及び削除ボタン407からなる。
The learning result display section 400 includes a correct
正解ラベル表示部401は、入力画像の正解ラベルを表示する。
The correct
予測ラベル表示部402は、画像分類AIの予測ラベルを表示する。
The predicted
入力画像表示部403は、入力画像を表示する。
Input
予測根拠画像表示部404は、予測根拠画像を表示する。
A prediction basis
このように、図4の結果分析画面という一つの画面に、正解ラベル、予測ラベル、入力画像、予測根拠画像が比較可能に表示される。これにより、ユーザは図4の結果分析画面により簡単に学習結果の妥当性を判断することで可能となる。 In this way, the correct label, predicted label, input image, and prediction basis image are displayed in a comparable manner on one screen, the result analysis screen in FIG. 4. This allows the user to easily judge the validity of the learning results using the result analysis screen shown in FIG.
学習ボタン405は、入力画像のパスを学習テーブルに登録する指示を受け付けるボタンである。
The
加工ボタン406(加工受付手段)は、入力画像のパスを加工テーブルに登録する指示(登録指示)を受け付けるボタンである。 The processing button 406 (processing acceptance means) is a button that accepts an instruction (registration instruction) to register the path of the input image in the processing table.
削除ボタン407は、入力画像のパスを削除テーブルに登録する指示を受け付けるボタンである。
The
エクスポートボタン408は、学習テーブル、加工テーブル、削除テーブルに登録された入力画像を処理し、学習データ及び/又は評価データを更新した後に出力する旨の指示(更新指示)を受け付けるボタンである。 The export button 408 is a button that accepts an instruction (update instruction) to process input images registered in the learning table, processing table, and deletion table, and output the updated learning data and/or evaluation data.
ユーザは、学習結果表示部400に表示される学習結果が妥当でないと判断した場合、図4の結果分析画面の学習ボタン405、加工ボタン406、削除ボタン407の少なくとも1つを押下した後、エクスポートボタン408を押下する。かかる学習結果表示部400への操作のみで、ユーザは、簡単に画像分類AIの精度向上施策を実施することができる。具体的な精度改善施策として、入力画像の学習データとしての追加、入力画像の学習データ及び評価データとしての加工、入力画像の学習データ及び評価データからの削除を行うことができる。
If the user determines that the learning results displayed on the learning result display section 400 are not valid, the user presses at least one of the
図5は、学習データに追加するための入力画像のパスが登録される学習テーブルである。 FIG. 5 is a learning table in which paths of input images to be added to learning data are registered.
図6は、加工を施した後に学習データに追加又は置換するための入力画像のパスが登録される加工テーブルである。 FIG. 6 is a processing table in which paths of input images to be added to or replaced with learning data after processing are registered.
図7は、評価データ又は学習データから削除するための入力画像のパスが登録される削除テーブルである。 FIG. 7 is a deletion table in which paths of input images to be deleted from evaluation data or learning data are registered.
次に図8のフローチャートを用いて、図4のステップS411,S412において実行されるデータ加工処理の一例について説明する。この処理は、エクスポートボタン408(図4)が押下された際、加工テーブルにパスが登録された全ての入力画像に対して実行される。すなわちこの処理では、誤った予測根拠をもとに画像分類AIの学習が行われないように、加工テーブルにパスが登録された全ての入力画像が加工される。 Next, an example of the data processing processing executed in steps S411 and S412 in FIG. 4 will be described using the flowchart in FIG. 8. This process is executed for all input images whose paths are registered in the processing table when the export button 408 (FIG. 4) is pressed. That is, in this process, all input images whose paths are registered in the processing table are processed so that the image classification AI is not trained based on incorrect prediction grounds.
この処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出すことにより実行される。
This process is executed by the
まずステップS801では、CPU201は、加工テーブルにパスが登録されている入力画像の一つを、加工対象に決定する。ここで加工対象として決定された入力画像の例を図10(A)に示す。この入力画像では、左の穴の位置が設計位置からずれているため、その正解ラベルは「異常」である。よって、この入力画像から画像分類AIにより推論される予測ラベルも「異常」であることが望ましい。また、その予測根拠画像のヒートマップには、左の穴の位置に近い程、暖色系の色(予測根拠の程度が高いことを示す色)が付されるが望ましい。
First, in step S801, the
ステップS802では、CPU201は、ヒートマップのうち、設定値1A(所定の基準)より大きな値を持つピクセルの座標を取得する。ヒートマップの各ピクセルは0~1の間の値をとる。また、設定値1Aは、ヒートマップの各ピクセルの予測根拠となった程度が所定の基準を満たすか否かを判定するためのしきい値であって、0より大きく1より小さい値を持つ。予測根拠画像の例を図10(B)に示す。この予測根拠画像では、右の穴の周辺を予測根拠としており、誤った予測根拠により予測ラベルが出力されたことがわかる。ステップS802ではこのような画像に対して処理を行う。
In step S802, the
ステップS803では、CPU201は、入力画像のうち、ステップS802で取得した全ての座標のピクセルの値を設定値2A(第1の所定値)に置換する加工を行う。図10(C)に、図10(a)の入力画像に対しステップS803の加工を行った画像(加工画像)を示す。この加工画像では、設定値2Aとして黒が指定されて加工が行われている。
In step S803, the
ステップS804では、CPU201は、加工テーブルにパスが登録されている全ての入力画像に対してステップS803の加工が終了したか否かを判定する。判定の結果、全ての入力画像に対してステップS803の加工が終了した場合(ステップS804でYES)、本処理を終了する一方、そうでない場合(ステップS804でNO)、ステップS801に戻る。
In step S804, the
次に図9のフローチャートを用いて、図4のステップS411,S412において実行されるデータ加工処理の他の例について説明する。この処理では、入力画像の加工自体の一貫性が、ヒートマップの算出に影響することを防ぐために、入力画像の加工が一定の確率で行われる。また、本処理は、エクスポートボタン408(図4)が押下された際、加工テーブルにパスが登録されている入力画像だけでなく外部装置102に保存される全ての入力画像に対して、本処理の加工が確率的に行われる。本処理は特に追加学習の際に適用することを想定している。すなわちこの処理では、誤った予測根拠をもとに画像分類AIの学習が行われないように、情報処理装置101にある全ての入力画像の加工の適用を確率的に行う。
Next, another example of the data processing processing executed in steps S411 and S412 of FIG. 4 will be described using the flowchart of FIG. 9. In this process, the input image is processed with a certain probability in order to prevent the consistency of the input image processing itself from affecting heat map calculation. Furthermore, when the export button 408 (FIG. 4) is pressed, this processing is performed not only for input images whose paths are registered in the processing table but also for all input images saved in the
この処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出すことにより実行される。
This process is executed by the
まずステップS901では、CPU201は、外部装置102に保存される入力画像の1つを取得する。
First, in step S901, the
ステップS902では、CPU201は、ステップS901で取得した入力画像のパスが加工テーブルに登録されているか否かを判定する。判定の結果、加工テーブルに登録されている場合(ステップS902でYES)、ステップS903に進み、そうでない場合(ステップS902でNO)、ステップS906に進む。
In step S902, the
ステップS903では、CPU201は、乱数を生成し、その生成した乱数が設定値1Bより大きいか(第1の確率であるか)否かを判定する。ここで生成される乱数及び設定値1Bは共に0から1の値をとる。判定の結果、乱数が設定値1Bより大きい場合は(ステップS903でYES)、ステップS901で取得した入力画像の加工を行うべく、ステップS904に進み、そうでない場合は(ステップS903でNO)、本処理を終了する。このように、加工の適用を確率的にすることで、加工自体の一貫性がヒートマップの算出に影響を与えることを防ぐ役割が期待される。
In step S903, the
ステップS904では、CPU201は、ヒートマップのうち、設定値2B(所定の基準)より大きい値を持つピクセルの座標を取得し、ステップS905に進む。ヒートマップの各ピクセルは0~1の間の値をとる。また、設定値2Bは、ヒートマップの各ピクセルの予測根拠となった程度が所定の基準を満たすか否かを判定するためのしきい値であって、0より大きく1より小さい値を持つ。
In step S904, the
ステップS905では、CPU201は、ステップS901で取得した入力画像における、ステップS904で取得した全ての座標のピクセルの値を設定値3B(第1の所定値)に置換する加工を行った後、本処理を終了する。
In step S905, the
ステップS906では、CPU201は、乱数を生成し、その生成した乱数が設定値1Bより大きいか(第2の確率であるか)否かを判定する。判定の結果、乱数が設定値1Bより大きい場合は(ステップS906でYES)、ステップS901で取得した入力画像の加工を行うべく、ステップS907に進み、そうでない場合は(ステップS906でNO)、本処理を終了する。このように、外部装置102に保存される入力画像のうち、加工テーブルにはパスが登録されていない入力画像にも確率的に加工を施すことで、加工自体の一貫性がヒートマップの算出に影響を与えることを防ぐ役割が期待される。尚、ステップS906の判定に使用した設定値は、ステップS903の判定に使用した設定値1Bと同一としたが、異なる設定値であってもよい。
In step S906, the
ステップS907では、CPU201は、ステップS901で取得した入力画像におけるピクセルをランダムに選択し、そのランダムに選択されたピクセルの値を設定値3B(第2の所定値)で置換した後、本処理を終了する。尚、ここでランダムに選択されるピクセルの数自体も、ランダムに設定された値としてもよいし、固定値としてもよい。
In step S907, the
(その他の実施形態)
尚、本実施形態では、1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置のコンピュータに供給し、そのシステムまたは装置のシステム制御部がプログラムを読出し実行する処理でも実現可能である。システム制御部は、1つまたは複数のプロセッサーまたは回路を有し、実行可能命令を読み出し実行するために、分離した複数のシステム制御部または分離した複数のプロセッサーまたは回路のネットワークを含みうる。
(Other embodiments)
In this embodiment, a program for realizing one or more functions is supplied to a computer of a system or device via a network or a storage medium, and a system control unit of the system or device reads and executes the program. It is possible. The system controller has one or more processors or circuits and may include separate system controllers or a network of separate processors or circuits for reading and executing executable instructions.
プロセッサーまたは回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)を含みうる。また、プロセッサーまたは回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), microprocessing unit (MPU), graphics processing unit (GPU), application specific integrated circuit (ASIC), field programmable gate array (FPGA). The processor or circuit may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.
1 AI予測根拠表示システム
101 情報処理装置
102 外部装置
110 ネットワーク
201 CPU
212 表示装置
405 学習ボタン
406 加工ボタン
407 削除ボタン
408 エクスポートボタン
1 AI prediction
212
Claims (7)
前記学習済みモデルの予測根拠となった特徴領域を取得する取得手段と、
前記加工受付手段により加工を施す対象の画像として受け付けた画像であって、第1の確率で選択された画像に対して、前記特徴領域の少なくとも一部のピクセルの値を、第1の所定値に置換する第1の加工処理を行い、前記複数の入力画像のうち、前記加工受付手段により加工を施す対象の画像として受け付けていない画像であって、第2の確率で選択された画像に対して、当該画像の一部のピクセルの値を、第2の所定値に置換する第2の加工処理を行う処理手段と、
前記第1及び第2の加工処理が行われた画像を用いて、学習済みモデルの再学習を行うための学習データを更新する更新手段と、
を備えることを特徴とする情報処理装置。 processing reception means for receiving an image to be processed from among a plurality of input images to be processed for outputting predicted labels by the learned model;
acquisition means for acquiring a feature region that is the basis for prediction of the learned model;
For an image accepted as an image to be processed by the processing receiving means and selected with a first probability , the values of at least some pixels of the characteristic region are set to a first predetermined value. A first processing process is performed to replace the image with a second probability, and among the plurality of input images, the image is not accepted as an image to be processed by the processing acceptance means, and is selected with a second probability. processing means for performing a second processing process to replace the values of some pixels of the image with a second predetermined value;
updating means for updating learning data for relearning the trained model using the images subjected to the first and second processing;
An information processing device comprising:
前記学習済みモデルの再学習を行うための学習データを更新する更新指示を受け付ける更新受付手段と、
を備え、
前記更新手段は、前記更新受付手段が前記更新指示を受け付けた場合、前記処理手段により前記第1及び第2の加工処理を行い、前記第1及び第2の加工処理が行われた画像を用いて前記学習データを更新することを特徴とする請求項1又は2に記載の情報処理装置。 registration means for registering, among the plurality of input images, an image for which the processing reception means has received a registration instruction as an image to be processed;
update receiving means for receiving an update instruction to update learning data for relearning the learned model;
Equipped with
When the update receiving means receives the update instruction, the updating means performs the first and second processing by the processing means , and uses the image on which the first and second processing has been performed. The information processing device according to claim 1 or 2, wherein the learning data is updated by using the learning data.
学習済みモデルによる予測ラベルの出力処理の対象となる複数の入力画像のうち、加工を施す対象の画像を受け付ける加工受付ステップと、
前記学習済みモデルの予測根拠となった特徴領域を取得する取得ステップと、
前記加工受付ステップにおいて加工を施す対象の画像として受け付けた画像であって、第1の確率で選択された画像に対して、前記特徴領域の少なくとも一部のピクセルの値を、第1の所定値に置換する第1の加工処理を行い、前記複数の入力画像のうち、前記加工受付ステップにおいて加工を施す対象の画像として受け付けていない画像であって、第2の確率で選択された画像に対して、当該画像の一部のピクセルの値を、第2の所定値に置換する第2の加工処理を行う処理ステップと、
前記第1及び第2の加工処理が行われた画像を用いて、学習済みモデルの再学習を行うための学習データを更新する更新ステップと、
を備えることを特徴とする情報処理方法。 An information processing method for an information processing device, the method comprising:
a processing reception step of receiving an image to be processed from among a plurality of input images to be processed to output predicted labels by the learned model;
an acquisition step of acquiring a feature region that is the basis for prediction of the learned model;
For an image accepted as an image to be processed in the processing reception step and selected with a first probability , the values of at least some pixels of the characteristic region are set to a first predetermined value. A first processing process is performed to replace the image with a second probability , and among the plurality of input images, the image is not accepted as an image to be processed in the processing acceptance step, and is selected with a second probability. a processing step of performing a second processing process of replacing the values of some pixels of the image with a second predetermined value;
an updating step of updating learning data for relearning the trained model using the images subjected to the first and second processing;
An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021199409A JP7383684B2 (en) | 2021-12-08 | 2021-12-08 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021199409A JP7383684B2 (en) | 2021-12-08 | 2021-12-08 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023084981A JP2023084981A (en) | 2023-06-20 |
JP7383684B2 true JP7383684B2 (en) | 2023-11-20 |
Family
ID=86775566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021199409A Active JP7383684B2 (en) | 2021-12-08 | 2021-12-08 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7383684B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020194446A (en) | 2019-05-29 | 2020-12-03 | 株式会社アーク情報システム | Program, information processing method, and information processor |
JP2020197833A (en) | 2019-05-31 | 2020-12-10 | 楽天株式会社 | Data extension system, data extension method and program |
WO2021130888A1 (en) | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Learning device, estimation device, and learning method |
JP2021117548A (en) | 2020-01-22 | 2021-08-10 | 富士通株式会社 | Image processing apparatus, image processing method and image processing program |
-
2021
- 2021-12-08 JP JP2021199409A patent/JP7383684B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020194446A (en) | 2019-05-29 | 2020-12-03 | 株式会社アーク情報システム | Program, information processing method, and information processor |
JP2020197833A (en) | 2019-05-31 | 2020-12-10 | 楽天株式会社 | Data extension system, data extension method and program |
JP2021120914A (en) | 2019-05-31 | 2021-08-19 | 楽天グループ株式会社 | Data extension system, data extension method and program |
WO2021130888A1 (en) | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Learning device, estimation device, and learning method |
JP2021117548A (en) | 2020-01-22 | 2021-08-10 | 富士通株式会社 | Image processing apparatus, image processing method and image processing program |
Non-Patent Citations (2)
Title |
---|
Terrance DeVries, Graham W. Taylor,Improved Regularization of Convolutional Neural Networks with Cutout,[online],2017年08月15日,[retrieved on 2023.06.20], Retrieved from the Internet : <url: https://arxiv.org/pdf/1708.04552v1.pdf> |
Zhun Zhong et al.,Random Erasing Data Augmentation,[online],2017年08月16日,[retrieved on 2023.06.20], Retrieved from the Internet : <url: https://arxiv.org/pdf/1708.04896v1.pdf> |
Also Published As
Publication number | Publication date |
---|---|
JP2023084981A (en) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6970553B2 (en) | Image processing device, image processing method | |
TWI675314B (en) | Smart device control method and device | |
US20240089331A1 (en) | Display Method, Related Device, and Non-Transitory Readable Storage Medium | |
JP7379684B2 (en) | Image generation method and device and computer program | |
JP3706743B2 (en) | Region of interest extraction method and apparatus, and storage medium | |
CN113343812A (en) | Gesture recognition method and device, storage medium and electronic equipment | |
TWI505173B (en) | System and method for improving recognition of a touch keyboard in an electronic device | |
JP7383684B2 (en) | Information processing device, information processing method, and program | |
JP6036792B2 (en) | Computer, calculation server, program, data output method, and computer system | |
JP2006260021A (en) | Display control device and method for reducing display screen thereof | |
US10114518B2 (en) | Information processing system, information processing device, and screen display method | |
US10839570B2 (en) | Graph display method, electronic device, and recording medium for displaying modified expression in different ways in response to determining whether condition regarding modified expression is satisfied | |
CN109753217B (en) | Dynamic keyboard operation method and device, storage medium and electronic equipment | |
WO2019201223A1 (en) | Screen display switch method and apparatus, and storage medium | |
US20210173473A1 (en) | Input apparatus | |
JP2023084980A (en) | Information processing apparatus, information processing method, and program | |
CN112148171B (en) | Interface switching method and device and electronic equipment | |
JP2010128567A (en) | Cursor movement control method and device, and program | |
JP2014209326A (en) | Image processing apparatus, image processing method, and image processing program | |
CN114518859A (en) | Display control method, display control device, electronic equipment and storage medium | |
JP6249077B2 (en) | Computer, data output method, and program | |
CN112286430A (en) | Image processing method, apparatus, device and medium | |
JP7248279B2 (en) | Computer system, program and method | |
US20170255352A1 (en) | Electronic device | |
JP7100783B1 (en) | Learning device and inference device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |