JP7383684B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7383684B2
JP7383684B2 JP2021199409A JP2021199409A JP7383684B2 JP 7383684 B2 JP7383684 B2 JP 7383684B2 JP 2021199409 A JP2021199409 A JP 2021199409A JP 2021199409 A JP2021199409 A JP 2021199409A JP 7383684 B2 JP7383684 B2 JP 7383684B2
Authority
JP
Japan
Prior art keywords
processing
image
information processing
processed
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021199409A
Other languages
Japanese (ja)
Other versions
JP2023084981A (en
Inventor
良介 齋竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2021199409A priority Critical patent/JP7383684B2/en
Publication of JP2023084981A publication Critical patent/JP2023084981A/en
Application granted granted Critical
Publication of JP7383684B2 publication Critical patent/JP7383684B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法、並びにプログラムに関し、特に、画像分類AIを再学習させる情報処理装置、情報処理方法、並びにプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program, and particularly to an information processing device, an information processing method, and a program for relearning image classification AI.

従来より、精度の高い画像分類AIを生成するために、入力画像を学習データとして用いて画像分類AIの再学習を行い、その再学習によって生成されたモデルを検証するということを繰り返すことが行われている。また、再学習の際には、検証結果に基づいて精度向上に必要な学習データを見極め、用意する必要があり、既存の画像に加工を施すことで学習データとすることも行われている。 Conventionally, in order to generate highly accurate image classification AI, it has been necessary to repeatedly retrain the image classification AI using input images as training data and then verify the model generated by the relearning. It is being said. In addition, when relearning, it is necessary to identify and prepare learning data necessary to improve accuracy based on the verification results, and existing images are sometimes processed to be used as learning data.

画像分類AIの性能を向上させるため学習データとして用いる入力画像に加工を施す手法として、入力画像の一部を隠すように他の値で置き換える手法が提案されている。 As a method of processing input images used as learning data to improve the performance of image classification AI, a method of replacing a part of the input image with other values so as to hide it has been proposed.

非特許文献1には、入力画像内のランダムな位置を、大きさと値がランダムな矩形で置き換えることが記載されている。 Non-Patent Document 1 describes replacing random positions in an input image with rectangles having random sizes and values.

非特許文献2には、入力画像内のランダムな位置を中心として、正方形領域を0で置き換えることが記載されている。 Non-Patent Document 2 describes replacing square areas with 0 centered at random positions in an input image.

Z.Zhong,L.Zheng,G.Kang,S.Li,and Y.Yang,“Random Erasing Data Augmentation”, in arXiv:1708.04896,2017Z. Zhong, L. Zheng, G. Kang, S. Li, and Y. Yang, “Random Erasing Data Augmentation”, in arXiv:1708.04896, 2017 T.Devries and G.W.Taylor.“Improved regularization of convolutional neural networks with cutout.” arXiv preprint arXiv: 1708.04552, 2017.5T. Devries and G. W. Taylor. “Improved regulation of convolutional neural networks with cutout.” arXiv preprint arXiv: 1708.04552, 2017.5

非特許文献1,2に記載の技術では、学習データとして用いる入力画像に施す加工位置がランダムであるため、入力画像における、画像分類AIの性能向上に寄与しそうな領域が分かっていても、その領域を指定してピンポイントで加工することができない。 In the techniques described in Non-Patent Documents 1 and 2, the processing positions applied to the input image used as learning data are random, so even if the area in the input image that is likely to contribute to improving the performance of image classification AI is known, the processing position is random. It is not possible to specify an area and perform pinpoint processing.

そこで、本発明では、画像分類AIの精度向上に資する学習データを効率的に生成することができる情報処理装置、情報処理方法、並びにプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing method, and a program that can efficiently generate learning data that contributes to improving the accuracy of image classification AI.

上記課題を解決するため、本発明に係る情報処理装置は、学習済みモデルによる予測ラベルの出力処理の対象となる複数の入力画像のうち、加工を施す対象の画像を受け付ける加工受付手段と、前記学習済みモデルの予測根拠となった特徴領域を取得する取得手段と、前記加工受付手段により加工を施す対象の画像として受け付けた画像であって、第1の確率で選択された画像に対して、前記特徴領域の少なくとも一部のピクセルの値を、第1の所定値に置換する第1の加工処理を行い、前記複数の入力画像のうち、前記加工受付手段により加工を施す対象の画像として受け付けていない画像であって、第2の確率で選択された画像に対して、当該画像の一部のピクセルの値を、第2の所定値に置換する第2の加工処理を行う処理手段と、前記第1及び第2の加工処理が行われた画像を用いて、学習済みモデルの再学習を行うための学習データを更新する更新手段と、を備えることを特徴とする。 In order to solve the above problems, an information processing apparatus according to the present invention includes a processing reception means for receiving an image to be processed from among a plurality of input images to be processed for outputting a predicted label by a trained model ; an acquisition means for acquiring a feature region that is the basis for prediction of the learned model; and an image accepted as an image to be processed by the processing reception means , and selected with a first probability ; Performing a first processing process to replace the values of at least some pixels in the characteristic region with a first predetermined value, and accepting the image as a target image to be processed by the processing receiving means among the plurality of input images. processing means for performing a second processing process for replacing the values of some pixels of the image with a second predetermined value on an image that is not selected with a second probability; The present invention is characterized by comprising an update unit that updates learning data for relearning a trained model using images subjected to the first and second processing.

本発明によれば、画像分類AIの精度向上に資する学習データを効率的に生成することができる。 According to the present invention, learning data that contributes to improving the accuracy of image classification AI can be efficiently generated.

本発明の実施形態に係る情報処理装置を含むAI予測根拠表示システムのシステム構成の一例を示す図である。1 is a diagram illustrating an example of a system configuration of an AI prediction basis display system including an information processing device according to an embodiment of the present invention. 情報処理装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a hardware configuration of an information processing device. 本発明の実施形態に係る再学習/評価処理の一例を示すフローチャートである。It is a flow chart which shows an example of relearning/evaluation processing concerning an embodiment of the present invention. 図3のステップS301で表示装置において表示される、結果分析画面である。This is a result analysis screen displayed on the display device in step S301 of FIG. 3. 学習データに追加するための入力画像のパスが登録される学習テーブルである。This is a learning table in which paths of input images to be added to learning data are registered. 加工を施した後に学習データに追加又は置換するための入力画像のパスが登録される加工テーブルである。This is a processing table in which paths of input images to be added to or replaced with learning data after processing are registered. 評価データ又は学習データから削除するための入力画像のパスが登録される削除テーブルである。This is a deletion table in which paths of input images to be deleted from evaluation data or learning data are registered. 図4のステップS411,S412において実行されるデータ加工処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of data processing processing executed in steps S411 and S412 of FIG. 4. FIG. 図4のステップS411,S412において実行されるデータ加工処理の他の例を示すフローチャートである。5 is a flowchart showing another example of data processing processing executed in steps S411 and S412 of FIG. 4. FIG. 入力画像、予測根拠画像、及び加工画像の例を示す図である。FIG. 3 is a diagram showing an example of an input image, a prediction basis image, and a processed image.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.

図1は、本発明の実施形態に係る情報処理装置101を含むAI予測根拠表示システム1のシステム構成の一例を示す図である。 FIG. 1 is a diagram showing an example of the system configuration of an AI prediction basis display system 1 including an information processing device 101 according to an embodiment of the present invention.

AI予測根拠表示システム1は、情報処理装置101と、外部装置102とを備え、これらがネットワーク110を介して通信可能に接続されたシステムである。 The AI prediction basis display system 1 is a system that includes an information processing device 101 and an external device 102, which are communicably connected via a network 110.

情報処理装置101は、ユーザにより操作される装置であり、後述する再学習/評価処理(図3)の処理対象となる入力画像やこれに紐づくデータを結果分析画面(図4)に表示すると共に、ユーザによるこの画面上の各種ボタンの押下を受け付ける。 The information processing device 101 is a device operated by a user, and displays input images to be processed in relearning/evaluation processing (FIG. 3), which will be described later, and data linked thereto on a result analysis screen (FIG. 4). At the same time, presses of various buttons on this screen by the user are accepted.

外部装置102は、上記再学習/評価処理の処理対象となる入力画像やこれに紐づくデータの管理などを行う。 The external device 102 manages input images to be processed in the relearning/evaluation process and data associated therewith.

尚、本発明の実施形態においては、情報処理装置101が図3のフローチャートで示す処理を実行するものとして説明するが、外部装置102が実行する形態であってもよい。また、処理対象の画像の管理など、外部装置102で行うものとして説明した処理について、情報処理装置101で行ってもよい。 In the embodiment of the present invention, the information processing apparatus 101 will be described as executing the process shown in the flowchart of FIG. 3, but the external apparatus 102 may execute the process. Further, the information processing apparatus 101 may perform processing described as being performed by the external device 102, such as management of images to be processed.

図2は、情報処理装置101のハードウェア構成の一例を示すブロック図である。尚、外部装置102は、情報処理装置101と同様のハードウェア構成を有する為、重複した説明は省略する。 FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus 101. Note that since the external device 102 has the same hardware configuration as the information processing device 101, repeated explanation will be omitted.

図2において、情報処理装置101は、CPU201、ROM202、RAM203、記憶装置204、入力制御部205、音声制御部206、ビデオ制御部207、メモリ制御部208、および通信I/F制御部209を備える。これらのデバイスやコントローラはシステムバス200を介して互いに接続する。 In FIG. 2, the information processing device 101 includes a CPU 201, a ROM 202, a RAM 203, a storage device 204, an input control section 205, an audio control section 206, a video control section 207, a memory control section 208, and a communication I/F control section 209. . These devices and controllers are connected to each other via a system bus 200.

CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。 The CPU 201 centrally controls each device and controller connected to the system bus 200.

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ213からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。 The RAM 203 functions as the main memory, work area, etc. of the CPU 201. The CPU 201 loads necessary programs and the like from the ROM 202 or the external memory 213 into the RAM 203 when executing processing, and executes the loaded programs to realize various operations.

記憶装置204は、SSDやHDD等にからなり、後述する画像分類AI等を保持する。 The storage device 204 is comprised of an SSD, an HDD, or the like, and stores image classification AI, etc., which will be described later.

入力制御部205は、キーボード、タッチパネル、マウス等のポインティングデバイス等からなる入力装置210からの入力を制御する。例えば、入力装置210がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でのタッチ操作)をすることにより、各種の指示を行うことができる。尚、この場合のタッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 The input control unit 205 controls input from an input device 210 including a keyboard, a touch panel, a pointing device such as a mouse, and the like. For example, if the input device 210 is a touch panel, the user can issue various instructions by pressing (touching with a finger or the like) an icon, cursor, or button displayed on the touch panel. Note that the touch panel in this case may be a touch panel capable of detecting positions touched by multiple fingers, such as a multi-touch screen.

音声制御部206は、マイクやスピーカ等の音声入出力装置211への音声入出力を制御する。 The audio control unit 206 controls audio input/output to the audio input/output device 211 such as a microphone and a speaker.

ビデオ制御部207は、ディスプレイやプロジェクタ等からなる表示装置212への表示を制御する。この場合のディスプレイには、本体と一体になったノート型パソコンのディスプレイも含まれるものとする。尚、表示装置212が、前述のタッチ操作を受け付け可能な装置である場合、入力装置210としての役割も兼用する。また、ビデオ制御部207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能であり、そのビデオメモリの領域としてRAM203の一部を利用してもよいし、別途専用のビデオメモリを設けてもよい。 A video control unit 207 controls display on a display device 212 such as a display or a projector. In this case, the display includes the display of a notebook computer that is integrated with the main body. Note that if the display device 212 is a device that can accept the above-mentioned touch operation, it also serves as the input device 210. Further, the video control unit 207 can control a video memory (VRAM) for display control, and may use a part of the RAM 203 as the video memory area, or may use a separate dedicated video memory. A memory may also be provided.

メモリ制御部208は、外部メモリ213へのアクセスを制御する。外部メモリ213としては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する記憶装置であれば特に限定されない。例えば、外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等が外部メモリ213として利用可能である。 Memory control unit 208 controls access to external memory 213. The external memory 213 is not particularly limited as long as it is a storage device that stores boot programs, various applications, font data, user files, editing files, various data, and the like. For example, an external storage device (hard disk), a flexible disk (FD), a Compact Flash (registered trademark) memory connected to a PCMCIA card slot via an adapter, etc. can be used as the external memory 213.

通信I/F制御部209は、ネットワーク110を介して外部機器と接続・通信するものであり、ネットワーク110での通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の4G回線、5G回線等を用いた通信が可能である。 The communication I/F control unit 209 connects and communicates with external devices via the network 110, and executes communication control processing on the network 110. For example, communication using TCP/IP, a telephone line such as ISDN, a 4G line, a 5G line of a mobile phone, etc. is possible.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、表示装置212上での表示を可能としている。また、CPU201は、表示装置212上の不図示のマウスカーソル等でのユーザ指示の受付も可能とする。 Note that the CPU 201 enables display on the display device 212 by, for example, executing an outline font development (rasterization) process in a display information area in the RAM 203. Furthermore, the CPU 201 can also accept user instructions using a mouse cursor (not shown) on the display device 212.

次に図3のフローチャートを用いて、本発明の実施形態に係る再学習/評価処理について説明する。 Next, the relearning/evaluation process according to the embodiment of the present invention will be described using the flowchart in FIG. 3.

この処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出すことにより実行される。この処理では、画像分類AIの予測結果に関する情報が結果分析画面(図4)に表示される。また、結果分析画面上でユーザから受け付けた操作(学習・加工・削除ボタンの押下)に応じて学習データや評価データが更新された後、その更新後の学習データや評価データを用いて画像分類AIの再学習や評価が行われる。学習データや評価データについては後述する。 This process is executed by the CPU 201 of the information processing device 101 reading a predetermined control program. In this process, information regarding the prediction results of the image classification AI is displayed on the result analysis screen (FIG. 4). In addition, after the learning data and evaluation data are updated according to the operations received from the user on the result analysis screen (pressing the learning/processing/delete button), image classification is performed using the updated learning data and evaluation data. AI will be retrained and evaluated. The learning data and evaluation data will be described later.

まずステップS301では、CPU201は、外部装置102から、入力画像及びこれに紐づくデータ、具体的には、正解ラベル、予測ラベル、及びヒートマップの情報を取得し、RAM203に保存する。その後、CPU201は、入力画像及びこれに紐づくデータに基づき、表示装置212の結果分析画面(図4:表示手段)に、正解ラベル、予測ラベル、入力画像、及び予測根拠画像を表示するよう制御する。 First, in step S<b>301 , the CPU 201 acquires an input image and data associated therewith, specifically, correct label, predicted label, and heat map information, from the external device 102 and stores them in the RAM 203 . Thereafter, the CPU 201 controls to display the correct label, predicted label, input image, and prediction basis image on the result analysis screen (FIG. 4: display means) of the display device 212 based on the input image and data associated therewith. do.

ここで正解ラベルとは、ユーザ等により予め定められた、入力画像に対する画像分類AIによる推論の正解を示すラベルである。 Here, the correct label is a label that is predetermined by the user or the like and indicates the correct answer for the inference made by the image classification AI on the input image.

画像分類AIは、外部装置102内の学習部(図1において不図示)で予め学習させ、記憶装置204にて保持するConvolutional Neural Network(CNN)を用いた学習済みモデルである。なお、ここでは画像分類AIにCNNを用いているがこれに限定されず、例えば、サポートベクタマシン等の公知の他のアルゴリズムを用いてもよい。 The image classification AI is a trained model using a Convolutional Neural Network (CNN) that is trained in advance by a learning unit (not shown in FIG. 1) in the external device 102 and stored in the storage device 204. Although CNN is used for image classification AI here, the invention is not limited to this, and other known algorithms such as support vector machine may also be used.

CPU201は、入力画像(及びその正解ラベル)を外部から受信すると、記憶装置204から画像分類AIを読み出し、受信した入力画像を読み出した画像分類AIに入力することで、入力画像から推論される予測ラベルを出力する。CPU201は、複数の入力画像と、これらの夫々に紐づくデータとして、正解ラベル及び予測ラベルを、本処理の前に予め外部装置102に送信する。 When the CPU 201 receives an input image (and its correct label) from the outside, it reads the image classification AI from the storage device 204 and inputs the received input image into the read image classification AI, thereby generating a prediction inferred from the input image. Output the label. The CPU 201 transmits a plurality of input images and a correct label and a predicted label as data associated with each of these to the external device 102 before this processing.

ヒートマップは、入力画像における、画像分類AIの予測根拠となった特徴領域であり、CPU201が公知の技術であるGrad-CAMを用いてヒートマップを算出する。CPU201は、このヒートマップの情報を複数の入力画像の夫々に紐づく情報として、本処理の前に予め外部装置102に送信する。なお、ここではヒートマップの算出にGrad-CAMを用いているがこれに限定されず、例えば、RISE、Score-CAM、XRAI、Group-CAM等の公知の他のアルゴリズムを用いてもよい。 The heat map is a feature region in the input image that is the basis for the prediction of the image classification AI, and the CPU 201 calculates the heat map using Grad-CAM, which is a known technology. The CPU 201 transmits this heat map information to the external device 102 in advance as information linking each of the plurality of input images before this processing. Although Grad-CAM is used to calculate the heat map here, the calculation is not limited to this, and other known algorithms such as RISE, Score-CAM, XRAI, Group-CAM, etc. may also be used.

このように、CPU201は、入力画像及びこれに紐づく正解ラベル、予測ラベル、及びヒートマップの情報を、本処理の前に予め、外部装置102に保存しておく。尚、入力画像は、学習データであるか評価データであるかを示す情報を紐づけて登録しておく等の方法により、学習データであるか評価データであるかを特定可能に管理されているものとする。また、本実施例では、CPU201がヒートマップを算出したが、本処理の前に予め外部装置102にヒートマップの情報が保存されれば、これに限定されない。例えば、CPU201は、外部で算出されたヒートマップを取得するようにしてもよい。 In this way, the CPU 201 stores the input image and the correct label, predicted label, and heat map information associated therewith in the external device 102 in advance before this processing. Input images are managed so that they can be identified as learning data or evaluation data, such as by linking and registering information indicating whether the input images are learning data or evaluation data. shall be taken as a thing. Further, in this embodiment, the CPU 201 calculates the heat map, but the present invention is not limited to this, as long as the heat map information is stored in the external device 102 in advance before this processing. For example, the CPU 201 may acquire a heat map calculated externally.

予測根拠画像は、ヒートマップを入力画像に重畳し、画像分類AIの予測根拠を可視化した画像である。予測根拠画像においてヒートマップには色が付される。具体的には予測根拠の程度が高い程、ヒートマップの特徴領域は暖色系の色が付され、予測根拠の程度が低い程、ヒートマップの特徴領域は寒色系の色が付される。例えば、ヒートマップの特徴領域は予測根拠の程度が高い順に、赤色、オレンジ色、黄色、黄緑色、水色が付される。 The prediction basis image is an image in which a heat map is superimposed on the input image to visualize the prediction basis of the image classification AI. The heat map in the prediction basis image is colored. Specifically, the higher the degree of prediction basis, the warmer color is assigned to the characteristic region of the heat map, and the lower the degree of prediction basis, the colder color is assigned to the characteristic region of the heat map. For example, the feature regions of the heat map are colored red, orange, yellow, yellow-green, and light blue in descending order of the degree of basis for prediction.

ステップS302では、CPU201は、ステップS301で受け付けた入力画像(対象)が評価データであるか否かを判定する。この判定の結果、対象が評価データである場合(ステップS302でYES)、ステップS303に進み、そうでない場合、ステップS305に進む。 In step S302, the CPU 201 determines whether the input image (target) received in step S301 is evaluation data. As a result of this determination, if the target is evaluation data (YES in step S302), the process advances to step S303; otherwise, the process advances to step S305.

ステップS303では、CPU201は、図4の結果分析画面の学習ボタン405が押下されたか否かを判定する。この判定の結果、学習ボタン405が押下された場合(ステップS303でYES)、ステップS304に進み、そうでない場合、ステップS305に進む。 In step S303, the CPU 201 determines whether the learning button 405 on the result analysis screen in FIG. 4 has been pressed. As a result of this determination, if the learning button 405 has been pressed (YES in step S303), the process advances to step S304; otherwise, the process advances to step S305.

ステップS304では、CPU201は、対象の入力画像及びその正解ラベルを用いて再学習をさせることで画像分類AIの精度を向上させるために、対象の入力画像のパスを学習テーブル(図5)に登録する。例えば、対象の予測ラベルが間違っている場合、対象の入力画像及びその正解ラベルを用いて、画像分類AIを再学習させることで、同じような間違いをしなくなる効果が期待できる。後述するデータ加工処理の場合と比較すると、もともとの予測根拠に関わらず画像分類AIが出力する予測ラベルを正すことができるため、予測根拠は正しいが、予測ラベルが間違っている場合に適すると考えられる。 In step S304, the CPU 201 registers the path of the target input image in the learning table (FIG. 5) in order to improve the accuracy of the image classification AI by performing re-learning using the target input image and its correct answer label. do. For example, if the predicted label of a target is incorrect, retraining the image classification AI using the target input image and its correct label can be expected to prevent similar mistakes from being made. Compared to the case of data processing described later, it is possible to correct the predicted label output by image classification AI regardless of the original prediction basis, so it is considered suitable when the prediction basis is correct but the predicted label is wrong. It will be done.

ステップS305では、CPU201は、図4の結果分析画面の加工ボタン406が押下されたか否かを判定する。この判定の結果、加工ボタン406が押下された場合(ステップS305でYES)、ステップS306に進み、そうでない場合、ステップS307に進む。 In step S305, the CPU 201 determines whether the processing button 406 on the result analysis screen in FIG. 4 has been pressed. As a result of this determination, if the processing button 406 has been pressed (YES in step S305), the process advances to step S306; otherwise, the process advances to step S307.

ステップS306では、CPU201(登録手段)は、データ加工処理を実行するために、対象の入力画像のパスを加工テーブル(図6)に登録する。尚、データ加工処理とは、不適切な部分が予測根拠となる特徴部分となった場合、入力画像におけるその不適切な部分を単一の値に置き換えるなどの加工を施す処理を指す。 In step S306, the CPU 201 (registration means) registers the path of the target input image in the processing table (FIG. 6) in order to perform data processing. Note that the data processing process refers to a process that performs processing such as replacing the inappropriate part in the input image with a single value when the inappropriate part becomes a feature part that is the basis for prediction.

ここで、後述する図8に例示するデータ加工処理は、エクスポートボタン408(図4)が押下された際、加工テーブルにパスが登録された全ての入力画像に対して行うことを想定した処理である。また後述する図9に例示するデータ加工処理は、加工自体の一貫性を予測根拠としてしまうことを防ぐために、加工する確率を設定できるようにしたものであり、画像分類AIの再学習に用いる対象の入力画像を用いてに対して行うことを想定した処理である。このように、予測根拠が不適切である場合、入力画像に加工を施した後、これを用いて画像分類AIの再学習を行うことで、画像分類AIが正しい予測根拠を学習し、正しい予測を行うことが期待できる。前述した再学習処理の場合と比較すると、データ加工処理は、予測根拠を正すことができるため、予測根拠が間違っているため、予測ラベルも間違っている場合に適すると考えられる。 Here, the data processing process illustrated in FIG. 8, which will be described later, is a process that is assumed to be performed on all input images whose paths are registered in the processing table when the export button 408 (FIG. 4) is pressed. be. In addition, the data processing process illustrated in FIG. 9, which will be described later, allows the probability of processing to be set in order to prevent the consistency of the processing itself from being used as a basis for prediction. This is a process that is assumed to be performed on an input image. In this way, if the prediction basis is inappropriate, by processing the input image and relearning the image classification AI using this, the image classification AI will learn the correct prediction basis and make the correct prediction. can be expected to do so. Compared to the above-mentioned relearning process, the data processing process can correct the prediction basis and is therefore considered suitable for cases where the prediction basis is incorrect and the predicted label is also incorrect.

ステップS307では、CPU201は、図4の結果分析画面の削除ボタン407が押下されたか否かを判定する。この判定の結果、削除ボタン407が押下された場合(ステップS307でYES)、ステップS308に進み、そうでない場合、ステップS309に進む。ここで、削除ボタン407は、ユーザが、対象の入力画像を学習データや評価データとして用いると画像分類AIの再学習や評価に悪影響を及ぼすため、学習データや評価データから対象の入力画像を削除する削除処理を行いたい場合に押下されるボタンである。ここで、対象の入力画像が画像分類AIの再学習や評価に悪影響を及ぼす場合とは、例えば、入力情報に含まれる入力画像が、学習や評価に関係のない画像である場合や、対象物が大きすぎる又は小さすぎる画像である場合などである。 In step S307, the CPU 201 determines whether the delete button 407 on the result analysis screen in FIG. 4 has been pressed. As a result of this determination, if the delete button 407 has been pressed (YES in step S307), the process advances to step S308; otherwise, the process advances to step S309. Here, the delete button 407 is used to delete the target input image from the learning data and evaluation data because if the user uses the target input image as training data and evaluation data, it will have a negative effect on the relearning and evaluation of the image classification AI. This button is pressed when you want to perform deletion processing. Here, cases in which the target input image has a negative effect on the relearning and evaluation of image classification AI include, for example, cases in which the input image included in the input information is an image unrelated to learning or evaluation, or the case where the target input image This is the case when the image is too large or too small.

ステップS308では、CPU201は、上記削除処理を実行するために、対象の入力画像のパスを削除テーブル(図7)に登録する。 In step S308, the CPU 201 registers the path of the target input image in the deletion table (FIG. 7) in order to execute the deletion process.

ステップS309では、CPU201は、図4の結果分析画面のエクスポートボタン408(更新受付手段)が押下されたか否かを判定する。この判定の結果、エクスポートボタン408が押下された場合(ステップS309でYES)、ステップS310に進み、そうでない場合、ステップS301に戻る。 In step S309, the CPU 201 determines whether the export button 408 (update accepting means) on the result analysis screen in FIG. 4 has been pressed. As a result of this determination, if the export button 408 has been pressed (YES in step S309), the process advances to step S310, and if not, the process returns to step S301.

ステップS310では、CPU201は、対象の入力画像が評価データであるか否かを判定する。この判定の結果、対象が評価データである場合(ステップS310でYES)、ステップS311に進み、そうでない場合、すなわち対象が学習データである場合(ステップS310でNO)、ステップS312に進む。 In step S310, the CPU 201 determines whether the target input image is evaluation data. As a result of this determination, if the target is evaluation data (YES in step S310), the process advances to step S311, and if not, that is, if the target is learning data (NO in step S310), the process advances to step S312.

ステップS311では、CPU201(更新手段)は、学習テーブルに対象の入力画像のパスが登録されている場合は、対象の入力画像を評価データから学習データに変更する。すなわち、学習ボタン405の押下後、エクスポートボタン408の押下を学習結果表示部400が受け付けた場合、対象の入力画像の保存先を外部装置102の評価データ用フォルダから学習データ用フォルダに移動する。また、CPU201は、加工テーブルに対象の入力画像のパスが登録されている場合は、データ加工処理により対象の入力画像を加工し、加工後の入力画像を評価データから学習データに変更する。すなわち、加工ボタン406の押下後、エクスポートボタン408の押下を学習結果表示部400が受け付けた場合、上記加工後、対象の入力画像の保存先を外部装置102の評価データ用フォルダから学習データ用フォルダに移動する。さらにCPU201は、削除テーブルに対象の入力画像のパスが登録されている場合は、対象の入力画像を評価データから削除する。すなわち、削除ボタン407の押下後、エクスポートボタン408の押下を学習結果表示部400が受け付けた場合、対象の入力画像を、現在保存されている外部装置102の評価データ用フォルダから削除する。その後、ステップS313に進む。 In step S311, if the path of the target input image is registered in the learning table, the CPU 201 (updating unit) changes the target input image from evaluation data to learning data. That is, when the learning result display unit 400 receives the pressing of the export button 408 after pressing the learning button 405, the storage destination of the target input image is moved from the evaluation data folder of the external device 102 to the learning data folder. Further, if the path of the target input image is registered in the processing table, the CPU 201 processes the target input image through data processing processing, and changes the processed input image from evaluation data to learning data. That is, when the learning result display unit 400 receives the press of the export button 408 after pressing the processing button 406, the storage destination of the target input image after the processing is changed from the evaluation data folder of the external device 102 to the learning data folder. Move to. Furthermore, if the path of the target input image is registered in the deletion table, the CPU 201 deletes the target input image from the evaluation data. That is, when the learning result display unit 400 receives the press of the export button 408 after pressing the delete button 407, the target input image is deleted from the evaluation data folder of the external device 102 where it is currently stored. After that, the process advances to step S313.

このように、対象が評価データである場合、評価データだけでなく学習データも更新される。尚、この場合、削除ボタン407のみ押下された後エクスポートボタン408が押下されると、学習データは更新されないため、後述のステップS313において画像分類AIの再学習は行わなくてもよい。 In this way, when the target is evaluation data, not only the evaluation data but also the learning data is updated. In this case, if the export button 408 is pressed after only the delete button 407 is pressed, the learning data will not be updated, so there is no need to re-learn the image classification AI in step S313, which will be described later.

ステップS312では、CPU201(更新手段)は、加工テーブルに対象の入力画像のパスが登録されている場合は、データ加工処理によりその対象の入力画像を加工し、加工後の入力画像で学習データとしての対象の入力画像を置換する。すなわち、上記加工後の対象の入力画像で、外部装置102の学習データ用フォルダにある対象の入力画像を置換する。またCPU201は、削除テーブルに対象の入力画像のパスが登録されている場合は、対象の入力画像を学習データから削除する。すなわち、対象の入力画像を、現在保存されている外部装置102の学習データ用フォルダから削除する。その後、ステップS313に進む。 In step S312, if the path of the target input image is registered in the processing table, the CPU 201 (updating means) processes the target input image through data processing processing, and uses the processed input image as learning data. Replace the input image for the target. That is, the target input image in the learning data folder of the external device 102 is replaced with the target input image after the above processing. Further, if the path of the target input image is registered in the deletion table, the CPU 201 deletes the target input image from the learning data. That is, the target input image is deleted from the learning data folder of the external device 102 where it is currently stored. After that, the process advances to step S313.

このように、対象が学習データである場合、学習データのみが更新され、評価データは更新されない。このため、対象が学習データである場合、後述のステップS313において画像分類AIの評価は行わなくてもよい。 In this way, when the target is learning data, only the learning data is updated, and the evaluation data is not updated. Therefore, when the target is learning data, it is not necessary to evaluate the image classification AI in step S313, which will be described later.

ステップS313では、CPU201は、外部装置102の学習データ用フォルダから学習データを出力し、画像分類AIの再学習を行う。また、CPU201は、外部装置102の評価データ用フォルダから評価データを出力し、画像分類AIの評価を行う。その後、本処理を終了する。 In step S313, the CPU 201 outputs learning data from the learning data folder of the external device 102 and re-learns the image classification AI. Further, the CPU 201 outputs evaluation data from the evaluation data folder of the external device 102 and performs image classification AI evaluation. After that, this process ends.

尚、本実施形態では、画像分類AIの再学習は情報処理装置101のCPU201が実行したが、更新後の学習データを用いて画像分類AIの再学習が行われるのであれば、かかる実施形態に限定されない。例えば、CPU201は、外部装置102に画像分類AIの再学習の実行指示を行い、外部装置102から再学習後の画像分類AI(又は、その内部パラメータ)を取得するようにしてもよい。同様に、画像分類AIの評価は情報処理装置101のCPU201が実行したが、更新後の評価データを用いて画像分類AIの評価が行われるのであれば、かかる実施形態に限定されない。例えば、CPU201は、外部装置102に画像分類AIの評価の実行指示を行い、外部装置102からその評価結果を取得するようにしてもよい。 In this embodiment, the CPU 201 of the information processing apparatus 101 performs relearning of the image classification AI, but if the relearning of the image classification AI is performed using updated learning data, this embodiment may be used. Not limited. For example, the CPU 201 may instruct the external device 102 to perform relearning of the image classification AI, and obtain the relearned image classification AI (or its internal parameters) from the external device 102. Similarly, although the CPU 201 of the information processing apparatus 101 executes the evaluation of the image classification AI, the present invention is not limited to this embodiment as long as the evaluation of the image classification AI is performed using updated evaluation data. For example, the CPU 201 may instruct the external device 102 to perform image classification AI evaluation, and obtain the evaluation results from the external device 102.

図4は、図3のステップS301で表示装置212において表示される結果分析画面である。 FIG. 4 is a result analysis screen displayed on the display device 212 in step S301 of FIG.

結果分析画面は、入力画像毎の学習結果表示部400a~400d(以下、「学習結果表示部400」と総称する)、及びエクスポートボタン408を有する。 The result analysis screen includes learning result display sections 400a to 400d (hereinafter collectively referred to as "learning result display sections 400") for each input image, and an export button 408.

学習結果表示部400は、正解ラベル表示部401、予測ラベル表示部402、入力画像表示部403、予測根拠画像表示部404、学習ボタン405、加工ボタン406、及び削除ボタン407からなる。 The learning result display section 400 includes a correct label display section 401, a predicted label display section 402, an input image display section 403, a prediction basis image display section 404, a learning button 405, a processing button 406, and a deletion button 407.

正解ラベル表示部401は、入力画像の正解ラベルを表示する。 The correct label display section 401 displays the correct label of the input image.

予測ラベル表示部402は、画像分類AIの予測ラベルを表示する。 The predicted label display unit 402 displays the predicted label of the image classification AI.

入力画像表示部403は、入力画像を表示する。 Input image display section 403 displays an input image.

予測根拠画像表示部404は、予測根拠画像を表示する。 A prediction basis image display section 404 displays a prediction basis image.

このように、図4の結果分析画面という一つの画面に、正解ラベル、予測ラベル、入力画像、予測根拠画像が比較可能に表示される。これにより、ユーザは図4の結果分析画面により簡単に学習結果の妥当性を判断することで可能となる。 In this way, the correct label, predicted label, input image, and prediction basis image are displayed in a comparable manner on one screen, the result analysis screen in FIG. 4. This allows the user to easily judge the validity of the learning results using the result analysis screen shown in FIG.

学習ボタン405は、入力画像のパスを学習テーブルに登録する指示を受け付けるボタンである。 The learning button 405 is a button that accepts an instruction to register the path of the input image in the learning table.

加工ボタン406(加工受付手段)は、入力画像のパスを加工テーブルに登録する指示(登録指示)を受け付けるボタンである。 The processing button 406 (processing acceptance means) is a button that accepts an instruction (registration instruction) to register the path of the input image in the processing table.

削除ボタン407は、入力画像のパスを削除テーブルに登録する指示を受け付けるボタンである。 The delete button 407 is a button that accepts an instruction to register the path of the input image in the deletion table.

エクスポートボタン408は、学習テーブル、加工テーブル、削除テーブルに登録された入力画像を処理し、学習データ及び/又は評価データを更新した後に出力する旨の指示(更新指示)を受け付けるボタンである。 The export button 408 is a button that accepts an instruction (update instruction) to process input images registered in the learning table, processing table, and deletion table, and output the updated learning data and/or evaluation data.

ユーザは、学習結果表示部400に表示される学習結果が妥当でないと判断した場合、図4の結果分析画面の学習ボタン405、加工ボタン406、削除ボタン407の少なくとも1つを押下した後、エクスポートボタン408を押下する。かかる学習結果表示部400への操作のみで、ユーザは、簡単に画像分類AIの精度向上施策を実施することができる。具体的な精度改善施策として、入力画像の学習データとしての追加、入力画像の学習データ及び評価データとしての加工、入力画像の学習データ及び評価データからの削除を行うことができる。 If the user determines that the learning results displayed on the learning result display section 400 are not valid, the user presses at least one of the learning button 405, processing button 406, and delete button 407 on the result analysis screen in FIG. Press button 408. By only operating the learning result display section 400, the user can easily implement measures to improve the accuracy of image classification AI. As specific accuracy improvement measures, it is possible to add the input image as learning data, process the input image as learning data and evaluation data, and delete the input image from the learning data and evaluation data.

図5は、学習データに追加するための入力画像のパスが登録される学習テーブルである。 FIG. 5 is a learning table in which paths of input images to be added to learning data are registered.

図6は、加工を施した後に学習データに追加又は置換するための入力画像のパスが登録される加工テーブルである。 FIG. 6 is a processing table in which paths of input images to be added to or replaced with learning data after processing are registered.

図7は、評価データ又は学習データから削除するための入力画像のパスが登録される削除テーブルである。 FIG. 7 is a deletion table in which paths of input images to be deleted from evaluation data or learning data are registered.

次に図8のフローチャートを用いて、図4のステップS411,S412において実行されるデータ加工処理の一例について説明する。この処理は、エクスポートボタン408(図4)が押下された際、加工テーブルにパスが登録された全ての入力画像に対して実行される。すなわちこの処理では、誤った予測根拠をもとに画像分類AIの学習が行われないように、加工テーブルにパスが登録された全ての入力画像が加工される。 Next, an example of the data processing processing executed in steps S411 and S412 in FIG. 4 will be described using the flowchart in FIG. 8. This process is executed for all input images whose paths are registered in the processing table when the export button 408 (FIG. 4) is pressed. That is, in this process, all input images whose paths are registered in the processing table are processed so that the image classification AI is not trained based on incorrect prediction grounds.

この処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出すことにより実行される。 This process is executed by the CPU 201 of the information processing device 101 reading a predetermined control program.

まずステップS801では、CPU201は、加工テーブルにパスが登録されている入力画像の一つを、加工対象に決定する。ここで加工対象として決定された入力画像の例を図10(A)に示す。この入力画像では、左の穴の位置が設計位置からずれているため、その正解ラベルは「異常」である。よって、この入力画像から画像分類AIにより推論される予測ラベルも「異常」であることが望ましい。また、その予測根拠画像のヒートマップには、左の穴の位置に近い程、暖色系の色(予測根拠の程度が高いことを示す色)が付されるが望ましい。 First, in step S801, the CPU 201 determines one of the input images whose path is registered in the processing table to be processed. An example of the input image determined to be processed here is shown in FIG. 10(A). In this input image, the position of the left hole is shifted from the designed position, so the correct label is "abnormal." Therefore, it is desirable that the predicted label inferred from this input image by the image classification AI is also "abnormal". Further, it is desirable that the heat map of the prediction basis image be given a warmer color (a color indicating a higher degree of prediction basis) closer to the position of the hole on the left.

ステップS802では、CPU201は、ヒートマップのうち、設定値1A(所定の基準)より大きな値を持つピクセルの座標を取得する。ヒートマップの各ピクセルは0~1の間の値をとる。また、設定値1Aは、ヒートマップの各ピクセルの予測根拠となった程度が所定の基準を満たすか否かを判定するためのしきい値であって、0より大きく1より小さい値を持つ。予測根拠画像の例を図10(B)に示す。この予測根拠画像では、右の穴の周辺を予測根拠としており、誤った予測根拠により予測ラベルが出力されたことがわかる。ステップS802ではこのような画像に対して処理を行う。 In step S802, the CPU 201 acquires the coordinates of pixels in the heat map that have a value larger than the set value 1A (predetermined standard). Each pixel of the heatmap takes a value between 0 and 1. Further, the setting value 1A is a threshold value for determining whether or not the degree of prediction based on each pixel of the heat map satisfies a predetermined criterion, and has a value greater than 0 and less than 1. An example of the prediction basis image is shown in FIG. 10(B). In this prediction basis image, the area around the hole on the right is used as the basis for prediction, and it can be seen that the prediction label was output based on an incorrect prediction basis. In step S802, such an image is processed.

ステップS803では、CPU201は、入力画像のうち、ステップS802で取得した全ての座標のピクセルの値を設定値2A(第1の所定値)に置換する加工を行う。図10(C)に、図10(a)の入力画像に対しステップS803の加工を行った画像(加工画像)を示す。この加工画像では、設定値2Aとして黒が指定されて加工が行われている。 In step S803, the CPU 201 processes the input image to replace the values of pixels at all coordinates acquired in step S802 with a set value 2A (first predetermined value). FIG. 10(C) shows an image (processed image) obtained by processing the input image of FIG. 10(a) in step S803. In this processed image, processing is performed with black specified as the setting value 2A.

ステップS804では、CPU201は、加工テーブルにパスが登録されている全ての入力画像に対してステップS803の加工が終了したか否かを判定する。判定の結果、全ての入力画像に対してステップS803の加工が終了した場合(ステップS804でYES)、本処理を終了する一方、そうでない場合(ステップS804でNO)、ステップS801に戻る。 In step S804, the CPU 201 determines whether the processing in step S803 has been completed for all input images whose paths are registered in the processing table. As a result of the determination, if the processing in step S803 has been completed for all input images (YES in step S804), this process is ended, whereas if not (NO in step S804), the process returns to step S801.

次に図9のフローチャートを用いて、図4のステップS411,S412において実行されるデータ加工処理の他の例について説明する。この処理では、入力画像の加工自体の一貫性が、ヒートマップの算出に影響することを防ぐために、入力画像の加工が一定の確率で行われる。また、本処理は、エクスポートボタン408(図4)が押下された際、加工テーブルにパスが登録されている入力画像だけでなく外部装置102に保存される全ての入力画像に対して、本処理の加工が確率的に行われる。本処理は特に追加学習の際に適用することを想定している。すなわちこの処理では、誤った予測根拠をもとに画像分類AIの学習が行われないように、情報処理装置101にある全ての入力画像の加工の適用を確率的に行う。 Next, another example of the data processing processing executed in steps S411 and S412 of FIG. 4 will be described using the flowchart of FIG. 9. In this process, the input image is processed with a certain probability in order to prevent the consistency of the input image processing itself from affecting heat map calculation. Furthermore, when the export button 408 (FIG. 4) is pressed, this processing is performed not only for input images whose paths are registered in the processing table but also for all input images saved in the external device 102. The processing is performed stochastically. This process is intended to be applied especially during additional learning. That is, in this process, processing is applied to all input images in the information processing apparatus 101 in a probabilistic manner so that the image classification AI is not trained based on incorrect prediction grounds.

この処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出すことにより実行される。 This process is executed by the CPU 201 of the information processing device 101 reading a predetermined control program.

まずステップS901では、CPU201は、外部装置102に保存される入力画像の1つを取得する。 First, in step S901, the CPU 201 acquires one of the input images stored in the external device 102.

ステップS902では、CPU201は、ステップS901で取得した入力画像のパスが加工テーブルに登録されているか否かを判定する。判定の結果、加工テーブルに登録されている場合(ステップS902でYES)、ステップS903に進み、そうでない場合(ステップS902でNO)、ステップS906に進む。 In step S902, the CPU 201 determines whether the path of the input image acquired in step S901 is registered in the processing table. As a result of the determination, if it is registered in the processing table (YES in step S902), the process advances to step S903, and if not (NO in step S902), the process advances to step S906.

ステップS903では、CPU201は、乱数を生成し、その生成した乱数が設定値1Bより大きいか(第1の確率であるか)否かを判定する。ここで生成される乱数及び設定値1Bは共に0から1の値をとる。判定の結果、乱数が設定値1Bより大きい場合は(ステップS903でYES)、ステップS901で取得した入力画像の加工を行うべく、ステップS904に進み、そうでない場合は(ステップS903でNO)、本処理を終了する。このように、加工の適用を確率的にすることで、加工自体の一貫性がヒートマップの算出に影響を与えることを防ぐ役割が期待される。 In step S903, the CPU 201 generates a random number and determines whether the generated random number is larger than the set value 1B (first probability). The random number generated here and the set value 1B both take values between 0 and 1. As a result of the determination, if the random number is larger than the set value 1B (YES in step S903), the process advances to step S904 to process the input image acquired in step S901; otherwise (NO in step S903), the process proceeds to step S904. Finish the process. In this way, applying the processing stochastically is expected to play a role in preventing the consistency of the processing itself from affecting the calculation of the heat map.

ステップS904では、CPU201は、ヒートマップのうち、設定値2B(所定の基準)より大きい値を持つピクセルの座標を取得し、ステップS905に進む。ヒートマップの各ピクセルは0~1の間の値をとる。また、設定値2Bは、ヒートマップの各ピクセルの予測根拠となった程度が所定の基準を満たすか否かを判定するためのしきい値であって、0より大きく1より小さい値を持つ。 In step S904, the CPU 201 acquires the coordinates of pixels in the heat map that have values greater than the set value 2B (predetermined standard), and proceeds to step S905. Each pixel of the heatmap takes a value between 0 and 1. Further, the setting value 2B is a threshold value for determining whether or not the degree of prediction based on each pixel of the heat map satisfies a predetermined criterion, and has a value greater than 0 and less than 1.

ステップS905では、CPU201は、ステップS901で取得した入力画像における、ステップS904で取得した全ての座標のピクセルの値を設定値3B(第1の所定値)に置換する加工を行った後、本処理を終了する。 In step S905, the CPU 201 processes the input image obtained in step S901 to replace the values of pixels at all coordinates obtained in step S904 with the set value 3B (first predetermined value), and then performs the main processing. end.

ステップS906では、CPU201は、乱数を生成し、その生成した乱数が設定値1Bより大きいか(第2の確率であるか)否かを判定する。判定の結果、乱数が設定値1Bより大きい場合は(ステップS906でYES)、ステップS901で取得した入力画像の加工を行うべく、ステップS907に進み、そうでない場合は(ステップS906でNO)、本処理を終了する。このように、外部装置102に保存される入力画像のうち、加工テーブルにはパスが登録されていない入力画像にも確率的に加工を施すことで、加工自体の一貫性がヒートマップの算出に影響を与えることを防ぐ役割が期待される。尚、ステップS906の判定に使用した設定値は、ステップS903の判定に使用した設定値1Bと同一としたが、異なる設定値であってもよい。 In step S906, the CPU 201 generates a random number and determines whether the generated random number is larger than the set value 1B (second probability). As a result of the determination, if the random number is larger than the set value 1B (YES in step S906), the process advances to step S907 to process the input image acquired in step S901; otherwise (NO in step S906), the process proceeds to step S907. Finish the process. In this way, by probabilistically processing input images that are stored in the external device 102 and whose paths are not registered in the processing table, the consistency of the processing itself can be maintained in the heat map calculation. It is expected that it will play a role in preventing negative impacts. Although the setting value used for the determination in step S906 is the same as the setting value 1B used in the determination in step S903, it may be a different setting value.

ステップS907では、CPU201は、ステップS901で取得した入力画像におけるピクセルをランダムに選択し、そのランダムに選択されたピクセルの値を設定値3B(第2の所定値)で置換した後、本処理を終了する。尚、ここでランダムに選択されるピクセルの数自体も、ランダムに設定された値としてもよいし、固定値としてもよい。 In step S907, the CPU 201 randomly selects a pixel in the input image acquired in step S901, replaces the value of the randomly selected pixel with the setting value 3B (second predetermined value), and then starts this process. finish. Note that the number of pixels randomly selected here may also be a randomly set value or may be a fixed value.

(その他の実施形態)
尚、本実施形態では、1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置のコンピュータに供給し、そのシステムまたは装置のシステム制御部がプログラムを読出し実行する処理でも実現可能である。システム制御部は、1つまたは複数のプロセッサーまたは回路を有し、実行可能命令を読み出し実行するために、分離した複数のシステム制御部または分離した複数のプロセッサーまたは回路のネットワークを含みうる。
(Other embodiments)
In this embodiment, a program for realizing one or more functions is supplied to a computer of a system or device via a network or a storage medium, and a system control unit of the system or device reads and executes the program. It is possible. The system controller has one or more processors or circuits and may include separate system controllers or a network of separate processors or circuits for reading and executing executable instructions.

プロセッサーまたは回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)を含みうる。また、プロセッサーまたは回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), microprocessing unit (MPU), graphics processing unit (GPU), application specific integrated circuit (ASIC), field programmable gate array (FPGA). The processor or circuit may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.

1 AI予測根拠表示システム
101 情報処理装置
102 外部装置
110 ネットワーク
201 CPU
212 表示装置
405 学習ボタン
406 加工ボタン
407 削除ボタン
408 エクスポートボタン
1 AI prediction basis display system 101 Information processing device 102 External device 110 Network 201 CPU
212 Display device 405 Learning button 406 Processing button 407 Delete button 408 Export button

Claims (7)

学習済みモデルによる予測ラベルの出力処理の対象となる複数の入力画像のうち、加工を施す対象の画像を受け付ける加工受付手段と、
前記学習済みモデルの予測根拠となった特徴領域を取得する取得手段と、
前記加工受付手段により加工を施す対象の画像として受け付けた画像であって、第1の確率で選択された画像に対して、前記特徴領域の少なくとも一部のピクセルの値を、第1の所定値に置換する第1の加工処理を行い、前記複数の入力画像のうち、前記加工受付手段により加工を施す対象の画像として受け付けていない画像であって、第2の確率で選択された画像に対して、当該画像の一部のピクセルの値を、第2の所定値に置換する第2の加工処理を行う処理手段と、
前記第1及び第2の加工処理が行われた画像を用いて、学習済みモデルの再学習を行うための学習データを更新する更新手段と、
を備えることを特徴とする情報処理装置。
processing reception means for receiving an image to be processed from among a plurality of input images to be processed for outputting predicted labels by the learned model;
acquisition means for acquiring a feature region that is the basis for prediction of the learned model;
For an image accepted as an image to be processed by the processing receiving means and selected with a first probability , the values of at least some pixels of the characteristic region are set to a first predetermined value. A first processing process is performed to replace the image with a second probability, and among the plurality of input images, the image is not accepted as an image to be processed by the processing acceptance means, and is selected with a second probability. processing means for performing a second processing process to replace the values of some pixels of the image with a second predetermined value;
updating means for updating learning data for relearning the trained model using the images subjected to the first and second processing;
An information processing device comprising:
前記第2の加工処理は、前記複数の入力画像のうち、前記加工受付手段により加工を施す対象として受け付けていない画像であって、前記第2の確率で選択された画像に対して、ランダムに選択された領域にあるピクセルの値を、前記第2の所定値に置換する処理を含むことを特徴とする請求項1に記載の情報処理装置。The second processing is performed on images that are not accepted as processing targets by the processing acceptance means among the plurality of input images and that are selected with the second probability. The information processing apparatus according to claim 1, further comprising a process of replacing a value of a pixel in the selected area with the second predetermined value. 記複数の入力画像のうち、前記加工受付手段が登録指示を受け付けた画像を、加工を施す対象の画像として登録する登録手段と、
前記学習済みモデルの再学習を行うための学習データを更新する更新指示を受け付ける更新受付手段と、
を備え、
前記更新手段は、前記更新受付手段が前記更新指示を受け付けた場合、前記処理手段により前記第1及び第2の加工処理を行い、前記第1及び第2の加工処理が行われた画像を用いて前記学習データを更新することを特徴とする請求項1又は2に記載の情報処理装置。
registration means for registering, among the plurality of input images, an image for which the processing reception means has received a registration instruction as an image to be processed;
update receiving means for receiving an update instruction to update learning data for relearning the learned model;
Equipped with
When the update receiving means receives the update instruction, the updating means performs the first and second processing by the processing means , and uses the image on which the first and second processing has been performed. The information processing device according to claim 1 or 2, wherein the learning data is updated by using the learning data.
前記複数の入力画像、前記予測ラベル、前記特徴領域を前記入力画像に重畳した予測根拠画像、及び予め定められた前記入力画像に対する、前記学習済みモデルに入力した際の推論の正解を示す正解ラベルを比較可能に一つの画面に表示する表示手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 the plurality of input images, the prediction label, a prediction basis image obtained by superimposing the feature region on the input image , and a correct answer label indicating the correct answer of the inference when inputting the predetermined input image to the learned model. 4. The information processing apparatus according to claim 1, further comprising display means for displaying the information on one screen in a comparative manner. 前記特徴領域の少なくとも一部のピクセルは、当該特徴領域のうち予測根拠となった程度が所定の基準を満たす領域に位置するピクセルであることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 5. At least some of the pixels in the feature region are pixels located in a region of the feature region whose degree of prediction basis satisfies a predetermined criterion. The information processing device described in . 情報処理装置の情報処理方法であって、
学習済みモデルによる予測ラベルの出力処理の対象となる複数の入力画像のうち、加工を施す対象の画像を受け付ける加工受付ステップと、
前記学習済みモデルの予測根拠となった特徴領域を取得する取得ステップと、
前記加工受付ステップにおいて加工を施す対象の画像として受け付けた画像であって、第1の確率で選択された画像に対して、前記特徴領域の少なくとも一部のピクセルの値を、第1の所定値に置換する第1の加工処理を行い、前記複数の入力画像のうち、前記加工受付ステップにおいて加工を施す対象の画像として受け付けていない画像であって、第2の確率で選択された画像に対して、当該画像の一部のピクセルの値を、第2の所定値に置換する第2の加工処理を行う処理ステップと、
前記第1及び第2の加工処理が行われた画像を用いて、学習済みモデルの再学習を行うための学習データを更新する更新ステップと、
を備えることを特徴とする情報処理方法。
An information processing method for an information processing device, the method comprising:
a processing reception step of receiving an image to be processed from among a plurality of input images to be processed to output predicted labels by the learned model;
an acquisition step of acquiring a feature region that is the basis for prediction of the learned model;
For an image accepted as an image to be processed in the processing reception step and selected with a first probability , the values of at least some pixels of the characteristic region are set to a first predetermined value. A first processing process is performed to replace the image with a second probability , and among the plurality of input images, the image is not accepted as an image to be processed in the processing acceptance step, and is selected with a second probability. a processing step of performing a second processing process of replacing the values of some pixels of the image with a second predetermined value;
an updating step of updating learning data for relearning the trained model using the images subjected to the first and second processing;
An information processing method comprising:
コンピュータを、請求項1乃至のいずれか1項に記載の情報処理装置の各手段として機能させる、コンピュータにより実行可能なプログラム。 A computer-executable program that causes a computer to function as each means of the information processing apparatus according to claim 1 .
JP2021199409A 2021-12-08 2021-12-08 Information processing device, information processing method, and program Active JP7383684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021199409A JP7383684B2 (en) 2021-12-08 2021-12-08 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021199409A JP7383684B2 (en) 2021-12-08 2021-12-08 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2023084981A JP2023084981A (en) 2023-06-20
JP7383684B2 true JP7383684B2 (en) 2023-11-20

Family

ID=86775566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021199409A Active JP7383684B2 (en) 2021-12-08 2021-12-08 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7383684B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194446A (en) 2019-05-29 2020-12-03 株式会社アーク情報システム Program, information processing method, and information processor
JP2020197833A (en) 2019-05-31 2020-12-10 楽天株式会社 Data extension system, data extension method and program
WO2021130888A1 (en) 2019-12-25 2021-07-01 日本電気株式会社 Learning device, estimation device, and learning method
JP2021117548A (en) 2020-01-22 2021-08-10 富士通株式会社 Image processing apparatus, image processing method and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194446A (en) 2019-05-29 2020-12-03 株式会社アーク情報システム Program, information processing method, and information processor
JP2020197833A (en) 2019-05-31 2020-12-10 楽天株式会社 Data extension system, data extension method and program
JP2021120914A (en) 2019-05-31 2021-08-19 楽天グループ株式会社 Data extension system, data extension method and program
WO2021130888A1 (en) 2019-12-25 2021-07-01 日本電気株式会社 Learning device, estimation device, and learning method
JP2021117548A (en) 2020-01-22 2021-08-10 富士通株式会社 Image processing apparatus, image processing method and image processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Terrance DeVries, Graham W. Taylor,Improved Regularization of Convolutional Neural Networks with Cutout,[online],2017年08月15日,[retrieved on 2023.06.20], Retrieved from the Internet : <url: https://arxiv.org/pdf/1708.04552v1.pdf>
Zhun Zhong et al.,Random Erasing Data Augmentation,[online],2017年08月16日,[retrieved on 2023.06.20], Retrieved from the Internet : <url: https://arxiv.org/pdf/1708.04896v1.pdf>

Also Published As

Publication number Publication date
JP2023084981A (en) 2023-06-20

Similar Documents

Publication Publication Date Title
JP6970553B2 (en) Image processing device, image processing method
TWI675314B (en) Smart device control method and device
US20240089331A1 (en) Display Method, Related Device, and Non-Transitory Readable Storage Medium
JP7379684B2 (en) Image generation method and device and computer program
JP3706743B2 (en) Region of interest extraction method and apparatus, and storage medium
CN113343812A (en) Gesture recognition method and device, storage medium and electronic equipment
TWI505173B (en) System and method for improving recognition of a touch keyboard in an electronic device
JP7383684B2 (en) Information processing device, information processing method, and program
JP6036792B2 (en) Computer, calculation server, program, data output method, and computer system
JP2006260021A (en) Display control device and method for reducing display screen thereof
US10114518B2 (en) Information processing system, information processing device, and screen display method
US10839570B2 (en) Graph display method, electronic device, and recording medium for displaying modified expression in different ways in response to determining whether condition regarding modified expression is satisfied
CN109753217B (en) Dynamic keyboard operation method and device, storage medium and electronic equipment
WO2019201223A1 (en) Screen display switch method and apparatus, and storage medium
US20210173473A1 (en) Input apparatus
JP2023084980A (en) Information processing apparatus, information processing method, and program
CN112148171B (en) Interface switching method and device and electronic equipment
JP2010128567A (en) Cursor movement control method and device, and program
JP2014209326A (en) Image processing apparatus, image processing method, and image processing program
CN114518859A (en) Display control method, display control device, electronic equipment and storage medium
JP6249077B2 (en) Computer, data output method, and program
CN112286430A (en) Image processing method, apparatus, device and medium
JP7248279B2 (en) Computer system, program and method
US20170255352A1 (en) Electronic device
JP7100783B1 (en) Learning device and inference device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R150 Certificate of patent or registration of utility model

Ref document number: 7383684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150