JP7236292B2 - Evaluation device, evaluation method, evaluation program, and inspection device - Google Patents

Evaluation device, evaluation method, evaluation program, and inspection device Download PDF

Info

Publication number
JP7236292B2
JP7236292B2 JP2019042990A JP2019042990A JP7236292B2 JP 7236292 B2 JP7236292 B2 JP 7236292B2 JP 2019042990 A JP2019042990 A JP 2019042990A JP 2019042990 A JP2019042990 A JP 2019042990A JP 7236292 B2 JP7236292 B2 JP 7236292B2
Authority
JP
Japan
Prior art keywords
classifier
evaluation
article
sample image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019042990A
Other languages
Japanese (ja)
Other versions
JP2020042001A (en
Inventor
公紀 黒澤
和宏 渡部
正浩 柏木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujikura Ltd
Original Assignee
Fujikura Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujikura Ltd filed Critical Fujikura Ltd
Publication of JP2020042001A publication Critical patent/JP2020042001A/en
Application granted granted Critical
Publication of JP7236292B2 publication Critical patent/JP7236292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物品の状態を分類する分類器を評価する評価装置、評価方法、及び評価プログラムに関する。また、本発明は、物品の検査を行う検査装置に関する。 The present invention relates to an evaluation device, an evaluation method, and an evaluation program for evaluating a classifier that classifies the states of articles. The present invention also relates to an inspection apparatus for inspecting articles.

物品を被写体として含む画像を参照して該物品の状態を分類する技術が広く用いられている。このような技術を、機械学習により構築された分類器を用いて実現する場合、分類器を完成させる過程で、学習済みの分類器を評価する必要がある。 A technique for classifying the state of an article by referring to an image containing the article as a subject is widely used. When implementing such a technique using a classifier constructed by machine learning, it is necessary to evaluate the learned classifier in the process of completing the classifier.

このような問題の解決に資する可能性のある技術としては、例えば、特許文献1に記載の評価装置が挙げられる。この評価装置は、学習目標を受け付ける学習目標受付部と、少なくとも学習目標に含まれる評価項目について分類器の評価を行い、評価データを生成する評価部と、学習目標と評価データとを用いて、分類器が学習目標を達成したか否か判定する判定部とを含む。 As a technology that may contribute to solving such problems, for example, an evaluation device described in Patent Document 1 can be cited. This evaluation device uses a learning goal reception unit that receives a learning goal, an evaluation unit that evaluates the classifier for at least the evaluation items included in the learning goal and generates evaluation data, and the learning goal and the evaluation data, and a determining unit for determining whether the classifier has achieved its learning goal.

特開2018-181184号公報(2018年11月15日公開)Japanese Patent Application Laid-Open No. 2018-181184 (published on November 15, 2018)

発明者らは、物品の状態を分類する際に分類器が着目する画像内の領域と、物品の状態を分類する際に人が着目する画像内の領域との比較を行った。その結果、一定の汎化能力を有する分類器(例えば、特許文献1の記載の評価装置によって学習目標を達成したと判定された評価装置)であっても、物品の状態を分類する際に人が着目する領域とは全く異なる領域に着目している分類器が存在することが分かった。このような分類器は、限られたテストデータに関して人による分類の結果を偶発的に再現した分類器に過ぎないと考えられる。したがって、このような分類器は、追加学習による汎化能力の向上を期待することができない、謂わば「筋の悪い」の分類器であり、人による物品の分類を代替する分類器になり得ない。このような観点から分類器を評価する技術は、これまで存在していない。もちろん、特許文献1に記載の評価装置も、このような観点から分類器を評価するものではない。 The inventors compared the area in the image that the classifier pays attention to when classifying the state of the article and the area in the image that the person pays attention to when classifying the state of the article. As a result, even with a classifier having a certain generalization ability (for example, an evaluation device that is determined to have achieved a learning goal by the evaluation device described in Patent Document 1), when classifying the state of an article, human It was found that there are classifiers that focus on a completely different region from the one focused on by . Such classifiers are considered to be nothing more than accidental reproductions of human classification results on limited test data. Therefore, such a classifier cannot be expected to improve generalization ability through additional learning, and is a so-called "bad" classifier, and can be a classifier that replaces the classification of articles by humans. do not have. Techniques for evaluating classifiers from this point of view have not existed so far. Of course, the evaluation device described in Patent Literature 1 does not evaluate the classifier from such a point of view.

本発明は、上記の問題に鑑みてなされたものであり、その目的は、物品の状態を分類する分類器を、着目する領域に関する人との類似性の観点から評価することが可能な評価装置、評価方法、及び評価プログラムを実現することにある。また、そのような評価装置を用いた検査装置を実現することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide an evaluation apparatus capable of evaluating a classifier for classifying the state of an article from the viewpoint of similarity with a person in a region of interest. , an evaluation method, and an evaluation program. Another object of the present invention is to realize an inspection apparatus using such an evaluation apparatus.

上記の課題を解決するために、本発明の一態様に係る評価装置は、物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、学習により定められたアルゴリズムに従い実行する複数の分類器の各々を評価する評価装置である。該評価装置は、人が状態を分類した物品を被写体として含む画像をサンプル画像として、各分類器に対応するヒートマップであって、上記分類処理において該分類器が着目する該サンプル画像内の領域を示すヒートマップを作成する作成部と、対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価部と、を備えている。 In order to solve the above problems, an evaluation apparatus according to an aspect of the present invention refers to an image including an article as a subject, and performs classification processing for classifying the state of the article according to an algorithm determined by learning. An evaluation device for evaluating each of a plurality of classifiers. The evaluation device uses an image including, as a subject, an article whose state has been classified by a person as a sample image, and a heat map corresponding to each classifier, which is a region in the sample image to which the classifier pays attention in the classification process. Based on the comparison between the area in the sample image indicated by the corresponding heat map and the area in the sample image that the person focuses on in order to classify the state of the article, each an evaluation unit for evaluating the classifier.

上記の課題を解決するために、本発明の一態様に係る評価方法は、物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、学習により定められたアルゴリズムに従い実行する複数の分類器の各々を評価する評価方法である。該評価方法は、人が状態を分類した物品を被写体として含む画像をサンプル画像として、各分類器に対応するヒートマップであって、上記分類処理において該分類器が着目する該サンプル画像内の領域を示すヒートマップを作成する作成ステップと、対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価ステップと、を備えている。 In order to solve the above problems, an evaluation method according to an aspect of the present invention refers to an image including an article as a subject, and executes classification processing for classifying the state of the article according to an algorithm determined by learning. It is an evaluation method for evaluating each of a plurality of classifiers. The evaluation method uses an image including, as a subject, an article whose state has been classified by a person as a sample image, a heat map corresponding to each classifier, and a region in the sample image to which the classifier focuses in the classification process. and comparing the area in the sample image indicated by the corresponding heat map with the area in the sample image that the person focuses on to classify the state of the article, each and an evaluation step of evaluating the classifier.

上記の課題を解決するために、本発明の一態様に係る評価プログラムは、コンピュータを上述の評価装置として動作させる評価プログラムであって、上記コンピュータを上記評価装置の各部として機能させる。 In order to solve the above problems, an evaluation program according to one aspect of the present invention is an evaluation program that causes a computer to operate as the evaluation device described above, and causes the computer to function as each part of the evaluation device.

上記の課題を解決するために、本発明の一態様に係る検査装置は、物品の検査を行う検査装置である。該検査装置は、上記複数の分類器と、上述の評価装置と、上記評価装置による評価結果に基づいて、上記複数の分類器から何れかの分類器を選択する選択部と、を含み、上記選択部により選択された分類器を用いて、上記物品の検査を行う。 To solve the above problems, an inspection apparatus according to one aspect of the present invention is an inspection apparatus that inspects articles. The inspection device includes the plurality of classifiers, the evaluation device, and a selection unit that selects one of the plurality of classifiers based on the evaluation result of the evaluation device, The article is inspected using the classifier selected by the selection unit.

上記の構成によれば、物品の状態を分類する分類器を、着目する領域に関する人との類似性の観点から評価することができる。 According to the above configuration, it is possible to evaluate a classifier that classifies the state of an article from the viewpoint of similarity with a person regarding the region of interest.

本発明の一態様に係る評価装置において、上記評価部は、対応するヒートマップが示すサンプル画像内の領域の中に、物品の状態を分類するために上記人が着目するサンプル画像内の領域と重複する領域が含まれている分類器を、含まれていない分類器より高く評価する、ことが好ましい。 In the evaluation device according to an aspect of the present invention, the evaluation unit includes an area in the sample image that the person pays attention to for classifying the state of the article, in the area in the sample image indicated by the corresponding heat map. It is preferable to rate classifiers that include overlapping regions higher than classifiers that do not.

上記の構成によれば、物品の状態を分類するために、人が着目する領域と類似する領域に着目する分類器を高く評価することができる。 According to the above configuration, in order to classify the state of an article, it is possible to highly evaluate a classifier that focuses on a region similar to a region that a person focuses on.

本発明の一態様に係る評価装置において、上記評価部は、対応するヒートマップが示すサンプル画像内の領域の中に、物品の状態を分類するために上記人が着目するサンプル画像内の領域と重複しない領域が含まれている分類器を、含んでいない分類器よりさらに高く評価する、ことが好ましい。 In the evaluation device according to an aspect of the present invention, the evaluation unit includes an area in the sample image that the person pays attention to for classifying the state of the article, in the area in the sample image indicated by the corresponding heat map. It is preferable to rate classifiers that contain non-overlapping regions higher than classifiers that do not.

上記の構成によれば、物品の状態を分類するために、人が着目する領域と類似する領域に着目することに加えて、人が着目する領域と類似しない独自の領域に着目する分類器を、高く評価することができる。 According to the above configuration, in order to classify the state of an article, in addition to focusing on areas similar to the area of human attention, a classifier that focuses on a unique area that is not similar to the area of human attention is provided. , can be appreciated.

本発明の一態様に係る評価装置において、人が状態を分類した物品を被写体として含む複数の画像の各々をサンプル画像として、サンプル画像毎に各分類器に対応するヒートマップを作成し、上記評価部は、サンプル画像毎に各分類器を評価した評価結果に基づいて、各分類器を評価する、ことが好ましい。 In the evaluation apparatus according to one aspect of the present invention, each of a plurality of images containing articles classified by a person as subjects is used as a sample image, and a heat map corresponding to each classifier is created for each sample image, and the above evaluation is performed. Preferably, the unit evaluates each classifier based on evaluation results of evaluating each classifier for each sample image.

上記の構成によれば、物品の状態を分類する分類器を、より高い精度で評価することができる。 According to the above configuration, the classifier that classifies the state of the article can be evaluated with higher accuracy.

本発明の一態様に係る評価装置において、上記評価部は、上記複数の分類器のうち、各サンプル画像に被写体として含まれる物品の状態を分類した結果が、上記人が該物品の状態を分類した結果に一致する割合がより高い分類器を、さらに高く評価する、ことが好ましい。 In the evaluation device according to the aspect of the present invention, the evaluation unit classifies the state of the article included in each sample image as a subject in each of the plurality of classifiers so that the person classifies the state of the article. Preferably, classifiers with a higher percentage of matching results are rated higher.

上記の構成によれば、物品の状態を分類するために、人が着目する領域と類似する領域に着目すると共に、分類精度が高い分類器を高く評価することができる。 According to the above configuration, in order to classify the state of an article, it is possible to focus on a region similar to a region that a person pays attention to, and to highly evaluate a classifier with high classification accuracy.

本発明の一態様によれば、物品の状態を分類する分類器を、着目する領域に関する人との類似性の観点から評価することができる。 According to one aspect of the present invention, a classifier that classifies the state of an article can be evaluated in terms of similarity with a person regarding a region of interest.

本発明の第1の実施形態に係る評価装置の物理的構成を示すブロック図である。1 is a block diagram showing the physical configuration of an evaluation device according to a first embodiment of the present invention; FIG. 図1に示す評価装置の機能的構成を示すブロック図である。2 is a block diagram showing the functional configuration of the evaluation device shown in FIG. 1; FIG. 図1に示す評価装置が実行する評価方法S1の流れを示すフローチャートである。2 is a flowchart showing the flow of an evaluation method S1 executed by the evaluation device shown in FIG. 1; 図3に示す作成ステップにおいて生成されるヒートマップの一例を示す図である。FIG. 4 is a diagram showing an example of a heat map generated in the creation step shown in FIG. 3; FIG. (a)~(c)は、各サンプル画像における、検査者による着目領域の一例を示す模式図である。(d)~(e)は、ある分類器に対応する各サンプル画像のヒートマップが示す、該分類器による着目領域を示す模式図である。(f)~(h)は、他の分類器に対応する各サンプル画像のヒートマップが示す、該分類器による着目領域を示す模式図である。(a) to (c) are schematic diagrams showing an example of a region of interest by an inspector in each sample image. (d) to (e) are schematic diagrams showing regions of interest by a certain classifier indicated by heat maps of sample images corresponding to the classifier. (f) to (h) are schematic diagrams showing the region of interest by the other classifier indicated by the heat map of each sample image corresponding to the classifier. 図3に示す評価ステップにおける各分類器の評価の一例を示す図である。It is a figure which shows an example of evaluation of each classifier in the evaluation step shown in FIG. 本発明の第2の実施形態に係る検査装置の機能的構成を示すブロック図である。It is a block diagram showing a functional configuration of an inspection apparatus according to a second embodiment of the present invention. (a)は、図7に示す検査装置の実施例において、検査者による着目領域を示す図である。(b)、(c)は、各分類器による着目領域を示す図である。8A is a diagram showing a region of interest by an inspector in the embodiment of the inspection apparatus shown in FIG. 7; FIG. (b) and (c) are diagrams showing regions of interest by each classifier. 図4に示す検査装置の実施例において、評価が低い分類器について説明する図である。FIG. 5 is a diagram illustrating a classifier with a low evaluation in the embodiment of the inspection apparatus shown in FIG. 4;

〔実施形態1〕
(評価装置の物理的構成)
本発明の第1の実施形態に係る評価装置1の物理的構成について、図1を参照して説明する。図1は、評価装置1の物理的構成を示すブロック図である。
[Embodiment 1]
(Physical configuration of evaluation device)
A physical configuration of the evaluation device 1 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the physical configuration of the evaluation device 1. As shown in FIG.

評価装置1は、図1に示すように、バス10と、主メモリ11と、プロセッサ12と、補助メモリ13と、入出力インターフェース14と、を備えたコンピュータである。主メモリ11、プロセッサ12、補助メモリ13、及び入出力インターフェース14は、バス10を介して互いに接続されている。主メモリ11としては、例えば、単一又は複数の半導体RAM(random access memory)が用いられる。プロセッサ12としては、例えば、単一又は複数のマイクロプロセッサ、単一又は複数のデジタルシグナルプロセッサ、単一又は複数のマイクロコントローラ、又はこれらの組み合わせが用いられる。補助メモリ13としては、例えば、単一又は複数のHDD(Hard Disk Drive)、単一又は複数のSSD(Solid State Drive)、又はこれらの組み合わせが用いられる。また、補助メモリ13の一部又は全部は、通信インタフェース(図示せず)を介して接続されたネットワーク上のストレージであってもよい。入出力インターフェース14としては、例えば、USB(Universal Serial Bus)インターフェース、赤外線やBluetooth(登録商標)等の近距離通信インターフェース、又はこれらの組み合わせが用いられる。 The evaluation device 1 is a computer having a bus 10, a main memory 11, a processor 12, an auxiliary memory 13, and an input/output interface 14, as shown in FIG. Main memory 11 , processor 12 , auxiliary memory 13 and input/output interface 14 are interconnected via bus 10 . As the main memory 11, for example, single or multiple semiconductor RAMs (random access memories) are used. Processor 12 may be, for example, a single or multiple microprocessors, a single or multiple digital signal processors, a single or multiple microcontrollers, or a combination thereof. As the auxiliary memory 13, for example, a single or multiple HDDs (Hard Disk Drives), single or multiple SSDs (Solid State Drives), or a combination thereof is used. Also, part or all of the auxiliary memory 13 may be storage on a network connected via a communication interface (not shown). As the input/output interface 14, for example, a USB (Universal Serial Bus) interface, a short-range communication interface such as infrared rays or Bluetooth (registered trademark), or a combination thereof is used.

入出力インターフェース14には、例えば、入力装置20及び出力装置30が接続される。入力装置20としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。出力装置30としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。なお、評価装置1は、ノート型コンピュータのように、入力装置20として機能するキーボート及びタッチパッド、並びに、出力装置30として機能するディスプレイを内蔵していてもよい。また、評価装置1は、スマートフォン又はタブレット型コンピュータのように、入力装置20及び出力装置30として機能するタッチパネルを内蔵していてもよい。 For example, an input device 20 and an output device 30 are connected to the input/output interface 14 . As the input device 20, for example, a keyboard, mouse, touch pad, microphone, or a combination thereof is used. A display, a printer, a speaker, or a combination thereof is used as the output device 30, for example. Note that the evaluation device 1 may incorporate a keyboard and touch pad functioning as the input device 20 and a display functioning as the output device 30, like a notebook computer. Moreover, the evaluation device 1 may incorporate a touch panel functioning as the input device 20 and the output device 30 like a smart phone or a tablet computer.

補助メモリ13には、後述する評価処理S1をプロセッサ12に実行させるためのプログラムPが格納されている。プロセッサ12は、補助メモリ13に格納されたプログラムPを主メモリ11上に展開し、主メモリ11上に展開されたプログラムPに含まれる各命令を実行することによって、後述する評価処理S1に含まれる各ステップを実行する。また、補助メモリ13には、後述する評価処理S1を実行するためにプロセッサ12が参照する各種データが格納されている。 The auxiliary memory 13 stores a program P for causing the processor 12 to execute an evaluation process S1, which will be described later. The processor 12 expands the program P stored in the auxiliary memory 13 onto the main memory 11, and executes each instruction included in the program P expanded onto the main memory 11, thereby executing the instructions included in the evaluation process S1, which will be described later. perform each step that is In addition, the auxiliary memory 13 stores various data referred to by the processor 12 in order to execute the evaluation process S1, which will be described later.

なお、ここでは、内部記憶媒体である補助メモリ13に格納されているプログラムPに従ってプロセッサ12が後述する評価処理S1を実行する形態について説明したが、これに限定されない。すなわち、外部記録媒体に格納されているプログラムPに従ってプロセッサ12が後述する評価処理S1を実行する形態を採用してもよい。この場合、外部記録媒体としては、コンピュータが読み取り可能な「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブル論理回路などを用いることができる。あるいは、通信インタフェース(図示せず)を介して接続されるネットワーク上から取得したプログラムPに従ってプロセッサ12が後述する評価処理S1を実施する形態を採用してもよい。この場合、ネットワークとしては、例えば、インターネット、有線LAN(Local Area Network)、無線LAN、又はこれらの少なくとも一部の組み合わせ等などを用いることができる。 Here, a form in which the processor 12 executes the evaluation process S1, which will be described later, according to the program P stored in the auxiliary memory 13, which is an internal storage medium, has been described, but the present invention is not limited to this. That is, it is also possible to employ a form in which the processor 12 executes the evaluation process S1, which will be described later, according to the program P stored in the external recording medium. In this case, as the external recording medium, a computer-readable "non-transitory tangible medium" such as a tape, disk, card, semiconductor memory, or programmable logic circuit can be used. Alternatively, an embodiment may be adopted in which the processor 12 performs the evaluation process S1 described later according to a program P obtained from a network connected via a communication interface (not shown). In this case, the network may be, for example, the Internet, a wired LAN (Local Area Network), a wireless LAN, or a combination of at least some of them.

また、ここでは、単一のコンピュータを用いて評価装置1を実現する形態について説明したが、これに限定されない。すなわち、互いに通信可能に構成された複数のコンピュータを用いて評価装置1を実現する形態を採用してもよい。この場合、後述する評価処理S1を構成する各ステップを、これらのコンピュータにより並列的に実行することが可能になる。 Moreover, although the form which implement|achieves the evaluation apparatus 1 using a single computer was demonstrated here, it is not limited to this. That is, a form in which the evaluation apparatus 1 is realized using a plurality of computers configured to be able to communicate with each other may be adopted. In this case, each step constituting the evaluation process S1, which will be described later, can be executed in parallel by these computers.

(評価装置の機能的構成)
評価装置1の機能的構成について、図2を参照して説明する。図2は、評価装置1の機能的構成を示すブロック図である。
(Functional configuration of evaluation device)
A functional configuration of the evaluation device 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the functional configuration of the evaluation device 1. As shown in FIG.

評価装置1は、図2に示すように、複数の分類器C1,C2,…,Cnと、作成部101と、評価部102とを備えている。ここで、nは、分類器C1,C2,…,Cnの個数を表す任意の自然数である。これらのブロックは、上述したプロセッサ12が上述したプログラムPの命令を実行することにより実現される機能ブロックである。 The evaluation device 1 includes, as shown in FIG. 2, a plurality of classifiers C1, C2, . Here, n is an arbitrary natural number representing the number of classifiers C1, C2, . . . , Cn. These blocks are functional blocks implemented by executing the instructions of the program P described above by the processor 12 described above.

各分類器Ci(i=1,2,…,n)は、物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、機械学習により定められたアルゴリズム(以下、「モデル」と記載する)を用いて実行する。分類処理に利用可能なモデルとしては、例えば、物品を被写体として含む画像を入力とし、該物品の状態を出力とするニューラルネットワークが挙げられる。 Each classifier Ci (i=1, 2, . . . , n) refers to an image containing an article as a subject and performs classification processing for classifying the state of the article using an algorithm determined by machine learning (hereinafter referred to as "model ”). A model that can be used for the classification process is, for example, a neural network that receives an image including an article as an object and outputs the state of the article.

各分類器Ciが用いるモデルは、評価装置1による評価が開始する前に、事前の機械学習により構築される。事前の機械学習においては、(1)モデルの選択、(2)モデルの調整(ネットワーク構造及びハイパーパラメータの調整)、及び、(3)モデルの機械学習が行われる。 The model used by each classifier Ci is constructed by prior machine learning before the evaluation by the evaluation device 1 starts. In prior machine learning, (1) model selection, (2) model tuning (network structure and hyperparameter tuning), and (3) model machine learning are performed.

作成部101は、検査者(特許請求の範囲における「人」の一例)が状態を分類した物品を被写体として含む画像I1,I2,…,Imをサンプル画像として、各分類器Ci(i=1,2,…,n)に対応するヒートマップMij(j=1,2,…,m)を作成するブロックである。ここで、ヒートマップMiとは、分類処理において分類器Ciが着目するサンプル画像Ij内の領域を示す画像のことを指す。 The creation unit 101 uses images I1, I2, . , 2, . . . , n) corresponding to the heat map Mij (j=1, 2, . Here, the heat map Mi refers to an image showing an area in the sample image Ij focused on by the classifier Ci in the classification process.

例えば、ヒートマップMijは、特定のクラス分類の確からしさ、又は、関連の深さを、色の濃さで表した画像である。この場合、例えば、ヒートマップMijにおいて、相対的に色の濃い領域が、サンプル画像Ijにおいて、物品の状態を分類するために分類器Ciが着目した領域を表す。或いは、ヒートマップMijは、分類器Ciの出力に与える影響の大きさに応じて各画素の画素値が設定された画像である。この場合、例えば、ヒートマップMijにおいて、相対的に高い画素値を有する領域が、サンプル画像Ijにおいて、物品の状態を分類するために分類器Ciが着目した領域を表す。以下、各サンプル画像Ijにおいて、物品の状態を分類するために分類器Ciが着目する領域を、分類器Ciによる「着目領域」とも記載する。分類器Ciによる着目領域は、1箇所の場合もあるし、複数箇所の場合もある。ヒートマップMijの作成には、例えば、公知のアルゴリズムであるGrad-CAM(Gradient-weighted Class Activation Mapping)を用いることができる。 For example, the heat map Mij is an image that expresses the certainty of a specific class classification or the depth of association with color intensity. In this case, for example, in the heat map Mij, relatively dark areas represent areas in the sample image Ij focused on by the classifier Ci to classify the state of the article. Alternatively, the heat map Mij is an image in which the pixel value of each pixel is set according to the magnitude of the effect on the output of the classifier Ci. In this case, for example, areas with relatively high pixel values in the heat map Mij represent areas in the sample image Ij that the classifier Ci focused on to classify the state of the article. Hereinafter, in each sample image Ij, the area that the classifier Ci pays attention to for classifying the state of the article is also referred to as the "area of interest" by the classifier Ci. There may be one region of interest by the classifier Ci, or there may be multiple regions. For creating the heat map Mij, for example, Grad-CAM (Gradient-weighted Class Activation Mapping), which is a well-known algorithm, can be used.

なお、作成部101は、各分類器Ciに対応するヒートマップMijの生成を、分類器Ciによる分類の結果が正解情報(人による分類の結果を示す)に一致したサンプル画像Ijについてのみ行う(分類器Ciによる分類の結果が正解情報に一致しないサンプル画像Ilについては行わない)ように構成されていてもよい。 Note that the creating unit 101 generates the heat map Mij corresponding to each classifier Ci only for the sample images Ij whose classification result by the classifier Ci matches correct information (indicating the result of classification by a person) ( The sample image Il for which the result of classification by the classifier Ci does not match the correct information may not be classified).

評価部102は、ヒートマップMijが示す分類器Ciによる着目領域(すなわち、物品の状態を分類するために分類器Ciが着目するサンプル画像Ij内の領域)と、物品の状態を分類するために検査者が着目するサンプル画像Ij内の領域との比較に基づいて、各分類器Ciを評価するブロックである。以降、検査者が着目するサンプル画像Ij内の領域を、検査者による着目領域とも記載する。例えば、検査者による着目領域は、入力装置20を介して入力される。具体的には、評価部102は、サンプル画像Ijをディスプレイに表示し、タッチパッド又はマウス等の操作により指定された領域を、検査者による着目領域として取得してもよい。検査者による着目領域は、1箇所であってもよいし、複数箇所であってもよい。 The evaluation unit 102 divides the region of interest by the classifier Ci indicated by the heat map Mij (that is, the region in the sample image Ij to which the classifier Ci focuses in order to classify the state of the article) and the A block that evaluates each classifier Ci based on comparison with regions in the sample image Ij of interest to the inspector. Hereinafter, the region in the sample image Ij that the inspector pays attention to is also referred to as the region of interest of the inspector. For example, the region of interest by the inspector is input via the input device 20 . Specifically, the evaluation unit 102 may display the sample image Ij on the display, and acquire a region specified by operating a touch pad, mouse, or the like as a region of interest for the inspector. The region of interest by the inspector may be at one point or at a plurality of points.

検査者による着目領域と分類器Ciによる着目領域との類似度が高い場合、その分類器Ciは、汎化能力が高い(或いは、今後の追加学習により汎化能力の向上が期待できる)分類器であると考えられる。逆に、検査者による着目領域と分類器Ciによる着目領域との類似度が低い場合、その分類器Ciは、汎化能力が低い(或いは、今後の追加学習により汎化能力の向上が期待しにくい)分類器であると考えられる。評価部102は、このような観点から各分類器Ciを評価する。各分類器Ciに対する評価結果は、良又は否等の2段階で表されていてもよいし、3段階以上で表されていてもよいし、所定範囲の数値として表されていてもよい。 When the region of interest by the inspector and the region of interest by the classifier Ci are highly similar, the classifier Ci is a classifier with high generalization ability (or an improvement in generalization ability can be expected through additional learning in the future). It is considered to be Conversely, when the similarity between the region of interest by the inspector and the region of interest by the classifier Ci is low, the classifier Ci has low generalization ability (or it is expected that the generalization ability will be improved by additional learning in the future). difficult) classifier. The evaluation unit 102 evaluates each classifier Ci from this point of view. The evaluation result for each classifier Ci may be expressed in two stages such as good or bad, may be expressed in three stages or more, or may be expressed as a numerical value within a predetermined range.

例えば、評価部102は、分類器Ciによる着目領域の中に、検査者による着目領域と重複する着目領域が含まれている分類器Ciを、そうでない分類器Ck(k≠i)よりも高く評価する。ここで、2つの領域が重複するとは、これら2つの領域の共通部分が存在することを意味する。以下、分類器Ciによる着目領域のうち、検査者による着目領域と重複する着目領域のことを、重複領域とも記載する。 For example, the evaluation unit 102 ranks a classifier Ci that includes a region of interest that overlaps with the region of interest of the inspector higher than the classifier Ck (k≠i) that does not, among the regions of interest of the classifier Ci. evaluate. Here, two regions overlap means that there is a common portion of these two regions. Hereinafter, among the regions of interest by the classifier Ci, a region of interest that overlaps the region of interest by the inspector is also referred to as an overlapping region.

また、評価部102は、分類器Ciによる着目領域の中に、検査者による着目領域と重複する領域と、検査者による着目領域と重複しない領域との両方が含まれている分類器Ciを、そうでない分類器Ckよりも高くする評価する。以下、分類器Ciによる着目領域のうち、検査者による着目領域と重複しない着目領域のことを、独自領域とも記載する。独自領域は、分類器Ciによる着目領域の中で、検査者が着目することのない着目領域、すなわち、分類器Ciが独自に着目する着目領域である。なお、評価部102は、分類器Ciによる着目領域のうち、検査者による着目領域と重複しない着目領域を独自領域とみなすか否かを、検査者による入力情報に基づいて決定してもよい。これにより、評価部102は、そのような分類器Ciの独自の着目領域のうち、検査者にとって確かにその着目領域もあり得ると考えられる着目領域を、独自領域とみなして動作する。 In addition, the evaluation unit 102 selects a classifier Ci that includes both a region that overlaps with the region of interest of the inspector and a region that does not overlap with the region of interest of the inspector, in the region of interest by the classifier Ci. Evaluate it higher than the classifier Ck that is not. Hereinafter, among the regions of interest by the classifier Ci, a region of interest that does not overlap with the region of interest by the inspector is also referred to as a unique region. The unique region is a region of interest that the inspector does not focus on among the regions of interest by the classifier Ci, that is, a region of interest that the classifier Ci uniquely focuses on. Note that the evaluation unit 102 may determine, based on input information from the inspector, whether or not to consider a region of interest that does not overlap with the region of interest of the inspector, among the regions of interest by the classifier Ci, as a unique region. As a result, the evaluation unit 102 operates by regarding a region of interest, which the examiner believes to be a possible region of interest, among the regions of interest unique to such a classifier Ci as a unique region.

また、評価部102は、各サンプル画像Ijに被写体として含まれる物品の状態を分類した結果が、検査者が該物品の状態を分類した結果に一致する割合(以下、「正解率」とも記載する)がより高い分類器Ciを、そうでない分類器Ckよりも高く評価する。この場合、評価部102は、各分類器Ciについて、分類器Ciによる着目領域と検査者による着目領域との比較結果と、分類器Ciの正解率とに基づく評価を行うことになる。 In addition, the evaluation unit 102 determines the rate at which the result of classifying the state of the article included as the subject in each sample image Ij matches the result of classifying the state of the article by the inspector (hereinafter, also referred to as the “accuracy rate”). ) higher than classifiers Ck that do not. In this case, the evaluation unit 102 evaluates each classifier Ci based on the result of comparison between the region of interest by the classifier Ci and the region of interest by the inspector, and the accuracy rate of the classifier Ci.

具体的には、評価部102には、検査者が該物品の状態を分類した結果が正解情報として、入力装置20を介して入力される。また、評価部102には、各分類器Ciから出力される分類結果が入力される。そして、評価部102は、各分類器Ciについて、当該分類器Ciから出力される各サンプル画像Ijの分類結果が正解情報に一致する割合を、正解率として算出する。例えば、評価部102は、各分類器Ciについて、該分類器Ciによる着目領域と検査者による着目領域との比較に基づく評価結果に対して、正解率が高いほど評価結果がさらに高くなるような重み付けを行う。 Specifically, the result of classifying the state of the article by the inspector is input to the evaluation unit 102 as correct information through the input device 20 . The evaluation unit 102 also receives the classification result output from each classifier Ci. Then, for each classifier Ci, the evaluation unit 102 calculates, as the correct answer rate, the rate at which the classification result of each sample image Ij output from the classifier Ci matches the correct information. For example, for each classifier Ci, the evaluation unit 102 sets the evaluation result based on the comparison between the region of interest by the classifier Ci and the region of interest by the inspector such that the higher the accuracy rate, the higher the evaluation result. weighting.

なお、評価部102は、各分類器Ciについて、該分類器Ciによる着目領域と検査者による着目領域との比較を、当該分類器Ciから出力された分類結果が正解情報に一致したサンプル画像Ijについてのみ行う(一致しないサンプル画像Ilについては比較を行わない)構成を採用してもよい。 For each classifier Ci, the evaluation unit 102 compares the region of interest by the classifier Ci with the region of interest by the inspector, and compares the sample image Ij in which the classification result output from the classifier Ci matches the correct information. (no comparison is performed for non-matching sample images Il) may be employed.

(評価方法)
評価装置1が実行する評価方法S1ついて、図3~図6を参照して説明する。
(Evaluation method)
The evaluation method S1 executed by the evaluation device 1 will be described with reference to FIGS. 3 to 6. FIG.

図3は、評価方法S1の流れを示すフローチャートである。評価方法S1は、図3に示すように、作成ステップS101と、評価ステップS102と、を含んでいる。 FIG. 3 is a flow chart showing the flow of the evaluation method S1. The evaluation method S1 includes a creation step S101 and an evaluation step S102, as shown in FIG.

作成ステップS101は、検査者が状態を分類した物品を被写体として含む画像をサンプル画像Ijとして、各分類器Ciに対応するヒートマップMijを作成するステップである。上述したように、本実施形態では、各分類器Ciに複数のサンプル画像I1,I2,…,Imが入力され、複数のヒートマップMi1,Mi2,…,Mimが作成される。ここでは、作成部101は、分類器Ciによる分類結果が正解情報に一致したサンプル画像Ijについてヒートマップを作成し、一致しなかったサンプル画像Il(l≠j)については、ヒートマップを作成しない。 The creation step S101 is a step of creating a heat map Mij corresponding to each classifier Ci by using an image including, as a subject, an article whose state has been classified by an inspector as a sample image Ij. As described above, in the present embodiment, a plurality of sample images I1, I2, . . . , Im are input to each classifier Ci, and a plurality of heat maps Mi1, Mi2, . Here, the creating unit 101 creates a heat map for the sample image Ij whose classification result by the classifier Ci matches the correct information, and does not create a heat map for the sample image Il (l≠j) that does not match. .

評価ステップS102は、対応するヒートマップMijが示すサンプル画像Ij内の領域と、物品の状態を分類するために検査者が着目するサンプル画像Ij内の領域との比較に基づいて、各分類器Ciを評価するステップである。上述したように、本実施形態では、複数のサンプル画像I1,I2,…,Imの各々について、分類器Ciによる着目領域と検査者による着目領域との比較が行われる。また、各分類器Ciについて、複数のサンプル画像I1,I2,…,Imの分類結果が正解情報と一致した割合である正解率が算出される。そして、各分類器Ciについて、比較結果と正解率とに基づいた評価が実行され、評価結果が出力される。 The evaluation step S102 evaluates each classifier Ci is the step of evaluating As described above, in the present embodiment, the region of interest by the classifier Ci and the region of interest by the inspector are compared for each of the plurality of sample images I1, I2, . . . , Im. Also, for each classifier Ci, a correct answer rate is calculated, which is a rate at which the classification results of the plurality of sample images I1, I2, . Then, each classifier Ci is evaluated based on the comparison result and the accuracy rate, and the evaluation result is output.

図4は、作成ステップS101において生成されるヒートマップの一例を示す図である。ここでは、各分類器Ciには、サンプル画像I1,I2,I3が入力される。サンプル画像I1,I2,I3には、それぞれ、物品O1,O2,O3が被写体として含まれている。ここで、サンプル画像I1,I2,I3の正解情報は、それぞれ、クラスA、クラスB、クラスCである。 FIG. 4 is a diagram showing an example of the heat map generated in the creation step S101. Here, sample images I1, I2, and I3 are input to each classifier Ci. Sample images I1, I2, and I3 include articles O1, O2, and O3 as subjects, respectively. Here, the correct information of the sample images I1, I2, and I3 are class A, class B, and class C, respectively.

分類器C1,C2によるサンプル画像I1の分類結果は、それぞれクラスAで正解であり、分類器C1に対応するヒートマップM11と、分類器C2に対応するヒートマップM21とが作成される。 The classification results of the sample image I1 by the classifiers C1 and C2 are correct in class A, respectively, and a heat map M11 corresponding to the classifier C1 and a heat map M21 corresponding to the classifier C2 are created.

分類器C1,C2によるサンプル画像I2の分類結果は、それぞれクラスBで正解であり、分類器C1に対応するヒートマップM12と、分類器C2に対応するヒートマップM22とが作成される。 The classification results of the sample image I2 by the classifiers C1 and C2 are correct in class B, respectively, and a heat map M12 corresponding to the classifier C1 and a heat map M22 corresponding to the classifier C2 are created.

分類器C1によるサンプル画像I3の分類結果は、クラスBで不正解であり、分類器C1に対応するヒートマップは作成されない。分類器C2によるサンプル画像I3の分類結果は、クラスCで正解であり、分類器C2に対応するヒートマップM23が作成される。 The classification result of the sample image I3 by the classifier C1 is an incorrect answer in class B, and a heat map corresponding to the classifier C1 is not created. The classification result of the sample image I3 by the classifier C2 is correct in class C, and a heat map M23 corresponding to the classifier C2 is created.

評価ステップS102における比較処理の一例を、図5~図6を用いて説明する。 An example of comparison processing in the evaluation step S102 will be described with reference to FIGS. 5 and 6. FIG.

図5(a),(b),(c)は、サンプル画像I1,I2,I3における、検査者による着目領域R1,R2,R3を示す模式図である。 FIGS. 5A, 5B, and 5C are schematic diagrams showing regions of interest R1, R2, and R3 of the inspector in the sample images I1, I2, and I3.

図5(d)は、上述したヒートマップM11が示す着目領域を示す。ヒートマップM11は、2つの着目領域P11,P12を含んでいる。分類器C1による着目領域P11,P12の中で、着目領域P11は、検査者による着目領域R1と重複する重複領域である。また、分類器C1による着目領域P11,P12の中で、着目領域P12は、検査者による着目領域R1と重複していない独自領域である。 FIG. 5(d) shows the region of interest indicated by the heat map M11 described above. The heat map M11 includes two regions of interest P11 and P12. Among the regions of interest P11 and P12 by the classifier C1, the region of interest P11 is an overlapping region that overlaps the region of interest R1 by the inspector. Among the regions of interest P11 and P12 by the classifier C1, the region of interest P12 is a unique region that does not overlap with the region of interest R1 by the inspector.

図5(e)は、上述したヒートマップM12が示す着目領域を示す。ヒートマップM12は、2つの着目領域P21,P22を含んでいる。分類器C1による着目領域P21,P22の中で、着目領域P21は、検査者による着目領域R2と重複する重複領域である。また、分類器C1による着目領域P21,P22の中で、着目領域P22は、検査者による着目領域R2と重複していない独自領域である。 FIG. 5(e) shows the region of interest indicated by the heat map M12 described above. The heat map M12 includes two regions of interest P21 and P22. Among the regions of interest P21 and P22 by the classifier C1, the region of interest P21 is an overlapping region that overlaps the region of interest R2 by the inspector. Among the regions of interest P21 and P22 by the classifier C1, the region of interest P22 is a unique region that does not overlap with the region of interest R2 by the inspector.

図5(f)は、上述したヒートマップM21が示す着目領域を示す。ヒートマップM21は、1つの着目領域Q1を含んでいる。分類器C2による着目領域Q1は、検査者による着目領域R1と重複していない。 FIG. 5(f) shows the region of interest indicated by the heat map M21 described above. The heat map M21 includes one region of interest Q1. The region of interest Q1 by the classifier C2 does not overlap with the region of interest R1 by the inspector.

図5(g)は、上述したヒートマップM22が示す着目領域を示す。ヒートマップM22は、1つの着目領域Q2を含んでいる。分類器C2による着目領域Q2は、検査者による着目領域R2と重複していない。 FIG. 5(g) shows the region of interest indicated by the heat map M22 described above. The heat map M22 includes one region of interest Q2. The region of interest Q2 by the classifier C2 does not overlap with the region of interest R2 by the inspector.

図5(h)は、上述したヒートマップM23が示す着目領域を示す。ヒートマップM23は、1つの着目領域Q3を含んでいる。分類器C2による着目領域Q3は、検査者による着目領域R3と重複する重複領域である。 FIG. 5(h) shows the region of interest indicated by the heat map M23 described above. The heat map M23 includes one region of interest Q3. The region of interest Q3 by the classifier C2 is an overlapping region that overlaps the region of interest R3 by the inspector.

図6は、各分類器Ciについて、正解/不正解、重複領域の有無、及び独自領域の有無を、サンプル画像Ij毎に整理した表であり、各分類器Ciの評価結果を示している。なお、ヒートマップMijが示す着目領域の中に重複領域が無い場合には、独自領域の有無については記載していない。 FIG. 6 is a table in which correct/incorrect answers, presence/absence of overlapping regions, and presence/absence of unique regions for each classifier Ci are arranged for each sample image Ij, and shows evaluation results of each classifier Ci. Note that if there is no overlapping area in the focused area indicated by the heat map Mij, the presence or absence of the unique area is not described.

図6の例では、評価部102は、n個の分類器Ciを、正解率、重複領域率、独自領域率に基づいて比較した結果に基づいて、各分類器Ciの評価結果を生成している。ここで、重複領域率とは、サンプル画像Ijの総数mに対して、分類器Ciが重複領域を検出したサンプル画像Ijの数の割合である。また、独自領域率とは、サンプル画像Ijの総数に対して、分類器Ciが独自領域を検出したサンプル画像Ijの数の割合である。また、この例では、「良」または「否」の2段階の評価結果が生成されている。 In the example of FIG. 6, the evaluation unit 102 generates the evaluation result of each classifier Ci based on the result of comparing the n classifiers Ci based on the accuracy rate, overlapping area rate, and unique area rate. there is Here, the overlapping area rate is the ratio of the number of sample images Ij for which the classifier Ci has detected overlapping areas to the total number m of sample images Ij. The unique region rate is the ratio of the number of sample images Ij in which the classifier Ci has detected unique regions to the total number of sample images Ij. Also, in this example, a two-level evaluation result of "good" or "bad" is generated.

また、評価部102は、重複領域率を、正解率および独自領域率よりも重視した評価処理を行う。例えば、評価部102は、n個の中で重複領域率が高いとの条件(例えば、最も高い)を満たす分類器Ciのうち、正解率が高いとの条件(例えば、閾値以上)を満たす分類器Ciの評価結果を「良」とする。そして、評価部102は、当該評価結果を「良」とした分類器Ciとの比較により他の分類器Ckの評価を行う。 In addition, the evaluation unit 102 performs evaluation processing that emphasizes the overlapping area rate more than the correct answer rate and the unique area rate. For example, the evaluation unit 102 selects a classifier Ci that satisfies a condition of a high accuracy rate (e.g., a threshold value or more) among the classifiers Ci that satisfy a condition of a high overlapping area rate (e.g., the highest rate) among n classifiers. Assume that the evaluation result of the device Ci is "good". Then, the evaluation unit 102 evaluates the other classifiers Ck by comparing with the classifier Ci for which the evaluation result is “good”.

例えば、分類器C1の重複領域率60%は、n個の中で最も高い。また、分類器C1の正解率70%は、閾値(例えば、70%)以上である。そこで、評価部102は、分類器C1の評価結果を「良」とする。 For example, the overlapping area rate of 60% for the classifier C1 is the highest among n. Also, the accuracy rate of 70% of the classifier C1 is equal to or higher than the threshold (for example, 70%). Therefore, the evaluation unit 102 sets the evaluation result of the classifier C1 as "good".

分類器C2は、分類器C1と比較して、重複領域率60%が同じであるが、正解率80%が高い一方で、独自領域率10%が低い。この場合、分類器C2は、分類器C1と比較して優れているとも劣っているともいえず、同等であると判定される。したがって、評価部102は、分類器C2の評価結果を「良」とする。 The classifier C2 has the same overlapping area rate of 60% as the classifier C1, but has a higher accuracy rate of 80% and a lower unique area rate of 10%. In this case, classifier C2 is neither superior nor inferior to classifier C1, and is determined to be equivalent. Therefore, the evaluation unit 102 sets the evaluation result of the classifier C2 as "good".

また、分類器C3は、分類器C1と比較して、重複領域率60%が同じであるが、正解率60%および独自領域率0%ともに低い。この場合、分類器C3は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C3の評価結果を「否」とする。 Also, the classifier C3 has the same overlapping area rate of 60% as the classifier C1, but both the accuracy rate of 60% and the unique area rate of 0% are lower. In this case, classifier C3 is determined to be inferior compared to classifier C1. Therefore, the evaluation unit 102 sets the evaluation result of the classifier C3 as "no".

また、分類器C4は、分類器C1と比較して、重複領域率60%および正解率70%が同じであるが、独自領域率20%が低い。この場合、分類器C4は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C4の評価結果を「否」とする。 Also, the classifier C4 has the same overlapping area rate of 60% and correct answer rate of 70% as the classifier C1, but has a lower unique area rate of 20%. In this case, classifier C4 is determined to be inferior compared to classifier C1. Therefore, the evaluation unit 102 sets the evaluation result of the classifier C4 as "no".

また、分類器C5は、分類器C1と比較して、重複領域率60%および独自領域率30%が同じであるが、正解率60%が低い。この場合、分類器C5は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C5の評価結果を「否」とする。 Also, the classifier C5 has the same overlapping area rate of 60% and unique area rate of 30% as the classifier C1, but has a lower accuracy rate of 60%. In this case, classifier C5 is determined to be inferior compared to classifier C1. Therefore, the evaluation unit 102 sets the evaluation result of the classifier C5 as "no".

また、分類器C6は、分類器C1と比較して、重複領域率50%が低く、正解率70%が同じであり、独自領域率40%が高い。この場合、重複領域率が低いことを、独自領域率が高いことより重視するため、分類器C6は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C6の評価結果を「否」とする。 Further, the classifier C6 has a lower overlapping area rate of 50%, the same correct answer rate of 70%, and a higher unique area rate of 40% than the classifier C1. In this case, since a low overlapping area rate is more important than a high unique area rate, the classifier C6 is determined to be inferior to the classifier C1. Therefore, the evaluation unit 102 sets the evaluation result of the classifier C6 as "no".

また、分類器Cnは、重複領域率30%が極端に低いとの条件(例えば、閾値以下)を満たす。この場合、評価部102は、分類器Cnを他の分類器Ciと比較することなく、分類器Cnの評価結果を「否」とする。 Also, the classifier Cn satisfies the condition that the overlapping area rate of 30% is extremely low (for example, less than or equal to the threshold). In this case, the evaluation unit 102 evaluates the classifier Cn as "no" without comparing the classifier Cn with other classifiers Ci.

(評価装置1の効果)
本実施形態に係る評価装置1は、分類器Ciが着目する領域の中に、検査者が着目する領域と重複する重複領域が含まれる該分類器Ciを、そうでない分類器Ckより高く評価する。また、本実施形態に係る評価装置1は、分類器Ciが着目する領域の中に、検査者が着目する領域と重複しない独自領域がさらに含まれる該分類器Ciを、そうでない分類器Ckよりさらに高く評価する。したがって、本実施形態に係る評価装置1は、各分類器Ciを、当該分類器Ciが着目する領域に関する検査者が着目する領域との類似性の観点から、評価することができる。
(Effect of evaluation device 1)
The evaluation apparatus 1 according to the present embodiment evaluates a classifier Ci that includes an overlap region that overlaps the region focused by the inspector higher than the classifier Ck that does not, among the regions targeted by the classifier Ci. . In addition, the evaluation apparatus 1 according to the present embodiment classifies the classifier Ci, which further includes a unique region that does not overlap with the region focused by the inspector, from the classifier Ck that does not, in the region focused by the classifier Ci. appreciate it even more. Therefore, the evaluation apparatus 1 according to the present embodiment can evaluate each classifier Ci from the viewpoint of the similarity between the region targeted by the classifier Ci and the region targeted by the inspector.

(変形例1)
なお、本実施形態に係る評価方法S1では、評価部102が、検査者による着目領域を入力として、分類器による着目領域及び検査者による着目領域を比較するものとして説明した。これに限らず、評価方法S1では、分類器による着目領域及び検査者による着目領域の比較を、検査者が行ってもよい。この場合、評価部102は、作成部101によって生成されたヒートマップが示す、分類器による着目領域をディスプレイ等に表示する。また、評価部102は、ディスプレイに表示された着目領域を視認した検査者による上述した比較結果を表す情報を、入力装置30を介して取得する。
(Modification 1)
In the evaluation method S1 according to the present embodiment, the evaluation unit 102 receives the region of interest by the inspector as input, and compares the region of interest by the classifier and the region of interest by the inspector. Not limited to this, in the evaluation method S1, the inspector may compare the region of interest by the classifier and the region of interest by the inspector. In this case, the evaluation unit 102 displays, on a display or the like, the region of interest by the classifier indicated by the heat map generated by the generation unit 101 . In addition, the evaluation unit 102 acquires, via the input device 30, information representing the above-described comparison result by the inspector who visually recognized the region of interest displayed on the display.

(変形例2)
また、本実施形態においては、複数の分類器C1,C2,…,Cnが、評価装置1の内部に含まれている(評価装置1と同じコンピュータで実行されている)構成を採用しているが、本発明は、これに限定されない。例えば、複数の分類器C1,C2,…,Cnの一部又は全部が評価装置1の内部に含まれていない(評価装置1と異なるコンピュータで実行される)構成を採用しても構わない。すなわち、複数の分類器C1,C2,…,Cnは、評価装置1の必須の構成要素ではない。
(Modification 2)
Further, in this embodiment, a configuration is adopted in which a plurality of classifiers C1, C2, . However, the invention is not so limited. For example, a configuration in which some or all of the plurality of classifiers C1, C2, . That is, the plurality of classifiers C1, C2, . . . , Cn are not essential components of the evaluation device 1.

〔実施形態2〕
本実施形態では、実施形態1に係る評価装置1を用いて、物品の検査を行う検査装置2を構成する実施形態について説明する。
[Embodiment 2]
In this embodiment, the evaluation apparatus 1 according to the first embodiment is used to configure an inspection apparatus 2 that inspects articles.

図7は、検査装置2の機能的構成を示すブロック図である。なお、検査装置2の物理的構成については、図1を参照して説明した評価装置1と同様であるため、詳細な説明を省略する。 FIG. 7 is a block diagram showing the functional configuration of the inspection device 2. As shown in FIG. Since the physical configuration of the inspection device 2 is the same as that of the evaluation device 1 described with reference to FIG. 1, detailed description thereof will be omitted.

図7に示すように、検査装置2は、評価装置1と、選択部203とを含む。検査装置2は、選択部203により選択された分類器Ciを用いて、物品の検査を行う。 As shown in FIG. 7 , the inspection device 2 includes an evaluation device 1 and a selection section 203 . The inspection device 2 uses the classifier Ci selected by the selection unit 203 to inspect the article.

選択部203は、評価装置1による評価結果に基づいて、複数の分類器C1,C2,…,Cnから何れかの分類器Ciを選択するブロックである。例えば、選択部203は、各分類器Ciのうち、評価結果が所定条件を満たす(例えば、評価結果が「良」である)ものを1つ以上選択してもよい。 The selection unit 203 is a block that selects one of the classifiers Ci from the plurality of classifiers C1, C2, . For example, the selection unit 203 may select one or more classifiers Ci whose evaluation results satisfy a predetermined condition (for example, the evaluation results are "good").

具体的には、選択部203は、検査装置2に対して入力される画像が、選択した分類器Ciに入力され、選択した分類器Ciからの出力が、検査結果として外部に出力されるよう、切り替え処理を行う。選択部203による切り替え処理は、評価装置1による評価が完了した後、検査装置2によって物品の検査を行う運用が開始される前に行われる。また、検査装置2の運用が開始する前に、選択された1つ以上の分類器Ciを追加学習させる処理が、さらに実行されてもよい。 Specifically, the selection unit 203 is configured so that the image input to the inspection apparatus 2 is input to the selected classifier Ci, and the output from the selected classifier Ci is output to the outside as the inspection result. , switching processing is performed. The switching process by the selection unit 203 is performed after the evaluation by the evaluation device 1 is completed and before the operation of inspecting the article by the inspection device 2 is started. Further, a process of additionally learning the selected one or more classifiers Ci may be further executed before the operation of the inspection apparatus 2 is started.

〔実施例1〕
検査装置2を用いた実施例1について、図9を参照して説明する。実施例1では、物品としての圧着端子を被写体として含むサンプル画像I1を用いて、評価装置1による評価を行った。
[Example 1]
Example 1 using the inspection device 2 will be described with reference to FIG. In Example 1, evaluation was performed by the evaluation device 1 using a sample image I1 including a crimp terminal as an article as a subject.

各分類器Ciは、圧着端子を被写体として含む画像に基づいて、該圧着端子の状態を次の8状態の何れかに分類するよう、事前の機械学習により構築されている。 Each classifier Ci is constructed by prior machine learning so as to classify the state of the crimp terminal into one of the following eight states based on the image including the crimp terminal as an object.

状態1:良品
状態2:浅打ち
状態3:深打ち
状態4:バレルめくれ
状態5:トランジション部へのはみだし
状態6:インス側へのはみ出し
状態7:芯線切れ
状態8:ベルマウス不良
図8(a)は、サンプル画像I1における検査者による着目領域を示す図である。この実施例では、検査者は、圧着端子のバレルを含む領域に着目している。
Condition 1: Good condition Condition 2: Shallow stroke Condition 3: Deep stroke Condition 4: Barrel curled Condition 5: Protrusion to the transition part Condition 6: Protrusion to the inset side Condition 7: Wire breakage Condition 8: Bad bell mouth Fig. 8 (a) ) is a diagram showing a region of interest by an inspector in the sample image I1. In this example, the inspector focuses on the area containing the barrel of the crimp terminal.

本実施形態において、分類器C1及びC2は、何れも、上述したサンプル画像I1に被写体として含まれる圧着端子を、「状態4:バレルめくれ」として分類し、検査者が状態を分類した分類結果に一致する分類結果を出力した。 In the present embodiment, the classifiers C1 and C2 both classify the crimp terminal included as a subject in the sample image I1 described above as "state 4: barrel turn-up", and the classification result of the state classified by the inspector is Outputs matching classification results.

図8(b)は、分類器C1による2つの着目領域を示す図である。ここでは、分類器C1による一方の着目領域は、検査者による着目領域と重複する重複領域である。また、他方の着目領域は、検査者による着目領域と重複しない独自領域である。 FIG. 8(b) is a diagram showing two regions of interest by the classifier C1. Here, one region of interest by the classifier C1 is an overlapping region that overlaps the region of interest by the inspector. The other region of interest is a unique region that does not overlap with the region of interest of the inspector.

図8(c)は、分類器C2による1つの着目領域を示す図である。ここでは、分類器C2による着目領域は、検査者による着目領域と重複していない。 FIG. 8(c) is a diagram showing one region of interest by the classifier C2. Here, the region of interest by the classifier C2 does not overlap with the region of interest by the inspector.

図9は、分類器C2の評価について説明する図である。図9に示すように、評価装置1は、分類器C2による分類結果が検査者による分類結果と一致したものの、分類器C2による着目領域の中に重複領域が含まれないので、含まれる分類器C1より評価を低くする。このような分類器C2は、検査者による基準との関係が薄い画像箇所に基づいて、偶然に正しい分類結果を得た可能性があり、追加学習を行っても正解率が向上しない可能性がある。検査装置2は、そのような分類器C2を選択することなく、追加学習に適した分類器C1を用いて、物品の検査を行うことができる。 FIG. 9 is a diagram explaining the evaluation of the classifier C2. As shown in FIG. 9, although the classification result by the classifier C2 matches the classification result by the inspector, the evaluation apparatus 1 does not include an overlapping region in the region of interest by the classifier C2. Lower the evaluation than C1. Such a classifier C2 may have obtained a correct classification result by chance based on an image portion having a weak relationship with the examiner's criteria, and there is a possibility that the accuracy rate will not improve even if additional learning is performed. be. The inspection device 2 can inspect the article using the classifier C1 suitable for additional learning without selecting such a classifier C2.

〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

1 評価装置
2 検査装置
10 バス
11 主メモリ
12 プロセッサ
13 補助メモリ
14 入出力インターフェース
20 入力装置
30 出力装置
C1,C2,…,Cn,Ci 分類器
101 作成部
102 評価部
203 選択部
1 evaluation device 2 inspection device 10 bus 11 main memory 12 processor 13 auxiliary memory 14 input/output interface 20 input device 30 output device C1, C2, .

Claims (8)

物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、学習により定められたアルゴリズムに従い実行する複数の分類器の各々を評価する評価装置であって、
各分類器に対応するヒートマップであって、人が状態を分類した物品を被写体として含むサンプル画像において前記分類処理で該分類器が注目する領域を示すヒートマップを作成する作成部と、
対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価部と、を備えている、
ことを特徴とする評価装置。
An evaluation device for evaluating each of a plurality of classifiers that refer to an image containing an article as a subject and perform classification processing for classifying the state of the article according to an algorithm determined by learning,
a creation unit that creates a heat map corresponding to each classifier, which indicates an area that the classifier pays attention to in the classification process in a sample image including, as a subject, an article whose state has been classified by a person;
an evaluation unit that evaluates each classifier based on a comparison of the area in the sample image indicated by the corresponding heat map and the area in the sample image that the person focuses on to classify the state of the article. ing,
An evaluation device characterized by:
上記評価部は、対応するヒートマップが示すサンプル画像内の領域の中に、物品の状態を分類するために上記人が着目するサンプル画像内の領域と重複する領域が含まれている分類器を、含まれていない分類器より高く評価する、
ことを特徴とする請求項1に記載の評価装置。
The evaluation unit selects a classifier that includes, among the regions in the sample image indicated by the corresponding heat map, a region that overlaps with the region in the sample image that the person focuses on in order to classify the state of the article. , rate higher than the classifier not included,
The evaluation device according to claim 1, characterized by:
上記評価部は、対応するヒートマップが示すサンプル画像内の領域の中に、物品の状態を分類するために上記人が着目するサンプル画像内の領域と重複しない領域が含まれている分類器を、含んでいない分類器よりさらに高く評価する、
ことを特徴とする請求項2に記載の評価装置。
The evaluation unit selects a classifier that includes an area that does not overlap with the area in the sample image that the person focuses on in order to classify the state of the article, in the area in the sample image indicated by the corresponding heat map. , evaluates more highly than classifiers that do not contain
3. The evaluation device according to claim 2, characterized in that:
上記作成部は、人が状態を分類した物品を被写体として含む複数の画像の各々をサンプル画像として、サンプル画像毎に各分類器に対応するヒートマップを作成し、
上記評価部は、サンプル画像毎に各分類器を評価した評価結果に基づいて、各分類器を評価する、
ことを特徴とする請求項1から3の何れか1項に記載の評価装置。
The creation unit creates a heat map corresponding to each classifier for each sample image, using each of a plurality of images including articles classified by a person as a subject as a sample image,
The evaluation unit evaluates each classifier based on the evaluation result of evaluating each classifier for each sample image,
4. The evaluation device according to any one of claims 1 to 3, characterized in that:
上記評価部は、上記複数の分類器のうち、各サンプル画像に被写体として含まれる物品の状態を分類した結果が、上記人が該物品の状態を分類した結果に一致する割合がより高い分類器を、さらに高く評価する、
ことを特徴とする請求項4に記載の評価装置。
The evaluation unit selects, from among the plurality of classifiers, a classifier having a higher rate that the result of classifying the state of the article included as the subject in each sample image matches the result of the classification of the state of the article by the person. further appreciate the
5. The evaluation device according to claim 4, characterized in that:
物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、学習により定められたアルゴリズムに従い実行する複数の分類器の各々を評価する評価方法であって、
各分類器に対応するヒートマップであって、人が状態を分類した物品を被写体として含むサンプル画像において前記分類処理で該分類器が注目する領域を示すヒートマップを作成する作成ステップと、
対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価ステップと、を備えている、
ことを特徴とする評価方法。
An evaluation method for evaluating each of a plurality of classifiers that refer to an image containing an article as a subject and perform classification processing for classifying the state of the article according to an algorithm determined by learning,
a creation step of creating a heat map corresponding to each classifier, the heat map indicating an area of interest to the classifier in the classification process in a sample image including, as a subject, an article whose state has been classified by a person;
an evaluation step of evaluating each classifier based on a comparison of the area in the sample image indicated by the corresponding heat map to the area in the sample image that the person focuses on to classify the condition of the article. ing,
An evaluation method characterized by
コンピュータを請求項1から5の何れか1項に記載の評価装置として動作させる評価プログラムであって、上記コンピュータを上記評価装置の各部として機能させることを特徴とする評価プログラム。 6. An evaluation program that causes a computer to operate as the evaluation apparatus according to any one of claims 1 to 5, wherein the computer functions as each part of the evaluation apparatus. 物品の検査を行う検査装置であって、
上記複数の分類器と、
請求項1から5の何れか1項に記載の評価装置と、
上記評価装置による評価結果に基づいて、上記複数の分類器から何れかの分類器を選択する選択部と、を含み、
上記選択部により選択された分類器を用いて、上記物品の検査を行うことを特徴とする検査装置。
An inspection device for inspecting an article,
the plurality of classifiers;
an evaluation device according to any one of claims 1 to 5;
a selection unit that selects one of the plurality of classifiers based on the evaluation result of the evaluation device;
An inspection device that inspects the article using the classifier selected by the selection unit.
JP2019042990A 2018-09-07 2019-03-08 Evaluation device, evaluation method, evaluation program, and inspection device Active JP7236292B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018168190 2018-09-07
JP2018168190 2018-09-07

Publications (2)

Publication Number Publication Date
JP2020042001A JP2020042001A (en) 2020-03-19
JP7236292B2 true JP7236292B2 (en) 2023-03-09

Family

ID=69798090

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019010485A Active JP7289658B2 (en) 2018-09-07 2019-01-24 Classification device, classification method, classification program, and inspection device
JP2019010486A Active JP7161948B2 (en) 2018-09-07 2019-01-24 Machine learning device, machine learning method, machine learning program, and inspection device
JP2019014623A Active JP7213701B2 (en) 2018-09-07 2019-01-30 Machining equipment, machining method, machining program, and inspection equipment
JP2019042990A Active JP7236292B2 (en) 2018-09-07 2019-03-08 Evaluation device, evaluation method, evaluation program, and inspection device

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2019010485A Active JP7289658B2 (en) 2018-09-07 2019-01-24 Classification device, classification method, classification program, and inspection device
JP2019010486A Active JP7161948B2 (en) 2018-09-07 2019-01-24 Machine learning device, machine learning method, machine learning program, and inspection device
JP2019014623A Active JP7213701B2 (en) 2018-09-07 2019-01-30 Machining equipment, machining method, machining program, and inspection equipment

Country Status (1)

Country Link
JP (4) JP7289658B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020183876A (en) * 2019-04-26 2020-11-12 株式会社前川製作所 Feature point recognition system and workpiece processing system
CN111695553B (en) * 2020-06-05 2023-09-08 北京百度网讯科技有限公司 Form identification method, device, equipment and medium
WO2022185432A1 (en) * 2021-03-03 2022-09-09 Heroz株式会社 Image recognition learning system, image recognition learning method, image recognition learning program, image recognition machine learning unit, and image recognition system
JP7453931B2 (en) 2021-03-12 2024-03-21 株式会社豊田中央研究所 Learning data generation device, anomaly detection device, anomaly detection system, and anomaly detection program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016191589A (en) 2015-03-31 2016-11-10 株式会社Screenホールディングス Defect classification device defect classification method
WO2018235266A1 (en) 2017-06-23 2018-12-27 株式会社Rist Inspection device, inspection method, and inspection program
JP2019192082A (en) 2018-04-27 2019-10-31 Awl株式会社 Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning
JP2019537839A (en) 2016-10-14 2019-12-26 ケーエルエー コーポレイション Diagnostic system and method for deep learning models configured for semiconductor applications

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60234571D1 (en) * 2001-01-23 2010-01-14 Health Discovery Corp COMPUTER-ASSISTED IMAGE ANALYSIS
JP4553300B2 (en) * 2004-09-30 2010-09-29 Kddi株式会社 Content identification device
JP4849596B2 (en) * 2005-12-08 2012-01-11 独立行政法人情報通信研究機構 Question answering apparatus, question answering method, and question answering program
JP5075083B2 (en) * 2008-10-08 2012-11-14 大日本スクリーン製造株式会社 Teacher data creation support method, image classification method, and image classification apparatus
JP5660273B2 (en) 2010-01-04 2015-01-28 日本電気株式会社 Image diagnosis method, image diagnosis apparatus, and image diagnosis program
JP5715873B2 (en) 2011-04-20 2015-05-13 株式会社日立ハイテクノロジーズ Defect classification method and defect classification system
JP6277818B2 (en) * 2014-03-26 2018-02-14 日本電気株式会社 Machine learning apparatus, machine learning method, and program
US10878320B2 (en) * 2015-07-22 2020-12-29 Qualcomm Incorporated Transfer learning in neural networks
JP6584250B2 (en) * 2015-09-10 2019-10-02 株式会社Screenホールディングス Image classification method, classifier configuration method, and image classification apparatus
JP6530688B2 (en) * 2015-09-25 2019-06-12 株式会社Screenホールディングス Classifier construction method, image classification method, classifier construction apparatus and image classification apparatus
JP6531036B2 (en) * 2015-12-08 2019-06-12 株式会社Screenホールディングス Teacher data creation support method, image classification method, teacher data creation support device and image classification device
JP6377050B2 (en) * 2015-12-18 2018-08-22 ヤフー株式会社 Learning device, learning method, and learning program
JP6333871B2 (en) * 2016-02-25 2018-05-30 ファナック株式会社 Image processing apparatus for displaying an object detected from an input image
JP6832155B2 (en) 2016-12-28 2021-02-24 ソニーセミコンダクタソリューションズ株式会社 Image processing equipment, image processing method, and image processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016191589A (en) 2015-03-31 2016-11-10 株式会社Screenホールディングス Defect classification device defect classification method
JP2019537839A (en) 2016-10-14 2019-12-26 ケーエルエー コーポレイション Diagnostic system and method for deep learning models configured for semiconductor applications
WO2018235266A1 (en) 2017-06-23 2018-12-27 株式会社Rist Inspection device, inspection method, and inspection program
JP2019192082A (en) 2018-04-27 2019-10-31 Awl株式会社 Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning

Also Published As

Publication number Publication date
JP2020042001A (en) 2020-03-19
JP2020042757A (en) 2020-03-19
JP7289658B2 (en) 2023-06-12
JP2020042755A (en) 2020-03-19
JP7213701B2 (en) 2023-01-27
JP7161948B2 (en) 2022-10-27
JP2020042754A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP7236292B2 (en) Evaluation device, evaluation method, evaluation program, and inspection device
WO2019233166A1 (en) Surface defect detection method and apparatus, and electronic device
US20240152548A1 (en) Electronic apparatus for searching related image and control method therefor
US9886669B2 (en) Interactive visualization of machine-learning performance
Li et al. An improved SMOTE imbalanced data classification method based on support degree
CA2961119C (en) Method and system for selecting sample set for assessing the accessibility of a website
WO2020190480A1 (en) Classifying an input data set within a data category using multiple data recognition tools
Pedziwiatr et al. Meaning maps and saliency models based on deep convolutional neural networks are insensitive to image meaning when predicting human fixations
US20160110857A1 (en) Dynamic Binning for Diversification and Defect Discovery
JP2016103759A (en) Image processing apparatus, image processing method, and program
JP2022055953A (en) Defect classification device, defect classification method and program
Vitek et al. Exploring bias in sclera segmentation models: A group evaluation approach
US11961327B2 (en) Image processing method and device, classifier training method, and readable storage medium
CN103345525B (en) File classification method, device and processor
JP7362924B2 (en) Data augmentation-based spatial analysis model learning device and method
US20240045992A1 (en) Method and electronic device for removing sensitive information from image data
Agnihotri DeepFake Detection using Deep Neural Networks
JP6947460B1 (en) Programs, information processing equipment, and methods
JP7199028B2 (en) CLASSIFIER, CLASSIFICATION METHOD AND COMPUTER PROGRAM
JP7383939B2 (en) Learning device, learning method, cell discrimination device, cell discrimination method, cell discrimination learning program, and cell discrimination program
Ganz et al. Selecting communicative interventions targets for school-aged participants with ASD and ID: A Single-case experimental design meta-analysis. EdArXiv
US20220374730A1 (en) Method for assigning at least one query triplet to at least one respective class
Mendil et al. Behaviour-based detection of transient visual interaction obstacles with convolutional neural networks and cognitive user simulation
US20220019749A1 (en) Techniques for generating natural language descriptions of neural networks
Coe et al. Evaluating Impact of Race in Facial Recognition across Machine Learning and Deep Learning Algorithms. Computers 2021, 10, 113

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R151 Written notification of patent or utility model registration

Ref document number: 7236292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151