JP7236292B2 - Evaluation device, evaluation method, evaluation program, and inspection device - Google Patents
Evaluation device, evaluation method, evaluation program, and inspection device Download PDFInfo
- Publication number
- JP7236292B2 JP7236292B2 JP2019042990A JP2019042990A JP7236292B2 JP 7236292 B2 JP7236292 B2 JP 7236292B2 JP 2019042990 A JP2019042990 A JP 2019042990A JP 2019042990 A JP2019042990 A JP 2019042990A JP 7236292 B2 JP7236292 B2 JP 7236292B2
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- evaluation
- article
- sample image
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、物品の状態を分類する分類器を評価する評価装置、評価方法、及び評価プログラムに関する。また、本発明は、物品の検査を行う検査装置に関する。 The present invention relates to an evaluation device, an evaluation method, and an evaluation program for evaluating a classifier that classifies the states of articles. The present invention also relates to an inspection apparatus for inspecting articles.
物品を被写体として含む画像を参照して該物品の状態を分類する技術が広く用いられている。このような技術を、機械学習により構築された分類器を用いて実現する場合、分類器を完成させる過程で、学習済みの分類器を評価する必要がある。 A technique for classifying the state of an article by referring to an image containing the article as a subject is widely used. When implementing such a technique using a classifier constructed by machine learning, it is necessary to evaluate the learned classifier in the process of completing the classifier.
このような問題の解決に資する可能性のある技術としては、例えば、特許文献1に記載の評価装置が挙げられる。この評価装置は、学習目標を受け付ける学習目標受付部と、少なくとも学習目標に含まれる評価項目について分類器の評価を行い、評価データを生成する評価部と、学習目標と評価データとを用いて、分類器が学習目標を達成したか否か判定する判定部とを含む。
As a technology that may contribute to solving such problems, for example, an evaluation device described in
発明者らは、物品の状態を分類する際に分類器が着目する画像内の領域と、物品の状態を分類する際に人が着目する画像内の領域との比較を行った。その結果、一定の汎化能力を有する分類器(例えば、特許文献1の記載の評価装置によって学習目標を達成したと判定された評価装置)であっても、物品の状態を分類する際に人が着目する領域とは全く異なる領域に着目している分類器が存在することが分かった。このような分類器は、限られたテストデータに関して人による分類の結果を偶発的に再現した分類器に過ぎないと考えられる。したがって、このような分類器は、追加学習による汎化能力の向上を期待することができない、謂わば「筋の悪い」の分類器であり、人による物品の分類を代替する分類器になり得ない。このような観点から分類器を評価する技術は、これまで存在していない。もちろん、特許文献1に記載の評価装置も、このような観点から分類器を評価するものではない。
The inventors compared the area in the image that the classifier pays attention to when classifying the state of the article and the area in the image that the person pays attention to when classifying the state of the article. As a result, even with a classifier having a certain generalization ability (for example, an evaluation device that is determined to have achieved a learning goal by the evaluation device described in Patent Document 1), when classifying the state of an article, human It was found that there are classifiers that focus on a completely different region from the one focused on by . Such classifiers are considered to be nothing more than accidental reproductions of human classification results on limited test data. Therefore, such a classifier cannot be expected to improve generalization ability through additional learning, and is a so-called "bad" classifier, and can be a classifier that replaces the classification of articles by humans. do not have. Techniques for evaluating classifiers from this point of view have not existed so far. Of course, the evaluation device described in
本発明は、上記の問題に鑑みてなされたものであり、その目的は、物品の状態を分類する分類器を、着目する領域に関する人との類似性の観点から評価することが可能な評価装置、評価方法、及び評価プログラムを実現することにある。また、そのような評価装置を用いた検査装置を実現することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide an evaluation apparatus capable of evaluating a classifier for classifying the state of an article from the viewpoint of similarity with a person in a region of interest. , an evaluation method, and an evaluation program. Another object of the present invention is to realize an inspection apparatus using such an evaluation apparatus.
上記の課題を解決するために、本発明の一態様に係る評価装置は、物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、学習により定められたアルゴリズムに従い実行する複数の分類器の各々を評価する評価装置である。該評価装置は、人が状態を分類した物品を被写体として含む画像をサンプル画像として、各分類器に対応するヒートマップであって、上記分類処理において該分類器が着目する該サンプル画像内の領域を示すヒートマップを作成する作成部と、対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価部と、を備えている。 In order to solve the above problems, an evaluation apparatus according to an aspect of the present invention refers to an image including an article as a subject, and performs classification processing for classifying the state of the article according to an algorithm determined by learning. An evaluation device for evaluating each of a plurality of classifiers. The evaluation device uses an image including, as a subject, an article whose state has been classified by a person as a sample image, and a heat map corresponding to each classifier, which is a region in the sample image to which the classifier pays attention in the classification process. Based on the comparison between the area in the sample image indicated by the corresponding heat map and the area in the sample image that the person focuses on in order to classify the state of the article, each an evaluation unit for evaluating the classifier.
上記の課題を解決するために、本発明の一態様に係る評価方法は、物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、学習により定められたアルゴリズムに従い実行する複数の分類器の各々を評価する評価方法である。該評価方法は、人が状態を分類した物品を被写体として含む画像をサンプル画像として、各分類器に対応するヒートマップであって、上記分類処理において該分類器が着目する該サンプル画像内の領域を示すヒートマップを作成する作成ステップと、対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価ステップと、を備えている。 In order to solve the above problems, an evaluation method according to an aspect of the present invention refers to an image including an article as a subject, and executes classification processing for classifying the state of the article according to an algorithm determined by learning. It is an evaluation method for evaluating each of a plurality of classifiers. The evaluation method uses an image including, as a subject, an article whose state has been classified by a person as a sample image, a heat map corresponding to each classifier, and a region in the sample image to which the classifier focuses in the classification process. and comparing the area in the sample image indicated by the corresponding heat map with the area in the sample image that the person focuses on to classify the state of the article, each and an evaluation step of evaluating the classifier.
上記の課題を解決するために、本発明の一態様に係る評価プログラムは、コンピュータを上述の評価装置として動作させる評価プログラムであって、上記コンピュータを上記評価装置の各部として機能させる。 In order to solve the above problems, an evaluation program according to one aspect of the present invention is an evaluation program that causes a computer to operate as the evaluation device described above, and causes the computer to function as each part of the evaluation device.
上記の課題を解決するために、本発明の一態様に係る検査装置は、物品の検査を行う検査装置である。該検査装置は、上記複数の分類器と、上述の評価装置と、上記評価装置による評価結果に基づいて、上記複数の分類器から何れかの分類器を選択する選択部と、を含み、上記選択部により選択された分類器を用いて、上記物品の検査を行う。 To solve the above problems, an inspection apparatus according to one aspect of the present invention is an inspection apparatus that inspects articles. The inspection device includes the plurality of classifiers, the evaluation device, and a selection unit that selects one of the plurality of classifiers based on the evaluation result of the evaluation device, The article is inspected using the classifier selected by the selection unit.
上記の構成によれば、物品の状態を分類する分類器を、着目する領域に関する人との類似性の観点から評価することができる。 According to the above configuration, it is possible to evaluate a classifier that classifies the state of an article from the viewpoint of similarity with a person regarding the region of interest.
本発明の一態様に係る評価装置において、上記評価部は、対応するヒートマップが示すサンプル画像内の領域の中に、物品の状態を分類するために上記人が着目するサンプル画像内の領域と重複する領域が含まれている分類器を、含まれていない分類器より高く評価する、ことが好ましい。 In the evaluation device according to an aspect of the present invention, the evaluation unit includes an area in the sample image that the person pays attention to for classifying the state of the article, in the area in the sample image indicated by the corresponding heat map. It is preferable to rate classifiers that include overlapping regions higher than classifiers that do not.
上記の構成によれば、物品の状態を分類するために、人が着目する領域と類似する領域に着目する分類器を高く評価することができる。 According to the above configuration, in order to classify the state of an article, it is possible to highly evaluate a classifier that focuses on a region similar to a region that a person focuses on.
本発明の一態様に係る評価装置において、上記評価部は、対応するヒートマップが示すサンプル画像内の領域の中に、物品の状態を分類するために上記人が着目するサンプル画像内の領域と重複しない領域が含まれている分類器を、含んでいない分類器よりさらに高く評価する、ことが好ましい。 In the evaluation device according to an aspect of the present invention, the evaluation unit includes an area in the sample image that the person pays attention to for classifying the state of the article, in the area in the sample image indicated by the corresponding heat map. It is preferable to rate classifiers that contain non-overlapping regions higher than classifiers that do not.
上記の構成によれば、物品の状態を分類するために、人が着目する領域と類似する領域に着目することに加えて、人が着目する領域と類似しない独自の領域に着目する分類器を、高く評価することができる。 According to the above configuration, in order to classify the state of an article, in addition to focusing on areas similar to the area of human attention, a classifier that focuses on a unique area that is not similar to the area of human attention is provided. , can be appreciated.
本発明の一態様に係る評価装置において、人が状態を分類した物品を被写体として含む複数の画像の各々をサンプル画像として、サンプル画像毎に各分類器に対応するヒートマップを作成し、上記評価部は、サンプル画像毎に各分類器を評価した評価結果に基づいて、各分類器を評価する、ことが好ましい。 In the evaluation apparatus according to one aspect of the present invention, each of a plurality of images containing articles classified by a person as subjects is used as a sample image, and a heat map corresponding to each classifier is created for each sample image, and the above evaluation is performed. Preferably, the unit evaluates each classifier based on evaluation results of evaluating each classifier for each sample image.
上記の構成によれば、物品の状態を分類する分類器を、より高い精度で評価することができる。 According to the above configuration, the classifier that classifies the state of the article can be evaluated with higher accuracy.
本発明の一態様に係る評価装置において、上記評価部は、上記複数の分類器のうち、各サンプル画像に被写体として含まれる物品の状態を分類した結果が、上記人が該物品の状態を分類した結果に一致する割合がより高い分類器を、さらに高く評価する、ことが好ましい。 In the evaluation device according to the aspect of the present invention, the evaluation unit classifies the state of the article included in each sample image as a subject in each of the plurality of classifiers so that the person classifies the state of the article. Preferably, classifiers with a higher percentage of matching results are rated higher.
上記の構成によれば、物品の状態を分類するために、人が着目する領域と類似する領域に着目すると共に、分類精度が高い分類器を高く評価することができる。 According to the above configuration, in order to classify the state of an article, it is possible to focus on a region similar to a region that a person pays attention to, and to highly evaluate a classifier with high classification accuracy.
本発明の一態様によれば、物品の状態を分類する分類器を、着目する領域に関する人との類似性の観点から評価することができる。 According to one aspect of the present invention, a classifier that classifies the state of an article can be evaluated in terms of similarity with a person regarding a region of interest.
〔実施形態1〕
(評価装置の物理的構成)
本発明の第1の実施形態に係る評価装置1の物理的構成について、図1を参照して説明する。図1は、評価装置1の物理的構成を示すブロック図である。
[Embodiment 1]
(Physical configuration of evaluation device)
A physical configuration of the
評価装置1は、図1に示すように、バス10と、主メモリ11と、プロセッサ12と、補助メモリ13と、入出力インターフェース14と、を備えたコンピュータである。主メモリ11、プロセッサ12、補助メモリ13、及び入出力インターフェース14は、バス10を介して互いに接続されている。主メモリ11としては、例えば、単一又は複数の半導体RAM(random access memory)が用いられる。プロセッサ12としては、例えば、単一又は複数のマイクロプロセッサ、単一又は複数のデジタルシグナルプロセッサ、単一又は複数のマイクロコントローラ、又はこれらの組み合わせが用いられる。補助メモリ13としては、例えば、単一又は複数のHDD(Hard Disk Drive)、単一又は複数のSSD(Solid State Drive)、又はこれらの組み合わせが用いられる。また、補助メモリ13の一部又は全部は、通信インタフェース(図示せず)を介して接続されたネットワーク上のストレージであってもよい。入出力インターフェース14としては、例えば、USB(Universal Serial Bus)インターフェース、赤外線やBluetooth(登録商標)等の近距離通信インターフェース、又はこれらの組み合わせが用いられる。
The
入出力インターフェース14には、例えば、入力装置20及び出力装置30が接続される。入力装置20としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。出力装置30としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。なお、評価装置1は、ノート型コンピュータのように、入力装置20として機能するキーボート及びタッチパッド、並びに、出力装置30として機能するディスプレイを内蔵していてもよい。また、評価装置1は、スマートフォン又はタブレット型コンピュータのように、入力装置20及び出力装置30として機能するタッチパネルを内蔵していてもよい。
For example, an
補助メモリ13には、後述する評価処理S1をプロセッサ12に実行させるためのプログラムPが格納されている。プロセッサ12は、補助メモリ13に格納されたプログラムPを主メモリ11上に展開し、主メモリ11上に展開されたプログラムPに含まれる各命令を実行することによって、後述する評価処理S1に含まれる各ステップを実行する。また、補助メモリ13には、後述する評価処理S1を実行するためにプロセッサ12が参照する各種データが格納されている。
The
なお、ここでは、内部記憶媒体である補助メモリ13に格納されているプログラムPに従ってプロセッサ12が後述する評価処理S1を実行する形態について説明したが、これに限定されない。すなわち、外部記録媒体に格納されているプログラムPに従ってプロセッサ12が後述する評価処理S1を実行する形態を採用してもよい。この場合、外部記録媒体としては、コンピュータが読み取り可能な「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブル論理回路などを用いることができる。あるいは、通信インタフェース(図示せず)を介して接続されるネットワーク上から取得したプログラムPに従ってプロセッサ12が後述する評価処理S1を実施する形態を採用してもよい。この場合、ネットワークとしては、例えば、インターネット、有線LAN(Local Area Network)、無線LAN、又はこれらの少なくとも一部の組み合わせ等などを用いることができる。
Here, a form in which the
また、ここでは、単一のコンピュータを用いて評価装置1を実現する形態について説明したが、これに限定されない。すなわち、互いに通信可能に構成された複数のコンピュータを用いて評価装置1を実現する形態を採用してもよい。この場合、後述する評価処理S1を構成する各ステップを、これらのコンピュータにより並列的に実行することが可能になる。
Moreover, although the form which implement|achieves the
(評価装置の機能的構成)
評価装置1の機能的構成について、図2を参照して説明する。図2は、評価装置1の機能的構成を示すブロック図である。
(Functional configuration of evaluation device)
A functional configuration of the
評価装置1は、図2に示すように、複数の分類器C1,C2,…,Cnと、作成部101と、評価部102とを備えている。ここで、nは、分類器C1,C2,…,Cnの個数を表す任意の自然数である。これらのブロックは、上述したプロセッサ12が上述したプログラムPの命令を実行することにより実現される機能ブロックである。
The
各分類器Ci(i=1,2,…,n)は、物品を被写体として含む画像を参照して該物品の状態を分類する分類処理を、機械学習により定められたアルゴリズム(以下、「モデル」と記載する)を用いて実行する。分類処理に利用可能なモデルとしては、例えば、物品を被写体として含む画像を入力とし、該物品の状態を出力とするニューラルネットワークが挙げられる。 Each classifier Ci (i=1, 2, . . . , n) refers to an image containing an article as a subject and performs classification processing for classifying the state of the article using an algorithm determined by machine learning (hereinafter referred to as "model ”). A model that can be used for the classification process is, for example, a neural network that receives an image including an article as an object and outputs the state of the article.
各分類器Ciが用いるモデルは、評価装置1による評価が開始する前に、事前の機械学習により構築される。事前の機械学習においては、(1)モデルの選択、(2)モデルの調整(ネットワーク構造及びハイパーパラメータの調整)、及び、(3)モデルの機械学習が行われる。
The model used by each classifier Ci is constructed by prior machine learning before the evaluation by the
作成部101は、検査者(特許請求の範囲における「人」の一例)が状態を分類した物品を被写体として含む画像I1,I2,…,Imをサンプル画像として、各分類器Ci(i=1,2,…,n)に対応するヒートマップMij(j=1,2,…,m)を作成するブロックである。ここで、ヒートマップMiとは、分類処理において分類器Ciが着目するサンプル画像Ij内の領域を示す画像のことを指す。
The
例えば、ヒートマップMijは、特定のクラス分類の確からしさ、又は、関連の深さを、色の濃さで表した画像である。この場合、例えば、ヒートマップMijにおいて、相対的に色の濃い領域が、サンプル画像Ijにおいて、物品の状態を分類するために分類器Ciが着目した領域を表す。或いは、ヒートマップMijは、分類器Ciの出力に与える影響の大きさに応じて各画素の画素値が設定された画像である。この場合、例えば、ヒートマップMijにおいて、相対的に高い画素値を有する領域が、サンプル画像Ijにおいて、物品の状態を分類するために分類器Ciが着目した領域を表す。以下、各サンプル画像Ijにおいて、物品の状態を分類するために分類器Ciが着目する領域を、分類器Ciによる「着目領域」とも記載する。分類器Ciによる着目領域は、1箇所の場合もあるし、複数箇所の場合もある。ヒートマップMijの作成には、例えば、公知のアルゴリズムであるGrad-CAM(Gradient-weighted Class Activation Mapping)を用いることができる。 For example, the heat map Mij is an image that expresses the certainty of a specific class classification or the depth of association with color intensity. In this case, for example, in the heat map Mij, relatively dark areas represent areas in the sample image Ij focused on by the classifier Ci to classify the state of the article. Alternatively, the heat map Mij is an image in which the pixel value of each pixel is set according to the magnitude of the effect on the output of the classifier Ci. In this case, for example, areas with relatively high pixel values in the heat map Mij represent areas in the sample image Ij that the classifier Ci focused on to classify the state of the article. Hereinafter, in each sample image Ij, the area that the classifier Ci pays attention to for classifying the state of the article is also referred to as the "area of interest" by the classifier Ci. There may be one region of interest by the classifier Ci, or there may be multiple regions. For creating the heat map Mij, for example, Grad-CAM (Gradient-weighted Class Activation Mapping), which is a well-known algorithm, can be used.
なお、作成部101は、各分類器Ciに対応するヒートマップMijの生成を、分類器Ciによる分類の結果が正解情報(人による分類の結果を示す)に一致したサンプル画像Ijについてのみ行う(分類器Ciによる分類の結果が正解情報に一致しないサンプル画像Ilについては行わない)ように構成されていてもよい。
Note that the creating
評価部102は、ヒートマップMijが示す分類器Ciによる着目領域(すなわち、物品の状態を分類するために分類器Ciが着目するサンプル画像Ij内の領域)と、物品の状態を分類するために検査者が着目するサンプル画像Ij内の領域との比較に基づいて、各分類器Ciを評価するブロックである。以降、検査者が着目するサンプル画像Ij内の領域を、検査者による着目領域とも記載する。例えば、検査者による着目領域は、入力装置20を介して入力される。具体的には、評価部102は、サンプル画像Ijをディスプレイに表示し、タッチパッド又はマウス等の操作により指定された領域を、検査者による着目領域として取得してもよい。検査者による着目領域は、1箇所であってもよいし、複数箇所であってもよい。
The
検査者による着目領域と分類器Ciによる着目領域との類似度が高い場合、その分類器Ciは、汎化能力が高い(或いは、今後の追加学習により汎化能力の向上が期待できる)分類器であると考えられる。逆に、検査者による着目領域と分類器Ciによる着目領域との類似度が低い場合、その分類器Ciは、汎化能力が低い(或いは、今後の追加学習により汎化能力の向上が期待しにくい)分類器であると考えられる。評価部102は、このような観点から各分類器Ciを評価する。各分類器Ciに対する評価結果は、良又は否等の2段階で表されていてもよいし、3段階以上で表されていてもよいし、所定範囲の数値として表されていてもよい。
When the region of interest by the inspector and the region of interest by the classifier Ci are highly similar, the classifier Ci is a classifier with high generalization ability (or an improvement in generalization ability can be expected through additional learning in the future). It is considered to be Conversely, when the similarity between the region of interest by the inspector and the region of interest by the classifier Ci is low, the classifier Ci has low generalization ability (or it is expected that the generalization ability will be improved by additional learning in the future). difficult) classifier. The
例えば、評価部102は、分類器Ciによる着目領域の中に、検査者による着目領域と重複する着目領域が含まれている分類器Ciを、そうでない分類器Ck(k≠i)よりも高く評価する。ここで、2つの領域が重複するとは、これら2つの領域の共通部分が存在することを意味する。以下、分類器Ciによる着目領域のうち、検査者による着目領域と重複する着目領域のことを、重複領域とも記載する。
For example, the
また、評価部102は、分類器Ciによる着目領域の中に、検査者による着目領域と重複する領域と、検査者による着目領域と重複しない領域との両方が含まれている分類器Ciを、そうでない分類器Ckよりも高くする評価する。以下、分類器Ciによる着目領域のうち、検査者による着目領域と重複しない着目領域のことを、独自領域とも記載する。独自領域は、分類器Ciによる着目領域の中で、検査者が着目することのない着目領域、すなわち、分類器Ciが独自に着目する着目領域である。なお、評価部102は、分類器Ciによる着目領域のうち、検査者による着目領域と重複しない着目領域を独自領域とみなすか否かを、検査者による入力情報に基づいて決定してもよい。これにより、評価部102は、そのような分類器Ciの独自の着目領域のうち、検査者にとって確かにその着目領域もあり得ると考えられる着目領域を、独自領域とみなして動作する。
In addition, the
また、評価部102は、各サンプル画像Ijに被写体として含まれる物品の状態を分類した結果が、検査者が該物品の状態を分類した結果に一致する割合(以下、「正解率」とも記載する)がより高い分類器Ciを、そうでない分類器Ckよりも高く評価する。この場合、評価部102は、各分類器Ciについて、分類器Ciによる着目領域と検査者による着目領域との比較結果と、分類器Ciの正解率とに基づく評価を行うことになる。
In addition, the
具体的には、評価部102には、検査者が該物品の状態を分類した結果が正解情報として、入力装置20を介して入力される。また、評価部102には、各分類器Ciから出力される分類結果が入力される。そして、評価部102は、各分類器Ciについて、当該分類器Ciから出力される各サンプル画像Ijの分類結果が正解情報に一致する割合を、正解率として算出する。例えば、評価部102は、各分類器Ciについて、該分類器Ciによる着目領域と検査者による着目領域との比較に基づく評価結果に対して、正解率が高いほど評価結果がさらに高くなるような重み付けを行う。
Specifically, the result of classifying the state of the article by the inspector is input to the
なお、評価部102は、各分類器Ciについて、該分類器Ciによる着目領域と検査者による着目領域との比較を、当該分類器Ciから出力された分類結果が正解情報に一致したサンプル画像Ijについてのみ行う(一致しないサンプル画像Ilについては比較を行わない)構成を採用してもよい。
For each classifier Ci, the
(評価方法)
評価装置1が実行する評価方法S1ついて、図3~図6を参照して説明する。
(Evaluation method)
The evaluation method S1 executed by the
図3は、評価方法S1の流れを示すフローチャートである。評価方法S1は、図3に示すように、作成ステップS101と、評価ステップS102と、を含んでいる。 FIG. 3 is a flow chart showing the flow of the evaluation method S1. The evaluation method S1 includes a creation step S101 and an evaluation step S102, as shown in FIG.
作成ステップS101は、検査者が状態を分類した物品を被写体として含む画像をサンプル画像Ijとして、各分類器Ciに対応するヒートマップMijを作成するステップである。上述したように、本実施形態では、各分類器Ciに複数のサンプル画像I1,I2,…,Imが入力され、複数のヒートマップMi1,Mi2,…,Mimが作成される。ここでは、作成部101は、分類器Ciによる分類結果が正解情報に一致したサンプル画像Ijについてヒートマップを作成し、一致しなかったサンプル画像Il(l≠j)については、ヒートマップを作成しない。
The creation step S101 is a step of creating a heat map Mij corresponding to each classifier Ci by using an image including, as a subject, an article whose state has been classified by an inspector as a sample image Ij. As described above, in the present embodiment, a plurality of sample images I1, I2, . . . , Im are input to each classifier Ci, and a plurality of heat maps Mi1, Mi2, . Here, the creating
評価ステップS102は、対応するヒートマップMijが示すサンプル画像Ij内の領域と、物品の状態を分類するために検査者が着目するサンプル画像Ij内の領域との比較に基づいて、各分類器Ciを評価するステップである。上述したように、本実施形態では、複数のサンプル画像I1,I2,…,Imの各々について、分類器Ciによる着目領域と検査者による着目領域との比較が行われる。また、各分類器Ciについて、複数のサンプル画像I1,I2,…,Imの分類結果が正解情報と一致した割合である正解率が算出される。そして、各分類器Ciについて、比較結果と正解率とに基づいた評価が実行され、評価結果が出力される。 The evaluation step S102 evaluates each classifier Ci is the step of evaluating As described above, in the present embodiment, the region of interest by the classifier Ci and the region of interest by the inspector are compared for each of the plurality of sample images I1, I2, . . . , Im. Also, for each classifier Ci, a correct answer rate is calculated, which is a rate at which the classification results of the plurality of sample images I1, I2, . Then, each classifier Ci is evaluated based on the comparison result and the accuracy rate, and the evaluation result is output.
図4は、作成ステップS101において生成されるヒートマップの一例を示す図である。ここでは、各分類器Ciには、サンプル画像I1,I2,I3が入力される。サンプル画像I1,I2,I3には、それぞれ、物品O1,O2,O3が被写体として含まれている。ここで、サンプル画像I1,I2,I3の正解情報は、それぞれ、クラスA、クラスB、クラスCである。 FIG. 4 is a diagram showing an example of the heat map generated in the creation step S101. Here, sample images I1, I2, and I3 are input to each classifier Ci. Sample images I1, I2, and I3 include articles O1, O2, and O3 as subjects, respectively. Here, the correct information of the sample images I1, I2, and I3 are class A, class B, and class C, respectively.
分類器C1,C2によるサンプル画像I1の分類結果は、それぞれクラスAで正解であり、分類器C1に対応するヒートマップM11と、分類器C2に対応するヒートマップM21とが作成される。 The classification results of the sample image I1 by the classifiers C1 and C2 are correct in class A, respectively, and a heat map M11 corresponding to the classifier C1 and a heat map M21 corresponding to the classifier C2 are created.
分類器C1,C2によるサンプル画像I2の分類結果は、それぞれクラスBで正解であり、分類器C1に対応するヒートマップM12と、分類器C2に対応するヒートマップM22とが作成される。 The classification results of the sample image I2 by the classifiers C1 and C2 are correct in class B, respectively, and a heat map M12 corresponding to the classifier C1 and a heat map M22 corresponding to the classifier C2 are created.
分類器C1によるサンプル画像I3の分類結果は、クラスBで不正解であり、分類器C1に対応するヒートマップは作成されない。分類器C2によるサンプル画像I3の分類結果は、クラスCで正解であり、分類器C2に対応するヒートマップM23が作成される。 The classification result of the sample image I3 by the classifier C1 is an incorrect answer in class B, and a heat map corresponding to the classifier C1 is not created. The classification result of the sample image I3 by the classifier C2 is correct in class C, and a heat map M23 corresponding to the classifier C2 is created.
評価ステップS102における比較処理の一例を、図5~図6を用いて説明する。 An example of comparison processing in the evaluation step S102 will be described with reference to FIGS. 5 and 6. FIG.
図5(a),(b),(c)は、サンプル画像I1,I2,I3における、検査者による着目領域R1,R2,R3を示す模式図である。 FIGS. 5A, 5B, and 5C are schematic diagrams showing regions of interest R1, R2, and R3 of the inspector in the sample images I1, I2, and I3.
図5(d)は、上述したヒートマップM11が示す着目領域を示す。ヒートマップM11は、2つの着目領域P11,P12を含んでいる。分類器C1による着目領域P11,P12の中で、着目領域P11は、検査者による着目領域R1と重複する重複領域である。また、分類器C1による着目領域P11,P12の中で、着目領域P12は、検査者による着目領域R1と重複していない独自領域である。 FIG. 5(d) shows the region of interest indicated by the heat map M11 described above. The heat map M11 includes two regions of interest P11 and P12. Among the regions of interest P11 and P12 by the classifier C1, the region of interest P11 is an overlapping region that overlaps the region of interest R1 by the inspector. Among the regions of interest P11 and P12 by the classifier C1, the region of interest P12 is a unique region that does not overlap with the region of interest R1 by the inspector.
図5(e)は、上述したヒートマップM12が示す着目領域を示す。ヒートマップM12は、2つの着目領域P21,P22を含んでいる。分類器C1による着目領域P21,P22の中で、着目領域P21は、検査者による着目領域R2と重複する重複領域である。また、分類器C1による着目領域P21,P22の中で、着目領域P22は、検査者による着目領域R2と重複していない独自領域である。 FIG. 5(e) shows the region of interest indicated by the heat map M12 described above. The heat map M12 includes two regions of interest P21 and P22. Among the regions of interest P21 and P22 by the classifier C1, the region of interest P21 is an overlapping region that overlaps the region of interest R2 by the inspector. Among the regions of interest P21 and P22 by the classifier C1, the region of interest P22 is a unique region that does not overlap with the region of interest R2 by the inspector.
図5(f)は、上述したヒートマップM21が示す着目領域を示す。ヒートマップM21は、1つの着目領域Q1を含んでいる。分類器C2による着目領域Q1は、検査者による着目領域R1と重複していない。 FIG. 5(f) shows the region of interest indicated by the heat map M21 described above. The heat map M21 includes one region of interest Q1. The region of interest Q1 by the classifier C2 does not overlap with the region of interest R1 by the inspector.
図5(g)は、上述したヒートマップM22が示す着目領域を示す。ヒートマップM22は、1つの着目領域Q2を含んでいる。分類器C2による着目領域Q2は、検査者による着目領域R2と重複していない。 FIG. 5(g) shows the region of interest indicated by the heat map M22 described above. The heat map M22 includes one region of interest Q2. The region of interest Q2 by the classifier C2 does not overlap with the region of interest R2 by the inspector.
図5(h)は、上述したヒートマップM23が示す着目領域を示す。ヒートマップM23は、1つの着目領域Q3を含んでいる。分類器C2による着目領域Q3は、検査者による着目領域R3と重複する重複領域である。 FIG. 5(h) shows the region of interest indicated by the heat map M23 described above. The heat map M23 includes one region of interest Q3. The region of interest Q3 by the classifier C2 is an overlapping region that overlaps the region of interest R3 by the inspector.
図6は、各分類器Ciについて、正解/不正解、重複領域の有無、及び独自領域の有無を、サンプル画像Ij毎に整理した表であり、各分類器Ciの評価結果を示している。なお、ヒートマップMijが示す着目領域の中に重複領域が無い場合には、独自領域の有無については記載していない。 FIG. 6 is a table in which correct/incorrect answers, presence/absence of overlapping regions, and presence/absence of unique regions for each classifier Ci are arranged for each sample image Ij, and shows evaluation results of each classifier Ci. Note that if there is no overlapping area in the focused area indicated by the heat map Mij, the presence or absence of the unique area is not described.
図6の例では、評価部102は、n個の分類器Ciを、正解率、重複領域率、独自領域率に基づいて比較した結果に基づいて、各分類器Ciの評価結果を生成している。ここで、重複領域率とは、サンプル画像Ijの総数mに対して、分類器Ciが重複領域を検出したサンプル画像Ijの数の割合である。また、独自領域率とは、サンプル画像Ijの総数に対して、分類器Ciが独自領域を検出したサンプル画像Ijの数の割合である。また、この例では、「良」または「否」の2段階の評価結果が生成されている。
In the example of FIG. 6, the
また、評価部102は、重複領域率を、正解率および独自領域率よりも重視した評価処理を行う。例えば、評価部102は、n個の中で重複領域率が高いとの条件(例えば、最も高い)を満たす分類器Ciのうち、正解率が高いとの条件(例えば、閾値以上)を満たす分類器Ciの評価結果を「良」とする。そして、評価部102は、当該評価結果を「良」とした分類器Ciとの比較により他の分類器Ckの評価を行う。
In addition, the
例えば、分類器C1の重複領域率60%は、n個の中で最も高い。また、分類器C1の正解率70%は、閾値(例えば、70%)以上である。そこで、評価部102は、分類器C1の評価結果を「良」とする。
For example, the overlapping area rate of 60% for the classifier C1 is the highest among n. Also, the accuracy rate of 70% of the classifier C1 is equal to or higher than the threshold (for example, 70%). Therefore, the
分類器C2は、分類器C1と比較して、重複領域率60%が同じであるが、正解率80%が高い一方で、独自領域率10%が低い。この場合、分類器C2は、分類器C1と比較して優れているとも劣っているともいえず、同等であると判定される。したがって、評価部102は、分類器C2の評価結果を「良」とする。
The classifier C2 has the same overlapping area rate of 60% as the classifier C1, but has a higher accuracy rate of 80% and a lower unique area rate of 10%. In this case, classifier C2 is neither superior nor inferior to classifier C1, and is determined to be equivalent. Therefore, the
また、分類器C3は、分類器C1と比較して、重複領域率60%が同じであるが、正解率60%および独自領域率0%ともに低い。この場合、分類器C3は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C3の評価結果を「否」とする。
Also, the classifier C3 has the same overlapping area rate of 60% as the classifier C1, but both the accuracy rate of 60% and the unique area rate of 0% are lower. In this case, classifier C3 is determined to be inferior compared to classifier C1. Therefore, the
また、分類器C4は、分類器C1と比較して、重複領域率60%および正解率70%が同じであるが、独自領域率20%が低い。この場合、分類器C4は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C4の評価結果を「否」とする。
Also, the classifier C4 has the same overlapping area rate of 60% and correct answer rate of 70% as the classifier C1, but has a lower unique area rate of 20%. In this case, classifier C4 is determined to be inferior compared to classifier C1. Therefore, the
また、分類器C5は、分類器C1と比較して、重複領域率60%および独自領域率30%が同じであるが、正解率60%が低い。この場合、分類器C5は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C5の評価結果を「否」とする。
Also, the classifier C5 has the same overlapping area rate of 60% and unique area rate of 30% as the classifier C1, but has a lower accuracy rate of 60%. In this case, classifier C5 is determined to be inferior compared to classifier C1. Therefore, the
また、分類器C6は、分類器C1と比較して、重複領域率50%が低く、正解率70%が同じであり、独自領域率40%が高い。この場合、重複領域率が低いことを、独自領域率が高いことより重視するため、分類器C6は、分類器C1と比較して劣っていると判定される。したがって、評価部102は、分類器C6の評価結果を「否」とする。
Further, the classifier C6 has a lower overlapping area rate of 50%, the same correct answer rate of 70%, and a higher unique area rate of 40% than the classifier C1. In this case, since a low overlapping area rate is more important than a high unique area rate, the classifier C6 is determined to be inferior to the classifier C1. Therefore, the
また、分類器Cnは、重複領域率30%が極端に低いとの条件(例えば、閾値以下)を満たす。この場合、評価部102は、分類器Cnを他の分類器Ciと比較することなく、分類器Cnの評価結果を「否」とする。
Also, the classifier Cn satisfies the condition that the overlapping area rate of 30% is extremely low (for example, less than or equal to the threshold). In this case, the
(評価装置1の効果)
本実施形態に係る評価装置1は、分類器Ciが着目する領域の中に、検査者が着目する領域と重複する重複領域が含まれる該分類器Ciを、そうでない分類器Ckより高く評価する。また、本実施形態に係る評価装置1は、分類器Ciが着目する領域の中に、検査者が着目する領域と重複しない独自領域がさらに含まれる該分類器Ciを、そうでない分類器Ckよりさらに高く評価する。したがって、本実施形態に係る評価装置1は、各分類器Ciを、当該分類器Ciが着目する領域に関する検査者が着目する領域との類似性の観点から、評価することができる。
(Effect of evaluation device 1)
The
(変形例1)
なお、本実施形態に係る評価方法S1では、評価部102が、検査者による着目領域を入力として、分類器による着目領域及び検査者による着目領域を比較するものとして説明した。これに限らず、評価方法S1では、分類器による着目領域及び検査者による着目領域の比較を、検査者が行ってもよい。この場合、評価部102は、作成部101によって生成されたヒートマップが示す、分類器による着目領域をディスプレイ等に表示する。また、評価部102は、ディスプレイに表示された着目領域を視認した検査者による上述した比較結果を表す情報を、入力装置30を介して取得する。
(Modification 1)
In the evaluation method S1 according to the present embodiment, the
(変形例2)
また、本実施形態においては、複数の分類器C1,C2,…,Cnが、評価装置1の内部に含まれている(評価装置1と同じコンピュータで実行されている)構成を採用しているが、本発明は、これに限定されない。例えば、複数の分類器C1,C2,…,Cnの一部又は全部が評価装置1の内部に含まれていない(評価装置1と異なるコンピュータで実行される)構成を採用しても構わない。すなわち、複数の分類器C1,C2,…,Cnは、評価装置1の必須の構成要素ではない。
(Modification 2)
Further, in this embodiment, a configuration is adopted in which a plurality of classifiers C1, C2, . However, the invention is not so limited. For example, a configuration in which some or all of the plurality of classifiers C1, C2, . That is, the plurality of classifiers C1, C2, . . . , Cn are not essential components of the
〔実施形態2〕
本実施形態では、実施形態1に係る評価装置1を用いて、物品の検査を行う検査装置2を構成する実施形態について説明する。
[Embodiment 2]
In this embodiment, the
図7は、検査装置2の機能的構成を示すブロック図である。なお、検査装置2の物理的構成については、図1を参照して説明した評価装置1と同様であるため、詳細な説明を省略する。
FIG. 7 is a block diagram showing the functional configuration of the
図7に示すように、検査装置2は、評価装置1と、選択部203とを含む。検査装置2は、選択部203により選択された分類器Ciを用いて、物品の検査を行う。
As shown in FIG. 7 , the
選択部203は、評価装置1による評価結果に基づいて、複数の分類器C1,C2,…,Cnから何れかの分類器Ciを選択するブロックである。例えば、選択部203は、各分類器Ciのうち、評価結果が所定条件を満たす(例えば、評価結果が「良」である)ものを1つ以上選択してもよい。
The
具体的には、選択部203は、検査装置2に対して入力される画像が、選択した分類器Ciに入力され、選択した分類器Ciからの出力が、検査結果として外部に出力されるよう、切り替え処理を行う。選択部203による切り替え処理は、評価装置1による評価が完了した後、検査装置2によって物品の検査を行う運用が開始される前に行われる。また、検査装置2の運用が開始する前に、選択された1つ以上の分類器Ciを追加学習させる処理が、さらに実行されてもよい。
Specifically, the
〔実施例1〕
検査装置2を用いた実施例1について、図9を参照して説明する。実施例1では、物品としての圧着端子を被写体として含むサンプル画像I1を用いて、評価装置1による評価を行った。
[Example 1]
Example 1 using the
各分類器Ciは、圧着端子を被写体として含む画像に基づいて、該圧着端子の状態を次の8状態の何れかに分類するよう、事前の機械学習により構築されている。 Each classifier Ci is constructed by prior machine learning so as to classify the state of the crimp terminal into one of the following eight states based on the image including the crimp terminal as an object.
状態1:良品
状態2:浅打ち
状態3:深打ち
状態4:バレルめくれ
状態5:トランジション部へのはみだし
状態6:インス側へのはみ出し
状態7:芯線切れ
状態8:ベルマウス不良
図8(a)は、サンプル画像I1における検査者による着目領域を示す図である。この実施例では、検査者は、圧着端子のバレルを含む領域に着目している。
Condition 1: Good condition Condition 2: Shallow stroke Condition 3: Deep stroke Condition 4: Barrel curled Condition 5: Protrusion to the transition part Condition 6: Protrusion to the inset side Condition 7: Wire breakage Condition 8: Bad bell mouth Fig. 8 (a) ) is a diagram showing a region of interest by an inspector in the sample image I1. In this example, the inspector focuses on the area containing the barrel of the crimp terminal.
本実施形態において、分類器C1及びC2は、何れも、上述したサンプル画像I1に被写体として含まれる圧着端子を、「状態4:バレルめくれ」として分類し、検査者が状態を分類した分類結果に一致する分類結果を出力した。 In the present embodiment, the classifiers C1 and C2 both classify the crimp terminal included as a subject in the sample image I1 described above as "state 4: barrel turn-up", and the classification result of the state classified by the inspector is Outputs matching classification results.
図8(b)は、分類器C1による2つの着目領域を示す図である。ここでは、分類器C1による一方の着目領域は、検査者による着目領域と重複する重複領域である。また、他方の着目領域は、検査者による着目領域と重複しない独自領域である。 FIG. 8(b) is a diagram showing two regions of interest by the classifier C1. Here, one region of interest by the classifier C1 is an overlapping region that overlaps the region of interest by the inspector. The other region of interest is a unique region that does not overlap with the region of interest of the inspector.
図8(c)は、分類器C2による1つの着目領域を示す図である。ここでは、分類器C2による着目領域は、検査者による着目領域と重複していない。 FIG. 8(c) is a diagram showing one region of interest by the classifier C2. Here, the region of interest by the classifier C2 does not overlap with the region of interest by the inspector.
図9は、分類器C2の評価について説明する図である。図9に示すように、評価装置1は、分類器C2による分類結果が検査者による分類結果と一致したものの、分類器C2による着目領域の中に重複領域が含まれないので、含まれる分類器C1より評価を低くする。このような分類器C2は、検査者による基準との関係が薄い画像箇所に基づいて、偶然に正しい分類結果を得た可能性があり、追加学習を行っても正解率が向上しない可能性がある。検査装置2は、そのような分類器C2を選択することなく、追加学習に適した分類器C1を用いて、物品の検査を行うことができる。
FIG. 9 is a diagram explaining the evaluation of the classifier C2. As shown in FIG. 9, although the classification result by the classifier C2 matches the classification result by the inspector, the
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
1 評価装置
2 検査装置
10 バス
11 主メモリ
12 プロセッサ
13 補助メモリ
14 入出力インターフェース
20 入力装置
30 出力装置
C1,C2,…,Cn,Ci 分類器
101 作成部
102 評価部
203 選択部
1
Claims (8)
各分類器に対応するヒートマップであって、人が状態を分類した物品を被写体として含むサンプル画像において前記分類処理で該分類器が注目する領域を示すヒートマップを作成する作成部と、
対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価部と、を備えている、
ことを特徴とする評価装置。 An evaluation device for evaluating each of a plurality of classifiers that refer to an image containing an article as a subject and perform classification processing for classifying the state of the article according to an algorithm determined by learning,
a creation unit that creates a heat map corresponding to each classifier, which indicates an area that the classifier pays attention to in the classification process in a sample image including, as a subject, an article whose state has been classified by a person;
an evaluation unit that evaluates each classifier based on a comparison of the area in the sample image indicated by the corresponding heat map and the area in the sample image that the person focuses on to classify the state of the article. ing,
An evaluation device characterized by:
ことを特徴とする請求項1に記載の評価装置。 The evaluation unit selects a classifier that includes, among the regions in the sample image indicated by the corresponding heat map, a region that overlaps with the region in the sample image that the person focuses on in order to classify the state of the article. , rate higher than the classifier not included,
The evaluation device according to claim 1, characterized by:
ことを特徴とする請求項2に記載の評価装置。 The evaluation unit selects a classifier that includes an area that does not overlap with the area in the sample image that the person focuses on in order to classify the state of the article, in the area in the sample image indicated by the corresponding heat map. , evaluates more highly than classifiers that do not contain
3. The evaluation device according to claim 2, characterized in that:
上記評価部は、サンプル画像毎に各分類器を評価した評価結果に基づいて、各分類器を評価する、
ことを特徴とする請求項1から3の何れか1項に記載の評価装置。 The creation unit creates a heat map corresponding to each classifier for each sample image, using each of a plurality of images including articles classified by a person as a subject as a sample image,
The evaluation unit evaluates each classifier based on the evaluation result of evaluating each classifier for each sample image,
4. The evaluation device according to any one of claims 1 to 3, characterized in that:
ことを特徴とする請求項4に記載の評価装置。 The evaluation unit selects, from among the plurality of classifiers, a classifier having a higher rate that the result of classifying the state of the article included as the subject in each sample image matches the result of the classification of the state of the article by the person. further appreciate the
5. The evaluation device according to claim 4, characterized in that:
各分類器に対応するヒートマップであって、人が状態を分類した物品を被写体として含むサンプル画像において前記分類処理で該分類器が注目する領域を示すヒートマップを作成する作成ステップと、
対応するヒートマップが示すサンプル画像内の領域と、物品の状態を分類するために上記人が着目するサンプル画像内の領域との比較に基づいて、各分類器を評価する評価ステップと、を備えている、
ことを特徴とする評価方法。 An evaluation method for evaluating each of a plurality of classifiers that refer to an image containing an article as a subject and perform classification processing for classifying the state of the article according to an algorithm determined by learning,
a creation step of creating a heat map corresponding to each classifier, the heat map indicating an area of interest to the classifier in the classification process in a sample image including, as a subject, an article whose state has been classified by a person;
an evaluation step of evaluating each classifier based on a comparison of the area in the sample image indicated by the corresponding heat map to the area in the sample image that the person focuses on to classify the condition of the article. ing,
An evaluation method characterized by
上記複数の分類器と、
請求項1から5の何れか1項に記載の評価装置と、
上記評価装置による評価結果に基づいて、上記複数の分類器から何れかの分類器を選択する選択部と、を含み、
上記選択部により選択された分類器を用いて、上記物品の検査を行うことを特徴とする検査装置。 An inspection device for inspecting an article,
the plurality of classifiers;
an evaluation device according to any one of claims 1 to 5;
a selection unit that selects one of the plurality of classifiers based on the evaluation result of the evaluation device;
An inspection device that inspects the article using the classifier selected by the selection unit.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168190 | 2018-09-07 | ||
JP2018168190 | 2018-09-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042001A JP2020042001A (en) | 2020-03-19 |
JP7236292B2 true JP7236292B2 (en) | 2023-03-09 |
Family
ID=69798090
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019010485A Active JP7289658B2 (en) | 2018-09-07 | 2019-01-24 | Classification device, classification method, classification program, and inspection device |
JP2019010486A Active JP7161948B2 (en) | 2018-09-07 | 2019-01-24 | Machine learning device, machine learning method, machine learning program, and inspection device |
JP2019014623A Active JP7213701B2 (en) | 2018-09-07 | 2019-01-30 | Machining equipment, machining method, machining program, and inspection equipment |
JP2019042990A Active JP7236292B2 (en) | 2018-09-07 | 2019-03-08 | Evaluation device, evaluation method, evaluation program, and inspection device |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019010485A Active JP7289658B2 (en) | 2018-09-07 | 2019-01-24 | Classification device, classification method, classification program, and inspection device |
JP2019010486A Active JP7161948B2 (en) | 2018-09-07 | 2019-01-24 | Machine learning device, machine learning method, machine learning program, and inspection device |
JP2019014623A Active JP7213701B2 (en) | 2018-09-07 | 2019-01-30 | Machining equipment, machining method, machining program, and inspection equipment |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP7289658B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020183876A (en) * | 2019-04-26 | 2020-11-12 | 株式会社前川製作所 | Feature point recognition system and workpiece processing system |
CN111695553B (en) * | 2020-06-05 | 2023-09-08 | 北京百度网讯科技有限公司 | Form identification method, device, equipment and medium |
WO2022185432A1 (en) * | 2021-03-03 | 2022-09-09 | Heroz株式会社 | Image recognition learning system, image recognition learning method, image recognition learning program, image recognition machine learning unit, and image recognition system |
JP7453931B2 (en) | 2021-03-12 | 2024-03-21 | 株式会社豊田中央研究所 | Learning data generation device, anomaly detection device, anomaly detection system, and anomaly detection program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016191589A (en) | 2015-03-31 | 2016-11-10 | 株式会社Screenホールディングス | Defect classification device defect classification method |
WO2018235266A1 (en) | 2017-06-23 | 2018-12-27 | 株式会社Rist | Inspection device, inspection method, and inspection program |
JP2019192082A (en) | 2018-04-27 | 2019-10-31 | Awl株式会社 | Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning |
JP2019537839A (en) | 2016-10-14 | 2019-12-26 | ケーエルエー コーポレイション | Diagnostic system and method for deep learning models configured for semiconductor applications |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60234571D1 (en) * | 2001-01-23 | 2010-01-14 | Health Discovery Corp | COMPUTER-ASSISTED IMAGE ANALYSIS |
JP4553300B2 (en) * | 2004-09-30 | 2010-09-29 | Kddi株式会社 | Content identification device |
JP4849596B2 (en) * | 2005-12-08 | 2012-01-11 | 独立行政法人情報通信研究機構 | Question answering apparatus, question answering method, and question answering program |
JP5075083B2 (en) * | 2008-10-08 | 2012-11-14 | 大日本スクリーン製造株式会社 | Teacher data creation support method, image classification method, and image classification apparatus |
JP5660273B2 (en) | 2010-01-04 | 2015-01-28 | 日本電気株式会社 | Image diagnosis method, image diagnosis apparatus, and image diagnosis program |
JP5715873B2 (en) | 2011-04-20 | 2015-05-13 | 株式会社日立ハイテクノロジーズ | Defect classification method and defect classification system |
JP6277818B2 (en) * | 2014-03-26 | 2018-02-14 | 日本電気株式会社 | Machine learning apparatus, machine learning method, and program |
US10878320B2 (en) * | 2015-07-22 | 2020-12-29 | Qualcomm Incorporated | Transfer learning in neural networks |
JP6584250B2 (en) * | 2015-09-10 | 2019-10-02 | 株式会社Screenホールディングス | Image classification method, classifier configuration method, and image classification apparatus |
JP6530688B2 (en) * | 2015-09-25 | 2019-06-12 | 株式会社Screenホールディングス | Classifier construction method, image classification method, classifier construction apparatus and image classification apparatus |
JP6531036B2 (en) * | 2015-12-08 | 2019-06-12 | 株式会社Screenホールディングス | Teacher data creation support method, image classification method, teacher data creation support device and image classification device |
JP6377050B2 (en) * | 2015-12-18 | 2018-08-22 | ヤフー株式会社 | Learning device, learning method, and learning program |
JP6333871B2 (en) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | Image processing apparatus for displaying an object detected from an input image |
JP6832155B2 (en) | 2016-12-28 | 2021-02-24 | ソニーセミコンダクタソリューションズ株式会社 | Image processing equipment, image processing method, and image processing system |
-
2019
- 2019-01-24 JP JP2019010485A patent/JP7289658B2/en active Active
- 2019-01-24 JP JP2019010486A patent/JP7161948B2/en active Active
- 2019-01-30 JP JP2019014623A patent/JP7213701B2/en active Active
- 2019-03-08 JP JP2019042990A patent/JP7236292B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016191589A (en) | 2015-03-31 | 2016-11-10 | 株式会社Screenホールディングス | Defect classification device defect classification method |
JP2019537839A (en) | 2016-10-14 | 2019-12-26 | ケーエルエー コーポレイション | Diagnostic system and method for deep learning models configured for semiconductor applications |
WO2018235266A1 (en) | 2017-06-23 | 2018-12-27 | 株式会社Rist | Inspection device, inspection method, and inspection program |
JP2019192082A (en) | 2018-04-27 | 2019-10-31 | Awl株式会社 | Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning |
Also Published As
Publication number | Publication date |
---|---|
JP2020042001A (en) | 2020-03-19 |
JP2020042757A (en) | 2020-03-19 |
JP7289658B2 (en) | 2023-06-12 |
JP2020042755A (en) | 2020-03-19 |
JP7213701B2 (en) | 2023-01-27 |
JP7161948B2 (en) | 2022-10-27 |
JP2020042754A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236292B2 (en) | Evaluation device, evaluation method, evaluation program, and inspection device | |
WO2019233166A1 (en) | Surface defect detection method and apparatus, and electronic device | |
US20240152548A1 (en) | Electronic apparatus for searching related image and control method therefor | |
US9886669B2 (en) | Interactive visualization of machine-learning performance | |
Li et al. | An improved SMOTE imbalanced data classification method based on support degree | |
CA2961119C (en) | Method and system for selecting sample set for assessing the accessibility of a website | |
WO2020190480A1 (en) | Classifying an input data set within a data category using multiple data recognition tools | |
Pedziwiatr et al. | Meaning maps and saliency models based on deep convolutional neural networks are insensitive to image meaning when predicting human fixations | |
US20160110857A1 (en) | Dynamic Binning for Diversification and Defect Discovery | |
JP2016103759A (en) | Image processing apparatus, image processing method, and program | |
JP2022055953A (en) | Defect classification device, defect classification method and program | |
Vitek et al. | Exploring bias in sclera segmentation models: A group evaluation approach | |
US11961327B2 (en) | Image processing method and device, classifier training method, and readable storage medium | |
CN103345525B (en) | File classification method, device and processor | |
JP7362924B2 (en) | Data augmentation-based spatial analysis model learning device and method | |
US20240045992A1 (en) | Method and electronic device for removing sensitive information from image data | |
Agnihotri | DeepFake Detection using Deep Neural Networks | |
JP6947460B1 (en) | Programs, information processing equipment, and methods | |
JP7199028B2 (en) | CLASSIFIER, CLASSIFICATION METHOD AND COMPUTER PROGRAM | |
JP7383939B2 (en) | Learning device, learning method, cell discrimination device, cell discrimination method, cell discrimination learning program, and cell discrimination program | |
Ganz et al. | Selecting communicative interventions targets for school-aged participants with ASD and ID: A Single-case experimental design meta-analysis. EdArXiv | |
US20220374730A1 (en) | Method for assigning at least one query triplet to at least one respective class | |
Mendil et al. | Behaviour-based detection of transient visual interaction obstacles with convolutional neural networks and cognitive user simulation | |
US20220019749A1 (en) | Techniques for generating natural language descriptions of neural networks | |
Coe et al. | Evaluating Impact of Race in Facial Recognition across Machine Learning and Deep Learning Algorithms. Computers 2021, 10, 113 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7236292 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |