JP7289658B2 - Classification device, classification method, classification program, and inspection device - Google Patents
Classification device, classification method, classification program, and inspection device Download PDFInfo
- Publication number
- JP7289658B2 JP7289658B2 JP2019010485A JP2019010485A JP7289658B2 JP 7289658 B2 JP7289658 B2 JP 7289658B2 JP 2019010485 A JP2019010485 A JP 2019010485A JP 2019010485 A JP2019010485 A JP 2019010485A JP 7289658 B2 JP7289658 B2 JP 7289658B2
- Authority
- JP
- Japan
- Prior art keywords
- classification
- article
- resolution image
- image
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、画像に被写体として含まれる物品の状態を分類する分類装置、分類方法、及び分類プログラムに関する。また、物品の一括検査を行う検査装置に関する。 The present invention relates to a classification device, a classification method, and a classification program for classifying the state of an article included as a subject in an image. The present invention also relates to an inspection device for batch inspection of articles.
画像に被写体として含まれる物品の状態を、コンピュータを用いて分類する技術が広く用いられている。例えば、特許文献1には、検査画像に被写体として含まれる基板の状態(欠陥の有無等)を、コンピュータを用いて分類する技術が開示されている。
A technique for classifying the state of an article included in an image as a subject using a computer is widely used. For example,
複数の物品の状態を効率的に分類するためには、これらの物品の各々を被写体として含む複数の画像を参照する構成を採用するよりも、これらの物品を被写体として含む単一の画像を参照する構成を採用する方が効率的である。しかしながら、後者の構成を採用する場合、物品の個数に応じて参照する画像の解像度を高くする必要がある。なぜなら、参照する画像における一物品あたりの解像度が、所望の分類精度を得るために必要な解像度以上であることが要求されるからである。 In order to efficiently classify the status of multiple items, rather than adopting a configuration that refers to multiple images that include each of these items, we refer to a single image that includes these items as the subject. It is more efficient to adopt a configuration that However, when adopting the latter configuration, it is necessary to increase the resolution of the image to be referred to according to the number of articles. This is because the resolution per article in the reference image is required to be higher than or equal to the resolution required to obtain the desired classification accuracy.
しかしながら、参照する画像の解像度が高くなるほど、処理に要するメモリの容量が大きくなると共に、処理に要する時間が長くなる(処理速度が遅くなる)という問題がある。特に、物品の一括検査を行う場合、すなわち、各物品に存在する微細な欠陥に着目して各物品の状態を分類する場合、参照する画像における一物品あたりの解像度を更に高くする必要があるため、このような問題が顕著に現れる。 However, there is a problem that the higher the resolution of the image to be referred to, the larger the memory capacity required for processing and the longer the time required for processing (the processing speed slows down). In particular, when performing a batch inspection of articles, that is, when classifying the state of each article by focusing on minute defects present in each article, it is necessary to further increase the resolution of each article in the image to be referred to. , such a problem appears prominently.
本発明は、上記の問題に鑑みてなされたものであり、その目的は、処理の精度を犠牲にすることなく、処理に要するメモリの容量が小さく、かつ、処理に要する時間の短い分類装置、分類方法、分類プログラム、及び検査装置を実現することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a classification device that requires a small amount of memory for processing and a short time for processing, without sacrificing processing accuracy. An object is to realize a classification method, a classification program, and an inspection device.
上記の課題を解決するために、本発明の一態様に係る分類装置は、複数の物品を被写体として共通に含む高解像度画像及び低解像度画像を参照して、上記複数の物品の各々の状態を分類する分類装置であって、各物品が被写体として含まれている上記高解像度画像上の領域を特定する特定処理を、上記低解像度画像を参照して実行する特定部と、各物品の状態を分類する分類処理を、該物品が被写体として含まれている領域として上記特定部にて特定された上記高解像度画像上の領域を選択的に参照することによって実行する分類器と、を備えている。 In order to solve the above problems, a classification device according to an aspect of the present invention refers to a high-resolution image and a low-resolution image that commonly include a plurality of articles as subjects, and determines the state of each of the plurality of articles. A classifying device for classifying, comprising: a specifying unit for specifying a region on the high-resolution image in which each article is included as a subject by referring to the low-resolution image; a classifier that executes classification processing by selectively referring to the area on the high-resolution image identified by the identification unit as an area containing the article as a subject. .
上記の課題を解決するために、本発明の一態様に係る分類方法は、複数の物品を被写体として共通に含む高解像度画像及び低解像度画像を参照して、上記複数の物品の各々の状態を分類する分類方法であって、各物品が被写体として含まれている上記高解像度画像上の領域を特定する特定処理を、上記低解像度画像を参照して実行する特定ステップと、各物品の状態を分類する分類処理を、該物品が被写体として含まれている領域として上記特定ステップにて特定された上記高解像度画像上の領域を選択的に参照することによって実行する分類ステップと、を備えている。 In order to solve the above problems, a classification method according to an aspect of the present invention refers to a high-resolution image and a low-resolution image that commonly include a plurality of articles as subjects to determine the state of each of the plurality of articles. A classification method for classifying, comprising: a specifying step of performing a specifying process of specifying a region on the high-resolution image in which each article is included as a subject with reference to the low-resolution image; a classification step of executing classification processing by selectively referring to the area on the high-resolution image identified in the identification step as an area containing the article as a subject. .
上記の課題を解決するために、本発明の一態様に係る分類プログラムは、コンピュータを請求項1~5の何れか1項に記載の分類装置として動作させる分類プログラムであって、上記コンピュータを上記分類装置の各部として機能させる。
In order to solve the above problems, a classification program according to one aspect of the present invention is a classification program that causes a computer to operate as the classification device according to any one of
上記の構成によれば、各物品が被写体として含まれている高解像度画像上の領域を特定する特定処理において、高解像度画像よりも解像度の低い低解像度画像が参照される。このため、高解像度画像を参照して特定処理を実行する場合と比較して、特定処理に要するメモリの容量を小さくすると共に、特定処理に要する時間を短くすることができる。更に、上記の構成によれば、各物品の状態を分類する分類処理において、高解像度画像の一部分(該物品が被写体として含まれている領域として、特定処理により特定された領域)が選択的に参照される。このため、高解像度画像全体を参照して分類処理を実行する場合と比較して、分類処理に要するメモリの容量を小さくすると共に、分類処理に要する時間を短くすることができる。また、低解像度画像を参照して分類処理を実行する場合と比較して、分類精度を高くすることができる。したがって、上記の構成によれば、分類精度を犠牲にすることなく、特定処理及び分類処理に要するメモリの容量を小さくすると共に、特定処理及び分類処理に要する時間を短くすることができる。 According to the above configuration, the low-resolution image having a resolution lower than that of the high-resolution image is referred to in the identification process for identifying the area on the high-resolution image in which each article is included as a subject. Therefore, compared to the case of executing the specific processing with reference to the high-resolution image, the memory capacity required for the specific processing can be reduced and the time required for the specific processing can be shortened. Furthermore, according to the above configuration, in the classification process for classifying the state of each article, a portion of the high-resolution image (the area identified by the identification process as the area containing the article as a subject) is selectively selected. Referenced. For this reason, the memory capacity required for the classification process can be reduced and the time required for the classification process can be shortened as compared with the case where the classification process is performed by referring to the entire high-resolution image. In addition, classification accuracy can be increased compared to the case of executing classification processing with reference to low-resolution images. Therefore, according to the above configuration, it is possible to reduce the memory capacity required for the identification processing and the classification processing, and shorten the time required for the identification processing and the classification processing, without sacrificing the classification accuracy.
本発明の一態様に係る分類装置において、上記特定部は、各物品が被写体として含まれている領域を特定する特定処理を、上記低解像度画像を入力とし、該物品が被写体として含まれている領域を出力とする学習済みモデルを用いて実行する、ことが好ましい。 In the classification device according to an aspect of the present invention, the identification unit performs identification processing for identifying an area in which each article is included as a subject, and the low-resolution image is input, and the article is included as the subject. It is preferable to use a trained model whose output is the region.
上記の構成によれば、各物品が被写体として含まれている領域を、より精度よく特定することができる。 According to the above configuration, it is possible to more accurately identify a region in which each article is included as a subject.
本発明の一態様に係る分類装置において、上記分類器は、各物品の状態を分類する分類処理を、上記高解像度画像から切り出された部分画像であって、該物品が被写体として含まれている領域として上記特定部にて特定された上記高解像度画像上の領域を含む部分画像を入力とし、該物品の状態を示す予め定められた複数のクラスの何れかを出力とする学習済みモデルを用いて実行する、ことが好ましい。 In the classification device according to an aspect of the present invention, the classifier performs a classification process for classifying the state of each article as a partial image cut out from the high-resolution image, the article being included as a subject. Using a trained model that receives as an input a partial image including the area on the high-resolution image specified by the specifying unit as the area, and outputs one of a plurality of predetermined classes indicating the state of the article. preferably run
上記の構成によれば、各物品をより精度よく分類することができる。 According to the above configuration, each article can be classified with higher accuracy.
本発明の一態様に係る分類装置において、上記高解像度画像よりも解像度の低い上記低解像度画像を生成する生成処理を、上記高解像度画像を参照して実行する生成部を更に備えている、ことが好ましい。 The classification device according to an aspect of the present invention further comprising a generation unit that refers to the high-resolution image and executes generation processing for generating the low-resolution image having a resolution lower than that of the high-resolution image. is preferred.
上記の構成によれば、高解像度画像及び低解像度画像を入力することなく、高解像度画像を入力するだけで、上述した効果を奏する。 According to the above configuration, the above effects can be obtained only by inputting a high-resolution image without inputting a high-resolution image and a low-resolution image.
本発明の一態様に係る分類装置において、上記複数の物品を被写体として含む画像と共に、上記分類処理の結果をディスプレイに表示させる表示部を更に備えている、ことが好ましい。 It is preferable that the classification apparatus according to the aspect of the present invention further includes a display section for displaying an image including the plurality of articles as subjects and a result of the classification processing on a display.
上記の構成によれば、ユーザに、分類処理の結果をわかりやすく提示することができる。 According to the above configuration, it is possible to present the result of the classification process to the user in an easy-to-understand manner.
上記の課題を解決するために、本発明の一態様に係る検査装置、上述した分類装置を用いて、上記複数の物品の一括検査を行う。 In order to solve the above problems, the plurality of articles are collectively inspected using the inspection apparatus according to one aspect of the present invention and the above-described classification apparatus.
上記の構成によれば、検査精度を犠牲にすることなく、処理に要するメモリの容量を小さくすると共に、処理に要する時間を短くすることができる。 According to the above configuration, the memory capacity required for processing can be reduced and the time required for processing can be shortened without sacrificing inspection accuracy.
本発明の一態様によれば、分類精度を犠牲にすることなく、処理に要するメモリの容量が小さく、かつ、処理に要する時間の短い分類装置、分類方法、及び分類プログラムを実現することができる。また、本発明の一態様によれば、検査精度を犠牲にすることなく、処理に要するメモリの容量が小さく、かつ、処理に要する時間の短い検査装置を実現することができる。 According to one aspect of the present invention, it is possible to realize a classification device, a classification method, and a classification program that require a small amount of memory for processing and a short time for processing without sacrificing classification accuracy. . Further, according to one aspect of the present invention, it is possible to realize an inspection apparatus that requires a small memory capacity for processing and a short time for processing without sacrificing inspection accuracy.
〔第1の実施形態〕
(分類装置の物理的構成)
本発明の第1の実施形態に係る分類装置1の物理的構成について、図1を参照して説明する。図1は、分類装置1の物理的構成を示すブロック図である。
[First embodiment]
(Physical Configuration of Classifier)
A physical configuration of the
分類装置1は、図1に示すように、バス10と、主メモリ11と、プロセッサ12と、補助メモリ13と、入出力インターフェース14と、を備えたコンピュータである。主メモリ11、プロセッサ12、補助メモリ13、及び入出力インターフェース14は、バス10を介して互いに接続されている。主メモリ11としては、例えば、単一又は複数の半導体RAM(random access memory)が用いられる。プロセッサ12としては、例えば、単一又は複数のマイクロプロセッサ、単一又は複数のデジタルシグナルプロセッサ、単一又は複数のマイクロコントローラ、又はこれらの組み合わせが用いられる。補助メモリ13としては、例えば、単一又は複数のHDD(Hard Disk Drive)、単一又は複数のSSD(Solid State Drive)、又はこれらの組み合わせが用いられる。また、補助メモリ13の一部又は全部は、通信インタフェース(図示せず)を介して接続されたネットワーク上のストレージであってもよい。入出力インターフェース14としては、例えば、USB(Universal Serial Bus)インターフェース、赤外線やBluetooth(登録商標)等の近距離通信インターフェース、又はこれらの組み合わせが用いられる。
The
入出力インターフェース14には、例えば、入力装置20及び出力装置30が接続される。入力装置20としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。出力装置30としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。なお、分類装置1は、ノート型コンピュータのように、入力装置20として機能するキーボート及びタッチパッド、並びに、出力装置30として機能するディスプレイを内蔵していてもよい。また、分類装置1は、スマートフォン又はタブレット型コンピュータのように、入力装置20及び出力装置30として機能するタッチパネルを内蔵していてもよい。
For example, an
補助メモリ13には、後述する分類処理S1をプロセッサ12に実行させるためのプログラムPが格納されている。プロセッサ12は、補助メモリ13に格納されたプログラムPを主メモリ11上に展開し、主メモリ11上に展開されたプログラムPに含まれる各命令を実行することによって、後述する分類処理S1に含まれる各ステップを実行する。また、補助メモリ13には、後述する分類処理S1を実行するためにプロセッサ12が参照する各種データが格納されている。
The
なお、ここでは、内部記憶媒体である補助メモリ13に格納されているプログラムPに従ってプロセッサ12が後述する分類処理S1を実行する形態について説明したが、これに限定されない。すなわち、外部記録媒体に格納されているプログラムPに従ってプロセッサ12が後述する分類処理S1を実行する形態を採用してもよい。この場合、外部記録媒体としては、コンピュータが読み取り可能な「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブル論理回路などを用いることができる。あるいは、通信インタフェース(図示せず)を介して接続されるネットワーク上から取得したプログラムPに従ってプロセッサ12が後述する分類処理S1を実施する形態を採用してもよい。この場合、ネットワークとしては、例えば、インターネット、有線LAN(Local Area Network)、無線LAN、又はこれらの少なくとも一部の組み合わせ等などを用いることができる。
Here, a form in which the
また、ここでは、単一のコンピュータを用いて分類装置1を実現する形態について説明したが、これに限定されない。すなわち、互いに通信可能に構成された複数のコンピュータを用いて分類装置1を実現する形態を採用してもよい。この場合、後述する分類処理S1を構成する各ステップを、これらのコンピュータにより並列的に実行することが可能になる。
Moreover, here, although the form which implement|achieves the
(分類装置の機能的構成)
分類装置1の機能的構成について、図2を参照して説明する。図2は、分類装置1の機能的構成を示すブロック図である。
(Functional configuration of classification device)
A functional configuration of the
分類装置1は、図2に示すように、生成部101と、特定部102と、分類器103と、表示部104とを備えている。これらのブロックは、上述したプロセッサ12が上述したプログラムPの命令を実行することにより実現される機能ブロックである。分類装置1には、複数の物品を被写体として含む画像(以下、「原画像」とも記載する)が入力される。原画像は、特許請求の範囲における「高解像度画像」の一例である。
The
生成部101は、原画像よりも解像度の低い低解像度画像を生成する生成処理を、分類装置1に入力された原画像を参照して実行するブロックである。例えば、生成部101は、原画像から低解像度画像を生成する生成処理を、原画像を縮小又は粗視化することによって実行する。なお、生成する低解像度画像の解像度は、予め定められた特定の解像度(例えば、512ピクセル×512ピクセル)であってもよいし、原画像の解像度に応じて定められた解像度(例えば、原画像の解像度の1/8)であってもよいし、入力装置20から入力されたユーザ指定の解像度であってもよい。
The
特定部102は、各物品が被写体として含まれている原画像上の領域を特定する特定処理を、生成部101にて生成された低解像度画像を参照して実行するブロックである。例えば、特定部102は、各物品が被写体として含まれている領域を特定する特定処理を、機械学習により構築された学習済みモデル(以下、「第1モデル」と記載する)を用いて実行する。第1モデルの入力は、生成部101にて生成された低解像度画像である。第1モデルの出力は、各物品が被写体として含まれている領域である。第1モデルとしては、例えば、YOLO(You Look Only Once)やSSD(Single Shot Multibox Detector)など、物体検出用のCNN(Convolutional Neural Network)を用いることができる。第1モデルを構成する係数群は、補助メモリ13に格納されている。
The specifying
分類器103は、各物品の状態を分類する分類処理を、該物品が被写体として含まれている領域として特定部102にて特定された原画像上の領域を選択的に参照して実行するブロックである。例えば、分類器103は、各物品の状態を分類する分類処理を、機械学習により構築された学習済みモデル(以下、「第2モデル」と記載)を用いて実行する。第2モデルの入力は、原画像から切り出された部分画像であって、各物品が被写体として含まれている領域として特定部102にて特定された原画像上の領域を含む部分画像である。第2モデルの出力は、各物品の状態を示すクラスとして、予め定められたクラスの何れかである。第2モデルとしては、例えば、物体分類用のCNN(Convolutional Nural Network)を用いることができる。第2モデルを構成する係数群は、補助メモリ13に格納されている。
The
表示部104は、分類器103による分類処理の結果(例えば、各物品の状態を示すクラス)を、複数の物品を被写体として含む出力画像と共にディスプレイ(出力装置30)に表示する表示処理を実行するブロックである。なお、表示部104がディスプレイに表示する出力画像は、複数の物品を被写体として含む画像であればよく、その解像度は任意である。例えば、出力画像は、原画像であってもよいし、低解像度画像であってもよい。
The
(分類処理の流れ)
分類装置1が実行する分類処理S1の流れについて、図3~図7を参照して説明する。
(Flow of classification processing)
The flow of the classification process S1 executed by the
図3は、分類処理S1の流れを示すフローチャートである。分類処理S1は、分類装置1に原画像が入力されることにより開始する。分類処理S1は、図3に示すように、生成ステップS101と、特定ステップS102と、分類ステップS103と、表示ステップS104と、を含んでいる。
FIG. 3 is a flow chart showing the flow of the classification process S1. The classification process S1 is started when an original image is input to the
生成ステップS101は、原画像よりも解像度の低い低解像度画像を生成する生成処理を、分類装置1に入力された原画像を参照して生成部101が実行するステップである。
The generation step S101 is a step in which the
図4は、生成ステップS101における生成処理の一例を示す模式図である。図4においては、原画像IMG1として、13個の物品O1~O13を撮像して得られた画像を例示している。生成部101は、原画像IMG1を縮小又は粗視化することにより、原画像IMG1よりも解像度の低い低解像度画像IMG2を生成する。低解像度画像IMG2は、原画像IMG1と同様、13個の物品O1~O13を被写体として含む画像となる。
FIG. 4 is a schematic diagram showing an example of generation processing in the generation step S101. In FIG. 4, images obtained by imaging 13 articles O1 to O13 are exemplified as the original image IMG1. The
特定ステップS102は、各物品が被写体として含まれている原画像上の領域を特定する特定処理を、生成ステップS101にて生成された低解像度画像を参照して特定部102が実行するステップである。本実施形態において、この特定処理は、上述したように、機械学習により構築された第1モデルを用いて実行される。
The specifying step S102 is a step in which the specifying
図5は、特定ステップS102における特定処理の一例を示す模式図である。図5においては、低解像度画像IMG2として、13個の物品O1~O13を被写体として含む画像を例示している。まず、特定部102は、低解像度画像IMG2を第1モデルに入力する。第1モデルは、各物品Oi(i=1,2,…,13)が被写体として含まれている低解像度画像IMG2上の領域A2iを出力する。次に、特定部102は、低解像度画像IMG2上の各領域A2iを、原画像IMG1及び低解像度画像IMG2間の解像度の比率に基づいて、原画像IMG1上の領域A1iに変換する。これにより、各物品Oiが被写体として含まれている原画像IMG1上の領域A1iが得られる。
FIG. 5 is a schematic diagram showing an example of identification processing in identification step S102. In FIG. 5, an image including 13 articles O1 to O13 as subjects is illustrated as the low-resolution image IMG2. First, the specifying
分類ステップS103は、各物品の状態を分類する分類処理を、該物品が被写体として含まれている領域として特定ステップS102にて特定された原画像上の領域を選択的に参照して分類器103が実行するステップである。本実施形態において、この分類処理は、上述したように、機械学習により構築された第2モデルを用いて実行される。 The classification step S103 performs classification processing for classifying the state of each article by selectively referring to the area on the original image identified in the identification step S102 as the area containing the article as a subject. is the step performed by In this embodiment, this classification process is performed using the second model constructed by machine learning, as described above.
図6は、分類ステップS103における分類処理の一例を示す模式図である。まず、分類器103は、特定ステップS102にて特定された各領域A1iを含む部分画像IMG3iを、原画像IMG1から切り出す。図6においては、部分画像IMG3iとして、13枚の部分画像IMG31~IMG313を例示している。次に、分類器103は、各部分画像IMG3iを第2モデルに入力する。第2モデルは、各物品Oiの状態を示す情報out1を出力する。ここでは、物品の状態を示す3つのクラスA、B、Cが予め定められているものとする。図6では、情報out1が「クラスA」を表しており、物品O1は、「クラスA」に分類されている。また、情報out13が「クラスC」表しており、物品O13は、「クラスC」に分類されている。
FIG. 6 is a schematic diagram showing an example of classification processing in the classification step S103. First, the
表示ステップS104は、分類ステップS103における分類処理の結果(本実施形態において、各物品の状態を表すクラス)を、複数の物品を被写体として含む出力画像と共にディスプレイ(出力装置30)に表示する表示処理を、表示部104が実行するステップである。
A display step S104 is a display process for displaying the result of the classification processing in the classification step S103 (in this embodiment, a class representing the state of each article) on the display (output device 30) together with an output image including a plurality of articles as subjects. are steps executed by the
図7は、表示ステップS104において表示部104によりディスプレイに表示される表示画面の一例を示す模式図である。図7に示す表示画面には、低解像度画像IMG2と、情報out1~out13(分類ステップS103における分類処理の結果)と、が含まれている。表示画面において、各情報outiは、対応する物品Oiとの関連付けが認識可能な表示態様で表示されることが望ましい。図7に例示した表示画面においては、各情報outiを、対応する物品Oiに重畳することによって、上述した関連付けが認識可能となっている。ただし、関連付けが認識可能な表示態様は、他の態様であってもよい。
FIG. 7 is a schematic diagram showing an example of a display screen displayed on the display by the
(分類装置の効果)
以上のように、分類装置1によれば、各物品が被写体として含まれている原画像上の領域を特定する特定処理において、原画像よりも解像度の低い低解像度画像が参照される。このため、原画像を参照して特定処理を実行する場合と比較して、特定処理に要するメモリの容量を小さくすると共に、特定処理に要する時間を短くすることができる。更に、分類装置1によれば、各物品の状態を分類する分類処理において、原画像の一部(該物品が被写体として含まれている領域として、特定処理により特定された領域)が選択的に参照される。このため、原画像全体を参照して分類処理を実行する場合と比較して、分類処理に要するメモリの容量を小さくすると共に、分類処理に要する時間を短くすることができる。また、低解像度画像を参照して分類処理を実行する場合と比較して、分類処理の精度を高くすることができる。したがって、分類装置1によれば、分類処理の精度を犠牲にすることなく、特定処理及び分類処理に要するメモリの容量を小さくすると共に、特定処理及び分類処理に要する時間を短くすることができる。
(Effect of classification device)
As described above, according to the
(変形例1)
本実施形態においては、分類処理においてその一部を選択的に参照する画像を原画像とする構成を採用しているが、本発明は、これに限定されない。すなわち、分類処理においてその一部を選択的に参照する画像は、低解像度画像よりも解像度の高い画像であって、低解像度画像と共通の物品を被写体として含む画像(特許請求の範囲における「高解像度画像」)であればよい。例えば、分類処理においてその一部を選択的に参照する画像は、低解像度画像よりも解像度が高く、かつ、原画像よりも解像度の低い高解像度画像であり得る(分類処理に適した解像度の高解像度画像であることが好ましい)。この場合、生成部101は、低解像度画像及び高解像度画像を原画像から生成する。
(Modification 1)
In the present embodiment, a configuration is adopted in which an image, a part of which is selectively referred to in the classification process, is used as the original image, but the present invention is not limited to this. That is, the image whose part is selectively referred to in the classification process is an image with a higher resolution than the low-resolution image, and an image that includes the same article as the low-resolution image as a subject ("high resolution" in the scope of claims). resolution image"). For example, the image whose part is selectively referred to in the classification process may be a high resolution image having a higher resolution than the low resolution image and a lower resolution than the original image (a high resolution image suitable for the classification process). resolution image is preferred). In this case, the
(変形例2)
本実施形態においては、分類処理においてその一部を選択的に参照する高解像度画像(原画像)を外部から取得すると共に、特定処理において参照する低解像度画像を高解像度画像(原画像)から生成する構成を採用しているが、本発明は、これに限定されない。例えば、分類処理においてその一部を選択的に参照する高解像度画像、及び、特定処理において参照する低解像度画像の両方を外部から取得する構成を採用してもよい。この場合、生成部101は、省略される。
(Modification 2)
In this embodiment, a high-resolution image (original image) that is partially referred to in the classification process is obtained from the outside, and a low-resolution image that is referred to in the specific process is generated from the high-resolution image (original image). However, the present invention is not limited to this. For example, a configuration may be adopted in which both a high-resolution image, a part of which is selectively referred to in the classification process, and a low-resolution image, which is referred to in the specific process, are externally acquired. In this case, the
(変形例3)
本実施形態においては、機械学習により得られた第1モデルを用いて特定処理を実行する構成を採用しているが、本発明は、これに限定されない。例えば、テンプレートマッチングや二値化処理など、ルールベースの物体検出アルゴリズムを用いて特定処理を実行する構成を採用してもよい。テンプレートマッチングを用いる場合、特定部102は、例えば、低解像度画像における各領域をテンプレート画像(対象となる物品が被写体として含まれている画像)と比較し、一致度が高い領域を、物品を被写体として含む領域として特定する。また、二値化処理を用いる場合は、特定部102は、低解像度画像の画素値を輝度閾値により二値化し、得られた白黒画像における白(又は黒)領域を、物品を被写体として含む領域として特定する。
(Modification 3)
Although the present embodiment adopts a configuration in which the specific process is executed using the first model obtained by machine learning, the present invention is not limited to this. For example, a configuration in which specific processing is executed using a rule-based object detection algorithm such as template matching or binarization processing may be employed. When using template matching, for example, the identifying
(変形例4)
本実施形態においては、機械学習により得られた第2モデルを用いて分類処理を実行する構成を採用しているが、本発明は、これに限定されない。例えば、特徴量比較など、ルールベースの物体分類アルゴリズムを用いて分類処理を実行する構成を採用してもよい。特徴量比較を用いる場合、分類器103は、高解像度画像において各物品が被写体として含まれている領域から予め定められた特徴量を算出し、算出した特徴量に応じて該物品の状態を分類する。
(Modification 4)
Although this embodiment adopts a configuration in which a second model obtained by machine learning is used to perform classification processing, the present invention is not limited to this. For example, a configuration may be adopted in which classification processing is performed using a rule-based object classification algorithm such as feature amount comparison. When feature amount comparison is used, the
〔実施形態2〕
本実施形態では、実施形態1に係る分類装置1を用いて、複数の物品の一括検査を行う検査装置2を構成する実施形態について説明する。
[Embodiment 2]
In this embodiment, the
図8は、検査装置2の機能的構成を示すブロック図である。なお、検査装置2の物理的構成については、図1を参照して説明した分類装置1と同様であるため、詳細な説明を省略する。
FIG. 8 is a block diagram showing the functional configuration of the
図8に示すように、検査装置2は、分類装置1を含む。すなわち、検査装置2は、複数の物品の一括検査を行う検査装置であって、生成部101と、特定部102と、分類器103と、を備えている。また、検査装置2は、さらに、表示部104を備えている。
As shown in FIG. 8,
生成部101は、検査対象となる複数の物品を被写体として含む画像を原画像(特許請求の範囲における「高解像度画像」の一例)として、該原画像よりも解像度の低い低解像度画像を生成する生成処理を実行する。特定部102は、各物品が被写体として含まれている原画像上の領域を特定する特定処理を、生成部101にて生成された低解像度画像を参照して実行する。分類器103は、各物品の状態を分類する分類処理を、特定部102にて特定された原画像上の領域であって、該物品が被写体として含まれている原画像上の領域を選択的に参照して実行する。これにより、特定部102が参照する画像は、低解像画像となり、分類器が参照する画像は、原画像の一部分となる。表示部104は、分類器103による分類処理の結果(例えば、各物品の状態を示すクラス)を、低解像度画像と共にディスプレイに表示する。
The
特定部102は、各物品が被写体として含まれている領域を特定する特定処理を、機械学習により構築された第1モデルを用いて実行する。第1モデルの入力は、生成部101にて生成された低解像度画像である。第1モデルの出力は、各物品が被写体として含まれている領域である。分類器103は、各物品の状態を分類する分類処理を、機械学習により構築された第2モデルを用いて実行する。第2モデルの入力は、検査対象となる各物品が被写体として含まれている部分画像である。第2モデルの出力は、検査結果を表す予め定められた複数のクラスの何れかである。検査結果を表す複数のクラスは、物品の状態が正常であることを示す「良」と、異常であることを示す「否」と、の2つのクラスであってもよい。また、正常な状態及び異常な状態の少なくとも一方に複数の種別を設けた3つ以上のクラスであってもよい。
The specifying
検査装置2による検査処理の流れは、図3を参照して説明した分類処理S1の流れと同様である。ただし、ステップS101において、入力される原画像が検査対象となる複数の物品を被写体として含む画像である点と、ステップS104において、分類処理の結果として一括検査の結果を表示する点が異なる。それ以外の処理については、分類処理S1と同様であるため、詳細な説明を省略する。
The flow of inspection processing by the
(具体例)
検査装置2の具体例について、図9を参照して説明する。本具体例では、特定部102が用いる第1モデルとして、SSD(Single Shot Multibox Detector)を利用した。このSSDは、低解像度画像における任意の領域を入力として、物品が「あり」又は「なし(背景)」の何れかを出力するよう、或いは、物品が「あり」の領域を出力するように、予め機械学習されたものである。また、分類器103が用いる第2モデルとして、CNN(Convolutional neural network)を利用した。このCNNは、部分画像を入力として、予め定めた良品1クラス、不良品5クラスの合計6クラスの何れかを出力するよう、予め機械学習されたものである。
(Concrete example)
A specific example of the
図9(a)は、本具体例で用いた原画像を示す図である。本具体例では、原画像として、複数の圧着端子を被写体として含む4600×3500ピクセルの高解像度画像を用いた。当該原画像は、圧着端子の微細な異常を検査するために、高解像度で撮像されたものである。 FIG. 9A is a diagram showing the original image used in this specific example. In this specific example, a high-resolution image of 4600×3500 pixels including a plurality of crimp terminals as subjects was used as the original image. The original image is taken with a high resolution in order to inspect for minute abnormalities in the crimp terminal.
図9(b)は、図9(a)に示した高解像度画像を原画像として、生成部101によって生成された低解像度画像を示す図である。実施例1では、低解像度画像の解像度は、512×512ピクセルとした。また、図9(b)に示す低解像度画像には、各物品を被写体として含む領域を示す白線の矩形が重畳されている。各領域は、特定部102によって原画像上の領域を特定する特定処理の過程で特定された。
FIG. 9(b) is a diagram showing a low-resolution image generated by the
図9(c)は、分類器103によって用いられた部分画像の1つを示す図である。当該部分画像は、図9(b)に示す低解像度画像上の領域の何れかに対応する原画像上の領域が、原画像から切り出された画像である。当該部分画像のサイズは、600×400ピクセルであった。当該部分画像が第1モデルに入力されることにより、当該部分画像に被写体として含まれる圧着端子の検査結果クラスが判定された。
FIG. 9(c) shows one of the partial images used by the
図9(d)は、表示部104によって表示された、分類処理の結果を示す図である。図9(d)では、図9(b)に示した低解像度画像上の各領域を示す矩形を、検査結果クラスに応じた色で塗り分けることにより、各圧着端子と検査結果クラスとの関連付けを認識可能に表示してもよい。
FIG. 9D is a diagram showing the result of the classification process displayed by the
図9(e)は、本具体例の特定部102による特定処理(物体検出)の精度を説明する図である。図9(b)の低解像度画像において、目視により物品の実体「あり」と判断された領域のうち、AI(Artificial Intelligence)検出(すなわち、特定部102による特定処理)によって物品「あり」と特定された比率は100%であった。また、目視により実体「なし」(すなわち、背景)と判断された領域のうち、AI検出によって物品「あり」と特定された比率は0%であった。
FIG. 9E is a diagram for explaining the accuracy of the identification processing (object detection) by the
図9(f)は、本具体例の分類器103による分類処理(クラス判定)の精度を説明する図である。AI判定(すなわち、分類器103による分類処理)により判定された検査結果クラスが、人の判定による検査結果クラスと一致した比率は100%であった。
FIG. 9F is a diagram for explaining the accuracy of classification processing (class determination) by the
(実施例1~2及び比較例1~6の評価)
次に、実施例1~2及び比較例1~6の比較について、図10を参照して説明する。
(Evaluation of Examples 1-2 and Comparative Examples 1-6)
Next, a comparison of Examples 1-2 and Comparative Examples 1-6 will be described with reference to FIG.
実施例1~2は、分類装置1を含む検査装置2の実施例であり、特定処理で利用する学習済みモデルを異ならせて実施した例である。実施例1~2では、特定処理に何れの学習済みモデルを用いる場合も、低解像度画像を参照している。
Examples 1 and 2 are examples of the
実施例1では、特定処理で用いる第1モデルとして、SSDを利用した。 In Example 1, SSD was used as the first model used in the specific process.
実施例2では、特定処理で用いる第1モデルとして、YOLO(You only look once)v3を利用した。 In Example 2, YOLO (You only look once) v3 was used as the first model used in the specific process.
なお、実施例1~2では、何れも、分類処理で用いる第2モデルとして、CNNを利用した。また、実施例1~2で用いた低解像度画像の解像度は、何れも300×300ピクセルとした。 In Examples 1 and 2, CNN was used as the second model used in the classification process. Also, the resolution of the low-resolution images used in Examples 1 and 2 was 300×300 pixels.
比較例1~6は、分類装置1を用いずに、原画像を入力として各物品の検査結果クラスを出力する検査装置の例である。
Comparative Examples 1 to 6 are examples of inspection apparatuses that do not use the
比較例1~2の検査装置は、原画像を入力として各物品の検査結果クラスを出力する処理を、検査装置2のように特定処理と分類処理とに分けずに、学習済みモデルを用いて一括して行う一括処理を実行するよう構成した。また、比較例1~2では、一括処理で利用する学習済みモデルを異ならせて構成した。
The inspection apparatuses of Comparative Examples 1 and 2 do not divide the process of inputting the original image into the inspection result class of each article and outputting the inspection result class of each article into a specific process and a classification process as in the
比較例3~6の検査装置は、原画像を入力として各物品の検査結果クラスを出力する処理を、特定処理と分類処理とに分けて行うが、特定処理において、検査装置2のように低解像度画像を参照せずに、原画像を参照するよう構成した。比較例3~4は、特定処理で利用する学習済みモデルを異ならせて構成した。比較例5~6は、特定処理において学習済みモデルによらない手法を用いた。 In the inspection apparatuses of Comparative Examples 3 to 6, the process of inputting the original image and outputting the inspection result class of each article is divided into the identification process and the classification process. It is configured to refer to the original image without referencing the resolution image. Comparative Examples 3 and 4 are configured with different trained models used in specific processing. Comparative Examples 5 and 6 used a method that does not rely on a trained model in specific processing.
比較例1では、一括処理で用いる学習済みモデルとして、SSDを利用した。 In Comparative Example 1, an SSD was used as a trained model used in batch processing.
比較例2では、一括処理で用いる学習済みモデルとして、YOLOv3を利用した。 In Comparative Example 2, YOLOv3 was used as a trained model used in batch processing.
比較例3では、原画像を参照した特定処理で用いる学習済みモデルとして、SSDを利用した。 In Comparative Example 3, an SSD was used as a trained model used in the specific process with reference to the original image.
比較例4では、原画像を参照した特定処理で用いる学習済みモデルとして、YOLOv3を利用した。 In Comparative Example 4, YOLOv3 was used as the trained model used in the specific process with reference to the original image.
比較例5では、特定処理として、二値化処理を用いた。 In Comparative Example 5, binarization processing was used as the specific processing.
比較例6では、特定処理として、テンプレートマッチングを用いた。なお、比較例3~6では、分類処理で用いる学習済みモデルとして、CNNを利用した。 In Comparative Example 6, template matching was used as the identification process. In Comparative Examples 3 to 6, CNN was used as a trained model used in the classification process.
なお、上述した実施例1~2、比較例1~6では、各検査装置を、CPU(Central Processing Unit)「i7-8750H」、GPU(Graphics Processing Unit)「GTX1050Tい(4GB)」、メモリ「32G」、OS(Operating System)「Windows(登録商標) 10」を有するコンピュータを用いて実現した。 In Examples 1 and 2 and Comparative Examples 1 to 6 described above, each inspection device is a CPU (Central Processing Unit) "i7-8750H", a GPU (Graphics Processing Unit) "GTX1050T (4 GB)", a memory " 32G" and OS (Operating System) "Windows (registered trademark) 10".
実施例1~2、比較例1~6の処理結果に対する評価について説明する。具体的には、各評価項目について、「○:全部の状況で処理できる」、「△:一部の状況で処理できる」、「×:処理できない」との評価を行った。 Evaluation of the processing results of Examples 1 and 2 and Comparative Examples 1 to 6 will be described. Specifically, each evaluation item was evaluated as follows: “○: can be processed under all conditions”, “Δ: can be processed under some conditions”, and “×: cannot be processed”.
評価項目「画像サイズ」は、大きな画像サイズの原画像への対応に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、それぞれ複数サイズの原画像を入力することにより行った。実施例1~2、比較例5~6は「○」であり、比較例1~4は「△」である。評価項目「画像サイズ」の詳細については、図面を変えて後述する。 The evaluation item "image size" represents evaluation of correspondence to the original image of large image size. The evaluation was performed by inputting original images of a plurality of sizes to each of Examples 1-2 and Comparative Examples 1-6. Examples 1 and 2 and Comparative Examples 5 and 6 are "○", and Comparative Examples 1 and 4 are "Δ". Details of the evaluation item "image size" will be described later with a different drawing.
したがって、高解像度の原画像が入力される場合、大きな画像サイズに対応可能な実施例1~2、比較例5~6が好適である。 Therefore, when a high-resolution original image is input, Examples 1 and 2 and Comparative Examples 5 and 6, which can handle large image sizes, are preferable.
評価項目「背景」は、背景のパターン(例えば、黒、迷彩等)を変化させた際の物体検出性能に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、背景のパターン等が異なる複数の原画像を入力することにより行った。実施例1~2、比較例1~4、6は「○」であり、比較例5は「△」である。 The evaluation item “background” represents the evaluation of the object detection performance when the background pattern (eg, black, camouflage, etc.) is changed. The evaluation was performed by inputting a plurality of original images having different background patterns and the like to Examples 1-2 and Comparative Examples 1-6. Examples 1 to 2 and Comparative Examples 1 to 4 and 6 are "○", and Comparative Example 5 is "Δ".
したがって、背景のパターンが多様である場合、実施例1、2、比較例1~4、6が好適である。 Therefore, when the background patterns are diverse, Examples 1 and 2 and Comparative Examples 1 to 4 and 6 are suitable.
評価項目「重なり等」は、重なり合う物品の検出性能に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、被写体として含まれる物品の領域が重なり合う原画像を入力することにより行った。実施例1~2、比較例1~4は「○」であり、比較例5~6は「△」である。 The evaluation item “overlapping, etc.” represents an evaluation of the detection performance of overlapping articles. The evaluation was carried out by inputting original images in which areas of articles included as subjects are overlapped in Examples 1-2 and Comparative Examples 1-6. Examples 1 and 2 and Comparative Examples 1 and 4 are marked with "◯", and Comparative Examples 5 and 6 are marked with "Δ".
したがって、検査対象の物品を含む領域が重なり合う原画像を用いる場合には、実施例1~2、比較例1~4が好適である。 Therefore, when using original images in which areas including articles to be inspected overlap, Examples 1 and 2 and Comparative Examples 1 and 4 are suitable.
評価項目「相似」は、各物品を含む領域の形状が同一かつサイズが均一でない場合の物品の検出性能に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、被写体として含まれる各物品の領域の形状が同一かつサイズが均一でない原画像を入力することにより行った。実施例1~2、比較例1~5は「○」であり、比較例6は「×」である。 The evaluation item “similarity” represents an evaluation of the detection performance of an article when the shape of the area containing each article is the same and the size is not uniform. The evaluation was performed by inputting original images in which the shapes of the areas of the articles included as subjects were the same and the sizes were not uniform in Examples 1-2 and Comparative Examples 1-6. Examples 1 to 2 and Comparative Examples 1 to 5 are "O", and Comparative Example 6 is "X".
したがって、各物品を含む領域サイズが均一でない原画像を用いる場合には、実施例1~2、比較例1~5が好適である。 Accordingly, Examples 1 and 2 and Comparative Examples 1 and 5 are suitable when using an original image in which the area size including each article is not uniform.
評価項目「形」は、各物品の形状が均一でない場合の物品の検出性能に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、被写体として含まれる各物品の形状が均一でない原画像を入力することにより行った。実施例1~2、比較例1~5は「○」であり、比較例6は「×」である。 The evaluation item “shape” represents an evaluation of the detection performance of articles when the articles are not uniform in shape. The evaluation was performed by inputting original images in which the shapes of articles included as subjects were not uniform in Examples 1-2 and Comparative Examples 1-6. Examples 1 to 2 and Comparative Examples 1 to 5 are "O", and Comparative Example 6 is "X".
したがって、各物品の形状が均一でない原画像を用いる場合には、実施例1~2、比較例1~5が好適である。 Accordingly, Examples 1 and 2 and Comparative Examples 1 and 5 are suitable when using original images in which the shape of each article is not uniform.
評価項目「色等」は、各物品の色等が均一でない場合の物品の検出性能に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、被写体として含まれる各物品の色等が均一でない原画像を入力することにより行った。実施例1~2、比較例1~4、6は「○」であり、比較例5は「△」である。 The evaluation item “color, etc.” represents an evaluation of the detection performance of an article when the color, etc. of each article is not uniform. The evaluation was performed by inputting an original image in which the colors and the like of each article included as a subject were not uniform in Examples 1-2 and Comparative Examples 1-6. Examples 1 to 2 and Comparative Examples 1 to 4 and 6 are "○", and Comparative Example 5 is "Δ".
したがって、各物品の色等が均一でない原画像を用いる場合には、実施例1~2、比較例1~4、6が好適である。 Therefore, Examples 1-2 and Comparative Examples 1-4 and 6 are suitable when using original images in which the colors and the like of each article are not uniform.
評価項目「形×色」は、各物品の形状及び色が均一でない場合の物品の検出性能に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、被写体として含まれる各物品の形状及び色が均一でない原画像を入力することにより行った。実施例1~2、比較例3~4は「○」であり、比較例1~2は「△」であり、比較例5~6は「×」である。 The evaluation item "shape x color" represents an evaluation of the detection performance of an article when the shape and color of each article are not uniform. The evaluation was carried out by inputting original images in which the shapes and colors of articles included as subjects were not uniform in Examples 1-2 and Comparative Examples 1-6. Examples 1 and 2 and Comparative Examples 3 and 4 are "○", Comparative Examples 1 and 2 are "Δ", and Comparative Examples 5 and 6 are "X".
したがって、各物品の形状及び色が均一でない原画像を用いる場合には、実施例1~2、比較例3~4が好適である。 Accordingly, Examples 1 and 2 and Comparative Examples 3 and 4 are suitable when using original images in which the shape and color of each article are not uniform.
評価項目「速度」は、大きな画像サイズの原画像が入力された場合の処理速度に対する評価を表す。当該評価は、実施例1~2及び比較例1~6に、画像サイズが異なる複数の原画像を入力することにより行った。実施例1~2、比較例5~6は「○」であり、比較例1~4は「△」である。評価項目「速度」の詳細については、図面を変えて後述する。 The evaluation item "speed" represents an evaluation of the processing speed when a large image size original image is input. The evaluation was performed by inputting a plurality of original images having different image sizes to Examples 1-2 and Comparative Examples 1-6. Examples 1 and 2 and Comparative Examples 5 and 6 are "○", and Comparative Examples 1 and 4 are "Δ". The details of the evaluation item "speed" will be described later with different drawings.
したがって、高解像度の原画像が入力される場合、実施例1~2、比較例5~6が好適である。 Therefore, when a high-resolution original image is input, Examples 1 and 2 and Comparative Examples 5 and 6 are preferable.
次に、評価項目「画像サイズ」の詳細を、図11(a)を参照して説明する。図11(a)は、実施例1~2、比較例1~4について、原画像の画像サイズに応じたメモリ使用量を比較したグラフである。当該グラフによれば、比較例1~4は、実施例1~2に対して、原画像の画像サイズが約106を超えると、画像サイズが大きいほど多くのメモリを使用している。 Next, details of the evaluation item "image size" will be described with reference to FIG. FIG. 11(a) is a graph comparing memory usage according to the image size of the original image for Examples 1-2 and Comparative Examples 1-4. According to the graph, when the image size of the original image exceeds about 10 6 , the larger the image size, the more memory is used in Comparative Examples 1-4 than in Examples 1-2.
次に、評価項目「速度」の詳細を、図11(b)を参照して説明する。図11(b)は、実施例1~2、比較例1~4について、原画像の画像サイズに応じた処理時間を比較したグラフである。当該グラフによれば、比較例1~4は、実施例1~2に対して、原画像の画像サイズが約106を超えると、画像サイズが大きいほど処理時間が長くなる。 Next, the details of the evaluation item "speed" will be described with reference to FIG. 11(b). FIG. 11B is a graph comparing the processing times according to the image size of the original image for Examples 1-2 and Comparative Examples 1-4. According to the graph, in Comparative Examples 1 to 4, when the image size of the original image exceeds about 10 6 , the larger the image size, the longer the processing time becomes compared to the Examples 1 and 2.
図12(a)は、特定処理においてSSDを利用する場合(例えば実施例1)、及びYOLOv3を利用する場合(例えば実施例2)について、原画像の画像サイズに応じた物品の検出数を比較したグラフである。画像サイズが104を超える場合、YOLOv3の方が、SSDに比べて検出数が多くなっている。 FIG. 12(a) compares the number of articles detected according to the image size of the original image when SSD is used in the specific process (e.g., Example 1) and when YOLOv3 is used (e.g., Example 2). is a graph. When the image size exceeds 10 4 , YOLOv3 has a larger number of detections than SSD.
図12(b)は、特定処理においてSSDを利用する場合(例えば実施例1)、及びYOLOv3を利用する場合(例えば実施例2)について、物品が被写体として含まれる領域の縦横比に応じた物品の検出正解率を比較したグラフである。当該グラフによれば、SSDの検出正解率は、縦横比に関わらず100%である。また、YOLOv3の検出正解率は、縦横比が1.2以上の場合100%である。また、YOLOv3の検出正解率は、縦横比が1.2未満の場合、縦横比が小さいほど(すなわち、正方形に近いほど)約50%を下限に低下する。したがって、縦横比が1.2以上の場合、SSD及びYOLOv3のどちらを用いてもよいが、縦横比が1.2未満の場合、YOLOv3よりもSSDを用いることが好ましい。 FIG. 12(b) shows a case where an SSD is used in the specific process (for example, Example 1) and a case where YOLOv3 is used (for example, Example 2). It is a graph comparing the detection accuracy rate of . According to the graph, the SSD detection accuracy rate is 100% regardless of the aspect ratio. Also, the detection accuracy rate of YOLOv3 is 100% when the aspect ratio is 1.2 or more. In addition, when the aspect ratio is less than 1.2, the detection accuracy rate of YOLOv3 decreases to a lower limit of about 50% as the aspect ratio becomes smaller (that is, closer to a square). Therefore, when the aspect ratio is 1.2 or more, either SSD or YOLOv3 may be used, but when the aspect ratio is less than 1.2, it is preferable to use SSD rather than YOLOv3.
以上、図10~図12に示したように、比較例1~6は、一部の評価項目について好適とは言えないが、実施例1~2は、上述した全ての評価項目について好適である。したがって、実施例1~2は、比較例1~6と比較して、優れていることがわかる。また、図9に示したように、4600×3500ピクセルの原画像を用いる場合、画像サイズが106を超えるため、実施例1~2を用いることにより、メモリ使用量を抑え、高速に処理できる。また、図9に示したように、検査対象の物品(圧着端子)を含む領域が縦横比1.2以上の長方形である場合、実施例1、2のどちらを用いても構わない。また、実施形態1の変形例3で述べたように、実施例1、2の特定処理において、SSD又はYOLOv3を用いる代わりに、テンプレートマッチングや二値化処理など、学習済みモデルによらない手法を用いてもよい。
As described above, as shown in FIGS. 10 to 12, Comparative Examples 1 to 6 are not suitable for some of the evaluation items, but Examples 1 and 2 are suitable for all of the evaluation items described above. . Therefore, it can be seen that Examples 1-2 are superior to Comparative Examples 1-6. Also, as shown in FIG. 9, when using an original image of 4600×3500 pixels, the image size exceeds 10 6 . . Moreover, as shown in FIG. 9, when the area including the article to be inspected (crimp terminal) is a rectangle having an aspect ratio of 1.2 or more, either of
なお、実施形態2の検査装置2は、圧着端子の代わりに、半導体レーザチップやプリント回路基板などを検査対象とすることもできる。
The
また、実施形態1の分類装置1は、複数の車両を被写体として含む原画像を入力として、各車両の車種クラスを判別する用途に用いることができる。
Further, the
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
1 分類装置
2 検査装置
20 入力装置
30 出力装置
10 バス
11 主メモリ
12 プロセッサ
13 補助メモリ
14 入出力インターフェース
101 生成部
102 特定部
103 分類器
104 表示部
1
Claims (7)
各物品が被写体として含まれている上記高解像度画像上の領域を特定する特定処理を、上記低解像度画像を参照して実行する特定部と、
各物品の状態を分類する分類処理を、該物品が被写体として含まれている領域として上記特定部にて特定された上記高解像度画像上の領域を選択的に参照することによって実行する単一の分類器と、を備え、
上記分類器は、各物品の状態を分類する分類処理を、上記高解像度画像から切り出された部分画像であって、該物品が被写体として含まれている領域として上記特定部にて特定された上記高解像度画像上の領域を含む部分画像を入力とし、該物品の状態を示す予め定められた複数のクラスの何れかを出力とする学習済みモデルを用いて実行し、
上記予め定められた複数のクラスは、該物品の状態が正常であることを示す少なくとも1つの良品クラス、及び、該物品の状態が異常であることを示す少なくとも1つの不良品クラスである、
ことを特徴とする分類装置。 In order to perform a batch inspection of a plurality of articles that are separate objects of the same type, a single high-resolution image and a single low-resolution image that commonly include the plurality of articles as subjects are referred to, and the inspection of the plurality of articles is performed. A classifier for classifying each state, comprising:
a specifying unit that refers to the low-resolution image and executes specifying processing for specifying a region on the high-resolution image in which each article is included as a subject;
A single classification process for classifying the state of each article by selectively referring to the area on the high-resolution image specified by the specifying unit as the area containing the article as a subject. a classifier ;
The classifier performs a classification process for classifying the state of each article, the partial image cut out from the high-resolution image, and the area specified by the specifying unit as an area including the article as a subject. Execute using a trained model that takes as input a partial image including an area on the high-resolution image and outputs any of a plurality of predetermined classes indicating the state of the article,
The plurality of predetermined classes are at least one non-defective product class indicating that the condition of the product is normal, and at least one defective product class indicating that the product condition is abnormal.
A classification device characterized by:
ことを特徴とする請求項1に記載の分類装置。 The identification unit performs identification processing for identifying an area in which each article is included as a subject, using a learned model that receives the low-resolution image as an input and outputs an area in which the article is included as an object. Execute,
2. The classification device according to claim 1, characterized in that:
ことを特徴とする請求項1または2に記載の分類装置。 further comprising a generation unit that performs generation processing for generating the low-resolution image having a resolution lower than that of the high-resolution image with reference to the high-resolution image;
3. The classification device according to claim 1 or 2 , characterized in that:
ことを特徴とする請求項1~3の何れか1項に記載の分類装置。 A display unit for outputting the result of the classification process to a display together with the image including the plurality of articles as subjects,
The classification device according to any one of claims 1 to 3 , characterized in that:
上記特定部が、各物品が被写体として含まれている上記高解像度画像上の領域を特定する特定処理を、上記低解像度画像を参照して実行する特定ステップと、
上記単一の分類器が、各物品の状態を分類する分類処理を、該物品が被写体として含まれている領域として上記特定ステップにて特定された上記高解像度画像上の領域を選択的に参照することによって実行する分類ステップと、を含み、
上記分類器は、各物品の状態を分類する分類処理を、上記高解像度画像から切り出された部分画像であって、該物品が被写体として含まれている領域として上記特定部にて特定された上記高解像度画像上の領域を含む部分画像を入力とし、該物品の状態を示す予め定められた複数のクラスの何れかを出力とする学習済みモデルを用いて実行し、
上記予め定められた複数のクラスは、該物品の状態が正常であることを示す少なくとも1つの良品クラス、及び、該物品の状態が異常であることを示す少なくとも1つの不良品クラスである、
ことを特徴とする分類方法。 In order to collectively inspect a plurality of articles that are separate objects of the same type, a single high-resolution unit that includes the plurality of articles as objects in common using a classification device that includes a specific unit and a single classifier. A classification method for classifying the state of each of the plurality of articles with reference to an image and a single low-resolution image,
a specifying step in which the specifying unit executes specifying processing for specifying a region on the high-resolution image in which each article is included as a subject, with reference to the low-resolution image;
The single classifier selectively refers to the region on the high-resolution image identified in the identifying step as a region containing the article as a subject in the classification process for classifying the state of each article. a classification step performed by
The classifier performs a classification process for classifying the state of each article, the partial image cut out from the high-resolution image, and the area specified by the specifying unit as an area including the article as a subject. Execute using a trained model that takes as input a partial image including an area on the high-resolution image and outputs any of a plurality of predetermined classes indicating the state of the article,
The plurality of predetermined classes are at least one non-defective product class indicating that the condition of the product is normal, and at least one defective product class indicating that the product condition is abnormal.
A classification method characterized by:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168190 | 2018-09-07 | ||
JP2018168190 | 2018-09-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042754A JP2020042754A (en) | 2020-03-19 |
JP7289658B2 true JP7289658B2 (en) | 2023-06-12 |
Family
ID=69798090
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019010486A Active JP7161948B2 (en) | 2018-09-07 | 2019-01-24 | Machine learning device, machine learning method, machine learning program, and inspection device |
JP2019010485A Active JP7289658B2 (en) | 2018-09-07 | 2019-01-24 | Classification device, classification method, classification program, and inspection device |
JP2019014623A Active JP7213701B2 (en) | 2018-09-07 | 2019-01-30 | Machining equipment, machining method, machining program, and inspection equipment |
JP2019042990A Active JP7236292B2 (en) | 2018-09-07 | 2019-03-08 | Evaluation device, evaluation method, evaluation program, and inspection device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019010486A Active JP7161948B2 (en) | 2018-09-07 | 2019-01-24 | Machine learning device, machine learning method, machine learning program, and inspection device |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019014623A Active JP7213701B2 (en) | 2018-09-07 | 2019-01-30 | Machining equipment, machining method, machining program, and inspection equipment |
JP2019042990A Active JP7236292B2 (en) | 2018-09-07 | 2019-03-08 | Evaluation device, evaluation method, evaluation program, and inspection device |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP7161948B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020183876A (en) * | 2019-04-26 | 2020-11-12 | 株式会社前川製作所 | Feature point recognition system and workpiece processing system |
CN111695553B (en) | 2020-06-05 | 2023-09-08 | 北京百度网讯科技有限公司 | Form identification method, device, equipment and medium |
WO2022185432A1 (en) * | 2021-03-03 | 2022-09-09 | Heroz株式会社 | Image recognition learning system, image recognition learning method, image recognition learning program, image recognition machine learning unit, and image recognition system |
JP7453931B2 (en) | 2021-03-12 | 2024-03-21 | 株式会社豊田中央研究所 | Learning data generation device, anomaly detection device, anomaly detection system, and anomaly detection program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011137780A (en) | 2010-01-04 | 2011-07-14 | Nec Corp | Image diagnosis method, image diagnosis device, and image diagnosis program |
JP2012225768A (en) | 2011-04-20 | 2012-11-15 | Hitachi High-Technologies Corp | Defect sorting method and defect sorting system |
JP2018107759A (en) | 2016-12-28 | 2018-07-05 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and image processing system |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3947109B2 (en) * | 2001-01-23 | 2007-07-18 | バイオウルフ テクノロジーズ エルエルスィー | Computer-based image analysis |
JP4553300B2 (en) * | 2004-09-30 | 2010-09-29 | Kddi株式会社 | Content identification device |
JP4849596B2 (en) * | 2005-12-08 | 2012-01-11 | 独立行政法人情報通信研究機構 | Question answering apparatus, question answering method, and question answering program |
JP5075083B2 (en) * | 2008-10-08 | 2012-11-14 | 大日本スクリーン製造株式会社 | Teacher data creation support method, image classification method, and image classification apparatus |
JP6277818B2 (en) * | 2014-03-26 | 2018-02-14 | 日本電気株式会社 | Machine learning apparatus, machine learning method, and program |
JP6401648B2 (en) | 2015-03-31 | 2018-10-10 | 株式会社Screenホールディングス | Defect classification apparatus and defect classification method |
US10878320B2 (en) | 2015-07-22 | 2020-12-29 | Qualcomm Incorporated | Transfer learning in neural networks |
JP6584250B2 (en) | 2015-09-10 | 2019-10-02 | 株式会社Screenホールディングス | Image classification method, classifier configuration method, and image classification apparatus |
JP6530688B2 (en) | 2015-09-25 | 2019-06-12 | 株式会社Screenホールディングス | Classifier construction method, image classification method, classifier construction apparatus and image classification apparatus |
JP6531036B2 (en) * | 2015-12-08 | 2019-06-12 | 株式会社Screenホールディングス | Teacher data creation support method, image classification method, teacher data creation support device and image classification device |
JP6377050B2 (en) | 2015-12-18 | 2018-08-22 | ヤフー株式会社 | Learning device, learning method, and learning program |
JP6333871B2 (en) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | Image processing apparatus for displaying an object detected from an input image |
US11580398B2 (en) | 2016-10-14 | 2023-02-14 | KLA-Tenor Corp. | Diagnostic systems and methods for deep learning models configured for semiconductor applications |
WO2018235266A1 (en) | 2017-06-23 | 2018-12-27 | 株式会社Rist | Inspection device, inspection method, and inspection program |
JP7036401B2 (en) | 2018-04-27 | 2022-03-15 | Awl株式会社 | Learning server, image collection support system for insufficient learning, and image estimation program for insufficient learning |
-
2019
- 2019-01-24 JP JP2019010486A patent/JP7161948B2/en active Active
- 2019-01-24 JP JP2019010485A patent/JP7289658B2/en active Active
- 2019-01-30 JP JP2019014623A patent/JP7213701B2/en active Active
- 2019-03-08 JP JP2019042990A patent/JP7236292B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011137780A (en) | 2010-01-04 | 2011-07-14 | Nec Corp | Image diagnosis method, image diagnosis device, and image diagnosis program |
JP2012225768A (en) | 2011-04-20 | 2012-11-15 | Hitachi High-Technologies Corp | Defect sorting method and defect sorting system |
JP2018107759A (en) | 2016-12-28 | 2018-07-05 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and image processing system |
Also Published As
Publication number | Publication date |
---|---|
JP7161948B2 (en) | 2022-10-27 |
JP2020042757A (en) | 2020-03-19 |
JP7236292B2 (en) | 2023-03-09 |
JP2020042755A (en) | 2020-03-19 |
JP2020042001A (en) | 2020-03-19 |
JP7213701B2 (en) | 2023-01-27 |
JP2020042754A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7289658B2 (en) | Classification device, classification method, classification program, and inspection device | |
US20210374940A1 (en) | Product defect detection method, device and system | |
CN111044525B (en) | Product defect detection method, device and system | |
JP6924413B2 (en) | Data generator, data generation method and data generation program | |
US11176650B2 (en) | Data generation apparatus, data generation method, and data generation program | |
JP2017211259A (en) | Inspection device, inspection method and program | |
US9478040B2 (en) | Method and apparatus for segmenting object in image | |
JP2015041164A (en) | Image processor, image processing method and program | |
JP2016115331A (en) | Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program | |
JP2006293528A (en) | Method and apparatus for selecting learning image, and method, apparatus, program and recording medium for creating image processing algorithm | |
US11562479B2 (en) | Inspection apparatus, inspection method, and non-volatile storage medium | |
JP7240199B2 (en) | Parameter determination method, parameter determination device, and program | |
US20230024820A1 (en) | Analysis device and analysis method | |
JP7479007B2 (en) | Information processing device, program, system, and method for detecting grapes from an image | |
WO2020195958A1 (en) | Learning method, determination method, program, learning system, learning data set generation method, and learning data set | |
JP2020154798A (en) | Image inspection apparatus | |
TWI780670B (en) | Method and system for generating human factor characteristics and method and system for generating action recognition module | |
EP4318391A1 (en) | Information processing device, control program, and control method | |
US10789697B2 (en) | Devices, systems, and methods for spatial-neighborhood consistency in feature detection in image data | |
WO2024090054A1 (en) | Image processing method, program, and image processing device | |
WO2022254858A1 (en) | Inspection device, inspection method, and inspection program | |
US20230103374A1 (en) | Visualization method, program for the same, visualization device, and discrimination device having the same | |
JP7471207B2 (en) | Inspection device, inspection method, and inspection program | |
JP7086322B2 (en) | Motion analysis device, motion analysis method, and motion analysis program | |
WO2019082283A1 (en) | Image interpretation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230424 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230424 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230531 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7289658 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |