JP7128107B2 - Image inspection device generation device, image inspection device, image inspection device generation program, and image inspection device generation method - Google Patents
Image inspection device generation device, image inspection device, image inspection device generation program, and image inspection device generation method Download PDFInfo
- Publication number
- JP7128107B2 JP7128107B2 JP2018242918A JP2018242918A JP7128107B2 JP 7128107 B2 JP7128107 B2 JP 7128107B2 JP 2018242918 A JP2018242918 A JP 2018242918A JP 2018242918 A JP2018242918 A JP 2018242918A JP 7128107 B2 JP7128107 B2 JP 7128107B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- inspection
- inspector
- classifier
- inspection object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、画像検査器生成装置、画像検査装置、画像検査器生成プログラム、及び画像検査器生成方法に関する。 The present invention relates to an image inspector generation device, an image inspection device, an image inspector generation program, and an image inspector generation method.
従来、分類器生成装置として、欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習によりCNN(Convolutional Neural Network)を生成するCNN生成手段と、CNN生成手段により生成されたCNNを構成する中間層に、欠陥が写った複数の第2画像それぞれを入力し、当該複数の第2画像それぞれについての複数種類の特徴量を取得する特徴量取得手段と、特徴量取得手段により取得された複数種類の特徴量の少なくとも一部の種類の特徴量を含む第2教師データに基づいて機械学習により分類器を生成する分類器生成手段と、を備えるものが知られている(特許文献1参照)。特許文献1には、この分類器生成装置により生成された分類器により、検査対象を撮像した画像であって欠陥が映った画像を分類することが記載されている。
Conventionally, as a classifier generation device, CNN generation means for generating a CNN (Convolutional Neural Network) by deep learning based on first teacher data including a plurality of first images showing defects, and CNN generation means A feature amount acquisition unit for inputting each of a plurality of second images showing defects to an intermediate layer constituting a CNN and acquiring a plurality of types of feature amounts for each of the plurality of second images; and a classifier generating means for generating a classifier by machine learning based on second teacher data including at least some of the acquired plural types of feature amounts (Patent Reference 1).
特許文献1に記載された分類器のように、深層学習により生成したCNNに基づいて生成された分類器を用い、画像を検査する画像検査装置の場合、分類器による画像の分類及び検査の精度を高めるためには、多種多様な学習用画像を用意し、当該学習用画像の深層学習に基づいて分類器を生成する必要があった。このため、検査精度の高い画像検査装置では、大量の画像が必要であった。
In the case of an image inspection apparatus that inspects an image using a classifier generated based on a CNN generated by deep learning, such as the classifier described in
そこで、本発明は、大量の画像を必要とすることなく検査精度の高い画像検査器を生成することのできる画像検査器生成装置、画像検査器生成プログラム、及び画像検査器生成方法を提供することを目的とする。 Therefore, the present invention provides an image inspector generation apparatus, an image inspector generation program, and an image inspector generation method that can generate an image inspector with high inspection accuracy without requiring a large amount of images. With the goal.
本発明の一態様に係る画像検査器生成装置は、検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器を生成する画像検査器生成部を備え、検査基準は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。 An image inspector generation apparatus according to an aspect of the present invention includes an image inspector generation unit that generates an image inspector that inspects an inspection object included in an image by machine learning based on an inspection standard for the inspection object and a learning image. , and the test criteria include information about the state variables of the test object, the state values of the state variables, and the class into which the test object is classified.
この態様によれば、検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器が生成され、検査基準は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。このように、論理情報である検査基準と学習用画像とに基づいて機械学習を行うことにより、学習用画像に基づいて機械学習を行う場合と比較して、機械学習の学習効率を向上させることが可能になる。従って、従来と比較して、大量の学習用画像を必要とせずに検査精度の高い画像検査器を生成することができる。 According to this aspect, an image inspector for inspecting the inspection object included in the image is generated by machine learning based on the inspection standard for the inspection object and the learning image, and the inspection standard includes the state variables of the inspection object, the state Contains information about the state values of variables and the class into which the study object is classified. In this way, by performing machine learning based on the inspection standard and the learning image, which are logical information, the learning efficiency of machine learning can be improved compared to the case of performing machine learning based on the learning image. becomes possible. Therefore, it is possible to generate an image inspection device with high inspection accuracy without requiring a large amount of learning images as compared with the conventional art.
前述した態様において、画像検査器は、検出器と分類器とを含み、画像検査器生成部は、画像に含まれる検査オブジェクトを検出する検出器を生成する検出器生成部と、画像において検出された検査オブジェクトの状態を分類する分類器を生成する分類器生成部と、を含んでもよい。 In the above aspect, the image inspector includes a detector and a classifier, and the image inspector generator includes a detector generator that generates a detector for detecting inspection objects included in the image, and a detector generator that detects inspection objects in the image. and a classifier generator that generates a classifier that classifies the state of the inspected object.
この態様によれば、画像に含まれる検査オブジェクトを検出する検出器が生成され、画像において検出された検査オブジェクトの状態を分類する分類器が生成される。このように、画像に含まれる検査オブジェクトを検出する検出器と、検出された検査オブジェクトの状態を分類する分類器とを分けて生成することにより、機械学習による検出器の生成には、検査オブジェクトの状態の異なるバリエーションの学習用画像が不要である一方、機械学習による分類器の生成には、検査オブジェクトの数、位置、範囲等の異なるバリエーションの学習用画像が不要となる。 According to this aspect, a detector is generated for detecting an inspection object contained in an image, and a classifier is generated for classifying the state of the inspection object detected in the image. In this way, by separately generating a detector for detecting an inspection object contained in an image and a classifier for classifying the state of the detected inspection object, the generation of the detector by machine learning can be performed using the inspection object On the other hand, generation of a classifier by machine learning does not require learning images of different variations such as the number, position, range, etc. of inspection objects.
前述した態様において、分類器生成部は、画像において検出された検査オブジェクトの部分画像に基づく機械学習によって、分類器を生成してもよい。 In the above aspect, the classifier generator may generate the classifier by machine learning based on partial images of inspection objects detected in the image.
この態様によれば、画像において検出された検査オブジェクトの部分画像に基づく機械学習によって、分類器が生成される。これにより、学習用画像における検査オブジェクトの数、位置、範囲等は捨象されるので、検査オブジェクトの状態の異なるバリエーションの部分画像に基づく機械学習によって分類器を生成することにより、大量の学習用画像を必要とせずに、分類器を生成する分類器生成部を容易に実現することができる。 According to this aspect, the classifier is generated by machine learning based on sub-images of inspection objects detected in the images. As a result, the number, position, range, etc., of the inspection objects in the training images are abstracted. Therefore, by generating a classifier by machine learning based on partial images of different variations of inspection object states, a large amount of training images can be generated. A classifier generation unit that generates a classifier can be easily realized without the need for
前述した態様において、検査基準を入力するための入力部をさらに備えてもよい。 The above aspect may further include an input unit for inputting inspection criteria.
この態様によれば、検査基準を入力するための入力部をさらに備える。これにより、検査基準を簡易に設定することができる。 According to this aspect, it further includes an input unit for inputting inspection criteria. This makes it possible to easily set the inspection criteria.
また、本発明の他の態様に係る画像検査装置は、前述した画像検査器生成装置によって生成された画像検査器を備え、画像検査器を用いて検査用画像を検査する。 Further, an image inspection apparatus according to another aspect of the present invention includes an image inspection device generated by the image inspection device generation device described above, and inspects an inspection image using the image inspection device.
この態様によれば、画像検査器を用いて検査用画像が検査される。これにより、検査精度の高い画像検査装置を容易に実現することができる。 According to this aspect, the inspection image is inspected using the image inspector. As a result, an image inspection apparatus with high inspection accuracy can be easily realized.
前述した態様において、画像検査器は、複数の検査基準に基づく機械学習によって生成され、画像検査器を用いて検査した結果、検査用画像に欠陥ありと判定されたときに、複数の検査基準のうち、欠陥ありと判定される原因となった検査基準を出力する出力部をさらに備えてもよい。 In the above-described aspect, the image inspector is generated by machine learning based on a plurality of inspection criteria, and as a result of inspection using the image inspector, when it is determined that there is a defect in the inspection image, the image inspector determines the plurality of inspection criteria. Among them, an output unit may be further provided for outputting an inspection standard that is the cause of the determination that there is a defect.
この態様によれば、画像検査器を用いて検査した結果、検査用画像に欠陥ありと判定されたときに、複数の検査基準のうち、欠陥ありと判定される原因となった検査基準が出力される。これにより、欠陥ありと判定されたときに、その原因となった検査基準を出力しない場合と比較して、画像検査器を用いた検査結果は説明性を有する。 According to this aspect, when it is determined that there is a defect in the inspection image as a result of inspection using the image inspector, the inspection standard that caused the defect to be determined among the plurality of inspection standards is output. be done. As a result, when it is determined that there is a defect, the inspection results using the image inspector are more descriptive than when the inspection criteria that caused the defect are not output.
また、本発明の他の態様に係る画像検査器生成プログラムは、コンピュータに実行させる画像検査器生成プログラムであって、検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器を生成する画像検査器生成ステップを含み、検査基準は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。 Further, an image inspector generating program according to another aspect of the present invention is an image inspector generating program to be executed by a computer, and is included in an image by machine learning based on an inspection standard for an inspection object and a learning image. An image inspector generation step for generating an image inspector for inspecting the inspection object, wherein the inspection criteria include state variables of the inspection object, state values of the state variables, and class information into which the inspection object is classified.
この態様によれば、検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器が生成され、検査基準は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。このように、論理情報である検査基準と学習用画像とに基づいて機械学習を行うことにより、学習用画像に基づいて機械学習を行う場合と比較して、機械学習の学習効率を向上させることが可能になる。従って、従来と比較して、大量の学習用画像を必要とせずに検査精度の高い画像検査器を生成することができる。 According to this aspect, an image inspector for inspecting the inspection object included in the image is generated by machine learning based on the inspection standard for the inspection object and the learning image, and the inspection standard includes the state variables of the inspection object, the state Contains information about the state values of variables and the class into which the study object is classified. In this way, by performing machine learning based on the inspection standard and the learning image, which are logical information, the learning efficiency of machine learning can be improved compared to the case of performing machine learning based on the learning image. becomes possible. Therefore, it is possible to generate an image inspection device with high inspection accuracy without requiring a large amount of learning images as compared with the conventional art.
前述した態様において、画像検査器は、検出器と分類器とを含み、画像検査器生成ステップは、画像に含まれる検査オブジェクトを検出する検出器を生成する検出器生成ステップと、画像において検出された検査オブジェクトの状態を分類する分類器を生成する分類器生成ステップと、を含んでもよい。 In the aforementioned aspect, the image inspector includes a detector and a classifier, and the image inspector generation step includes a detector generation step for generating a detector for detecting inspection objects contained in the image; and a classifier generation step of generating a classifier that classifies states of the inspected objects.
この態様によれば、画像に含まれる検査オブジェクトを検出する検出器が生成され、画像において検出された検査オブジェクトの状態を分類する分類器が生成される。このように、画像に含まれる検査オブジェクトを検出する検出器と、検出された検査オブジェクトの状態を分類する分類器とを分けて生成することにより、機械学習による検出器の生成には、検査オブジェクトの状態の異なるバリエーションの学習用画像が不要である一方、機械学習による分類器の生成には、検査オブジェクトの数、位置、範囲等の異なるバリエーションの学習用画像が不要となる。 According to this aspect, a detector is generated for detecting an inspection object contained in an image, and a classifier is generated for classifying the state of the inspection object detected in the image. In this way, by separately generating a detector for detecting an inspection object contained in an image and a classifier for classifying the state of the detected inspection object, the generation of the detector by machine learning can be performed using the inspection object On the other hand, generation of a classifier by machine learning does not require learning images of different variations such as the number, position, range, etc. of inspection objects.
前述した態様において、分類器生成ステップは、画像において検出された検査オブジェクトの部分画像に基づく機械学習によって、分類器を生成することを含んでもよい。 In the aforementioned aspect, the classifier generation step may comprise generating the classifier by machine learning based on sub-images of the inspection object detected in the image.
この態様によれば、画像において検出された検査オブジェクトの部分画像に基づく機械学習によって、分類器が生成される。これにより、学習用画像における検査オブジェクトの数、位置、範囲等は捨象されるので、検査オブジェクトの状態の異なるバリエーションの部分画像に基づく機械学習によって分類器を生成することにより、大量の学習用画像を必要とせずに、分類器を生成する分類器生成ステップを容易に実現することができる。 According to this aspect, the classifier is generated by machine learning based on sub-images of inspection objects detected in the images. As a result, the number, position, range, etc., of the inspection objects in the training images are abstracted. Therefore, by generating a classifier by machine learning based on partial images of different variations of inspection object states, a large amount of training images can be generated. A classifier generation step for generating a classifier can be easily realized without requiring
前述した態様において、検査基準を入力するための入力ステップをさらに含んでもよい。 The above aspect may further include an input step for inputting inspection criteria.
この態様によれば、検査基準を入力するための入力ステップをさらに含む。これにより、検査基準を簡易に設定することができる。 According to this aspect, further comprising an input step for inputting inspection criteria. This makes it possible to easily set the inspection criteria.
また、本発明の他の態様に係る画像検査器生成方法は、検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器を生成する画像検査器生成ステップを含み、検査基準は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。 Further, an image inspection device generation method according to another aspect of the present invention is an image inspection method for generating an image inspection device for inspecting an inspection object included in an image by machine learning based on an inspection standard for the inspection object and a learning image. The test criteria include state variables of the test object, state values of the state variables, and class information into which the test object is classified.
この態様によれば、検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器が生成され、検査基準は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。このように、論理情報である検査基準と学習用画像とに基づいて機械学習を行うことにより、学習用画像に基づいて機械学習を行う場合と比較して、機械学習の学習効率を向上させることが可能になる。従って、従来と比較して、大量の学習用画像を必要とせずに検査精度の高い画像検査器を生成することができる。 According to this aspect, an image inspector for inspecting the inspection object included in the image is generated by machine learning based on the inspection standard for the inspection object and the learning image, and the inspection standard includes the state variables of the inspection object, the state Contains information about the state values of variables and the class into which the study object is classified. In this way, by performing machine learning based on the inspection standard and the learning image, which are logical information, the learning efficiency of machine learning can be improved compared to the case of performing machine learning based on the learning image. becomes possible. Therefore, it is possible to generate an image inspection device with high inspection accuracy without requiring a large amount of learning images as compared with the conventional art.
本発明によれば、大量の画像を必要とすることなく検査精度の高い画像検査器を生成することができる。 According to the present invention, it is possible to generate an image inspection device with high inspection accuracy without requiring a large amount of images.
以下に本発明の実施形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号で表している。但し、図面は模式的なものである。従って、具体的な寸法等は以下の説明を照らし合わせて判断するべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。さらに、本発明の技術的範囲は、当該実施形態に限定して解するべきではない。 Embodiments of the present invention are described below. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, the drawings are schematic. Therefore, specific dimensions and the like should be determined by referring to the following description. In addition, it goes without saying that there are portions with different dimensional relationships and ratios between the drawings. Furthermore, the technical scope of the present invention should not be construed as being limited to this embodiment.
まず、図1から図5を参照しつつ、本発明の一実施形態に係る画像検査器生成装置及び画像検査装置の構成の一例について説明する。図1は、一実施形態に係る画像検査システム100の概略構成を例示する構成図である。図2は、図1に示した画像検査器33を生成する概略構成を例示する図である。図3は、機械学習による画像検査器33の生成の第1実施例を例示する図である。図4は、機械学習による画像検査器33の生成の第2実施例を例示する図である。図5は、機械学習による画像検査器33の生成の第3実施例を例示する図である。
First, with reference to FIGS. 1 to 5, an example of configuration of an image inspector generation apparatus and an image inspection apparatus according to an embodiment of the present invention will be described. FIG. 1 is a configuration diagram illustrating a schematic configuration of an
図1に示すように、画像検査システム100は、ネットワークNWと、画像検査器生成装置50と、画像検査装置90と、を備える。
As shown in FIG. 1, the
画像検査器生成装置50と画像検査装置90とは、ネットワークNWを介して相互に通信可能に接続されている。ネットワークNWは、例えば、インターネット、LAN(Local Area Network)、専用線、電話回線、企業内ネットワーク、ブルートゥース(登録商標)、Wi-Fi(Wireless Fidelity)、移動体通信網、その他の通信回線、またはこれらの組合せ等である。また、画像検査器生成装置50及び画像検査装置90とネットワークNWとの間の接続は、それぞれ、有線であるか無線であるかを問わない。
The image inspection
本実施形態では、図1において画像検査システム100に含まれるネットワークNWが1つである例を示したが、これに限定されるものではない。画像検査システム100に含まれるネットワークは、例えば2つ以上であってもよい。
In this embodiment, FIG. 1 shows an example in which one network NW is included in the
画像検査器生成装置50は、画像検査装置90の上位コントローラの役割を果たすコンピュータである。画像検査器生成装置50は、例えば、PLC(Programmable Logic Controller)等のコントローラを含んで構成される。
The image inspection
画像検査器生成装置50は、例えば、通信部10と、入力部20と、記憶部30と、制御部40と、を備える。また、画像検査器生成装置50は、画像検査器生成装置50の各部の間で信号やデータを伝送するように構成されたバス51をさらに備える。
The image
通信部10は、ネットワークNWを介してデータを通信(送受信)するように構成されている。より詳細には、通信部10は、1つ又は複数の所定の通信方式に基づいて、ネットワークNWに接続される画像検査装置90とネットワークNWを介して通信可能に構成されている。
The
入力部20は、後述する検査基準32を入力するためのものである。より詳細には、入力部20は、利用者(ユーザ)の操作によって、検査基準を画像検査器生成装置50に入力できるように構成されている。入力部20は、例えば、インターフェースと、外部の機器である入力装置と、を含んで構成される。インターフェースは、外部の機器との間でデータや信号をやり取りするように構成され、例えば、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Mutimedia Interface)、IEEE1394等の規格化されたインターフェースの接続端子を含んでいる。入力装置は、例えば、キーボード、キーパッド、マウス、トラックボール、タッチパネル、マイク等の装置である。
The
例えば、利用者が、キーボード、キーパッド、マウス、トラックボール、タッチパネル、マイク等の入力装置を操作(マイクを用いた音声操作を含む)したときに、入力部20は、当該操作に対応するデータ又は信号を出力する。入力部20が出力したデータ又は信号は、制御部40に入力される。制御部40がこのデータまた信号に基づいて検査基準32を生成することで、画像検査器生成装置50に検査基準を入力することが可能になる。このように、検査基準32を入力するための入力部20を備えることにより、検査基準32を簡易に設定することができる。
For example, when the user operates an input device such as a keyboard, keypad, mouse, trackball, touch panel, microphone (including voice operation using a microphone), the
記憶部30は、プログラムやデータ等を記憶するように構成されている。記憶部30は、例えば、ハードディスクドライブ、ソリッドステートドライブ等を含んで構成される。記憶部30は、制御部40が実行する各種プログラムやプログラムの実行に必要なデータ等をあらかじめ記憶している。
The
また、記憶部30は、学習用データ31、複数の検査基準32、及び複数の画像検査器33を記憶している。学習用データ31は、複数の学習用画像と、それぞれが対応する学習用画像に付与される教師データとを含んでいる。各検査基準32は、画像に含まれる検査オブジェクトに対するものである。検査基準32は、検査オブジェクトごとに一つ又は複数が設定されている。
The
制御部40は、通信部10、入力部20、及び記憶部30等、画像検査器生成装置50の各部の動作を制御するように構成されている。また、制御部40は、記憶部30に記憶されたプログラムを実行する等によって、後述する各機能を実現するように構成されている。制御部40は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ、及びバッファ等の緩衝記憶装置を含んで構成される。
The
また、制御部40は、その機能構成として、例えば、画像検査器生成部45を備える。
Further, the
画像検査器生成部45は、検査オブジェクトに対する検査基準32と学習用データ31に含まれる学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器33を生成するように構成されている。より詳細には、画像検査器33は、検出器33aと分類器33bとを含んでおり、画像検査器生成部45は、検出器生成部41と分類器生成部42とを含んでいる。
The image
検出器生成部41は、検査基準32と学習用データ31に含まれる学習用画像とに基づく機械学習によって、画像に含まれる検査オブジェクトを検出する検出器33aを生成するように構成されている。
The
分類器生成部42は、検査基準32と学習用データ31に含まれる学習用画像とに基づく機械学習によって、検査用画像において検出された検査オブジェクトの状態を分類する分類器33bを生成するように構成されている。
The
このようにして、検出器33aと分類器33bとを含む画像検査器33が生成される。制御部40は、検査オブジェクトごとに画像検査器33を生成し、生成された画像検査器33は、記憶部30に記憶される。
In this way, an
このように、画像に含まれる検査オブジェクトを検出する検出器33aと、検出された検査オブジェクトの状態を分類する分類器33bとを分けて生成することにより、機械学習による検出器33aの生成には、検査オブジェクトの状態の異なるバリエーションの学習用画像が不要である一方、機械学習による分類器33bの生成には、検査オブジェクトの数、位置、範囲等の異なるバリエーションの学習用画像が不要となる。従って、従来と比較して、大量の学習用画像を必要とせずに検査精度の高い画像検査器33を生成することができる。
In this way, by separately generating the detector 33a for detecting the inspection object contained in the image and the classifier 33b for classifying the state of the detected inspection object, the detector 33a can be generated by machine learning. On the other hand, generation of the classifier 33b by machine learning does not require learning images with different variations in the number, position, range, etc. of inspection objects. Therefore, it is possible to generate an
ここで、図2から図5を用い、機械学習による画像検査器の生成について説明する。以下の説明において、「以外」を記号「¬」を用いて表記する場合がある。 Here, generation of an image inspector by machine learning will be described with reference to FIGS. 2 to 5. FIG. In the following description, "other than" may be indicated using the symbol "¬".
利用者(ユーザ)の操作によって検査基準の情報が入力されると、制御部40は、検査オブジェクトに対する検査基準32を生成する。生成された検査基準32は、記憶部30に記憶される。検査基準32は、例えば、「検査オブジェクトAの状態変数Xが状態値X1ならばNG」や、「検査オブジェクトBの状態変数Yが状態値Y1ならばNG」といった形式で記述される。なお、検査基準32は、検査オブジェクトに対して一つである場合に限定されず、複数の検査基準32が入力され、設定されていてもよい。
When the information of the inspection standard is input by the user's operation, the
検査基準32は、「検査オブジェクト」、「状態変数」、当該状態変数の「状態値」、及び画像の分類されるクラスの情報を含んでいる。制御部40は、例えば、利用者(ユーザ)によって入力された「検査オブジェクト」、「状態変数」、及び状態変数の「状態値」の情報を用いて、検査オブジェクトを「OK」クラス及び「NG」クラスの2つのクラスのうち、一方の「NG」クラスに分類する検査基準32を生成するようにしてもよい。
The
このように、論理情報である検査基準32と学習用画像とに基づいて機械学習を行うことにより、学習用画像に基づいて機械学習を行う場合と比較して、機械学習の学習効率を向上させることが可能になる。従って、従来と比較して、大量の学習用画像を必要とせずに検査精度の高い画像検査器33を生成することができる。
In this way, by performing machine learning based on the inspection standard 32, which is logical information, and the learning image, the learning efficiency of machine learning is improved compared to the case of performing machine learning based on the learning image. becomes possible. Therefore, it is possible to generate an
検査オブジェクトは、画像に映る対象物の一部である。検査オブジェクトは、例えば、ねじ穴、ケーブル、針、容器、リング、電極、切削面、賞味期限印字等である。 The inspection object is the part of the object that appears in the image. Inspection objects are, for example, screw holes, cables, needles, containers, rings, electrodes, cutting surfaces, expiration date stamps, and the like.
状態変数は、当該検査オブジェクトの変数である。状態変数は、例えば、幅、長さ、面積、大きさ、方向、数、色、形状、表面状態、日付等である。 A state variable is a variable of the study object. State variables are, for example, width, length, area, size, direction, number, color, shape, surface condition, date, and the like.
状態値は、当該状態変数の値である。状態値は、例えば、100画素、平行、30度、4個、赤、変数、バリあり、傷あり、汚れあり、曇りあり、10月17日等である。 A state value is the value of the state variable. The status values are, for example, 100 pixels, parallel, 30 degrees, 4, red, variable, burr, scratch, dirt, cloudy, October 17, and so on.
検出器33a及び分類器33bは、任意の機械学習モデルのアルゴリズムを用いて生成される。検出器33aは、例えば図2に示す第1ニューラルネットワークNN1を用いて生成され、分類器33bは例えば図2に示す第2ニューラルネットワークNN2を用いて生成される。 The detector 33a and the classifier 33b are generated using an arbitrary machine learning model algorithm. The detector 33a is generated using, for example, the first neural network NN1 shown in FIG. 2, and the classifier 33b is generated using, for example, the second neural network NN2 shown in FIG.
第1ニューラルネットワークNN1は、学習用画像に含まれる検査オブジェクト、例えば「検査オブジェクトA」を検出するためのニューラルネットワークである。第1ニューラルネットワークNN1は、あらかじめ学習して生成された物体認識ニューラルネットワークORNNを転移学習することによって得る。物体認識ニューラルネットワークORNNは、例えばSSD(Single Shot multibox Detector)等の物体検出アルゴリズムを用い、「検査オブジェクトA」を含む一般物体を検出するように学習したものである。 The first neural network NN1 is a neural network for detecting an inspection object included in the learning image, for example, "inspection object A". The first neural network NN1 is obtained by transfer learning an object recognition neural network ORNN generated by learning in advance. The object recognition neural network ORNN uses an object detection algorithm such as SSD (Single Shot Multibox Detector) and is trained to detect general objects including "inspection object A".
転移学習は、学習用データ31に含まれる学習用画像LGを第1ニューラルネットワークNN1に入力し、第1ニューラルネットワークNN1が「検査オブジェクトA」を検出するように学習することによって、行われる。
Transfer learning is performed by inputting the learning image LG included in the learning
具体的には、第1ニューラルネットワークNN1の検出結果は、第1判定器DD1に入力される。第1判定器DD1において、第1ニューラルネットワークNN1の検出結果と、学習用データ31に含まれ、学習用画像LGに対応する第1教師データLD1とを比較し、一致するか否かが判定される。第1教師データLD1は、学習用画像LGに付与されたアノテーション、つまり、関連情報である。図2に示す例では、第1教師データLD1として、「OK」又は「NG」のラベルが付与されている。そして、第1判定器DD1の判定結果を第1ニューラルネットワークNN1にフィードバックすることで、第1ニューラルネットワークNN1の重みが修正される。このような機械学習を複数の学習用画像LGについて行うことによって、「検査オブジェクトA」を検出する第1ニューラルネットワークNN1が生成される。
Specifically, the detection result of the first neural network NN1 is input to the first determiner DD1. The first determiner DD1 compares the detection result of the first neural network NN1 with the first teacher data LD1 included in the learning
一方、第2ニューラルネットワークNN2は、検査オブジェクトの状態、例えば「検査オブジェクトA」の状態変数「X」の状態、を分類するためのニューラルネットワークである。第2ニューラルネットワークNN2は、あらかじめ学習して生成された状態認識ニューラルネットワークSRNNを転移学習することによって得る。状態認識ニューラルネットワークSRNNは、所定の状態分類アルゴリズムを用い、「検査オブジェクトA」の状態変数「X」の状態を含む一般状態を分類するように学習したものである。 On the other hand, the second neural network NN2 is a neural network for classifying the state of the inspection object, for example, the state of the state variable "X" of "inspection object A". The second neural network NN2 is obtained by transfer-learning the state recognition neural network SRNN generated by learning in advance. The state recognition neural network SRNN is trained to classify general states including the state of state variable "X" of "inspection object A" using a predetermined state classification algorithm.
転移学習は、学習用データ31に含まれる学習用画像LGを第2ニューラルネットワークNN2に入力し、第2ニューラルネットワークNN2が「検査オブジェクトA」の状態変数「X」の状態を分類するように学習することによって、行われる。あるいは、学習用画像LGの入力に代えて、第1ニューラルネットワークNN1の検出結果から学習用画像LGにおける「検査オブジェクトA」の位置、個数等の情報が得られるので、この情報を用いて学習用画像LGから「検査オブジェクトA」の部分画像PLGを切り出し、この部分画像PLGを第2ニューラルネットワークNN2に入力してもよい。これにより、学習用画像LGにおける検査オブジェクトの数、位置、範囲等は捨象されるので、検査オブジェクトの状態の異なるバリエーションの部分画像PLGに基づく機械学習によって分類器33bを生成することにより、大量の学習用画像LGを必要とせずに、分類器33bを生成する分類器生成部42を容易に実現することができる。
In the transfer learning, the learning image LG included in the learning
第2ニューラルネットワークNN2の分類結果は、第2判定器DD2に入力される。第2判定器DD2において、第2ニューラルネットワークNN2の分類結果と、学習用データ31に含まれ、学習用画像LGに対応する第2教師データLD2とを比較し、一致するか否かが判定される。第2教師データLD2は、第1教師データLD1と同様に、学習用画像LGに付与された関連情報であり、図2に示す例では、第2教師データLD2として、「X1」又は「¬X1」のラベルが付与されている。そして、第2判定器DD2の判定結果を第2ニューラルネットワークNN2にフィードバックすることで、第2ニューラルネットワークNN2の重みが修正される。このような機械学習を複数の学習用画像LGについて行うことによって、「検査オブジェクトA」の状態変数「X」の状態を分類する第2ニューラルネットワークNN2が生成される。
The classification result of the second neural network NN2 is input to the second determiner DD2. In the second determiner DD2, the classification result of the second neural network NN2 is compared with the second teacher data LD2 included in the learning
図2に示す例では、第1ニューラルネットワークNN1及び第2ニューラルネットワークNN2を用いて検出器33a及び分類器33bを生成する例を示したが、これに限定されるものではない。検出器33a及び分類器33bを生成する機械学習モデルのアルゴリズムとして、例えば、サポートベクターマシン、ロジスティック回帰、ディープニューラルネットワーク等を用いるようにしてもよい。 Although the example shown in FIG. 2 shows an example in which the first neural network NN1 and the second neural network NN2 are used to generate the detector 33a and the classifier 33b, the present invention is not limited to this. For example, a support vector machine, a logistic regression, a deep neural network, or the like may be used as a machine learning model algorithm for generating the detector 33a and the classifier 33b.
(第1実施例)
第1実施例では、対象物のねじ穴を検査する画像検査器33を生成する場合について、説明する。図3に示すように、学習用画像LG1は、ねじ穴SH1,SH2,SH3の画像を含んでいる。検査基準として、例えば、「3つのねじ穴の位置が所定の位置になければNG」及び「ねじ穴の形状が変形していたらNG」が入力され、設定されている。この場合、図2に示す第1ニューラルネットワークNN1は、学習用画像LG1に含まれるねじ穴SH1,SH2,SH3を検出する。学習用画像LG1に対応する第1教師データLD1として「OK」又は「NG」のラベルが付与されている。第1ニューラルネットワークNN1のねじ穴SH1,SH2,SH3の検出結果と、第1教師データLD1のラベルとを比較した判定結果が、第1ニューラルネットワークNN1にフィードバックされる。これにより、ねじ穴SH1,SH2,SH3の検出率を高めるとともに、ねじ穴SH1,SH2,SH3の所定位置の許容範囲を学習することができる。
(First embodiment)
In the first embodiment, a case of generating an
また、学習用画像LG1のねじ穴SH1,SH2,SH3の部分画像が、第2ニューラルネットワークNN2に入力され、第2ニューラルネットワークNN2は、ねじ穴SH1,SH2,SH3の形状を分類する。学習用画像LG1に対応する第2教師データLD2として「変形」又は「¬変形」のラベルが付与されている。第2ニューラルネットワークNN2のねじ穴SH1,SH2,SH3の形状の分類結果と、第2教師データLD2のラベルとを比較した判定結果が、第2ニューラルネットワークNN2にフィードバックされる。これにより、ねじ穴SH1,SH2,SH3の形状の変形有無の分類精度を高めるとともに、ねじ穴SH1,SH2,SH3の形状変形の許容範囲を学習することができる。 Also, the partial images of the screw holes SH1, SH2, SH3 of the learning image LG1 are input to the second neural network NN2, and the second neural network NN2 classifies the shapes of the screw holes SH1, SH2, SH3. As the second teacher data LD2 corresponding to the learning image LG1, a label of "deformation" or "¬deformation" is given. A determination result obtained by comparing the shape classification result of the screw holes SH1, SH2, SH3 of the second neural network NN2 and the label of the second teacher data LD2 is fed back to the second neural network NN2. As a result, it is possible to improve the classification accuracy of whether or not the shapes of the screw holes SH1, SH2, and SH3 are deformed, and to learn the permissible range of shape deformation of the screw holes SH1, SH2, and SH3.
(第2実施例)
第2実施例では、対象物の賞味期限印字を検査する画像検査器33を生成する場合について、説明する。図4に示すように、学習用画像LG2は、賞味期限印字DA1の画像を含んでいる。検査基準として、例えば、「賞味期限印字の位置が所定の位置になければNG」及び「賞味期限印字の文字列が“2018.10.30”でなければNG」が入力され、設定されている。この場合、図2に示す第1ニューラルネットワークNN1は、学習用画像LG2に含まれる賞味期限印字DA1を検出する。学習用画像LG2に対応する第1教師データLD1として「OK」又は「NG」のラベルが付与されている。第1ニューラルネットワークNN1の賞味期限印字DA1の検出結果と、第1教師データLD1のラベルとを比較した判定結果が、第1ニューラルネットワークNN1にフィードバックされる。これにより、例えば文字のようにも見える図柄の水滴と文字列とを区別し、賞味期限印字DA1の検出率を高めるとともに、賞味期限印字DA1の印字位置及び所定位置の許容範囲を学習することができる。
(Second embodiment)
In the second embodiment, the case of generating the
また、学習用画像LG2の賞味期限印字DA1の部分画像が、第2ニューラルネットワークNN2に入力され、第2ニューラルネットワークNN2は、賞味期限印字DA1の文字列を分類する。学習用画像LG2に対応する第2教師データLD2として「2018.10.30」又は「¬2018.10.30」のラベルが付与されている。第2ニューラルネットワークNN2の賞味期限印字DA1の文字列の分類結果と、第2教師データLD2のラベルとを比較した判定結果が、第2ニューラルネットワークNN2にフィードバックされる。これにより、例えば“1”と“7”等の間違いやすい文字を識別し、賞味期限印字DA1の文字列の分類精度又は識別精度を高めるとともに、賞味期限印字DA1の文字列の文字パターンを学習することができる。 Also, the partial image of the expiration date print DA1 of the learning image LG2 is input to the second neural network NN2, and the second neural network NN2 classifies the character string of the expiration date print DA1. A label of “2018.10.30” or “¬2018.10.30” is given as the second teacher data LD2 corresponding to the learning image LG2. A result of comparison between the character string classification result of the expiration date print DA1 of the second neural network NN2 and the label of the second teacher data LD2 is fed back to the second neural network NN2. As a result, easily confused characters such as "1" and "7" are identified, the classification accuracy or identification accuracy of the character string of the expiration date print DA1 is improved, and the character pattern of the character string of the expiration date print DA1 is learned. be able to.
(第3実施例)
第3実施例では、対象物の塗布材料APPを検査する画像検査器33を生成する場合について、説明する。図5に示すように、学習用画像LG3は、塗布材料APPの画像を含んでいる。検査基準として、例えば、「塗布材料APPの最小幅が所定の値VA1未満であればNG」が入力され、設定されている。この場合、図2に示す第1ニューラルネットワークNN1は、学習用画像LG3に含まれる塗布材料APPを検出する。学習用画像LG3に対応する第1教師データLD1として「OK」又は「NG」のラベルが付与されている。第1ニューラルネットワークNN1の塗布材料APPの検出結果と、第1教師データLD1のラベルとを比較した判定結果が、第1ニューラルネットワークNN1にフィードバックされる。これにより、例えば塗布材料APPでない場所の誤検出、又は塗布材料APPの検出漏れを防ぎ、塗布材料APPの検出率を高めることができる。
(Third embodiment)
In the third embodiment, the case of generating the
また、学習用画像LG3の塗布材料APPの部分画像が、第2ニューラルネットワークNN2に入力され、第2ニューラルネットワークNN2は、塗布材料APPの最小幅を分類する。学習用画像LG3に対応する第2教師データLD2として「所定の値VA1以上」又は「所定の値VA1未満」のラベルが付与されている。第2ニューラルネットワークNN2の塗布材料APPの最小幅の分類結果又は推定結果と、第2教師データLD2のラベルとを比較した判定結果が、第2ニューラルネットワークNN2にフィードバックされる。これにより、塗布材料APPの最小幅の適切な範囲を学習することができる。 Also, the partial image of the coating material APP in the learning image LG3 is input to the second neural network NN2, and the second neural network NN2 classifies the minimum width of the coating material APP. A label of “predetermined value VA1 or more” or “less than predetermined value VA1” is given as the second teacher data LD2 corresponding to the learning image LG3. A result of comparison between the classification result or estimation result of the minimum width of the coating material APP of the second neural network NN2 and the label of the second teacher data LD2 is fed back to the second neural network NN2. This makes it possible to learn an appropriate range for the minimum width of the coating material APP.
なお、学習用データ31、検査基準32、及び画像検査器33の構造及び形式は、前述した例に限定されるものではない。例えば、学習用データ31、検査基準32、及び画像検査器33は、それぞれ、単なるデータであってもよいし、データベースであってもよい。また、学習用データ31、検査基準32、及び画像検査器33のうち、少なくとも一部がデータベースである場合、正規化を行い、データのグループ単位を細分化してもよい。
The structures and formats of the learning
図1の説明に戻り、画像検査装置90は、通信部60と、記憶部70と、出力部80と、制御部85と、を備える。また、画像検査装置90は、画像検査装置90の各部の間で信号やデータを伝送するように構成されたバス91をさらに備える。画像検査装置90は、画像検査器生成装置50によって生成された画像検査器33を備え、画像検査器33を用いて検査用画像71を検査するように構成されている。
Returning to the description of FIG. 1 , the
通信部60は、ネットワークNWを介してデータを通信(送受信)するように構成されている。より詳細には、通信部60は、1つ又は複数の所定の通信方式に基づいて、ネットワークNWに接続される画像検査器生成装置50とネットワークNWを介して通信可能に構成されている。
The
記憶部70は、プログラムやデータ等を記憶するように構成されている。記憶部70は、例えば、ハードディスクドライブ、ソリッドステートドライブ等を含んで構成される。記憶部70は、制御部85が実行する各種プログラムやプログラムの実行に必要なデータ等をあらかじめ記憶している。
The
また、記憶部70は、複数の検査基準32と、複数の画像検査器33と、複数の検査用画像71とを記憶している。検査基準32及び画像検査器33は、前述した画像検査器生成装置50から送信されたものである。画像検査装置90は、通信部60を用い、ネットワークNWを介して画像検査器生成装置50から検査基準32及び画像検査器33を受信し、受信した検査基準32及び画像検査器33を記憶部70に記憶させる。
The
出力部80は、検査基準32を出力するように構成されている。出力部80は、例えば、インターフェースと、外部の機器である出力装置と、を含んで構成される。インターフェースは、外部の機器との間でデータや信号をやり取りするように構成され、例えば、USB、HDMI(登録商標)、IEEE1394等の規格化されたインターフェースの接続端子を含んでいる。出力装置は、例えば、液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ等の表示装置と、スピーカー等の音声装置とを含んで構成される。出力装置は、制御部85から入力される情報のうち、文字、数字、記号等のテキスト、画像、及び動画の情報を表示装置に表示し、音声の情報をスピーカーから出力することで、情報を出力することが可能になる。
制御部85は、通信部60、記憶部70、及び出力部80等、画像検査装置90の各部の動作を制御するように構成されている。また、制御部85は、記憶部70に記憶されたプログラムを実行する等によって、後述する画像検査の機能を実現するように構成されている。制御部85は、例えば、CPU等のプロセッサ、ROM、RAM等のメモリ、及びバッファ等の緩衝記憶装置を含んで構成される。
The
また、制御部85は、画像検査器33を用いて検査用画像71を検査する画像検査の機能を有している。例えば、対象物のねじ穴を検査する場合、制御部85は、前述した第1実施例で生成された画像検査器33を用い、検査用画像71を検査する。この場合、検出器33aによって検査用画像71からねじ穴を検出し、制御部85は、検査基準32、例えば「3つのねじ穴の位置が所定の位置になければNG」と一致していたら欠陥あり、検査基準32と不一致ならば欠陥なしと判定する。これにより、ねじ穴の数及び位置が検査される。
The
このように、画像検査器33を用いて検査用画像71を検査することにより、検査精度の高い画像検査装置90を容易に実現することができる。
By inspecting the
また、制御部85は、分類器33bによって当該ねじ穴の形状を分類し、検査基準32、例えば「ねじ穴の形状が変形していたらNG」と一致していたら欠陥あり、検査基準32と不一致ならば欠陥なしと判定する。これにより、ねじ穴の形状変形の有無が検査される。さらに、判定の結果、検査用画像71のねじ穴に欠陥ありと判定された場合、制御部85は、欠陥ありと判定される原因となった検査基準32を出力部80に出力させる。これにより、欠陥ありと判定されたときに、その原因となった検査基準32を出力しない場合と比較して、画像検査器33を用いた検査結果は説明性を有する。この場合、例えばねじ穴が複数あるときに、どのねじ穴が変形していると判定されたのかが分かるように、制御部85は、検査基準32に添えて、変形しているねじ穴の場所、例えば、座標値、該当場所にマークを付した画像を出力してもよい。
In addition, the
次に、図6を参照しつつ、一実施形態に係る画像検査器生成装置の動作について説明する。図6は、一実施形態に係る画像検査器生成装置50の画像検査器33を生成する概略動作を示すフローチャートである。
Next, the operation of the image inspector generating apparatus according to one embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a schematic operation of generating the
例えば利用者(ユーザ)の操作によって画像検査器33の生成が選択されると、画像検査器生成装置50の制御部40は、図6に示す画像検査器生成処理S200を実行する。
For example, when generation of the
なお、以下の説明において、画像検査器生成装置50の記憶部30に、学習用データ31及び検査基準32があらかじめ記憶されているものとする。
In the following description, it is assumed that the learning
最初に、検出器生成部41は、検査基準32と学習用データ31に含まれる学習用画像LGとに基づく機械学習によって、画像に含まれる検査オブジェクトを検出する検出器33aを生成する(S201)。
First, the
次に、分類器生成部42は、検査基準32と学習用画像LGとに基づく機械学習によって、ステップS201で検出された検査オブジェクトの状態を分類する分類器33bを生成する(S202)。
Next, the
なお、学習用画像LGに対応する教師データは、学習用データ31に含まれる態様の他に、例えば、利用者(ユーザ)が表示装置等に表示される学習用画像LGを見ながら入力部20を介して逐次入力し、当該学習用画像LGに付与されてもよい。
Note that the teacher data corresponding to the learning image LG is not included in the learning
次に、制御部40は、ステップS201において生成された検出器33aと、ステップS202において生成された分類器33bとを含む画像検査器33を生成し、当該画像検査器33を記憶部30に記憶させる(S203)。
Next, the
ステップS203の後、制御部40は、画像検査器生成処理S200を終了する。
After step S203, the
なお、検査すべき検査オブジェクトが複数存在する場合、制御部40は、検査オブジェクトの個数に応じた回数分、ステップS201からステップS203を繰り返し、検査オブジェクトごとに画像検査器33を生成する。
Note that when there are a plurality of inspection objects to be inspected, the
また、ステップS203において記憶部30に記憶された画像検査器33は、ステップS203の後、すぐに画像検査装置90に送信してもよいし、複数の画像検査器33が生成されたときに、これらの画像検査器33をまとめて画像検査装置90に送信してもよい
Further, the
以上、本発明の例示的な実施形態について説明した。本発明の一実施形態に係る画像検査器生成装置50、画像検査器生成プログラム、及び画像検査器生成方法によれば、検査オブジェクトに対する検査基準32と学習用画像LGとに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器33が生成され、検査基準32は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む。このように、論理情報である検査基準32と学習用画像LGとに基づいて機械学習を行うことにより、学習用画像に基づいて機械学習を行う場合と比較して、機械学習の学習効率を向上させることが可能になる。従って、従来と比較して、大量の学習用画像LGを必要とせずに検査精度の高い画像検査器33を生成することができる。
Exemplary embodiments of the invention have been described above. According to the image
以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。各実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 Each of the embodiments described above is for facilitating understanding of the present invention, and is not for limiting interpretation of the present invention. Each element provided in each embodiment and its arrangement, materials, conditions, shape, size, etc. are not limited to those illustrated and can be changed as appropriate. Also, it is possible to partially replace or combine the configurations shown in different embodiments.
(附記)
1.検査オブジェクトに対する検査基準33と学習用画像LGとに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器33を生成する画像検査器生成部45を備え、
検査基準32は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む、
画像検査器生成装置50。
7.コンピュータに実行させる画像検査器生成プログラムであって、
検査オブジェクトに対する検査基準32と学習用画像LGとに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器33を生成する画像検査器生成ステップを含み、
検査基準32は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む、
画像検査器生成プログラム。
11.検査オブジェクトに対する検査基準32と学習用画像LGとに基づく機械学習によって、画像に含まれる検査オブジェクトを検査する画像検査器33を生成する画像検査器生成ステップを含み、
検査基準32は、検査オブジェクトの状態変数、当該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含む、
画像検査器生成方法。
(Appendix)
1. An image
The
7. An image inspector generation program to be executed by a computer,
An image inspector generating step for generating an
The
Image inspector generation program.
11. An image inspector generating step for generating an
The
Image inspector generation method.
10…通信部、20…入力部、30…記憶部、31…学習用データ、32…検査基準、33…画像検査器、33a…検出器、33b…分類器、40…制御部、41…検出器生成部、42…分類器生成部、45…画像検査器生成部、50…画像検査器生成装置、51…バス、60…通信部、70…記憶部、71…検査用画像、80…出力部、85…制御部、90…画像検査装置、91…バス、100…画像検査システム、A…検査オブジェクト、APP…塗布材料、B…検査オブジェクト、DA1…賞味期限印字、DD1…第1判定器、DD2…第2判定器、LD1…第1教師データ、LD2…第2教師データ、LG,LG1,LG2,LG3…学習用画像、NN1…第1ニューラルネットワーク、NN2…第2ニューラルネットワーク、NW…ネットワーク、ORNN…物体認識ニューラルネットワーク、PLG…部分画像、S200…画像検査器生成処理、SH1,SH2,SH3…ねじ穴、SRNN…状態認識ニューラルネットワーク、VA…値、X…状態変数、X1…状態値、Y…状態変数、Y1…状態値。
DESCRIPTION OF
Claims (7)
前記検査基準は、前記検査オブジェクトの状態変数、該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含み、
前記画像検査器は、検出器と分類器とを含み、
前記画像検査器生成部は、前記画像に含まれる前記検査オブジェクトを検出する前記検出器を生成する検出器生成部と、前記画像において前記検出された検査オブジェクトの状態を分類する前記分類器を生成する分類器生成部と、を含み、
前記分類器生成部は、前記画像において前記検出された検査オブジェクトの部分画像であって、前記画像から切り出された部分画像を入力とする機械学習によって、前記分類器を生成する、
画像検査器生成装置。 an image inspector generation unit that generates an image inspector that inspects the inspection object included in the image by machine learning based on the inspection standard for the inspection object and the learning image;
the inspection criteria includes information on the state variables of the inspection object, the state values of the state variables, and the class into which the inspection object is classified;
The image inspector includes a detector and a classifier,
The image inspector generation unit generates a detector generation unit that generates the detector that detects the inspection object included in the image, and a classifier that classifies the state of the inspection object detected in the image. and a classifier generator that
The classifier generation unit is a partial image of the inspection object detected in the image, and generates the classifier by machine learning using as input a partial image cut out from the image.
Image inspector generator.
請求項1に記載の画像検査器生成装置。 further comprising an input unit for inputting the inspection criteria;
The image inspector generating apparatus according to claim 1 .
前記画像検査器を用いて検査用画像を検査する、
画像検査装置。 The image inspector generated by the image inspector generation device according to claim 1 or 2 ,
inspecting an inspection image using the image inspector;
Image inspection equipment.
前記画像検査器を用いて検査した結果、前記検査用画像に欠陥ありと判定されたときに、前記複数の検査基準のうち、欠陥ありと判定される原因となった検査基準を出力する出力部をさらに備える、
請求項3に記載の画像検査装置。 The image inspector is generated by machine learning based on a plurality of the inspection criteria,
When it is determined that the inspection image has a defect as a result of inspection using the image inspector, an output unit that outputs, among the plurality of inspection standards, the inspection standard that caused the determination that there is a defect. further comprising
The image inspection apparatus according to claim 3 .
検査オブジェクトに対する検査基準と学習用画像とに基づく機械学習によって、画像に含まれる前記検査オブジェクトを検査する画像検査器を生成する画像検査器生成ステップ、を含み、
前記検査基準は、前記検査オブジェクトの状態変数、該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含み、
前記画像検査器は、検出器と分類器とを含み、
前記画像検査器生成ステップは、前記画像に含まれる前記検査オブジェクトを検出する前記検出器を生成する検出器生成ステップと、前記画像において前記検出された検査オブジェクトの状態を分類する前記分類器を生成する分類器生成ステップと、を含み、
前記分類器生成ステップは、前記画像において前記検出された検査オブジェクトの部分画像であって、前記画像から切り出された部分画像を入力とする機械学習によって、前記分類器を生成することを含む、
画像検査器生成プログラム。 An image inspector generation program to be executed by a computer,
an image inspector generation step of generating an image inspector for inspecting the inspection object included in the image by machine learning based on the inspection standard for the inspection object and the learning image;
the inspection criteria includes information on the state variables of the inspection object, the state values of the state variables, and the class into which the inspection object is classified;
The image inspector includes a detector and a classifier,
The image inspector generation step includes a detector generation step for generating the detector for detecting the inspection object included in the image, and a classifier for classifying the state of the inspection object detected in the image. and a classifier generation step for
The classifier generation step is a partial image of the inspection object detected in the image, and includes generating the classifier by machine learning using as input a partial image cut out from the image.
Image inspector generation program.
請求項5に記載の画像検査器生成プログラム。 further comprising an input step for inputting the inspection criteria;
The image inspector generating program according to claim 5 .
前記検査基準は、前記検査オブジェクトの状態変数、該状態変数の状態値、及び検査オブジェクトが分類されるクラスの情報を含み、
前記画像検査器は、検出器と分類器とを含み、
前記画像検査器生成ステップは、前記画像に含まれる前記検査オブジェクトを検出する前記検出器を生成する検出器生成ステップと、前記画像において前記検出された検査オブジェクトの状態を分類する前記分類器を生成する分類器生成ステップと、を含み、
前記分類器生成ステップは、前記画像において前記検出された検査オブジェクトの部分画像であって、前記画像から切り出された部分画像を入力とする機械学習によって、前記分類器を生成することを含む、
画像検査器生成方法。
an image inspector generation step of generating an image inspector for inspecting the inspection object included in the image by machine learning based on the inspection standard for the inspection object and the learning image;
the inspection criteria includes information on the state variables of the inspection object, the state values of the state variables, and the class into which the inspection object is classified;
The image inspector includes a detector and a classifier,
The image inspector generation step includes a detector generation step for generating the detector for detecting the inspection object included in the image, and a classifier for classifying the state of the inspection object detected in the image. and a classifier generation step for
The classifier generation step is a partial image of the inspection object detected in the image, and includes generating the classifier by machine learning using as input a partial image cut out from the image.
Image inspector generation method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018242918A JP7128107B2 (en) | 2018-12-26 | 2018-12-26 | Image inspection device generation device, image inspection device, image inspection device generation program, and image inspection device generation method |
PCT/JP2019/048327 WO2020137526A1 (en) | 2018-12-26 | 2019-12-10 | Image inspection instrument generation device, image inspection device, image inspection instrument generation program, and image inspection instrument generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018242918A JP7128107B2 (en) | 2018-12-26 | 2018-12-26 | Image inspection device generation device, image inspection device, image inspection device generation program, and image inspection device generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020106935A JP2020106935A (en) | 2020-07-09 |
JP7128107B2 true JP7128107B2 (en) | 2022-08-30 |
Family
ID=71126579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018242918A Active JP7128107B2 (en) | 2018-12-26 | 2018-12-26 | Image inspection device generation device, image inspection device, image inspection device generation program, and image inspection device generation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7128107B2 (en) |
WO (1) | WO2020137526A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7266146B2 (en) | 2020-03-31 | 2023-04-27 | 本田技研工業株式会社 | Intake purification device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022009542A1 (en) * | 2020-07-10 | 2022-01-13 | パナソニックIpマネジメント株式会社 | Information processing device, information processing method, and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6336391B2 (en) * | 2012-09-06 | 2018-06-06 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP6669453B2 (en) * | 2015-09-08 | 2020-03-18 | 株式会社Screenホールディングス | Image classification device and image classification method |
JP6597972B2 (en) * | 2016-03-23 | 2019-10-30 | 株式会社Screenホールディングス | Image processing apparatus and image processing method |
JP6735592B2 (en) * | 2016-04-08 | 2020-08-05 | キヤノン株式会社 | Image processing apparatus, control method thereof, and image processing system |
JP2018022216A (en) * | 2016-08-01 | 2018-02-08 | ソニー株式会社 | Information processing device, information processing method, and program |
JP6889841B2 (en) * | 2017-03-01 | 2021-06-18 | オムロン株式会社 | Learning device, learning result utilization device, learning method and learning program |
-
2018
- 2018-12-26 JP JP2018242918A patent/JP7128107B2/en active Active
-
2019
- 2019-12-10 WO PCT/JP2019/048327 patent/WO2020137526A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7266146B2 (en) | 2020-03-31 | 2023-04-27 | 本田技研工業株式会社 | Intake purification device |
Also Published As
Publication number | Publication date |
---|---|
JP2020106935A (en) | 2020-07-09 |
WO2020137526A1 (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878283B2 (en) | Data generation apparatus, data generation method, and data generation program | |
Mathew et al. | Multilingual OCR for Indic scripts | |
US9886669B2 (en) | Interactive visualization of machine-learning performance | |
JP7128107B2 (en) | Image inspection device generation device, image inspection device, image inspection device generation program, and image inspection device generation method | |
CN107423278B (en) | Evaluation element identification method, device and system | |
TW202129528A (en) | System and method for classifying products | |
ITRM20130022A1 (en) | PROCEDURE AND HAND-WRITING APPROVAL | |
JP6584250B2 (en) | Image classification method, classifier configuration method, and image classification apparatus | |
KR102246085B1 (en) | Anomaly detection | |
KR102078133B1 (en) | Method for detecting anomaly of data | |
WO2019209276A1 (en) | Identifying differences between images | |
JP2019106119A (en) | Detection system, information processing apparatus, evaluation method, and program | |
JP7422548B2 (en) | Label noise detection program, label noise detection method, and label noise detection device | |
JP6866930B2 (en) | Production equipment monitoring equipment, production equipment monitoring method and production equipment monitoring program | |
US20220188707A1 (en) | Detection method, computer-readable recording medium, and computing system | |
JP5354747B2 (en) | Application state recognition method, apparatus and program | |
CN113128565B (en) | Automatic image annotation system and device oriented to agnostic pre-training annotation data | |
US20170031457A1 (en) | Method for inputting multi-language texts | |
JP2007334719A (en) | Missing value complementary system for gene expression analysis | |
ITRM930179A1 (en) | APPARATUS AND PROCEDURE FOR THE RECOGNITION OF MANUSCRIPT CHARACTERS. | |
US9384729B2 (en) | Method and system for detecting boundary of coarticulated units from isolated speech | |
KR102488049B1 (en) | Automatic recognition system of text information based on deep learning model and automatic recognition method | |
JP7400827B2 (en) | Detection method, detection program and information processing device | |
Ligsay et al. | Optical Character Recognition of Baybayin Writing System using YOLOv3 Algorithm | |
JP2021135798A (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210118 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211122 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211122 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211201 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211202 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20211224 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220105 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220516 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220627 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220721 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7128107 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |