JP2020030145A - Inspection apparatus and inspection system - Google Patents

Inspection apparatus and inspection system Download PDF

Info

Publication number
JP2020030145A
JP2020030145A JP2018156687A JP2018156687A JP2020030145A JP 2020030145 A JP2020030145 A JP 2020030145A JP 2018156687 A JP2018156687 A JP 2018156687A JP 2018156687 A JP2018156687 A JP 2018156687A JP 2020030145 A JP2020030145 A JP 2020030145A
Authority
JP
Japan
Prior art keywords
inspection
image data
test
processing unit
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018156687A
Other languages
Japanese (ja)
Inventor
孝志 梶丸
Takashi Kajimaru
孝志 梶丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Device Ltd
Original Assignee
Tokyo Electron Device Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Device Ltd filed Critical Tokyo Electron Device Ltd
Priority to JP2018156687A priority Critical patent/JP2020030145A/en
Publication of JP2020030145A publication Critical patent/JP2020030145A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

To provide an inspection apparatus and an inspection system that can quickly perform inspection of a plurality of kinds of objects.SOLUTION: An inspection apparatus according to an embodiment comprises: a plurality of recognition processing units that extract image data of a corresponding object from the image data; a plurality of inspection processing units that perform inspection corresponding to the object on the basis of the image data of the object; and a control unit that controls the plurality of recognition processing units and the plurality of inspection processing units.SELECTED DRAWING: Figure 5

Description

本発明は、検査装置及び検査システムに関する。   The present invention relates to an inspection device and an inspection system.

従来、製造ライン上を搬送される対象物を撮影装置で撮影し、得られた画像データに基づいて対象物を検査する検査システムが利用されている。検査システムは、画像データに基づいて、対象物を認識し、認識した対象物に予め用意された検査モデルを適用することにより、当該対象物の検査を行うことができる。   2. Description of the Related Art Conventionally, an inspection system has been used in which an object conveyed on a manufacturing line is photographed by a photographing device, and the object is inspected based on obtained image data. The inspection system can perform an inspection of the target object by recognizing the target object based on the image data and applying a prepared inspection model to the recognized target object.

特開平11−110560号公報JP-A-11-110560

しかしながら、従来の検査システムは、対象物の認識や検査モデルの適用を1つのソフトウェアにより実行していたため、複数種類の対象物が同時に撮影された場合、処理に時間がかかり、検査の実行が困難になった。このため、従来の検査システムを利用する場合には、製造ライン上で複数種類の対象物が同時に撮影されないように、対象物を整列させる必要があった。   However, in the conventional inspection system, the recognition of the object and the application of the inspection model are performed by one software. Therefore, when a plurality of types of objects are photographed at the same time, it takes time to perform the processing, and it is difficult to perform the inspection. Became. For this reason, when using the conventional inspection system, it is necessary to align the objects so that a plurality of types of objects are not photographed simultaneously on the production line.

本発明は、上記の課題に鑑みてなされたものであり、複数種類の対象物の検査を迅速に実行可能な検査装置及び検査システムを提供することを目的とする。   The present invention has been made in view of the above problems, and has as its object to provide an inspection apparatus and an inspection system that can quickly execute inspection of a plurality of types of objects.

一実施形態に係る検査装置は、画像データから、対応する対象物の画像データを抽出する複数の認識処理部と、前記対象物の画像データに基づいて、前記対象物に対応する検査を実行する複数の検査処理部と、前記複数の認識処理部及び前記複数の検査処理部を制御する制御部と、を備える。   An inspection device according to one embodiment performs a plurality of recognition processing units that extract image data of a corresponding object from image data, and performs an inspection corresponding to the object based on the image data of the object. A plurality of inspection processing units, and a control unit that controls the plurality of recognition processing units and the plurality of inspection processing units are provided.

本発明の各実施形態によれば、複数種類の対象物の検査を迅速に実行可能な検査装置及び検査システムを提供できる。   According to each embodiment of the present invention, it is possible to provide an inspection apparatus and an inspection system that can quickly execute inspection of a plurality of types of objects.

検査システムの概略構成を示す図。The figure which shows the schematic structure of an inspection system. 検査モデル管理テーブルの一例を示す図。The figure which shows an example of a test model management table. 検査装置管理テーブルの一例を示す図。The figure which shows an example of an inspection device management table. 検査装置管理テーブルの一例を示す図。The figure which shows an example of an inspection device management table. 検査装置のハードウェア構成の一例を示す図。FIG. 3 is a diagram illustrating an example of a hardware configuration of the inspection device. 学習装置のハードウェア構成の一例を示す図。FIG. 2 is a diagram illustrating an example of a hardware configuration of a learning device. 検査装置及び撮影装置の動作の一例を示すフローチャート。5 is a flowchart illustrating an example of an operation of the inspection device and the imaging device. 学習装置の動作の一例を示すフローチャート。9 is a flowchart illustrating an example of the operation of the learning device. 管理装置の動作の一例を示すフローチャート。9 is a flowchart illustrating an example of an operation of the management device.

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重畳した説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the specification and the drawings according to the embodiments, components having substantially the same function and configuration are denoted by the same reference numerals, and overlapping descriptions will be omitted.

一実施形態に係る検査システム100について、図1〜図9を参照して説明する。本実施形態に係る検査システム100は、製造ライン上を搬送される対象物の画像データに基づいて、当該対象物の検査を実行するシステムである。対象物の検査は、欠陥検査、傷検査、汚れ検査、異物検査、方向判別検査、裏表検査、形状検査、異物混入検査、文字認識・文字照合検査、寸法検査、色識別検査、及び位置決め検査を含む。本実施形態では、製造ライン上を複数種類の対象物が搬送される場合を想定している。   An inspection system 100 according to one embodiment will be described with reference to FIGS. The inspection system 100 according to the present embodiment is a system that performs inspection of an object based on image data of the object conveyed on a manufacturing line. Object inspection includes defect inspection, scratch inspection, dirt inspection, foreign matter inspection, orientation discrimination inspection, front and back inspection, shape inspection, foreign matter contamination inspection, character recognition / character collation inspection, dimension inspection, color identification inspection, and positioning inspection. Including. In the present embodiment, it is assumed that a plurality of types of objects are transported on a production line.

まず、本実施形態に係る検査システム100の概略構成について説明する。図1は、検査システム100の概略構成を示す図である。図1の検査システム100は、検査装置1と、学習装置2と、管理装置3と、撮影装置4と、を備える。検査装置1、学習装置2、管理装置3、及び撮影装置4は、LAN(Local Area Network)やインターネットなどのネットワークにより接続される。以下、図1に示すように、製造ライン上を3種類の対象物P1〜P3が搬送され、対象物P1に対して検査T1が実行され、対象物P2に対して検査T2が実行され、対象物P3に対して検査T3,T4が実行される場合を例に説明する。   First, a schematic configuration of an inspection system 100 according to the present embodiment will be described. FIG. 1 is a diagram showing a schematic configuration of the inspection system 100. The inspection system 100 in FIG. 1 includes an inspection device 1, a learning device 2, a management device 3, and an imaging device 4. The inspection device 1, the learning device 2, the management device 3, and the imaging device 4 are connected by a network such as a LAN (Local Area Network) or the Internet. Hereinafter, as shown in FIG. 1, three types of objects P1 to P3 are transported on the manufacturing line, an inspection T1 is performed on the object P1, an inspection T2 is performed on the object P2, and A case where the inspections T3 and T4 are performed on the object P3 will be described as an example.

検査装置1は、撮影装置4から入力された画像データに基づいて、当該対象物Pの検査Tを実行するコンピュータである。検査装置1は、PC(Personal Computer)、サーバ、又は専用端末であるが、これに限られない。また、検査装置1は、ネットワークにより接続された複数のコンピュータにより構成されてもよい。検査装置1は、対象物Pの種類ごとに予め設定された検査Tを実行する。検査装置1は、上記の検査T3,T4のように、1種類の対象物Pに対して複数の検査Tを実行してもよい。検査装置1は、検査Tを実行すると、検査結果データを出力する。検査結果データは、検査対象となった対象物Pの画像データと、検査結果(ラベル)を示すデータと、を含むデータである。   The inspection device 1 is a computer that executes an inspection T of the object P based on image data input from the imaging device 4. The inspection device 1 is a PC (Personal Computer), a server, or a dedicated terminal, but is not limited thereto. Further, the inspection device 1 may be configured by a plurality of computers connected by a network. The inspection device 1 performs an inspection T set in advance for each type of the object P. The inspection apparatus 1 may execute a plurality of inspections T on one type of target P as in the inspections T3 and T4 described above. When the inspection device 1 executes the inspection T, the inspection device 1 outputs inspection result data. The inspection result data is data including image data of the inspection target object P and data indicating the inspection result (label).

上記のように、対象物P1の検査として検査T1、対象物P2の検査として検査T2、対象物P3の検査として検査T3,T4が予め設定されている場合、検査装置1は、4種類の検査を実行する。この場合、検査装置1は、撮影装置4から対象物P1の画像データを入力されると、検査T1を実行し、検査T1の検査結果データをそれぞれ出力する。検査装置1が出力した検査結果データは、学習装置2に入力される。   As described above, when the inspection T1 is set as the inspection of the object P1, the inspection T2 is set as the inspection of the object P2, and the inspections T3 and T4 are set as the inspection of the object P3, the inspection apparatus 1 performs four types of inspections. Execute In this case, when receiving the image data of the object P1 from the photographing device 4, the inspection device 1 executes the inspection T1 and outputs the inspection result data of the inspection T1. The inspection result data output from the inspection device 1 is input to the learning device 2.

学習装置2は、1つ又は複数の検査装置1から入力された検査Tの検査結果データに基づいて、対象物Pの画像データと検査Tの検査結果との関係を学習(教師あり学習)し、対象物Pに対して検査Tを実行するための検査モデルを生成するコンピュータである。学習装置2は、PC、サーバ、又は専用端末であるが、これに限られない。また、学習装置2は、ネットワークにより接続された複数のコンピュータにより構成されてもよい。   The learning device 2 learns the relationship between the image data of the object P and the test result of the test T based on the test result data of the test T input from one or more test devices 1 (supervised learning). , A computer that generates an inspection model for performing the inspection T on the object P. The learning device 2 is a PC, a server, or a dedicated terminal, but is not limited thereto. Further, the learning device 2 may be configured by a plurality of computers connected by a network.

検査モデルは、画像データに応じた検査結果を出力する数学的モデルである。検査モデルの生成は、検査モデルのパラメータの最適化に相当する。学習装置2は、検査モデルのパラメータを最適化可能な任意の機械学習方法(アルゴリズム)を利用することができる。機械学習方法は、サポートベクターマシン、決定木、ランダムフォレスト、ニューラルネットワーク、ディープラーニング、及びk近傍法を含む。学習装置2は、対象物Pの種類ごと、かつ、検査Tの種類ごとに、検査モデルを生成する。   The inspection model is a mathematical model that outputs an inspection result according to the image data. Generation of the inspection model corresponds to optimization of the parameters of the inspection model. The learning device 2 can use any machine learning method (algorithm) that can optimize the parameters of the inspection model. Machine learning methods include support vector machines, decision trees, random forests, neural networks, deep learning, and k-nearest neighbors. The learning device 2 generates an inspection model for each type of the object P and each type of the inspection T.

学習装置2は、検査結果データを入力されると、当該検査結果データの中から学習データを選択する。学習データは、検査結果が正しいと考えられる検査結果データである。学習装置2は、検査結果データに含まれる画像データを学習データ選択用に予め用意された検査Tの検査モデルに入力し、検査Tの検査結果を取得する。学習データ選択用の検査モデルは、検査装置1が利用する検査モデルとは異なる検査モデルであるのが好ましい。学習装置2は、学習データ選択用の検査モデルにより得られた検査結果と、検査結果データに含まれる検査結果と、が一致する場合、検査結果データに含まれる検査結果が正しいと判断し、当該検査結果データを学習データとして選択する。これは、複数の検査モデルにより得られた検査結果が同一である場合、当該検査結果は正しいと考えられるためである。なお、学習データの選択方法は上記の例に限ら得ない。例えば、学習データは、検査結果データの中から、学習装置2のユーザにより手動で選択されてもよい。また、学習データの選択は、管理装置3により行われてもよい。学習装置2は、学習データが更新されると、更新された学習データに基づいて、検査モデルを生成し、当該検査モデルを出力する。学習装置2が出力した検査モデルは管理装置3に入力される。   Upon receiving the test result data, the learning device 2 selects learning data from the test result data. The learning data is test result data for which the test result is considered to be correct. The learning device 2 inputs the image data included in the test result data to the test model of the test T prepared in advance for selecting the learning data, and acquires the test result of the test T. It is preferable that the test model for selecting learning data is a test model different from the test model used by the test apparatus 1. When the test result obtained by the test model for selecting the learning data and the test result included in the test result data match, the learning device 2 determines that the test result included in the test result data is correct, and Inspection result data is selected as learning data. This is because when the test results obtained by a plurality of test models are the same, the test results are considered to be correct. The method of selecting learning data is not limited to the above example. For example, the learning data may be manually selected by the user of the learning device 2 from the test result data. The selection of the learning data may be performed by the management device 3. When the learning data is updated, the learning device 2 generates a test model based on the updated learning data, and outputs the test model. The test model output by the learning device 2 is input to the management device 3.

管理装置3は、学習装置2から入力された検査モデルを管理するコンピュータである。管理装置3は、PC、サーバ、又は専用端末であるが、これに限られない。また、管理装置3は、ネットワークにより接続された複数のコンピュータにより構成されてもよい。   The management device 3 is a computer that manages the test model input from the learning device 2. The management device 3 is a PC, a server, or a dedicated terminal, but is not limited thereto. Further, the management device 3 may be configured by a plurality of computers connected by a network.

管理装置3は、学習装置2から新たな検査モデルを入力されると、予め用意されたテストデータに基づいて、新たな検査モデルの検査精度を算出する。テストデータは、対象物Pの画像データと、正しいと考えられる検査結果を示すデータと、を含むデータである。管理装置3は、テストデータに含まれる対象物Pの画像データを検査モデルに入力することにより得られた検査結果と、テストデータに含まれる対象物Pの画像データに対応する検査結果と、を比較することにより、検出精度を算出することができる。また、管理装置3は、新たな検査モデルにバージョンを割り当てる。そして、管理装置3は、新たな検査モデルと、新たな検査モデルの検査精度と、新たな検査モデルのバージョンと、を関連付けて記憶する。   When a new test model is input from the learning device 2, the management device 3 calculates the test accuracy of the new test model based on test data prepared in advance. The test data is data including image data of the object P and data indicating an inspection result considered to be correct. The management device 3 compares the inspection result obtained by inputting the image data of the object P included in the test data into the inspection model, and the inspection result corresponding to the image data of the object P included in the test data. By performing the comparison, the detection accuracy can be calculated. Further, the management device 3 assigns a version to the new inspection model. Then, the management device 3 stores the new inspection model, the inspection accuracy of the new inspection model, and the version of the new inspection model in association with each other.

管理装置3は、検査モデルを検査Tのバージョンごとに管理する検査モデル管理テーブルを備える。検査モデル管理テーブルは、管理装置3のHDD上に設けられる。図2は、検査モデル管理テーブルの一例を示す図である。図2の例では、検査Tと、検査モデルのバージョン(ver)と、検査モデル(パラメータ値)と、検査精度(Ac)と、が関連付けられている。図2におけるa1,b1は検査T1の検査モデルのパラメータであり、a2,b2は検査T2の検査モデルのパラメータであり、a3,b3は検査T3の検査モデルのパラメータである。例えば、検査T1の検査モデルのバージョン1は、a1=1,b1=2の検査モデルであり、検査精度が70%である。管理装置3は、図2の例のように、複数種類の検査Tの検査モデルを、バージョンごとに管理する。   The management device 3 includes a test model management table that manages a test model for each version of the test T. The test model management table is provided on the HDD of the management device 3. FIG. 2 is a diagram illustrating an example of the inspection model management table. In the example of FIG. 2, the inspection T, the inspection model version (ver), the inspection model (parameter value), and the inspection accuracy (Ac) are associated with each other. In FIG. 2, a1 and b1 are parameters of the inspection model of the inspection T1, a2 and b2 are parameters of the inspection model of the inspection T2, and a3 and b3 are parameters of the inspection model of the inspection T3. For example, version 1 of the test model of test T1 is a test model of a1 = 1 and b1 = 2, and has a test accuracy of 70%. The management device 3 manages, for each version, test models of a plurality of types of tests T as in the example of FIG.

また、管理装置3は、検査装置1が利用する検査モデルのバージョンを検査Tごとに管理する検査装置管理テーブルを備える。検査装置管理テーブルは、管理装置3のHDD上に設けられる。図3は、検査装置1管理テーブルの一例を示す図である。図3の例では、検査装置1の識別情報(ID)と、検査処理部123の識別情報(id)と、検査Tの種類と、検査モデルのバージョン(ver)と、が関連付けられている。図3における、検査装置D1(識別情報がD1である検査装置1)は、検査処理部123a〜123d(識別情報がa〜dである検査処理部123)により、対象物Pにそれぞれ検査T1〜T4を実行する検査装置1であり、検査処理部123aが検査T1の検査モデルとしてバージョン1を利用する。管理装置3は、図3の例のように、複数の検査装置1について、各検査処理部123が利用する検査モデルのバージョンを、検査Tごとに管理する。   In addition, the management device 3 includes an inspection device management table that manages the version of the inspection model used by the inspection device 1 for each inspection T. The inspection device management table is provided on the HDD of the management device 3. FIG. 3 is a diagram illustrating an example of the inspection device 1 management table. In the example of FIG. 3, the identification information (ID) of the inspection apparatus 1, the identification information (id) of the inspection processing unit 123, the type of the inspection T, and the version (ver) of the inspection model are associated with each other. In FIG. 3, the inspection apparatus D1 (the inspection apparatus 1 whose identification information is D1) is configured such that the inspection processing units 123a to 123d (the inspection processing units 123 whose identification information is a to d) perform inspections T1 to T1 on the object P, respectively. The inspection apparatus 1 executes T4, and the inspection processing unit 123a uses version 1 as an inspection model of the inspection T1. The management device 3 manages the version of the inspection model used by each inspection processing unit 123 for each inspection T for a plurality of inspection devices 1 as in the example of FIG.

また、管理装置3は、所定のタイミングで、検査装置1が利用する検査モデルを更新する。所定のタイミングは、学習装置2により生成された新たな検査モデルが管理装置3に入力されたタイミング、検査装置1が起動したタイミング、検査装置1の後述する検査ボード12が起動したタイミング、及び管理装置3のユーザから要求されたタイミングを含む。また、管理装置3は、定期的に検査装置1が利用する検査モデルを更新してもよい。   Further, the management device 3 updates the inspection model used by the inspection device 1 at a predetermined timing. The predetermined timing is a timing at which a new inspection model generated by the learning device 2 is input to the management device 3, a timing at which the inspection device 1 is activated, a timing at which an inspection board 12 of the inspection device 1 described later is activated, and This includes the timing requested by the user of the device 3. Further, the management device 3 may periodically update the inspection model used by the inspection device 1.

具体的には、管理装置3は、検査装置1が利用する検査Tの検査モデルを、検査Tの検査モデルの中で最も検査精度が高いバージョンに更新する。図2及び図3の例では、検査装置D1が利用する検査T1の検査モデルはバージョン2に更新され、検査T2の検査モデルはバージョン2に更新され、検査T3の検査モデルはバージョン1に維持される。すなわち、図3の検査モデル管理テーブルは、図4に示すように更新される。管理装置3が検査モデルを更新することにより、検査装置1は、学習装置2により生成された検査精度が最も高い検査モデルを利用して、検査Tを実行することができる。   Specifically, the management device 3 updates the test model of the test T used by the test device 1 to a version having the highest test accuracy among the test models of the test T. 2 and 3, the test model of the test T1 used by the test apparatus D1 is updated to version 2, the test model of the test T2 is updated to version 2, and the test model of the test T3 is maintained at version 1. You. That is, the test model management table in FIG. 3 is updated as shown in FIG. When the management device 3 updates the test model, the test device 1 can execute the test T using the test model with the highest test accuracy generated by the learning device 2.

撮影装置4は、対象物Pを撮影するカメラであり、対象物Pを撮影可能なように製造ラインに設置される。撮影装置4は、有線又は無線により検査装置1に接続される。撮影装置4は、定期的(例えば、1秒ごと)に、又は所定のタイミングで撮影を実行し、撮影により得られた画像データを出力してもよいし、継続的に動画を撮影し、撮影により得られた動画データ(画像データ)を出力してもよい。所定のタイミングは、例えば、対象物Pが撮影装置4による撮影位置に到着したタイミングである。対象物Pが撮影位置に到着したことを検出するセンサ(画像センサや赤外線センサなど)を製造ラインに設け、対象物Pの到着をセンサが撮影装置4に通知することにより、撮影装置4は当該タイミングに撮影を実行することができる。撮影装置4の撮影により得られた画像データは、検査装置1に入力される。撮影装置4は、撮像素子としてCCDイメージセンサ又はCMOSイメージセンサを備えたカメラであるが、これに限られない。なお、撮影装置4が製造ラインに複数設置され、各撮影装置から検査装置1に画像データが入力されてもよい。   The image capturing device 4 is a camera that captures an image of the object P, and is installed on a production line so that the image of the object P can be captured. The imaging device 4 is connected to the inspection device 1 by wire or wirelessly. The photographing device 4 may perform photographing periodically (for example, every one second) or at a predetermined timing, and output image data obtained by photographing, or continuously photograph a moving image, and perform photographing. The moving image data (image data) obtained by the above may be output. The predetermined timing is, for example, a timing at which the target object P arrives at a shooting position of the shooting device 4. A sensor (an image sensor, an infrared sensor, or the like) for detecting that the object P has arrived at the image capturing position is provided on the manufacturing line, and the sensor notifies the image capturing device 4 of the arrival of the object P. Photographing can be performed at the timing. Image data obtained by the photographing of the photographing device 4 is input to the inspection device 1. The photographing device 4 is a camera provided with a CCD image sensor or a CMOS image sensor as an image sensor, but is not limited to this. Note that a plurality of photographing devices 4 may be installed on the production line, and image data may be input to the inspection device 1 from each photographing device.

なお、以上では、検査装置1、学習装置2、及び管理装置3が、それぞれ独立したコンピュータである場合を例に説明したが、検査装置1、学習装置2、及び管理装置3の少なくとも2つが、1つのコンピュータにより構成されてもよい。   In the above, the case where the inspection device 1, the learning device 2, and the management device 3 are independent computers has been described as an example, but at least two of the inspection device 1, the learning device 2, and the management device 3 are: It may be constituted by one computer.

次に、検査システム100のハードウェア構成について説明する。図5は、検査装置1のハードウェア構成の一例を示す図である。図5の検査装置1は、メインボード(メイン基板)11と、検査ボード(検査基板)12と、を備える。メインボード11は汎用的な処理を実行する基板であり、検査ボード12は検査Tを実行する基板である。メインボード11と検査ボード12とを分けて構成することにより、メインボード11を備える汎用コンピュータ(PCなど)に検査ボード12を接続するだけで、容易かつ安価に検査装置1を構成することができる。   Next, a hardware configuration of the inspection system 100 will be described. FIG. 5 is a diagram illustrating an example of a hardware configuration of the inspection device 1. The inspection apparatus 1 of FIG. 5 includes a main board (main board) 11 and an inspection board (inspection board) 12. The main board 11 is a board that executes general-purpose processing, and the inspection board 12 is a board that executes an inspection T. By configuring the main board 11 and the inspection board 12 separately, the inspection apparatus 1 can be easily and inexpensively configured simply by connecting the inspection board 12 to a general-purpose computer (such as a PC) having the main board 11. .

メインボード11は、後述する認識処理部11及び検査処理部123を制御する制御部に相当する。メインボード11は、CPU(Central Processing Unit)111と、RAM(Random Access Memory)112と、ROM(Read Only Memory)113と、HDD(Hard Disk Drive)114と、接続インタフェース115と、入力装置116と、表示装置117と、通信インタフェース118と、バス119と、を備える。   The main board 11 corresponds to a control unit that controls the recognition processing unit 11 and the inspection processing unit 123 described below. The main board 11 includes a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112, a ROM (Read Only Memory) 113, a HDD (Hard Disk Drive) 114, a connection interface 115, an input device 116, , A display device 117, a communication interface 118, and a bus 119.

CPU111は、プログラムを実行することにより、検査装置1の各構成を制御し、検査装置1の機能を実現する。CPU111が実行するプログラムは、CD(Compact Disk)、DVD、フラッシュメモリなどの、コンピュータ読み取り可能な任意の記録媒体に記録され得る。   The CPU 111 controls each component of the inspection apparatus 1 by executing the program, and realizes the function of the inspection apparatus 1. The program executed by the CPU 111 can be recorded on an arbitrary computer-readable recording medium such as a CD (Compact Disk), a DVD, and a flash memory.

RAM112は、CPU111に作業領域を提供する。   The RAM 112 provides the CPU 111 with a work area.

ROM113は、CPU111が実行するプログラムや各種のデータを記憶する。   The ROM 113 stores programs executed by the CPU 111 and various data.

HDD114は、CPU111が実行するプログラムや各種のデータ(画像データなど)を記憶する。検査装置1は、HDD114と共に、又はHDD114の代わりにSSDを備えてもよいが、これに限られない。   The HDD 114 stores programs executed by the CPU 111 and various data (image data and the like). The inspection device 1 may include an SSD together with or instead of the HDD 114, but is not limited thereto.

接続インタフェース115は、メインボード11を検査ボード12に接続し、ボード間の通信を制御する。   The connection interface 115 connects the main board 11 to the inspection board 12 and controls communication between the boards.

入力装置116は、ユーザの操作に応じた情報を検査装置1に入力する。入力装置116は、タッチパッド、キーボード、マウス、又はハードウェアボタンであるが、これに限られない。   The input device 116 inputs information according to a user operation to the inspection device 1. The input device 116 is a touchpad, a keyboard, a mouse, or a hardware button, but is not limited thereto.

表示装置117は、ユーザの操作に応じた画面を表示する。表示装置117は、液晶ディスプレイ、又は有機ELディスプレイであるが、これに限られない。検査装置1は、タッチパッドと表示装置117が一体化されたタッチパネルを備えてもよい。   The display device 117 displays a screen according to a user operation. The display device 117 is a liquid crystal display or an organic EL display, but is not limited thereto. The inspection device 1 may include a touch panel in which the touch pad and the display device 117 are integrated.

通信インタフェース118は、検査装置1をネットワークに接続し、ネットワーク上の外部装置との通信を制御する。検査装置1は、通信インタフェース118を介して、撮影装置4や学習装置2などの外部装置と通信する。   The communication interface 118 connects the inspection device 1 to a network and controls communication with an external device on the network. The inspection device 1 communicates with an external device such as the imaging device 4 and the learning device 2 via the communication interface 118.

バス119は、CPU111、RAM112、ROM113、HDD114、接続インタフェース115、入力装置116、表示装置117、及び通信インタフェース118を相互に接続する。   The bus 119 connects the CPU 111, the RAM 112, the ROM 113, the HDD 114, the connection interface 115, the input device 116, the display device 117, and the communication interface 118 to each other.

検査ボード12は、接続インタフェース121と、認識処理部122a〜122cと、検査処理部123a〜123dと、バス124と、を備える。   The inspection board 12 includes a connection interface 121, recognition processing units 122a to 122c, inspection processing units 123a to 123d, and a bus 124.

接続インタフェース121は、検査ボード12をメインボード11に接続し、ボード間の通信を制御する。   The connection interface 121 connects the inspection board 12 to the main board 11 and controls communication between the boards.

認識処理部122は、撮影装置4から入力された画像データに基づいて、対応する対象物Pの認識処理を実行する専用のプロセッサである。具体的には、認識処理部122は、撮影装置4から入力された画像データの中から対象物Pの画像データを検出し、抽出する。検査装置1は、パターンマッチングやディープラーニングなどの周知の任意の方法により、認識処理を実行できる。認識処理部122は、CPU、GPU、FPGA(Field Programmable Gate Array)、又はASIC(Application Specific Integrated Circuit)であるが、これに限られない。認識処理部122はROM及びRAMを内蔵されていてもよいし、認識処理部122に対応するROM及びRAMが検査ボード12に実装されてもよい。   The recognition processing unit 122 is a dedicated processor that executes recognition processing of the corresponding target object P based on image data input from the imaging device 4. Specifically, the recognition processing unit 122 detects and extracts image data of the target object P from the image data input from the imaging device 4. The inspection device 1 can execute the recognition processing by any known method such as pattern matching and deep learning. The recognition processing unit 122 is a CPU, a GPU, a field programmable gate array (FPGA), or an application specific integrated circuit (ASIC), but is not limited thereto. The recognition processing unit 122 may have a built-in ROM and RAM, or a ROM and a RAM corresponding to the recognition processing unit 122 may be mounted on the inspection board 12.

認識処理部122は、例えば、製造ライン上を搬送される対象物Pの種類ごと、すなわち、認識対象となる対象物Pの種類ごとに設けられる。本実施形態では、製造ライン上を3種類の対象物P1〜P3が搬送されるため、3つの認識処理部122が設けられている。認識処理部122aは対象物P1の認識処理を実行し、認識処理部122bは対象物P2の認識処理を実行し、認識処理部122cは対象物P3の認識処理を実行する。認識処理部122は、対象物Pの画像データを抽出すると、当該画像データを出力する。認識処理部122が出力した画像データは、検査処理部123に入力される。なお、認識処理部122の数は、対象物Pの種類に応じて任意に設計可能である。また、複数種類の対象物Pの認識処理を、1つの認識処理部122により実行することも可能である。   The recognition processing unit 122 is provided, for example, for each type of the target object P transported on the manufacturing line, that is, for each type of the target object P to be recognized. In the present embodiment, since three types of objects P1 to P3 are transported on the production line, three recognition processing units 122 are provided. The recognition processing unit 122a executes a recognition process of the object P1, the recognition processing unit 122b executes a recognition process of the object P2, and the recognition processing unit 122c executes a recognition process of the object P3. Upon extracting the image data of the object P, the recognition processing unit 122 outputs the image data. The image data output by the recognition processing unit 122 is input to the inspection processing unit 123. The number of the recognition processing units 122 can be arbitrarily designed according to the type of the target object P. In addition, the recognition processing of a plurality of types of objects P can be executed by one recognition processing unit 122.

検査処理部123は、認識処理部122から入力された対象物Pの画像データに基づいて、対象物Pに対応する検査Tを実行する専用のプロセッサ(主にハードウェアアクセラレータであるが、これに限られない)である。具体的には、検査処理部123は、対象物Pの画像データを検査Tの検査モデルに入力し、検査結果を出力する。検査処理部123は、CPU、GPU、FPGA、又はASICであるが、これに限られない。検査処理部123はROM及びRAMを内蔵されていてもよいし、検査処理部123に対応するROM及びRAMが検査ボード12に実装されてもよい。   The inspection processing unit 123 is a dedicated processor (mainly a hardware accelerator, which executes an inspection T corresponding to the object P based on the image data of the object P input from the recognition processing unit 122. It is not limited). Specifically, the inspection processing unit 123 inputs the image data of the object P to the inspection model of the inspection T, and outputs an inspection result. The inspection processing unit 123 is a CPU, a GPU, an FPGA, or an ASIC, but is not limited thereto. The inspection processing unit 123 may include a ROM and a RAM, or a ROM and a RAM corresponding to the inspection processing unit 123 may be mounted on the inspection board 12.

検査処理部123は、例えば、検査装置1が実行する検査Tごとに設けられる。本実施形態では、検査装置1が検査T1〜T4を実行するため、4つの検査処理部123が設けられている。検査処理部123aは検査T1を実行し、検査処理部123bは検査T2を実行し、検査処理部123cは検査T3を実行し、検査処理部123dは検査T4を実行する。検査処理部123は、検査Tを実行すると、検査結果データを出力する。検査処理部123が出力した検査結果データは、学習装置2に入力される。なお、検査処理部123の数は、検査Tの種類に応じて任意に設計可能である。また、複数種類の検査Tを、1つの検査処理部123により実行することも可能である。   The inspection processing unit 123 is provided, for example, for each inspection T performed by the inspection device 1. In the present embodiment, four inspection processing units 123 are provided because the inspection device 1 performs the inspections T1 to T4. The inspection processing unit 123a executes the inspection T1, the inspection processing unit 123b executes the inspection T2, the inspection processing unit 123c executes the inspection T3, and the inspection processing unit 123d executes the inspection T4. When performing the test T, the test processing unit 123 outputs test result data. The inspection result data output by the inspection processing unit 123 is input to the learning device 2. The number of the inspection processing units 123 can be arbitrarily designed according to the type of the inspection T. Further, a plurality of types of inspections T can be executed by one inspection processing unit 123.

バス124は、接続インタフェース121、認識処理部122、及び検査処理部123を相互に接続する。   The bus 124 connects the connection interface 121, the recognition processing unit 122, and the inspection processing unit 123 to each other.

なお、検査装置1のハードウェア構成は、図5の例に限られない。上述の通り、検査装置1は、複数のコンピュータにより構成されてもよい。また、検査装置1は、単一の基板により構成されてもよい。   The hardware configuration of the inspection device 1 is not limited to the example in FIG. As described above, the inspection device 1 may be configured by a plurality of computers. Further, the inspection device 1 may be configured by a single substrate.

図6は、学習装置2のハードウェア構成の一例を示す図である。図6の学習装置2は、CPU21と、RAM22と、ROM23と、HDD24と、入力装置25と、表示装置26と、通信インタフェース27と、バス28と、を備える。   FIG. 6 is a diagram illustrating an example of a hardware configuration of the learning device 2. The learning device 2 in FIG. 6 includes a CPU 21, a RAM 22, a ROM 23, an HDD 24, an input device 25, a display device 26, a communication interface 27, and a bus 28.

CPU21は、プログラムを実行することにより、学習装置2の各構成を制御し、学習装置2の機能を実現する。CPU21が実行するプログラムは、CD、DVD、フラッシュメモリなどの、コンピュータ読み取り可能な任意の記録媒体に記録され得る。学習装置2は、機械学習を高速に実行可能なように、複数のCPU21を備えてもよいし、CPU21の代わりに1つ又は複数のGPU(Graphics Processing Unit)を備えてもよい。   The CPU 21 controls each configuration of the learning device 2 by executing the program, and realizes the function of the learning device 2. The program executed by the CPU 21 can be recorded on an arbitrary computer-readable recording medium such as a CD, a DVD, and a flash memory. The learning device 2 may include a plurality of CPUs 21 so as to execute machine learning at high speed, or may include one or a plurality of GPUs (Graphics Processing Units) instead of the CPU 21.

RAM22は、CPU21に作業領域を提供する。   The RAM 22 provides the CPU 21 with a work area.

ROM23は、CPU21が実行するプログラムや各種のデータを記憶する。   The ROM 23 stores programs executed by the CPU 21 and various data.

HDD24は、CPU21が実行するプログラムや各種のデータ(検査結果データなど)を記憶する。学習装置2は、HDD24と共に、又はHDD24の代わりにSSDを備えてもよい。   The HDD 24 stores programs executed by the CPU 21 and various data (such as inspection result data). The learning device 2 may include an SSD together with or instead of the HDD 24.

入力装置25は、ユーザの操作に応じた情報を学習装置2に入力する。入力装置25は、タッチパッド、キーボード、マウス、又はハードウェアボタンであるが、これに限られない。   The input device 25 inputs information according to a user operation to the learning device 2. The input device 25 is a touchpad, a keyboard, a mouse, or a hardware button, but is not limited thereto.

表示装置26は、ユーザの操作に応じた画面を表示する。表示装置26は、液晶ディスプレイ、又は有機ELディスプレイであるが、これに限られない。学習装置2は、タッチパッドと表示装置26が一体化されたタッチパネルを備えてもよい。   The display device 26 displays a screen according to a user operation. The display device 26 is a liquid crystal display or an organic EL display, but is not limited thereto. The learning device 2 may include a touch panel in which the touch pad and the display device 26 are integrated.

通信インタフェース27は、学習装置2をネットワークに接続し、ネットワーク上の外部装置との通信を制御する。学習装置2は、通信インタフェース27を介して、検査装置1や管理装置3などの外部装置と通信する。   The communication interface 27 connects the learning device 2 to a network and controls communication with an external device on the network. The learning device 2 communicates with an external device such as the inspection device 1 and the management device 3 via the communication interface 27.

バス28は、CPU21、RAM22、ROM23、HDD24、入力装置25、表示装置26、及び通信インタフェース27を相互に接続する。   The bus 28 connects the CPU 21, the RAM 22, the ROM 23, the HDD 24, the input device 25, the display device 26, and the communication interface 27 to each other.

なお、学習装置2のハードウェア構成は、図6の例に限られない。上述の通り、学習装置2は、複数のコンピュータにより構成されてもよい。また、管理装置3のハードウェア構成は、学習装置2と同様であるため、説明を省略する。   The hardware configuration of the learning device 2 is not limited to the example in FIG. As described above, the learning device 2 may be configured by a plurality of computers. Further, the hardware configuration of the management device 3 is the same as that of the learning device 2, and a description thereof will be omitted.

次に、検査装置1及び撮影装置4の動作について説明する。図7は、検査装置1及び撮影装置4の動作の一例を示すフローチャートである。以下では、撮影装置4が定期的に撮影を実行する、又は動画を撮影する場合を例に説明する。検査装置1及び撮影装置4は、所定時間ごとに図7の動作を実行する。   Next, operations of the inspection device 1 and the imaging device 4 will be described. FIG. 7 is a flowchart illustrating an example of the operation of the inspection device 1 and the imaging device 4. Hereinafter, a case will be described as an example in which the image capturing apparatus 4 periodically performs image capturing or captures a moving image. The inspection device 1 and the imaging device 4 execute the operation of FIG. 7 at predetermined time intervals.

まず、撮影装置4が製造ラインを撮影し(ステップS101)、得られた画像データを出力する。撮影装置4の撮影範囲に対象物Pが含まれる場合、対象物Pの画像データを含む画像データが出力されることになる。一方、撮影装置4の撮影範囲に対象物Pが含まれない場合、対象物Pの画像データを含まない画像データが出力されることになる。出力された画像データはメインボード11に入力される。   First, the photographing device 4 photographs the production line (step S101), and outputs the obtained image data. When the object P is included in the imaging range of the imaging device 4, image data including image data of the object P is output. On the other hand, when the object P is not included in the imaging range of the imaging device 4, image data that does not include the image data of the object P is output. The output image data is input to the main board 11.

検査装置1に画像データが入力されると、メインボード11は、当該画像データに対して前処理を実行する(ステップS102)。前処理は、認識処理や検査Tの精度を向上させるために事前に行う画像処理であり、フィルタ処理及びマスク処理を含む。メインボード11は、前処理を実行すると、前処理された画像データを認識処理部122aに入力し、認識処理部122aに認識処理の実行を指示する。   When the image data is input to the inspection device 1, the main board 11 performs preprocessing on the image data (Step S102). The pre-processing is an image processing performed in advance to improve the accuracy of the recognition processing and the inspection T, and includes a filter processing and a mask processing. After executing the preprocessing, the main board 11 inputs the preprocessed image data to the recognition processing unit 122a, and instructs the recognition processing unit 122a to execute the recognition processing.

認識処理部122aは、メインボード11から画像データを入力されると、対象物P1の認識処理を実行する(ステップS103)。認識処理部122aは、認識処理を実行すると、対象物P1の検出結果(対象物P1が検出されたか否か)をメインボード11に入力する。また、認識処理部122aは、対象物P1を検出した場合、入力された画像データから対象物P1の画像データを抽出し、メインボード11に入力する。認識処理部122aは、複数の対象物P1を検出した場合、各対象物P1について、検出結果及び画像データをメインボード11に入力すればよい。メインボード11は、認識処理部122aから検出結果を入力されると、前処理された画像データを認識処理部122bに入力し、認識処理部122bに認識処理の実行を指示する。   Upon receiving the image data from the main board 11, the recognition processing unit 122a executes a recognition process for the target P1 (Step S103). After executing the recognition process, the recognition processing unit 122a inputs the detection result of the target P1 (whether or not the target P1 is detected) to the main board 11. When detecting the target object P1, the recognition processing unit 122a extracts the image data of the target object P1 from the input image data and inputs the image data to the main board 11. When detecting a plurality of objects P1, the recognition processing unit 122a may input a detection result and image data to the main board 11 for each object P1. When the detection result is input from the recognition processing unit 122a, the main board 11 inputs the preprocessed image data to the recognition processing unit 122b, and instructs the recognition processing unit 122b to execute the recognition processing.

認識処理部122bは、メインボード11から画像データを入力されると、対象物P2の認識処理を実行する(ステップS104)。認識処理部122bは、認識処理を実行すると、対象物P2の検出結果(対象物P2が検出されたか否か)をメインボード11に入力する。また、認識処理部122bは、対象物P2を検出した場合、入力された画像データから対象物P2の画像データを抽出し、メインボード11に入力する。認識処理部122bは、複数の対象物P2を検出した場合、各対象物P2について、検出結果及び画像データをメインボード11に入力すればよい。メインボード11は、認識処理部122bから検出結果を入力されると、前処理された画像データを認識処理部122cに入力し、認識処理部122cに認識処理の実行を指示する。   Upon receiving the image data from the main board 11, the recognition processing unit 122b executes a recognition process for the target P2 (Step S104). After executing the recognition process, the recognition processing unit 122b inputs the detection result of the target object P2 (whether or not the target object P2 has been detected) to the main board 11. Further, when detecting the target P2, the recognition processing unit 122b extracts the image data of the target P2 from the input image data and inputs the image data to the main board 11. When detecting a plurality of targets P2, the recognition processing unit 122b may input a detection result and image data to the main board 11 for each target P2. When the detection result is input from the recognition processing unit 122b, the main board 11 inputs the preprocessed image data to the recognition processing unit 122c, and instructs the recognition processing unit 122c to execute the recognition processing.

認識処理部122cは、メインボード11から画像データを入力されると、対象物P3の認識処理を実行する(ステップS105)。認識処理部122cは、認識処理を実行すると、対象物P3の検出結果(対象物P3が検出されたか否か)をメインボード11に入力する。また、認識処理部122cは、対象物P3を検出した場合、入力された画像データから対象物P3の画像データを抽出し、メインボード11に入力する。認識処理部122cは、複数の対象物P3を検出した場合、各対象物P3について、検出結果及び画像データをメインボード11に入力すればよい。   Upon receiving the image data from the main board 11, the recognition processing unit 122c executes a recognition process for the target object P3 (Step S105). After executing the recognition process, the recognition processing unit 122c inputs the detection result of the target P3 (whether or not the target P3 is detected) to the main board 11. When detecting the target P3, the recognition processing unit 122c extracts the image data of the target P3 from the input image data and inputs the image data to the main board 11. When detecting a plurality of targets P3, the recognition processing unit 122c may input a detection result and image data to the main board 11 for each target P3.

このように、検査装置1は、各認識処理部122によって対応する1つ又は複数の対象物Pの認識処理を実行する。したがって、検査装置1は、認識処理部122を交換するだけで、対象物Pの種類の変化に対応することができる。なお、図7の例では、対象物P1〜P3の認識処理が認識処理部122a〜122cにより順番に実行されているが、対象物P1〜P3の認識処理は、認識処理部122a〜122cにより並列して実行されてもよい。これにより、対象物P1〜P3の認識処理に要する時間を短縮できる。   As described above, the inspection device 1 executes the recognition processing of one or more corresponding objects P by the respective recognition processing units 122. Therefore, the inspection apparatus 1 can cope with a change in the type of the target object P only by replacing the recognition processing unit 122. In the example of FIG. 7, the recognition processes of the objects P1 to P3 are sequentially executed by the recognition processing units 122a to 122c. However, the recognition processes of the objects P1 to P3 are performed in parallel by the recognition processing units 122a to 122c. May be executed. Thereby, the time required for the recognition processing of the objects P1 to P3 can be reduced.

メインボード11は、認識処理部122cから検出結果を入力されると、対象物P1〜P3の検出結果に応じて以下の処理を行う。   When the detection result is input from the recognition processing unit 122c, the main board 11 performs the following processing according to the detection results of the objects P1 to P3.

認識処理部122aにより対象物P1が検出された場合(ステップS106:YES)、メインボード11は、認識処理部122aから入力された対象物P1の画像データを検査処理部123aに入力し、検査処理部123aに検査T1の実行を指示する。   When the object P1 is detected by the recognition processing unit 122a (step S106: YES), the main board 11 inputs the image data of the object P1 input from the recognition processing unit 122a to the inspection processing unit 123a, and performs the inspection processing. The unit 123a is instructed to execute the test T1.

検査処理部123aは、メインボード11から対象物P1の画像データを入力されると、対象物P1に対する検査T1を実行する(ステップS107)。すなわち、検査処理部123aは、検査T1の検査モデルに対象物P1の画像データを入力し、検査結果を出力する。検査処理部123aは、検査T1を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123aは、複数の対象物P1の画像データを入力された場合、各対象物P1に対して検査T1を実行し、各対象物P1について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123aから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P1の画像データと、を含む検査T1の検査結果データを生成する。なお、認識処理部122aにより対象物P1が検出されなかった場合(ステップS106:NO)、メインボード11は、認識処理部122aから対象物P1の画像データを入力されない。したがって、検査T1(ステップS107)は省略される。   When the image data of the object P1 is input from the main board 11, the inspection processing unit 123a executes the inspection T1 on the object P1 (step S107). That is, the inspection processing unit 123a inputs the image data of the object P1 to the inspection model of the inspection T1, and outputs an inspection result. When performing the test T1, the test processing unit 123a inputs data indicating the test result to the main board 11. When image data of a plurality of objects P1 is input, the inspection processing unit 123a performs an inspection T1 on each of the objects P1, and inputs data indicating an inspection result for each of the objects P1 to the main board 11. I just need. When the data indicating the detection result is input from the inspection processing unit 123a, the main board 11 generates the inspection result data of the inspection T1 including the data indicating the inspection result and the image data of the object P1. If the target P1 is not detected by the recognition processing unit 122a (step S106: NO), the main board 11 does not receive image data of the target P1 from the recognition processing unit 122a. Therefore, the inspection T1 (Step S107) is omitted.

一方、認識処理部122bにより対象物P2が検出された場合(ステップS108:YES)、メインボード11は、認識処理部122bから入力された対象物P2の画像データを検査処理部123bに入力し、検査処理部123bに検査T2の実行を指示する。   On the other hand, when the target P2 is detected by the recognition processing unit 122b (step S108: YES), the main board 11 inputs the image data of the target P2 input from the recognition processing unit 122b to the inspection processing unit 123b, Instruct the inspection processing unit 123b to execute the inspection T2.

検査処理部123bは、メインボード11から対象物P2の画像データを入力されると、対象物P2に対する検査T2を実行する(ステップS109)。すなわち、検査処理部123bは、検査T2の検査モデルに対象物P2の画像データを入力し、検査結果を出力する。検査処理部123bは、検査T2を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123bは、複数の対象物P2の画像データを入力された場合、各対象物P2に対して検査T2を実行し、各対象物P2について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123bから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P2の画像データと、を含む検査T2の検査結果データを生成する。なお、認識処理部122bにより対象物P2が検出されなかった場合(ステップS108:NO)、メインボード11は、認識処理部122bから対象物P2の画像データを入力されない。したがって、検査T2(ステップS109)は省略される。   Upon receiving the image data of the object P2 from the main board 11, the inspection processing unit 123b performs an inspection T2 on the object P2 (step S109). That is, the inspection processing unit 123b inputs the image data of the object P2 to the inspection model of the inspection T2, and outputs an inspection result. When performing the test T2, the test processing unit 123b inputs data indicating the test result to the main board 11. When image data of a plurality of objects P2 is input, the inspection processing unit 123b executes an inspection T2 on each of the objects P2, and inputs data indicating an inspection result for each of the objects P2 to the main board 11. I just need. When the data indicating the detection result is input from the inspection processing unit 123b, the main board 11 generates the inspection result data of the inspection T2 including the data indicating the inspection result and the image data of the object P2. When the target P2 is not detected by the recognition processing unit 122b (step S108: NO), the main board 11 does not receive image data of the target P2 from the recognition processing unit 122b. Therefore, the inspection T2 (Step S109) is omitted.

他方、認識処理部122cにより対象物P3が検出された場合(ステップS110:YES)、メインボード11は、認識処理部122cから入力された対象物P3の画像データを検査処理部123cに入力し、検査処理部123cに検査T3の実行を指示する。   On the other hand, when the object P3 is detected by the recognition processing unit 122c (step S110: YES), the main board 11 inputs the image data of the object P3 input from the recognition processing unit 122c to the inspection processing unit 123c. Instruct the inspection processing unit 123c to execute the inspection T3.

検査処理部123cは、メインボード11から対象物P3の画像データを入力されると、対象物P3に対する検査T3を実行する(ステップS111)。すなわち、検査処理部123cは、検査T3の検査モデルに対象物P3の画像データを入力し、検査結果を出力する。検査処理部123cは、検査T3を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123cは、複数の対象物P3の画像データを入力された場合、各対象物P3に対して検査T3を実行し、各対象物P3について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123cから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P3の画像データと、を含む検査T3の検査結果データを生成する。また、メインボード11は、対象物P3の画像データを検査処理部123dに入力し、検査処理部123dに検査T4の実行を指示する。   Upon receiving the image data of the object P3 from the main board 11, the inspection processing unit 123c performs an inspection T3 on the object P3 (step S111). That is, the inspection processing unit 123c inputs the image data of the object P3 to the inspection model of the inspection T3, and outputs an inspection result. When performing the test T3, the test processing unit 123c inputs data indicating a test result to the main board 11. When image data of a plurality of objects P3 is input, the inspection processing unit 123c executes an inspection T3 on each of the objects P3, and inputs data indicating an inspection result for each of the objects P3 to the main board 11. I just need. When the data indicating the detection result is input from the inspection processing unit 123c, the main board 11 generates the inspection result data of the inspection T3 including the data indicating the inspection result and the image data of the object P3. Further, the main board 11 inputs the image data of the target object P3 to the inspection processing unit 123d, and instructs the inspection processing unit 123d to execute the inspection T4.

また、検査処理部123dは、メインボード11から対象物P3の画像データを入力されると、対象物P3に対する検査T4を実行する(ステップS112)。すなわち、検査処理部123dは、検査T4の検査モデルに対象物P3の画像データを入力し、検査結果を出力する。検査処理部123dは、検査T4を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123dは、複数の対象物P3の画像データを入力された場合、各対象物P3に対して検査T4を実行し、各対象物P3について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123dから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P3の画像データと、を含む検査T4の検査結果データを生成する。なお、認識処理部122cにより対象物P3が検出されなかった場合(ステップS110:NO)、メインボード11は、認識処理部122cから対象物P3の画像データを入力されない。したがって、検査T3,T4(ステップS111,S112)は省略される。   When the image data of the object P3 is input from the main board 11, the inspection processing unit 123d performs an inspection T4 on the object P3 (Step S112). That is, the inspection processing unit 123d inputs the image data of the object P3 to the inspection model of the inspection T4, and outputs an inspection result. When performing the test T4, the test processing unit 123d inputs data indicating a test result to the main board 11. When image data of a plurality of objects P3 is input, the inspection processing unit 123d executes an inspection T4 on each of the objects P3, and inputs data indicating an inspection result for each of the objects P3 to the main board 11. I just need. When the data indicating the detection result is input from the inspection processing unit 123d, the main board 11 generates the inspection result data of the inspection T4 including the data indicating the inspection result and the image data of the object P3. If the target P3 is not detected by the recognition processing unit 122c (step S110: NO), the main board 11 does not receive the image data of the target P3 from the recognition processing unit 122c. Therefore, the inspections T3 and T4 (steps S111 and S112) are omitted.

メインボード11は、認識処理部122により検出された対象物Pの検査Tの検査結果データを全て生成すると、生成された検査結果データを出力する(ステップS113)。メインボード11は、検査結果データを一時的に記憶しておき、所定時間ごとにまとめて出力してもよい。メインボード11が出力した検査結果データは、学習装置2に入力される。   When all the inspection result data of the inspection T of the object P detected by the recognition processing unit 122 is generated, the main board 11 outputs the generated inspection result data (Step S113). The main board 11 may temporarily store the inspection result data and output the inspection result data collectively at predetermined time intervals. The inspection result data output by the main board 11 is input to the learning device 2.

このように、検査装置1は、各検査処理部123によって各検査Tを実行する。したがって、検査装置1は、検査処理部123を交換するだけで、検査Tの種類の変化に対応することができる。   As described above, the inspection apparatus 1 executes each inspection T by each inspection processing unit 123. Therefore, the inspection apparatus 1 can cope with a change in the type of the inspection T only by replacing the inspection processing unit 123.

また、撮影装置4により複数種類の対象物Pが同時に撮影された場合であっても、検査装置1は、各対象物Pの画像データを対応する検査処理部123に入力するというシンプルな処理により各対象物Pの検査Tを実行できる上、各検査Tをそれぞれ専用のプロセッサにより実行することができる。したがって、検査装置1は、複数種類の対象物Pの検査Tを迅速に実行することができる。また、この検査装置1を利用することにより、製造ライン上で複数種類の対象物Pが同時に撮影されないように対象物Pを整列させる必要がなくなるため、製造ラインの構成を簡略化することができる。   Further, even when a plurality of types of objects P are simultaneously imaged by the imaging device 4, the inspection device 1 performs a simple process of inputting image data of each object P to the corresponding inspection processing unit 123. The inspection T of each object P can be executed, and each inspection T can be executed by a dedicated processor. Therefore, the inspection device 1 can quickly execute the inspections T of the plurality of types of objects P. Further, by using the inspection apparatus 1, there is no need to align the objects P so that a plurality of types of objects P are not simultaneously photographed on the production line, so that the configuration of the production line can be simplified. .

なお、図7の例では、検査T1〜T4が検査処理部123a〜123dにより順番に実行されているが、検査T1〜T4は、検査処理部123a〜123dにより並列して実行されてもよい。これにより、検査T1〜T4に要する時間を短縮できる。また、メインボード11は、検査T1〜T4の検査結果や、検査対象となった対象物P1〜P3の画像を、表示装置117に表示させてもよい。   In the example of FIG. 7, the tests T1 to T4 are sequentially performed by the test processing units 123a to 123d, but the tests T1 to T4 may be performed in parallel by the test processing units 123a to 123d. Thereby, the time required for the inspections T1 to T4 can be reduced. Further, the main board 11 may cause the display device 117 to display the inspection results of the inspections T1 to T4 and the images of the objects P1 to P3 to be inspected.

次に、学習装置2の動作について説明する。図8は、学習装置2の動作の一例を示すフローチャートである。学習装置2は、所定時間ごとに図8の動作を実行する。   Next, the operation of the learning device 2 will be described. FIG. 8 is a flowchart illustrating an example of the operation of the learning device 2. The learning device 2 performs the operation of FIG. 8 at predetermined time intervals.

まず、学習装置2は、学習タイミングが到来したか確認する(ステップS201)。学習タイミングは、所定時間ごとであってもよいし、一定数の検査結果データを入力されたタイミングであってもよいし、ユーザからの指示を受けたタイミングであってもよい。学習タイミングが到来していない場合(ステップS201:NO)、学習装置2は動作を終了する。   First, the learning device 2 checks whether the learning timing has come (step S201). The learning timing may be at a predetermined time interval, a timing at which a fixed number of test result data is input, or a timing at which an instruction from a user is received. If the learning timing has not arrived (step S201: NO), the learning device 2 ends the operation.

一方、学習タイミングが到来した場合(ステップS201:YES)、学習装置2は、各検査Tについて、以下の動作をそれぞれ実行する。   On the other hand, when the learning timing has arrived (step S201: YES), the learning device 2 executes the following operation for each test T.

まず、学習装置2は、検査Tの新たな検査結果データが入力されたか確認する(ステップS202)。新たな検査結果データは、検査Tの検査モデルを前回生成した後に学習装置2に入力された検査結果データである。新たな検査結果データが入力されていない場合(ステップS202:NO)、学習装置2は、当該検査Tについての処理を終了する。   First, the learning device 2 checks whether new test result data of the test T has been input (step S202). The new test result data is test result data input to the learning device 2 after the test model of the test T was generated last time. When new test result data has not been input (step S202: NO), the learning device 2 ends the process for the test T.

一方、新たな検査結果データが入力されている場合(ステップS202:YES)、学習装置2は、新たな検査結果データの中から新たな学習データを選択する(ステップS203)。学習データの選択方法は上述の通りである。   On the other hand, when new test result data is input (step S202: YES), the learning device 2 selects new learning data from the new test result data (step S203). The method of selecting the learning data is as described above.

学習装置2は、新たな学習データを選択すると、当該新たな学習データに基づいて、対象物Pの画像データと検査Tの検査結果との関係を学習し、新たな検査モデルを生成する(ステップS204)。この際、学習装置2は、新たな学習データと共に、既存の学習データを併用してもよい。学習装置2は、検査Tの新たな検査モデルを生成すると、当該検査モデルを出力する(ステップS205)。学習装置2が出力した検査モデルは、管理装置3に入力される。   Upon selecting the new learning data, the learning device 2 learns the relationship between the image data of the object P and the inspection result of the inspection T based on the new learning data, and generates a new inspection model (Step S10). S204). At this time, the learning device 2 may use existing learning data together with new learning data. Upon generating a new test model of the test T, the learning device 2 outputs the test model (Step S205). The test model output by the learning device 2 is input to the management device 3.

学習装置2が各検査TについてステップS202〜S205の処理を実行することにより、各検査Tの新たな検査モデルが生成される。   The learning device 2 executes the processing of steps S202 to S205 for each test T, thereby generating a new test model for each test T.

このように、学習装置2は、検査装置1から入力された検査Tの検査結果データに基づいて、検査Tの検査モデルを生成することができる。   As described above, the learning device 2 can generate a test model of the test T based on the test result data of the test T input from the test device 1.

次に、管理装置3の動作について説明する。図9は、管理装置3の動作の一例を示すフローチャートである。管理装置3は、所定時間ごとに図9の動作を実行する。   Next, the operation of the management device 3 will be described. FIG. 9 is a flowchart illustrating an example of the operation of the management device 3. The management device 3 executes the operation of FIG. 9 every predetermined time.

まず、管理装置3は、学習装置2から新たな検査モデルが入力されたか確認する(ステップS301)。新たな検査モデルが入力されていない場合(ステップS301:NO)、処理はステップS305に進む。一方、新たな検査モデルが入力されている場合(ステップS301:YES)、管理装置3は、当該検査モデルに新たなバージョンを割り当てる(ステップS302)。   First, the management device 3 checks whether a new test model has been input from the learning device 2 (step S301). If a new inspection model has not been input (step S301: NO), the process proceeds to step S305. On the other hand, when a new inspection model is input (step S301: YES), the management device 3 assigns a new version to the inspection model (step S302).

次に、管理装置3は、テストデータに基づいて、新たな検査モデルの検査精度を算出する(ステップS303)。管理装置3は、検査精度を算出する際、テストデータに含まれる対象物Pの画像データに、検査装置1と同様の前処理を実行するのが好ましい。   Next, the management device 3 calculates the inspection accuracy of the new inspection model based on the test data (Step S303). When calculating the inspection accuracy, the management device 3 preferably performs the same pre-processing as the inspection device 1 on the image data of the object P included in the test data.

その後、管理装置3は、新たな検査モデルと、新たな検査モデルの検査精度と、新たな検査モデルのバージョンと、を関連付けて記憶する(ステップS304)。これにより、図2の例のように、管理装置3は、各検査Tの検査モデルについて、複数のバージョンを管理することができる。   Thereafter, the management device 3 stores the new inspection model, the inspection accuracy of the new inspection model, and the new inspection model version in association with each other (step S304). Thereby, as in the example of FIG. 2, the management device 3 can manage a plurality of versions of the test model of each test T.

続いて、管理装置3は、検査装置1の検査モデルの更新タイミングが到来したか確認する(ステップS305)。管理装置3が検査モデルを管理しているいずれの検査装置1の更新タイミングも到来していない場合(ステップS305:NO)、管理装置3は動作を終了する。   Subsequently, the management device 3 checks whether the update timing of the inspection model of the inspection device 1 has come (step S305). If the update timing of any of the inspection apparatuses 1 that manage the inspection model has not arrived (step S305: NO), the management apparatus 3 ends the operation.

一方、管理装置3が検査モデルを管理しているいずれかの検査装置1の更新タイミングも到来している場合(ステップS305:YES)、管理装置3は、検査モデルの更新対象となる検査装置1の識別情報を取得する(ステップS306)。例えば、検査装置1の起動時が検査モデルの更新タイミングとして設定されている場合について考える。この場合、検査装置1は、起動すると、その旨を識別情報と共に管理装置3に通知する。管理装置3は、検査装置1から通知された識別情報を、更新対象となる検査装置1の識別情報として取得すればよい。また、管理装置3に検査装置1ごとの更新時刻が設定されている場合には、管理装置3は、更新時刻が到来した検査装置1の識別情報を、更新対象となる検査装置1の識別情報として取得すればよい。なお、検査装置1の識別情報の取得方法はこれに限られない。   On the other hand, when the update timing of any of the inspection devices 1 whose inspection models are managed by the management device 3 has also come (step S305: YES), the management device 3 updates the inspection device 1 to be updated. Is obtained (step S306). For example, consider a case where the start time of the inspection apparatus 1 is set as the inspection model update timing. In this case, when activated, the inspection device 1 notifies the management device 3 of the fact together with the identification information. The management device 3 may acquire the identification information notified from the inspection device 1 as the identification information of the inspection device 1 to be updated. When the update time of each inspection device 1 is set in the management device 3, the management device 3 replaces the identification information of the inspection device 1 whose update time has arrived with the identification information of the inspection device 1 to be updated. Should be obtained as The method for acquiring the identification information of the inspection apparatus 1 is not limited to this.

管理装置3は、更新対象となる検査装置1の識別情報を取得すると、識別情報を取得した各検査装置1について以下の動作を実行する。   When acquiring the identification information of the inspection device 1 to be updated, the management device 3 executes the following operation for each inspection device 1 from which the identification information has been acquired.

管理装置3は、検査装置管理テーブルを参照して、検査装置1が実行する検査Tの種類を取得する(ステップS307)。図3の例では、検査装置D1が実行する検査Tの種類として、検査T1〜T4が取得される。管理装置3は、検査装置1が実行する検査Tの種類を取得すると、取得した各検査Tについて以下の動作を実行する。   The management device 3 acquires the type of the test T executed by the test device 1 with reference to the test device management table (step S307). In the example of FIG. 3, the tests T1 to T4 are acquired as the types of the tests T executed by the test apparatus D1. When acquiring the type of the test T executed by the inspection device 1, the management device 3 executes the following operation for each acquired test T.

管理装置3は、検査装置1が利用する検査Tの検査モデルのバージョンが、検査精度が最高のバージョンであるか確認する(ステップS308)。具体的には、管理装置3は、検査装置管理テーブルを参照して、検査装置1が利用する検査Tの検査モデルのバージョンを取得する。そして、管理装置3は、検査モデル管理テーブルを参照して、取得したバージョンの検査精度が、検査Tの検査モデルの各バージョンの中で最高であるか確認する。検査装置1が利用する検査Tの検査モデルのバージョンが、検査精度が最高のバージョンである場合(ステップS308:YES)、管理装置3は、当該検査Tについての動作を終了し、次の検査Tについての動作を開始する。   The management device 3 checks whether the version of the inspection model of the inspection T used by the inspection device 1 has the highest inspection accuracy (step S308). Specifically, the management device 3 acquires the version of the test model of the test T used by the test device 1 with reference to the test device management table. Then, the management device 3 refers to the inspection model management table and checks whether the inspection accuracy of the acquired version is the highest among the versions of the inspection model of the inspection T. When the version of the inspection model of the inspection T used by the inspection apparatus 1 is the version having the highest inspection accuracy (step S308: YES), the management apparatus 3 ends the operation for the inspection T, and ends the next inspection T Start the operation for.

一方、検査装置1が利用する検査Tの検査モデルのバージョンが、検査精度が最高のバージョンではない場合(ステップS308:NO)、管理装置3は、検査モデル管理テーブルを参照して、検査Tの検査モデルの各バージョンの中で、検査精度が最高のバージョンを選択する(ステップS309)。   On the other hand, when the version of the inspection model of the inspection T used by the inspection apparatus 1 is not the version with the highest inspection accuracy (step S308: NO), the management apparatus 3 refers to the inspection model management table and refers to the inspection model management table. Among the versions of the inspection model, the version having the highest inspection accuracy is selected (step S309).

管理装置3は、検査精度が最高のバージョンを選択すると、検査装置1が利用する検査Tの検査モデルを、選択したバージョンに更新する(ステップS310)。具体的には、管理装置3は、選択したバージョンの検査モデル(パラメータ値)を検査装置1に送信し、検査装置1に検査モデルの更新を指示する。検査装置1は、当該指示に応じて、検査Tを実行する検査処理部123が利用する検査モデルを更新する。そして、管理装置3は、検査装置管理テーブルに記憶された、検査装置1の検査Tの検査モデルのバージョンを、選択したバージョンに更新する。その後、管理装置3は、当該検査Tについての動作を終了し、次の検査Tについての動作を開始する。   When selecting the version with the highest inspection accuracy, the management device 3 updates the inspection model of the inspection T used by the inspection device 1 to the selected version (Step S310). Specifically, the management device 3 transmits the selected version of the inspection model (parameter value) to the inspection device 1 and instructs the inspection device 1 to update the inspection model. The inspection device 1 updates the inspection model used by the inspection processing unit 123 that executes the inspection T according to the instruction. Then, the management device 3 updates the version of the test model of the test T of the test device 1 stored in the test device management table to the selected version. Thereafter, the management device 3 ends the operation for the test T, and starts the operation for the next test T.

管理装置3が各検査装置1の検査Tの検査モデルについて、ステップS307〜S310の処理を実行することにより、各検査装置1の検査Tの検査モデルが更新される。   The management device 3 executes the processing of steps S307 to S310 on the test model of the test T of each test device 1, so that the test model of the test T of each test device 1 is updated.

例えば、図2及び図3の例では、検査装置D1の検査T1の検査モデルは、バージョン1からバージョン2に更新される(ステップS310)。これは、検査装置D1が検査T1に利用する検査モデルのバージョン1の検査精度(70%)より、検査T1の検査モデルのバージョン2の検査精度(80%)の方が高いためである(ステップS308:NO)。検査T1の検査モデルをバージョン1からバージョン2に更新することにより、検査装置D1による検査T1の精度を向上させることができる。   For example, in the examples of FIGS. 2 and 3, the inspection model of the inspection T1 of the inspection device D1 is updated from version 1 to version 2 (step S310). This is because the inspection accuracy (80%) of the inspection model version 2 of the inspection T1 is higher than the inspection accuracy (70%) of the inspection model version 1 used by the inspection apparatus D1 for the inspection T1 (step). S308: NO). By updating the inspection model of the inspection T1 from version 1 to version 2, the accuracy of the inspection T1 by the inspection device D1 can be improved.

一方、図2及び図3の例では、検査装置D1の検査T3の検査モデルは、バージョン1からバージョン2に更新されない。すなわち、検査装置D1の検査T3の検査モデルは、バージョン1のまま維持される。これは、検査装置D1が検査T3に利用する検査モデルのバージョン1の検査精度(95%)が、検査T3の検査モデルのバージョン2の検査精度(90%)より高いためである(ステップS308:YES)。検査T3の検査モデルをバージョン1のまま維持することにより、検査装置D1による検査T3の精度の低下を抑制することができる。   On the other hand, in the examples of FIGS. 2 and 3, the inspection model of the inspection T3 of the inspection device D1 is not updated from version 1 to version 2. That is, the inspection model of the inspection T3 of the inspection device D1 is maintained at version 1. This is because the inspection accuracy (95%) of version 1 of the inspection model used by the inspection apparatus D1 for the inspection T3 is higher than the inspection accuracy (90%) of version 2 of the inspection model of the inspection T3 (step S308: YES). By maintaining the inspection model of the inspection T3 as version 1, it is possible to suppress a decrease in accuracy of the inspection T3 by the inspection device D1.

このように、管理装置3は、学習装置2から入力された検査Tの検査モデルを、バージョンごとに管理することができる。また、管理装置3は、複数の検査装置1について、検査装置1が利用する検査Tの検査モデルのバージョンを、検査精度が最高のバージョンに更新することができる。   Thus, the management device 3 can manage the test model of the test T input from the learning device 2 for each version. In addition, the management device 3 can update the version of the inspection model of the inspection T used by the inspection device 1 to the version having the highest inspection accuracy for the plurality of inspection devices 1.

以上説明した通り、本実施形態によれば、検査システム100は、撮影装置4により対象物Pを撮影し、検査装置1により対象物Pに対する検査Tを実行し、学習装置2により検査Tの新たな検査モデルを生成し、管理装置3により検査装置1が利用する検査Tの検査モデルのバージョンを更新する。検査システム100は、検査装置1、学習装置2、管理装置3、及び撮影装置4による上記の処理を自動的に繰り返し実行することにより、対象物Pに対する検査Tを実行しながら、検査Tの検査精度を自動的に向上させることができる。   As described above, according to the present embodiment, the inspection system 100 photographs the target P by the imaging device 4, executes the inspection T on the target P by the inspection device 1, and executes the inspection T on the target P by the learning device 2. A new inspection model is generated, and the version of the inspection model of the inspection T used by the inspection device 1 is updated by the management device 3. The inspection system 100 performs the inspection T on the object P by automatically and repeatedly executing the above processing by the inspection device 1, the learning device 2, the management device 3, and the imaging device 4, thereby performing the inspection T on the object P. Accuracy can be automatically improved.

なお、以上では、検査システム100が複数種類の対象物Pに対して検査Tを実行する場合を例に説明したが、検査システム100は、対象物Pの複数部分pに対する検査Tを実行してもよい。この場合、対象物Pの検査対象となる複数の部分pが、上述の複数の対象物Pに相当する。したがって、検査装置1の認識処理部122は対象物Pの各部分pの認識処理を実行し、検査装置1の検査処理部123は対象物Pの各部分pに対する検査Tを実行すればよい。また、学習装置2は対象物Pの各部分pに対する検査Tの検査モデルを生成し、管理装置3は対象物Pの各部分pに対する検査Tの検査モデルのバージョンを管理し、検査装置1の対象物Pの各部分pに対する検査Tの検査モデルのバージョンを更新すればよい。   In the above, the case where the inspection system 100 performs the inspection T on a plurality of types of objects P has been described as an example, but the inspection system 100 performs the inspection T on a plurality of portions p of the object P. Is also good. In this case, the plurality of portions p to be inspected of the object P correspond to the plurality of objects P described above. Therefore, the recognition processing unit 122 of the inspection apparatus 1 may execute the recognition processing of each part p of the object P, and the inspection processing unit 123 of the inspection apparatus 1 may execute the inspection T on each part p of the object P. Further, the learning device 2 generates a test model of the test T for each part p of the object P, the management device 3 manages a version of the test model of the test T for each portion p of the target P, and What is necessary is just to update the version of the inspection model of the inspection T for each part p of the object P.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。   Although the preferred embodiment of the present invention has been described in detail, the present invention is not limited to the above-described embodiment, and various modifications and substitutions can be made to the above-described embodiment without departing from the scope of the present invention. Can be added.

1:検査装置
2:学習装置
3:管理装置
4:撮影装置
11:メインボード
12:検査ボード
100:検査システム
111:CPU
112:RAM
113:ROM
114:HDD
115:接続インタフェース
116:入力装置
117:表示装置
118:通信インタフェース
119:バス
121:接続インタフェース
122:認識処理部
123:検査処理部
124:バス
P:対象物
T:検査
1: inspection apparatus 2: learning apparatus 3: management apparatus 4: imaging apparatus 11: main board 12: inspection board 100: inspection system 111: CPU
112: RAM
113: ROM
114: HDD
115: connection interface 116: input device 117: display device 118: communication interface 119: bus 121: connection interface 122: recognition processing unit 123: inspection processing unit 124: bus P: object T: inspection

Claims (12)

画像データから、対応する対象物の画像データを抽出する複数の認識処理部と、
前記対象物の画像データに基づいて、前記対象物に対応する検査を実行する複数の検査処理部と、
前記複数の認識処理部及び前記複数の検査処理部を制御する制御部と、
を備える検査装置。
A plurality of recognition processing units for extracting image data of a corresponding object from the image data;
Based on the image data of the object, a plurality of inspection processing unit that performs an inspection corresponding to the object,
A control unit that controls the plurality of recognition processing units and the plurality of inspection processing units,
An inspection device comprising:
前記制御部は、前記画像データを、前記複数の認識処理部にそれぞれ入力する
請求項1に記載の検査装置。
The inspection device according to claim 1, wherein the control unit inputs the image data to each of the plurality of recognition processing units.
前記制御部は、前記認識処理部により前記対象物の画像データが抽出されると、前記対象物の画像データを、前記対象物に対する前記検査を実行する前記検査処理部に入力する
請求項1又は請求項2に記載の検査装置。
The control unit, when the image data of the object is extracted by the recognition processing unit, inputs the image data of the object to the inspection processing unit that performs the inspection on the object. The inspection device according to claim 2.
前記認識処理部及び前記検査処理部は、それぞれ専用のプロセッサである
請求項1から請求項3までのいずれか1項に記載の検査装置。
The inspection device according to any one of claims 1 to 3, wherein the recognition processing unit and the inspection processing unit are dedicated processors, respectively.
前記認識処理部及び前記検査処理部と、前記制御部と、は異なる基板に設けられる
請求項1から請求項4までのいずれか1項に記載の検査装置。
The inspection device according to any one of claims 1 to 4, wherein the recognition processing unit and the inspection processing unit and the control unit are provided on different substrates.
前記検査処理部は、検査モデルに前記対象物の画像データを入力し、前記対象物の検査結果を出力する
請求項1から請求項5までのいずれか1項に記載の検査装置。
The inspection apparatus according to any one of claims 1 to 5, wherein the inspection processing unit inputs image data of the object to an inspection model and outputs an inspection result of the object.
請求項1から請求項6までのいずれか1項に記載の検査装置と、
前記制御部が出力した、前記対象物の画像データと、前記対象物の検査結果を示すデータと、含む検査結果データに基づいて、前記対象物の画像データと、前記検査結果と、の関係を学習し、検査モデルを生成する学習装置と、
を備える検査システム。
An inspection apparatus according to any one of claims 1 to 6,
The control unit outputs, the image data of the object, data indicating the inspection result of the object, based on the inspection result data including, based on the image data of the object, the relationship between the inspection result. A learning device that learns and generates an inspection model;
Inspection system comprising:
前記検査装置に画像データを入力する撮影装置を更に備える
請求項7に記載の検査システム。
The inspection system according to claim 7, further comprising a photographing device that inputs image data to the inspection device.
請求項1から請求項6までのいずれか1項に記載の検査装置と、
前記複数の検査処理部がそれぞれ利用する検査モデルのバージョンを更新する管理装置と、
を備える検査システム。
An inspection apparatus according to any one of claims 1 to 6,
A management device that updates the version of the test model used by each of the plurality of test processing units,
Inspection system comprising:
請求項1から請求項6までのいずれか1項に記載の検査装置と、
前記検査装置に画像データを入力する撮影装置と、
を備える検査システム。
An inspection apparatus according to any one of claims 1 to 6,
An imaging device for inputting image data to the inspection device,
Inspection system comprising:
請求項1から請求項6までのいずれか1項に記載の検査装置と、
前記制御部が出力した、前記対象物の画像データと、前記対象物の検査結果を示すデータと、含む検査結果データに基づいて、前記対象物の画像データと、前記検査結果と、の関係を学習し、検査モデルを生成する学習装置と、
前記学習装置が生成した複数の前記検査モデルを管理し、前記複数の検査処理部がそれぞれ利用する検査モデルのバージョンを更新する管理装置と、
を備える検査システム。
An inspection apparatus according to any one of claims 1 to 6,
The control unit outputs, the image data of the object, data indicating the inspection result of the object, based on the inspection result data including, based on the image data of the object, the relationship between the inspection result. A learning device that learns and generates an inspection model;
A management device that manages the plurality of test models generated by the learning device and updates a version of the test model used by each of the plurality of test processing units;
Inspection system comprising:
前記検査装置に画像データを入力する撮影装置を更に備える
請求項11に記載の検査システム。
The inspection system according to claim 11, further comprising a photographing device that inputs image data to the inspection device.
JP2018156687A 2018-08-23 2018-08-23 Inspection apparatus and inspection system Pending JP2020030145A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156687A JP2020030145A (en) 2018-08-23 2018-08-23 Inspection apparatus and inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156687A JP2020030145A (en) 2018-08-23 2018-08-23 Inspection apparatus and inspection system

Publications (1)

Publication Number Publication Date
JP2020030145A true JP2020030145A (en) 2020-02-27

Family

ID=69624260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156687A Pending JP2020030145A (en) 2018-08-23 2018-08-23 Inspection apparatus and inspection system

Country Status (1)

Country Link
JP (1) JP2020030145A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172338A1 (en) 2020-02-26 2021-09-02 株式会社Nttドコモ Terminal and communication method
JP2021177154A (en) * 2020-05-08 2021-11-11 ダイキン工業株式会社 Appearance inspection system
JP7026871B1 (en) * 2021-06-18 2022-02-28 三菱電機株式会社 Image processing device, image processing method, and image processing program
WO2022114190A1 (en) * 2020-11-30 2022-06-02 Brother Kogyo Kabushiki Kaisha Information processing system and information processing method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229941A (en) * 1993-01-29 1994-08-19 Ricoh Co Ltd Inspection apparatus for image
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2000353231A (en) * 1999-06-10 2000-12-19 Mitsubishi Electric Corp Picture processor
JP2001236337A (en) * 2000-02-22 2001-08-31 Fuji Electric Co Ltd Predicting device using neural network
JP2005227201A (en) * 2004-02-16 2005-08-25 Nikke Kikai Seisakusho:Kk Visual inspection device and visual inspection method
WO2009097336A2 (en) * 2008-01-28 2009-08-06 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
JP2009250722A (en) * 2008-04-03 2009-10-29 Nippon Steel Corp Defect learning apparatus, defect learning method and computer program
JP2009265082A (en) * 2008-04-03 2009-11-12 Nippon Steel Corp Flaw learning apparatus, flaw learning method, and computer program
JP2016519807A (en) * 2013-03-15 2016-07-07 ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation Self-evolving prediction model
JP2018028939A (en) * 2017-11-02 2018-02-22 ヤフー株式会社 Sorting assistance device, sorting assistance method, and sorting assistance program
JP2018050847A (en) * 2016-09-27 2018-04-05 パナソニックIpマネジメント株式会社 Cognitive function evaluation apparatus, cognitive function evaluation method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229941A (en) * 1993-01-29 1994-08-19 Ricoh Co Ltd Inspection apparatus for image
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2000353231A (en) * 1999-06-10 2000-12-19 Mitsubishi Electric Corp Picture processor
JP2001236337A (en) * 2000-02-22 2001-08-31 Fuji Electric Co Ltd Predicting device using neural network
JP2005227201A (en) * 2004-02-16 2005-08-25 Nikke Kikai Seisakusho:Kk Visual inspection device and visual inspection method
WO2009097336A2 (en) * 2008-01-28 2009-08-06 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
JP2009250722A (en) * 2008-04-03 2009-10-29 Nippon Steel Corp Defect learning apparatus, defect learning method and computer program
JP2009265082A (en) * 2008-04-03 2009-11-12 Nippon Steel Corp Flaw learning apparatus, flaw learning method, and computer program
JP2016519807A (en) * 2013-03-15 2016-07-07 ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation Self-evolving prediction model
JP2018050847A (en) * 2016-09-27 2018-04-05 パナソニックIpマネジメント株式会社 Cognitive function evaluation apparatus, cognitive function evaluation method, and program
JP2018028939A (en) * 2017-11-02 2018-02-22 ヤフー株式会社 Sorting assistance device, sorting assistance method, and sorting assistance program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172338A1 (en) 2020-02-26 2021-09-02 株式会社Nttドコモ Terminal and communication method
JP2021177154A (en) * 2020-05-08 2021-11-11 ダイキン工業株式会社 Appearance inspection system
WO2021225016A1 (en) * 2020-05-08 2021-11-11 ダイキン工業株式会社 Appearance inspection system
JP7410402B2 (en) 2020-05-08 2024-01-10 ダイキン工業株式会社 Visual inspection system
WO2022114190A1 (en) * 2020-11-30 2022-06-02 Brother Kogyo Kabushiki Kaisha Information processing system and information processing method
JP7026871B1 (en) * 2021-06-18 2022-02-28 三菱電機株式会社 Image processing device, image processing method, and image processing program
WO2022264396A1 (en) * 2021-06-18 2022-12-22 三菱電機株式会社 Image-processing device, image-processing method, and image-processing program

Similar Documents

Publication Publication Date Title
JP2020030145A (en) Inspection apparatus and inspection system
US10936911B2 (en) Logo detection
US11341626B2 (en) Method and apparatus for outputting information
JP6955211B2 (en) Identification device, identification method and program
TW202012920A (en) Method and syetem for inspecting a wafer
US20140185912A1 (en) Methods and Systems for Enhanced Automated Visual Inspection of a Physical Asset
WO2022151658A1 (en) Defect detection method and apparatus, and computer device and computer-readable storage medium
JP7049983B2 (en) Object recognition device and object recognition method
WO2020029466A1 (en) Image processing method and apparatus
JP7316731B2 (en) Systems and methods for detecting and classifying patterns in images in vision systems
US10860901B2 (en) Detection system, information processing apparatus, evaluation method, and program
KR20140121354A (en) Image processing apparatus, control method and program
CN107918767B (en) Object detection method, device, electronic equipment and computer-readable medium
JP2015011641A (en) Apparatus and method of creating image processing filter
US11989928B2 (en) Image processing system
CN110779460B (en) Offline guidance device, measurement control device, and storage medium
US11961218B2 (en) Machine vision systems and methods for automatically generating one or more machine vision jobs based on region of interests (ROIs) of digital images
JP2021108022A5 (en)
KR102582008B1 (en) Inspection appratus and contol method thereof
CN113167568B (en) Coordinate calculation device, coordinate calculation method, and computer-readable recording medium
Panteleris et al. Toward augmented reality in museums: evaluation of design choices for 3D object pose estimation
US9928446B2 (en) Augmented automatic defect classification
JP7331949B2 (en) Image processing device, image processing method, learning device, learning method, and program
WO2021049119A1 (en) Learning device, learning method, and non-transitory computer-readable medium in which learning program has been stored
JP7471435B2 (en) Image processing device, imaging device, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929