JP2020030145A - Inspection apparatus and inspection system - Google Patents
Inspection apparatus and inspection system Download PDFInfo
- Publication number
- JP2020030145A JP2020030145A JP2018156687A JP2018156687A JP2020030145A JP 2020030145 A JP2020030145 A JP 2020030145A JP 2018156687 A JP2018156687 A JP 2018156687A JP 2018156687 A JP2018156687 A JP 2018156687A JP 2020030145 A JP2020030145 A JP 2020030145A
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- image data
- test
- processing unit
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、検査装置及び検査システムに関する。 The present invention relates to an inspection device and an inspection system.
従来、製造ライン上を搬送される対象物を撮影装置で撮影し、得られた画像データに基づいて対象物を検査する検査システムが利用されている。検査システムは、画像データに基づいて、対象物を認識し、認識した対象物に予め用意された検査モデルを適用することにより、当該対象物の検査を行うことができる。 2. Description of the Related Art Conventionally, an inspection system has been used in which an object conveyed on a manufacturing line is photographed by a photographing device, and the object is inspected based on obtained image data. The inspection system can perform an inspection of the target object by recognizing the target object based on the image data and applying a prepared inspection model to the recognized target object.
しかしながら、従来の検査システムは、対象物の認識や検査モデルの適用を1つのソフトウェアにより実行していたため、複数種類の対象物が同時に撮影された場合、処理に時間がかかり、検査の実行が困難になった。このため、従来の検査システムを利用する場合には、製造ライン上で複数種類の対象物が同時に撮影されないように、対象物を整列させる必要があった。 However, in the conventional inspection system, the recognition of the object and the application of the inspection model are performed by one software. Therefore, when a plurality of types of objects are photographed at the same time, it takes time to perform the processing, and it is difficult to perform the inspection. Became. For this reason, when using the conventional inspection system, it is necessary to align the objects so that a plurality of types of objects are not photographed simultaneously on the production line.
本発明は、上記の課題に鑑みてなされたものであり、複数種類の対象物の検査を迅速に実行可能な検査装置及び検査システムを提供することを目的とする。 The present invention has been made in view of the above problems, and has as its object to provide an inspection apparatus and an inspection system that can quickly execute inspection of a plurality of types of objects.
一実施形態に係る検査装置は、画像データから、対応する対象物の画像データを抽出する複数の認識処理部と、前記対象物の画像データに基づいて、前記対象物に対応する検査を実行する複数の検査処理部と、前記複数の認識処理部及び前記複数の検査処理部を制御する制御部と、を備える。 An inspection device according to one embodiment performs a plurality of recognition processing units that extract image data of a corresponding object from image data, and performs an inspection corresponding to the object based on the image data of the object. A plurality of inspection processing units, and a control unit that controls the plurality of recognition processing units and the plurality of inspection processing units are provided.
本発明の各実施形態によれば、複数種類の対象物の検査を迅速に実行可能な検査装置及び検査システムを提供できる。 According to each embodiment of the present invention, it is possible to provide an inspection apparatus and an inspection system that can quickly execute inspection of a plurality of types of objects.
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重畳した説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the specification and the drawings according to the embodiments, components having substantially the same function and configuration are denoted by the same reference numerals, and overlapping descriptions will be omitted.
一実施形態に係る検査システム100について、図1〜図9を参照して説明する。本実施形態に係る検査システム100は、製造ライン上を搬送される対象物の画像データに基づいて、当該対象物の検査を実行するシステムである。対象物の検査は、欠陥検査、傷検査、汚れ検査、異物検査、方向判別検査、裏表検査、形状検査、異物混入検査、文字認識・文字照合検査、寸法検査、色識別検査、及び位置決め検査を含む。本実施形態では、製造ライン上を複数種類の対象物が搬送される場合を想定している。
An
まず、本実施形態に係る検査システム100の概略構成について説明する。図1は、検査システム100の概略構成を示す図である。図1の検査システム100は、検査装置1と、学習装置2と、管理装置3と、撮影装置4と、を備える。検査装置1、学習装置2、管理装置3、及び撮影装置4は、LAN(Local Area Network)やインターネットなどのネットワークにより接続される。以下、図1に示すように、製造ライン上を3種類の対象物P1〜P3が搬送され、対象物P1に対して検査T1が実行され、対象物P2に対して検査T2が実行され、対象物P3に対して検査T3,T4が実行される場合を例に説明する。
First, a schematic configuration of an
検査装置1は、撮影装置4から入力された画像データに基づいて、当該対象物Pの検査Tを実行するコンピュータである。検査装置1は、PC(Personal Computer)、サーバ、又は専用端末であるが、これに限られない。また、検査装置1は、ネットワークにより接続された複数のコンピュータにより構成されてもよい。検査装置1は、対象物Pの種類ごとに予め設定された検査Tを実行する。検査装置1は、上記の検査T3,T4のように、1種類の対象物Pに対して複数の検査Tを実行してもよい。検査装置1は、検査Tを実行すると、検査結果データを出力する。検査結果データは、検査対象となった対象物Pの画像データと、検査結果(ラベル)を示すデータと、を含むデータである。
The
上記のように、対象物P1の検査として検査T1、対象物P2の検査として検査T2、対象物P3の検査として検査T3,T4が予め設定されている場合、検査装置1は、4種類の検査を実行する。この場合、検査装置1は、撮影装置4から対象物P1の画像データを入力されると、検査T1を実行し、検査T1の検査結果データをそれぞれ出力する。検査装置1が出力した検査結果データは、学習装置2に入力される。
As described above, when the inspection T1 is set as the inspection of the object P1, the inspection T2 is set as the inspection of the object P2, and the inspections T3 and T4 are set as the inspection of the object P3, the
学習装置2は、1つ又は複数の検査装置1から入力された検査Tの検査結果データに基づいて、対象物Pの画像データと検査Tの検査結果との関係を学習(教師あり学習)し、対象物Pに対して検査Tを実行するための検査モデルを生成するコンピュータである。学習装置2は、PC、サーバ、又は専用端末であるが、これに限られない。また、学習装置2は、ネットワークにより接続された複数のコンピュータにより構成されてもよい。
The
検査モデルは、画像データに応じた検査結果を出力する数学的モデルである。検査モデルの生成は、検査モデルのパラメータの最適化に相当する。学習装置2は、検査モデルのパラメータを最適化可能な任意の機械学習方法(アルゴリズム)を利用することができる。機械学習方法は、サポートベクターマシン、決定木、ランダムフォレスト、ニューラルネットワーク、ディープラーニング、及びk近傍法を含む。学習装置2は、対象物Pの種類ごと、かつ、検査Tの種類ごとに、検査モデルを生成する。
The inspection model is a mathematical model that outputs an inspection result according to the image data. Generation of the inspection model corresponds to optimization of the parameters of the inspection model. The
学習装置2は、検査結果データを入力されると、当該検査結果データの中から学習データを選択する。学習データは、検査結果が正しいと考えられる検査結果データである。学習装置2は、検査結果データに含まれる画像データを学習データ選択用に予め用意された検査Tの検査モデルに入力し、検査Tの検査結果を取得する。学習データ選択用の検査モデルは、検査装置1が利用する検査モデルとは異なる検査モデルであるのが好ましい。学習装置2は、学習データ選択用の検査モデルにより得られた検査結果と、検査結果データに含まれる検査結果と、が一致する場合、検査結果データに含まれる検査結果が正しいと判断し、当該検査結果データを学習データとして選択する。これは、複数の検査モデルにより得られた検査結果が同一である場合、当該検査結果は正しいと考えられるためである。なお、学習データの選択方法は上記の例に限ら得ない。例えば、学習データは、検査結果データの中から、学習装置2のユーザにより手動で選択されてもよい。また、学習データの選択は、管理装置3により行われてもよい。学習装置2は、学習データが更新されると、更新された学習データに基づいて、検査モデルを生成し、当該検査モデルを出力する。学習装置2が出力した検査モデルは管理装置3に入力される。
Upon receiving the test result data, the
管理装置3は、学習装置2から入力された検査モデルを管理するコンピュータである。管理装置3は、PC、サーバ、又は専用端末であるが、これに限られない。また、管理装置3は、ネットワークにより接続された複数のコンピュータにより構成されてもよい。
The
管理装置3は、学習装置2から新たな検査モデルを入力されると、予め用意されたテストデータに基づいて、新たな検査モデルの検査精度を算出する。テストデータは、対象物Pの画像データと、正しいと考えられる検査結果を示すデータと、を含むデータである。管理装置3は、テストデータに含まれる対象物Pの画像データを検査モデルに入力することにより得られた検査結果と、テストデータに含まれる対象物Pの画像データに対応する検査結果と、を比較することにより、検出精度を算出することができる。また、管理装置3は、新たな検査モデルにバージョンを割り当てる。そして、管理装置3は、新たな検査モデルと、新たな検査モデルの検査精度と、新たな検査モデルのバージョンと、を関連付けて記憶する。
When a new test model is input from the
管理装置3は、検査モデルを検査Tのバージョンごとに管理する検査モデル管理テーブルを備える。検査モデル管理テーブルは、管理装置3のHDD上に設けられる。図2は、検査モデル管理テーブルの一例を示す図である。図2の例では、検査Tと、検査モデルのバージョン(ver)と、検査モデル(パラメータ値)と、検査精度(Ac)と、が関連付けられている。図2におけるa1,b1は検査T1の検査モデルのパラメータであり、a2,b2は検査T2の検査モデルのパラメータであり、a3,b3は検査T3の検査モデルのパラメータである。例えば、検査T1の検査モデルのバージョン1は、a1=1,b1=2の検査モデルであり、検査精度が70%である。管理装置3は、図2の例のように、複数種類の検査Tの検査モデルを、バージョンごとに管理する。
The
また、管理装置3は、検査装置1が利用する検査モデルのバージョンを検査Tごとに管理する検査装置管理テーブルを備える。検査装置管理テーブルは、管理装置3のHDD上に設けられる。図3は、検査装置1管理テーブルの一例を示す図である。図3の例では、検査装置1の識別情報(ID)と、検査処理部123の識別情報(id)と、検査Tの種類と、検査モデルのバージョン(ver)と、が関連付けられている。図3における、検査装置D1(識別情報がD1である検査装置1)は、検査処理部123a〜123d(識別情報がa〜dである検査処理部123)により、対象物Pにそれぞれ検査T1〜T4を実行する検査装置1であり、検査処理部123aが検査T1の検査モデルとしてバージョン1を利用する。管理装置3は、図3の例のように、複数の検査装置1について、各検査処理部123が利用する検査モデルのバージョンを、検査Tごとに管理する。
In addition, the
また、管理装置3は、所定のタイミングで、検査装置1が利用する検査モデルを更新する。所定のタイミングは、学習装置2により生成された新たな検査モデルが管理装置3に入力されたタイミング、検査装置1が起動したタイミング、検査装置1の後述する検査ボード12が起動したタイミング、及び管理装置3のユーザから要求されたタイミングを含む。また、管理装置3は、定期的に検査装置1が利用する検査モデルを更新してもよい。
Further, the
具体的には、管理装置3は、検査装置1が利用する検査Tの検査モデルを、検査Tの検査モデルの中で最も検査精度が高いバージョンに更新する。図2及び図3の例では、検査装置D1が利用する検査T1の検査モデルはバージョン2に更新され、検査T2の検査モデルはバージョン2に更新され、検査T3の検査モデルはバージョン1に維持される。すなわち、図3の検査モデル管理テーブルは、図4に示すように更新される。管理装置3が検査モデルを更新することにより、検査装置1は、学習装置2により生成された検査精度が最も高い検査モデルを利用して、検査Tを実行することができる。
Specifically, the
撮影装置4は、対象物Pを撮影するカメラであり、対象物Pを撮影可能なように製造ラインに設置される。撮影装置4は、有線又は無線により検査装置1に接続される。撮影装置4は、定期的(例えば、1秒ごと)に、又は所定のタイミングで撮影を実行し、撮影により得られた画像データを出力してもよいし、継続的に動画を撮影し、撮影により得られた動画データ(画像データ)を出力してもよい。所定のタイミングは、例えば、対象物Pが撮影装置4による撮影位置に到着したタイミングである。対象物Pが撮影位置に到着したことを検出するセンサ(画像センサや赤外線センサなど)を製造ラインに設け、対象物Pの到着をセンサが撮影装置4に通知することにより、撮影装置4は当該タイミングに撮影を実行することができる。撮影装置4の撮影により得られた画像データは、検査装置1に入力される。撮影装置4は、撮像素子としてCCDイメージセンサ又はCMOSイメージセンサを備えたカメラであるが、これに限られない。なお、撮影装置4が製造ラインに複数設置され、各撮影装置から検査装置1に画像データが入力されてもよい。
The
なお、以上では、検査装置1、学習装置2、及び管理装置3が、それぞれ独立したコンピュータである場合を例に説明したが、検査装置1、学習装置2、及び管理装置3の少なくとも2つが、1つのコンピュータにより構成されてもよい。
In the above, the case where the
次に、検査システム100のハードウェア構成について説明する。図5は、検査装置1のハードウェア構成の一例を示す図である。図5の検査装置1は、メインボード(メイン基板)11と、検査ボード(検査基板)12と、を備える。メインボード11は汎用的な処理を実行する基板であり、検査ボード12は検査Tを実行する基板である。メインボード11と検査ボード12とを分けて構成することにより、メインボード11を備える汎用コンピュータ(PCなど)に検査ボード12を接続するだけで、容易かつ安価に検査装置1を構成することができる。
Next, a hardware configuration of the
メインボード11は、後述する認識処理部11及び検査処理部123を制御する制御部に相当する。メインボード11は、CPU(Central Processing Unit)111と、RAM(Random Access Memory)112と、ROM(Read Only Memory)113と、HDD(Hard Disk Drive)114と、接続インタフェース115と、入力装置116と、表示装置117と、通信インタフェース118と、バス119と、を備える。
The main board 11 corresponds to a control unit that controls the recognition processing unit 11 and the inspection processing unit 123 described below. The main board 11 includes a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112, a ROM (Read Only Memory) 113, a HDD (Hard Disk Drive) 114, a
CPU111は、プログラムを実行することにより、検査装置1の各構成を制御し、検査装置1の機能を実現する。CPU111が実行するプログラムは、CD(Compact Disk)、DVD、フラッシュメモリなどの、コンピュータ読み取り可能な任意の記録媒体に記録され得る。
The
RAM112は、CPU111に作業領域を提供する。
The
ROM113は、CPU111が実行するプログラムや各種のデータを記憶する。
The
HDD114は、CPU111が実行するプログラムや各種のデータ(画像データなど)を記憶する。検査装置1は、HDD114と共に、又はHDD114の代わりにSSDを備えてもよいが、これに限られない。
The
接続インタフェース115は、メインボード11を検査ボード12に接続し、ボード間の通信を制御する。
The
入力装置116は、ユーザの操作に応じた情報を検査装置1に入力する。入力装置116は、タッチパッド、キーボード、マウス、又はハードウェアボタンであるが、これに限られない。
The
表示装置117は、ユーザの操作に応じた画面を表示する。表示装置117は、液晶ディスプレイ、又は有機ELディスプレイであるが、これに限られない。検査装置1は、タッチパッドと表示装置117が一体化されたタッチパネルを備えてもよい。
The
通信インタフェース118は、検査装置1をネットワークに接続し、ネットワーク上の外部装置との通信を制御する。検査装置1は、通信インタフェース118を介して、撮影装置4や学習装置2などの外部装置と通信する。
The
バス119は、CPU111、RAM112、ROM113、HDD114、接続インタフェース115、入力装置116、表示装置117、及び通信インタフェース118を相互に接続する。
The
検査ボード12は、接続インタフェース121と、認識処理部122a〜122cと、検査処理部123a〜123dと、バス124と、を備える。
The
接続インタフェース121は、検査ボード12をメインボード11に接続し、ボード間の通信を制御する。
The
認識処理部122は、撮影装置4から入力された画像データに基づいて、対応する対象物Pの認識処理を実行する専用のプロセッサである。具体的には、認識処理部122は、撮影装置4から入力された画像データの中から対象物Pの画像データを検出し、抽出する。検査装置1は、パターンマッチングやディープラーニングなどの周知の任意の方法により、認識処理を実行できる。認識処理部122は、CPU、GPU、FPGA(Field Programmable Gate Array)、又はASIC(Application Specific Integrated Circuit)であるが、これに限られない。認識処理部122はROM及びRAMを内蔵されていてもよいし、認識処理部122に対応するROM及びRAMが検査ボード12に実装されてもよい。
The recognition processing unit 122 is a dedicated processor that executes recognition processing of the corresponding target object P based on image data input from the
認識処理部122は、例えば、製造ライン上を搬送される対象物Pの種類ごと、すなわち、認識対象となる対象物Pの種類ごとに設けられる。本実施形態では、製造ライン上を3種類の対象物P1〜P3が搬送されるため、3つの認識処理部122が設けられている。認識処理部122aは対象物P1の認識処理を実行し、認識処理部122bは対象物P2の認識処理を実行し、認識処理部122cは対象物P3の認識処理を実行する。認識処理部122は、対象物Pの画像データを抽出すると、当該画像データを出力する。認識処理部122が出力した画像データは、検査処理部123に入力される。なお、認識処理部122の数は、対象物Pの種類に応じて任意に設計可能である。また、複数種類の対象物Pの認識処理を、1つの認識処理部122により実行することも可能である。
The recognition processing unit 122 is provided, for example, for each type of the target object P transported on the manufacturing line, that is, for each type of the target object P to be recognized. In the present embodiment, since three types of objects P1 to P3 are transported on the production line, three recognition processing units 122 are provided. The
検査処理部123は、認識処理部122から入力された対象物Pの画像データに基づいて、対象物Pに対応する検査Tを実行する専用のプロセッサ(主にハードウェアアクセラレータであるが、これに限られない)である。具体的には、検査処理部123は、対象物Pの画像データを検査Tの検査モデルに入力し、検査結果を出力する。検査処理部123は、CPU、GPU、FPGA、又はASICであるが、これに限られない。検査処理部123はROM及びRAMを内蔵されていてもよいし、検査処理部123に対応するROM及びRAMが検査ボード12に実装されてもよい。
The inspection processing unit 123 is a dedicated processor (mainly a hardware accelerator, which executes an inspection T corresponding to the object P based on the image data of the object P input from the recognition processing unit 122. It is not limited). Specifically, the inspection processing unit 123 inputs the image data of the object P to the inspection model of the inspection T, and outputs an inspection result. The inspection processing unit 123 is a CPU, a GPU, an FPGA, or an ASIC, but is not limited thereto. The inspection processing unit 123 may include a ROM and a RAM, or a ROM and a RAM corresponding to the inspection processing unit 123 may be mounted on the
検査処理部123は、例えば、検査装置1が実行する検査Tごとに設けられる。本実施形態では、検査装置1が検査T1〜T4を実行するため、4つの検査処理部123が設けられている。検査処理部123aは検査T1を実行し、検査処理部123bは検査T2を実行し、検査処理部123cは検査T3を実行し、検査処理部123dは検査T4を実行する。検査処理部123は、検査Tを実行すると、検査結果データを出力する。検査処理部123が出力した検査結果データは、学習装置2に入力される。なお、検査処理部123の数は、検査Tの種類に応じて任意に設計可能である。また、複数種類の検査Tを、1つの検査処理部123により実行することも可能である。
The inspection processing unit 123 is provided, for example, for each inspection T performed by the
バス124は、接続インタフェース121、認識処理部122、及び検査処理部123を相互に接続する。
The
なお、検査装置1のハードウェア構成は、図5の例に限られない。上述の通り、検査装置1は、複数のコンピュータにより構成されてもよい。また、検査装置1は、単一の基板により構成されてもよい。
The hardware configuration of the
図6は、学習装置2のハードウェア構成の一例を示す図である。図6の学習装置2は、CPU21と、RAM22と、ROM23と、HDD24と、入力装置25と、表示装置26と、通信インタフェース27と、バス28と、を備える。
FIG. 6 is a diagram illustrating an example of a hardware configuration of the
CPU21は、プログラムを実行することにより、学習装置2の各構成を制御し、学習装置2の機能を実現する。CPU21が実行するプログラムは、CD、DVD、フラッシュメモリなどの、コンピュータ読み取り可能な任意の記録媒体に記録され得る。学習装置2は、機械学習を高速に実行可能なように、複数のCPU21を備えてもよいし、CPU21の代わりに1つ又は複数のGPU(Graphics Processing Unit)を備えてもよい。
The
RAM22は、CPU21に作業領域を提供する。
The
ROM23は、CPU21が実行するプログラムや各種のデータを記憶する。
The
HDD24は、CPU21が実行するプログラムや各種のデータ(検査結果データなど)を記憶する。学習装置2は、HDD24と共に、又はHDD24の代わりにSSDを備えてもよい。
The
入力装置25は、ユーザの操作に応じた情報を学習装置2に入力する。入力装置25は、タッチパッド、キーボード、マウス、又はハードウェアボタンであるが、これに限られない。
The
表示装置26は、ユーザの操作に応じた画面を表示する。表示装置26は、液晶ディスプレイ、又は有機ELディスプレイであるが、これに限られない。学習装置2は、タッチパッドと表示装置26が一体化されたタッチパネルを備えてもよい。
The
通信インタフェース27は、学習装置2をネットワークに接続し、ネットワーク上の外部装置との通信を制御する。学習装置2は、通信インタフェース27を介して、検査装置1や管理装置3などの外部装置と通信する。
The
バス28は、CPU21、RAM22、ROM23、HDD24、入力装置25、表示装置26、及び通信インタフェース27を相互に接続する。
The
なお、学習装置2のハードウェア構成は、図6の例に限られない。上述の通り、学習装置2は、複数のコンピュータにより構成されてもよい。また、管理装置3のハードウェア構成は、学習装置2と同様であるため、説明を省略する。
The hardware configuration of the
次に、検査装置1及び撮影装置4の動作について説明する。図7は、検査装置1及び撮影装置4の動作の一例を示すフローチャートである。以下では、撮影装置4が定期的に撮影を実行する、又は動画を撮影する場合を例に説明する。検査装置1及び撮影装置4は、所定時間ごとに図7の動作を実行する。
Next, operations of the
まず、撮影装置4が製造ラインを撮影し(ステップS101)、得られた画像データを出力する。撮影装置4の撮影範囲に対象物Pが含まれる場合、対象物Pの画像データを含む画像データが出力されることになる。一方、撮影装置4の撮影範囲に対象物Pが含まれない場合、対象物Pの画像データを含まない画像データが出力されることになる。出力された画像データはメインボード11に入力される。
First, the photographing
検査装置1に画像データが入力されると、メインボード11は、当該画像データに対して前処理を実行する(ステップS102)。前処理は、認識処理や検査Tの精度を向上させるために事前に行う画像処理であり、フィルタ処理及びマスク処理を含む。メインボード11は、前処理を実行すると、前処理された画像データを認識処理部122aに入力し、認識処理部122aに認識処理の実行を指示する。
When the image data is input to the
認識処理部122aは、メインボード11から画像データを入力されると、対象物P1の認識処理を実行する(ステップS103)。認識処理部122aは、認識処理を実行すると、対象物P1の検出結果(対象物P1が検出されたか否か)をメインボード11に入力する。また、認識処理部122aは、対象物P1を検出した場合、入力された画像データから対象物P1の画像データを抽出し、メインボード11に入力する。認識処理部122aは、複数の対象物P1を検出した場合、各対象物P1について、検出結果及び画像データをメインボード11に入力すればよい。メインボード11は、認識処理部122aから検出結果を入力されると、前処理された画像データを認識処理部122bに入力し、認識処理部122bに認識処理の実行を指示する。
Upon receiving the image data from the main board 11, the
認識処理部122bは、メインボード11から画像データを入力されると、対象物P2の認識処理を実行する(ステップS104)。認識処理部122bは、認識処理を実行すると、対象物P2の検出結果(対象物P2が検出されたか否か)をメインボード11に入力する。また、認識処理部122bは、対象物P2を検出した場合、入力された画像データから対象物P2の画像データを抽出し、メインボード11に入力する。認識処理部122bは、複数の対象物P2を検出した場合、各対象物P2について、検出結果及び画像データをメインボード11に入力すればよい。メインボード11は、認識処理部122bから検出結果を入力されると、前処理された画像データを認識処理部122cに入力し、認識処理部122cに認識処理の実行を指示する。
Upon receiving the image data from the main board 11, the
認識処理部122cは、メインボード11から画像データを入力されると、対象物P3の認識処理を実行する(ステップS105)。認識処理部122cは、認識処理を実行すると、対象物P3の検出結果(対象物P3が検出されたか否か)をメインボード11に入力する。また、認識処理部122cは、対象物P3を検出した場合、入力された画像データから対象物P3の画像データを抽出し、メインボード11に入力する。認識処理部122cは、複数の対象物P3を検出した場合、各対象物P3について、検出結果及び画像データをメインボード11に入力すればよい。
Upon receiving the image data from the main board 11, the
このように、検査装置1は、各認識処理部122によって対応する1つ又は複数の対象物Pの認識処理を実行する。したがって、検査装置1は、認識処理部122を交換するだけで、対象物Pの種類の変化に対応することができる。なお、図7の例では、対象物P1〜P3の認識処理が認識処理部122a〜122cにより順番に実行されているが、対象物P1〜P3の認識処理は、認識処理部122a〜122cにより並列して実行されてもよい。これにより、対象物P1〜P3の認識処理に要する時間を短縮できる。
As described above, the
メインボード11は、認識処理部122cから検出結果を入力されると、対象物P1〜P3の検出結果に応じて以下の処理を行う。
When the detection result is input from the
認識処理部122aにより対象物P1が検出された場合(ステップS106:YES)、メインボード11は、認識処理部122aから入力された対象物P1の画像データを検査処理部123aに入力し、検査処理部123aに検査T1の実行を指示する。
When the object P1 is detected by the
検査処理部123aは、メインボード11から対象物P1の画像データを入力されると、対象物P1に対する検査T1を実行する(ステップS107)。すなわち、検査処理部123aは、検査T1の検査モデルに対象物P1の画像データを入力し、検査結果を出力する。検査処理部123aは、検査T1を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123aは、複数の対象物P1の画像データを入力された場合、各対象物P1に対して検査T1を実行し、各対象物P1について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123aから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P1の画像データと、を含む検査T1の検査結果データを生成する。なお、認識処理部122aにより対象物P1が検出されなかった場合(ステップS106:NO)、メインボード11は、認識処理部122aから対象物P1の画像データを入力されない。したがって、検査T1(ステップS107)は省略される。
When the image data of the object P1 is input from the main board 11, the
一方、認識処理部122bにより対象物P2が検出された場合(ステップS108:YES)、メインボード11は、認識処理部122bから入力された対象物P2の画像データを検査処理部123bに入力し、検査処理部123bに検査T2の実行を指示する。
On the other hand, when the target P2 is detected by the
検査処理部123bは、メインボード11から対象物P2の画像データを入力されると、対象物P2に対する検査T2を実行する(ステップS109)。すなわち、検査処理部123bは、検査T2の検査モデルに対象物P2の画像データを入力し、検査結果を出力する。検査処理部123bは、検査T2を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123bは、複数の対象物P2の画像データを入力された場合、各対象物P2に対して検査T2を実行し、各対象物P2について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123bから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P2の画像データと、を含む検査T2の検査結果データを生成する。なお、認識処理部122bにより対象物P2が検出されなかった場合(ステップS108:NO)、メインボード11は、認識処理部122bから対象物P2の画像データを入力されない。したがって、検査T2(ステップS109)は省略される。
Upon receiving the image data of the object P2 from the main board 11, the
他方、認識処理部122cにより対象物P3が検出された場合(ステップS110:YES)、メインボード11は、認識処理部122cから入力された対象物P3の画像データを検査処理部123cに入力し、検査処理部123cに検査T3の実行を指示する。
On the other hand, when the object P3 is detected by the
検査処理部123cは、メインボード11から対象物P3の画像データを入力されると、対象物P3に対する検査T3を実行する(ステップS111)。すなわち、検査処理部123cは、検査T3の検査モデルに対象物P3の画像データを入力し、検査結果を出力する。検査処理部123cは、検査T3を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123cは、複数の対象物P3の画像データを入力された場合、各対象物P3に対して検査T3を実行し、各対象物P3について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123cから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P3の画像データと、を含む検査T3の検査結果データを生成する。また、メインボード11は、対象物P3の画像データを検査処理部123dに入力し、検査処理部123dに検査T4の実行を指示する。
Upon receiving the image data of the object P3 from the main board 11, the
また、検査処理部123dは、メインボード11から対象物P3の画像データを入力されると、対象物P3に対する検査T4を実行する(ステップS112)。すなわち、検査処理部123dは、検査T4の検査モデルに対象物P3の画像データを入力し、検査結果を出力する。検査処理部123dは、検査T4を実行すると、検査結果を示すデータをメインボード11に入力する。検査処理部123dは、複数の対象物P3の画像データを入力された場合、各対象物P3に対して検査T4を実行し、各対象物P3について検査結果を示すデータをメインボード11に入力すればよい。メインボード11は、検査処理部123dから検出結果を示すデータを入力されると、検査結果を示すデータと、対象物P3の画像データと、を含む検査T4の検査結果データを生成する。なお、認識処理部122cにより対象物P3が検出されなかった場合(ステップS110:NO)、メインボード11は、認識処理部122cから対象物P3の画像データを入力されない。したがって、検査T3,T4(ステップS111,S112)は省略される。
When the image data of the object P3 is input from the main board 11, the
メインボード11は、認識処理部122により検出された対象物Pの検査Tの検査結果データを全て生成すると、生成された検査結果データを出力する(ステップS113)。メインボード11は、検査結果データを一時的に記憶しておき、所定時間ごとにまとめて出力してもよい。メインボード11が出力した検査結果データは、学習装置2に入力される。
When all the inspection result data of the inspection T of the object P detected by the recognition processing unit 122 is generated, the main board 11 outputs the generated inspection result data (Step S113). The main board 11 may temporarily store the inspection result data and output the inspection result data collectively at predetermined time intervals. The inspection result data output by the main board 11 is input to the
このように、検査装置1は、各検査処理部123によって各検査Tを実行する。したがって、検査装置1は、検査処理部123を交換するだけで、検査Tの種類の変化に対応することができる。
As described above, the
また、撮影装置4により複数種類の対象物Pが同時に撮影された場合であっても、検査装置1は、各対象物Pの画像データを対応する検査処理部123に入力するというシンプルな処理により各対象物Pの検査Tを実行できる上、各検査Tをそれぞれ専用のプロセッサにより実行することができる。したがって、検査装置1は、複数種類の対象物Pの検査Tを迅速に実行することができる。また、この検査装置1を利用することにより、製造ライン上で複数種類の対象物Pが同時に撮影されないように対象物Pを整列させる必要がなくなるため、製造ラインの構成を簡略化することができる。
Further, even when a plurality of types of objects P are simultaneously imaged by the
なお、図7の例では、検査T1〜T4が検査処理部123a〜123dにより順番に実行されているが、検査T1〜T4は、検査処理部123a〜123dにより並列して実行されてもよい。これにより、検査T1〜T4に要する時間を短縮できる。また、メインボード11は、検査T1〜T4の検査結果や、検査対象となった対象物P1〜P3の画像を、表示装置117に表示させてもよい。
In the example of FIG. 7, the tests T1 to T4 are sequentially performed by the
次に、学習装置2の動作について説明する。図8は、学習装置2の動作の一例を示すフローチャートである。学習装置2は、所定時間ごとに図8の動作を実行する。
Next, the operation of the
まず、学習装置2は、学習タイミングが到来したか確認する(ステップS201)。学習タイミングは、所定時間ごとであってもよいし、一定数の検査結果データを入力されたタイミングであってもよいし、ユーザからの指示を受けたタイミングであってもよい。学習タイミングが到来していない場合(ステップS201:NO)、学習装置2は動作を終了する。
First, the
一方、学習タイミングが到来した場合(ステップS201:YES)、学習装置2は、各検査Tについて、以下の動作をそれぞれ実行する。
On the other hand, when the learning timing has arrived (step S201: YES), the
まず、学習装置2は、検査Tの新たな検査結果データが入力されたか確認する(ステップS202)。新たな検査結果データは、検査Tの検査モデルを前回生成した後に学習装置2に入力された検査結果データである。新たな検査結果データが入力されていない場合(ステップS202:NO)、学習装置2は、当該検査Tについての処理を終了する。
First, the
一方、新たな検査結果データが入力されている場合(ステップS202:YES)、学習装置2は、新たな検査結果データの中から新たな学習データを選択する(ステップS203)。学習データの選択方法は上述の通りである。
On the other hand, when new test result data is input (step S202: YES), the
学習装置2は、新たな学習データを選択すると、当該新たな学習データに基づいて、対象物Pの画像データと検査Tの検査結果との関係を学習し、新たな検査モデルを生成する(ステップS204)。この際、学習装置2は、新たな学習データと共に、既存の学習データを併用してもよい。学習装置2は、検査Tの新たな検査モデルを生成すると、当該検査モデルを出力する(ステップS205)。学習装置2が出力した検査モデルは、管理装置3に入力される。
Upon selecting the new learning data, the
学習装置2が各検査TについてステップS202〜S205の処理を実行することにより、各検査Tの新たな検査モデルが生成される。
The
このように、学習装置2は、検査装置1から入力された検査Tの検査結果データに基づいて、検査Tの検査モデルを生成することができる。
As described above, the
次に、管理装置3の動作について説明する。図9は、管理装置3の動作の一例を示すフローチャートである。管理装置3は、所定時間ごとに図9の動作を実行する。
Next, the operation of the
まず、管理装置3は、学習装置2から新たな検査モデルが入力されたか確認する(ステップS301)。新たな検査モデルが入力されていない場合(ステップS301:NO)、処理はステップS305に進む。一方、新たな検査モデルが入力されている場合(ステップS301:YES)、管理装置3は、当該検査モデルに新たなバージョンを割り当てる(ステップS302)。
First, the
次に、管理装置3は、テストデータに基づいて、新たな検査モデルの検査精度を算出する(ステップS303)。管理装置3は、検査精度を算出する際、テストデータに含まれる対象物Pの画像データに、検査装置1と同様の前処理を実行するのが好ましい。
Next, the
その後、管理装置3は、新たな検査モデルと、新たな検査モデルの検査精度と、新たな検査モデルのバージョンと、を関連付けて記憶する(ステップS304)。これにより、図2の例のように、管理装置3は、各検査Tの検査モデルについて、複数のバージョンを管理することができる。
Thereafter, the
続いて、管理装置3は、検査装置1の検査モデルの更新タイミングが到来したか確認する(ステップS305)。管理装置3が検査モデルを管理しているいずれの検査装置1の更新タイミングも到来していない場合(ステップS305:NO)、管理装置3は動作を終了する。
Subsequently, the
一方、管理装置3が検査モデルを管理しているいずれかの検査装置1の更新タイミングも到来している場合(ステップS305:YES)、管理装置3は、検査モデルの更新対象となる検査装置1の識別情報を取得する(ステップS306)。例えば、検査装置1の起動時が検査モデルの更新タイミングとして設定されている場合について考える。この場合、検査装置1は、起動すると、その旨を識別情報と共に管理装置3に通知する。管理装置3は、検査装置1から通知された識別情報を、更新対象となる検査装置1の識別情報として取得すればよい。また、管理装置3に検査装置1ごとの更新時刻が設定されている場合には、管理装置3は、更新時刻が到来した検査装置1の識別情報を、更新対象となる検査装置1の識別情報として取得すればよい。なお、検査装置1の識別情報の取得方法はこれに限られない。
On the other hand, when the update timing of any of the
管理装置3は、更新対象となる検査装置1の識別情報を取得すると、識別情報を取得した各検査装置1について以下の動作を実行する。
When acquiring the identification information of the
管理装置3は、検査装置管理テーブルを参照して、検査装置1が実行する検査Tの種類を取得する(ステップS307)。図3の例では、検査装置D1が実行する検査Tの種類として、検査T1〜T4が取得される。管理装置3は、検査装置1が実行する検査Tの種類を取得すると、取得した各検査Tについて以下の動作を実行する。
The
管理装置3は、検査装置1が利用する検査Tの検査モデルのバージョンが、検査精度が最高のバージョンであるか確認する(ステップS308)。具体的には、管理装置3は、検査装置管理テーブルを参照して、検査装置1が利用する検査Tの検査モデルのバージョンを取得する。そして、管理装置3は、検査モデル管理テーブルを参照して、取得したバージョンの検査精度が、検査Tの検査モデルの各バージョンの中で最高であるか確認する。検査装置1が利用する検査Tの検査モデルのバージョンが、検査精度が最高のバージョンである場合(ステップS308:YES)、管理装置3は、当該検査Tについての動作を終了し、次の検査Tについての動作を開始する。
The
一方、検査装置1が利用する検査Tの検査モデルのバージョンが、検査精度が最高のバージョンではない場合(ステップS308:NO)、管理装置3は、検査モデル管理テーブルを参照して、検査Tの検査モデルの各バージョンの中で、検査精度が最高のバージョンを選択する(ステップS309)。
On the other hand, when the version of the inspection model of the inspection T used by the
管理装置3は、検査精度が最高のバージョンを選択すると、検査装置1が利用する検査Tの検査モデルを、選択したバージョンに更新する(ステップS310)。具体的には、管理装置3は、選択したバージョンの検査モデル(パラメータ値)を検査装置1に送信し、検査装置1に検査モデルの更新を指示する。検査装置1は、当該指示に応じて、検査Tを実行する検査処理部123が利用する検査モデルを更新する。そして、管理装置3は、検査装置管理テーブルに記憶された、検査装置1の検査Tの検査モデルのバージョンを、選択したバージョンに更新する。その後、管理装置3は、当該検査Tについての動作を終了し、次の検査Tについての動作を開始する。
When selecting the version with the highest inspection accuracy, the
管理装置3が各検査装置1の検査Tの検査モデルについて、ステップS307〜S310の処理を実行することにより、各検査装置1の検査Tの検査モデルが更新される。
The
例えば、図2及び図3の例では、検査装置D1の検査T1の検査モデルは、バージョン1からバージョン2に更新される(ステップS310)。これは、検査装置D1が検査T1に利用する検査モデルのバージョン1の検査精度(70%)より、検査T1の検査モデルのバージョン2の検査精度(80%)の方が高いためである(ステップS308:NO)。検査T1の検査モデルをバージョン1からバージョン2に更新することにより、検査装置D1による検査T1の精度を向上させることができる。
For example, in the examples of FIGS. 2 and 3, the inspection model of the inspection T1 of the inspection device D1 is updated from
一方、図2及び図3の例では、検査装置D1の検査T3の検査モデルは、バージョン1からバージョン2に更新されない。すなわち、検査装置D1の検査T3の検査モデルは、バージョン1のまま維持される。これは、検査装置D1が検査T3に利用する検査モデルのバージョン1の検査精度(95%)が、検査T3の検査モデルのバージョン2の検査精度(90%)より高いためである(ステップS308:YES)。検査T3の検査モデルをバージョン1のまま維持することにより、検査装置D1による検査T3の精度の低下を抑制することができる。
On the other hand, in the examples of FIGS. 2 and 3, the inspection model of the inspection T3 of the inspection device D1 is not updated from
このように、管理装置3は、学習装置2から入力された検査Tの検査モデルを、バージョンごとに管理することができる。また、管理装置3は、複数の検査装置1について、検査装置1が利用する検査Tの検査モデルのバージョンを、検査精度が最高のバージョンに更新することができる。
Thus, the
以上説明した通り、本実施形態によれば、検査システム100は、撮影装置4により対象物Pを撮影し、検査装置1により対象物Pに対する検査Tを実行し、学習装置2により検査Tの新たな検査モデルを生成し、管理装置3により検査装置1が利用する検査Tの検査モデルのバージョンを更新する。検査システム100は、検査装置1、学習装置2、管理装置3、及び撮影装置4による上記の処理を自動的に繰り返し実行することにより、対象物Pに対する検査Tを実行しながら、検査Tの検査精度を自動的に向上させることができる。
As described above, according to the present embodiment, the
なお、以上では、検査システム100が複数種類の対象物Pに対して検査Tを実行する場合を例に説明したが、検査システム100は、対象物Pの複数部分pに対する検査Tを実行してもよい。この場合、対象物Pの検査対象となる複数の部分pが、上述の複数の対象物Pに相当する。したがって、検査装置1の認識処理部122は対象物Pの各部分pの認識処理を実行し、検査装置1の検査処理部123は対象物Pの各部分pに対する検査Tを実行すればよい。また、学習装置2は対象物Pの各部分pに対する検査Tの検査モデルを生成し、管理装置3は対象物Pの各部分pに対する検査Tの検査モデルのバージョンを管理し、検査装置1の対象物Pの各部分pに対する検査Tの検査モデルのバージョンを更新すればよい。
In the above, the case where the
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。 Although the preferred embodiment of the present invention has been described in detail, the present invention is not limited to the above-described embodiment, and various modifications and substitutions can be made to the above-described embodiment without departing from the scope of the present invention. Can be added.
1:検査装置
2:学習装置
3:管理装置
4:撮影装置
11:メインボード
12:検査ボード
100:検査システム
111:CPU
112:RAM
113:ROM
114:HDD
115:接続インタフェース
116:入力装置
117:表示装置
118:通信インタフェース
119:バス
121:接続インタフェース
122:認識処理部
123:検査処理部
124:バス
P:対象物
T:検査
1: inspection apparatus 2: learning apparatus 3: management apparatus 4: imaging apparatus 11: main board 12: inspection board 100: inspection system 111: CPU
112: RAM
113: ROM
114: HDD
115: connection interface 116: input device 117: display device 118: communication interface 119: bus 121: connection interface 122: recognition processing unit 123: inspection processing unit 124: bus P: object T: inspection
Claims (12)
前記対象物の画像データに基づいて、前記対象物に対応する検査を実行する複数の検査処理部と、
前記複数の認識処理部及び前記複数の検査処理部を制御する制御部と、
を備える検査装置。 A plurality of recognition processing units for extracting image data of a corresponding object from the image data;
Based on the image data of the object, a plurality of inspection processing unit that performs an inspection corresponding to the object,
A control unit that controls the plurality of recognition processing units and the plurality of inspection processing units,
An inspection device comprising:
請求項1に記載の検査装置。 The inspection device according to claim 1, wherein the control unit inputs the image data to each of the plurality of recognition processing units.
請求項1又は請求項2に記載の検査装置。 The control unit, when the image data of the object is extracted by the recognition processing unit, inputs the image data of the object to the inspection processing unit that performs the inspection on the object. The inspection device according to claim 2.
請求項1から請求項3までのいずれか1項に記載の検査装置。 The inspection device according to any one of claims 1 to 3, wherein the recognition processing unit and the inspection processing unit are dedicated processors, respectively.
請求項1から請求項4までのいずれか1項に記載の検査装置。 The inspection device according to any one of claims 1 to 4, wherein the recognition processing unit and the inspection processing unit and the control unit are provided on different substrates.
請求項1から請求項5までのいずれか1項に記載の検査装置。 The inspection apparatus according to any one of claims 1 to 5, wherein the inspection processing unit inputs image data of the object to an inspection model and outputs an inspection result of the object.
前記制御部が出力した、前記対象物の画像データと、前記対象物の検査結果を示すデータと、含む検査結果データに基づいて、前記対象物の画像データと、前記検査結果と、の関係を学習し、検査モデルを生成する学習装置と、
を備える検査システム。 An inspection apparatus according to any one of claims 1 to 6,
The control unit outputs, the image data of the object, data indicating the inspection result of the object, based on the inspection result data including, based on the image data of the object, the relationship between the inspection result. A learning device that learns and generates an inspection model;
Inspection system comprising:
請求項7に記載の検査システム。 The inspection system according to claim 7, further comprising a photographing device that inputs image data to the inspection device.
前記複数の検査処理部がそれぞれ利用する検査モデルのバージョンを更新する管理装置と、
を備える検査システム。 An inspection apparatus according to any one of claims 1 to 6,
A management device that updates the version of the test model used by each of the plurality of test processing units,
Inspection system comprising:
前記検査装置に画像データを入力する撮影装置と、
を備える検査システム。 An inspection apparatus according to any one of claims 1 to 6,
An imaging device for inputting image data to the inspection device,
Inspection system comprising:
前記制御部が出力した、前記対象物の画像データと、前記対象物の検査結果を示すデータと、含む検査結果データに基づいて、前記対象物の画像データと、前記検査結果と、の関係を学習し、検査モデルを生成する学習装置と、
前記学習装置が生成した複数の前記検査モデルを管理し、前記複数の検査処理部がそれぞれ利用する検査モデルのバージョンを更新する管理装置と、
を備える検査システム。 An inspection apparatus according to any one of claims 1 to 6,
The control unit outputs, the image data of the object, data indicating the inspection result of the object, based on the inspection result data including, based on the image data of the object, the relationship between the inspection result. A learning device that learns and generates an inspection model;
A management device that manages the plurality of test models generated by the learning device and updates a version of the test model used by each of the plurality of test processing units;
Inspection system comprising:
請求項11に記載の検査システム。 The inspection system according to claim 11, further comprising a photographing device that inputs image data to the inspection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156687A JP2020030145A (en) | 2018-08-23 | 2018-08-23 | Inspection apparatus and inspection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156687A JP2020030145A (en) | 2018-08-23 | 2018-08-23 | Inspection apparatus and inspection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020030145A true JP2020030145A (en) | 2020-02-27 |
Family
ID=69624260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156687A Pending JP2020030145A (en) | 2018-08-23 | 2018-08-23 | Inspection apparatus and inspection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020030145A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021172338A1 (en) | 2020-02-26 | 2021-09-02 | 株式会社Nttドコモ | Terminal and communication method |
JP2021177154A (en) * | 2020-05-08 | 2021-11-11 | ダイキン工業株式会社 | Appearance inspection system |
JP7026871B1 (en) * | 2021-06-18 | 2022-02-28 | 三菱電機株式会社 | Image processing device, image processing method, and image processing program |
WO2022114190A1 (en) * | 2020-11-30 | 2022-06-02 | Brother Kogyo Kabushiki Kaisha | Information processing system and information processing method |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06229941A (en) * | 1993-01-29 | 1994-08-19 | Ricoh Co Ltd | Inspection apparatus for image |
JPH11104984A (en) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer |
JP2000353231A (en) * | 1999-06-10 | 2000-12-19 | Mitsubishi Electric Corp | Picture processor |
JP2001236337A (en) * | 2000-02-22 | 2001-08-31 | Fuji Electric Co Ltd | Predicting device using neural network |
JP2005227201A (en) * | 2004-02-16 | 2005-08-25 | Nikke Kikai Seisakusho:Kk | Visual inspection device and visual inspection method |
WO2009097336A2 (en) * | 2008-01-28 | 2009-08-06 | Seegrid Corporation | Methods for repurposing temporal-spatial information collected by service robots |
JP2009250722A (en) * | 2008-04-03 | 2009-10-29 | Nippon Steel Corp | Defect learning apparatus, defect learning method and computer program |
JP2009265082A (en) * | 2008-04-03 | 2009-11-12 | Nippon Steel Corp | Flaw learning apparatus, flaw learning method, and computer program |
JP2016519807A (en) * | 2013-03-15 | 2016-07-07 | ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation | Self-evolving prediction model |
JP2018028939A (en) * | 2017-11-02 | 2018-02-22 | ヤフー株式会社 | Sorting assistance device, sorting assistance method, and sorting assistance program |
JP2018050847A (en) * | 2016-09-27 | 2018-04-05 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus, cognitive function evaluation method, and program |
-
2018
- 2018-08-23 JP JP2018156687A patent/JP2020030145A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06229941A (en) * | 1993-01-29 | 1994-08-19 | Ricoh Co Ltd | Inspection apparatus for image |
JPH11104984A (en) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer |
JP2000353231A (en) * | 1999-06-10 | 2000-12-19 | Mitsubishi Electric Corp | Picture processor |
JP2001236337A (en) * | 2000-02-22 | 2001-08-31 | Fuji Electric Co Ltd | Predicting device using neural network |
JP2005227201A (en) * | 2004-02-16 | 2005-08-25 | Nikke Kikai Seisakusho:Kk | Visual inspection device and visual inspection method |
WO2009097336A2 (en) * | 2008-01-28 | 2009-08-06 | Seegrid Corporation | Methods for repurposing temporal-spatial information collected by service robots |
JP2009250722A (en) * | 2008-04-03 | 2009-10-29 | Nippon Steel Corp | Defect learning apparatus, defect learning method and computer program |
JP2009265082A (en) * | 2008-04-03 | 2009-11-12 | Nippon Steel Corp | Flaw learning apparatus, flaw learning method, and computer program |
JP2016519807A (en) * | 2013-03-15 | 2016-07-07 | ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation | Self-evolving prediction model |
JP2018050847A (en) * | 2016-09-27 | 2018-04-05 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus, cognitive function evaluation method, and program |
JP2018028939A (en) * | 2017-11-02 | 2018-02-22 | ヤフー株式会社 | Sorting assistance device, sorting assistance method, and sorting assistance program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021172338A1 (en) | 2020-02-26 | 2021-09-02 | 株式会社Nttドコモ | Terminal and communication method |
JP2021177154A (en) * | 2020-05-08 | 2021-11-11 | ダイキン工業株式会社 | Appearance inspection system |
WO2021225016A1 (en) * | 2020-05-08 | 2021-11-11 | ダイキン工業株式会社 | Appearance inspection system |
JP7410402B2 (en) | 2020-05-08 | 2024-01-10 | ダイキン工業株式会社 | Visual inspection system |
WO2022114190A1 (en) * | 2020-11-30 | 2022-06-02 | Brother Kogyo Kabushiki Kaisha | Information processing system and information processing method |
JP7026871B1 (en) * | 2021-06-18 | 2022-02-28 | 三菱電機株式会社 | Image processing device, image processing method, and image processing program |
WO2022264396A1 (en) * | 2021-06-18 | 2022-12-22 | 三菱電機株式会社 | Image-processing device, image-processing method, and image-processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020030145A (en) | Inspection apparatus and inspection system | |
US10936911B2 (en) | Logo detection | |
US11341626B2 (en) | Method and apparatus for outputting information | |
JP6955211B2 (en) | Identification device, identification method and program | |
TW202012920A (en) | Method and syetem for inspecting a wafer | |
US20140185912A1 (en) | Methods and Systems for Enhanced Automated Visual Inspection of a Physical Asset | |
WO2022151658A1 (en) | Defect detection method and apparatus, and computer device and computer-readable storage medium | |
JP7049983B2 (en) | Object recognition device and object recognition method | |
WO2020029466A1 (en) | Image processing method and apparatus | |
JP7316731B2 (en) | Systems and methods for detecting and classifying patterns in images in vision systems | |
US10860901B2 (en) | Detection system, information processing apparatus, evaluation method, and program | |
KR20140121354A (en) | Image processing apparatus, control method and program | |
CN107918767B (en) | Object detection method, device, electronic equipment and computer-readable medium | |
JP2015011641A (en) | Apparatus and method of creating image processing filter | |
US11989928B2 (en) | Image processing system | |
CN110779460B (en) | Offline guidance device, measurement control device, and storage medium | |
US11961218B2 (en) | Machine vision systems and methods for automatically generating one or more machine vision jobs based on region of interests (ROIs) of digital images | |
JP2021108022A5 (en) | ||
KR102582008B1 (en) | Inspection appratus and contol method thereof | |
CN113167568B (en) | Coordinate calculation device, coordinate calculation method, and computer-readable recording medium | |
Panteleris et al. | Toward augmented reality in museums: evaluation of design choices for 3D object pose estimation | |
US9928446B2 (en) | Augmented automatic defect classification | |
JP7331949B2 (en) | Image processing device, image processing method, learning device, learning method, and program | |
WO2021049119A1 (en) | Learning device, learning method, and non-transitory computer-readable medium in which learning program has been stored | |
JP7471435B2 (en) | Image processing device, imaging device, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200409 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200929 |