JP6392922B1 - 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法 - Google Patents

検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法 Download PDF

Info

Publication number
JP6392922B1
JP6392922B1 JP2017054628A JP2017054628A JP6392922B1 JP 6392922 B1 JP6392922 B1 JP 6392922B1 JP 2017054628 A JP2017054628 A JP 2017054628A JP 2017054628 A JP2017054628 A JP 2017054628A JP 6392922 B1 JP6392922 B1 JP 6392922B1
Authority
JP
Japan
Prior art keywords
workpiece
imaging
image
unit
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017054628A
Other languages
English (en)
Other versions
JP2018155695A (ja
Inventor
順一郎 吉田
順一郎 吉田
文和 藁科
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017054628A priority Critical patent/JP6392922B1/ja
Priority to DE102018105955.8A priority patent/DE102018105955B4/de
Priority to CN201810225234.4A priority patent/CN108627515B/zh
Priority to US15/926,558 priority patent/US10724963B2/en
Application granted granted Critical
Publication of JP6392922B1 publication Critical patent/JP6392922B1/ja
Publication of JP2018155695A publication Critical patent/JP2018155695A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8867Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/889Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a bare video image, i.e. without visual measurement aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37206Inspection of surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45066Inspection robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

【課題】ワークの表面を検査する検査しシステムにおいて、被検査面以外の領域を容易に特定可能とする技術が求められている。
【解決手段】装置50は、ワークの図面データを取得する図面取得部52と、図面データにおいてワークの被検査面の指定を受け付ける指定受付部54と、指定された被検査面の少なくとも一部が撮像部16の視野に入る撮像位置にワークと撮像部16とを位置決めしたときの該撮像部16の視野内の画像において、被検査面以外の画像領域を、非検査領域として算出する非検査領域算出部58とを備える。
【選択図】図2

Description

本発明は、ワークの表面を検査する検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法に関する。
ワークの表面の傷等を検査するための検査システムが知られている(例えば、特許文献1)。
特開平7−63537号公報
上述のような検査システムにおいては、ワークの表面を検査するとき、該表面を撮像部によって撮像し、撮像した画像から傷等を検出する。この場合において、撮像した画像に、検査すべき被検査面以外の領域が存在し得る。従来、このような被検査面以外の領域を容易に特定可能とする技術が求められている。
本発明の一態様において、ワークを撮像する撮像部と、前記ワークまたは前記撮像部を移動させて該ワークと該撮像部とを互いに位置決めする移動機構とを有する、ワーク表面を検査する検査システムの検査対象外となる画像領域を算出する装置は、ワークの図面データを取得する図面取得部と、前記図面データにおいて前記ワークの被検査面の指定を受け付ける指定受付部と、指定された前記被検査面の少なくとも一部が前記撮像部の視野に入る撮像位置に前記ワークと前記撮像部とを位置決めしたときの該撮像部の視野内の画像において、前記被検査面以外の画像領域を非検査領域として算出する非検査領域算出部とを備える。
本発明の他の態様において、ワークを撮像する撮像部と、前記ワークまたは前記撮像部を移動させて該ワークと該撮像部とを互いに位置決めする移動機構とを有する、ワーク表面を検査する検査システムの検査対象外となる領域を算出する方法は、前記ワークの図面データを取得することと、図面データにおいて前記ワークの被検査面の指定を受け付けることと、指定された前記被検査面の少なくとも一部が前記撮像部の視野に入る撮像位置に前記ワークと前記撮像部とを位置決めしたときの該撮像部の視野内の画像において、前記被検査面以外の画像領域を、非検査領域として算出することとを備える。
本開示の一態様によれば、ワークの図面データから、検査システムによって検査する必要のない非検査領域を算出できる。これにより、被検査面の検査時に非検査領域を自動で算出することができるので、オペレータが撮像部の視野毎に非検査領域を手動で設定する作業を省くことができる。
一実施形態に係る検査システムの斜視図である。 図1に示す検査システムのブロック図である。 図1に示すロボットハンドの拡大図であって、該ロボットハンドを、ツール座標系のy軸プラス方向から見た図である。 図1の撮像部およびワークを拡大した拡大図である。 ワークと撮像部とが第1の撮像位置に位置決めされたときの被検査面における視野を示す図である。 ワークと撮像部とが第1の撮像位置に配置されたときに撮像部によって撮像される画像の例を示す。 ワークと撮像部とが第nの撮像位置(n=1〜12)に配置されたときの被検査面における視野を示す図である。 図1に示す装置の動作フローの一例を示すフローチャートである。 ワークの図面データを示す。 図8中のステップS4で生成される点群の例を示す。 図8中のステップS6のフローの一例を示すフローチャートである。 図11に示すステップS6の一連のフローによって生成される推定画像の例を示す。 他の実施形態に係る点群の例を示す。 図13に示す点群を基にステップS6で生成される推定画像の例を示す。 他の実施形態に係る検査システムのブロック図である。 図15に示す装置の動作フローの一例を示すフローチャートである。 図16中のステップS21で生成されるマスクデータの一例を示す。 さらに他の実施形態に係る検査システムの斜視図である。 図18に示す装置の動作フローの一例を示すフローチャートである。 図19中のステップS6’の動作フローの一例を示すフローチャートである。 さらに他の実施形態に係る検査システムの斜視図である。 図21に示す装置の動作フローの一例を示すフローチャートである。 図22中のステップS30の動作フローの一例を示すフローチャートである。 図21に示す撮像部の各撮像素子の視線を説明するための図である。 さらに他の実施形態に係る検査システムの斜視図である。
以下、本開示の実施の形態を図面に基づいて詳細に説明する。なお、以下に説明する種々の実施形態において、同様の要素には同じ符号を付し、重複する説明を省略する。まず、図1〜図3を参照して、一実施形態に係る検査システム10について説明する。
検査システム10は、制御部12、移動機構14、撮像部16、照明装置18、および装置50(図2)を備える。制御部12は、CPUおよび記憶部(図示せず)等を有し、移動機構14、撮像部16および照明装置18を制御する。
本実施形態においては、移動機構14は、垂直多関節ロボットであって、ロボットベース20、旋回胴22、ロボットアーム24、手首部26、およびロボットハンド28を有する。ロボットベース20は、作業セルの床の上に固定されている。旋回胴22は、鉛直軸周りに旋回可能となるように、ロボットベース20に設けられている。
ロボットアーム24は、旋回胴22に回動可能に連結された上腕部30と、該上腕部30の先端に回動可能に連結された前腕部32とを有する。手首部26は、前腕部32の先端に取り付けられ、ロボットハンド28を3軸周りに回動可能となるように支持している。
図3に示すように、ロボットハンド28は、ハンドベース34、複数の指部36、および指部駆動部(図示せず)を有する。ハンドベース34は、手首部26に連結されている。複数の指部36は、ハンドベース34に開閉可能に設けられている。
複数の指部36は、ハンドベース34から一方へ向かって延び、互いに対向する面に、段差部36aを有する。ロボットハンド28がワークWを把持するとき、ワークWの上面Sは、段差部36aと係合する。指部駆動部は、例えばエアシリンダであって、ハンドベース34に内蔵されている。指部駆動部は、制御部12からの指令に応じて、指部36を開閉させる。
移動機構14は、複数のサーボモータ38(図2)を有する。サーボモータ38は、移動機構14の旋回胴22、ロボットアーム24、および手首部26にそれぞれ内蔵され、制御部12からの指令(速度指令、トルク指令等)に応じて、これらの構成要素を駆動する。
移動機構14の各構成要素を制御するための自動制御の座標系の1つとして、ロボット座標系C(図1)が設定される。制御部12は、ロボット座標系Cを基準として、該移動機構14の各構成要素を動作させる。例えば、ロボット座標系Cのz軸は、実空間の鉛直方向に平行であり、旋回胴22は、ロボット座標系Cのz軸周りに回動される。
一方、ロボットハンド28に対しては、ツール座標系Cが設定される。このツール座標系Cは、自動制御の座標系の1つであって、該ツール座標系Cの位置および方向をロボット座標系Cで表現することにより、空間内でのロボットハンド28の位置および姿勢を規定する。
図3に示すように、本実施形態においては、ツール座標系Cの原点が、指部36の段差部36aの間に位置し、指部36が、ハンドベース34からツール座標系Cのz軸プラス方向へ延出し、ツール座標系Cのx軸方向へ開閉するように、ツール座標系Cが設定されている。
制御部12は、ロボットハンド28の位置および姿勢を、ツール座標系Cによって規定される位置および姿勢に一致させるように、ロボット座標系Cにおいて旋回胴22、ロボットアーム24、および手首部26を動作させる。こうして、ロボットハンド28は、ロボット座標系Cにおいて任意の位置および姿勢に配置される。
撮像部16は、フォーカスレンズ等の光学系と、CCDセンサまたはCMOSセンサ等の撮像センサとを有する。本実施形態においては、撮像部16は、ロボット座標系Cにおける予め定められた位置に、移動機構14から離隔して固定されている。撮像部16は、制御部12からの指令に応じて、ワークW等の物体を撮像し、撮像した画像を制御部12へ送信する。
撮像部16の固定位置、および該撮像部16の光軸O(すなわち、撮像部16の光学系に入射する被写体像の光路)は、ロボット座標系Cにおいて座標化され、制御部12の記憶部に予め記憶される。これにより、制御部12は、ロボット座標系Cにおける撮像部16および光軸Oの位置を、認識できる。
照明装置18は、白熱灯、蛍光灯、またはLED等を有し、予め定められた位置に固定される。照明装置18は、制御部12からの指令に応じてON/OFFし、ONとなっているときに、移動機構14に把持されたワークWへ光を照射する。
次に、図1〜図7を参照して、検査システム10によってワークWの被検査面Sを検査する動作の概要について、説明する。図4および図5に示すように、本実施形態においては、ワークWは、長方形の板部材であって、計4個の孔Hを有する。
ワークWの被検査面Sを検査するとき、制御部12は、まず、移動機構14を動作させて、予め定められた保管場所に保管されたワークWを、ロボットハンド28によって把持する。このとき、ロボットハンド28は、ワークWを、予め指定された把持位置で把持する。この把持位置の指定については、後述する。
次いで、制御部12は、移動機構14を動作させて、被検査面Sの少なくとも一部が撮像部16の視野Aに入る撮像位置にワークWを移動させ、該ワークWと該撮像部16とを互いに位置決めする。撮像部16の視野Aについて、図4を参照して説明する。
撮像部16には、撮像可能な範囲を示す視野角が存在する。この視野角は、撮像部16の光学系および撮像センサの仕様に依存する。具体的には、カメラレンズの焦点距離が長い程、または撮像センサの受光面が小さい程、視野角は狭くなる。
撮像部16の視野角の例を、図1および図4中の仮想線Bとして示す。この視野角Bと、撮像部16と被検査面Sとの間の距離Dとによって、図1に示すようにワークWと撮像部16とが位置決めされたときに撮像部16が撮像可能な被検査面S上の範囲(すなわち、視野A)が、決定される。
つまり、この視野Aは、撮像部16と被検査面Sとが互いから距離Dだけ離間するように配置されたときに、撮像部16の焦点が合った状態で撮像部16が撮像可能な被検査面S上の領域を示す。なお、撮像部16によって撮像される画像の解像度と視野Aとは、反比例の関係にあり、視野Aが小さい程、得られる画像の解像度は高くなる。
ロボットハンド28によってワークWの把持位置を把持した後、制御部12は、移動機構14を動作させて、ロボットハンド28を、図1に示す第1の位置および姿勢に配置させる。
具体的には、制御部12は、ツール座標系Cを、図1に示す第1の位置および方向(すなわち、原点位置および各軸の方向)に設定する。そして、制御部12は、移動機構14を動作させて、ワークWを把持したロボットハンド28を、図1に示すツール座標系Cによって規定される位置および姿勢に一致させるように、移動する。
その結果、ロボットハンド28は、第1の位置および姿勢に配置され、ロボットハンド28によって把持しているワークWは、撮像部16に対して第1の撮像位置に位置決めされる。このとき、撮像部16の視野Aは、被検査面Sに対して、図1、図4、および図5に示す位置に配置される。そして、撮像部16の光軸Oは、被検査面Sと直交し、且つ、撮像部16と被検査面Sとは、距離Dだけ互いから離間する。
次いで、制御部12は、照明装置18に指令を送り、該照明装置18をONとする。これにより、移動機構14に把持されたワークWは、照明装置18によって照らされることになる。
次いで、制御部12は、撮像部16に撮像指令を送る。撮像部16は、制御部12から撮像指令を受信すると、ワークWの被検査面Sを撮像する。ワークWと撮像部16とを第1の撮像位置に位置決めしたときに撮像部16によって撮像される画像の例を、図6に示す。
図6に示す画像40は、ワークWと撮像部16とを第1の撮像位置に位置決めしたとき(すなわち、ワークWを把持するロボットハンド28が第1の位置および姿勢に配置されたとき)に、撮像部16の視野Aに入る画像である。撮像部16によって撮像された画像40の各画素は、図6中の撮像部座標系Cで表される。換言すれば、撮像部座標系Cは、撮像部16が撮像した画像40の各画素のx−y座標を規定する。
ロボット座標系Cにおける撮像部座標系Cの位置および方向(すなわち、原点位置および各軸の方向)は、ロボット座標系Cにおける撮像部16の固定位置と、撮像部16の視線方向および視野角とから、定められる。
次いで、制御部12は、移動機構14を動作させて、ワークWを把持したロボットハンド28を、第2の位置および姿勢に配置させる。ロボットハンド28が第2の位置および姿勢に配置されたとき、ロボットハンド28によって把持されているワークWは、撮像部16に対して第2の撮像位置に配置される。このとき、撮像部16の視野Aは、被検査面Sに対して、図7中の領域Aに示す位置に配置される。
ワークWと撮像部16とを第2の撮像位置に位置決めしたとき(すなわち、ロボットハンド28を第2の位置および姿勢に配置させたとき)、制御部12は、撮像部16に撮像指令を送り、ワークWの被検査面Sを撮像し、撮像した画像を制御部12に送信する。これにより、図7中の領域Aに対応する画像が撮像される。
ここで、図7中の領域A(n=1〜12)は、ワークWを把持したロボットハンド28が第nの位置および姿勢に配置され、これにより、ワークWが撮像部16に対して第nの撮像位置に配置されたときの、被検査面Sに対する撮像部16の視野Aの位置を表している。
図7に示すように、領域Aと領域An+1とは、一辺が互いに一致するように、隣接している。なお、互いに隣接する2つの領域Aの少なくとも一部が互いに重複するように、ワークWおよび撮像部16の第nの撮像位置を規定してもよい。
ロボットハンド28を第nの位置および姿勢に配置するとき、制御部12は、ツール座標系Cを、第nの位置および方向に設定する。そして、制御部12は、第nの位置および方向に配置されたツール座標系Cによって規定される位置および姿勢に一致させるように、移動機構14を動作させてロボットハンド28を移動する。
このようにして、制御部12は、ロボットハンド28を第3の位置および姿勢、第4の位置および姿勢、・・・第nの位置および姿勢に順次配置させ、これにより、ロボットハンド28によって把持されたワークWを、撮像部16に対して第3の撮像位置、第4の撮像位置、・・・第nの撮像位置に、順次位置決めする。制御部12は、ワークWと撮像部16とをそれぞれの撮像位置に位置決めする毎に、撮像部16によってワークWの被検査面Sを撮像する。
これにより、制御部12は、図7中の領域A〜A12に対応する計12個の画像を取得する。そして、制御部12は、撮像部16から取得した各画像を解析し、被検査面Sに形成された傷痕等の欠陥を検出する。
制御部12は、ロボットプログラムに従って、上述した一例の動作を実行する。このロボットプログラムは、例えば、オペレータが教示操作盤(図示せず)を用いて、ロボットハンド28を第nの位置および姿勢に配置させる動作を移動機構14に教示することによって、構築され得る。
または、ロボットプログラムは、移動機構14がロボットハンド28を第nの位置および姿勢に配置する動作を、ワークWの図面データに基づいて自動的に生成することによって、構築することもできる。
ロボットプログラムは、ロボットハンド28を第nの位置および姿勢に配置させるときの、ツール座標系Cの第nの位置および方向の情報、ならびに移動機構14の各サーボモータ38の回転角度の情報を含む。
図6に示すように、撮像部16が撮像した画像40には、ワークWの孔Hと、ワークWの外部空間Eといった、被検査面S以外の領域が含まれている。このような被検査面S以外の領域H、Eは、検査システム10によって検査する必要のない画像領域である。
本実施形態に係る装置50は、このような検査対象外となる画像領域H、Eを自動で算出する。図2に示すように、装置50は、図面取得部52、指定受付部54、画像生成部56、および非検査領域算出部58を備える。画像生成部56は、点群生成部57およびプロット画像生成部59を有する。
なお、本実施形態においては、装置50は、制御部12に実装されている。したがって、図面取得部52、指定受付部54、画像生成部56(点群生成部57、プロット画像生成部59)、および非検査領域算出部58の機能は、制御部12が担う。
以下、図8〜図12を参照して、装置50の動作フローについて説明する。図8に示すフローは、制御部12がオペレータから非検査領域算出指令を受け付けたときに、開始する。
ステップS1において、制御部12は、ワークWの図面データ(2DCADまたは3DCADデータ等)を取得する。一例として、ワークWの図面データは、制御部12に通信可能となるように該制御部12の外部に設置された外部サーバに記憶される。この場合、制御部12は、このステップS1において、この外部サーバにアクセスし、該外部サーバからワークWの図面データをダウンロードする。
他の例として、ワークWの図面データは、EEPROM(登録商標)等の外部メモリに記憶される。この場合、制御部12は、外部メモリが取り外し可能に挿入されるI/Oポート(例えば、USBポート)を有する。そして、ステップS1において、オペレータは、外部メモリを、制御部12のI/Oポートに挿入し、制御部12は、該外部メモリからワークWの図面データをダウンロードする。
さらに他の例として、ワークWの図面データは、制御部12の記憶部に予め記憶される。この場合、制御部12は、このステップS1において、該記憶部からワークWの図面データを読み出す。
このように、本実施形態においては、制御部12は、ワークWの図面データを取得する図面取得部52としての機能を担う。このステップS1において、制御部12は、ワークWの図面データとして、図9に示す3DCADデータのワークモデルWを取得する。
ステップS2において、制御部12は、被検査面Sの指定を受け付ける。一例として、制御部12には、LCDまたは有機ELディスプレイ等の表示部と、キーボートまたはタッチパネル等の操作部が設けられる。
オペレータは、操作部を操作して、表示部に表示された図9に示すワークモデルWにおいて、被検査面モデルSIMを指定する。制御部12は、オペレータによる操作部の操作を受け付けて、被検査面モデルSIMの指定を受け付ける。
このように、本実施形態においては、制御部12は、図面データにおける被検査面S(すなわち、被検査面モデルSIM)の指定を受け付ける指定受付部54としての機能を担う。
ステップS3において、制御部12は、オペレータから、ロボットハンド28がワークWを把持するときの把持位置の指定を受け付ける。この把持位置は、ロボットハンド28でワークWを把持するときに制御部12が設定するツール座標系Cの位置および方向によって、決められる。例えば、オペレータは、制御部12の操作部を操作して、表示部に表示されたワークモデルWにおいて、ツール座標系Cの原点の位置を指定する。
ここで、オペレータは、図9に示すように、ツール座標系Cの原点の位置を、ワークモデルWの上面モデルSUMの中心に指定したとする。この場合、制御部12は、保管場所に保管されたワークWをロボットハンド28で把持するとき、ツール座標系Cの原点が該ワークWの上面Sの中心に位置し、且つ、ツール座標系Cのy−z平面が被検査面Sと平行となるように、ツール座標系Cを該ワークWに対して設定する。
そして、制御部12は、移動機構14を動作させて、ロボットハンド28を、設定されたツール座標系Cによって規定される位置および姿勢に配置させ、該ロボットハンド28によってワークWを把持する。
その結果、ロボットハンド28は、図1、図3および図4に示すように、オペレータが指定したツール座標系Cに対応する把持位置で、ワークWを把持することになる。制御部12は、オペレータによる操作部の操作を受け付けてツール座標系Cの原点を、ワークモデルWにおいて図9に示す位置に設定する。
ステップS4において、制御部12は、ステップS1で取得した図面データを基に、ステップS2で指定された被検査面S(すなわち、被検査面モデルSIM)に点群を生成する。被検査面モデルSIMに点群を生成した画像の例を図10に示す。
図10に示す画像60においては、被検査面モデルSIMに点群61が生成され、該点群61は、被検査面モデルSIM上に均等に分散された複数の点を有する。これらの点の各々は、ステップS3で指定されたツール座標系Cにおいて座標化される。こうして、被検査面モデルSIMは、点群61によって表される。
このように、本実施形態においては、制御部12は、ワークWの図面データに基づいて被検査面S(すなわち、被検査面モデルSIM)に点群61を生成する点群生成部57としての機能を担う。
ステップS5において、制御部12は、第nの撮像位置(すなわち、ロボットハンド28が配置される第nの位置および姿勢、および、ツール座標系Cが設定される第nの位置および方向)の番号「n」を、「1」にセットする。
ステップS6において、制御部12は、移動機構14によってワークWを撮像部16に対して第nの撮像位置に位置決めしたときに撮像部16によって撮像されると推定される推定画像を、ワークWの図面データ(ワークモデルW)に基づいて生成する。
このステップS6について、図11を参照して説明する。以下、ステップS6の開始時点で、第nの撮像位置の番号「n」が「1」にセットされていた場合について、説明する。
ステップS11において、制御部12は、ワークWを撮像部16に対して第1の撮像位置に位置決めするときに設定されるツール座標系Cの第1の位置および方向の情報を取得する。
上述したように、このツール座標系Cの位置および方向は、教示等によって構築されたロボットプログラムに含まれている。制御部12は、このステップS11において、ツール座標系Cの第1の位置および方向の情報を記憶部から読み出す。
ステップS12において、制御部12は、ツール座標系Cを第1の位置および方向に配置したときの、ステップS4で生成した点群61の各点のロボット座標系Cにおける座標を算出する。図10を用いて上述したように、点群61の各点は、ツール座標系Cの座標として表すことができる。
制御部12は、ステップS11で取得したツール座標系Cの第1の位置および方向の情報に基づいて、ツール座標系Cを第1の位置および方向に配置したときの、点群61の各点のツール座標系Cにおける座標を、ロボット座標系Cに変換する。
具体的には、制御部12は、点群61の各点のツール座標系Cにおける座標に変換行列を乗算することによって、点群61の各点のツール座標系Cにおける座標を、ロボット座標系Cに変換する。この変換行列は、第1の位置および方向に配置されたツール座標系Cの座標をロボット座標系に変換するための行列(例えば、ヤコビ行列)である。
こうして、制御部12は、ツール座標系Cを第1の位置および方向に配置したときの、点群61の各点のロボット座標系Cにおける座標を算出する。このように算出された各点の座標は、図1および図4に示すように位置決めされた被検査面Sに点群61を生成したときの、各点のロボット座標系Cにおける座標に相当する。
次いで、制御部12は、座標を算出した各点に番号「m」を付与する。例えば、座標を算出した点の総数がγ(=10000)であるとすると、各点は、第m番目(m=1〜γ)の点として、ナンバリングされる。ステップS13において、制御部12は、点に付与した番号「m」を「1」にセットする。
ステップS14において、制御部12は、ステップS12で座標を算出した点群61の点のうち、第m番目の点の座標を、撮像部座標系Cへ変換(すなわち、投影)する。
具体的には、制御部12は、ステップS12で算出した第m番目の点の座標に変換行列を乗算することによって、該第m番目の点のロボット座標系Cにおける座標を、撮像部座標系Cへ変換する。この変換行列は、ロボット座標系Cの座標を撮像部座標系Cに変換するための行列(例えば、ヤコビ行列)である。
ステップS15において、制御部12は、ステップS14で変換された撮像部座標系Cの座標(x,y)が、予め定められた範囲(例えば、0≦x≦α、且つ、0≦y≦β)に収まっているか否かを判定する。この予め定められた範囲は、撮像部16の視野Aの範囲を規定するものであって、撮像部16の仕様に応じて定められ、制御部12の記憶部に記憶される。
制御部12は、点の座標が予め定められた範囲に収まっている(すなわち、YES)と判定した場合、ステップS16へ進む。一方、制御部12は、点の座標が予め定められた範囲外である(すなわち、NO)と判定した場合、ステップS17へ進む。
ステップS16において、制御部12は、ステップS14で変換された撮像部座標系Cの座標を点でプロットした画像を生成する。このように、本実施形態においては、制御部12は、プロット画像生成部59としての機能を担う。
ステップS17において、制御部12は、点に付与した番号「m」を、「1」だけインクリメント(すなわち、m=m+1)する。
ステップS18において、制御部12は、点に付与した番号「m」が、点の総数「γ」よりも大きい値となったか否かを判定する。制御部12は、番号「m」が「γ」よりも大きい(すなわち、YES)と判定した場合、図11に示すフローを終了し、図8のステップS7へ進む。一方、制御部12は、番号「m」が「γ」以下である(すなわち、NO)と判定した場合、ステップS14へ戻る。
こうして、制御部12は、ステップS18にてYESと判定するまで、ステップS14〜S18をループし、点群61の点のうち、撮像部座標系Cに変換(投影)した場合に視野Aの範囲に収まるものをプロットした画像を生成する。
このように生成された画像の例を図12に示す。図12に示す画像62は、ワークWを撮像部16に対して第1の撮像位置に位置決めしたときに撮像部16によって撮像されると推定される画像(すなわち、推定画像)であって、図6に示す視野Aの画像に対応する。
この推定画像62は、撮像部座標系Cの原点と、撮像部座標系Cの点P(α,0)、点P(α,β)、P(0,β)とによって画定され、点群61が撮像部座標系Cに変換された点群61’を含む。
このように、制御部12は、点群生成部57として機能して点群61を生成し、プロット画像生成部59として機能して点群61の各々を撮像部座標系Cにプロットすることによって、推定画像62を生成している。したがって、制御部12は、ワークWの図面データに基づいて推定画像62を生成する画像生成部56としての機能を担う。
再度、図8を参照して、ステップS7において、制御部12は、非検査領域を算出する。具体的には、制御部12は、ステップS6で生成した推定画像62に含まれる点群61’の領域以外の画像領域を、非検査領域として算出する。
図12に示すように、推定画像62においては、点群61’の領域以外の画像領域として、画像領域H’およびE’がある。画像領域H’は、図6に示す孔Hに対応する領域であり、画像領域E’は、図6に示す外部空間Eに対応する領域である。
例えば、制御部12は、推定画像62内の単位区域(例えば、10画素×10画素の区域)当たりの点群61’の点の個数を算出し、該個数が予め定められた閾値以下である場合、該区域が点群61’以外の画像領域H’、E’であると判定する。
制御部12は、この動作を推定画像62の全域に亘って実行することによって、画像領域H’およびE’を算出することができる。このように、本実施形態においては、制御部12は、画像領域H’およびE’を非検査領域H’およびE’として算出する非検査領域算出部58としての機能を担う。
ステップS8において、制御部12は、第nの撮像位置の番号「n」を、「1」だけインクリメント(すなわち、n=n+1)する。ステップS9において、制御部12は、番号「n」が12よりも大きい値となったか否かを判定する。
制御部12は、番号「n」が12よりも大きい(すなわち、YES)と判定した場合、図8に示すフローを終了する。一方、制御部12は、番号「n」が12以下である(すなわち、NO)と判定した場合、ステップS6へ戻る。
こうして、制御部12は、ステップS9でYESと判定するまで、ステップS6〜S9をループする。これにより、制御部12は、図7中の領域A(n=1〜12)に対応する、撮像部16の視野Aの推定画像を順次生成し、各推定画像において、非検査領域を算出する。このようにして、制御部12は、第nの撮像位置(すなわち、領域A)の各々に関して、非検査領域を算出する。
上記したように、本実施形態においては、制御部12は、ワークWの図面データから、検査システム10によって検査する必要のない非検査領域H’、E’を算出している。この構成によれば、被検査面Sの検査時に非検査領域H’、E’を自動で算出することができるので、オペレータが視野A毎に非検査領域を手動で設定する作業を省くことができる。したがって、検査システム10の立ち上げに掛かる工数を削減できる。
また、本実施形態によれば、ワークWと撮像部16とを位置決めする撮像位置を変更したとしても、変更後の撮像位置に応じて非検査領域を自動で算出できる。したがって、移動機構14の位置および姿勢を変更する毎に非検査領域の設定を修正する作業を省くことができる。
また、本実施形態によれば、実空間で制御部12がロボットハンド28を第nの位置および姿勢に配置させるときに用いるパラメータ(例えば、ツール座標系Cの位置および方向)に基づいて、図12に示す推定画像62を生成している。
この構成によれば、被検査面Sの検査時に撮像部16が実空間で撮像した画像40における領域H、Eと、ステップS16で生成した推定画像62における非検査領域H’、E’とを、高精度に一致させることができる。
なお、上述のステップS4において、制御部12は、ステップS1で取得した図面データを基に、被検査面Sのエッジにのみ点群を生成してもよい。このような画像を、図13に示す。図13に示す画像64においては、被検査面Sの端縁66、68、70、および72と、孔Hを画定する壁面74、76、78、および80とに点群が生成されている。
この実施形態の場合、図11のステップS12において、制御部12は、ツール座標系Cを第nの位置および方向に配置したときの、点群66、68、70、72、74、76、78、および80の各点のロボット座標系Cにおける座標を算出し、座標を算出した各点に番号「m」を付与する。
そして、ステップS14において、制御部12は、ステップS12で座標を算出した点群66、68、70、72、74、76、78、および80の点のうち、第m番目の点の座標を、撮像部座標系Cへ変換(すなわち、投影)する。
そして、ステップS16において、制御部12は、撮像部16の視野Aの推定画像を生成し、該推定画像において、ステップS14で変換された撮像部座標系Cの座標を点でプロットする。このように生成された推定画像の例を図14に示す。
図14に示す推定画像82は、図12と同様に、ワークWを撮像部16に対して第1の撮像位置に位置決めしたときに撮像部16の視野Aに入る画像(図6)に対応する。図14に示す推定画像82には、図13に示す点群70および72が変換された点群70’および72’と、図13に示す点群76が変換された点群76’が含まれている。
そして、図8のステップS7において、制御部12は、推定画像82に含まれた点群70’、72’および76’に基づいて、非検査領域H’およびE’を算出する。例えば、制御部12は、ステップS14において、図13の点群74、76、78および80の内側の領域を非検査領域として識別するための情報(例えばフラグ)を、該点群74、76、78および80を構成する各点に付与する。
また、制御部12は、点群66、68、70および72で囲まれる領域を被検査面Sの領域として識別するための情報(例えばフラグ)を、該点群66、68、70および72を構成する各点に付与する。
これにより、ステップS14で点群66、68、70、72、74、76、78および80を変換したときに、変換元の点群66、68、70、72、74、76、78および80に付与された情報を参照して、変換後の点群によって画定される領域が非検査領域であるか否かを判定できる。
次に、図1および図15を参照して、他の実施形態に係る検査システム90について説明する。検査システム90は、制御部12、移動機構14、撮像部16、照明装置18、および装置100を備える。本実施形態においては、装置100は、制御部12に実装されており、マスク生成部102をさらに備える点で上述の装置50と相違する。
以下、図16を参照して、装置100の動作について説明する。なお、図16に示すフローにおいて、図8に示すフローと同様のプロセスには同じステップ番号を付し、詳細な説明を省略する。図16のフローを開始した後、制御部12は、上述の実施形態と同様に、ステップS1〜ステップS7を実行する。
ステップS7の後、ステップS21において、制御部12は、マスクデータを生成する。このマスクデータとは、検査システム90が被検査面Sを検査するときに撮像部16が実空間で撮像した被検査面Sの画像(例えば、図6に示す画像40)に対して、該画像内に存在する被検査面S以外の領域(例えば、図6に領域H、E)を検査対象外とするための処理を実行するデータである。
以下、検査システム90が被検査面Sを検査するときに、撮像部16が、図6に示す画像40を撮像した場合について説明する。
一例として、制御部12は、ステップS21において、ステップS6で生成した推定画像62(図12)の点群61’の点を削除して非検査領域H’およびE’だけを抽出し、抽出した非検査領域H’およびE’を、被検査面Sとは異なる単一色(例えば、黒色)で塗り潰したマスクデータを生成する。
このようなマスクデータの一例を、図17に示す。図17に示すマスクデータ104においては、非検査領域H’およびE’を表す画素が黒色に塗り潰されている。制御部12は、生成したマスクデータ104を記憶部に記憶する。
そして、制御部12は、被検査面Sの検査時に撮像部16が撮像した画像40に、ステップS21で生成したマスクデータ104を重ね合せる。これにより、非検査領域H’およびE’に一致する画像40の画素(すなわち、図6中の孔Hおよび外部空間Eを表す画素)は、単一色に塗り潰されることになる。
その結果、傷痕等の欠陥を検出すべく制御部12が画像40を解析したときに、画像40における孔Hおよび外部空間Eの領域が単一色に塗り潰されているので、該領域には如何なる特徴も存在し得ず、故に、傷痕等の欠陥が検出されることがない。こうして、検査システム90によって検査する必要のない画像40内の領域H、Eを、検査対象から実質除外することができる。
また、他の例として、制御部12は、非検査領域H’およびE’に一致する画像40の画素を、被検査面Sの検査時に行う画像解析の対象から除外させるマスクデータを生成してもよい。
例えば、制御部12は、このステップS21において、ステップS6で生成した推定画像62から非検査領域H’およびE’だけを抽出し、該非検査領域H’およびE’にフラグ付与機能を持たせたマスクデータを生成する。
そして、制御部12は、検査面Sの検査時に撮像部16が撮像した画像40に、生成したマスクデータを重ね合せて、マスクデータに含まれる非検査領域H’およびE’に一致する画像40の画素にフラグを付与する。
この場合、制御部12は、傷痕等の欠陥を検出すべく画像40を解析するとき、該フラグが付与された画素に関しては、画像解析を行わない。こうして、検査システム90によって検査する必要のない画像40内の領域H、Eを、検査対象から除外することができる。
このように、本実施形態においては、制御部12は、非検査領域H’、E’に被検査面Sとは異なる色を与えるか、または、非検査領域H’、E’を検査対象外とするためのフラグを画素に付与するマスク生成部102(図15)としての機能を担う。
本実施形態によれば、ステップS7で算出した非検査領域H’、E’を利用して、検査が不要な画像領域を検査対象から除外することができるので、検査システム90による被検査面Sの検査作業を迅速化することができる。また、検査時に制御部12が画像解析するときの情報処理量を削減できるので、制御部12のリソース(例えば、CPU)に掛かる負担を軽減することもできる。
次に、図2および図18を参照して、さらに他の実施形態に係る検査システム110について説明する。検査システム110は、上述した検査システム10と、以下の構成において相違する。
すなわち、検査システム110においては、撮像部16は、移動機構14の手首部26に固定されている。その一方で、ワークWは、ワーク保持部112に固定され、ロボット座標系Cにおける予め定められた位置に、移動機構14から離隔して配置される。制御部12の記憶部は、ロボット座標系CにおけるワークWの固定位置の情報を、予め記憶する。
本実施形態においては、ツール座標系Cが、撮像部16に対して設定される。このツール座標系Cは、自動制御の座標系の1つであって、該ツール座標系Cの位置をロボット座標系C上で表現することにより、空間内での撮像部16の位置および姿勢を規定する。本実施形態においては、ツール座標系Cのz軸が、撮像部16の光軸Oと一致するように、ツール座標系Cが設定されている。
制御部12は、撮像部16の位置および姿勢を、ツール座標系Cによって規定される位置および姿勢に一致させるように、ロボット座標系Cにおいて旋回胴22、ロボットアーム24、および手首部26を動作させる。こうして、撮像部16は、ロボット座標系Cにおいて任意の位置および姿勢に配置される。
次に、検査システム110によってワークWの被検査面Sを検査する動作の概要について、説明する。ワークWの被検査面Sを検査するとき、制御部12は、移動機構14を動作させて、被検査面Sの少なくとも一部が撮像部16の視野Aに入る撮像位置に撮像部16を移動させて、該ワークWと該撮像部16とを互いに位置決めする。
具体的には、制御部12は、ツール座標系Cを、第1の位置および方向に設定する。そして、制御部12は、移動機構14を動作させて、撮像部16を、第1の位置および方向に設定されたツール座標系Cによって規定される第1の位置および姿勢に一致させるように、移動する。
その結果、撮像部16は、第1の位置および姿勢に配置され、これにより、ワークWに対して第1の撮像位置に位置決めされる。次いで、制御部12は、照明装置18に指令を送り、該照明装置18をONとする。これにより、ワーク保持部112に固定されたワークWは、照明装置18によって照らされることになる。
次いで、制御部12は、撮像部16に撮像指令を送る。撮像部16は、制御部12から撮像指令を受信すると、ワークWの被検査面Sを撮像する。撮像部16をワークWに対して第1の撮像位置に位置決めしたときに該撮像部16によって撮像される画像の例を、図6に示す。
図6に示す画像40は、撮像部16とワークWとを第1の撮像位置に位置決めしたときに該撮像部16の視野Aに入る画像である。撮像部16によって撮像される画像40の各画素は、図6中の撮像部座標系Cで表される。
ロボット座標系Cにおける撮像部座標系Cの位置および方向は、ロボット座標系Cにおける撮像部16の位置と、該撮像部16の視線方向および視野角とから、求めることができる。
次いで、制御部12は、移動機構14を動作させて、撮像部16を第2の位置および姿勢に配置させる。これにより、撮像部16は、ワークWに対して第2の撮像位置に位置決めされる。撮像部16をワークWに対して第2の撮像位置に位置決めしたとき、撮像部16の視野Aは、被検査面Sに対して、図7中の領域Aに示す位置に配置される。
撮像部16とワークWとを第2の撮像位置に配置させたとき、制御部12は、撮像部16に撮像指令を送り、ワークWの被検査面Sを撮像する。これにより、図7中の領域Aに対応する画像が撮像される。
このようにして、制御部12は、撮像部16を第3の位置および姿勢、第4の位置および姿勢、・・・第nの位置および姿勢に順次配置させ、これにより、撮像部16をワークWに対して第3の撮像位置、第4の撮像位置、・・・第nの撮像位置に、順次位置決めする。制御部12は、撮像部16とワークWとをそれぞれの撮像位置に位置決めする毎に、撮像部16によってワークWの被検査面Sを撮像する。
こうして、制御部12は、図7中の領域A〜A12に対応する計12個の画像を取得する。そして、制御部12は、撮像部16から取得した各画像を解析し、被検査面Sに形成された傷痕等の欠陥を検出する。
次に、図19および図20を参照して、検査システム110に設けられた装置50の機能について、説明する。なお、図19に示すフローにおいて、図8に示すフローと同様のプロセスには同じステップ番号を付し、詳細な説明を省略する。
ステップS2の後、ステップS3’において、制御部12は、ロボット座標系CにおけるワークWの固定位置の指定を受け付ける。例えば、オペレータは、制御部12の操作部を操作して、ロボット座標系CにおけるワークWの位置を規定するパラメータを入力する。
例えば、図18に示す実施形態においては、ワークWの被検査面Sが、ロボット座標系Cのy−z平面と平行であり、且つ、ロボット座標系Cの原点からx軸プラス方向へ所定距離だけ離隔した位置に配置されるように、ワークWが固定されている。
オペレータは、制御部12の操作部を操作して、ロボット座標系CにおけるワークWの配置を規定するためのパラメータ(被検査面Sの角度、原点からの距離等)を入力する。制御部12は、オペレータによる操作部の操作を受け付けて、ロボット座標系CにおけるワークWの固定位置を取得する。
ステップS5’において、制御部12は、第nの撮像位置(すなわち、撮像部16が配置される第nの位置および姿勢、および、ツール座標系Cが設定される第nの位置および方向)の番号「n」を「1」にセットする。
ステップS6’において、制御部12は、移動機構14によって撮像部16をワークWに対して第nの撮像位置に位置決めしたときに該撮像部16によって撮像されると推定される推定画像を、ワークWの図面データ(ワークモデルW)に基づいて生成する。
このステップS6’について、図20を参照して説明する。なお、図20に示すフローにおいて、図11に示すフローと同様のプロセスには同じステップ番号を付し、詳細な説明を省略する。以下、ステップS6’の開始時点で、第nの撮像位置の番号「n」が「1」にセット(ステップS5)されていた場合について、説明する。
ステップS6’の開始後、ステップS12’において、制御部12は、ステップS4で生成した点群61の各点のロボット座標系Cにおける座標を算出する。ここで、上述のステップS3’において、ロボット座標系CにおけるワークWの固定位置が指定されている。
したがって、制御部12は、ロボット座標系CにおけるワークWの固定位置と、ステップS4で生成した点群61とに基づいて、該固定位置に固定された被検査面Sに相当する点群61の点の各々のロボット座標系Cにおける座標を、算出できる。そして、制御部12は、座標を算出した各点に番号「m」(m=1〜γ)を付与する。
ステップS14’において、制御部12は、ステップS12’で座標を算出した点群61の点のうち、第m番目の点の座標を、撮像部座標系Cへ変換(すなわち、投影)する。
このときの撮像部座標系Cは、ツール座標系Cが設定されている第1の位置および方向の情報と、撮像部16の視線方向(すなわち、ツール座標系Cのz軸)および視野角とから、定められる。
制御部12は、ステップS12’で算出した点の座標に変換行列を乗算することによって、該点のロボット座標系Cにおける座標を、撮像部座標系Cへ変換する。この変換行列は、ロボット座標系Cの座標を、撮像部座標系Cに変換するための行列である。
そして、制御部12は、図20中のステップS18にてYESと判定するまで、ステップS14’〜S18をループし、図12に示す推定画像62を生成する。
こうして、制御部12は、図19中のステップS9でYESと判定するまで、ステップS6’〜S9をループする。これにより、制御部12は、図7中の領域A(n=1〜12)に対応する、撮像部16の視野Aの推定画像を順次生成し、各推定画像において、非検査領域を算出する。
このように、本実施形態によれば、制御部12は、上述の実施形態と同様に、ワークWの図面データから非検査領域H’、E’を自動で算出することができるので、オペレータが視野A毎に非検査領域を手動で設定する作業を省くことができる。したがって、検査システム110の立ち上げに掛かる工数を削減できる。
次に、図21を参照して、さらに他の実施形態に係る検査システム120について説明する。検査システム120は、上述の検査システム10と、装置130を備える点において相違する。本実施形態に係る装置130は、図面取得部52、指定受付部54、および非検査領域算出部132を備える。
装置130は、制御部12に実装されている。したがって、図面取得部52、指定受付部54、および非検査領域算出部132の機能は、制御部12が担う。本実施形態においては、制御部12は、上述の点群61を生成し、撮像部16に内蔵された撮像センサの各撮像素子の視線が、点群61の点を通過するか否かを判定することによって、非検査領域を算出する。
以下、図24を参照して、撮像素子の視線について説明する。図24の領域(a)は、撮像センサ16aの受光面の一部を拡大した拡大図である。撮像部16は、撮像センサ16aと、少なくとも1つのレンズを含む光学系16bとを有する。撮像センサ16aは、図24の領域(a)に示すように、撮像部座標系Cのx軸方向およびy軸方向に整列するように配設された複数の撮像素子Iを有する。
撮像素子Iの各々は、視線Kを有する。この視線Kは、各撮像素子Iと焦点Jとを結ぶ仮想直線に一致する。ここで、ロボット座標系Cにおける各撮像素子Iおよび焦点Jの座標は、ロボット座標系Cにおける撮像部16の固定位置、および撮像部16の図面データ等から求めることができる。そして、各撮像素子Iの視線Kの、ロボット座標系Cにおける座標(または関数)は、ロボット座標系Cにおける各撮像素子Iおよび焦点Jの座標から求めることができる。
制御部12は、各撮像素子Iの視線Kを算出し、該視線Kが、生成した点群61の点を通過するか否かを判定することによって、ワークWが撮像部16に対して第nの撮像位置に配置されたときに撮像部16の視野Aに入る画像(図6)に含まれる非検査領域H、Eを算出する。
以下、図22を参照して、装置130の動作フローについて説明する。なお、図22に示すフローにおいて、図8に示すフローと同様のプロセスには同じステップ番号を付し、詳細な説明を省略する。図22のフローを開始した後、制御部12は、上述の実施形態と同様に、ステップS1〜S5を実行する。
ステップS5の後、ステップS30において、制御部12は、非検査領域を算出する。このステップ30について、図23を参照して説明する。なお、図23に示すフローにおいて、図11に示すフローと同様のプロセスには同じステップ番号を付し、詳細な説明を省略する。
図23に示すフローを開始後、制御部12は、上述のステップS11を実行する。具体的には、制御部12は、ワークWを撮像部16に対して第nの撮像位置に位置決めするときに設定されるツール座標系Cの第nの位置および方向の情報を取得する。
次いで、制御部12は、上述のステップS12を実行する。具体的には、制御部12は、ツール座標系Cを第nの位置および方向に配置したときの、点群61の各点のロボット座標系Cにおける座標を算出する。
ステップS31において、制御部12は、各撮像素子Iに付与した番号「i」を「1」にセットする。例えば、撮像部16の撮像センサが、計10個の撮像素子Iを有する場合、各撮像素子Iは、1〜10のいずれかの番号「i」を付与される。
ステップS32において、制御部12は、第i番目の撮像素子Iの視線Kを算出する。例えば、このステップS32の開始時点で、撮像素子Iの番号「i」が「100」(すなわち、i=100)にセットされていた場合、制御部12は、第100番目の撮像素子Iの視線K100を算出する。
上述したように、制御部12は、ロボット座標系Cにおける撮像部16の固定位置、および撮像部16の図面データ等から、ロボット座標系Cにおける第i番目の撮像素子Iおよび焦点Jの座標を求めることができる。
そして、制御部12は、これら座標から、ロボット座標系Cにおける視線Kの座標(または関数)を算出できる。制御部12は、算出した視線Kの座標(または関数)を、記憶部に記憶する。
ステップS33において、制御部12は、ステップS32で算出した視線Kが、ステップS4で生成した点群61の点を通過するか否かを判定する。具体的には、制御部12は、ステップS32で算出した視線Kの座標(または関数)と、ステップS12で算出した、点群61の各点のロボット座標系Cにおける座標とに基づいて、視線Kが、点群61の1つの点を通過するか否かを判定する。
制御部12は、視線Kが点群61の点を通過する(すなわち、YES)と判定した場合、ステップS34へ進む。一方、制御部12は、視線Kが点群61の如何なる点も通過しない(すなわち、NO)と判定した場合、ステップS35ヘ進む。
ステップS33でYESと判定した場合、ステップS34において、制御部12は、ワークWが撮像部16に対して第nの撮像位置に配置されたときに第i番目の撮像素子Iが撮像する第i画素を、被検査面Sを表示する被検査面画素として設定する。
一方、ステップS33でNOと判定した場合、ステップS35において、制御部12は、ワークWが撮像部16に対して第nの撮像位置に配置されたときに第i番目の撮像素子Iが撮像する第i画素を、非検査領域H、Eを表示する非検査領域画素として設定する。
ステップS36において、制御部12は、第i番目の撮像素子Iの番号「i」を、「1」だけインクリメント(すなわち、i=i+1)する。ステップS37において、制御部12は、番号「i」が、撮像素子Iの総数δ(例えば、δ=10)よりも大きい値となったか否かを判定する。
制御部12は、番号「i」が総数δよりも大きい(すなわち、YES)と判定した場合、ステップS38へ進む。一方、制御部12は、番号「i」が総数δ以下である(すなわち、NO)と判定した場合、ステップS32へ戻る。
こうして、制御部12は、ステップS37でYESと判定するまで、ステップS32〜S37をループする。これにより、制御部12は、全ての撮像素子Iに関して、それらの視線Kが点群61の点を通過するか否かを判定し、第nの撮像位置で撮像部16の視野Aに入る画像を構成する画素を、被検査面画素または非検査領域画素に設定する。
ステップS38において、制御部12は、被検査領域を画定する。具体的には、第i画素(i=1〜δ)の設定(被検査面画素または非検査領域画素)に基づいて、ワークWが撮像部16に対して第nの撮像位置に配置されたときの、撮像部16の視野A内の画像(すなわち、第1画素〜第δ画素から構成される画像)に含まれる非検査領域(例えば、領域H、E)を画定する。
一例として、制御部12は、撮像部16の視野Aの画像内の単位区域(例えば、10画素×10画素の区域)当たりの被検査面画素の個数を算出し、該個数が予め定められた閾値以下である場合、該区域が非検査領域H、Eであると判定する。
制御部12は、この動作を視野A内の画像の全域に亘って実行することによって、非検査領域H、Eを算出することができる。このように、本実施形態においては、制御部12は、非検査領域H、Eを算出する非検査領域算出部132としての機能を担う。
本実施形態によれば、制御部12は、上述の推定画像62を生成することなく、撮像素子Iの視線Kに基づいて、非検査領域H、Eを算出することができる。
なお、撮像素子Iの視線Kは、該撮像素子Iに入射する被写体像に相当するので、ロボット座標系Cにおける各撮像素子Iの視線Kの座標(または関数)は、直線ではなく、所定の断面積を有するビーム(例えば、円柱状)として算出されてもよい。または、点群61の点は、所定の面積を有する閉領域(例えば、円)であってもよい。
また、図21に示す装置130の技術的概念は、図18に示す検査システム(すなわち、撮像部16が手首部26に固定されている実施形態)にも適用可能であることが、当業者であれば容易に理解できよう。
なお、制御部12は、装置50、100、130の機能を、シミュレーションソフト等を用いて模擬的に実行してもよい。具体的には、制御部12は、検査システム10の構成要素(ロボットベース20、旋回胴22、ロボットアーム24、手首部26、およびロボットハンド28)の3次元モデルおよびワークモデルWを、仮想空間に配置する。
そして、制御部12は、被検査面モデルSIMが撮像部16の3次元モデルの仮想視野Aに入るように、ワークモデルWと撮像部16の3次元モデルとを仮想空間内で模擬的に位置決めする。
そして、制御部12は、撮像部16の3次元モデルによって被検査面モデルSIMを模擬的に撮像し、仮想視野A内の推定画像を生成する。そして、制御部12は、生成した推定画像から非検査領域を算出する。このようなシミュレーション的手法によっても、上述の実施形態と同様に、非検査領域を算出できる。
また、検査システム10、90、110、120の検査対象外とする画像領域(すなわち、非検査領域)は、任意に設定されてもよい。具体的には、検査システム10または90において、ロボットハンド28がワークWを把持したときに実空間の撮像部16の視野Aに入る画像には、被検査面S上の指部36が映り込む可能性がある。
この場合において、制御部12は、図8中のステップS4で点群61を生成するときに、指部36が配置される被検査面S上の領域を、点群を付与する対象から除外する。指部36が配置される被検査面S上の領域は、指部36の図面データと、ワークWの図面データと、ロボットハンド28がワークWを把持する把持位置とから特定できる。
これにより、制御部12は、上述のステップS7において、指部36が配置される被検査面Sの画像領域を、非検査領域として算出することができる。その結果、該画像領域を検査システム10の検査対象外とすることができる。
また、上述の実施形態においては、画像生成部56が、点群61、66、68、70、72、74、76、78、80を生成し(ステップS4)、該点群61、66、68、70、72、74、76、78、80を撮像部座標系Cへ変換して(ステップS14、S14’)、推定画像62、82を生成する場合について述べた。
しかしながら、これに限らず、画像生成部56は、ロボット座標系Cにおいて、ツール座標系Cを第nの位置および方向に配置したときの被検査面Sの3次元モデル(すなわち、被検査面モデルSIM)をモデリングし、ロボット座標系Cに配置された被検査面モデルSIMを撮像部座標系Cへ変換し、撮像部16の視野A内の推定画像を生成してもよい。この場合、制御部12は、図6に示すような画像40に略一致する推定画像を生成できる。
また、上述の実施形態においては、装置50、100が、制御部12に実装されている場合について述べた。しかしながら、これに限らず、装置50、100は、制御部12とは別の要素として構成されてもよい。
このような実施形態を図25に示す。図25に示す検査システム10’は、制御部12、移動機構14、撮像部16、照明装置18、および装置50’を備える。
本実施形態においては、装置50’は、制御部12とは別の要素として構成され、制御部12と通信可能に接続されている。装置50’は、上述の装置50と同様に、図8および図11に示すフローを実行し、非検査領域を算出する。
同様に、図21に示す装置130を、制御部12とは別の要素として構成してもよい。また、上述の検査システム10、10’、90、110、または130から照明装置18を省略し、例えば自然光によって被検査面Sを照らしてもよい。
また、上述の実施形態においては、移動機構14が、垂直多関節ロボットから構成されている場合について述べたが、これに限らず、例えばローダ等によって構成されてもよい。
また、上述の装置50、50’、100、または130は、CPUおよび記憶部等を有する1つのコンピュータから構成されてもよい。または、図面取得部52、指定受付部54、画像生成部56(点群生成部57、プロット画像生成部59)、非検査領域算出部58および132、ならびに、マスク生成部102の各々が、CPUおよび記憶部等を有する1つのコンピュータから構成されてもよい。
以上、実施形態を通じて本開示を説明したが、上述の実施形態は、特許請求の範囲に係る発明を限定するものではない。
10,10’,90,110,130 検査システム
12 制御部
14 移動機構
16 撮像部
50,50’100 装置
52 図面取得部
54 指定受付部
56 画像生成部
58,132 非検査領域算出部
102 マスク生成部

Claims (11)

  1. ワークを撮像する撮像部と、前記ワークまたは前記撮像部を移動させて該ワークと該撮像部とを互いに位置決めする移動機構とを有する、ワーク表面を検査する検査システムの検査対象外となる画像領域を算出する装置であって、
    前記ワークの図面データを取得する図面取得部と、
    前記図面データにおいて前記ワークの被検査面の指定を受け付ける指定受付部と、
    前記図面データに基づいて、前記被検査面に点群を生成する点群生成部と、
    指定された前記被検査面の少なくとも一部が前記撮像部の視野に入る撮像位置に前記ワークと前記撮像部とを位置決めしたときの、前記移動機構を制御するための移動機構座標系における前記点群の座標データに基づいて、該撮像部の視野内の画像において前記被検査面以外の画像領域を非検査領域として算出する非検査領域算出部と、を備える、装置。
  2. 前記ワークと前記撮像部とを前記撮像位置に位置決めしたときに前記撮像部によって撮像されると推定される前記視野内の推定画像を、前記図面データに基づいて生成する画像生成部を備え、
    前記画像生成部は、
    前記点群生成部と、
    前記ワークと前記撮像部とを前記撮像位置に位置決めしたときに撮像されると推定される前記被検査面の少なくとも一部に生成された前記点群の各々を、前記座標データを用いて、前記視野を規定する撮像部座標系にプロットすることによって、前記推定画像を生成するプロット画像生成部と、を有し、
    前記非検査領域算出部は、前記画像生成部が生成した前記推定画像に含まれる前記被検査面以外の画像領域を、前記非検査領域として算出する、請求項1に記載の装置。
  3. 前記座標データと、前記撮像位置に前記ワークと前記撮像部とを位置決めしたときの該撮像部の複数の撮像素子の視線の、前記移動機構座標系における座標データと、に基づいて、該移動機構座標系において該視線が前記点群を構成する点を通過するか否かを判定する判定部をさらに備え、
    前記非検査領域算出部は、前記撮像位置に前記ワークと前記撮像部とを位置決めしたときの該撮像部の視野内の画像を構成する、前記視線が前記点を通過すると判定された前記撮像素子に対応する被検査面画素と、前記視線が前記点を通過しないと判定された前記撮像素子に対応する非検査領域画素と、に基づいて、前記非検査領域を算出する、請求項1に記載の装置。
  4. ワークを撮像する撮像部と、前記ワークまたは前記撮像部を移動させて該ワークと該撮像部とを互いに位置決めする移動機構とを有する、ワーク表面を検査する検査システムの検査対象外となる画像領域を算出する装置であって、
    前記ワークの図面データを取得する図面取得部と、
    前記図面データにおいて前記ワークの被検査面の指定を受け付ける指定受付部と、
    指定された前記被検査面の少なくとも一部が前記撮像部の視野に入る撮像位置に前記ワークと前記撮像部とを位置決めしたときに前記撮像部によって撮像されると推定される前記視野内の推定画像を、前記図面データに基づいて生成する画像生成部と、
    前記撮像位置に前記ワークと前記撮像部とを位置決めしたときの該撮像部の視野内の画像において、前記被検査面以外の画像領域を非検査領域として算出する非検査領域算出部と、を備え、
    前記画像生成部は、
    前記図面データに基づいて、前記被検査面に点群を生成する点群生成部と、
    前記ワークと前記撮像部とを前記撮像位置に位置決めしたときに撮像されると推定される前記被検査面の少なくとも一部に生成された前記点群の各々を、前記視野を規定する撮像部座標系にプロットすることによって、前記推定画像を生成するプロット画像生成部と、を有し、
    前記非検査領域算出部は、前記画像生成部が生成した前記推定画像に含まれる前記被検査面以外の画像領域を、前記非検査領域として算出する、装置。
  5. 前記非検査領域に前記被検査面とは異なる色を与えるか、または、前記非検査領域を検査対象外とするためのフラグを前記非検査領域の画素に付与する、マスク生成部をさらに備える、請求項1〜のいずれか1項に記載の装置。
  6. 前記移動機構は、前記ワークを予め定められた把持位置で把持して、該ワークを前記撮像部に対して移動させる、請求項1〜のいずれか1項に記載の装置。
  7. 前記撮像部は、前記移動機構に固定され、該移動機構よって前記ワークに対して移動される、請求項1〜のいずれか1項に記載の装置。
  8. 前記非検査領域算出部は、前記被検査面の互いに異なる複数の領域が前記撮像部の前記視野に入る複数の前記撮像位置に前記ワークと前記撮像部とを位置決めしたときの、該複数の撮像位置の各々に関して、前記撮像部の視野内の前記画像における前記非検査領域を算出する、請求項1〜のいずれか1項に記載の装置。
  9. 請求項1〜のいずれか1項に記載の装置を備える、検査システム。
  10. ワークを撮像する撮像部と、前記ワークまたは前記撮像部を移動させて該ワークと該撮像部とを互いに位置決めする移動機構とを有する、ワーク表面を検査する検査システムの検査対象外となる領域を算出する方法であって、
    前記ワークの図面データを取得することと、
    前記図面データにおいて前記ワークの被検査面の指定を受け付けることと、
    前記図面データに基づいて、前記被検査面に点群を生成することと、
    指定された前記被検査面の少なくとも一部が前記撮像部の視野に入る撮像位置に前記ワークと前記撮像部とを位置決めしたときの、前記移動機構を制御するための移動機構座標系における前記点群の座標データに基づいて、該撮像部の視野内の画像において前記被検査面以外の画像領域を非検査領域として算出することと、を備える、方法。
  11. ワークを撮像する撮像部と、前記ワークまたは前記撮像部を移動させて該ワークと該撮像部とを互いに位置決めする移動機構とを有する、ワーク表面を検査する検査システムの検査対象外となる領域を算出する方法であって、
    前記ワークの図面データを取得することと、
    前記図面データにおいて前記ワークの被検査面の指定を受け付けることと、
    指定された前記被検査面の少なくとも一部が前記撮像部の視野に入る撮像位置に前記ワークと前記撮像部とを位置決めしたときに該撮像部によって撮像されると推定される前記視野内の推定画像を、前記図面データに基づいて生成することと、
    前記撮像位置に前記ワークと前記撮像部とを位置決めしたときの該撮像部の視野内の画像において、前記被検査面以外の画像領域を非検査領域として算出することと、を備え、
    前記図面データに基づいて、前記被検査面に点群を生成し、
    前記ワークと前記撮像部とを前記撮像位置に位置決めしたときに撮像されると推定される前記被検査面の少なくとも一部に生成された前記点群の各々を、前記視野を規定する撮像部座標系にプロットすることによって、前記推定画像を生成し、
    生成した前記推定画像に含まれる前記被検査面以外の画像領域を、前記非検査領域として算出する、方法。
JP2017054628A 2017-03-21 2017-03-21 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法 Active JP6392922B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017054628A JP6392922B1 (ja) 2017-03-21 2017-03-21 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法
DE102018105955.8A DE102018105955B4 (de) 2017-03-21 2018-03-15 Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems
CN201810225234.4A CN108627515B (zh) 2017-03-21 2018-03-19 计算成为检查系统的检查对象外的图像区域的装置及方法
US15/926,558 US10724963B2 (en) 2017-03-21 2018-03-20 Device and method for calculating area to be out of inspection target of inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017054628A JP6392922B1 (ja) 2017-03-21 2017-03-21 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法

Publications (2)

Publication Number Publication Date
JP6392922B1 true JP6392922B1 (ja) 2018-09-19
JP2018155695A JP2018155695A (ja) 2018-10-04

Family

ID=63449992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017054628A Active JP6392922B1 (ja) 2017-03-21 2017-03-21 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法

Country Status (4)

Country Link
US (1) US10724963B2 (ja)
JP (1) JP6392922B1 (ja)
CN (1) CN108627515B (ja)
DE (1) DE102018105955B4 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
WO2019130543A1 (ja) * 2017-12-28 2019-07-04 株式会社Fuji 情報提供装置、情報提供方法及びプログラム
JP7163115B2 (ja) * 2018-09-12 2022-10-31 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体
US10969771B2 (en) * 2019-06-12 2021-04-06 Edison Welding Institute, Inc. Computed tomography for non-destructive evaluation of manufactured parts
CN111007084B (zh) * 2020-01-03 2023-10-24 佛亚智能装备(苏州)有限公司 一种轴类表面360度瑕疵检测方法及拍摄机构

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5321767A (en) * 1992-08-28 1994-06-14 Kabushiki Kaisha Komatsu Seisakusho Method of forming a mask in image processing operation
JP3293257B2 (ja) 1993-08-30 2002-06-17 株式会社デンソー 表面欠陥検査装置
JP3433333B2 (ja) * 1994-05-09 2003-08-04 大日本印刷株式会社 欠陥検査方法
JP4206192B2 (ja) * 2000-11-09 2009-01-07 株式会社日立製作所 パターン検査方法及び装置
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
DE102004007829B4 (de) * 2004-02-18 2007-04-05 Isra Vision Systems Ag Verfahren zur Bestimmung von zu inspizierenden Bereichen
JP4020144B2 (ja) * 2006-03-10 2007-12-12 オムロン株式会社 表面状態の検査方法
JP2009097922A (ja) * 2007-10-15 2009-05-07 Daido Steel Co Ltd 外観検査方法及び外観検査装置
CN106994684B (zh) * 2009-02-03 2021-04-09 范努克机器人技术美国有限公司 控制机器人工具的方法
JP5462093B2 (ja) * 2010-07-05 2014-04-02 株式会社トプコン 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
WO2012091494A2 (ko) * 2010-12-29 2012-07-05 주식회사 고영테크놀러지 기판 검사방법
JP5799516B2 (ja) * 2011-02-03 2015-10-28 セイコーエプソン株式会社 ロボット装置、検査装置、検査プログラム、および検査方法
JP5316563B2 (ja) * 2011-02-15 2013-10-16 オムロン株式会社 画像処理装置および画像処理システム
JP5912627B2 (ja) * 2012-02-14 2016-04-27 川崎重工業株式会社 撮像検査装置ならびにその制御装置および制御方法
JP6286921B2 (ja) * 2012-09-14 2018-03-07 株式会社リコー 画像検査装置、画像検査システム及び画像検査方法
JP6676286B2 (ja) * 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
JP6553412B2 (ja) * 2015-05-29 2019-07-31 リコーエレメックス株式会社 検査システム
JP6750841B2 (ja) * 2015-06-26 2020-09-02 キヤノン株式会社 検査方法、検査装置、処理装置、プログラム及び記録媒体

Also Published As

Publication number Publication date
CN108627515B (zh) 2020-02-18
JP2018155695A (ja) 2018-10-04
US20180275073A1 (en) 2018-09-27
US10724963B2 (en) 2020-07-28
DE102018105955B4 (de) 2021-04-01
DE102018105955A1 (de) 2018-09-27
CN108627515A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
JP6392922B1 (ja) 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法
JP4827744B2 (ja) 検査路設定及び検査領域決定方法
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
CN109079775A (zh) 使用方位对准反馈来控制机器人末端执行器的方位的方法
CN110712194B (zh) 物体检查装置、物体检查系统以及调整检查位置的方法
JP2015135331A (ja) 実用型3dビジョンシステム装置およびその方法
WO2015065660A1 (en) Mapping damaged regions on objects
CN108961144A (zh) 图像处理系统
US10607337B2 (en) Object inspection system and object inspection method
US20180204387A1 (en) Image generation device, image generation system, and image generation method
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
US10434650B2 (en) Programming device which generates operation program and method for generating program
JP6835020B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
Tyris et al. Interactive view planning exploiting standard machine vision in structured light scanning of engineering parts
JP2020134221A (ja) 走査経路生成装置、走査経路生成プログラム、走査経路生成方法、及び外観検査システム
CN114359266B (zh) 通过视觉检测设备检测被测零件的方法和视觉检测设备
JP2023056623A (ja) 遠隔検査装置及び遠隔検査方法
JP2022037516A (ja) 外観検査準備装置および外観検査準備方法
CN114332231A (zh) 视觉检测设备中机械手与相机的定位方法、装置及介质
KR20240044587A (ko) 3차원 유사 결함 영상 생성 장치 및 이를 포함하는 결함 검사장치
JP2023145959A (ja) 教師データ収集装置及び教師データ収集方法
JP5722527B2 (ja) 視覚検査装置の評価システム
CN117836099A (zh) 对机器人把持工件的位置以及姿势进行示教的装置、机器人系统以及方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180823

R150 Certificate of patent or registration of utility model

Ref document number: 6392922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150