JP6892286B2 - 画像処理装置、画像処理方法、及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP6892286B2
JP6892286B2 JP2017040637A JP2017040637A JP6892286B2 JP 6892286 B2 JP6892286 B2 JP 6892286B2 JP 2017040637 A JP2017040637 A JP 2017040637A JP 2017040637 A JP2017040637 A JP 2017040637A JP 6892286 B2 JP6892286 B2 JP 6892286B2
Authority
JP
Japan
Prior art keywords
work
model
gripping
coordinate system
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017040637A
Other languages
English (en)
Other versions
JP2018144144A (ja
JP2018144144A5 (ja
Inventor
真達 下平
真達 下平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2017040637A priority Critical patent/JP6892286B2/ja
Priority to US15/895,263 priority patent/US10279473B2/en
Publication of JP2018144144A publication Critical patent/JP2018144144A/ja
Publication of JP2018144144A5 publication Critical patent/JP2018144144A5/ja
Application granted granted Critical
Publication of JP6892286B2 publication Critical patent/JP6892286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/351343-D cad-cam
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39542Plan grasp points, grip matrix and initial grasp force
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、バラ積み状態のワークを三次元計測して取得した三次元データに基づき、三次元サーチの対象としてワークモデルを登録するとともに、ワークモデルの形状に基づく座標系を設定することができる画像処理装置、画像処理方法、及びコンピュータプログラムに関する。
工場において、ロボットによるピッキング動作を自動的に行うことができるよう、3Dピッキングの技術が開発されている。例えば3D−CAD上でロボットの把持部を移動させることにより、ロボットの把持部をワークを把持することが可能な位置へと誘導し、ワークとロボットの把持部との位置関係を検出して登録しておく。これにより、ロボットの把持部をワークを把持することが可能な位置へと確実に移動制御することができる。
例えば特許文献1では、ワーク(認識対象物)のCADデータを用いて三次元モデルを作成するとともに、三次元サーチの対象としてモデルを登録する三次元視覚センサが開示されている。特許文献1では、CADデータ上の座標系と計測用の座標系との変換を実施し、登録されている三次元モデルの回転角度を特定することでワークの正確な位置及び姿勢を求めることができる。
また、特許文献2では、二次元カメラを用いたロボットピッキング動作において、CADデータを用いることなく、ワークを実際に撮像したときの画像上のマスター位置と、マスター位置のワークを把持するときのロボット位置座標との関係から、ワークを把持する位置を求める方法が開示されている。
特開2011−112400号公報 特開2016−120567号公報
しかし、特許文献1に開示されている方法では、CADデータが手元にない場合には、そもそもモデル登録自体を行うことができなかった。また、CADデータを準備していた場合であっても、CADデータに基づいてモデル座標系が設定されるため、例えば全体のワーク形状の中に、部分的に共通となる形状の部位が複数存在するようなときでも、それぞれの部位について把持姿勢の登録を複数回繰り返す必要が生じるので、把持データの設定作業が煩雑であるという問題点があった。
また、特許文献2に開示されている方法では、ワークを実際に撮像したときの画像上のマスター位置と、マスター位置のワークを把持するときのロボット位置座標との関係から、ワークを把持する位置を求めているため、経時変化や環境変化、衝撃等の要因により、撮像部とロボットとの相対的な位置関係が変わってしまった場合には、マスターとなるワークの位置と、ロボットの把持位置とを、再度登録する必要が生じてしまうという問題点があった。
本発明は斯かる事情に鑑みてなされたものであり、CADデータがない場合であっても、三次元計測して取得した三次元データに基づき、三次元サーチの対象としてワークモデルを登録することができると共に、撮像部とロボットとの相対的な位置関係が変わったとしても把持位置の再登録が不要となる、自由度の高いワークモデルの設定及び把持位置の設定が可能な画像処理装置、画像処理方法、及びコンピュータプログラムを提供することを目的とする。
上記目的を達成するために第1発明に係る画像処理装置は、バラ積みされたワークをロボットの把持部で把持し、把持されたワークを所定位置まで移動させるロボットのピッキング動作を制御する画像処理装置において、前記ワークを背景領域とともに三次元計測して、三次元計測データを取得するセンシング部と、三次元計測により取得した三次元計測データに基づいて、前記ワークの背景領域部分を除外した、前記ワークの形状を示すワークモデルを生成するワークモデル生成部と、生成されたワークモデルのモデル座標系を設定する座標系設定部と、設定されたモデル座標系において、相対的な位置データとして、前記ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する把持データ設定部とを備え、前記ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、前記モデル座標系の設定及び前記把持データの設定を繰り返し、複数の前記把持データを前記ワークモデルごとに対応付けて記憶する把持データ記憶部と、三次元計測により取得した前記三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行するサーチ処理実行部と、前記サーチ処理実行部による三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するように前記ロボットの前記把持部の動作を制御する制御部とを備えることを特徴とする。
また、第2発明に係る画像処理装置は、第1発明において、前記ワークモデル生成部は、設定されたモデル座標系における高さ方向の閾値の設定を受け付ける設定受付部と、前記高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする背景領域調整部とを備えることが好ましい。
また、第3発明に係る画像処理装置は、第1又は第2発明において、前記座標系設定部は、生成されたワークモデルの形状を示す形状情報に基づいて、前記ワークモデルのモデル座標系を設定することが好ましい。
次に、上記目的を達成するために第4発明に係る画像処理方法は、バラ積みされたワークをロボットの把持部で把持し、把持されたワークを所定位置まで移動させるロボットのピッキング動作を制御する画像処理装置で実行することが可能な画像処理方法において、前記画像処理装置は、前記ワークを背景領域とともに三次元計測して、三次元計測データを取得する第一の工程と、 三次元計測により取得した三次元計測データに基づいて、前記ワークの背景領域部分を除外した、前記ワークの形状を示すワークモデルを生成する第二の工程と、生成されたワークモデルのモデル座標系を設定する第三の工程と、設定されたモデル座標系において、相対的な位置データとして、前記ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する第四の工程とを含み、前記ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、前記モデル座標系の設定及び前記把持データの設定を繰り返し、複数の前記把持データを前記ワークモデルごとに対応付けて記憶する第五の工程と、三次元計測により取得した前記三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行する第六の工程と、前記第六の工程による三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するように前記ロボットの前記把持部の動作を制御する第七の工程とを含むことを特徴とする。
また、第5発明に係る画像処理方法は、第4発明において、前記第二の工程は、設定されたモデル座標系における高さ方向の閾値の設定を受け付ける第八の工程と、前記高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする第九の工程とを含むことが好ましい。
また、第6発明に係る画像処理方法は、第4又は第5発明において、前記第三の工程は、生成されたワークモデルの形状を示す形状情報に基づいて、前記ワークモデルのモデル座標系を設定することが好ましい。
次に、上記目的を達成するために第7発明に係るコンピュータプログラムは、バラ積みされたワークをロボットの把持部で把持し、把持されたワークを所定位置まで移動させるロボットのピッキング動作を制御する画像処理装置で実行することが可能なコンピュータプログラムにおいて、前記画像処理装置を、前記ワークを背景領域とともに三次元計測して、三次元計測データを取得するセンシング手段、三次元計測により取得した三次元計測データに基づいて、前記ワークの背景領域部分を除外した、前記ワークの形状を示すワークモデルを生成するワークモデル生成手段、生成されたワークモデルのモデル座標系を設定する座標系設定手段、設定されたモデル座標系において、相対的な位置データとして、前記ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する把持データ設定手段として機能させ、前記ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、前記モデル座標系の設定及び前記把持データの設定を繰り返し、複数の前記把持データを前記ワークモデルごとに対応付けて記憶する把持データ記憶手段、三次元計測により取得した前記三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行するサーチ処理実行手段、及び前記サーチ処理実行手段による三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するように前記ロボットの前記把持部の動作を制御する制御手段 として機能させることを特徴とする。
また、第8発明に係るコンピュータプログラムは、第7発明において、前記ワークモデル生成手段を、設定されたモデル座標系における高さ方向の閾値の設定を受け付ける設定受付手段、及び前記高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする背景領域調整手段として機能させることが好ましい。
また、第9発明に係るコンピュータプログラムは、第7又は第8発明において、前記座標系設定手段を、生成されたワークモデルの形状を示す形状情報に基づいて、前記ワークモデルのモデル座標系を設定する手段として機能させることが好ましい。
第1発明、第4発明及び第7発明では、ワークを背景領域とともに三次元計測して、三次元計測データを取得し、三次元計測により取得した三次元計測データに基づいて、ワークの背景領域部分を除外した、ワークの形状を示すワークモデルを生成する。生成されたワークモデルのモデル座標系を設定し、設定されたモデル座標系において、相対的な位置データとして、ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する。ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、モデル座標系の設定及び把持データの設定を繰り返し、複数の把持データをワークモデルごとに対応付けて記憶する。三次元計測により取得した三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行し、三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するようにロボットの把持部の動作を制御する。これにより、ワークのCADデータがない場合であっても、実際に3D計測したワークの三次元計測データを用いてロボットの把持対象となるワークのワークモデルを登録することができる。また、ワークに対してモデル座標系を設定し、モデル座標系に対する相対的な把持位置を設定するため、撮像部とロボットとの相対的な位置関係が変わっても、従来のようにマスターとなる画像及び把持位置の再登録を行うことなく、運用することができる。さらに、把持対象となるワークの原点を自由に設定することができるので、「継ぎ手」のように共通となる形状が複数存在する場合に、共通の形状のみを抽出して三次元サーチ処理の対象となるワークモデル及び把持姿勢を登録することが可能となるため、自由度の高い設定ができると共に、把持姿勢の教示を効率的に、かつ簡単に行うことが可能となる。
第2発明、第5発明及び第8発明では、設定されたモデル座標系における高さ方向の閾値の設定を受け付け、高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とするので、三次元サーチ処理の対象から除外する背景領域部分を調整することができ、把持対象となる部分が複数あるワークであっても、確実に把持することができる部分をサーチすることが可能となる。
第3発明、第6発明及び第9発明では、生成されたワークモデルの形状を示す形状情報に基づいて、ワークモデルのモデル座標系を設定するので、ワークモデルの形状に応じてモデル座標系の原点を変更することができ、より確実にロボットの把持部を把持可能な位置へと誘導することが可能となる。
本発明によれば、ワークのCADデータがない場合であっても、実際に3D計測したワークの三次元計測データを用いてロボットの把持対象となるワークのワークモデルを登録することができる。また、ワークに対してモデル座標系を設定し、モデル座標系に対する相対的な把持位置を設定するため、撮像部とロボットとの相対的な位置関係が変わっても、従来のようにマスターとなる画像及び把持位置の再登録を行うことなく、運用することができる。さらに、把持対象となるワークの原点を自由に設定することができるので、「継ぎ手」のように共通となる形状が複数存在する場合に、共通の形状のみを抽出して三次元サーチ処理の対象となるワークモデル及び把持姿勢を登録することが可能となるため、自由度の高い設定ができると共に、把持姿勢の教示を効率的に、かつ簡単に行うことが可能となる。
本発明の実施の形態に係る画像処理装置を用いた、ピッキングシステムの構成例を示すブロック図である。 本発明の実施の形態に係る画像処理装置の構成を示すブロック図である。 本発明の実施の形態に係る画像処理装置の撮像部の構成を示す例示図である。 本発明の実施の形態に係る画像処理装置で三次元サーチの対象となるワークの例示図である。 本発明の実施の形態に係る画像処理装置のCPUのピッキング動作用のデータ設定処理の手順を示すフローチャートである。 本発明の実施の形態に係る画像処理装置のCPUのCADデータを用いたワークモデル登録処理の手順を示すフローチャートである。 本発明の実施の形態に係る画像処理装置のCADデータを用いたワークの高さ画像の例示図である。 本発明の実施の形態に係る画像処理装置の機能ブロック図である。 本発明の実施の形態に係る画像処理装置のCPUの実測データを用いたサーチ対象となるワークモデルの登録処理の手順を示すフローチャートである。 本発明の実施の形態に係る画像処理装置の背景面指定の例示図である。 本発明の実施の形態に係る画像処理装置のワークの部位指定の例示図である。 本発明の実施の形態に係る画像処理装置の座標系の原点設定の例示図である。 本発明の実施の形態に係る画像処理装置の実測データを用いたワークの高さ画像の例示図である。 本発明の実施の形態に係る画像処理装置の実測データを用いたワークモデルの例示図である。 本発明の実施の形態に係る画像処理装置のワークモデルの特徴点抽出の例示図である。 複数個所にロボットの把持部で把持することが可能な穴が存在する継ぎ手のワークの例示図である。 継ぎ手のワークの高さ画像の例示図である。 背景面からのオフセット高さ(高さ方向の閾値)を重心高さよりも一定以上高く設定した場合の継ぎ手のワークの高さ画像の例示図である。
以下、本発明の実施の形態に係る画像処理装置について、図面に基づいて具体的に説明する。本実施の形態では、ロボットのピッキング動作において、ロボットの把持部の動作の制御に用いている。
図1は、本発明の実施の形態に係る画像処理装置を用いた、ピッキングシステムの構成例を示すブロック図である。画像処理装置1には、バラ積みされたワーク等を撮像する撮像部2がセンシング部として接続されており、キーボード111及びマウス112等の入力装置で画像処理の設定を行い、表示装置113で設定や動作状態の確認を行うことができる。
図2は、本発明の実施の形態に係る画像処理装置1の構成を示すブロック図である。図2に示すように、本実施の形態に係る画像処理装置1は、少なくともCPU11、メモリ12、ハードディスク等の記憶装置13、I/Oインタフェース14、ビデオインタフェース15、通信インタフェース16、可搬型ディスクドライブ17及び上述したハードウェアを接続する内部バス18で構成されている。
CPU11は、内部バス18を介して画像処理装置1の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置13に記憶しているコンピュータプログラム100に従って、種々のソフトウェア的機能を実行する。メモリ12は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム100の実行時にロードモジュールが展開され、コンピュータプログラム100の実行時に発生する一時的なデータ等を記憶する。
記憶装置13は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置13に記憶しているコンピュータプログラム100は、プログラム及びデータ等の情報を記録したDVD、CD−ROM等の可搬型記録媒体90から、可搬型ディスクドライブ17によりダウンロードされ、実行時には記憶装置13からメモリ12へ展開して実行される。もちろん、通信インタフェース16を介してネットワークに接続されている外部のコンピュータからダウンロードされたコンピュータプログラムであっても良い。
I/Oインタフェース14は、キーボード111、マウス112等の入力装置と接続され、データの入力を受け付ける。また、ビデオインタフェース15は、CRTモニタ、LCD等の表示装置113と接続され、画像処理装置1の設定データ、ロボットの動作状態等を表示する。
通信インタフェース16は内部バス18に接続されており、インターネット、LAN、WAN等の外部のネットワークに接続されることにより、ロボットコントローラ4、撮像部2、外部のコンピュータ等とデータ送受信することが可能となっている。
図1に戻って、撮像部2は、作業空間内にバラ積みされたワークを三次元的に撮像する。図3は、本発明の実施の形態に係る画像処理装置1の撮像部2の構成を示す例示図である。
図3に示すように、本実施の形態に係る撮像部2は、1個のプロジェクタ21を中心として、前後左右方向に1基ずつ、合計4基のカメラ22a〜22dを備えている。これにより、バラ積みされたワークの状態によらず、死角を作ることなく作業空間内におけるワークそれぞれの位置及び姿勢を把握するための三次元データを取得することができる。もちろん、カメラ22の数は少なくとも2基以上備えていれば足り、プロジェクタ21を除いたカメラ22だけの構成でも三次元データを生成することができる。
本実施の形態では、プロジェクタ21は、バラ積み状態のワークの位置及び姿勢を検出するために、縞状の縞パターンを投光する。プロジェクタ21は、ワークがバラ積み状態で積載される作業空間の上方に配置されている。
プロジェクタ21の光源は、例えば白色光を出射するハロゲンランプ、白色光を出射する白色LED(発光ダイオード)等であれば良い。出射口の近傍に、図示しないパターン生成部を備え、縞パターンを生成する。パターン生成部としては、例えばDMD(デジタルマイクロミラーデバイス)、LCOS(登録商標)(Liquid Crystal on Silicon:反射型液晶素子)、マスク等であれば良い。
カメラ22a〜22dは、プロジェクタ21を中心として、前後左右方向の4か所に配置されている。カメラ22a〜22dは、例えばモノクロCCD(電荷結合素子)、CMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子を備えている。撮像素子の画素ごとに受光量に対応する受光信号が出力される。そして、受光信号に基づいて画像が生成される。
図1に戻って、画像処理装置1はロボットの動作を制御するロボットコントローラ4とデータ通信することが可能に接続されている。画像処理装置1で生成された動作信号は、ロボットコントローラ4においてロボット5の動作信号に変換され、ロボット5の動作及びロボット5の把持部50の動作を制御する。
なお、ロボットコントローラ4にはペンダント6がデータ通信することが可能に接続されており、ロボットの動作に関する設定データの入力を受け付ける。
以上の構成のピッキングシステムの動作について説明する。図4は、本発明の実施の形態に係る画像処理装置1で三次元サーチの対象となるワークの例示図である。以下、図4に示す形状のワーク(シャフトホルダ)Wをバラ積みする場合を例に挙げて説明するが、ワークWの形状がこれに限定されないことは言うまでもない。
図5は、本発明の実施の形態に係る画像処理装置1のCPU11のピッキング動作用のデータ設定処理の手順を示すフローチャートである。図5に示すように、画像処理装置1のCPU11は、サーチの対象となるワークのワークモデルを登録しておく(ステップS501)。
CPU11は、ロボット5の把持部50のモデルを登録する(ステップS502)。把持部50の形状だけでなく、どの部分で把持するか、どの方向で把持するか等に関する情報も同時に登録しておくことが好ましい。
CPU11は、ロボット5の把持部50の選択を受け付ける(ステップS503)。実際のロボット5で用いられている把持部50を特定するためである。CPU11は、対象となるワークWを把持するときのロボット5の把持部50の位置及び姿勢を登録する(ステップS504)。
CPU11は、把持する対象となるワークWのすべての箇所について、ロボット5の把持部50の位置及び姿勢を登録した旨のユーザ入力を受け付けたか否かを判断する(ステップS505)。CPU11が、登録した旨のユーザ入力を受け付けていないと判断した場合(ステップS505:NO)、CPU11は、処理をステップS503へ戻し、上述した処理を繰り返す。CPU11が、登録した旨のユーザ入力を受け付けたと判断した場合(ステップS505:YES)、CPU11は、処理を終了する。
そして、登録されたワークモデルに基づいて、作業空間を撮像した画像データを三次元サーチ処理することにより、把持対象となる部位を検出する。本実施の形態では、後述する特徴点を抽出する処理を、ワークモデルに対して事前に行っておく。そして、作業空間を撮像した三次元データの中で、ワークモデルの各特徴点のXYZ座標値が一定以上合致する状態の位置姿勢を、三次元サーチ処理によって求める。座標値が合致しているか否かは、特徴点と最近傍にある三次元データとが、一定の閾値以内の距離にあるかどうかで判断することができる。
そして、ワークモデルに含まれる全特徴点に対する、合致した特徴点の存在比率をスコア化し、位置姿勢と共に算出したスコア値を三次元サーチ処理の結果として算出する。スコア値が一定以下の三次元サーチ処理の結果を除外する、あるいはスコア値が高い順に把持対象とすることにより、三次元サーチ処理の結果の妥当性を考慮しながら、確実にワークWを把持することができるようロボット5の把持部50を誘導することができる。
ワークモデルを登録する場合、従来はCADデータを用いて登録している。図6は、本発明の実施の形態に係る画像処理装置1のCPU11のCADデータを用いたワークモデル登録処理(ステップS501)の手順を示すフローチャートである。
図6において、画像処理装置1のCPU11は、ワークWのCADデータを読み出し(ステップS601)、ワークWの外接直方体の中心をモデル座標系の原点として設定する(ステップS602)。
CPU11は、六面図に相当する高さ画像を生成する(ステップS603)。具体的には、正面図、背面図、平面図、底面図、右側面図、左側面図のそれぞれについて高さ画像を生成する。
図7は、本発明の実施の形態に係る画像処理装置1のCADデータを用いたワークWの高さ画像の例示図である。図7(a)は、図4に示すZ軸の+側から見た高さ画像(平面図)を、図7(b)は、図4に示すZ軸の−側から見た高さ画像(底面図)を、図7(c)は、図4に示すX軸の+側から見た高さ画像(右側面図)を、図7(d)は、図4に示すX軸の−側から見た高さ画像(左側面図)を、図7(e)は、図4に示すY軸の+側から見た高さ画像(背面図)を、図7(f)は、図4に示すY軸の−側から見た高さ画像(正面図)を、それぞれ示している。図7(a)〜図7(f)は、座標軸の原点をCADデータの外接直方体の中心としている。高さは、X軸、Y軸、Z軸それぞれの座標値として表すことができる。
図6に戻って、CPU11は、生成した高さ画像のうち、同一の高さ画像を削除する(ステップS604)。例えばワークが円柱形である場合、長方形に見える正面図、背面図、右側面図、左側面図が一致し、環状に見える平面図、底面図が一致するので、正面図と平面図とを残して残りを削除する。CPU11は、残った高さ画像をワークモデルとして記憶装置13に記憶(登録)する(ステップS605)。
本実施の形態では、事前にCADデータが準備されておらず、ワークWの実測データを用いてサーチ対象となるワークモデルを登録して、三次元サーチを実行する。図8は、本発明の実施の形態に係る画像処理装置1の機能ブロック図である。
図8において、センシング部1001は、撮像部2で撮像された画像に基づいて、バラ積みされたワークWが搭載されている作業空間を三次元計測して、三次元計測データを取得する。ワークモデル生成部1002は、三次元計測により取得した三次元計測データに基づいて、ワークの背景領域部分を除外した、ワークWの形状を示すワークモデルを生成する。運用時には、ばら積みされたワークWを三次元計測しているのに対し、ワークモデル生成時には、平面上にワークWを配置した状態で三次元計測することが好ましいが、特にこれに限定されるものではない。
ワークモデル生成部1002は、背景領域を調整できることが好ましい。そのため、高さ設定受付部(設定受付部)1008及び背景領域調整部1009を備えている。
高さ設定受付部1008は、設定されるモデル座標系における高さ方向の閾値の設定を受け付ける。ここで「高さ」とは背景面からの高さを意味している。背景領域調整部1009は、高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする。これにより、背景面を高さ方向に変動させることができ、生成されるワークモデルを変動させることができる。
座標系設定部1003は、生成されたワークモデルのモデル座標系を設定する。CADデータのように一律的に座標系を定めるのではなく、生成されたワークモデルの形状を示す形状情報に基づいて設定されることが好ましい。把持データ設定部1004は、座標系設定部1003で設定されたモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持するロボット5の把持部50の姿勢で構成される把持データを設定する。
把持データ記憶部1005は、ワークWの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、モデル座標系の設定及び把持データの設定を繰り返し、複数の把持データをワークモデルごとに対応付けて記憶装置13に記憶する。
サーチ処理実行部1006は、作業空間を三次元計測することにより取得した、バラ積みされたワークWの三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行する。制御部1007は、存在が確認されたワークモデルに設定された把持データに基づいてロボット5の把持部50の動作を制御する制御信号をロボットコントローラ4へ送信する。ロボット5の把持部50の動作の制御に必要なロボット座標は、特許文献2に記載の方法等により、事前にキャリブレーションを実施しておくことで、撮像部2によって得られるビジョン空間上の座標系から、ロボット5の把持部50の動作の制御に必要なロボット座標を求めることができる。
以下、フローチャートを用いて詳細に説明する。図9は、本発明の実施の形態に係る画像処理装置1のCPU11の実測データを用いたサーチ対象となるワークモデルの登録処理(ステップS501)の手順を示すフローチャートである。
図9において、画像処理装置1のCPU11は、ワークを三次元計測して(ステップS901)、三次元計測データを取得する。CPU11は、登録対象となるワークを指定するためのユーザによる領域の指定を受け付ける(ステップS902)。CPU11は、三次元計測データに基づいて背景面の平面式を算出する(ステップS903)。
CPU11は、背景面からのオフセット高さ(高さ方向の閾値)の入力を受け付け(ステップS904)、オフセット高さより高い部分だけを抽出する(ステップS905)。CPU11は、三次元サーチ処理の対象部位が抽出されている旨の入力を受け付けたか否かを判断する(ステップS906)。
CPU11が、三次元サーチ処理の対象部位が抽出されている旨の入力を受け付けていないと判断した場合(ステップS906:NO)、CPU11は、抽出される部位を変更するべく、処理をステップS904へ戻して上述した処理を繰り返す。CPU11が、三次元サーチ処理の対象部位が抽出されている旨の入力を受け付けたと判断した場合(ステップS906:YES)、CPU11は、モデル座標系の原点の設定を受け付ける(ステップS907)。
なお、把持対象の部位の抽出処理、すなわち背景面に基づく背景分離処理は、例えば背景面の平面式を、ステップS902の処理の中でユーザによって指定された領域枠線上(後述する図10の枠61)の三次元計測データを用いて最小二乗法を適用して求めても良い。登録対象となるワークを囲うように領域を設定すれば、領域枠線上は背景面のみのデータとなっているため、最小二乗法により安定した平面式を求めることができる。ただし、背景分離処理は、これに限定されるものではなく、様々な方法を適用することができる。
例えば、背景面上で面を特定することが可能な3点の指定を受け付けることで背景面を特定しても良い。図10は、本発明の実施の形態に係る画像処理装置1の背景面指定の例示図である。図10(a)は、ワークWの平面図における背景面の指定受付の例示図であり、図10(b)は、ワークWの平面図における背景分離処理後(ワークモデル抽出後)の状態の例示図である。
図10(a)に示すように、背景を示す3点71、71、71の指定を受け付けることで、背景面が一意に特定される。特定された背景面に対して一定の高さ以下の部分を背景として分離することで、図10(b)に示すように、ワークWの把持対象の部位を抽出することができる。もちろん指定を受け付ける3点が同一平面上であればいいので、枠61内の3点であっても、枠61外の点が含まれていても良い。
また、抽出したい部位の3点の指定を受け付けても良い。図11は、本発明の実施の形態に係る画像処理装置1のワークWの部位指定の例示図である。図11(a)は、ワークWの平面図における抽出対象の部位の表面の指定受付の例示図であり、図11(b)は、ワークWの平面図におけるワークモデル抽出後(背景分離処理後)の状態の例示図である。
図11(a)に示すように、ワークWの抽出したい部位表面を示す3点81、81、81の指定を受け付けることで、ワークWの抽出したい部位の表面が一意に特定される。特定された部位の表面に対して一定の高さ以下の部分を背景として分離することで、図11(b)に示すように、ワークWの把持対象の部位を抽出することができる。
その他、ユーザによって指定された領域枠(図10の枠61)内ではなく、枠外の三次元計測データに対して最小二乗法を適用して背景面を求めても良い。視野内の平面上に1つだけワークを配置することを前提とすることで、背景面を特定することが可能となる。
図12は、本発明の実施の形態に係る画像処理装置1の座標系の原点設定の例示図である。図12(a)は、図4に示すワークWのX軸の−側から見た面(左側面図)を実際に3D計測した高さ画像における座標軸設定の例示図であり、図12(b)は、ワークWのモデル座標系を含む3D表示の例示図である。図12(a)の高さ画像におけるX軸、Y軸、Z軸は、図4に示すCADデータのX軸、Y軸、Z軸とは異なっており、高さ画像における真上の方向がZ軸の方向となっている。言い換えると、図4に示すCADデータのX軸の−側の方向が、図12(a)の高さ画像におけるZ軸の方向となっている。
例えば図12(a)に示すように、高さ画像におけるZ軸に垂直な面で枠61内のワークWに外接する外接長方形51を特定し、外接長方形51の中心をZ軸の中心位置とする。同様にX軸方向、Y軸方向についても中心位置を定めることで、図12(b)に示すようにモデル座標系の原点を設定することができる。このように、抽出された部位の形状を示す形状情報に応じてモデル座標系の原点を変更できる点でCADデータを用いる場合とは相違する。
図9に戻って、CPU11は、枠61内に抽出されたワークWの部位をワークモデルとして生成し、記憶装置13に記憶(登録)する(ステップS908)。図13は、本発明の実施の形態に係る画像処理装置1の実測データを用いたワークWの高さ画像の例示図である。図13(a)は、図4に示すZ軸の+側から見た高さ画像(平面図)を、図13(b)は、図4に示すZ軸の−側から見た高さ画像(底面図)を、図13(c)は、図4に示すX軸の+側から見た高さ画像(右側面図)を、図13(d)は、図4に示すX軸の−側から見た高さ画像(左側面図)を、図13(e)は、図4に示すY軸の+側から見た高さ画像(背面図)を、図13(f)は、図4に示すY軸の−側から見た高さ画像(正面図)を、それぞれ示している。
図13に示すように、本実施の形態では、ユーザによる指定を受け付けた領域内で、背景面より一定以上高い位置に存在するワークWの部位だけを抽出している。
図14は、本発明の実施の形態に係る画像処理装置1の実測データを用いたワークモデルの例示図である。図14(a)は、図4に示すZ軸の+側から見たワークモデル(平面図)を、図14(b)は、図4に示すZ軸の−側から見たワークモデル(底面図)を、図14(c)は、図4に示すX軸の+側から見たワークモデル(右側面図)を、図14(d)は、図4に示すX軸の−側から見たワークモデル(左側面図)を、図14(e)は、図4に示すY軸の+側から見たワークモデル(背面図)を、図14(f)は、図4に示すY軸の−側から見たワークモデル(正面図)を、それぞれ示している。
図14に示すように、本実施の形態では、枠61内において、背景面から一定のオフセット高さ以上高い位置に存在するワークWの部位だけのワークモデルを生成している。CADデータを用いる場合と相違するのは、モデル座標系の原点をユーザが設定することができる点である。これにより、三次元サーチの対象となる部位の形状に応じて、最適なモデル座標系を設定することができる。
また、CADデータを用いることなく、実際に撮像したワークを用いて把持位置を設定する特許文献2に記載の従来の方法では、ワークを把持する位置の画像とロボットの位置座標とを対応付けて記憶するため、撮像部とロボットとの位置関係が変わった場合には、ワークを把持する位置の画像と、ロボットの位置座標とを再度登録し直す必要があった。つまり、絶対的な位置関係を基に登録を行う既存の方法では、撮像部とロボットとの相対的な位置関係が変わるたびに、登録作業を繰り返し行う必要があった。
一方、本発明では、ワークごとのモデル座標系に対し、モデル座標系に対する相対的な位置で把持位置を登録するため、撮像部とロボットとの位置関係が変わった場合であっても、再登録することなく使うことができる。バラ積みされたワークを全てピッキングする場合、ワークによっては把持位置の登録が煩雑になる場合も生じうる。例えば、ロボットによるピッキングの処理を別のラインに展開する場合にも、一度登録した把持位置のデータを流用できるメリットは大きい。
なお、ワークモデルは、不要な背景画像を削除した特徴点の集合として生成されることが好ましい。特徴点とは、三次元サーチ処理において必要な特徴を示す三次元座標を持つ点を意味しており、例えば形状の輪郭を表す輪郭上の特徴点、表面形状を表す表面上の特徴点の2種類の特徴点で構成されていれば良い。
図15は、本発明の実施の形態に係る画像処理装置1のワークモデルの特徴点抽出の例示図である。図15(a)は、ワークWの平面図における特徴点抽出の例示図であり、図15(b)は、ワークWのモデル座標系を含む特徴点抽出の3D表示の例示図である。
例えば図15(a)に示すように、輪郭上の特徴点131は、高さが大きく変化する部分等のエッジ抽出を行い、さらに細線化処理した部分を一定間隔で抽出している。また、表面上の特徴点132は、ワークモデルの表面を一定間隔で抽出している。したがって、3D表示すると図15(b)のようになる。
なお、撮像されたワークWの高さ画像に対して、背景面からのオフセット高さ(高さ方向の閾値)の入力により抽出されるワークモデルがどのように変動するのか、簡単な例で説明する。図16は、複数個所にロボットの把持部で把持することが可能な穴151、152、153が存在する継ぎ手のワークWの例示図である。
図16の例では、ワークW内に共通の形状の部位が複数存在し、姿勢が変わっても似たような見え方になるため、三次元サーチ処理の姿勢を誤りやすい。このようなワークWが把持対象となる場合、共通の形状である各穴部分に対して一つ一つ把持位置を指定するよりも、共通の形状である穴部分を三次元サーチ処理することで把持させる方が、設定を効率的に、かつ運用を安定的に行うことができる。
図17は、継ぎ手のワークWの高さ画像の例示図である。図17(a)は、ワークWの平面図であり、図17(b)は、ワークWの3D表示の例示図である。例えば背景面からのオフセット高さ(高さ方向の閾値)を重心高さよりも低く設定した場合、図17(a)及び図17(b)の表示内容は変化しない。
一方、背景面からのオフセット高さ(高さ方向の閾値)を重心高さよりも一定以上高く設定した場合、図17(a)及び図17(b)の表示内容から表示されない部分が生じる。すなわち、背景面からのオフセット高さ(高さ方向の閾値)を重心高さよりも低く設定した場合、把持対象として穴151、152、153のすべてが表示されているのに対して、背景面からのオフセット高さ(高さ方向の閾値)を重心高さよりも一定以上高く設定した場合、穴151、152が表示されない。
図18は、背景面からのオフセット高さ(高さ方向の閾値)を重心高さよりも一定以上高く設定した場合の継ぎ手のワークWの高さ画像の例示図である。図18(a)は、ワークWの平面図であり、図18(b)は、ワークWの3D表示の例示図である。このように、背景面からのオフセット高さを調整することで、共通の形状を有する3つの穴のうち、穴153のみを三次元サーチ処理のモデルとして登録することができる。このように、共通の形状を有する部位のうち、穴153に対してのみ把持姿勢を登録するだけで、他の穴151、152についても三次元サーチ処理を実行することができ、把持姿勢の算出も可能となる。
このように、継手のワークWに対して穴ごとに把持姿勢の登録を行う必要がなく、最小限の設定のみで多数の把持候補を得ることができるので、把持姿勢の教示を効率的に、かつ簡単に行うことが可能となる。CADデータを用いた既存の方法では、各穴の形状ごとに把持姿勢の登録が必要となるため、労力のかかる作業が必要不可欠だった。
以上のように本実施の形態によれば、ワークWのCADデータがない場合であっても、実際に三次元計測したワークの三次元計測データを用いてロボット5の把持対象となるワークWのワークモデルを登録することができる。また、ワークWに対してモデル座標系を設定し、モデル座標系に対する相対的な把持位置を設定するため、撮像部とロボットとの相対的な位置関係が変わっても、従来のようにマスターとなる画像及び把持位置の再登録を行うことなく、運用することができる。さらに、把持対象となるワークWの原点を自由に設定することができるので、「継ぎ手」のように共通となる形状が複数存在する場合に、共通の形状のみを抽出して三次元サーチ処理の対象となるワークモデル及び把持姿勢を登録することが可能となるため、自由度の高い設定ができると共に、把持姿勢の教示を効率的に、かつ簡単に行うことが可能となる。
なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えば、三次元サーチ処理の対象として特徴点の座標値群を用いているが、ロボット5の把持部50が把持できる対象を特定できる方法であれば、特にこれに限定されるものではない。
1 画像処理装置
2 撮像部
4 ロボットコントローラ
5 ロボット
11 CPU
50 把持部
W ワーク

Claims (9)

  1. バラ積みされたワークをロボットの把持部で把持し、把持されたワークを所定位置まで移動させるロボットのピッキング動作を制御する画像処理装置において、
    前記ワークを背景領域とともに三次元計測して、三次元計測データを取得するセンシング部と、
    三次元計測により取得した三次元計測データに基づいて、前記ワークの背景領域部分を除外した、前記ワークの形状を示すワークモデルを生成するワークモデル生成部と、
    生成されたワークモデルのモデル座標系を設定する座標系設定部と、
    設定されたモデル座標系において、相対的な位置データとして、前記ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する把持データ設定部と
    を備え、
    前記ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、前記モデル座標系の設定及び前記把持データの設定を繰り返し、複数の前記把持データを前記ワークモデルごとに対応付けて記憶する把持データ記憶部と、
    三次元計測により取得した前記三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行するサーチ処理実行部と、
    前記サーチ処理実行部による三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するように前記ロボットの前記把持部の動作を制御する制御部と を備えることを特徴とする画像処理装置。
  2. 前記ワークモデル生成部は、
    設定されたモデル座標系における高さ方向の閾値の設定を受け付ける設定受付部と、
    前記高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする背景領域調整部と
    を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記座標系設定部は、生成されたワークモデルの形状を示す形状情報に基づいて、前記ワークモデルのモデル座標系を設定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. バラ積みされたワークをロボットの把持部で把持し、把持されたワークを所定位置まで移動させるロボットのピッキング動作を制御する画像処理装置で実行することが可能な画像処理方法において、
    前記画像処理装置は、
    前記ワークを背景領域とともに三次元計測して、三次元計測データを取得する第一の工程と、
    三次元計測により取得した三次元計測データに基づいて、前記ワークの背景領域部分を除外した、前記ワークの形状を示すワークモデルを生成する第二の工程と、
    生成されたワークモデルのモデル座標系を設定する第三の工程と、
    設定されたモデル座標系において、相対的な位置データとして、前記ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する第四の工程と
    を含み、
    前記ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、前記モデル座標系の設定及び前記把持データの設定を繰り返し、複数の前記把持データを前記ワークモデルごとに対応付けて記憶する第五の工程と、
    三次元計測により取得した前記三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行する第六の工程と、
    前記第六の工程による三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するように前記ロボットの前記把持部の動作を制御する第七の工程と
    を含むことを特徴とする画像処理方法。
  5. 前記第二の工程は、
    設定されたモデル座標系における高さ方向の閾値の設定を受け付ける第八の工程と、
    前記高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする第九の工程と
    を含むことを特徴とする請求項4に記載の画像処理方法。
  6. 前記第三の工程は、生成されたワークモデルの形状を示す形状情報に基づいて、前記ワークモデルのモデル座標系を設定することを特徴とする請求項4又は5に記載の画像処理方
    法。
  7. バラ積みされたワークをロボットの把持部で把持し、把持されたワークを所定位置まで移動させるロボットのピッキング動作を制御する画像処理装置で実行することが可能なコンピュータプログラムにおいて、
    前記画像処理装置を、
    前記ワークを背景領域とともに三次元計測して、三次元計測データを取得するセンシング手段、
    三次元計測により取得した三次元計測データに基づいて、前記ワークの背景領域部分を除外した、前記ワークの形状を示すワークモデルを生成するワークモデル生成手段、
    生成されたワークモデルのモデル座標系を設定する座標系設定手段、
    設定されたモデル座標系において、相対的な位置データとして、前記ワークモデルの把持位置及び該把持位置を把持する際のロボットの把持部の姿勢で構成される把持データを設定する把持データ設定手段
    として機能させ、
    前記ワークの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに基づいて生成された複数のワークモデルそれぞれに対して、前記モデル座標系の設定及び前記把持データの設定を繰り返し、複数の前記把持データを前記ワークモデルごとに対応付けて記憶する把持データ記憶手段、
    三次元計測により取得した前記三次元計測データに対して、生成された複数のワークモデルを用いて三次元サーチ処理を実行するサーチ処理実行手段、及び
    前記サーチ処理実行手段による三次元サーチ処理に成功したワークモデルに対応付けられた把持データに基づいて、該三次元サーチ処理に成功したワークモデルを把持するように前記ロボットの前記把持部の動作を制御する制御手段
    として機能させることを特徴とするコンピュータプログラム。
  8. 前記ワークモデル生成手段を、
    設定されたモデル座標系における高さ方向の閾値の設定を受け付ける設定受付手段、及び
    前記高さ方向の閾値以下の高さ情報を有する領域を背景領域部分とする背景領域調整手段
    として機能させることを特徴とする請求項7に記載のコンピュータプログラム。
  9. 前記座標系設定手段を、生成されたワークモデルの形状を示す形状情報に基づいて、前記ワークモデルのモデル座標系を設定する手段として機能させることを特徴とする請求項7又は8に記載のコンピュータプログラム。
JP2017040637A 2017-03-03 2017-03-03 画像処理装置、画像処理方法、及びコンピュータプログラム Active JP6892286B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017040637A JP6892286B2 (ja) 2017-03-03 2017-03-03 画像処理装置、画像処理方法、及びコンピュータプログラム
US15/895,263 US10279473B2 (en) 2017-03-03 2018-02-13 Image processing device, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040637A JP6892286B2 (ja) 2017-03-03 2017-03-03 画像処理装置、画像処理方法、及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2018144144A JP2018144144A (ja) 2018-09-20
JP2018144144A5 JP2018144144A5 (ja) 2019-10-24
JP6892286B2 true JP6892286B2 (ja) 2021-06-23

Family

ID=63357559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040637A Active JP6892286B2 (ja) 2017-03-03 2017-03-03 画像処理装置、画像処理方法、及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US10279473B2 (ja)
JP (1) JP6892286B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085552A (ja) * 2016-11-21 2018-05-31 セイコーエプソン株式会社 プロジェクターシステム
JP6822234B2 (ja) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 プロジェクターシステム
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
JP6897396B2 (ja) * 2017-07-28 2021-06-30 セイコーエプソン株式会社 制御装置、ロボットシステムおよび制御方法
KR20200116741A (ko) * 2019-04-02 2020-10-13 현대자동차주식회사 로봇의 파지 제어방법 및 제어시스템
CN110443851B (zh) * 2019-08-06 2021-10-15 暨南大学 一种基于二次曲面特征的工件位姿识别方法
JP7424800B2 (ja) 2019-11-06 2024-01-30 ファナック株式会社 制御装置、その制御方法、及び制御システム
CN111015655B (zh) * 2019-12-18 2022-02-22 深圳市优必选科技股份有限公司 机械臂抓取方法、装置、计算机可读存储介质及机器人
CN110980276B (zh) * 2019-12-30 2021-08-17 南京埃克里得视觉技术有限公司 一种三维视觉配合机器人实施铸件自动下料的方法
JP2022017739A (ja) * 2020-07-14 2022-01-26 株式会社キーエンス 画像処理装置
CN112184885B (zh) * 2020-09-25 2024-05-28 深圳数马电子技术有限公司 一种工件坐标系的建立方法以及装置
WO2023013036A1 (ja) * 2021-08-06 2023-02-09 川崎車両株式会社 構造物の製造方法、構造物製造用の識別子、構造物の製造システム及び機械加工プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP5471355B2 (ja) * 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
DE112011103794B4 (de) * 2010-11-17 2019-01-24 Mitsubishi Electric Corporation Aufnehmervorrichtung für Werkstücke
WO2012099220A1 (ja) * 2011-01-21 2012-07-26 兵庫県 3次元形状計測方法および3次元形状計測装置
KR20160124770A (ko) * 2014-02-20 2016-10-28 엠비엘 리미티드 로봇식 요리용 키친에서의 음식 준비를 위한 방법 및 시스템
JP6486679B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
EP3389955A2 (en) * 2015-12-16 2018-10-24 MBL Limited Robotic kitchen including a robot, a storage arrangement and containers therefor

Also Published As

Publication number Publication date
US20180250813A1 (en) 2018-09-06
JP2018144144A (ja) 2018-09-20
US10279473B2 (en) 2019-05-07

Similar Documents

Publication Publication Date Title
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
US9529945B2 (en) Robot simulation system which simulates takeout process of workpieces
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
CN108965690B (zh) 图像处理系统、图像处理装置及计算机可读存储介质
JP5471355B2 (ja) 3次元視覚センサ
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP6703812B2 (ja) 3次元物体検査装置
JP2010210584A (ja) 3次元視覚センサ
JP2008021092A (ja) ロボットシステムのシミュレーション装置
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP2018153874A (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP5198078B2 (ja) 計測装置および計測方法
JP2009216503A (ja) 三次元位置姿勢計測方法および装置
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP2015135333A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2018179859A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210527

R150 Certificate of patent or registration of utility model

Ref document number: 6892286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250