JP2018176334A - 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 - Google Patents

情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 Download PDF

Info

Publication number
JP2018176334A
JP2018176334A JP2017077728A JP2017077728A JP2018176334A JP 2018176334 A JP2018176334 A JP 2018176334A JP 2017077728 A JP2017077728 A JP 2017077728A JP 2017077728 A JP2017077728 A JP 2017077728A JP 2018176334 A JP2018176334 A JP 2018176334A
Authority
JP
Japan
Prior art keywords
gripping
image
information processing
imaging
interference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017077728A
Other languages
English (en)
Other versions
JP2018176334A5 (ja
Inventor
大輔 渡邊
Daisuke Watanabe
大輔 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017077728A priority Critical patent/JP2018176334A/ja
Priority to US15/945,810 priority patent/US10894324B2/en
Priority to EP18166245.3A priority patent/EP3392002A1/en
Publication of JP2018176334A publication Critical patent/JP2018176334A/ja
Publication of JP2018176334A5 publication Critical patent/JP2018176334A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39083Robot interference, between two robot arms
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39084Parts handling, during assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ワークの把持を行うハンドと周囲にある物体との干渉判定の精度を高める。【解決手段】情報処理装置1は、撮像された物体の第1画像に基づいて、複数の物体の中から把持対象の物体を決定する計測部202と、把持対象の物体を把持装置が把持する際に把持対象の物体の周囲にある物体と把持装置が干渉するか否かを判定するための着目領域を特定する特定部203と、着目領域に基づいて撮像装置40による撮像範囲を変更する制御部204と、変更後の撮像範囲で撮像された物体の第2画像に基づいて、把持装置が把持対象の物体を把持する際に把持対象の物体の周囲にある物体と把持装置が干渉するか否かの判定を行う判定部205と、を有する。【選択図】図1

Description

本発明は、情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法に関する。
工場などの生産ラインにおいて、ビジョンシステムを用いてバラ積みのワークの中から一個体を認識し、ロボットハンドにより把持を行うバラ積みピッキング技術が近年利用されている。このバラ積みピッキングにおいて、ワークを把持する際の周囲にある物体とハンドとの干渉(衝突)の有無を、距離情報を用いて事前に判定する技術がある(特許文献1)。
バラ積みピッキング向けのビジョンシステムとして、ロボットハンドに取り付けたカメラ(オンハンドカメラ)を用いる方法がある。オンハンドカメラはロボットハンドを制御して任意の位置姿勢で撮像が可能である。そのため、比較的狭い領域を高精度に計測する場合に利用されることが多い。
オンハンドカメラを用いて対象物体の三次元位置姿勢を認識する技術において、二段階の撮像を行うことにより認識をロバスト、高精度に行う技術がある。たとえば、はじめに撮像した画像から推定される対象物体の位置姿勢に基づき、距離計測時の隠蔽が少なくなるような撮像位置姿勢を決定後、オンハンドカメラで距離画像を計測し、高精度な位置姿勢を算出する技術がある(特許文献2)。あるいは、第一の画像を撮像したカメラと対象物体とを結ぶ直線上に撮像位置姿勢を設定後、オンハンドカメラで距離画像を計測し、高精度な位置姿勢を算出する技術がある(特許文献3)。
特開2015−9314号公報 特開2016−99257号公報 特開2002−90113号公報
しかしながら、バラ積みピッキング時の干渉有無の判定に関して、特許文献1の方法は、判定領域すなわちロボットハンドと周囲にある物体との干渉が懸念される領域が、カメラの計測範囲内に収まることを前提としている。そのため、バラ積みワークの存在領域が、カメラの計測領域を超える場合には計測領域外の場所での干渉有無は分からない。一方、特許文献2および特許文献3の方法はワークの位置姿勢を高精度に認識するための撮像位置姿勢を決定するものであり、ワークを把持する際の干渉有無は問題にしていない。そのため、オンハンドカメラなど比較的狭い視野を計測するカメラを用いてバラ積みピッキングを行う場合、計測視野を超える領域での干渉有無の判定は行えなかった。
本発明は、例えば、ワークの把持を行うハンドと周囲にある物体との干渉判定の精度を高めることを目的とする。
上記課題を解決するために、本発明の一側面である情報処理装置は、撮像された物体の第1画像に基づいて、複数の物体の中から把持対象の物体を決定する決定部と、前記把持対象の物体を把持装置が把持する際に前記把持対象の物体の周囲にある物体と前記把持装置が干渉するか否かを判定するための着目領域を特定する特定部と、前記着目領域に基づいて撮像装置による撮像範囲を変更する変更部と、変更後の撮像範囲で撮像された物体の第2画像に基づいて、前記把持装置が前記把持対象の物体を把持する際に前記把持対象の物体の周囲にある物体と前記把持装置が干渉するか否かの判定を行う判定部と、を有する。
本発明によれば、例えば、ワークの把持を行うハンドと周囲にある物体との干渉判定の精度を高めることができる。
ピッキングシステムの構成を示す図である。 情報処理装置の構成を示す図である。 ピッキング対象のワークを示す図である。 干渉判定の処理手順を示すフローチャートである。 第1実施形態における撮像装置40の位置姿勢を説明する図である。 着目領域の設定について説明する図である。 第2実施形態における撮像装置40の位置姿勢を説明する図である。 撮像画像および着目領域の特定方法を示す図である。 第5実施形態における撮像装置40の位置姿勢を説明する図である。
(第1実施形態)
図1は、バラ積みされたワークをピッキングするシステムを示す図である。ピッキングシステムでは、ロボットハンド30に取り付けた撮像装置40でワーク10がパレット20にバラ積みされた状態を撮像して、多数のワーク10の中から一個体を検出してピッキングを行う。ピッキングシステムは、情報処理装置1、撮像装置40、把持装置であるロボットアーム31およびロボットハンド30を有している。
撮像装置40は、任意の位置姿勢に制御可能なオンハンドカメラであり、ロボットハンド30に搭載されている。撮像装置40は、多関節ロボットであるロボットアーム31およびロボットハンド30を駆動することで任意の位置姿勢に制御可能である。情報処理装置1は、ピッキングシステム全体の動作制御を統括する制御中枢部であり、CPU(Central Processing Unit)2を含むプロセッサーやメモリ3等を備える。情報処理装置1は、撮像装置40およびロボットアーム31に接続している。情報処理装置1は、撮像装置40が撮像した画像を取得し、画像に基づいてワーク10の位置姿勢の計測やワーク10の把持を行う際のロボットハンド30と周囲にある物体(周囲にある物体)との干渉判定などを行い、ピッキングに適したワーク10を検出する。情報処理装置1は、計測結果であるワーク10の位置および姿勢の情報に基づいて、ロボットアーム31に駆動指令を送って、ロボットアーム31およびロボットハンド30の駆動を制御する。
ロボットハンド30は、ロボットアーム31の先端に取り付けられており、ワーク10を把持(即ち、ピッキング)し、並進や回転などの移動をさせることが可能な把持部材である。ロボットハンド30は、さらに、ワーク10を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動されたワーク10を加工することにより、物品を製造することができる。ロボットハンド30の形状は、ワーク10を把持するもの、ワーク10を吸着するものなど、ワーク10を保持できる機能を有していれば、どのような形状であってもよい。
ワーク10は、パレット20にバラ積みにされている。パレット20において、ワーク10が収納される空間は、撮像装置40が1度に撮像を行える撮像範囲、即ち計測範囲を超えるものとする。そこで、ロボットアーム31を制御し任意の位置姿勢に撮像装置40を移動して撮像を行うことで、ワーク10の検出を行う。このとき、ワーク10検出時の撮像画像に収まらなかった領域も対象として、ワーク10の把持を行う際のロボットハンド30と周囲にある物体との干渉判定を行う。
図2は、本実施形態に係る情報処理装置1の構成を示している。情報処理装置1は、画像取得部201、計測部202、特定部203、制御部204、干渉判定部205、記憶部206、ロボット制御部207を備える。以下、情報処理装置1を構成する各部について説明する。
画像取得部201は、撮像装置40が撮像した画像を取得する。画像取得部201は、距離画像および濃淡画像を取得可能である。計測部202は、取得した画像に基づいて、複数のワーク10の中から一個体を検出してその位置および姿勢を算出する。したがって、計測部202は、複数のワーク10の中から一個体を決定する決定部と、その位置および姿勢を計測する計測部としての機能を有する。ワーク10、撮像装置40には固有の座標系としてそれぞれ、ワーク座標系、撮像装置座標系が設定されている。計測部202は、ワークの位置および姿勢として、撮像装置座標系とワーク座標系との相対位置および相対姿勢を算出する。
図3は、ピッキング対象のワーク10およびワーク座標系11を説明する図である。ワーク座標系11は、把持対象として検出されたワーク10に設定される座標系である。本実施形態では、ワーク10の最も面積の広い面にX軸およびY軸で構成されるXY面が置かれ、Y軸はワーク10の辺のうち最も長い辺に平行になるように設定される。また、Z軸はXY面に垂直に交わるよう設定される。なお、ワーク10の形状も、ワーク座標系11の設定も図3で示したものに限られるものではない。
特定部203は、認識したワークを把持する際に干渉が懸念される領域を、着目領域として特定し、特定した着目領域が取得画像に収まっているか、即ち着目領域が撮像範囲内であるか否か判定する。この判定は、着目領域が撮像装置40の計測領域に収まっていない場合、即ち撮像範囲外である場合には、計測領域外での干渉有無は判断が行えないため、干渉判定に必要な画像が取得できているか否か判定するために行われる。制御部204は、撮像装置40の位置姿勢を設定し、撮像装置40を制御する。したがって、制御部204は、撮像装置40が撮像を行う際の撮像範囲を変更し、撮像装置の位置および姿勢を設定する変更部と、撮像装置40を制御する撮像制御部としての機能を有する。特定部203において特定した着目領域が取得画像に収まっていないと判定された場合には、撮像画像において画像から見切れた着目領域を新たに撮像するための、撮像装置40の位置姿勢を設定し、撮像装置40を移動させて撮像を行う。決定する位置姿勢は、着目領域全体が収まるような位置姿勢でもよいし、見切れた着目領域のみを撮像可能な位置姿勢でもよい。
干渉判定部205は、取得した画像に基づいて、ワーク10を把持する際にロボットハンド30と把持対象のワーク10の周囲にある物体とが干渉するか否かの干渉判定を行う。干渉判定の対象となる周囲にある物体には、ワークやパレット20など、把持対象のワーク10の周囲にある物体が含まれる。干渉判定部205は、具体的には、バラ積みワークおよびパレット20を撮像した距離画像から得られるワーク10およびパレット20の三次元点群データと、検出したワーク10を把持する際のロボットハンド30の占有領域との、空間上での重なりを検出することで干渉の発生を検出する。空間上での重なり検出には、ゲームプログラミングなどで一般的に利用される衝突判定技術を利用可能である。
記憶部206は、ハンドモデルや相対位置および相対姿勢など、必要な情報を保存するメモリである。ロボット制御部207は、ロボットハンド30とロボットアーム31を制御し、ワーク10を把持したり撮像装置40を移動させたりする。なお、ロボットアーム31が制御部を有している場合には、ロボット制御部207の代わりに、ロボットアーム31を制御するのに必要な情報、例えば、把持対象の物体の位置姿勢などを出力する出力部を備えるようにしてもよい。
図4は、情報処理装置1における、干渉判定の処理手順を示すフローチャートである。
(ステップS1000)
画像取得部201は、制御部204が決定した第1の位置姿勢において撮像装置40が撮像した画像を取得する。このとき、画像取得部201は、画像として、距離画像および濃淡画像を取得する。なお、距離画像に基づく計測には、対象に照射したレーザ光やスリット光の反射光をカメラで撮像し、三角測量により距離を計測する公知の方法を利用できる。また、光の飛行時間を利用するTime−Of−Flight方式、あるいは、ステレオカメラの撮像画像から三角測量により距離を計算する方法などを利用してもよい。
図5は、第1実施形態における撮像装置40の位置姿勢を説明する図である。図5(A)は、第1の位置姿勢を示す図である。第1の位置姿勢は、撮像装置40の計測領域41およびパレット20内のワークの量あるいは配置状況を考慮して制御部204が適宜決定する。例えば、ワークが大量に残っている状態であれば、パレット20の中央上方から鉛直下向きに観測を行うような位置姿勢で撮像する。また、ワークが少なくなってきた場合には、パレットの端に存在するワークを計測できるよう、撮像装置40をパレット底面と平行な面内で移動させてもよい。あるいは、撮像装置40の計測できる奥行き範囲が狭い場合には、パレット底面付近に存在するワークを計測できるよう、撮像装置40を、パレット底面に近付けてもよい。この他、ワークの認識に適した画像を撮像できれば、第1の位置姿勢はどのように設定しても構わない。
ステップS1000では、図5(A)に示すように、第1の位置姿勢に撮像装置40を移動し、バラ積み状態のワーク10の画像を撮像する。計測領域41に示す範囲の撮像が行われ、計測領域41の計測が行える。
(ステップS1100)
計測部202は、ステップS1000で取得した濃淡画像および距離画像を用いて、計測領域41内に含まれるワーク10の中から一個体を検出するとともに、その位置および姿勢を算出する。図5(A)において、認識したワークを斜線で示す。この把持対象として検出したワークを、以後「把持対象ワーク12」と呼ぶ。濃淡画像および距離画像を用いてバラ積みの中からワークの位置姿勢を算出する方法は公知のため、ここでは詳細な説明を省略する。なお、ワークの認識には、濃淡画像のみを用いてもよいし距離画像のみを用いてもよい。また、把持対象ワーク12を決定してから把持対象ワーク12のみの位置および姿勢を算出するようにしてもよいし、画像内の複数のワーク10の位置および姿勢を算出し、この算出結果に基づいて把持対象ワーク12を決定するようにしてもよい。
(ステップS1200)
特定部203は、把持対象ワーク12を把持する際に、ロボットハンド30との干渉が懸念される領域を着目領域として特定する。着目領域の決定について、図5(A)および図6を用いて説明する。図6は、着目領域の設定について説明する図である。
まず、図6(A)を用いて、記憶部206に予め記憶したハンド座標系72とワーク座標系11との相対位置姿勢に基づいてハンドモデルを配置し、着目領域を特定する方法を説明する。図6(A)は、ワーク10を把持する際のハンドモデル70とワーク10との配置関係を示す図である。ロボットハンド30によりワーク10を把持する際のハンドモデル70とワーク10との配置関係を示すである。本実施形態における着目領域は、把持対象ワーク12の把持を行う際のロボットハンド30の占有領域である。着目領域は、ロボットハンド30の三次元形状を表すハンドモデル70、および、把持を行う際のハンドモデル70とワーク10との相対関係を用いて着目領域を特定する。情報処理装置1は、予め、記憶部206にハンドモデルに設定された固有の座標系(ハンド座標系72)とワーク座標系11とのワーク10を把持する際の相対位置および相対姿勢を記憶しておく。そして、図5(A)に示すように、把持対象ワーク12に対し、記憶している相対位置姿勢に基づいてハンドモデル70を配置し、ハンドモデル70が配置された領域をバラ積み空間における着目領域71として特定する。
ハンドモデル70には、ポリゴンモデルを用いてもよいし、円筒や直方体のようなプリミティブ形状を組み合わせたモデルを用いてもかまわない。その他、干渉判定の当たり判定領域を特定できる三次元形状モデルであれば、ハンド形状モデルの形式は特に限定されない。ハンドモデル70には、ワーク10を把持する際にハンドとともに干渉が懸念される領域も合わせてモデル化したものを用いてもよい。例えば、ハンドに取り付けられた撮像装置40の形状を含めてもよいし、ハンドが取り付けられているアーム先端の一部を含めてもよい。また、把持状態の位置姿勢に至るまでのハンドのアプローチ動作、あるいは、ハンドの指の開閉動作における干渉有無も判定したい場合には、それぞれの動作軌跡に伴いハンドが占有する領域まで含めてモデル化したハンドモデル70を用いてもよい。
次に、図6(B)を用いて、予め記憶部206にワーク座標系11におけるワーク10に対する着目領域90を直接記憶し、着目領域を特定する方法を説明する。図6(B)は、ワーク10を把持する際のワーク10と着目領域90との配置関係を示す図である。図6(B)では、ロボットハンド30の一例として、ワーク10の主平面中心を吸着ハンドで把持するロボットハンド30を採用している。情報処理装置1は、ワーク10の主平面中心を吸着ハンドで把持する際のロボットハンド30の占有領域を、ワーク座標系11に基づく表現にあらかじめ変換したものを着目領域90として把持する。これにより、ハンド座標系72とワーク座標系11の相対位置姿勢を用いた座標変換を行うことなく、認識したワーク10の位置姿勢に基づいて着目領域90を特定できる。
(ステップS1300)
特定部203は、撮像画像の計測領域41に対する着目領域71の見切れの有無を判定する。図5(A)を用いて詳細に説明する。計測領域41内において、把持対象ワーク12を把持するハンドモデル70と周囲にある物体とで干渉は発生していない。しかし、計測領域41外においてハンドモデル70と干渉ワーク13とで干渉が発生している。ただし、この干渉は、計測領域41の外で起きているため、撮像した距離画像を用いた干渉判定では検出できない。干渉有無を正しく判定するには、ハンドモデル70のうち、計測領域41に含まれていない部位を含む新たな画像を撮像し取得する必要である。
ステップS1300で、見切れがないと判定された場合、即ち、着目領域71(即ち、ハンドモデル70)が計測領域41の空間内にすべて含まれる場合は、撮像済みの画像を用いて干渉有無の判定が可能であるので、ステップS1600へ進む。一方、見切れがあると判定された場合、即ち、着目領域71のすべてが計測領域41の空間内に含まれていない場合は、撮像済みの画像だけでは干渉有無の判定ができないので、見切れた領域を含む画像を撮像し取得するためにステップS1400に進む。なお、本実施形態において、見切れの有無の判定は、ハンドモデル70の占有領域の全てが計測領域41の空間内に含まれる場合に、見切れがないと判定した。しかし、これに限られるものではなく、例えば、計測領域41の空間内に含まれるハンドモデル70の占有領域の割合が閾値(例えば、95パーセント)より高い場合に見切れがない判定するようにしてもよい。
(ステップS1400)
制御部204は、撮像装置40の撮像範囲を見切れた着目領域71を含むような画像を撮像可能な撮像範囲に変更し、撮像装置40の新たな位置姿勢として第2の位置姿勢を決定する。また、本実施形態では、ロボットハンド30がワーク10の把持を行う際にアプローチする方向と、撮像装置40の光軸とが一致するように新たな位置姿勢を決定する。これにより、着目領域71を画像内中心に捉え、かつ、ロボットハンド30のアプローチ方向からバラ積みのワーク10を観測した、干渉判定に好適な距離画像が撮像可能である。例えば、図6(A)においてワーク10の把持を行うに当たり、ロボットハンド30は、ハンド座標系72のZ軸正方向に移動して把持対象のワーク10へアプローチを行ったのち、把持を行う。より具体的には、ロボットハンド30はワーク座標系11のZ軸とハンド座標系72のZ軸とが平行のまま、両者の正方向が互いに近づくようにアプローチを行う。なお、ハンド座標系72のZ軸は、ハンドモデル70の中心軸である。
図5(B)は、第2の位置姿勢を示す図である。図5(B)では、第2の位置姿勢における計測領域41に着目領域71の全てが含まれている。しかし、これに限られるものではなく、第1の位置姿勢において取得した画像と合わせて着目領域71の全てが計測できればよいので、第1の位置姿勢における撮像で見切れた領域のみを撮像可能な位置姿勢を第2の位置姿勢としてもよい。
制御部204は、図5(B)に示すように、ハンドのアプローチ方向すなわちハンド座標系72のZ軸と、撮像装置40の光軸42とが一致するように、制御部204は第2の位置姿勢を決定する。このとき、このとき、撮像画像面にハンドモデル70を投影した時に画像領域内に収まるよう、撮像画像のX軸/Y軸における短手/長手方向と、ハンド座標系72のX軸/Yにおける短手/長手方向とが互いに一致するような姿勢が望ましい。例えば、撮像装置40の光軸42回りの姿勢は、撮像装置40の座標系のX軸とハンド座標系72のX軸とが一致するように第2の位置姿勢を決定する。また、また、撮像装置40の光軸42方向の位置については、たとえば、ハンドモデルが撮像装置40における距離計測可能な奥行き範囲の中央に位置するように設定する。あるいは、距離計測可能な奥行き範囲の最遠面と、ハンドモデル70のZ軸方向最遠面とが一致するようにしてもよい。なお、第2の位置姿勢の決定に関して、ロボットハンド30のアプローチ方向と撮像装置40の光軸42とを一致させた後の光軸まわりの姿勢および光軸方向の位置は、他の方法で決定してもよい。計測領域41が、撮像されていない着目領域71を十分含むように決定できればいかなる方法でもかまわない。
(ステップS1500)
制御部204は、ステップS1400で決定した第2の位置姿勢へ撮像装置40を移動させ、変更後の撮像範囲で新たに画像を撮像する。そして、画像取得部201は、第2の位置姿勢で撮像された画像を取得する。ステップS1500で撮像する画像は、干渉判定に利用するものであるため、距離画像のみを取得する。しかし、濃淡画像も合わせて取得してもかまわない。図5(B)に示すように、第2の位置姿勢から撮像装置40により撮像を行うことで、図5(A)では計測領域外であった、干渉ワーク13を含めた画像を撮像可能となる。第2の位置姿勢で画像を撮像後、ステップS1300に戻る。
なお、ステップS1500において第2の位置姿勢で撮像した画像を取得した後のステップS1300では、各位置姿勢で撮像した画像のいずれの計測領域41にも収まらない着目領域71が存在するか否かを判定する。既に撮像した画像の計測領域41に着目領域71が収まっていれば、撮像済みの画像を用いて干渉判定が可能であるため、ステップS1600へ進む。一方、撮像した画像のいずれにも収まらない着目領域71が存在する場合には、見切れた着目領域71に関して干渉有無の判定は不可能である。よって、見切れた着目領域71をカバーする画像を撮像するために、ステップS1400へ進む。
(ステップS1600)
干渉判定部205は、ステップS1000およびステップS1500で撮像した各距離画像を用いて、把持対象ワーク12の把持を行うロボットハンド30と周囲にある物体の干渉有無を判定する。具体的には、まず、撮像した距離画像から得られる三次元点群の各計測点の位置に半径Rの微小な球を配置する。そして、各計測点に基づき配置された球と、ロボットハンド30の占有領域との空間的な重なりを検出することで干渉判定を行う。ハンドモデル70としてポリゴンモデルを用いる場合は、球とハンドモデル70を構成するポリゴンとに重なりがあれば干渉あり、なければ干渉なしと判定する。ポリゴンと球との干渉判定方法については、公知の方法を用いることができる。なお、距離画像から得られる三次元点群には、把持対象ワーク12自体の計測点も含まれる。この把持対象ワーク12由来の計測点により誤って干渉を検出しないよう、該当する計測点を除外して干渉判定を行ってもよい。また、干渉判定はこのほかの方法で行ってもよい。たとえば、距離画像の隣接画素間の三次元点を連結することでバラ積みワークの三次元形状データを表現するポリゴンモデルを生成し、ハンドモデル70を構成する各ポリゴンとの、ポリゴン間の交差を検出することで干渉判定を実施してもよい。この場合、ポリゴン間に交差があれば干渉あり、なければ干渉なしと判定する。ポリゴン間の干渉判定方法については、公知の方法を用いることができる。なお、前述したとおりハンドモデル70には円柱や直方体、球など簡単なプリミティブ形状の組み合わせで三次元形状を表現したモデルを用いることもできる。この場合には、ハンドモデル70を構成する各プリミティブ形状と、計測点群から生成した球あるいはポリゴンとの重なりを検出することで干渉有無の判定が可能である。この他、ハンドモデル70が表現するロボットハンド30の占有領域と、撮像した距離画像から生成するバラ積みワーク10およびパレット20の三次元形状データとで、空間的な重なりを検出できる方法であれば、干渉判定はいかなる方法で行っても構わない。
干渉判定部205は、干渉判定を、撮像した各距離画像に対して実施する。いずれかの距離画像で干渉ありと判定された場合、把持対象ワーク12を把持しようとする際に干渉が発生するため、把持不可能と判定する。一方、いずれの距離画像においても干渉なしと判定された場合、把持対象ワーク12は干渉なく把持可能と判定する。なお、着目領域71が1つの撮像画像にすべて収まっている場合には、その画像のみ用いて干渉判定を行えばよい。
本実施形態では、ステップS1300の見切れの有無の判定において、ハンドモデル70の占有領域をすべて着目領域71として、計測領域内に含まれるか否かを判定した。しかし、バラ積みのワーク10がパレット20の最上面の高さを超えず、かつ、パレット20の上方に干渉が懸念される物体がないと保証される場合には、パレット20の最上面より高い位置での干渉は発生しないものとして干渉判定を行わなくてもよい。即ち、ハンドモデル70の占有領域のうち、パレット20内でバラ積みのワーク10が収容される空間に存在する部位のみを対象として干渉判定を行えばよい。そこで、ステップS1200で特定したハンドモデル70の占有領域とバラ積みのワーク10が存在しうる空間との重複領域を着目領域71として特定してもよい。これにより、干渉判定に必要な領域をより限定して、見切れの有無を判定可能となる。
本実施形態において、撮像装置40は、多関節ロボットであるロボットアーム31の先端にあるロボットハンド30に備え付けられていた。これらの駆動を制御することで撮像装置40を移動していたが、決定した位置姿勢にカメラを移動できれば、カメラとロボットとが一体のものでなくてもよい。位置あるいは姿勢を制御可能な単軸ロボットを用いてもよいし、それらを組み合せた制御が可能な直交ロボットを用いてもよい。
また、本実施形態ではワーク認識用の第1の位置姿勢での画像撮像と、干渉判定用の第2の位置姿勢での画像撮像を同一の撮像装置40を用いて撮像したが、それぞれ別の撮像装置で撮像してもかまわない。例えば、第1の位置姿勢にパレット全体を観測可能な撮像装置を固定しておき、この撮像装置を用いてワーク認識のみ行ってもよい。そして、干渉判定用には、本実施形態で述べたような方法で第2の位置姿勢を決定してロボットアームに取り付けた撮像装置を移動して撮像を行う。これにより、干渉判定に適した画像を別途撮像して、干渉判定をより正確に実施することが可能である。
以上、説明したように、本実施形態では、バラ積みのワークから把持対象を認識後、干渉判定に適した画像を撮像できる撮像装置の位置姿勢を新たに決定して画像撮像を行うことで、ロボットハンドと周囲にある物体との干渉有無を精度よく判定することができる。
(第2実施形態)
第1実施形態では、ステップS1400において、把持動作におけるロボットハンド30のアプローチ方向と、撮像装置40の光軸42とが一致する姿勢を第2の位置姿勢として決定した。これに対して、本実施形態では、パレット20の中心の上方から着目領域を観測するような姿勢を第2の位置姿勢として用いる。本実施形態は、パレット内にワークが少ない状況で、パレット側面付近での干渉有無を判定したい場合に特に有効である。
図7は、第2実施形態における撮像装置40の位置姿勢を説明する図である。図7(A)は、撮像装置40の第1の位置姿勢を示す図であり、図7(B)は、撮像装置40の第2の位置姿勢を示す図である。まず、ステップS1000において、撮像装置40は、図7(A)に示すような第1の位置姿勢で画像の撮像を行い、ステップS1100で把持対象ワーク12を認識する。ここで、図7(A)に示すようにパレット内のワークが少ない状況で、第1実施形態と同様の方法で撮像位置姿勢を決定すると、パレット側面部に隠蔽されて、干渉ワーク13の距離計測が行えない可能性がある。
そこで、ステップS1400において第2の位置姿勢を決定する際、図7(B)に示すように、パレット20の中心上方から着目領域71を観測するように第2の位置姿勢を決定する。これにより、パレット20によって干渉ワーク13が隠蔽される恐れを回避する。具体的には、撮像装置40の座標系の原点がパレット中心軸21を通り、かつ撮像装置40の計測領域41中心に、着目領域71の中心が位置するように第2の位置姿勢を決定する。
パレット中心軸21上における撮像装置40の高さは、予めパレット20内を計測しやすい高さに設定しておく。あるいは、第1実施形態と同様に、着目領域71が、撮像装置40において距離計測可能な奥行き範囲の中央に位置するように、撮像装置40の高さを適宜決定してもよい。また、光軸回りの姿勢に関しては、撮像画像の短手/長手方向と、撮像画像面上における着目領域を投影した時の長手/短手方向とが一致するような姿勢にするのがよい。これにより、パレット20による隠蔽なく、把持対象ワーク12周辺のバラ積み形状を観測できるため、精度の高い干渉判定が行える。また、第2の位置姿勢を、パレット20内のバラ積みワークの量や高さなどに応じて、第1実施形態および本実施形態の決定方法で切り替えるようにしてもよい。
以上説明したように、本実施形態によると、パレット20の中心上方から着目領域71を観測するように第2の位置姿勢を決定するため、第2の位置姿勢からの撮像でパレット20によりワーク10が隠蔽されることなく精度の高い干渉判定を行うことができる。
(第3実施形態)
第1実施形態では、干渉判定部205は、撮像装置40で取得した距離画像から得られる三次元点群を用いて把持対象ワーク周辺の三次元形状を再現して干渉判定を実施した。これに対して、本実施形態では、距離画像を用いないで撮像画像に基づいて干渉判定を行う。例えば、ステップS1000およびステップS1500で濃淡画像のみを取得し、取得した各濃淡画像から把持対象ワーク以外の周辺ワークも検出する。そして、検出した各ワーク10と、把持対象ワーク12を把持するハンドモデル70との重なりを検出することで、干渉判定を実施する。具体的には、検出したワーク10それぞれの位置姿勢にワーク10の三次元形状を表すワークモデルを配置し、ワークモデルの占有領域と把持対象ワークを把持するハンドモデル70の占有領域(例えば、着目領域71)との空間的な重なりを検出する。重なりが検出された場合には干渉あり、検出されなかった場合には干渉なしと判定する。
本実施形態では、干渉判定に距離画像は不要であり、撮像画像は把持対象ワークおよびその周辺ワークの認識が行えれば濃淡画像のみを取得すればよい。距離画像が不要となれば、距離画像を撮像する際に必要となるスリットを投影する投影部が不要となり、装置を簡易化できる。
(第4実施形態)
第1実施形態では、ステップS1300の見切り判定において、ハンドモデル70の占有領域の全てが計測領域41の空間内に収まっているか否か、三次元情報を用いて判定していた。本実施形態においては、より高速な演算が可能である二次元情報を用いて見切り判定を行う。本実施形態の基本的な処理フローは第1実施形態と同様であるため、ここでは、処理の異なるステップS1200、ステップS1300についてのみ説明する。
(ステップS1200)
特定部203は、把持対象ワーク12を把持する際に干渉が懸念される領域を着目領域71として特定する。本実施形態では、ハンドモデル70の占有領域を、撮像画像上に投影することで着目領域71を特定する。本実施形態における着目領域71の特定について、図8を用いて説明する。図8は、撮像画像および着目領域の特定方法を示す図である。
図8(A)は、ステップS1000で取得した撮像画像43である。ステップS1100で、バラ積みされたワーク10の中から把持対象として把持対象ワーク12が認識されている。本実施形態では、把持対象ワーク12に対して把持を行う位置にハンドモデル70を配置し、図8(B)に示すように、配置したハンドモデル70を撮像画像43に投影する。図8(B)は、ハンドモデル70を撮像画像43に投影した図である。そして、特定部203は、ハンドモデル70が投影された画像領域を着目領域71として設定する。
(ステップS1300)
特定部203は、撮像画像の計測領域に対する、着目領域の見切れの有無を判定する。本実施形態では、着目領域71が撮像画像43の画像範囲内に収まっていれば見切れがないと判定する。一方、着目領域71が撮像画像43の画像範囲内に収まっていなければ、見切れがあると判定する。図8(B)の例では、撮像画像43の範囲外にはみ出る着目領域71が存在するため、見切れありと判定される。一方、例えば、図8(C)の状態であれば、着目領域71が撮像画像43に収まっているため、見切れはないと判定する。
以上説明したように、本実施形態では画像にハンドモデルを投影することで、二次元情報を用いて見切れの有無を判定するため、高速に処理が可能である。
(第5実施形態)
第1実施形態では、位置姿勢を任意に制御可能な垂直多関節ロボットであるロボットアーム31の先端のロボットハンド30に撮像装置40を取り付けて、バラ積みピッキングの干渉判定を行う方法について述べた。本実施形態では、XYZ方向の位置のみ制御可能な3軸スライダーに撮像装置40を取り付けてバラ積みピッキングの干渉判定を行う方法について述べる。3軸スライダーに取り付けられた撮像装置40は、スライダーにより3自由度の並進移動が可能である。ここでは、スライダーの制御可能な3方向とパレットの縦横高さ方向とが一致し、かつ、スライダーの制御可能な3方向と、撮像装置座標系の各軸の方向が一致するように撮像装置40を取り付けるものとするが、ように設置するものとする。しかし、これに限られるものではなく、スライダーの設置方法および撮像装置40の取り付け方は任意の方法でよい。
本実施形態における撮像装置40は、3軸スライダーに取り付けられているため、移動できる位置および取りうる姿勢が限られている。そこで、本実施形態における、ステップS1400での第2の位置姿勢の設定について説明する。
(ステップS1400)
制御部204は、見切れた着目領域を含むような画像を撮像可能な新たな位置姿勢として、第2の位置姿勢を決定する。本実施形態では、撮像装置40の姿勢は変更できないため、撮像位置のみ決定する。具体的には、図8(C)に示すように、斜線部で示す着目領域71の重心位置が、撮像画像中心となるように撮像位置を決定する。なお、着目領域71の重心位置の代わりに着目領域71の外接矩形の中心を用いるなど、着目領域71を画像中心に捉えられる方法であれば他のいかなる方法で決定してもよい。また、本実施形態では着目領域71全体の重心位置を基準として撮像位置を決定したが、着目領域71のうち見切れた領域の重心位置を基準として撮像位置を決定してもよい。
撮像装置40の光軸方向の位置については、第1実施形態と同様に、例えば、ハンドモデル70が撮像装置40における距離計測可能な奥行き範囲の中央に位置するように設定する。あるいは、距離計測可能な奥行き範囲の最遠面と、ハンドモデル70のZ軸方向最遠面とが一致するようにしてもよい。本実施形態によると、例えば、図5(A)で示される第1の位置姿勢で撮像した後、ステップS1400で、図9で示される第2の位置姿勢を設定することができる。図9は、第5実施形態における撮像装置40の位置姿勢を説明する図である。
ステップS1500において、ステップS1400で設定した第2の位置姿勢に撮像装置40を移動して画像を撮像することで、図8(D)に示すような撮像画像が得られる。これにより、第1の位置姿勢における撮像では見きれていた干渉ワーク13が観測され、ハンドモデル70との干渉有無を高い精度で判定できる。
以上、3軸スライダーに撮像装置40を取り付ける例を説明したが、例えば、1軸あるいは2軸に並進移動可能なスライダーを用いてもよいし、回転制御可能な装置を用いてもよい。また、垂直多関節ロボットにおいて、撮像装置40の移動が3軸の並進移動のみに限られている場合にも、本実施形態は適用可能である。
以上説明したように、本実施形態によれば、XYZ方向の位置のみ制御可能な3軸スライダーに撮像装置40が取り付けられている場合でも、バラ積みピッキングの干渉判定を精度良く行うことができる。
(物品の製造方法に係る実施形態)
以上に説明した実施形態に係る情報処理装置は、物品製造方法に使用しうる。当該物品製造方法は、当該情報処理装置を用いて物体(即ち、ワーク)の計測を行う工程と、当該工程で計測を行われた物体の処理を行う工程と、を含みうる。当該処理は、例えば、加工、切断、搬送、組立(組付)、検査、および選別のうちの少なくともいずれか一つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能・品質・生産性・生産コストのうちの少なくとも1つにおいて有利である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
1 情報処理装置
201 画像取得部
203 特定部
204 制御部
205 干渉判定部

Claims (11)

  1. 撮像された物体の第1画像に基づいて、複数の物体の中から把持対象の物体を決定する決定部と、
    前記把持対象の物体を把持装置が把持する際に前記把持対象の物体の周囲にある物体と前記把持装置が干渉するか否かを判定するための着目領域を特定する特定部と、
    前記着目領域に基づいて撮像装置による撮像範囲を変更する変更部と、
    変更後の撮像範囲で撮像された物体の第2画像に基づいて、前記把持装置が前記把持対象の物体を把持する際に前記把持対象の物体の周囲にある物体と前記把持装置が干渉するか否かの判定を行う判定部と、を有することを特徴とする情報処理装置。
  2. 前記変更部は、前記着目領域のすべてが前記撮像範囲に含まれるように前記撮像範囲を変更することを特徴とする請求項1に記載の情報処理装置。
  3. 前記特定部は、前記把持対象の物体を把持する際に前記把持装置が占有する領域、または、前記把持対象の物体を把持する際の動作軌跡において前記把持装置が占有する領域を、前記着目領域として設定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記把持装置の三次元形状モデルと、前記把持対象の物体を把持する際の前記把持対象の物体と前記把持装置の相対位置および相対姿勢を記憶する記憶部をさらに有し、
    前記特定部は、前記決定部が決定した前記把持対象の物体に対して、前記相対位置および相対姿勢に基づいて前記把持装置の三次元形状モデルを配置して、前記着目領域を特定することを特徴とする請求項1乃至3のうちいずれか1項に記載の情報処理装置。
  5. 前記物体に対する前記物体を把持する際の前記把持装置の位置および姿勢を記憶する記憶部をさらに有し、
    前記特定部は、前記決定部が決定した前記把持対象の物体に対して、前記記憶部が記憶した前記把持装置の位置および姿勢に基づいて、前記着目領域を特定することを特徴とする請求項1乃至3のうちいずれか1項に記載の情報処理装置。
  6. 前記特定部は、前記第1画像に、前記把持対象の物体を把持する際の前記把持装置が占有する領域を投影し、前記着目領域を特定することを特徴とする請求項1乃至3のうちいずれか1項に記載の情報処理装置。
  7. 前記撮像装置の位置または姿勢を変更することによって、前記撮像範囲を変更することを特徴とする請求項1又は2に記載の情報処理装置。
  8. 物体の位置および姿勢を計測する計測装置であって、
    物体を撮像する撮像装置と、請求項1乃至7のいずれか1項に記載の情報処理装置とを備え、
    前記情報処理装置は、前記撮像装置が撮像した画像に基づいて、前記把持対象の物体の位置および姿勢を計測する計測部を有することを特徴とする計測装置。
  9. 請求項8に記載の計測装置と、
    前記物体を把持して移動させる把持装置と、を備え、
    前記計測装置は、前記判定部により前記干渉がないと判定された場合に、前記把持装置に前記把持対象の物体の位置および姿勢を出力し、
    前記把持装置は、前記出力された前記把持対象の物体の位置および姿勢に基づいて、前記把持対象の物体を把持する、ことを特徴とするシステム。
  10. 物体を把持する際の干渉を判定する干渉判定方法であって、
    撮像された物体の第1画像に基づいて、把持対象の物体を決定する工程と、
    把持装置が前記把持対象の物体を把持する際に前記把持対象の物体と前記把持装置が干渉するか否かを判定するための着目領域を特定する工程と、
    前記着目領域に基づいて撮像装置による撮像範囲を変更する工程と、
    変更後の撮像範囲で撮像された物体の第2画像に基づいて、前記把持装置が前記把持対象の物体を把持する際に前記把持対象の物体の周辺にある物体と前記把持装置が干渉するか否かの判定を行う工程と、
    を有することを特徴とする干渉判定方法。
  11. 請求項1乃至7のうちいずれか1項に記載の情報処理装置を用いて、前記物体を把持する際の干渉を判定する工程と、前記把持対象の物体の計測を行う工程と、該計測の結果に基づいて前記把持対象の物体を処理する工程と、を含むことを特徴とする物品の製造方法。
JP2017077728A 2017-04-10 2017-04-10 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 Pending JP2018176334A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017077728A JP2018176334A (ja) 2017-04-10 2017-04-10 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
US15/945,810 US10894324B2 (en) 2017-04-10 2018-04-05 Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
EP18166245.3A EP3392002A1 (en) 2017-04-10 2018-04-09 Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017077728A JP2018176334A (ja) 2017-04-10 2017-04-10 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法

Publications (2)

Publication Number Publication Date
JP2018176334A true JP2018176334A (ja) 2018-11-15
JP2018176334A5 JP2018176334A5 (ja) 2020-05-21

Family

ID=62063261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017077728A Pending JP2018176334A (ja) 2017-04-10 2017-04-10 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法

Country Status (3)

Country Link
US (1) US10894324B2 (ja)
EP (1) EP3392002A1 (ja)
JP (1) JP2018176334A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200059110A (ko) * 2018-11-20 2020-05-28 한양대학교 산학협력단 파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법
CN111890343A (zh) * 2020-07-29 2020-11-06 浙江广合智能科技有限公司 一种机器人载物碰撞检测方法及装置
WO2021149429A1 (ja) * 2020-01-23 2021-07-29 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
US11498218B2 (en) 2019-05-31 2022-11-15 Seiko Epson Corporation Robot
WO2023171687A1 (ja) * 2022-03-08 2023-09-14 京セラ株式会社 ロボット制御装置及びロボット制御方法
JP7454132B2 (ja) 2020-01-23 2024-03-22 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP7480833B2 (ja) 2018-09-14 2024-05-10 株式会社リコー 計測装置、計測システムおよび車両

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365068B2 (en) * 2017-09-05 2022-06-21 Abb Schweiz Ag Robotic systems and methods for operating a robot
JP6687657B2 (ja) * 2018-03-20 2020-04-28 ファナック株式会社 センサ及びロボットを用いた物品取り出し装置、及び物品取り出し方法
US11945115B2 (en) * 2018-06-14 2024-04-02 Yamaha Hatsudoki Kabushiki Kaisha Machine learning device and robot system provided with same
US11312014B2 (en) * 2018-09-10 2022-04-26 Kindred Systems Inc. System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control
JP7156916B2 (ja) * 2018-11-14 2022-10-19 東芝テック株式会社 商品取出装置
US10977480B2 (en) * 2019-03-27 2021-04-13 Mitsubishi Electric Research Laboratories, Inc. Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception
GB201908127D0 (en) * 2019-06-07 2019-07-24 Renishaw Plc Manufacturing method and apparatus
JP7328017B2 (ja) * 2019-06-11 2023-08-16 ファナック株式会社 ロボットシステム及び制御装置
JP7204587B2 (ja) * 2019-06-17 2023-01-16 株式会社東芝 物体ハンドリング制御装置、物体ハンドリング装置、物体ハンドリング方法および物体ハンドリングプログラム
US20220297292A1 (en) * 2019-08-15 2022-09-22 Omron Corporation Information processing device and information processing method
JP2022017739A (ja) * 2020-07-14 2022-01-26 株式会社キーエンス 画像処理装置
CN111879774B (zh) * 2020-08-03 2023-07-21 广州星际悦动股份有限公司 刷头磨圆率测试方法、装置和电子设备
CN112936257A (zh) * 2021-01-22 2021-06-11 熵智科技(深圳)有限公司 一种工件抓取方法、装置、计算机设备及存储介质
US11900652B2 (en) * 2021-03-05 2024-02-13 Mujin, Inc. Method and computing system for generating a safety volume list for object detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263480A (ja) * 1999-03-12 2000-09-26 Meidensha Corp ビンピッキング装置
US20020169522A1 (en) * 2001-05-09 2002-11-14 Fanuc Ltd. Device for avoiding interference
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3556589B2 (ja) 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
JP4167954B2 (ja) * 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法
EP2470333A2 (en) * 2009-08-27 2012-07-04 ABB Research Ltd. Robotic picking of parts from a parts holding bin
JP5500926B2 (ja) * 2009-09-29 2014-05-21 キヤノン株式会社 物体把持制御方法及び装置
JP5458807B2 (ja) 2009-10-30 2014-04-02 富士電機株式会社 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP5539001B2 (ja) 2010-05-07 2014-07-02 本田技研工業株式会社 制御装置
JP4938115B2 (ja) 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
WO2012140770A1 (ja) * 2011-04-14 2012-10-18 三菱電機株式会社 ロボット制御装置
CN103732363A (zh) * 2011-08-19 2014-04-16 株式会社安川电机 机器人系统、机器人控制装置、机器人手部及机器人控制方法
JP5852364B2 (ja) * 2011-08-26 2016-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013099815A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd ロボットプログラミング装置
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP2016099257A (ja) 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP6088563B2 (ja) * 2015-02-10 2017-03-01 ファナック株式会社 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263480A (ja) * 1999-03-12 2000-09-26 Meidensha Corp ビンピッキング装置
US20020169522A1 (en) * 2001-05-09 2002-11-14 Fanuc Ltd. Device for avoiding interference
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2015009314A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7480833B2 (ja) 2018-09-14 2024-05-10 株式会社リコー 計測装置、計測システムおよび車両
KR20200059110A (ko) * 2018-11-20 2020-05-28 한양대학교 산학협력단 파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법
KR102270958B1 (ko) * 2018-11-20 2021-06-30 한양대학교 산학협력단 파지 로봇 및 목표 물체 파지를 위한 주변 물체 분리 방법
US11498218B2 (en) 2019-05-31 2022-11-15 Seiko Epson Corporation Robot
WO2021149429A1 (ja) * 2020-01-23 2021-07-29 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP7454132B2 (ja) 2020-01-23 2024-03-22 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
CN111890343A (zh) * 2020-07-29 2020-11-06 浙江广合智能科技有限公司 一种机器人载物碰撞检测方法及装置
CN111890343B (zh) * 2020-07-29 2021-10-15 浙江广合智能科技有限公司 一种机器人载物碰撞检测方法及装置
WO2023171687A1 (ja) * 2022-03-08 2023-09-14 京セラ株式会社 ロボット制御装置及びロボット制御方法

Also Published As

Publication number Publication date
US10894324B2 (en) 2021-01-19
EP3392002A1 (en) 2018-10-24
US20180290307A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP2018176334A (ja) 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
JP5788460B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP2018176334A5 (ja)
EP3550470B1 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP5778311B1 (ja) ピッキング装置およびピッキング方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP5685027B2 (ja) 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5558585B2 (ja) ワーク取り出し装置
JP5282717B2 (ja) ロボットシステム
KR100693262B1 (ko) 화상 처리 장치
JP2014205209A (ja) ロボットシステム、及びロボットシステムの制御方法
JP2014161965A (ja) 物品取り出し装置
JPH03228591A (ja) ワーク把持装置、ワーク及びその収納ケース
JP2012101320A (ja) 画像生成装置、画像生成方法、およびプログラム
JP2008168372A (ja) ロボット装置及び形状認識方法
JP5458807B2 (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2022160363A (ja) ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
Luo et al. Robotic conveyor tracking with dynamic object fetching for industrial automation
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
WO2021149429A1 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
WO2024023934A1 (ja) ワーク取出し装置、ワーク取出し方法及び制御装置
WO2022191148A1 (ja) 教示工具または作業者の手を用いて教示点を設定する教示装置
CN116100562B (zh) 多机器人协同上下料的视觉引导方法及系统
WO2022124232A1 (ja) 画像処理システム及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211026