JP2015089588A - 三次元空間に置かれた物品をロボットで取出す装置及び方法 - Google Patents

三次元空間に置かれた物品をロボットで取出す装置及び方法 Download PDF

Info

Publication number
JP2015089588A
JP2015089588A JP2013229573A JP2013229573A JP2015089588A JP 2015089588 A JP2015089588 A JP 2015089588A JP 2013229573 A JP2013229573 A JP 2013229573A JP 2013229573 A JP2013229573 A JP 2013229573A JP 2015089588 A JP2015089588 A JP 2015089588A
Authority
JP
Japan
Prior art keywords
dimensional
article
point
posture
dimensional point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013229573A
Other languages
English (en)
Other versions
JP5897532B2 (ja
Inventor
安藤 俊之
Toshiyuki Ando
俊之 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2013229573A priority Critical patent/JP5897532B2/ja
Priority to DE102014016069.6A priority patent/DE102014016069B4/de
Priority to US14/532,680 priority patent/US9503704B2/en
Priority to CN201410613920.0A priority patent/CN104608150B/zh
Publication of JP2015089588A publication Critical patent/JP2015089588A/ja
Application granted granted Critical
Publication of JP5897532B2 publication Critical patent/JP5897532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40006Placing, palletize, un palletize, paper roll placing, box stacking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】パターンマッチングやユーザの教示作業等によらずに、三次元空間に置かれた物品の位置及び姿勢を認識して物品を取出すことが可能な物品取出装置を提供する。【解決手段】物品取出装置10は、連結集合32を用いて物品20の位置及び姿勢を認識する。この場合、三次元測定機11によって取得された複数の三次元点31の位置情報及びカメラ12によって取得された画像データに基づき、複数の三次元点31の中から互いに近傍にある第1および第2三次元点31を選択し、これら三次元点31の位置情報と画像データとに基づき、三次元点31に対応する画像上の点を含む部分画像領域における画像勾配情報を取得し、三次元点31の位置情報と画像勾配情報とに基づき第1および第2三次元点31が同一物品上にあるか否かを判定し、同一物品上にあると判定されると、第1および第2三次元点31を同一の連結集合に含める。【選択図】図13

Description

本発明は、三次元空間に置かれた物品の位置及び姿勢を認識し、認識した物品を、ロボットを用いて取出す物品取出装置及び物品取出方法に関する。
この種の装置として、従来、三次元空間に置かれた物品をカメラで撮像して得られた二次元画像や三次元測定機で測定して得られた三次元点集合に対し、パターンマッチングを用いて物品の位置を認識するようにした装置が知られている(例えば特許文献1、2参照)。また、三次元空間に置かれた物品をカメラで撮像して得られた画像データを用いて、画像中の物品を抽出するようにした装置も知られている(例えば特許文献3参照)。
特許文献1記載の装置では、予め基準三次元相対姿勢にある物品を撮像して得られた二次元画像から二次元モデルパターンを作成し、二次元モデルパターンに二次元の幾何学的変換を施して複数の変換二次元モデルパターンを作成し、複数の変換二次元モデルパターンを使用して物品の二次元画像に対して二次元パターンマッチングを行なう。
特許文献2記載の装置では、事前にCADモデルなどから物品の三次元モデルパターンを取得する一方、三次元空間における物品の表面を三次元測定機で測定して三次元点集合(距離画像)を取得し、三次元点集合から抽出されたエッジによって囲まれた部分領域に三次元点集合を分割する。そして、初めに部分領域の一つを物品領域として設定し、この物品領域に対する三次元モデルパターンのマッチング処理と、他の部分領域を物品領域に加える更新処理の二つの処理を繰り返すことで、物品の位置及び姿勢を計測する。
特許文献3記載の装置では、カメラの撮像動作により物品を含む領域のカラー画像と距離画像とを取得し、取得した画像を表示部に表示する。この表示画像中の物品の一部をユーザが前景領域として教示すると、カラー画像の色情報と距離画像から得られる距離情報とに基づき、物品以外の領域を背景領域として設定し、画像中の物品を抽出する。
特開2004−295223号公報 特開2011−179909号公報 特開2010−39999号公報
しかしながら、特許文献1、2に記載の装置は、予め物品一品種毎に二次元モデルパターンまたは三次元モデルパターンを作成する必要があり、手間を要する。とくに、物品が多品種の場合には、品種数分のモデルパターンを作成する必要があり、多大な手間が必要となる。
また、特許文献3に記載の装置は、画像中の物品を抽出するためにユーザの教示作業が必要であるため、手間を要する。とくに、物品が多品種の場合には、品種数分の教示作業が必要であり、多大な手間が必要となる。
本発明の一態様である物品取出装置は、物品を保持可能なハンドを有するロボットと、三次元空間に置かれた複数の物品の表面位置を測定し、複数の三次元点の位置情報を取得する三次元測定機と、複数の物品を含む領域を撮像し、画像データを取得するカメラと、三次元測定機によって取得された複数の三次元点の位置情報及びカメラによって取得された画像データに基づき、複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求める連結集合演算部と、連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定する物品特定部と、物品特定部により特定された物品を取出し可能なハンドの位置及び姿勢であるハンド位置姿勢を求めるハンド位置姿勢演算部と、ハンド位置姿勢演算部により求められたハンド位置姿勢へハンドを移動して物品を取出すようにロボットを制御するロボット制御部と、を備える。連結集合演算部は、三次元測定機によって取得された複数の三次元点の中から、互いに近傍にある第1三次元点と第2三次元点とを選択する三次元点選択部と、カメラで取得された画像データに基づき、第1三次元点及び第2三次元点にそれぞれ対応する画像上の点を含む部分画像領域における、物品の表面の勾配状態を表す画像勾配情報を取得する勾配情報取得部と、第1三次元点の位置情報、第2三次元点の位置情報及び勾配情報取得部により取得された画像勾配情報に基づき、第1三次元点と第2三次元点とが同一物品上にあるか否かを判定する判定部とを有し、判定部により第1三次元点と第2三次元点とが同一物品上にあると判定されると、第1三次元点と第2三次元点とを同一の連結集合に含める。
また、本発明の別の態様は、物品を保持可能なハンドを有するロボットを用いて、三次元空間に置かれた物品を取出す物品取出方法であって、三次元空間に置かれた複数の物品の表面位置を三次元測定機で測定して複数の三次元点の位置情報を取得し、複数の物品を含む領域をカメラで撮像して画像データを取得し、三次元測定機によって取得された三次元点の位置情報及びカメラで取得された画像データに基づき、複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求め、連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定し、位置及び姿勢が特定された物品を取出し可能なハンドの位置及び姿勢であるハンド位置姿勢を求め、ハンド位置姿勢へハンドを移動して物品を取出すようにロボットを制御する。連結集合を求めるときには、三次元測定機によって取得された複数の三次元点の中から、互いに近傍にある第1三次元点と第2三次元点とを選択し、カメラで取得された画像データに基づき、第1三次元点及び第2三次元点にそれぞれ対応する画像上の点を含む部分画像領域における、物品の表面の勾配状態を表す画像勾配情報を取得し、第1三次元点の位置情報、第2三次元点の位置情報及び画像勾配情報に基づき、第1三次元点と第2三次元点とが同一物品上にあるか否かを判定し、第1三次元点と第2三次元点とが同一物品上にあると判定されると、第1三次元点と第2三次元点とを同一の連結集合に含める。
本発明によれば、三次元空間に置かれた物品の位置及び姿勢を認識する際に、カメラによって取得された画像データに基づき画像勾配情報を取得し、三次元測定機で測定された三次元点の三次元位置情報及び画像勾配情報を用いて複数の三次元点の連結集合を求め、連結集合を用いて物品の位置及び姿勢を特定する。したがって、物品のモデルパターンを作成することなく、かつ、ユーザの教示作業を要することなく、物品の位置及び姿勢を容易に認識することができる。
本発明の一実施形態に係る物品取出装置の概略構成を示す図。 図1のロボット制御装置で実行される処理の一例を示すフローチャート。 図1の三次元測定機で取得した三次元点集合の一例を示す図。 図1のカメラで撮像された画像の一例を示す図。 図3の三次元点集合から求めた連結集合の一例を示す図。 連結集合を説明する概念図。 図6の各連結点集合に属する三次元点の位置に基づく代表位置姿勢の一例を示す図。 図7の代表位置姿勢に対応するハンド位置姿勢の一例を示す図。 図8のハンド位置姿勢の番号付けの一例を示す図。 本発明の実施形態に係る物品取出装置の動作の一例を示す図。 図10に続く動作の一例を示す図。 図2の連結集合を求める処理の詳細を示すフローチャート。 図12の近傍判定処理の詳細を示すフローチャート。 三次元点の一例を示す図。 図14の三次元点に対応する画像上の二次元点の一例を示す図。 図14の三次元点に対応する画像上の二次元点の一例を示す図。 図1のロボット制御装置の内部構成を示すブロック図。
以下、図1〜図17を参照して本発明の実施形態に係る物品取出装置について説明する。図1は、本発明の一実施形態に係る物品取出装置10の概略構成を示す図である。物品取出装置10は、三次元測定機11と、カメラ12と、ロボット13と、三次元測定機11とロボット13とに接続してロボット13を制御するロボット制御装置14とを有する。ロボット13は、アーム13aの先端部に取り付けられたハンド15を有する。ロボット12の側方にはパレット16が配置されている。なお、図1には、XYZの直交3軸座標系を併せて示している。Z方向は鉛直方向、X方向及びY方向は水平方向である。
パレット16上には、複数の物品20が配置されている。本実施形態の物品取出装置10は、この複数の物品20が配置された状態から取出すべき物品20の位置及び姿勢を認識し、認識された物品20をハンド15で取出して保持し、ロボット13の動作により所定位置へ搬送する。複数の物品20は、図1では互いに同一形状として示しているが、異なる形状の複数の品種を含むものでもよい。なお、以下では、ハンド15で保持された物品20を、パレット16上の他の物品と区別するために保持物品21(図11参照)と呼ぶことがある。
三次元測定機11は、パレット16の中央部上方に配置され、パレット16上に置かれた物品20のうち、露出した物品20の表面を測定して、複数の三次元点の位置情報(三次元情報)を取得する。三次元測定機11の測定範囲は、パレット16を含む必要があるが、測定範囲が大き過ぎると測定分解能の低下を招く。したがって、測定範囲は、パレット16の占有範囲と同等、例えばパレット16の占有範囲に一致させることが好ましい。なお、図1では、三次元測定機11が専用の架台17に固定されているが、ロボット13の先端部に三次元測定機11を取り付けてもよい。三次元測定機11とロボット制御装置14とは通信ケーブル等の通信部によって互いに接続されており、互いに通信できるようになっている。
三次元測定機11としては、種々の非接触方式のものを利用することができる。例えば、カメラ2台のステレオ方式、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等の装置を用いてパターン光を物品に投影する方式、光が投光器から出射されてから物品表面で反射し受光器に入射するまでの飛行時間を利用する方式などが挙げられる。
三次元測定機11は、取得した三次元情報を距離画像または三次元マップといった形式で表現する。距離画像とは、画像形式で三次元情報を表現したものであり、画像の各画素の明るさや色により、その画像上の位置の高さまたは三次元測定機11からの距離を表す。一方、三次元マップとは、測定された三次元座標値(x,y,z)の集合として三次元情報を表現したものである。本実施形態では、距離画像における各画素や三次元マップにおける三次元座標値を有する点を、三次元点と称し、複数の三次元点からなる集合を、三次元点集合と称する。三次元点集合は、三次元測定機11で測定した三次元点全体の集合であり、三次元測定機11により取得できる。
カメラ12は、CCD等の撮像素子を有し、パレット16の中央部上方に配置され、パレット16上に置かれた物品20を撮像する。カメラ12の撮影領域は、パレット16を含む必要があるが、撮影領域が大き過ぎると撮像分解能の低下を招く。したがって、撮影領域は、パレット16の占有範囲と同等、例えばパレット16の占有範囲に一致させることが好ましい。なお、図1では、カメラ12が専用の架台17に固定されているが、ロボット13の先端部にカメラ12を取り付けてもよい。カメラ12とロボット制御装置14とは通信ケーブル等の通信部によって互いに接続されており、互いに通信できるようになっている。
カメラ12は、予めキャリブレーションされており、キャリブレーションデータを用いることにより、三次元測定機11によって測定された三次元点とカメラ12によって撮像された画像上の点(二次元点)との対応関係を求めることができる。すなわち、三次元点がカメラ画像のどの点に当たるのかを求めることができ、これにより特定の三次元点に対応した画像データを得ることができる。
ハンド15は、物品20を取出し、かつ、保持することができるが、それが可能なハンドの形態としては、例えば吸引ノズル、吸着用磁石、吸着パッドまたはチャックなどが挙げられる。ハンド15は、ロボット13の動作により、その位置姿勢が制御される。
図2は、ロボット制御装置14で実行される処理の一例、とくに物品取出しに係る処理の一例を示すフローチャートである。以下、物品取出装置10による動作を、図2のフローチャート及び関連する図面を参照しつつ説明する。
図2の処理は、例えば図示しない操作スイッチの操作により、物品20の取出開始指令が入力されると開始される。まず、三次元空間に配置された複数の物品20の表面を三次元測定機11で測定して三次元点集合30を取得する(ステップS1)。図3は、三次元測定機11で取得した三次元点集合30と、三次元点集合30を構成する三次元点31の一例を示す図である。図3では、三次元点31が黒丸で示されており、三次元点集合30は、黒丸全体を含む点線で囲まれた領域として示されている。
次に、複数の物品20を含む領域をカメラ12で撮像して画像40を取得する(ステップS2)。図4は、カメラ12で撮像された画像40の一例を示す模式図である。図4には、パレット16を表すパレット画像41と物品20を表す物品画像42とが示されている。
次に、三次元点集合30から1以上の連結集合32を求める(ステップS3)。図5は、三次元点集合30から求めた連結集合32の一例を示す図である。図5では、連結集合32は点線で囲まれた領域として示されている。すなわち、図5には、2つの連結集合32が示されている。
ここで言う連結集合32とは、三次元点集合30の部分集合であり、任意の三次元点(第1三次元点)31の近傍にその三次元点31とは異なる他の三次元点(第2三次元点)31が存在する場合、第1三次元点31と第2三次元点31とが連結されてなる集合である。図6は、連結集合32の概念を説明する図である。図6では、隣り合う第1三次元点31と第2三次元点31との間の距離が所定値以内であるときに、第1三次元点31と第2三次元点31とを互いに連結している。
すなわち、図6に示すように、複数の三次元点31(311〜317で表す)が三次元測定機11により測定され、このうち、311と312、312と313、313と314、及び315と316がそれぞれ所定距離内に存在するとき、これらは互いに連結される。この場合、312と313を介して311と314も連結されるため、311〜314は同一の連結集合321を構成する。一方、315と316は、311〜314のいずれにも連結されないため、別の連結集合322を構成する。317は、いずれの三次元点にも連結されないので、連結集合を構成しない。
本実施形態では、単一の物品20に対し単一の連結集合32が対応するように、すなわち、物品20と連結集合32とが1対1で対応するように連結集合32を構築する。これにより、連結集合32によって物品20を特定することができる。この場合、三次元測定機11からの測定データだけでなく、カメラ12からの画像データを用いて連結集合32を求めるが、この連結集合32を求める具体的処理については、後述する(図13)。
次に、同一の連結集合32に属する三次元点31の位置に基づき、各々の連結集合32を代表する代表位置姿勢33を求める(ステップS4)。連結集合32は物品20の露出する表面を特定するものであるので、代表位置姿勢33は、物品20を代表する位置及び姿勢となる。図7は、連結集合32に属する三次元点31の位置に基づいて計算した代表位置姿勢33の一例を表す示す図である。代表位置姿勢33は、直角に交差する一対の矢印33a,33bで示されているが、これは代表位置姿勢33が直交座標系で表されるためである。なお、図7では、代表位置姿勢33が2つの矢印33a,33bで示されているが、代表位置姿勢33は二次元空間におけるものではなく、三次元空間におけるものである。
代表位置姿勢33の求め方には、幾通りかの方法がある。まず、1つ目の例として、連結集合32に属する三次元点31の重心位置と所定の姿勢(例えば矢印33aを鉛直方向上方に向けた姿勢)とを組合せて代表位置姿勢33とする方法がある。重心位置の計算には、連結集合32に属する全ての三次元点31を利用しても良いし、別途、外れ値対策等の処理を導入して、選別した三次元点31を利用しても良い。外れ値対策としては、例えば、始めに連結集合32に属する全ての三次元点31を重心計算に利用して重心位置を求め、重心計算に利用した三次元点31で重心位置との距離が所定値以上である三次元点31が存在する場合、重心計算に利用した三次元点31から重心位置との距離が大きい順に所定割合の三次元点31を除去する。そして、残った三次元点31を重心計算に利用して重心位置を再計算する。この処理を、重心計算に利用した全ての三次元点31が重心位置から所定距離内に収まるまで繰り返せば良い。
2つ目の例として、連結集合32に属する三次元点31に外接する長方形(外接長方形)を求め、外接長方形の中心の位置姿勢を代表位置姿勢33とする方法がある。外接長方形を求めるためには、まず、連結集合32に含まれる全ての三次元点31を用いて三次元空間内において平面を求め、連結集合32に含まれる全ての三次元点31をこの平面上に投影する。次いで、投影された全ての三次元点31を内部に含む凸多角形を計算し、計算された凸多角形に外接する長方形を求める。平面は、連結集合32に属する全ての三次元点31を用いて最小二乗法で求めてもよいし、別途、何らかの外れ値対策の処理を導入して求めてもよい。外れ値対策の方法としては、M推定法、RANSAC、LMedS、ハフ変換など、幾通りかの方法がある。凸多角形を計算する方法としては、Andrewのアルゴリズムなどの方法がある。凸多角形に外接する長方形を計算する方法としては、Rotating calipers法などがある。図7は、1つ目の例によって代表位置姿勢33を求めた場合を示している。
次に、各々の代表位置姿勢33に対応するハンド位置姿勢34を求める(ステップS5)。図8は、代表位置姿勢33に対応するハンド位置姿勢34の一例を表す示す図である。ハンド位置姿勢34は、代表位置姿勢33と同様に、直角に交差する一対の矢印34a,34bで示されている。
ハンド位置姿勢34の位置(矢印34a,34bの交点)及び姿勢(矢印34a,34bの方向)の求め方には、それぞれ幾通りずつかの方法がある。位置に関しては、例えば、代表位置姿勢33の位置をそのままハンド位置姿勢34の位置とする方法がある。別の例として、代表位置姿勢33の位置よりも所定の座標軸35(例えばZ軸)の向きに沿って所定長さだけ移動した位置を、ハンド位置姿勢34の位置とする方法もある。図8は、後者の例で位置を示している。姿勢に関しては、例えば、代表位置姿勢33の姿勢をそのままハンド位置姿勢34の姿勢とする方法がある。別の例として、代表位置姿勢33の所定の座標軸35周りに所定角度回転した姿勢をハンド位置姿勢34の姿勢とする方法もある。図8は、前者の例で姿勢を示している。
次に、各々のハンド位置姿勢34にP1,P2,・・・,Pnとナンバリングする(ステップS6)。但し、nはハンド位置姿勢34の個数である。図9は、ナンバリングされたハンド位置姿勢34を示す図であり、所定の座標軸35に対する座標値の降順、つまり、高い位置にあるものから順番にナンバリングされている。図9に示すように、座標軸35に対する座標値が同じ値の場合は、座標軸35と直交する所定座標軸36(例えばX軸)に対する座標値の降順にナンバリングする。なお、図9では、n=2である。
次に、自然数値を取る変数kに対して初期値を与える。すなわち、k←1とする(ステップS7)。変数kはハンド位置姿勢34の番号の指定に用いる。
次に、図10に示すように、ロボット駆動用のアクチュエータ(電動モータ)に制御信号を出力し、ロボット13の動作によりハンド15をハンド位置姿勢Pkへ移動させる(ステップS8)。変数の初期値k=1に対しては、Pk=P1である。
次に、ハンド駆動用のアクチュエータに物品20を保持するための制御信号を出力し、図11に示すようにハンド15の下端面で保持物品21を保持する(ステップS9)。例えば、ハンド15が吸引ノズルを有する場合、真空ポンプを作動し、吸引力で保持物品21を吸引、保持する。ハンド15が吸着用磁石を有する場合、電磁コイルに電流を流して磁石を作動し、磁力で保持物品21を吸着、保持する。ハンド15がチャックである場合、チャックを開くあるいは閉じることで、保持物品21を保持する。
次に、ハンド15による保持物品21の保持が成功したか否かを判定する(ステップS10)。この判定は、ハンド15が吸引ノズルを有する場合、吸引時のエアの流量や圧力の変化に応じて保持が成功したか否かを判定すればよい。ハンド15が吸着用磁石を有する場合、近接センサで保持物品21が存在するか否かを判定し、その存否に応じて保持が成功したか否かを判定すればよい。ハンド15がチャックを有する場合、開閉確認センサでチャックの開閉状態を確認し、保持が成功したか否かを判定すればよい。保持が成功したと判定されると、ステップS11へ進む。保持が成功していないと判定されると、ステップS12へ進む。
ステップS12では、変数kがnより小さいか否かを判定する。この判定は、n個(図11では2個)のハンド位置姿勢34の中にハンド15が未だ到達していないものが存在するか否かの判定である。k<nと判定されると、ハンド位置姿勢Pk+1にハンド15が未だ到達していないので、k←k+1とし(ステップS13)、ステップS8へ戻る。ステップS12でk<nでないと判定されると、n個のハンド位置姿勢34の全てに保持部14aが到達したので、ステップS1に戻る。
ステップS11では、ロボット駆動用アクチュエータに制御信号を出力し、ハンド15を所定位置に移動する。これにより保持物品21がロボット13の動作により所定位置に搬送される。その後、ハンド駆動用アクチュエータに制御信号を出力し、保持物品21をハンド15から取外す。以上で、1サイクルの処理が終了となる。
以上では、ロボット制御装置14での処理により、複数の物品20の表面位置を三次元測定機11で測定して複数の三次元点31からなる三次元点集合30を取得し(ステップS1)、三次元点集合30から互いに近傍にある三次元点31を連結してなる連結集合32を求め(ステップS3)、連結集合32に属する三次元点31の位置情報に基づき、物品20を取出可能なハンド15の位置姿勢(ハンド位置姿勢34)を求め(ステップS4、ステップS5)、さらに求められたハンド位置姿勢34にハンド15を移動してパレット16上の物品20を取出すようにロボット12を制御する(ステップS8〜ステップS11)。
ここで、連結集合32は、物品表面の位置及び姿勢(傾き)を反映するので、連結集合32を用いることで、パターンマッチングやユーザの教示作業等によらず物品20の位置及び姿勢を特定することができる。このため、物品20のモデルパターンを作成する必要がなく、形状の異なる多品種の物品20であっても容易にその位置及び姿勢を認識して、物品20を保持することができる。また、追加された新品種の物品20に対しても、モデルパターンの追加やユーザの教示作業等を要することなく、その位置及び姿勢を容易に認識することができる。
ところで、複数の同一形状の物品20が隣接して配置されている場合、第1三次元点31と第2三次元点31とが互いに異なる物品20上で測定されるおそれがある。このとき、第1三次元点31と第2三次元点31間の距離を算出し、この距離が所定値内にある場合に、第1三次元点31と第2三次元点31とが互いに近傍にあるとして第1三次元点31と第2三次元点31とが同一の連結集合32に属するように構成すると、複数の物品20にまたがって連結集合32が構成されることになる。これを避けるため、本実施形態では、以下のように連結集合32を演算する。
図12、図13は、本実施形態の特徴的構成である連結集合32を求めるための処理(連結集合演算処理)の一例、すなわち図2のステップS3における処理を具体的に示すフローチャートである。
まず、図12のステップS21で、三次元点集合30に属する全ての三次元点31に、初期のラベル番号として、どの連結集合32にも属していないことを表すラベル番号0を割り振る。以下では、自然数であるラベル番号jが割り振られた三次元点31を、31(j)で表す。ラベル番号jは、連結集合32に対応して割り振られる番号であり、0ではない同一のラベル番号jが割り振られていれば、同一の連結集合32に属する。次に、ステップS22で、1番目の連結集合32を求めるため、ラベル番号jを1とする(j←1)。
次に、ステップS23で、三次元点集合30に属する三次元点31であって、ラベル番号が0である任意の三次元点31(0)を選択する。ステップS24では、ラベル番号が0である三次元点31(0)が選択されたか否かを判定し、肯定されるとステップS25に進む。三次元点31(0)が選択されなかった場合は、三次元点集合30に属する全ての三次元点31が何れかの連結集合32に属している。この場合は、ステップS24が否定され、連結集合演算処理が終了し、図2のステップS4に進む。
ステップS25では、ラベル番号がjである三次元点31(j)を格納するためのリストLjを作成する。ステップS26では、ステップS24で選択された三次元点31(0)にラベル番号jを割り振った後に、その三次元点31(j)をリストLjに追加する。ステップS27では、自然数値を取る変数mに対して、初期値1を与える(m←1)。mは、リストLjに含まれる三次元点31(j)を指定する番号である。なお、リストLjには、追加された三次元点31(j)が追加された順番に並んでいるものとする。
ステップS30では、リストLjのm番目の三次元点31(j)の近傍に、同一物品20上に存在するラベル番号0の三次元点31(0)が存在するか否かを判定し、存在すると判定された三次元点31(0)をリストLjに追加する処理(近傍判定処理)を行う。
図13は、ステップS30の近傍判定処理を詳細に示すフローチャートである。ステップS30Aでは、リストLjのm番目の三次元点31(j)を選択する。ステップS30Bでは、ステップS2で取得した画像40を用いて、ステップS30Aで選択した三次元点31(j)に対応する画像40上の二次元点51(j)を算出する。この場合、予め設定したカメラ12のキャリブレーションデータを用いることで、三次元点31(j)に対応する二次元点51(j)を算出することができる。
ステップS30Cでは、ラベル番号が0である三次元点31(0)であって、ステップS30Aで選択した三次元点31(j)の近傍にある三次元点(近傍三次元点310(0))を全て集めた集合である近傍三次元点集合を演算する。近傍三次元点310(0)は、例えば、選択した三次元点31(j)のx座標及びy座標との差が所定値以下であるx座標及びy座標を有する点である。なお、選択した三次元点31(j)のx座標、y座標及びz座標との差が所定値以下であるx座標、y座標及びz座標を有する点を近傍三次元点310(0)としてもよく、ユークリッド距離が所定値内である点を近傍三次元点310(0)としてもよい。近傍三次元点310(0)は、同一物品上に存在すると予想される三次元点31(j)であり、ラベル番号がjの三次元点31(j)の候補となる。
ステップS30Dでは、近傍三次元点集合に属する全ての近傍三次元点310(0)を310(1),310(2),・・・,310(n)とナンバリングする。ステップS30Eでは、自然数値をとる変数iに対して、初期値1を与える。すなわち、i←1とする。ステップS30Fでは、ナンバリングした近傍三次元点310(i)を選択する。ステップS30Gでは、カメラ12のキャリブレーションデータを用いて、近傍三次元点310(i)に対応する画像40上の点である近傍二次元点510(i)を算出する。
ステップS30Hでは、ステップS30Bで算出した画像40上の二次元点51(j)とステップS30Gで算出した画像40上の二次元点510(i)とを含む領域(部分画像領域)の画像勾配情報を取得する。部分画像領域は、例えば二次元点51(j)と二次元点510(i)とを結ぶ線分から所定距離以内にある領域である。画像勾配情報は、例えば、部分画像領域をソーベルフィルタなどでフィルタリングを行い、得られたフィルタリング画像のうち、一定コントラスト(明るさ)以上の画素値の情報である。すなわち、隣接する画素の明るさの急峻な変化を表す物理量を、画像勾配情報として取得する。部分画像領域内における明るさが最小である画素値と明るさが最大である画素値との差を、画像勾配情報として用いることもできる。このような画像の明暗の変化量により、物品20の表面の勾配状態を特定できる。
ステップ30Iでは、ステップS30Hで取得した画像勾配情報に基づき、ステップS30Aで選択した三次元点31(j)とステップS30Fで選択した近傍三次元点310(i)とが互いに同一の物品20上に存在するか否かを判定する。この判定は、例えば、三次元点31(j)と近傍三次元点310(i)との間の距離が所定値Δd以下であり、かつ、部分画像領域内における画像の明暗の変化量が所定値以下であるか否かを判定することにより行われる。三次元点31(j)と近傍三次元点310(i)との距離に関しては、例えば一次元以上三次元以下の所定座標系に関してそれぞれ予め所定距離Δdを定めておき、全ての所定座標系において三次元点31(j)と近傍三次元点310(i)との間の距離が所定値Δd以下であるか否かを判定するようにしてもよい。
ステップS30Iが肯定されるとステップS30Jに進み、否定されるとステップS30JをパスしてステップS30Kに進む。ステップS30Jでは、ステップS30Fで選択された近傍三次元点310(i)にラベル番号jを割り振り、近傍三次元点310(i)を三次元点31(j)としてリストLjの最後に追加する。ステップS30Kでは、変数iに1を追加する(i←i+1)。ステップS30Lでは、全ての近傍三次元点310(1)〜310(n)に対しステップS30Iの判定が行われた否か、すなわち変数iがnより大きいか否かを判定する。ステップS30Lが否定されるとステップS30Fに戻り、上述したのと同様の処理を繰り返す。ステップS30が肯定されると、近傍判定処理(ステップS30)を終了し、図12のステップS31に進む。
ステップS31では、変数mに1を追加する(m←m+1)。ステップS32では、mの値がリストLjに格納されている三次元点31(j)の数(要素数N)より大きいか否かを判定する。mが要素数Nより大きい場合、リストLjに格納されたN個の全ての三次元点31(j)に対する近傍判定処理が終了しており、リストLj内の三次元点31(j)の近傍にある三次元点が既に同一のリストLj内に格納されている。このため、リストLjに三次元点31(j)を追加する処理を終了し、ステップS33に進む。それ以外の場合は、リストLj内の全ての三次元点31(j)に対し近傍判定処理が終了していないため、ステップS30に戻り、リストLjへ三次元点31(j)を追加する処理を繰り返す。
ステップS33では、ラベル番号jに1を追加し(j←j+1)、ステップS23に戻る。以降、ステップS23〜ステップS32と同様の処理を繰り返し、次のラベル番号jに対応する連結集合32を求める。
以上の連結集合演算処理を、図6及び図14〜図16を参照して具体的に説明する。連結集合演算処理の開始時には、図6に示す全ての三次元点311〜317が連結集合32に属しておらず、三次元点311〜317のラベル番号は0である(ステップS21)。この状態から、ラベル番号1の連結集合32を作成するため、例えば三次元点314を選択すると(ステップS23)、その三次元点314にラベル番号1を割り振った後(314(1))、三次元点314をラベル番号1のリストL1の1番目に格納する(ステップS26)。
次いで、リストL1の1番目の三次元点314の近傍であり、三次元点314が測定された物品20と同一物品上にラベル番号0の三次元点31(0)が存在するか否かを判定する(ステップS30)。例えば、図14に示すように、物品20の表面上に三次元点313〜315が測定され、313と314、及び314と315がそれぞれ所定距離Δd以下の同一距離だけ離れていると仮定する。このとき、画像40上の二次元点51として、図15に示すように各三次元点313〜315に対応する二次元点513〜515が算出される(ステップS30G)。このうち、二次元点513,514はそれぞれ同一物品上の三次元点313,314に対応するため、二次元点513,514を含む部分画像領域521中における画像の明暗の変化量は所定値以内である。したがって、三次元点313,314が同一物品上に存在すると判定され(ステップS30I)、三次元点313にラベル番号1を割り振り(313(1))、リストL1の2番目に追加する(ステップS30J)。これにより、三次元点314と三次元点315とが連結され、リストL1の要素数Nは2となる。
一方、二次元点514,515はそれぞれ異なる物品上の三次元点314,315に対応するため、図16に示すように、二次元点514,515を含む部分画像領域522中における画像の明暗の変化量は所定値を超える。したがって、三次元点314,315が同一物品上にないと判定され、三次元点315は三次元点314と同一のリストL1に追加されない。三次元点314の近傍にある全ての近傍三次元点310(0)に対して近傍判定処理が終了すると、mが2(<N)となり(ステップS31)、上述したのと同様にして、リストL1の2番目の三次元点313の近傍であり、三次元点313が測定された物品20と同一物品上に、ラベル番号0の三次元点31(0)が存在するか否かを判定する(ステップS30)。
mが要素数Nよりも大きくなると、ラベル番号1のリストL1の作成を終了し、ラベル番号を2として(ステップS33)、同様の処理を繰り返す。繰り返しの処理では、例えばラベル番号0の三次元点315にラベル番号2を割り振って、三次元点315(2),316(2)をリストL2に追加し、ラベル番号0の三次元点317にラベル番号3を割り振って、三次元点317(3)をリストL3に追加する。これにより、ラベル番号0の三次元点31が不存在となるため、ステップS24が否定され、連結集合演算処理を終了する。
本実施形態によれば以下のような作用効果を奏することができる。
(1)ロボット制御装置14での処理により、三次元測定機11によって取得された複数の三次元点31の中から、互いに近傍にある第1三次元点31と第2三次元点31とを選択し(ステップS30A,ステップS30F)、カメラ12で取得された画像データに基づき、第1三次元点31及び第2三次元点31にそれぞれ対応する画像上の点(二次元点51)を含む部分画像領域における、物品20の表面の勾配状態を表す画像勾配情報を取得し(ステップS30H)、第1三次元点31と第2三次元点31の三次元点情報及び取得された画像勾配情報に基づき、第1三次元点31と第2三次元点31とが同一物品上にあるか否かを判定し(ステップS30I)、さらに第1三次元点31と第2三次元点31とが同一物品上にあると判定されると、これら三次元点31に同一のラベル番号jを割り振り、同一の連結集合32に含めるようにした。
したがって、例えば同一形状の複数の物品20が隣接して配置されている場合でも、複数の物品20にまたがって連結集合32が演算されることがなく、単一の物品20に単一の連結集合32を対応付けることができる。よって、連結集合32により物品20を精度よく認識することができ、物品取出し作業を正確に行うことができる。
(2)ロボット制御装置14での処理により、第1三次元点31と第2三次元点31とにそれぞれ対応する画像上の二次元点51を算出し(ステップS30B,ステップ30G)、これら二次元点51により部分画像領域を特定して、部分画像領域における勾配状態の変化がないと、第1三次元点31と第2三次元点31とが同一物品上にあると判定するようにした(ステップS30I)。したがって、第1三次元点31と第2三次元点31とが同一物品上にあるか否かを良好に判定できる。
(3)この場合、カメラ12のキャリブレーションデータに基づき、各二次元点51を取得するので、三次元点31に対応する画像上の二次元点51を容易に求めることができる。
(4)部分画像領域における画像の明暗の変化量の情報を画像勾配情報として用いるので、物品20の表面の勾配状態を精度よく判断できる。
(5)三次元測定機11によって測定された第1三次元点31と第2三次元点31との間の距離が所定値Δd以下であり、かつ、部分画像領域における画像の明暗の変化量が所定値以下のときに、第1三次元点31と第2三次元点31とが同一物品上にあると判定する。これにより、複数の三次元点31が同一物品上にあるか否かを精度よく判定できる。
(6)ロボット制御装置14での処理により、連結集合32に属する三次元点31の位置に基づき、連結集合32を代表する位置及び姿勢である代表位置姿勢33を求め(ステップS4)、この代表位置姿勢33に対応してハンド位置姿勢34を求める(ステップS5)。これにより、物品20とハンド15との位置関係を、ハンド15の種類等に応じて適宜に設定することができる。
(7)ロボット制御装置14での処理により、連結集合32に属する全ての三次元点31の重心位置とこの重心位置における所定の姿勢とを組合せて代表位置姿勢33を求めるようにすると、物品20を安定してハンド15で保持することができる。
(8)ロボット制御装置14での処理により、連結集合32に属する全ての三次元点31を包含する外接長方形の中心位置と所定の姿勢とを組み合わせて代表位置姿勢33を求めるようにすると、三次元測定機11で計測された物品上の三次元点31に欠損がある場合であっても、安定して物品20の中心を代表位置姿勢33として演算することができ、物品20を安定してハンド15で保持することができる。
なお、連結集合32を求めるときに、三次元測定機11によって取得された複数の三次元点31の中から、互いに近傍にある第1三次元点31と第2三次元点31とを選択し、カメラ12で取得された画像データに基づき、第1三次元点31及び第2三次元点31にそれぞれ対応する画像上の点51を含む部分画像領域における、物品20の表面の勾配状態を表す画像勾配情報を取得し、第1三次元点31と第2三次元点31の三次元位置情報及び取得された画像勾配情報に基づき、第1三次元点31と第2三次元点31とが同一物品上にあるか否かを判定し、第1三次元点31と第2三次元点31とが同一物品上にあると判定されると、第1三次元点31と第2三次元点31とを同一の連結集合に含めるのであれば、物品取出方法の構成はいかなるものでもよい。
図17は、図1のロボット制御装置14の内部構成を示すブロック図である。ロボット制御装置14は、連結集合演算部141と、物品特定部142と、ハンド位置姿勢演算部143と、ロボット制御部144部とを有する。連結集合演算部141は、三次元点選択部141Aと、勾配情報取得部141Bと、判定部141Cとを有する。
なお、上記実施形態では、第1三次元点31から所定距離内にある近傍三次元点310を第2三次元点31として演算したが(ステップS30C)、互いに近傍にある第1三次元点31と第2三次元点31とを選択するのであれば、三次元点選択部141Aの構成はいかなるものでもよい。上記実施形態では、部分画像領域における画像の明暗の変化量の情報を画像勾配情報として取得したが(ステップS30H)、物品20の表面の勾配状態を表すのであれば、画像勾配情報はいかなるものでもよく、勾配情報取得部141Bの構成は上述したものに限らない。上記実施形態では、部分画像領域内における画像の明暗の変化量が所定値以下であるか否かを判定することにより(ステップS30I)、第1三次元点31と第2三次元点31とが同一物品上にあるか否かを判定するようにしたが、第1三次元点31と第2三次元点31の三次元位置情報及び勾配情報取得部141Bにより取得された画像勾配情報に基づき、第1三次元点31と第2三次元点31とが同一物品上にあるか否かを判定するのであれば、判定部141Cの構成は上述したものに限らない。すなわち、三次元測定機11によって取得された三次元点の三次元位置情報及びカメラ12によって取得された画像データに基づき、三次元点測定機11によって取得された複数の三次元点31の中から、互いに近傍にある三次元点31を連結してなる連結集合32を求めるのであれば、連結集合演算部141の構成はいかなるものでもよい。
上記実施形態では、連結集合32に属する三次元点31の位置情報に基づき、連結集合32を代表する代表位置姿勢33を演算するようにしたが(ステップS3)、連結集合32によって表される物品20の位置及び姿勢を特定するのであれば、物品特定部142の構成は上述したものに限らない。ここで、連結集合32を代表する位置及び姿勢は、物品20を代表する位置及び姿勢でもあり、物品20の位置及び姿勢を特定するとは、物品を代表する位置及び姿勢を求めて物品20の配置を特定することを意味する。上記実施形態では、代表位置姿勢33からハンド位置姿勢34を演算するようにしたが(ステップS4)、代表位置姿勢33として特定された物品20を取出し可能なハンド位置姿勢34を求めるのであれば、ハンド位置姿勢演算部143の構成は上述したものに限らない。ハンド位置姿勢34へハンド14を移動して物品20を取出すようにロボット13を制御するのであれば、ロボット制御部144の構成はいかなるものでもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態及び変形例により本発明が限定されるものではない。上記実施形態及び変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
10 物品取出装置
11 三次元測定機
12 カメラ
13 ロボット
14 ロボット制御装置
15 ハンド
16 パレット
20 物品
30 三次元点集合
31 三次元点
32 連結集合
33 代表位置姿勢
34 ハンド位置姿勢
51 二次元点
141 連結集合演算部
141A 三次元点選択部
141B 勾配情報取得部
141C 判定部
142 物品特定部
143 ハンド位置姿勢演算部
144 ロボット制御部

Claims (8)

  1. 物品を保持可能なハンドを有するロボットと、
    三次元空間に置かれた複数の物品の表面位置を測定し、複数の三次元点の位置情報を取得する三次元測定機と、
    前記複数の物品を含む領域を撮像し、画像データを取得するカメラと、
    前記三次元測定機によって取得された複数の三次元点の位置情報及び前記カメラによって取得された画像データに基づき、該複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求める連結集合演算部と、
    前記連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定する物品特定部と、
    前記物品特定部により特定された物品を取出し可能な前記ハンドの位置及び姿勢であるハンド位置姿勢を求めるハンド位置姿勢演算部と、
    前記ハンド位置姿勢演算部により求められたハンド位置姿勢へ前記ハンドを移動して前記物品を取出すように前記ロボットを制御するロボット制御部と、を備え、
    前記連結集合演算部は、
    前記三次元測定機によって取得された複数の三次元点の中から、互いに近傍にある第1三次元点と第2三次元点とを選択する三次元点選択部と、
    前記カメラで取得された画像データに基づき、前記第1三次元点及び前記第2三次元点にそれぞれ対応する画像上の点を含む部分画像領域における、物品の表面の勾配状態を表す画像勾配情報を取得する勾配情報取得部と、
    前記第1三次元点の位置情報、前記第2三次元点の位置情報及び前記勾配情報取得部により取得された前記画像勾配情報に基づき、前記第1三次元点と前記第2三次元点とが同一物品上にあるか否かを判定する判定部とを有し、
    前記判定部により前記第1三次元点と前記第2三次元点とが同一物品上にあると判定されると、前記第1三次元点と前記第2三次元点とを同一の連結集合に含めることを特徴とする物品取出装置。
  2. 請求項1に記載の物品取出装置において、
    前記勾配情報取得部は、前記第1三次元点及び前記第2三次元点にそれぞれ対応する画像中の点であって、前記部分画像領域を特定する第1二次元点及び第2二次元点を取得し、
    前記判定部は、前記第1三次元点と前記第2三次元点との間の距離が所定値以下であり、かつ、前記部分画像領域における画像の明暗の変化量が所定値以下のときに、前記第1三次元点と前記第2三次元点とが同一物品上にあると判定することを特徴とする物品取出装置。
  3. 請求項2に記載の物品取出装置において、
    前記勾配情報取得部は、前記カメラのキャリブレーションデータに基づき、前記第1二次元点及び前記第2二次元点を取得することを特徴とする物品取出装置。
  4. 請求項1〜3のいずれか1項に記載の物品取出装置において、
    前記物品特定部は、前記連結集合に属する三次元点の位置情報に基づき、前記連結集合を代表する位置及び姿勢である代表位置姿勢を求め、
    前記ハンド位置姿勢演算部は、この代表位置姿勢に対応して前記ハンド位置姿勢を求めることを特徴とする物品取出装置。
  5. 請求項4に記載の物品取出装置において、
    前記物品特定部は、前記連結集合に属する全ての三次元点の重心位置と該重心位置における所定の姿勢とを組合せて前記代表位置姿勢を求めることを特徴とする物品取出装置。
  6. 請求項4に記載の物品取出装置において、
    前記物品特定部は、前記連結集合に属する全ての三次元点を包含する外接長方形の中心位置と所定の姿勢とを組み合わせて前記代表位置姿勢を求めることを特徴とする物品取出装置。
  7. 請求項1〜6のいずれか1項に記載の物品取出装置において、
    前記三次元測定機は、前記カメラを有することを特徴とする物品取出装置。
  8. 物品を保持可能なハンドを有するロボットを用いて、三次元空間に置かれた物品を取出す物品取出方法であって、
    前記三次元空間に置かれた複数の物品の表面位置を三次元測定機で測定して複数の三次元点の位置情報を取得し、
    前記複数の物品を含む領域をカメラで撮像して画像データを取得し、
    前記三次元測定機によって取得された複数の三次元点の位置情報及び前記カメラで取得された画像データに基づき、該複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求め、
    前記連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定し、
    前記位置及び姿勢が特定された物品を取出し可能な前記ハンドの位置及び姿勢であるハンド位置姿勢を求め、
    前記ハンド位置姿勢へ前記ハンドを移動して前記物品を取出すように前記ロボットを制御し、
    前記連結集合を求めるときには、
    前記三次元測定機によって取得された複数の三次元点の中から、互いに近傍にある第1三次元点と第2三次元点とを選択し、
    前記カメラで取得された画像データに基づき、前記第1三次元点及び前記第2三次元点にそれぞれ対応する画像上の点を含む部分画像領域における、物品の表面の勾配状態を表す画像勾配情報を取得し、
    前記第1三次元点の位置情報、前記第2三次元点の位置情報及び前記画像勾配情報に基づき、前記第1三次元点と前記第2三次元点とが同一物品上にあるか否かを判定し、
    前記第1三次元点と前記第2三次元点とが同一物品上にあると判定されると、前記第1三次元点と前記第2三次元点とを同一の連結集合に含める、ことを特徴とする物品取出方法。
JP2013229573A 2013-11-05 2013-11-05 三次元空間に置かれた物品をロボットで取出す装置及び方法 Active JP5897532B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013229573A JP5897532B2 (ja) 2013-11-05 2013-11-05 三次元空間に置かれた物品をロボットで取出す装置及び方法
DE102014016069.6A DE102014016069B4 (de) 2013-11-05 2014-10-29 Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
US14/532,680 US9503704B2 (en) 2013-11-05 2014-11-04 Apparatus and method for picking up article disposed in three-dimensional space using robot
CN201410613920.0A CN104608150B (zh) 2013-11-05 2014-11-04 通过机器人取出放置在三维空间中的物品的装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229573A JP5897532B2 (ja) 2013-11-05 2013-11-05 三次元空間に置かれた物品をロボットで取出す装置及び方法

Publications (2)

Publication Number Publication Date
JP2015089588A true JP2015089588A (ja) 2015-05-11
JP5897532B2 JP5897532B2 (ja) 2016-03-30

Family

ID=52829837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229573A Active JP5897532B2 (ja) 2013-11-05 2013-11-05 三次元空間に置かれた物品をロボットで取出す装置及び方法

Country Status (4)

Country Link
US (1) US9503704B2 (ja)
JP (1) JP5897532B2 (ja)
CN (1) CN104608150B (ja)
DE (1) DE102014016069B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018047544A (ja) * 2015-11-13 2018-03-29 株式会社東芝 搬送装置および搬送方法
JP2019189438A (ja) * 2018-04-27 2019-10-31 株式会社ダイフク ピッキング設備

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6338389B2 (ja) * 2014-02-07 2018-06-06 キヤノン株式会社 動力学計算方法及びプログラム、並びにシミュレーション装置
JP6486114B2 (ja) * 2015-01-16 2019-03-20 株式会社東芝 荷役装置
JP6552230B2 (ja) * 2015-03-18 2019-07-31 キヤノン株式会社 計測装置
JP2017003331A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム
JP2017181228A (ja) * 2016-03-30 2017-10-05 キヤノン株式会社 計測装置、計測方法及び物品の製造方法
US9981379B1 (en) * 2016-05-12 2018-05-29 X Development Llc Detachable support member for robot gripper
JP6773588B2 (ja) * 2017-03-10 2020-10-21 株式会社東芝 搬送装置
JP2018203480A (ja) * 2017-06-07 2018-12-27 株式会社東芝 仕分装置および仕分システム
CN108712946B (zh) * 2017-08-23 2021-11-09 深圳蓝胖子机器智能有限公司 货物摆放方法、装置、系统以及电子设备和可读存储介质
CN108202328B (zh) * 2017-12-29 2020-04-17 深圳市越疆科技有限公司 机器人自适应取放物体的方法、装置、机械臂及存储介质
JP7086380B2 (ja) * 2018-02-28 2022-06-20 株式会社エヌテック 物品移載装置及び荷取位置検出装置
CN108313748A (zh) * 2018-04-18 2018-07-24 上海发那科机器人有限公司 一种3d视觉纸箱拆垛系统
CN108133486B (zh) * 2018-05-03 2018-07-20 常州市盈能电气有限公司 巡检机器人移动距离计算方法
JP6725587B2 (ja) * 2018-05-18 2020-07-22 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP6823008B2 (ja) * 2018-05-18 2021-01-27 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
CN109641351B (zh) * 2018-06-08 2021-11-26 深圳蓝胖子机器人有限公司 一种物体特征的识别方法、视觉识别装置及机器人
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
KR102650494B1 (ko) 2018-10-30 2024-03-22 무진 아이엔씨 자동화된 패키지 등록 시스템, 디바이스 및 방법
US11046519B2 (en) 2019-02-25 2021-06-29 Rehrig Pacific Company Delivery system
US10576636B1 (en) * 2019-04-12 2020-03-03 Mujin, Inc. Method and control system for and updating camera calibration for robot control
WO2021077044A1 (en) * 2019-10-16 2021-04-22 Robert A Montano System and method for unique identification of items
CA3115442A1 (en) 2020-04-20 2021-10-20 Rehrig Pacific Company Camera enabled portal
CN113666036A (zh) * 2020-05-14 2021-11-19 泰科电子(上海)有限公司 自动拆垛系统
DE102020132318A1 (de) 2020-12-04 2022-06-09 Azo Holding Gmbh Verfahren und Vorrichtung zum Entnehmen eines nachgiebigen Gebindes aus einer Mehrzahl an Gebinden
CN113080155B (zh) * 2021-05-20 2024-06-14 西南大学 蚕蛹蛹体拾取装置及方法
WO2023023366A1 (en) 2021-08-19 2023-02-23 Rehrig Pacific Company Imaging system with unsupervised learning
MX2022013771A (es) 2021-11-01 2023-05-02 Rehrig Pacific Co Sistemas de entrega.

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04331081A (ja) * 1991-05-01 1992-11-18 Pioneer Electron Corp 物体摘出装置
JP2001352440A (ja) * 2000-06-07 2001-12-21 Olympus Optical Co Ltd 画像処理装置
JP2005331285A (ja) * 2004-05-18 2005-12-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2011100175A (ja) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> 人物行動判定装置及びそのプログラム
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (fr) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3842233B2 (ja) 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP4963492B2 (ja) 2008-08-08 2012-06-27 トヨタ自動車株式会社 画像セグメンテーション方法、プログラムおよび装置
JP5393318B2 (ja) * 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5480667B2 (ja) 2010-02-26 2014-04-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP2011179999A (ja) 2010-03-02 2011-09-15 Chugoku Electric Power Co Inc:The 電線事故点報知システム、電線事故点報知方法、およびコンピュータプログラム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04331081A (ja) * 1991-05-01 1992-11-18 Pioneer Electron Corp 物体摘出装置
JP2001352440A (ja) * 2000-06-07 2001-12-21 Olympus Optical Co Ltd 画像処理装置
JP2005331285A (ja) * 2004-05-18 2005-12-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2011100175A (ja) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> 人物行動判定装置及びそのプログラム
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018047544A (ja) * 2015-11-13 2018-03-29 株式会社東芝 搬送装置および搬送方法
JP2019189438A (ja) * 2018-04-27 2019-10-31 株式会社ダイフク ピッキング設備
WO2019208292A1 (ja) * 2018-04-27 2019-10-31 株式会社ダイフク ピッキング設備(picking facility)

Also Published As

Publication number Publication date
DE102014016069B4 (de) 2022-09-15
JP5897532B2 (ja) 2016-03-30
CN104608150A (zh) 2015-05-13
US20150124056A1 (en) 2015-05-07
CN104608150B (zh) 2016-12-28
US9503704B2 (en) 2016-11-22
DE102014016069A1 (de) 2015-05-07

Similar Documents

Publication Publication Date Title
JP5897532B2 (ja) 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP5670397B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5788461B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5642738B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP2015089590A (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5469216B2 (ja) バラ積みされた物品をロボットで取出す装置
JP6507730B2 (ja) 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
KR101633620B1 (ko) 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법
JP5921271B2 (ja) 物体測定装置、及び物体測定方法
KR101973917B1 (ko) 3차원 계측 장치 및 그 계측 지원 처리 방법
JP2017118396A (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
WO2006019970A2 (en) Method and apparatus for machine-vision
JP6946087B2 (ja) 情報処理装置及びその制御方法、並びに、プログラム
US10778902B2 (en) Sensor control device, object search system, object search method, and program
CN110926330A (zh) 图像处理装置和图像处理方法
CN109715307A (zh) 具有工作区图像捕获设备的弯曲机以及用于表示工作区的方法
EP2795577A1 (en) Three dimension measurement method, three dimension measurement program and robot device
CN116419829A (zh) 测量系统、测量装置、测量方法以及测量程序
KR20230171859A (ko) 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법
KR101979246B1 (ko) 센서 좌표계를 게임 존에 캘리브레이션하는 방법 및 장치
JP2021047516A (ja) 情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラム
CN113554703B (zh) 机器人定位方法、装置、系统和计算机可读存储介质
JP7499967B2 (ja) 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム
CN113297952B (zh) 一种复杂环境下绳驱柔性机器人的测量方法和系统
JP2023085916A (ja) 画像処理装置、ロボット制御システムおよび制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151222

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160302

R150 Certificate of patent or registration of utility model

Ref document number: 5897532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150