JP2015089590A - バラ積みされた物品をロボットで取出す装置及び方法 - Google Patents

バラ積みされた物品をロボットで取出す装置及び方法 Download PDF

Info

Publication number
JP2015089590A
JP2015089590A JP2013229609A JP2013229609A JP2015089590A JP 2015089590 A JP2015089590 A JP 2015089590A JP 2013229609 A JP2013229609 A JP 2013229609A JP 2013229609 A JP2013229609 A JP 2013229609A JP 2015089590 A JP2015089590 A JP 2015089590A
Authority
JP
Japan
Prior art keywords
article
posture
dimensional
hand
connected set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013229609A
Other languages
English (en)
Inventor
岳 山▲崎▼
Takeshi Yamazaki
岳 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2013229609A priority Critical patent/JP2015089590A/ja
Priority to CN201410490676.3A priority patent/CN104608149B/zh
Priority to DE102014016072.6A priority patent/DE102014016072B4/de
Priority to US14/532,697 priority patent/US9721184B2/en
Publication of JP2015089590A publication Critical patent/JP2015089590A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)

Abstract

【課題】パターンマッチングを行うことなく、種々の三次元測定機を用いて、バラ積みされた物品の位置及び姿勢を認識して物品を取出すことが可能な物品取出装置を提供する。
【解決手段】三次元点空間にバラ積みされた複数の物品20の表面位置を三次元測定機11で測定して複数の三次元点31の位置情報を取得し、これら複数の三次元点31の中から、互いに近傍にある三次元点31を連結してなる連結集合32を求め、連結集合32に属する三次元点31の位置情報に基づき、物品20の位置及び姿勢を特定し、物品20を取出し可能なハンド位置姿勢35を求め、ハンド位置姿勢35へハンド14を移動して物品20を取出すようにロボット12を制御する。物品20の姿勢を特定するときには、連結集合32に属する三次元点31の主成分分析によって連結集合32の主成分方向を算出し、この主成分方向に基づいて物品の姿勢を特定する。
【選択図】図2

Description

本発明は、三次元空間にバラ積みされた物品の位置及び姿勢を認識し、認識した物品を、ロボットを用いて取出す物品取出装置及び物品取出方法に関する。
この種の装置として、従来、バラ積みされた物品をカメラで撮像して得られた二次元画像や三次元測定機で測定して得られた三次元点集合に対し、パターンマッチングを用いて物品の位置を認識するようにした装置が知られている(例えば特許文献1、2参照)。また、ステレオ撮影された2枚の画像を用いて回転体の三次元姿勢を算出するようにした装置も知られている(例えば特許文献3参照)。
特許文献1記載の装置では、予め基準三次元相対姿勢にある物品を撮像して得られた二次元画像から二次元モデルパターンを作成し、二次元モデルパターンに二次元の幾何学的変換を施して複数の変換二次元モデルパターンを作成し、複数の変換二次元モデルパターンを使用して物品の二次元画像に対して二次元パターンマッチングを行なう。
特許文献2記載の装置では、事前にCADモデルなどから物品の三次元モデルパターンを取得する一方、三次元空間における物品の表面を三次元測定機で測定して三次元点集合(距離画像)を取得し、三次元点集合から抽出されたエッジによって囲まれた部分領域に三次元点集合を分割する。そして、初めに部分領域の一つを物品領域として設定し、この物品領域に対する三次元モデルパターンのマッチング処理と、他の部分領域を物品領域に加える更新処理の二つの処理を繰り返すことで、物品の位置及び姿勢を計測する。
特許文献3記載の装置では、一対のカメラにより異なる方向から回転体を撮像して一対の画像を取得し、一対の画像ごとに、主成分分析により回転体の主成分軸を算出して回転体の中心軸を設定し、一対の画像を用いて三角測量の原理により中心軸の三次元情報を求め、回転体の姿勢を算出する。
特開2004−295223号公報 特開2011−179909号公報 特開2011−22084号公報
しかしながら、特許文献1、2に記載の装置は、予め物品一品種毎に二次元モデルパターンまたは三次元モデルパターンを作成する必要があり、手間を要する。また、特許文献3記載の装置は、ステレオ撮影された2枚の画像を用いて回転体の姿勢を算出するため、一対のカメラを準備する必要があり、装置構成が大がかりとなる。
本発明の一態様である物品取出装置は、物品を保持可能なハンドを有するロボットと、三次元空間にバラ積みされた複数の物品の表面位置を測定し、複数の三次元点の位置情報を取得する三次元測定機と、三次元点測定機によって取得された複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求める連結集合演算部と、連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定する物品特定部と、物品特定部により特定された物品を取出し可能なハンドの位置及び姿勢であるハンド位置姿勢を求めるハンド位置姿勢演算部と、ハンド位置姿勢演算部により求められたハンド位置姿勢へハンドを移動して物品を取出すようにロボットを制御するロボット制御部と、を備え、物品特定部は、連結集合に属する三次元点の主成分分析によって連結集合の主成分方向を算出し、この主成分方向に基づいて物品の姿勢を特定する。
また、本発明の別の態様は、物品を保持可能なハンドを有するロボットを用いて、三次元空間にバラ積みされた物品を取出す物品取出方法であって、三次元点空間にバラ積みされた複数の物品の表面位置を三次元測定機で測定して複数の三次元点の位置情報を取得し、三次元点測定機によって取得された複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求め、連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定し、位置及び姿勢が特定された物品を取出し可能なハンドの位置及び姿勢であるハンド位置姿勢を求め、求められたハンド位置姿勢へハンドを移動して物品を取出すようにロボットを制御し、物品の姿勢を特定するときには、連結集合に属する三次元点の主成分分析によって連結集合の主成分方向を算出し、この主成分方向に基づいて物品の姿勢を特定することを特徴とする。
本発明によれば、三次元空間にバラ積みされた物品の位置及び姿勢を認識する際に、三次元点測定機によって取得された複数の三次元点の位置情報から連結集合を求め、連結集合を用いて物品の位置及び姿勢を特定する。とくに、物品の姿勢は、連結集合に属する三次元点の主成分分析によって連結集合の主成分方向を算出し、この主成分方向に基づいて特定する。したがって、物品のモデルパターンを作成することなく物品の位置及び姿勢を容易に認識することができる。また、ステレオ撮影によって画像を取得するタイプの三次元測定機以外でも利用可能で、装置のバリエーションを増やすことができる。
本発明の一実施形態に係る物品取出装置の概略構成を示す図。 図1のロボット制御装置で実行される処理の一例を示すフローチャート。 図1の三次元測定機で取得した三次元点集合の一例を示す図。 図3の三次元点集合から求めた連結集合の一例を示す図。 連結集合を説明する概念図。 連結集合を求める処理の詳細を示すフローチャート。 連結集合の慣性主軸の一例を示す図。 コンテナ内にバラ積みされた複数の物品に対応する連結集合の慣性主軸の一例を示す図。 連結点集合を代表する代表位置姿勢の一例を示す図。 図9の代表位置姿勢に対応するハンド位置姿勢の一例を示す図。 図10のハンド位置姿勢の番号付けの一例を示す図。 本発明の実施形態に係る物品取出装置の動作の一例を示す図。 図12に続く動作の一例を示す図。 図13に続く動作の一例を示す図。 図14に続く動作の一例を示す図。 図15に続く動作の一例を示す図。 図16に続く動作の一例を示す図。 図1のロボット制御装置の内部構成を示すブロック図。
以下、図1〜図18を参照して本発明の実施形態に係る物品取出装置について説明する。図1は、本発明の一実施形態に係る物品取出装置10の概略構成を示す図である。物品取出装置10は、三次元測定機11と、ロボット12と、三次元測定機11とロボット12とに接続してロボット12を制御するロボット制御装置13とを有する。ロボット12は、アーム12aの先端部に取り付けられたハンド14を有する。ロボット12の側方にはコンテナ16が配置されている。なお、図1には、XYZの直交3軸座標系を併せて示している。Z方向は鉛直方向、X方向及びY方向は水平方向である。
上方が開放されたコンテナ16内には、複数の物品20がバラ積みされている。本実施形態の物品取出装置10は、この複数の物品20がバラ積みされた状態から取出すべき物品20の位置及び姿勢を認識し、認識された物品20をコンテナ16の中からハンド14で保持して取出す。さらに、取出された物品20をロボット12の動作によりコンテナ16の側方に設置された払い出し装置17まで搬送し、物品20を排出する。複数の物品20は、図1では互いに同一の円柱形状として示しているが、円柱形状以外でもよく、複数の品種を含むものでもよい。なお、以下では、ハンド14で保持された物品20を、コンテナ16内の他の物品と区別するために符号21(図14参照)で表すこともある。
ハンド14は、回転軸14bの先端部に設けられ、二股に形成されたマグネット式の一対の把持部14aを有する。一対の把持部14aは、回転軸14bの中心を通る軸線14cに対し対称形状を呈し、軸線14cを中心に矢印A方向に回転可能である(図12参照)。マグネットは電磁石式で、ロボット制御装置13により自在にオン(作動)及びオフ(非作動)することができる。なお、ハンド14は、物品20の形状やコンテナ16の構成に応じて適宜変更され、ハンド14の構成は図1のものに限らない。
把持部14aは、円柱形状の物品20の外周面に沿うように姿勢(軸線14cの方向及び矢印A方向の回転角度)が制御されつつ、取り出すべき物品20に接近し、電磁石のオンにより物品20を保持する。その後、ロボット12を操作してハンド14を上昇させる。これにより、保持された物品21が他の物品20よりも上方に取出される(図14参照)。このとき、物品21に対するハンド14の相対姿勢は一定であり、ハンド14は、払い出し装置17の上方に移動するまでの間に、払い出し装置17の形状に対応した姿勢(例えば物品21の中心軸がY軸方向を向くような姿勢)に変更させられる。これにより、払い出し装置17に対し一定の姿勢で、ハンド14から物品21を受け渡すことができる。
三次元測定機11は、コンテナ16の中央部上方に配置され、コンテナ16内にバラ積みされた複数の物品20のうち、露出した物品20の表面を測定して、複数の三次元点の位置情報(三次元情報)を取得する。三次元測定機11の測定範囲は、コンテナ16を含む必要があるが、測定範囲が大き過ぎると測定分解能の低下を招く。したがって、測定範囲は、コンテナ16の占有範囲と同等、例えばコンテナ16の占有範囲に一致させることが好ましい。なお、図1では、三次元測定機11が専用の架台15に固定されているが、ロボット12の先端部に三次元測定機11を取り付けてもよい。三次元測定機11とロボット制御装置13とは通信ケーブル等の通信手段によって互いに接続されており、互いに通信できるようになっている。
三次元測定機11としては、種々の非接触方式のものを利用することができる。例えば、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等の装置を用いてパターン光を物品に投影する方式、光が投光器から出射されてから物品表面で反射し受光器に入射するまでの飛行時間を利用する方式などが挙げられる。
三次元測定機11は、取得した三次元情報を距離画像または三次元マップといった形式で表現する。距離画像とは、画像形式で三次元情報を表現したものであり、画像の各画素の明るさや色により、その画像上の位置の高さまたは三次元測定機11からの距離を表す。一方、三次元マップとは、測定された三次元座標値(x,y,z)の集合として三次元情報を表現したものである。本実施形態では、距離画像における各画素や三次元マップにおける三次元座標値を有する点を、三次元点と称し、複数の三次元点からなる集合を、三次元点集合と称する。三次元点集合は、三次元測定機11で測定した三次元点全体の集合であり、三次元測定機11により取得できる。
ハンド14は、物品20を把持して取出し、取出した物品20を保持及び解放することができるが、それが可能なハンドの形態としては、例えば吸引ノズル、吸着用磁石、吸着パッドまたはチャックなどが挙げられる。ハンド14は、ロボット12の動作により、その位置姿勢が制御される。
図2は、ロボット制御装置13で実行される処理、特に物品取出しに係る処理の一例を示すフローチャートである。以下、物品取出装置10による動作を、図2のフローチャート及び関連する図面を参照しつつ説明する。
図2の処理は、例えば図示しない操作スイッチの操作により、物品20の取出開始指令が入力されると開始される。まず、ステップS1で、三次元空間にバラ積みされた複数の物品20の表面を三次元測定機11で測定して三次元点集合30を取得する。図3は、三次元測定機11で取得した三次元点集合30と、三次元点集合30を構成する三次元点31の一例を示す図である。図3では、三次元点31が黒丸で示されており、三次元点集合30は、黒丸全体を含む点線で囲まれた領域として示されている。
次に、ステップS2で、三次元点集合30から1以上の連結集合32を求める。図4は、三次元点集合30から求めた連結集合32の一例を示す図である。図4では、連結集合32は点線で囲まれた領域として示されている。すなわち、図4には、4つの連結集合32が示されている。
ここで言う連結集合32とは、三次元点集合30の部分集合であり、任意の三次元点(第1の三次元点)31の近傍にその三次元点31とは異なる他の三次元点(第2の三次元点)31が存在する場合、第1の三次元点31と第2の三次元点31とが連結されてなる集合である。すなわち、連結集合32とは、互いに近傍に存在する三次元点を連結してなる三次元点の集合である。図5は、連結集合32の概念を説明する図である。図5では、隣り合う第1三次元点31と第2三次元点31との間の距離が所定値以内であるときに、第1三次元点31と第2三次元点31とを互いに連結している。
例えば図5に示すように複数の三次元点31(311〜317で表す)が三次元測定機11により測定され、このうち、311と312、312と313、313と314、及び315と316がそれぞれ所定距離内に存在するとき、これらは互いに連結される。この場合、312と313を介して311と314も連結されるため、311〜314は同一の連結集合321を構成する。一方、315と316は、311〜314のいずれにも連結されないため、別の連結集合322を構成する。317は、311〜316のいずれにも連結されないため、317のみで連結集合323を構成する。
三次元的測定機11によりバラ積みされた物品20の表面が測定される場合、同一物品20上における隣り合う三次元点31(例えば図5の313,314)は互いに近距離に位置する。これに対し、物品20の境界部では隣り合う三次元点(例えば図5の314,315)の位置が大きく変化する。したがって、三次元点313,314は同一の連結集合32に属するのに対し、三次元点314,315は互いに異なる連結集合32に属する。このため、連結集合32を構成する3次元点間の距離や、連結集合32の最小点数、最大点数等を、物品20や三次元測定機11に応じて適宜設定することで、連結集合32を、単一の物品20の表面形状とみなすことができる。すなわち、単一の物品20に対して単一の連結集合32が1対1で対応し、連結集合32によって物品20を特定することができる。
図6は、連結集合32を求めるための処理(連結集合演算処理)、すなわち図2のステップS2の処理をより詳細に示すフローチャートである。まず、ステップS21で、三次元点集合30に属する全ての三次元点31に、初期のラベル番号として、どの連結集合32にも属していないことを表すラベル番号0を割り振る。以下では、自然数であるラベル番号jが割り振られた三次元点31を、31(j)で表す。ラベル番号jは、連結集合32に対応して割り振られる番号であり、0ではない同一のラベル番号jが割り振られていれば、同一の連結集合32に属することになる。次に、ステップS22で、1番目の連結集合32を求めるため、ラベル番号jを1とする(j←1)。
次に、ステップS23で、三次元点集合30に属する三次元点31であって、ラベル番号が0である任意の三次元点31(0)を選択する。ステップS24では、ラベル番号が0である三次元点31(0)が選択されたか否かを判定し、肯定されるとステップS25に進む。三次元点31(0)が選択されなかった場合は、三次元点集合30に属する全ての三次元点31が何れかの連結集合32に属している。この場合は、ステップS24が否定され、連結集合演算処理が終了し、図2のステップS3に進む。
ステップS25では、ラベル番号がjである三次元点31(j)を格納するためのリストLjを準備する。ステップS26では、ステップS24で選択された三次元点31(0)にラベル番号jを割り振った後に、その三次元点31(j)をリストLjに追加する。ステップS27では、自然数値を取る変数kに対して、初期値1を与える(k←1)。kは、リストLjに含まれる三次元点31(j)を指定する番号である。なお、リストLjには、追加された三次元点31(j)が追加された順番に並んでいるものとする。
ステップS28では、リストLjのk番目の三次元点31(j)の近傍に、ラベル番号が0である三次元点31(0)が存在するか否かを判定する。ステップS28が肯定されるとステップS29に進み、否定されるとステップS29をパスしてステップS30に進む。ステップS29では、リストLjのk番目の三次元点31(j)の近傍に存在すると判定された全ての三次元点31(0)にラベル番号jを割り振った後、これら三次元点31(j)をリストLjの最後に追加する。ステップS30では、変数kに1を追加する(k←k+1)。
ステップS31では、kの値がリストLjに格納されている三次元点31(j)の数(要素数N)より大きいか否かを判定する。kが要素数Nより大きい場合、リストLjに格納されたN個の全ての三次元点31(j)に対する近傍判定の処理が終了しており、リストLj内の三次元点31(j)の近傍にある三次元点が既に同一のリストLj内に格納されている。このため、リストLjに三次元点31(j)を追加する処理を終了し、ステップS32に進む。それ以外の場合は、リストLj内の全ての三次元点31(j)に対し近傍判定の処理が終了していないため、ステップS28に戻り、リストLjへ三次元点31(j)を追加する処理を繰り返す。
ステップS32では、ラベル番号jに1を追加し(j←j+1)、ステップS23に戻る。以降、ステップS23〜ステップS32と同様の処理を繰り返し、次のラベル番号jに対応する連結集合32を求める。
以上の連結集合演算処理を、図5を参照して具体的に説明する。連結集合演算処理の開始時には、全ての三次元点311〜317が連結集合32に属しておらず、三次元点311〜317のラベル番号は0である(ステップS21)。この状態から、ラベル番号1の連結集合32を作成するため、例えば三次元点313を選択すると(ステップS23)、その三次元点313にラベル番号1を割り振った後(313(1))、三次元点313をラベル番号1のリストL1の1番目に格納する(ステップS26)。
次いで、リストL1の1番目の三次元点313の近傍に、ラベル番号0の三次元点31(0)が存在するか否かを判定する(ステップS28)。この場合、ラベル番号0の三次元点312,314が存在するため、これら三次元点312,314にラベル番号1をそれぞれ割り振り(312(1),314(1))、リストL1の2番目及び3番目にそれぞれ追加する(ステップS29)。これによりリストL1の要素数Nは3となる。
その後、変数kが2(<N)となり(ステップS30)、リストL1の2番目の三次元点312の近傍に、ラベル番号0の三次元点31(0)が存在するか否かを判定する(ステップS28)。この場合、ラベル番号0の三次元点311が存在するため、この三次元点311にラベル番号1を割り振り(311(1))、リストL1の4番目に追加する(ステップS29)。これによりリストL1の要素数Nは4となる。
その後、変数kが3(<N)となり(ステップS30)、リストL1の3番目の三次元点314の近傍に、ラベル番号0の三次元点31が存在するか否かを判定する(ステップS28)。この場合、三次元点314の近傍にラベル番号0の三次元点31は存在しないため、要素数Nが4のままkが4となり(ステップS30)、リストL1の4番目の三次元点311の近傍に、ラベル番号0の三次元点31(0)が存在するか否かを判定する(ステップS28)。この場合、三次元点311の近傍にラベル番号0の三次元点31は存在しないため、要素数Nが4のままkが5となる(ステップS30)。
このとき、変数kは要素数Nよりも大きくなるため、ラベル番号1のリストL1の作成を終了し、ラベル番号を2として(ステップS32)、同様の処理を繰り返す。繰り返しの処理では、例えばラベル番号0の三次元点315,316にラベル番号2を割り振って、三次元点315(2),316(2)をリストL2に追加し、ラベル番号0の三次元点317にラベル番号3を割り振って、三次元点317(3)をリストL3に追加する。これにより、ラベル番号0の三次元点31が不存在となるため、ステップS24が否定され、連結集合演算処理を終了し、図2のステップS3に進む。
ステップS3では、ステップS2で求めた各々の連結集合32の位置を演算する。この場合の連結集合32の位置は、連結集合32を代表する位置であり、例えば連結集合32に属する三次元点31の重心位置を、連結集合32の位置として演算する。重心位置の計算には、連結集合32に属する全ての三次元点31を利用しても良いし、別途、外れ値対策等の処理を導入して、選別した三次元点31を利用しても良い。
外れ値対策としては、例えば、始めに連結集合32に属する全ての三次元点31を重心計算に利用して重心位置を演算し、重心計算に利用した三次元点31で重心位置との距離が所定距離以上である三次元点31が存在する場合、重心計算に利用した三次元点31から重心位置との距離が大きい順に所定割合の三次元点31を除去する。そして残った三次元点31を重心計算に利用して重心位置を再計算する。この処理を、重心計算に利用した全ての三次元点31が重心位置から所定距離内に収まるまで繰り返せば良い。
次に、ステップS4で、各々の連結集合32に対して主成分分析を行い、連結集合32の慣性主軸33を演算する。例えば、まず、ステップS2で求めた連結集合32の重心位置と、その重心位置と連結集合32を構成する三次元点31との差を演算し、連結集合32の重心位置に対する共分散行列を演算する。次いで、共分散行列の固有ベクトルを演算する。連結集合32は、三次元空間における三次元点31の集合であるので、3つの固有ベクトルが求まる。3つの固有ベクトルに対応する3つの固有値のうち、固有値が最大であるもの、すなわち連結集合32に含まれる三次元点31の分散が最も大きくなる方向の軸を、連結集合32の慣性主軸33として演算する。
図7は、慣性主軸33の一例を示す図である。図7に示すように、円柱形状の物品20の表面上においては、長手方向における三次元点31の分散が最も大きくなる。このため、物品20の中心を通る中心軸線L0に平行に、最大固有値に対応して第1主成分が現れる。この第1主成分の方向L1が、慣性主軸33の方向となる。図中、L2は、第1主成分の次に三次元点31の分散が大きくなる第2主成分の方向L2を示している。第2主成分方向L2は第1主成分方向L1に直交する。L3は、第1主成分方向L1と第2主成分方向L2の双方に直交する第3主成分の方向を示している。これら3つの主成分は、3つの固有値に対応する。
図8は、コンテナ内にバラ積みされた複数の物品20に対応する連結集合32の慣性主軸33の一例を示す平面図である。図8に示すように、物品20毎に慣性主軸33が設定されるため、慣性主軸33により物品20の姿勢を特定できる。
ステップS4で慣性主軸33を演算すると、ステップS5に進み、同一の連結集合32に属する三次元点31の位置に基づき、連結集合32を構成する三次元点31によって構成される平面または曲面を演算する。平面または曲面は、連結集合32に含まれる全ての三次元点31を用いて最小二乗法により求めることができる。別途、何らかの外れ値対策を行って平面または曲面を求めてもよい。外れ値対策の方法としては、M推定法、RANSAC、LMedS、ハフ変換など、幾通りかの方法がある。ハフ変換などの処理を導入することで、連結集合32が、複数の物品20の表面に跨っている場合でも、その中から、一つの平面を抽出して認識することが可能になる。
ステップS6では、各々の連結集合32を代表する位置及び姿勢である代表位置姿勢34を演算する。図9は、代表位置姿勢34の一例を示す図である。代表位置姿勢34は、直角に交差する一対の矢印34a,34bで示されている。一対の矢印34a、34bの交点、すなわち代表位置姿勢34の位置(代表位置)は、ステップS3で求めた連結集合32の重心位置であり、矢印34a,34bの向きが代表位置姿勢34の姿勢を表す。なお、図9では、便宜上、代表位置姿勢34が2つの矢印34a,34bで示されているが、代表位置姿勢34は、二次元空間におけるものではなく三次元空間におけるものであり、実際には三次元の直交座標系で表される。直交座標系に限らず、種々の座標系で代表位置姿勢34を表すこともできる。
ステップS6で代表位置姿勢34を演算するときは、ステップS5で求めた平面または曲面の連結集合32の代表位置における法線ベクトルを演算する。この法線ベクトルが代表位置姿勢34の矢印34bに相当する。一方、矢印34aは、ステップS4で求めた慣性主軸33の向きに相当する。代表位置姿勢34を用いることで、物品20の位置だけでなく、物品20の延在する方向及び物品20の傾斜、すなわち物品20の姿勢を特定することができる。
ステップS6では、連結集合32に属する三次元点31が存在する領域の面積を演算し、図9に示すように、面積が所定値より小さい連結集合32からは代表位置姿勢34を取得しない。すなわち、表面が十分に露出していると判断される連結集合32に対してのみ、代表位置姿勢34を求め、代表位置姿勢34を求めていない連結集合32は、物品取出しの対象としない。これにより、上面の一部が他の物品20で覆われている奥側の物品20にハンド14が接近することを防止でき、ハンド14と取出し対象以外の物品20とが衝突することを抑制できる。
次に、ステップS7で、各々の代表位置姿勢34に対応するハンド位置姿勢35を演算する。図10は、代表位置姿勢34に対応するハンド位置姿勢35の一例を示す図である。ハンド位置姿勢35は、代表位置姿勢34と同様に、直角に交差する一対の矢印35a,35bで示されている。
ハンド位置姿勢35の位置(矢印35a,35bの交点)及び姿勢(矢印35a,35bの方向)の求め方には、それぞれ幾通りずつかの方法がある。位置に関しては、例えば、代表位置姿勢34の位置をそのままハンド位置姿勢35の位置とする方法がある。別の例として、代表位置姿勢34の位置よりも所定の座標軸36(例えばZ軸)の向きに沿って所定長さだけ移動した位置を、ハンド位置姿勢35の位置とする方法もある。姿勢に関しては、例えば、代表位置姿勢34の姿勢をそのままハンド位置姿勢35の姿勢とする方法がある。別の例として、代表位置姿勢34の位置がコンテナ16の壁に近い場合、壁とハンド14との衝突を避ける目的で、壁から離れる方向にハンド14を傾けるようにする方法もある。
図10では、代表位置姿勢34を、所定の座標軸36の方向に所定長さだけ平行移動したものをハンド位置姿勢35としている。したがって、代表位置姿勢34の矢印34a,34b、すなわち連結集合32の慣性主軸33の方向及び連結主軸32をなす面の法線ベクトルの方向と、ハンド位置姿勢35の矢印35a,35bとは、互いに平行である。
ステップS8では、各々のハンド位置姿勢35にP1,P2,・・・,Pnとナンバリングする。但し、nはハンド位置姿勢35の個数である。図11は、ナンバリングされたハンド位置姿勢35を示す図であり、所定の座標軸36に対する座標値の降順、つまり、高い位置にあるものから順番にナンバリングされている。ナンバリングの順序は、座標値の降順の他、連結集合32をなす面の面積の大きい順など、取得した三次元点集合に基づいて任意の方法で決定付けられる順番としてもよい。なお、図11では、n=3である。
ステップS9では、自然数値を取る変数jに対して初期値を与える。すなわち、j←1とする。変数jは、ハンド位置姿勢35の番号の指定に用いる。
ステップS10では、ロボット駆動用のアクチュエータ(電動モータ)に制御信号を出力し、図12に示すように、ハンド14をハンド位置姿勢Pj(例えばP1)に移動する。このとき、ハンド駆動用のアクチュエータに制御信号を出力し、ハンド14の回転軸14bの軸線14cを法線ベクトル(図10の矢印35bの位置及び方向)に一致させるとともに、一対の把持部14aが図10の矢印35aに対して対称に位置するように軸線14cを中心に回転軸14bを回転させる。これにより、物品20の長手方向に沿った慣性主軸33の両側に一対の把持部14aが配置され、取り出すべき物品20に対し、ハンド14を所定の相対位置姿勢とすることができる。
ステップS11では、ハンド駆動用のアクチュエータに物品20を保持するための制御信号を出力する。これにより、図13に示すようにハンド14の把持部14aで物品20の外周面が把持される。一対の把持部14aは物品20の中心軸線L0(図7)に対して対称に配置されているため、把持部14aで物品20を安定的に保持することができる。この場合、例えば、把持部14aが吸引ノズルを有する場合、真空ポンプを作動し、吸引力で物品20を吸引、保持する。把持部14aが吸着用磁石を有する場合、電磁コイルに電流を流して磁石を作動し、磁力で物品20を吸着、保持する。把持部14aがチャックである場合、チャックを開くあるいは閉じることで、物品20を保持する。
次に、ステップS12で、図14に示すように、ロボット駆動用のアクチュエータに制御信号を出力し、物品21を保持したハンド14を所定方向、例えばハンド位置姿勢35の矢印35b方向、あるいは所定の座標軸36の方向に沿って上昇させる。ハンド14を所定方向に上昇させることで、ロボット12の動作によりハンド14を移動させる際、物品21や把持部14aと他の物品20との衝突を避けることができる。
ステップS13では、把持部14aによる物品21の保持が成功したか否かを判定する。この判定は、例えば、把持部14aが吸着用磁石を有する場合、近接センサで物品21が存在するか否かを判定し、判定結果に応じて保持が成功したか否かを判定すればよい。把持部14aが吸引ノズルを有する場合、吸引時のエアの流量や圧力の変化に応じて保持が成功したか否かを判定すればよい。把持部14aがチャックを有する場合、開閉確認センサでチャックの開閉状態を確認し、保持が成功したか否かを判定すればよい。保持が成功したと判定されると、ステップS14へ進む。保持が成功していないと判定されると、ステップS15へ進む。
ステップS15では、j≧nか否かを判定する。この判定は、n個(図14では3個)のハンド位置姿勢35の中にハンド14が未だ到達していないものが存在するか否かの判定である。j<nと判定されると、ハンド位置姿勢Pj+1にハンド14が未だ到達していないので、ステップS16でj←j+1とし、ステップS10へ戻る。そして、図15に示すようにロボット12の動作により、ハンド14を次のハンド位置姿勢Pj(例えばP2)へ移動させる。次いで、ハンド駆動用のアクチュエータに物品20を保持するための制御信号を出力し、図16に示すように、次の物品21を保持する(ステップS11)。ステップS15でj≧nと判定されると、n個のハンド位置姿勢35の全てにハンド14が到達したので、ステップS16へ進む。
ステップS14では、ロボット駆動用アクチュエータに制御信号を出力し、図17に示すように、ハンド14を、払い出し装置17に対し所定の相対位置姿勢となるように払い出し装置17の上方に移動する。例えば、図17に示すように払い出し装置17が斜め下方に延在するシューターを有する場合、シューターの延在する方向に物品21の中心軸線L0が向かうようにハンド14の位置姿勢を制御する。その後、把持部駆動用アクチュエータに制御信号を出力し、物品21を把持部14aから取外す。なお、払い出し装置17は、シューターではなくベルトコンベアなどでもよい。以上で、1サイクルの処理が終了となる。
本実施形態によれば以下のような作用効果を奏することができる。
(1)本実施形態では、三次元点空間にバラ積された複数の物品20の表面位置を三次元測定機11で測定して複数の三次元点31の位置情報を取得し(ステップS1)、これら複数の三次元点31の中から、互いに近傍にある三次元点31を連結してなる連結集合32を求め(ステップS2)、連結集合32に属する三次元点31の位置情報に基づき、物品20の位置及び姿勢を特定し(ステップS6)、物品20を取出し可能なハンド位置姿勢35を求め(ステップS7)、さらにハンド位置姿勢35へハンド14を移動して物品20を取出すようにロボット12を制御する(ステップS10〜ステップS12)。
これにより、パターンマッチング等によらず物品20の位置及び姿勢を特定することができる。このため、物品20のモデルパターンを作成する必要がなく、多品種や不定形の物品20であっても容易にその位置及び姿勢を認識して、物品20を保持することができる。また、追加された新品種の物品20に対してもモデルパターンを追加することなく、その位置及び姿勢を認識することができ、物品20の位置姿勢の認識失敗や誤認識あるいは物品20の取損ねや衝突等の問題を回避し、上方にある取出し易い物品20へハンド14を高速に移動させて物品20を効率良く取出すことができる。また、連結集合32により物品20の位置及び姿勢を特定するので、ステレオ撮影以外の三次元測定機も使用できるため、様々な装置構成で作用効果を奏することができる。
(2)物品20の姿勢を特定するときには、連結集合32に属する三次元点31の主成分分析によって連結集合32の主成分方向(慣性主軸33の方向)を算出し、この主成分方向に基づいて物品の姿勢を特定するようにした。これにより、円柱形状等の物品20の長手方向の向き及び傾きを特定することができ、二股形状の把持部14aを有するハンド14を用いて物品20を安定的に保持することができる。また、主成分方向を考慮してハンド14で物品20を把持するため、把持した物品20を所定の姿勢で台座やシューターなどの払い出し装置に配置することができ、物品20の払い出し工程を容易に行うことができる。これに対し、主成分方向を考慮しないと、カメラ等で物品20の把持姿勢を確認する必要があり、払い出し工程が複雑となる。
(3)連結集合32の重心位置と連結集合32に属する三次元点31との差から連結集合32の重心位置に対する共分散行列を算出し、この共分散行列の固有値が最大となる固有ベクトルを用いて主成分方向を算出するので、主成分方向が物品20の長手方向に良好に一致し、物品20の姿勢を精度よく特定できる。
(4)連結集合32の重心位置に基づいて連結集合32を代表する位置を求めるとともに、主成分方向に基づいて連結集合32を代表する姿勢を求め(ステップS6)、連結集合32を代表する位置及び姿勢である代表位置姿勢34に対応してハンド位置姿勢35を求めるようにした(ステップS7)。これにより物品20の表面が傾いている場合に、その傾きに合わせて代表位置姿勢34を算出することができ、物品20の傾きに合わせてハンド14を傾かせ、物品20を安定的に保持することができる。
(5)連結集合32に属する三次元点の主成分分析によって連結集合32の第1主成分方向、第2主成分方向及び第3主成分方向を算出し、第1主成分方向、第2主成分方向及び第3主成分方向に基づいてハンド位置姿勢34を求めることもできる。このように3つの主成分方向を考慮することで、複雑形状の物品20を把持部14aで容易に把持することができる。
(6)互いに所定距離内にある三次元点31を連結して連結集合32を構成したので(図6)、バラ積みされた複数の物品20の中から、個々の物品20を認識することができる。したがって、コンテナ16内に物品20が重なって配置されている場合や、物品表面の乱反射等により光学的に三次元点31の位置データを取得できない場合等、三次元点集合30のデータに欠損がある場合であっても、物品20の位置及び姿勢を認識することができる。
なお、三次元点測定機11によって取得された複数の三次元点31の中から、互いに近傍にある三次元点31を連結してなる連結集合32を求め、連結集合32に属する三次元点31の位置情報に基づき、物品20の位置及び姿勢を特定し、特定された物品20を取出し可能なハンド位置姿勢35を求め、求められたハンド位置姿勢34へハンド14を移動して物品20を取出すようにロボット12を制御し、さらに物品20の姿勢を特定するときに、連結集合32に属する三次元点31の主成分分析によって連結集合32の主成分方向を算出し、この主成分方向に基づいて物品20の姿勢を特定するのであれば、三次元空間にバラ積みされた物品20を取出す物品取出方法の構成はいかなるものでもよい。
図18は、図1のロボット制御装置13の内部構成を示すブロック図である。ロボット制御装置13は、連結集合演算部131と、物品特定部132と、ハンド位置姿勢演算部133と、ロボット制御部134部とを有する。
連結集合演算部131において連結集合32を演算する際に、例えば1次元以上3次元以下の所定座標系の各々に対して所定距離を定め、所定座標系に関して第1三次元点31と第2三次元点31との距離がそれぞれ所定距離内である場合のみ、第1三次元点31と第2三次元点31が互いに近傍にあると判定し、両者を連結するようにしてもよい。すなわち、三次元点測定機11によって取得された複数の三次元点31の中から、互いに近傍にある三次元点31を連結してなる連結集合32を求めるのであれば、連結集合演算部の構成は上述したものに限らない。
上記実施形態では、連結集合32の重心位置と連結集合32に属する三次元点31との差から連結集合32の重心位置に対する共分散行列を算出し、この共分散行列の固有値が最大となる固有ベクトルを用いて主成分方向(慣性主軸33)を算出するようにしたが、連結集合32に属する三次元点31の主成分分析によって連結集合32の主成分方向を算出し、この主成分方向に基づいて物品20の姿勢を特定するのであれば、物品特定部132の構成はいかなるものでもよい。
上記実施形態では、連結集合32の重心位置により物品20の代表位置を特定し、連結集合32の慣性主軸33と連結集合32をなす面の法線ベクトルとにより物品20の代表姿勢(図9の矢印34a,34b)を特定したが、主成分分析によって得られた連結集合32の第1主成分方向L1、第2主成分方向L2及び第3主成分方向L3に基づいて、物品20の代表位置姿勢34やハンド位置姿勢35を特定してもよい。例えば、代表位置姿勢34を表す図9の矢印34bを、第2主成分方向L2に一致させ、第2主成分方向L2に基づいてハンド位置姿勢35(図10の矢印35b)を求めてもよい。これにより図2のステップS5の処理が不要となる。
上記実施形態では、長方形状の物品20の延在する方向及び傾きを考慮して、一対の把持部14aで物品20を把持可能なハンド14の位置姿勢をハンド位置姿勢35としたが、本発明の物品取出装置は種々の形状の物品に適用可能である。したがって、ハンド位置姿勢35の設定は、物品20の形状に応じて適宜変更することができ、物品20を取出し可能なハンド位置姿勢35を求めるハンド位置姿勢演算部133の構成は上述したものに限らない。
上記実施形態では、コンテナ16内の物品20をハンド14で保持し、保持した物品21を払い出し装置17まで搬送するようにしたが、物品21を払い出し装置17以外に搬送するようにしてもよい。したがって、ハンド位置姿勢演算部133により求められたハンド位置姿勢35へハンド14を移動して物品20を取出すようにロボット12を制御するのであれば、ロボット制御部144の構成はいかなるものでもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態及び変形例により本発明が限定されるものではない。上記実施形態及び変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
10 物品取出装置
11 三次元測定機
12 ロボット
13 ロボット制御装置
14 ハンド
20 物品
31 三次元点
32 連結集合
33 慣性主軸
34 代表位置姿勢
35 ハンド位置姿勢
131 連結集合演算部
132 物品特定部
133 ハンド位置姿勢演算部
134 ロボット制御部

Claims (5)

  1. 物品を保持可能なハンドを有するロボットと、
    三次元空間にバラ積みされた複数の物品の表面位置を測定し、複数の三次元点の位置情報を取得する三次元測定機と、
    前記三次元点測定機によって取得された複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求める連結集合演算部と、
    前記連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定する物品特定部と、
    前記物品特定部により特定された物品を取出し可能な前記ハンドの位置及び姿勢であるハンド位置姿勢を求めるハンド位置姿勢演算部と、
    前記ハンド位置姿勢演算部により求められたハンド位置姿勢へ前記ハンドを移動して前記物品を取出すように前記ロボットを制御するロボット制御部と、を備え、
    前記物品特定部は、前記連結集合に属する三次元点の主成分分析によって前記連結集合の主成分方向を算出し、この主成分方向に基づいて前記物品の姿勢を特定することを特徴とする物品取出装置。
  2. 請求項1に記載の物品取出装置において、
    前記物品特定部は、前記連結集合の重心位置と前記連結集合に属する三次元点との差から前記連結集合の重心位置に対する共分散行列を算出し、この共分散行列の固有値が最大となる固有ベクトルを用いて前記主成分方向を算出することを特徴とする物品取出装置。
  3. 請求項1または2に記載の物品取出装置において、
    前記物品特定部は、前記連結集合の重心位置に基づいて前記連結集合を代表する位置を求めるとともに、前記主成分方向に基づいて前記連結集合を代表する姿勢を求め、
    前記ハンド位置姿勢演算部は、前記連結集合を代表する位置及び姿勢である代表位置姿勢に対応して前記ハンド位置姿勢を求めることを特徴とする物品取出装置。
  4. 請求項3に記載の物品取出装置において、
    前記物品特定部は、前記連結集合に属する三次元点の主成分分析によって前記連結集合の第1主成分方向、第2主成分方向及び第3主成分方向を算出し、
    前記ハンド位置姿勢演算部は、前記第1主成分方向、前記第2主成分方向及び前記第3主成分方向に基づいて前記ハンド位置姿勢を求めることを特徴とする物品取出装置。
  5. 物品を保持可能なハンドを有するロボットを用いて、三次元空間にバラ積みされた物品を取出す物品取出方法であって、
    三次元点空間にバラ積みされた複数の物品の表面位置を三次元測定機で測定して複数の三次元点の位置情報を取得し、
    前記三次元点測定機によって取得された複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求め、
    前記連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定し、
    位置及び姿勢が特定された物品を取出し可能な前記ハンドの位置及び姿勢であるハンド位置姿勢を求め、
    求められたハンド位置姿勢へ前記ハンドを移動して前記物品を取出すように前記ロボットを制御し、
    前記物品の姿勢を特定するときには、前記連結集合に属する三次元点の主成分分析によって前記連結集合の主成分方向を算出し、この主成分方向に基づいて前記物品の姿勢を特定することを特徴とする物品取出方法。
JP2013229609A 2013-11-05 2013-11-05 バラ積みされた物品をロボットで取出す装置及び方法 Pending JP2015089590A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013229609A JP2015089590A (ja) 2013-11-05 2013-11-05 バラ積みされた物品をロボットで取出す装置及び方法
CN201410490676.3A CN104608149B (zh) 2013-11-05 2014-09-23 用机器人来取出散装物品的装置以及方法
DE102014016072.6A DE102014016072B4 (de) 2013-11-05 2014-10-29 Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
US14/532,697 US9721184B2 (en) 2013-11-05 2014-11-04 Apparatus and method for picking up article randomly piled using robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229609A JP2015089590A (ja) 2013-11-05 2013-11-05 バラ積みされた物品をロボットで取出す装置及び方法

Publications (1)

Publication Number Publication Date
JP2015089590A true JP2015089590A (ja) 2015-05-11

Family

ID=53006745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229609A Pending JP2015089590A (ja) 2013-11-05 2013-11-05 バラ積みされた物品をロボットで取出す装置及び方法

Country Status (4)

Country Link
US (1) US9721184B2 (ja)
JP (1) JP2015089590A (ja)
CN (1) CN104608149B (ja)
DE (1) DE102014016072B4 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209979A (ja) * 2015-05-13 2016-12-15 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
JP2017052094A (ja) * 2016-12-22 2017-03-16 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
CN108453730A (zh) * 2017-02-21 2018-08-28 发那科株式会社 工件取出系统
JP2018187687A (ja) * 2017-04-28 2018-11-29 ファナック株式会社 物品取出システム
WO2018225827A1 (ja) * 2017-06-09 2018-12-13 川崎重工業株式会社 ワークの認識装置及びワークを認識する方法
CN114615441A (zh) * 2020-12-04 2022-06-10 株式会社日立制作所 校准装置以及校准方法
JP7508350B2 (ja) 2020-12-04 2024-07-01 株式会社日立製作所 キャリブレーション装置およびキャリブレーション方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104990932B (zh) * 2015-07-14 2019-03-15 苏州佳祺仕信息科技有限公司 一种电容翻转侧旋装置
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6423813B2 (ja) 2016-03-03 2018-11-14 ファナック株式会社 バラ積みワークのピッキングシステムおよびピッキング方法
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6470321B2 (ja) 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
US20180264660A1 (en) * 2017-03-20 2018-09-20 Kindred Systems Inc. Systems, devices, articles, and methods for prehension
KR102565444B1 (ko) * 2017-12-21 2023-08-08 삼성전자주식회사 객체를 식별하기 위한 장치 및 방법
CN108748149B (zh) * 2018-06-04 2021-05-28 上海理工大学 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN112912040A (zh) * 2018-10-22 2021-06-04 艾比力泰克医疗公司 手部辅助矫正器
DE102019121889B3 (de) * 2019-08-14 2020-11-19 Robominds GmbH Automatisierungssystem und Verfahren zur Handhabung von Produkten
CN110608872A (zh) * 2019-09-30 2019-12-24 云谷(固安)科技有限公司 光学检测设备及检测方法
CN116810797B (zh) * 2023-08-08 2024-04-26 浙江求实机器人有限公司 一种工业机器人智能控制系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644372A (ja) * 1992-07-24 1994-02-18 Toshiba Corp パターン抽出装置
JP2005331285A (ja) * 2004-05-18 2005-12-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2011008809A (ja) * 1999-06-01 2011-01-13 Fujitsu Semiconductor Ltd 移動物体認識方法及び装置
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2011248457A (ja) * 2010-05-24 2011-12-08 Nikon Corp データ分類装置およびプログラム
JP2012011579A (ja) * 2010-06-29 2012-01-19 Japan Steel Works Ltd:The ノズルタッチ方法およびノズルタッチ装置
JP2012217791A (ja) * 2011-04-14 2012-11-12 Hitachi Aloka Medical Ltd 超音波診断装置
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
JP2013217893A (ja) * 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3919932B2 (ja) * 1998-04-22 2007-05-30 オークラ輸送機株式会社 袋状ワーク姿勢検出装置
JP3842233B2 (ja) 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
FR2896441B1 (fr) * 2006-01-23 2009-07-03 Jerome Grosbois Procede et systeme permettant la prehension automatisee de piece(s)
DE102009009569B4 (de) 2009-02-19 2019-12-19 Daimler Ag Verfahren zum Ermitteln einer Teilfläche eines Bauteils
JP2011022084A (ja) 2009-07-17 2011-02-03 Fuji Electric Holdings Co Ltd 三次元姿勢測定装置および三次元姿勢測定方法
JP5480667B2 (ja) 2010-02-26 2014-04-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
WO2012011579A1 (ja) 2010-07-23 2012-01-26 独立行政法人産業技術総合研究所 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644372A (ja) * 1992-07-24 1994-02-18 Toshiba Corp パターン抽出装置
JP2011008809A (ja) * 1999-06-01 2011-01-13 Fujitsu Semiconductor Ltd 移動物体認識方法及び装置
JP2005331285A (ja) * 2004-05-18 2005-12-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2011248457A (ja) * 2010-05-24 2011-12-08 Nikon Corp データ分類装置およびプログラム
JP2012011579A (ja) * 2010-06-29 2012-01-19 Japan Steel Works Ltd:The ノズルタッチ方法およびノズルタッチ装置
JP2012217791A (ja) * 2011-04-14 2012-11-12 Hitachi Aloka Medical Ltd 超音波診断装置
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
JP2013217893A (ja) * 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
原田研介 原田研介: "対象物の円筒近似に基づくビンピッキング", 第30回日本ロボット学会学術講演会予稿集DVD−ROM 2012年 THE 30TH ANNUAL , JPN6015010374, ISSN: 0003138727 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9868215B2 (en) 2015-05-13 2018-01-16 Fanuc Corporation Object pick-up system and method for picking up stacked objects
JP2016209979A (ja) * 2015-05-13 2016-12-15 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
JP2017052094A (ja) * 2016-12-22 2017-03-16 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
US10434649B2 (en) 2017-02-21 2019-10-08 Fanuc Corporation Workpiece pick up system
CN108453730A (zh) * 2017-02-21 2018-08-28 发那科株式会社 工件取出系统
JP2018134698A (ja) * 2017-02-21 2018-08-30 ファナック株式会社 ワーク取出システム
US10518417B2 (en) 2017-04-28 2019-12-31 Fanuc Corporation Article retrieval system
JP2018187687A (ja) * 2017-04-28 2018-11-29 ファナック株式会社 物品取出システム
JP2018202593A (ja) * 2017-06-09 2018-12-27 川崎重工業株式会社 ワークの認識装置及びワークを認識する方法
WO2018225827A1 (ja) * 2017-06-09 2018-12-13 川崎重工業株式会社 ワークの認識装置及びワークを認識する方法
CN110799311A (zh) * 2017-06-09 2020-02-14 川崎重工业株式会社 工件的识别装置以及识别工件的方法
CN110799311B (zh) * 2017-06-09 2022-06-24 川崎重工业株式会社 工件的识别装置以及识别工件的方法
CN114615441A (zh) * 2020-12-04 2022-06-10 株式会社日立制作所 校准装置以及校准方法
JP7508350B2 (ja) 2020-12-04 2024-07-01 株式会社日立製作所 キャリブレーション装置およびキャリブレーション方法
CN114615441B (zh) * 2020-12-04 2024-07-12 株式会社日立制作所 校准装置以及校准方法

Also Published As

Publication number Publication date
CN104608149A (zh) 2015-05-13
DE102014016072A1 (de) 2015-07-02
US9721184B2 (en) 2017-08-01
DE102014016072B4 (de) 2019-02-14
US20150124057A1 (en) 2015-05-07
CN104608149B (zh) 2018-07-10

Similar Documents

Publication Publication Date Title
JP2015089590A (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5670397B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5788461B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
US9503704B2 (en) Apparatus and method for picking up article disposed in three-dimensional space using robot
KR102650492B1 (ko) 자동화된 패키지 등록 메커니즘과 이를 작동시키는 방법을 구비한 로봇 시스템
JP5788460B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5642738B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
US20220305656A1 (en) Robotic system control method and controller
JP2019063984A (ja) 情報処理装置、方法及びロボットシステム
JP2014161965A (ja) 物品取り出し装置
JP2014087913A (ja) 物品取出装置及び物品取出方法
JP2016099257A (ja) 情報処理装置及び情報処理方法
US20190126473A1 (en) Information processing apparatus and robot arm control system
JP7398662B2 (ja) ロボット多面グリッパアセンブリ及びその操作方法
EP4245480A1 (en) Measuring system, measuring device, measuring method, and measuring program
JP7450857B2 (ja) 計測パラメータの最適化方法及び装置、並びに、コンピュータ制御プログラム
JP2021070117A (ja) 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160329