JPWO2013002099A1 - 部品供給装置 - Google Patents

部品供給装置 Download PDF

Info

Publication number
JPWO2013002099A1
JPWO2013002099A1 JP2013522797A JP2013522797A JPWO2013002099A1 JP WO2013002099 A1 JPWO2013002099 A1 JP WO2013002099A1 JP 2013522797 A JP2013522797 A JP 2013522797A JP 2013522797 A JP2013522797 A JP 2013522797A JP WO2013002099 A1 JPWO2013002099 A1 JP WO2013002099A1
Authority
JP
Japan
Prior art keywords
robot
parts
vision sensor
dimensional vision
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013522797A
Other languages
English (en)
Other versions
JP5837065B2 (ja
Inventor
哲男 野田
哲男 野田
達也 永谷
達也 永谷
幸康 堂前
幸康 堂前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013522797A priority Critical patent/JP5837065B2/ja
Publication of JPWO2013002099A1 publication Critical patent/JPWO2013002099A1/ja
Application granted granted Critical
Publication of JP5837065B2 publication Critical patent/JP5837065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • B25J9/0018Bases fixed on ceiling, i.e. upside down manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40012Pick and place by chain of three manipulators, handling part to each other

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

<目的、課題> バラ積み状態で供給された様々な形状の部品を、汎用的手段で高速に整列させることのできる部品供給装置を得る。<課題解決手段> 距離画像を計測する3次元ビジョンセンサ(1)と、バラ積み部品箱(2)と、バラ積み部品箱(2)から部品を摘み出すロボット(3)と、いくつかの数の部品を転がす仮置き台(2)と、部品の外形を計測する2次元ビジョンセンサ(5)と、仮置き台(2)に転がった部品を摘み上げ、部品の位置姿勢を変更しながら、あらかじめ指定される位置姿勢に対して一定の誤差以下の位置姿勢に変更するロボット群(6)と、各手段を制御する制御装置(7)とを設ける。

Description

この発明は、自動組立装置や自動組立ロボットなどに対して、バラ積み供給される部品を整列させる部品供給装置に関し、特に複数の垂直多関節型ロボット(以下、単に「ロボット」という)を用いて整列させる部品供給装置に関するものである。
一般に、製品組立ラインにおいて、購入先や、前工程から搬送される部品は、部品の搬送およびストック時に必要な車両、または部品箱が占める空間体積を小さくするために、いわゆるバラ積み状態の荷姿で届くことが多い。
したがって、製品組立の自動化を推進するためには、組立装置に供給する部品を、何らかの手段で位置姿勢を揃える必要がある。
従来から、バラ積み状態の部品を自動整列される手段として、パーツフィーダと呼ばれる専用の部品整列装置が広く使われている。しかしながら、パーツフィーダは、部品ごとに専用に設計されるため汎用性がなく、そのため設計期間が長い、価格が高い、稼働中に振動および騒音が発生する、工場内で多大な床面積を占める、という問題がある。
また、部品形状が複雑な場合には、部品がパーツフィーダ内で絡まり、チョコ停と呼ばれる一時的な動作停止が起こり、オペレータコールが多発するという問題もある。
また、パーツフィーダによる部品整列が不可能な形状の部品が存在することから、パーツフィーダすら使えない場合もある。
そこで、上記パーツフィーダに代わる自動化手法として、バラ積み状態の部品を、何らかのハードウェア機構を用いて、ある程度、部品同士が重なっていない状態に変化させた後、ビジョンセンサを用いて、好ましい姿勢を取っている部品のみを認識して位置姿勢補正を行う技術が知られている(たとえば、特許文献1参照)。
または、バラ積み状態の部品の位置姿勢を認識し、必要があれば向きを変更して仮置き後、さらに必要があれば向きを変更して整列させる技術が知られている(たとえば、特許文献2参照)。
特許文献1に記載の技術は、部品数を十分に供給しておいたうえで、好ましい姿勢になっている部品のみを選んで取り扱うという確率的な事象に依存するので、部品数が減ってくると、好ましい姿勢の部品が存在しなくなる確率が高まり、部品が残っているのにオペレータコールの発生が増加する問題がある。
また、好ましい姿勢になる確率が低い部品を供給対象とした場合には、より多くの部品を投入しておかなければならないので、手持ち在庫を多くかかえる必要があり、工場の空間体積(床面積、高さ)を浪費するという問題がある。
一方、特許文献2に記載の技術は、吸着パットによって、空気が漏れないように正しく当接可能で、目的の吸着が可能な立方体形状の部品を対象としている。したがって、平面形状の部品、複雑な形状の部品、表面に凸凹がある部品、小穴が多い部品、細い形状からなる部品など、のように吸着パットが機能を発揮できる部位がなく、吸着パッドに吸い付かない部品に対しては対応できないという問題がある。
なお、吸着パッドが使用不可の場合に、ブロワで吸い付けることも考えられるが、この場合には、騒音が大きいうえ、電力消費が大きいという問題が生じる。
さらに、特許文献1、2のいずれ場合も、最終的な整列を失敗させるような大きな誤差を吸収するために、部品ごとに設計した特化ハンドを使用しているので、複数種類の部品を同じハンドで整列することができず、部品数と同数のハンドが必要となり、ハンド切替え時間、ハンド仮置き用の広い場所が必要になるという問題がある。
また、部品ごとにハンドを設計し直さなければならず、生産する機種の切替え時に、ハンドを作りなおすためのコスト(設計、製作、調整費)を要するという問題がある。
特開平6−127698号公報 特開2011−685号公報
従来の部品供給装置は、特許文献1の技術では、確率的な事象に依存しているので、多数の部品を投入するために手持ち在庫を多くかかえる必要があり、工場の空間体積を浪費するという課題があった。
また、特許文献2の技術では、吸着パットが当てられる部位がない部品に対しては対応できないという課題があった。
さらに、従来の部品供給装置は、部品ごとに設計した特化ハンドを使用しているので、多大な設計コスト、ハンド切替え時間およびハンド仮置き場所を必要とするという課題があった。
この発明は、上記のような課題を解決するためになされたものであり、ビジョンセンサと平行チャックハンドを持つ複数のロボットとを用いて部品をハンドリングすることにより、多種多様の部品に対して専用の治具やハンドを設計することなく、バラ積み状態の部品を整列可能な部品供給装置を得ることを目的とする。
この発明に係る部品供給装置は、バラ積みされた部品を収納するバラ積み部品箱と、バラ積み部品箱内の部品の距離画像を計測する距離画像計測手段と、距離画像に基づきバラ積み部品箱から部品を摘み出す単離手段と、単離手段により単離された部品の位置姿勢を、あらかじめ指定される最終位置姿勢に対して一定の誤差以下の位置姿勢に変更する位置姿勢変更手段と、を備えたものである。
この発明によれば、ビジョンセンサで部品の位置姿勢を認識した後に、複数のロボットで部品を受渡しながらパイプライン処理でハンドリングすることにより、バラ積み状態の部品を高速に整列させることができる。
また、複雑な形状の部品であっても、整列処理のサイクルタイムが延長を回避することができる。さらに、ソフトウェアの変更のみで生産機種の切替を迅速に行うことができるので、部品ごとに専用ハンドを必要とせず、ハンドのコスト削減、ハンド設計時間の短縮、ハンド仮置き場所の削減が可能となる。
この発明の実施の形態1に係る部品供給装置の全体構成を概略的示す側面図である。 この発明の実施の形態1で用いる距離画像の具体例を示す説明図である。 図1内のロボットのハンドの構成例を具体的に示す斜視図である。 図1内のロボットのハンドの他の構成例を具体的に示す斜視図である。 この発明の実施の形態1による全体の動作シーケンスを示すフローチャートである。 この発明の実施の形態2におけるロボット動作時のパラメータの具体例を示す説明図である。 この発明の実施の形態3による姿勢変更操作の原理を示す説明図である。 この発明の実施の形態3による3通りの姿勢変更軌道を示す説明図である。 この発明の実施の形態4に係る部品供給装置の全体構成を概略的示す側面図である。 この発明の実施の形態4による動作シーケンスを示すフローチャートである。 この発明の実施の形態4による動作を示す説明図である。 この発明の実施の形態5に係る部品供給装置の全体構成を概略的示す側面図である。 この発明の実施の形態6に係る部品供給装置の全体構成を概略的示す側面図である。 この発明の実施の形態7に係る部品供給装置の全体構成を概略的示す側面図である。 この発明の実施の形態9において把持対象となる部品の立体形状を示す斜視図である。 この発明の実施の形態9による解決課題を部品の側面図および正面図で示す説明図である。 この発明の実施の形態9による解決課題をバラ積み部品の側面図で示す説明図である。 この発明の実施の形態9による複数の3次元ビジョンセンサを示す側面図である。
実施の形態1.
以下、図1〜図5を参照ながら、この発明の実施の形態1について説明する。
図1はこの発明の実施の形態1に係る部品供給装置の全体構成を概略的示す側面図であり、複数(ここでは4台)のロボット3、6a、6b、6cを用いて、バラ積み部品を整列供給する構成を示している。
図1において、部品供給装置は、3次元ビジョンセンサ1と、多数の部品(たとえば、L字状の部品)が収納されたバラ積み部品箱2と、バラ積み部品箱2に近接配置された第1のロボット3(以下、単に「ロボット3」という)と、部品の仮置き台4と、仮置き台4を撮像する2次元ビジョンセンサ5と、ロボット6a〜6cからなるロボット群6(第2のロボット)と、3次元ビジョンセンサ1および2次元ビジョンセンサ5の検出結果に基づきロボット3およびロボット群6を制御する制御装置7と、整列された部品が載置されるパレット8と、を備えている。
3次元ビジョンセンサ1は、制御装置7とともに距離画像計測手段として機能し、バラ積み部品箱2内に積み上げられた部品を、概して上方から撮像し、3次元ビジョンセンサ1から各部品が凸凹(ランダム)に並んだ上面までの多数の距離データを計測する機能を有する。
なお、3次元ビジョンセンサ1により距離データを取得するための計測原理としては、ステレオ法、光切断法、空間コード法、ランダムコード法、タイムオフフライ法などの周知の手法が適用可能である。3次元ビジョンセンサ1に付された2本の破線は、各手法により距離の三角測量を行う様子を表している。
3次元ビジョンセンサ1で得られた距離データは、3次元ビジョンセンサ1内または制御装置7において座標変換演算などが施されて、距離画像の算出に寄与する。
距離画像とは、撮像されたシーンの画像の各ピクセルに対し、ある座標系から見たときの「特定座標軸方向の座標値をマッピングしたもの」であり、たとえば、ロボット3のベース座標系から見たときの、部品が積み上がった高さのマップのことである。
図2は距離画像の具体例を示す説明図であり、バラ積み部品箱2の上部にバラ積みされた部品群の高さ(距離)分布をロボット座標系のXY平面上にプロットし、最も高いZ座標位置の計測値をマッピングした状態を示している。
図2においては、Z座標の各値の大きさを棒グラフの長さで示し、グラフ全体をプロットしている。図2において、中程に突起状に伸びている箇所は、部品の一部が突き立っている状態と推定される。同様に、手前側で凹みが生じている箇所に隣接した突出部は、部品の突起部位(把持可能部位)が存在するものと推定される。
バラ積み部品箱2は、特別な機能を備えずに上面が開放された簡易な箱であり、基本的には、いわゆる手持ち量分またはストック量分の数だけの部品を格納できる大きさを有している。
なお、バラ積み部品箱2は、内部を仕切って複数種類の部品を格納可能な構成としてもよく、この場合、仕切り区画の大きさは均等でなくてもよい。
また、バラ積み部品箱2の内部底面や外部底面にスポンジなどのクッション材を設けるか、またはバラ積み部品箱2をバネ材などで支持することにより、耐衝撃性を向上させてもよい。
また、バラ積み部品箱2の内部に板状突起などの構造物を設けて、部品の姿勢が特定の範囲に揃いやすいように構成してもよい。
さらに、パレットチェンジャやベルトコンベアなどでバラ積み部品箱2を交換可能とすることにより、連続的に部品を使い切らないように構成してもよい。
ロボット3、ロボット群6は、一般的に広く普及している垂直多関節型ロボットからなる。
ロボット3は、3次元ビジョンセンサ1、仮置き台4および制御装置7とともに、単離手段(後述する)として機能し、ピンセット状または鉗子状の細い爪3tを有するハンド3hを備えている。
一方、ロボット群6は、2次元ビジョンセンサ5および制御装置7とともに、部品の位置姿勢変更手段として機能し、ロボット群6内のロボット6a〜6cは、それぞれ平行チャックハンドを有している。
次に、図1に示したこの発明の実施の形態1による概略動作について説明する。
まず、3次元ビジョンセンサ1は、距離画像を解析することにより、バラ積み部品箱2内に積み上がった部品の中から、ロボット3が把持可能な部位候補(以下、単に「候補」ともいう)を算出し、さらに最適化することにより、把持可能な部位候補を1つに絞り込む。
なお、把持可能な候補の演算処理に際しては、あらかじめ、ロボット3のハンド3hの爪3tの形状およびサイズを数値化しておく。
たとえば、ハンド3hが図3または図4に示すような形状であれば、バラ積み部品の山に対して、部品と接触せずに、ハンド3hの2本の爪3tの先端部を同時に差し込みたいのであるから、爪3tの開き幅W分の距離を隔てた、各爪3tを内包する最小の大きさの2本の円柱または角柱として、数値モデル化しておく。
このとき、円柱または角柱の太さは、爪3tの太さを近似し、円柱または角柱の長さは、把持する際に部品に爪3tを掛ける深さを近似することになる。
次に、3次元ビジョンセンサ1は、最新の距離画像が得られているものとして、最新の距離画像の中から、あらかじめ数値化した円柱または角柱が入る空間であって、かつ、空間の間に部品が存在する場所を探索する。
図2の場合であれば、図2の中程に突起状に伸びている箇所と、図2中の手前側で凹みが生じている箇所に隣接した箇所と、の2カ所が発見されることになる。
または、ロボット3のハンド3hにより把持可能な小突起部位の形状(たとえば、開いたハンド3hの爪3tの間に収まる角柱、円柱、平板、円盤)を、距離画像に対してテンプレートマッチングを行い、複数の候補を探索および抽出する。
次に、3次元ビジョンセンサ1は、抽出された複数の候補に評価値をつけて、最も評価値の高い1つの候補のみを選択するという最適化演算を行う。
最適化演算の方法として、2本の円柱に挟まれた突起物(または、発見された微少な角柱)のうち、最も高いZ軸値を評価値として採用し、その評価値が最大となる候補を選択する。
この最適化演算は、バラ積みされた部品のうち、最も上方に積まれている部品を選ぶことに相当する。つまり、最大の評価値を選ぶことにより、部品の候補を最適化したことになる。
図2の場合であれば、図2の中央の突起が存在する箇所が、最適化された候補となる。
以下、選択された最適化候補に接近して把持するために、ロボット3のハンド3hの爪3tをどのように掛けるかについては、簡単な計算で求めることができる。
すなわち、部品を把持できるロボット3の位置姿勢を、ロボット座標系におけるXYZ値および各軸周りの回転角として、把持可能な候補の位置姿勢に対する相対位置姿勢を加えることにより、算出することができる。
なお、距離画像に対して、ハンド3hで把持可能な大きさの、微少な角柱状の部位をテンプレートマッチングして候補点を抽出し、その候補点のZ軸高さを用いて最適化することによっても、把持位置姿勢を算出することができ、同様の効果が得られる。
ロボット3は、その後、把持した部品を仮置き台4に運び、仮置き台4の上方で部品を解放する。
このとき、ロボット3は、部品を丁寧に仮置き台4に置くのではなく、放り投げるように仮置き台4に置くことが望ましい。これにより、絡まった部品が解けて、1つずつ、分離した状態で仮置き台4に転がって静止する確率が高くなる。
ここで、ロボット3のツール座標系を、ツールが進む向きをZ軸にとって、右手系でX、Y、Z軸とし、各軸X、Y、ZのまわりにA、B、C軸を定義したとき、ロボット3が部品を摘むために、バラ積み部品箱2の部品に近づいて行く動作について説明する。
たとえば、ロボット3のハンド3hの爪3tが、ツール座標系のA軸値およびB軸値に関しては必ず同じ値になる姿勢で、且つC軸に関しては、爪3tが部品間の隙間に入るように回転させた姿勢で、Z軸方向に進んでいくものとする。
このとき、3次元ビジョンセンサ1の座標系とロボット3の座標系とのキャリブレーション誤差のうち、姿勢誤差が小さくなる領域を使うことになり、単離成功確率Pを向上させることが可能となる。たとえば、ロボット3は、鉛直下向きにハンド3hを下ろしていくように動作する。つまり、ツール座標系のZ軸を、世界座標系の鉛直下向き、または、重力加速度の向きと同じものにする。
なお、「単離」とは、パラ積み部品箱2の中から1つの部品のみを摘み出すことを指す。
仮置き台4は、何も備えていない簡易な台であるが、台上に排除すべき物品(異物)が載せられた際に、台面を反転させるなどして異物を自重で滑り落ちさせる(または、はじき飛ばす)ような機構が付加されてもよい。
仮置き台4に排除機構を設けた場合には、エラーリカバリが迅速に行われ、タクトタイム(Tact Time)が伸びにくくなるという効果がある。
なお、仮置き台4の天板上面の高さ(ロボット座標系Z軸方向)は、あらかじめ計測されて、制御装置7の記憶領域に記憶されているのとする。
ロボット3は、バラ積み部品箱2の中にバラ積みされた部品を、上記ロボット座標算出処理に基づき、ハンド3hの爪3tが開いた状態にしたうえで、その時点で得られている把持位置に移動して、ハンド3hを閉じる。
続いて、ロボット3は、ハンド3hをロボット座標Z軸方向に沿って持ち上げるように移動させ、バラ積み部品箱2から把持できた部品を引き上げる動作を行い、その後、把持した部品を仮置き台4の上に転がす。
以上のように、ロボット3は、バラ積み部品箱2の中に多数入っている部品の中から、1つの部品のみを取り出すという単離機能を備えている。
ただし、ロボット3は、部品の取り出しに失敗して部品を把持できないこともあり、複数の部品が絡まって、ひとかたまりの状態で仮置き台4に転がることもあり、また、複数の部品が絡まらずに、それぞれが仮置き台4の上に転がることもある。
上記のいずれの状態も、ロボット3が上記動作を実行した直後に、仮置き台4を2次元ビジョンセンサ5で撮像することにより、容易に判別することができる。
たとえば、バラ積み部品箱2からの部品の取り出しに失敗した場合は、ロボット3による摘み出し操作を再度行う。
また、複数の部品が絡まって、ひとかたまりの状態で仮置き台4に転がった場合は、仮置き台4の天板を反転させる排除手段など(図示せず)を用いて、部品をラインアウトさせる。
なお、ラインアウトとは、たとえば部品捨て箱(図示せず)を用意しておき、部品捨て箱内に部品を廃棄する、などを行うことにより、容易に実現することができる。
一方、複数の部品が絡まることなく仮置き台4に転がった場合は、後段のロボット群6のうちの1つのロボットが、部品を1つずつハンドリングするか、1つの部品のみをハンドリングした後に、仮置き台4の天板を反転させる排除手段などで、残りの部品をラインアウトさせる。
2次元ビジョンセンサ5は、部品外形計測手段として機能し、広く普及しているセンサからなり、仮置き台4に転がされた部品を撮像して、その外形形状を取得する。以下、計測により取得した部品の外形は、部品の位置姿勢の算出に寄与する。
部品の位置姿勢の算出演算処理は、2次元ビジョンセンサ5内または制御装置7において、たとえばテンプレートマッチング法により行われる。
テンプレートマッチング法において、テンプレート画像はあらかじめ登録されるが、ここでは、取り扱う部品を仮置き台4の上に転がしてみて、安定して静止する姿勢の数だけのテンプレート画像を登録するものとする。
取り扱う部品に対して登録される画像は、裏表が無関係の部品の場合には1つ、裏表に関係がある部品の場合には2つ、5通りの姿勢で静止する部品の場合には5つとなる。
なお、取り扱う部品の形状が円筒状であって、軸周りの角度を区別する必要がある場合には、仮置き台4に専用のジグを設けて角度を固定するか、ロボット群6による受渡し動作において角度を決定する。
ロボット群6において、ロボット6aは、平行チャックハンドにより仮置き台4から部品を摘み上げる。以下、ロボット6a、6b、6cの相互間で、部品の裏表などを反転させながら、受渡しした後、ロボット6cは、部品整列用のパレット8の上に部品を整列配置する。
ここで、上記部品供給動作による部品のハンドリング手順について説明する。
まず、3次元ビジョンセンサ1による部品認識を行い、認識された部品の把持可能な部品の一部分(たとえば、耳のように突き出た部分、または、突き出た形状と推定される部分)の位置姿勢を1つに絞り込む。
次に、制御装置7は、絞り込んだ位置姿勢とロボット3のハンド3hの爪3tの位置姿勢とが一致するように、ロボット3を動作させた後に、爪3tを閉じて部品を把持させる。
続いて、ロボット3は、バラ積み部品箱2から部品を取り出して、仮置き台4の上方で爪3tを開き、部品を仮置き台4に転がすことにより、部品を仮置き台4の上に置く。
この結果、部品は何通りかの安定状態のうちの1つの姿勢で、仮置き台4の上で静止する。ここでは、説明を簡単にするため、部品が絡みや重なりを起すことなく、仮置き台4に置かれた場合について説明する。
また、部品が絡みや重なりを起こさずに仮置き台4に置かれた状態を、「単離された状態」と記すことにする。
次に、2次元ビジョンセンサ5は、あらかじめ登録されたテンプレート画像と、パターンマッチング法とを用いて、仮置き台4に置かれた部品の位置姿勢を認識する。
このとき、部品に複数の安定状態がある場合には、2次元ビジョンセンサ5は、それらすべての安定状態に対して認識プログラムを実行し、認識結果の信頼性が最も高い安定状態の結果を、全体の認識結果として採用する。
前述のように、裏表が無関係の部品の場合には、安定姿勢は1つのみになる。
以上の処理により、仮置き台4に置かれた部品が、どの安定状態で且つどの位置姿勢にあるかを、3次元的に把握することができる。
なぜなら、仮置き台4の高さが既知であり、且つ部品が単離されているので、どの安定状態であるかを判別できれば、部品の高さ位置が決定し、部品の姿勢ズレも平面内の回転のみになるからである。
なお、部品の平面内の位置ズレおよび回転は、2次元ビジョンセンサ5により計測することができる。
2次元ビジョンセンサ5は、部品の位置姿勢の座標がどのテンプレート画像とマッチしたかを示す「パターンの識別情報」を出力する。
また、2次元ビジョンセンサ5は、仮置き台4上に部品が存在しなかったこと、部品がセンサ視野から外れていること、または、部品の位置姿勢の座標がいずれのテンプレート画像ともマッチしなかったこと、を示す「識別情報」を出力する。
以上のように、2次元ビジョンセンサ5により、仮置き台4の上面に転がされた部品の3次元的な位置姿勢が計測された後、ロボット群6内の1つのロボット6aは、各安定状態に応じて、あらかじめ決められた動作で部品を把持し、ロボット6bとの部品受渡し動作を行う。
続いて、ロボット6bは、2次元ビジョンセンサ5で計測した部品の安定状態から、ロボット6aがどのような動作を行うのか分かるので、各安定状態に応じてあらかじめ決められた動作で、ロボット6aとの間で部品受渡し動作を行う。
最後に、ロボット6cは、ロボット6bと同様に、2次元ビジョンセンサ5の認識した部品の安定状態から、ロボット6bがどのような動作を行うのか分かるので、各安定状態に応じてあらかじめ決められた動作で、ロボット6bとの間で部品受渡し動作を行い、さらに整列用のパレット8への整列供給を行う。
ロボット6aは、ロボット6bへの部品受渡し後は、仮置き台4上の次の部品の把持に向かい、ロボット6bは、ロボット6cへ部品を受渡し後は、次のロボット6aからの部品受渡しに備えた移動を行い、ロボット6cは、部品の整列後は、ロボット6bからの部品受渡しに備えた移動を行う。
以上の手順により、各ロボット3、6a〜6cが常に動き続けるパイプライン処理が実現されるので、部品の姿勢を複数回変更したとしても、部品の整列間隔は、単一のロボットが部品を移動させる一動作のうちの最も時間の長いものによって決定される。なお、各ロボットの動作時間は、実験的にほぼ同程度であることが観測されている。
図5はこの発明の実施の形態1による全体の動作シーケンスを示すフローチャートであり、3次元ビジョンセンサ1、ロボット3、2次元ビジョンセンサ5およびロボット6a〜6cの各動作手順を、相互に関連付けて並列に示している。
図5のシーケンスは、制御プログラムとしてソフトウェア化されており、制御装置7内に格納されているものとする。
図5において、3次元ビジョンセンサ1は、点線矢印で示すように、ロボット3の処理手順(後述のステップS12)に応答して動作を開始し、まず、バラ積み部品箱2内の部品の距離画像を計測する(ステップS1)。
続いて、3次元ビジョンセンサ1は、把持候補を最適化し(ステップS2)、点線矢印で示すように、把持候補の座標を、制御装置7を介してロボット3に送出する(ステップS3)。以下、ステップS1〜S3の動作完了により、ステップS1に戻る。
ロボット3は、まず、3次元ビジョンセンサ1の視界を遮らないように退避座標に移動し(ステップS11)、3次元ビジョンセンサ1による前述の計測を要求する(ステップS12)。
ロボット3は、3次元ビジョンセンサ1の計測により把持候補の座標を取得すると、把持座標に移動し(ステップS13)、ハンド3hを閉動作させて把持候補を把持する(ステップS14)。
続いて、ロボット3は、仮置き台4の座標に移動し(ステップS15)、ハンド3hを開動作させて、把持した部品を仮置き台4の上に転がす(ステップS16)。以下、ステップS11〜S16の動作完了により、ステップS11に戻る。
2次元ビジョンセンサ5は、点線矢印で示すように、ロボット6aの処理手順(後述のステップS32)に応答して動作を開始し、まず、仮置き台4上の画像を計測する(ステップS21)。
続いて、2次元ビジョンセンサ5は、計測画像とテンプレート画像とのパターンマッチングを行い(ステップS22)、点線矢印で示すように、パターン識別情報および把持座標を、制御装置7を介してロボット6aに送出する(ステップS23)。以下、ステップS21〜S23の動作完了により、ステップS21に戻る。
ロボット6aは、まず、2次元ビジョンセンサ5の視界を遮らないように退避座標に移動し(ステップS31)、2次元ビジョンセンサ5による前述の計測を要求する(ステップS32)。
ロボット6aは、2次元ビジョンセンサ5の計測によりパターン識別情報および把持座標を取得すると、計測結果(制御装置7内の部品情報)に応じて、ステップS31、S32、S34への分岐判定を行い、判定結果にしたがう分岐動作を行う(ステップS33)。
ロボット6aは、2次元ビジョンセンサ5から適正な把持座標が得られた場合には、仮置き台4上の把持座標に移動し(ステップS34)、ハンドを閉動作させて仮置き台4上の部品を把持する(ステップS35)。
続いて、ロボット6aは、隣りのロボット6bへの部品渡し姿勢に移動し(ステップS36)、部品の引き取り待ち状態に移行する(ステップS37)。ステップS37は、点線矢印で示すように、ロボット6bの部品待ち状態(ステップS42)にリンクする。
ロボット6aは、破線矢印で示すように、ロボット6bのハンド閉動作(ステップS44)を確認した時点で、ハンドを開動作させて、自身が把持していた部品をロボット6bに渡す(ステップS38)。以下、ステップS31〜S38の動作完了により、ステップS31に戻る。
ロボット6bは、まず、ロボット6aの動作空間を遮らないように退避座標に移動し(ステップS41)、ロボット6aの引き取り待ち状態(ステップS37)に応答して、ロボット6aからの部品待ち状態に移行する(ステップS42)。
ロボット6bは、ロボット6aの部品送り座標に移動し(ステップS43)、ハンドを閉動作させて、ロボット6aが把持していた部品を把持する(ステップS44)。
続いて、ロボット6bは、部品姿勢を変更させて(ステップS45)、さらに隣りのロボット6cへの部品渡し姿勢に移動し(ステップS46)、部品の引き取り待ち状態に移行する(ステップS47)。ステップS47は、点線矢印で示すように、ロボット6cの部品待ち状態(ステップS52)にリンクする。
ロボット6bは、破線矢印で示すように、ロボット6cのハンド閉動作(ステップS54)を確認した時点で、ハンドを開動作させて、自身が把持していた部品をロボット6cに渡す(ステップS48)。以下、ステップS41〜S48の動作完了により、ステップS41に戻る。
ロボット6cは、まず、ロボット6bの動作空間を遮らないように退避座標に移動し(ステップS51)、ロボット6bの引き取り待ち状態(ステップS47)に応答して、ロボット6bからの部品待ち状態に移行する(ステップS52)。
ロボット6cは、ロボット6bの部品送り座標に移動し(ステップS53)、ハンドを閉動作させて、ロボット6bが把持していた部品を把持する(ステップS54)。
続いて、ロボット6cは、部品姿勢を変更させて(ステップS55)、パレット8への部品挿入座標に移動し(ステップS56)、ハンドを開動作させて、自身が把持していた部品をパレット8に挿入する(ステップS57)。以下、ステップS51〜S57の動作完了により、ステップS51に戻る。
ここで、2次元ビジョンセンサ5の計測結果(部品情報)に基づくロボット6aの分岐動作(ステップS33)について、具体的に説明する。
ロボット6aは、ステップ33において、計測結果に基づく以下の判定処理と、判定結果にしたがう分岐動作とを行う。
まず、2次元ビジョンセンサ5の計測結果が、(A)仮置き台4の上に部品が1つも存在しない状態を示す場合には、ロボット6aは、ステップS31に戻り、自身の待機座標に移動する。これと同時に、制御装置7は、ロボット3の動作が適性に行われなかったものと見なして、ロボット3に対する動作指令を生成し、ロボット3に一連の動作(ステップS11〜S16)を再度実行させる。
また、2次元ビジョンセンサ5の計測結果が、(B)仮置き台4上の部品が2次元ビジョンセンサ5の視野から外れている状態を示す場合には、ロボット6aは、仮置き台4から部品を排除する動作を行う。具体例には、ロボット6aが仮置き台4上の部品をはじき飛ばして、仮置き台4上のから排除する。
または、仮置き台4の天板を反転させる排除機構設け、制御装置7からの指示により排除機構を動作させる、などの処理が行われる。
仮置き台4から部品を排除した後は、ロボット6aは、ステップS31に戻り、待機姿勢に移動する。これと同時に、制御装置7はロボット3に対する動作指令を生成し、ロボット3に一連の動作(ステップS11〜S16)を再度実行させる。
また、2次元ビジョンセンサ5の計測結果(部品情報)が、(C)仮置き台4上の部品の静止姿勢がこれ以降に姿勢反転手数が多くなる状態を示す場合には、ロボット6aは、仮置き台4上の部品を触って倒すなどして、姿勢反転手数を減らす動作を行う。
この部品姿勢反転手数低減動作の終了後、ロボット6aは、ステップS32に戻り、2次元ビジョンセンサ5の計測動作を再度実行させる。
さらに、2次元ビジョンセンサ5の計測結果(部品情報)が、(D)本装置が供給対象として扱う部品の種類が複数存在し且つ部品姿勢が適性でないことを示す場合には、ロボット6aは、仮置き台4から部品を排除する動作を行い、ステップS31に戻って待機姿勢に移動する。これと同時に、制御装置7は、ロボット3に対する動作指令を生成し、ロボット3に一連の動作(ステップS11〜S16)を再度実行させる。
上記(D)のように、複数種類の部品を供給対象とする場合には、バラ積み部品箱2内に升目を切って異なる部品を分離供給することになるが、作業者が違う升目に種類の異なる部品を間違えて入れてしまうことがあり得る。
この場合、ロボット3が各升目に対して順番に抽出作業を行うと、間違った部品に行き当たったとき、本来の順番とは異なる部品を抽出して仮置き台4上に乗せることになるが、2次元ビジョンセンサ5のパターン計測結果により、異種部品であることを判定することができる。
以上のように、この発明の実施の形態1(図1〜図5)に係る部品供給装置は、バラ積みされた部品を収納するバラ積み部品箱2と、バラ積み部品箱2内の部品の距離画像(図2)を計測する3次元ビジョンセンサ1(距離画像計測手段)と、距離画像に基づきバラ積み部品箱2から部品を把持して摘み出すロボット3(単離手段)と、ロボット3により単離された部品の位置姿勢を、あらかじめ指定される最終位置姿勢に対して一定の誤差以下の位置姿勢に変更するロボット群6(位置姿勢変更手段)と、を備えている。
位置姿勢変更手段は、ロボット3から部品を受け取って、部品の位置姿勢を変更するロボット群6(第2のロボット)を備えている。
また、単離手段は、ロボット3による把持後に解放されて(転がされた)1つ以上の部品が載置される仮置き台4を備えている。
また、位置姿勢変更手段は、仮置き台4上の部品の外形を計測する2次元ビジョンセンサ5(部品外形計測手段)を備え、ロボット群6(第2のロボット)は、仮置き台4上にがった部品を摘み上げて、部品の位置姿勢を変更する。
また、この発明の実施の形態1に係る部品供給装置は、ロボット3(第1のロボット)およびロボット群6(第2のロボット)、ならびに、3次元ビジョンセンサ1および2次元ビジョンセンサ5の動作および動作タイミングを制御する制御装置7を備えている。
ロボット群6は、複数のロボット6a〜6cからなり、仮置き台4から摘み上げた部品を複数のロボット6a〜6cの相互間で受渡ししながら、部品の位置姿勢を変更する。
この発明の実施の形態1によれば、3次元ビジョンセンサ1およびロボット3により、バラ積み状態の部品を仮置き台4上に位置決めし、2次元ビジョンセンサ5で部品の位置姿勢を認識した後に、複数のロボット6a〜6cにより部品を受渡しながらパイプライン処理でハンドリングしてパレット8に整列させるので、バラ積み状態の部品を高速に整列させることができる。
また、並列処理時間を各ロボット3、6a〜6cの動作時間と同等程度の時間に抑えることが可能なので、複雑な形状の部品であっても、整列処理のサイクルタイムが延長を回避することができる。
また、ソフトウェアの変更のみで生産機種の切替を迅速に行うことができるので、部品ごとに専用ハンドを必要とせず、ハンドのコスト削減、ハンド設計時間の短縮、ハンド仮置き場所の削減が可能となる。
また、複数種類の部品を供給対象とした場合でも、部品ごとに専用ハンドを必要とせず、ハンドのコスト削減、ハンド設計時間の短縮、ハンド仮置き場所の削減が可能となる。
さらに、図1では、3次元ビジョンセンサ1、2次元ビジョンセンサ5を、ロボット3、3aとは別構成としたが、3次元ビジョンセンサ1をロボット3のハンド横に装着し、2次元ビジョンセンサ5をロボット6aのハンド横に装着して、それぞれハンドアイ構成としてもよい。この場合、タクトタイムは増加するものの、バラ積み部品箱2のサイズを3次元ビジョンセンサ1の視野よりも大きくすることができ、また、仮置き台4のサイズを2次元ビジョンセンサ5の視野よりも大きくすることができる。
実施の形態2.
なお、上記実施の形態1(図1〜図5)では、特に言及しなかったが、3次元ビジョンセンサ1および制御装置7と関連するロボット3の動作において、バラ積み部品箱2内の部品の摘み上げ成功率を最良化するために、最適なパラメータを選択するパラメータ最適化手段を設けてもよい。
以下、図1〜図4を参照しながら、パラメータ最適化手段を設けたこの発明の実施の形態2について説明する。
ロボット3の動作において、部品の耳の位置姿勢と、ロボット3のハンド3hの爪3tの位置姿勢とが一致するようにロボット3を動作させた後に、爪3tを閉じて、部品を把持する動作がある。
このとき、ハンド3hの爪3tの開き幅Wをどの程度に設定して部品に近づいていくか、または、位置姿勢を一致させる際に、部品の耳に対して、どれ程度の幅Wで爪3tを掛けるか、部品の耳に対してどのような姿勢で爪3tを掛けるか、部品の耳に対してどのような相対位置姿勢まで爪3tを移動させて停止させるか、さらに、爪3tを閉じて部品を把持した後に、どのような軌道でハンド3hを持ち上げるか、について、幅Wの値、姿勢の値、軌道の形状を決める各数値パラメータについて、調整を行う必要がある。
実験によれば、上記各パラメータの値と、単離成功確率Pとの間には、部品ごとに関係が存在する。単離成功確率Pは、やり直し動作の発生確率と表裏の関係にあるので、タクトタイムの増減に影響があり、単離成功確率Pが低いとタクトタイムが伸びてしまう。
したがって、タクトタイムが短くなるようなパラメータを選択することが重要である。
そこで、この発明の実施の形態2に係る部品供給装置おいては、ロボット3または制御装置7にパラメータ最適化手段が設けられており、パラメータ最適化手段は、制御装置7により起動される。
制御装置7は、ロボット3を動作させる際に、たとえばハンド3hの爪3tの開き幅Wを制御し、開き幅Wは、パラメータの1つとして記憶されている。なお、パラメータの初期値はあらかじめ与えられている。
パラメータ最適化手段が起動されると、ロボット3は、各パラメータを、あらかじめ定めた方法で変化させながら、各パラメータ値の、ある組合わせに対する単離成功確率Pを観測するという実験試行を繰り返し行う。
このとき、与えたパラメータ値と、各パラメータ値で得られた単離成功確率Pとからなる複数の組合わせマップデータは、制御装置7内に記録されていく。
その後、各パラメータの組合わせと単離成功確率Pとの関係を、たとえば回帰式を用いてモデル化する。また、ある程度の回数だけの実験を試行した後、モデルを用いてパラメータの最適化を行う。つまり、単離成功確率Pが最も高くなるパラメータ値ベクトルを読み出すのである。
さらに、試行を行う際に、数学モデルが正確なものとなるように、試行するパラメータの組合わせを最適化してもよい。
なお、試行を始める前に、パラメータの組合わせを最適化するのであれば、直交表またはD最適などの手法を用いればよい。また、試行の最中に動的に最適化を行うことも可能である。これには、公知文献(たとえば、特開2008−36812号公報)に示される実験条件の自動発生方法を使用することができる。
次に、図6を参照しながら、この発明の実施の形態2におけるロボット3の動作時のパラメータの具体例について説明する。
図6において、図6(a)は、単離成功確率Pが低い摘み出し動作を示し、図6(b)は、この発明の実施の形態2による単離成功確率Pが高い摘み出し動作を示し、図6(c)は、図6(b)におけるハンド3hの動作パラメータを示し、図6(d)は、単離成功確率Pを最大化するパラメータ(水平距離d、角度θ)の組合わせ(黒丸参照)を示している。
図6(a)において、ハンド3hは、太線矢印で示すように、バラ積み部品箱2内の1つの部品を把持して、鉛直上方に真っ直ぐ引き上げている。
一方、図6(b)、図6(c)において、部品を把持したハンド3hは、太線矢印で示すように、角度θ方向に水平距離dだけ移動した後に、鉛直上方に引き上げている。
ロボット3の動作において、バラ積み状態の部品から1つの部品のみを引き抜く際に、把持した部品と把持しない部品とが接触しており、把持部品は、把持しない部品を掻き分けながら引き上げられることになる。
つまり、把持部品が引き抜き軌道を移動している期間において、把持点には外力が加わるので、この外力が、把持初期の安定把持状態を破壊して、単離成功確率Pを低下させる要因となっている。
そこで、単離成功確率Pを向上させるためには、1つの部品を把持したときに、図6(a)の軌道(太線矢印)のように、直ちに鉛直上方に真っ直ぐにハンド3hを引き上げるのでなく、図6(b)の軌道のように、角度θ方向に水平距離dだけ移動した後に、鉛直上方に引き上げることが有効となる。
図6(b)の軌道でハンド3hを動作させることにより、外力の影響を小さくすることができ、単離成功確率Pを向上させることが可能となるが、各パラメータは、部品の形状および大きさに依存する。
したがって、この発明の実施の形態2によるパラメータ最適化手段を用いて、角度θと水平距離dとを直交表で組合わせたうえで、パラメータ組合せごとにn回の試行を行い、角度θと水平距離dとの組合せに対する単離成功確率Pのマップデータを取得する。
その後、単離成功確率Pを角度θおよび水平距離dの関数と見なして、単離成功確率Pを計算するための回帰式、たとえば、以下の式(1)において、各係数A、B、C、D、Eを求める。
P=A×θ^2+B×θ+C×d^2+D×d+E ・・・(1)
なお、各係数A、B、C、D、Eを決定するためには、たとえば最小自乗法が用いられる。
回帰式が求まったら、単離成功確率Pを最大化する角度θおよび水平距離dをマップデータから読み出す。
こうして、試行と回帰式係数A、B、C、D、Eの演算とを行い、求まった回帰式から、単離成功確率Pを最大化するパラメータ(角度θ、水平距離d)の読み出しを行うことにより、図6(d)に示すように、角度θおよび水平距離dの選択値が決定する。
以上のように、この発明の実施の形態2(図6)によれば、単離手段を構成するロボット3または制御装置7は、パラメータ最適化手段を備えており、パラメータ最適化手段は、バラ積み部品箱2からの部品の摘み上げ動作を定義するパラメータを自動的に変化させながら、摘み上げ成功率を観測して記録し、摘み上げ成功率が最良となるパラメータを選択する。
これにより、単離成功確率Pを高くしてタクトタイムを短くするような最良のパラメータ(角度θ、水平距離d)を、積み部品箱2からの部品の摘み上げ時に、自動的に選択することができる。
実施の形態3.
なお、上記実施の形態1、2では、各部の機能および特徴について、総括的に言及しなかったが、この発明によるバラ積み部品の整列効果は、以下の第1〜第5の特徴(機能)により実現されている。
まず、第1の特徴は、3次元ビジョンセンサ1および制御装置7からなる距離画像計測手段を備えていることである。
たとえば、従来装置では、部品を把持する位置姿勢を、あらかじめ部品の種類ごとに1つに定めていたのに対し、この発明においては、1つに定めることなく、把持動作の直前に3次元ビジョンセンサ1による計測を行い、得られた計測データに応じて、臨機応変に把持位置と、その後の動作を変更する機能を備えている。
また、この発明においては、3次元ビジョンセンサ1および2次元ビジョンセンサ5および制御装置7による計測を最低2回行うことにより、バラ積み状態からパレット8への整列状態へと、部品を運ぶことができる。
第2の特徴は、3次元ビジョンセンサ1、ロボット3および制御装置7(単離手段)を備えていることである。この単離機能は、バラ積み部品箱2から部品を取り出す際に効を奏する。
従来装置においては、センサ計測値に基づき、対象部品を把持し得る位置姿勢を取得していたが、実際には、バラ積み部品箱2の中には、把持対象となる部品の周りに、把持対象部品以外の他の部品も同時に存在しているので、部品把持時に他の部品とハンド3hとの間で干渉が発生し、周りの部品をはじき飛ばしてしまう可能性がある。
この結果、従来装置においては、部品の位置姿勢が変化してしまうなどして、把持できないことが多く発生する。また、把持対象部品がバラ積み部品箱2内の端部で見つかった場合には、ロボット3が把持対象部品に接近する際に、ハンド3hとバラ積み部品箱2内の仕切り板や壁とが干渉することも多く、把持が成功しない可能性が高くなるという問題が生じる。
これに対し、この発明においては、3次元ビジョンセンサ1およびロボット3(単離手段)により、他の部品などの干渉も含めたうえで、爪3tを掛けて把持できる箇所を探索し、対象部品を把持しに行くので、確実に対象部品を把持できる確率が高くなるという効果がある。
また、ロボット3による単離機能は、仮置き台4上に部品を転がした状態から、パレット8に部品を整列させる過程においても効を奏する。
すなわち、部品の転がった姿勢ごとに、以下のロボット群6がどの位置姿勢の部品をハンドで把持すればよいかという順序シーケンスを有限個用意し、その順序シーケンスのうちのいずれを選択するかを、2次元ビジョンセンサ5の計測値の結果に基づき決定することができる。このように、臨機応変に把持位置姿勢のシーケンスを変更することにより、部品整列の成功確率を確実に向上させることができる。
第3の特徴は、3次元ビジョンセンサ1および制御装置7(距離画像計測手段)によって得られたセンサ計測値の使い方にある。
従来装置では、部品全体の形状モデルと計測データとのマッチングが行われていたが、この発明においては、把持可能な部品の部位(たとえば、部品の耳)を探して、その部位が爪3tの間に入る位置まで爪先を移動させ、ロボット3を動作させて爪先を移動した後、爪3tを閉じる機能を有する。これにより、確実に部品を把持できる確率が高くなるという効果がある。
第4の特徴は、仮置き台4、2次元ビジョンセンサ5、ロボット群6および制御装置7(位置姿勢変更手段)である。
従来装置では、部品を把持する位置姿勢(部品と爪との相対位置姿勢)を、あらかじめ1つのみ設定し、設定した位置姿勢を変更することなく、一旦把持した後は、相対姿勢を固定した状態で最後まで把持し続けて作業が行われていた。
つまり、従来装置では、バラ積み部品箱2から、ロボット3が部品を把持できたとしても、部品を持ち上げていく際に、周りの部品をかき分けながら把持部品を持ち上げていくことになり、意図せずに、把持部品が外力で回転したり位置づれを起したり、爪3tからもぎ取られたりする現象が発生する可能性がある。このような把持姿勢の意図しない変化は、部品整列作業の失敗を意味する。
これに対し、この発明においては、仮置き台4、2次元ビジョンセンサ5、ロボット群6および制御装置7(位置姿勢変更手段)が、3次元ビジョンセンサ1および制御装置7(距離画像計測手段)の計測結果を処理することにより、仮置き台4上の部品と把持姿勢との関係をただ1つに固定することなく、2次元ビジョンセンサ5で計測した値に応じて把持位置を変化させる能力を発揮する。
これにより、この発明によれば、部品整列作業の失敗確率を低くすることができる。
実験では、部品整列作業の成功確率は、部品の種類にもよるが、たとえば9割以上得られることが分かっている。たとえ失敗したとしても、再度、計測および把持の動作を繰り返すことにより、先に示すような成功確率のもとでは、失敗し続ける確率は極端に低くなる。
第5の特徴は、仮置き台4、2次元ビジョンセンサ5、ロボット群6および制御装置7(位置姿勢変更手段)の追加機能として、把持姿勢として最初に把持した姿勢を用い続けるのではなく、作業の途中で把持を解放して把持し直す把持修位置変更機能を有することにある。
この発明の把持位置変更機能により、バラ積み部品箱2から部品を単離する際に、上述した部品の位置姿勢ずれ現象が発生しても、バラ積み部品箱2から部品を取り出してパレット8に整列させることに至る作業全体の成否には、影響を与えることがないという効果を有する。
また、把持位置変更機能によれば、他の方向から把持し直すことにより、作業の最終段階で必要となる部品の位置姿勢の精度が、把持し直しを行うごとに現在精度よりも高くなるので、最終段階で必要な精度が得られるという効果がある。
さらに、位置姿勢変更手段に関して、以下の効果がある。
従来装置のように、1台のロボットのみで部品をハンドリングした場合、部品姿勢反転操作(たとえば、部品の裏表をひっくり返す作業)が成功しないという問題がある。
なぜなら、1台のロボットが一度把持した部品の裏表を反転させる操作において、部品を把持したまま反転させ、反転状態で把持を解放して仮置きし、再度把持する必要があるが、反転状態で把持を解放して仮置きしようとしても、部品の重力方向にハンドが存在するので、仮置き台に置くことができないからである。
上記問題を解決するため、従来装置においては、ロボットとは別の動力制御された専用の部品挟み保持治具などを設計して、設備に装着することにより把持し直しを成功させていたが、生産システムの立上げと機種切替の際に時間とコストを要するという新たな問題も生じている。
これに対し、この発明においては、位置姿勢変更手段として、空中で反転した部品を、ロボット群6(複数のロボット6a〜6c)の相互間で受渡しすることにより、把持し直しを行うように構成されている。
これにより、生産システムの立上げと機種切替の際に、制御装置7内のソフトウェアの変更のみでロボット群6の動作を変更して、部品の反転を実現することができる。
なお、ここでは、部品の姿勢変更操作として、代表的に表裏反転を例にとって説明したが、実際には、表裏反転のみならず、様々な姿勢変更操作を部品に加えるように構成されることになる。
また、その際、最終的にパレット8に部品を整列させるときに、部品の把持位置によっては、パレット8とロボット6cのハンドの爪が干渉して整列させられないので、パレット8に整列させられる位置で部品を把持しておく必要がある。
この最終的な把持位置と部品の姿勢とを制約条件として、仮置き台4に転がった部品の姿勢から出発して、最終的な把持位置および姿勢に至る位置姿勢変更手段として、複数台のロボット6a〜6cを備えている。
図7はこの発明の実施の形態3による姿勢変更操作の原理を示す説明図であり、ロボット群6(3台のロボット6a〜6c)を用いて把持位置変更機能を実現した例を、6次元の空間座標で示している。
図7においては、ロボット6aが把持したときの部品の位置姿勢の実現値(破線)と、ロボット6aによる仮置き台4上の部品の把持位置(破線と実線との接続点)、ロボット6bが把持したときの部品の位置姿勢の実現値(破線)と、ロボット6aからロボット6bへの部品の受渡し位置(破線と実線との接続点)と、ロボット6cが把持したときの部品の位置姿勢の実現値(破線)と、ロボット6bからロボット6cへの部品の受渡し位置(破線と実線との接続点)と、ロボット6cによるパレット8への整列位置(破線と実線との接続点)とが、ロボット群6の側面図とともに示されている。
ロボット6a〜6cは、それぞれ、部品を或る位置(破線と実線との接続点)で把持すると、把持した部品の位置姿勢を変化させることができるが、その実現可能な値は、各ロボット6a〜6cの身体性の制約を受けて、位置姿勢の自由度「6」の空間内に多様体を張ることになる。
図7において、太実線からなる軌跡は、ロボット群6による部品の移動経路に対応し、扇型図形で示す位置姿勢の実現値(破線)は、部品の位置姿勢の多様体を形式的に表現している。
各扇型図形(破線)内の占有空間は、各ロボット6a〜6cの移動可能範囲に対応し、各占有空間には制限が与えられているが、この制限は、部品の表裏反転動作に制限があることを表現している。
なお、位置姿勢の多様体は、部品の把持位置ごとに描かれるべきものである。特に、ロボット群6内の最終段のロボット6cについては、前述のように、把持位置にパレット8への整列時の干渉に起因する制約が生じるので、使用可能な多様体の張る空間(扇型図形の占有空間)を削ることにより、制約を表現することができる。
この場合、ロボット6aからロボット6bへの部品を受渡しと、ロボット6bからロボット6cへの部品の受渡しとが行われることにより、個々のロボット6a〜6cによる部品位置姿勢の実現値(多様体)の制約範囲を超えて、仮置き台4からパレット8への整列に必要な、部品の位置姿勢の変更操作を実現することができる。
図8はこの発明の実施の形態3による3通りの姿勢変更軌道M1〜M3を示す説明図であり、図7に対応した扇型図形(破線)の多様体とともに、6次元の空間座標で示している。
図8においては、仮置き台4上に或る部品を単離して転がした際に3通りの安定的な姿勢を取る場合での、3通りの姿勢変更操作を例にとって、ロボット6aによる仮置き台4上の部品の3通りの把持位置姿勢L1〜L3(破線と実線との接続点)と、ロボット6bによる3通りの姿勢変更軌道M1〜M3とが、関連付けて示されている。
なお、「3通り」ということは、仮置き台4の上で3通りの安定姿勢を取ることを、実験で統計的に確認すればよい。または、2次元ビジョンセンサ5により、転がされた部品の姿勢を計測し、3通りに計測データが分類できることを確認すればよい。
部品の形状によっては、裏表すら不問の場合もあるし、裏表の2通りの場合、図8のように3通りの場合、または複雑な形状の部品であれば、5通り以上の安定姿勢を取り得ることが、実験的に観測されている。
任意数通り(1〜5通り)の安定姿勢の、いずれの場合であっても、仮置き台4上の部品の位置姿勢から、ロボット群6を介して最終的にパレット8に整列させられる位置姿勢に至るまで、把持位置姿勢の動作シーケンスを設計することができる。
したがって、2次元ビジョンセンサ5により仮置き台4上の部品の位置姿勢を計測し、各場合においてどの動作シーケンスを選択したうえで、部品を把持する位置姿勢を算出し、動作シーケンスを制御装置7で行うように構成する。
これにより、バラ積み供給された部品をパレット8に整列供給可能にする効果が得られる。
なお、供給対象部品を最終的にパレット8に整列させる場合について説明したが、パレット8への整列に限定されることはなく、最終段階で部品同士を順次に勘合させて製品を組立てるように構成してもよい。
このように、バラ積み供給された部品を製品に組立てるように構成した部品供給装置においても、同様の効果を奏することは言うまでもない。
また、2次元ビジョンセンサ5による部品の計測を1回のみ行う場合について説明したが、ロボット6a〜6cで部品を把持した状態のいずれか、またはすべてを2次元ビジョンセンサ5(または、3次元ビジョンセンサ1)で計測し、その後のロボット動作を変化させるよう構成してもよい。この場合、把持ミスによるエラーに対応する動作シーケンスを追加することにより、さらに成功率の高い部品供給装置が得られる効果がある。
以上述べてきたように、この発明の動作原理は、部品の把持点を、ある時点におけるセンサ計測値を用いて、動的に変更していくことが、不確定なバラ積み部品の位置姿勢を操作することに有効に寄与する点にある。
実施の形態4.
なお、上記実施の形態1〜3(図1〜図8)では、3次元ビジョンセンサ1を、ロボット3とは別構成としたが、図9のように、3次元ビジョンセンサ1をロボット3のハンド横に装着してハンドアイ構成としてもよい。
図9はこの発明の実施の形態4に係る部品供給装置の全体構成を概略的示す側面図であり、前述(図1参照)と同様のものについては、前述と同一符号を付して、または符号の後に「A」を付して詳述を省略する。
図9において、制御装置7Aは、制御シーケンスプログラムの一部が前述と異なるものとする。
3次元ビジョンセンサ1は、ロボット3のハンド3hの横に取り付けられて、ハンド3hとともにハンドアイ構成を実現している。これにより、3次元ビジョンセンサ1は、ロボット3の運動にともなって撮像位置姿勢を変更可能に構成されている。
図10はこの発明の実施の形態4による3次元ビジョンセンサ1およびロボット3の動作を示すフローチャートであり、前述(図5参照)と同様の処理ステップについては、前述と同一符号を付して詳述を省略する。
また、図11はこの発明の実施の形態4によるロボット3の動作を示す説明図である。
図10において、ステップS71〜S73は、3次元ビジョンセンサ1による計測処理(ステップS12)に対応する。
まず、ロボット3は、自身の待機位置(ステップS11)を出発し、撮像軌道による運動を開始する(ステップS70)。
なお、撮像軌道とは、たとえば、バラ積み部品箱2の上方から、3次元ビジョンセンサ1の撮像素子の撮像方向がバラ積み部品箱2に向くように、左右に移動するような軌道を指す。
または、撮像軌道とは、バラ積み部品箱2を3次元ビジョンセンサ1の視野に入れながら、3次元ビジョンセンサ1が徐々にバラ積み部品箱2に近づいていくような軌道、または、幾何学曲線(螺旋や円弧など)を描きながら、徐々にバラ積み部品箱2に近づいていくような軌道を指す。
次に、ステップS70に続いて、撮像軌道によるロボット3の移動中に、3次元ビジョンセンサ1に対して複数回(ここでは、2回)の撮像指示F1、F2を生成する(ステップS71、S72)。
これにより、3次元ビジョンセンサ1は、複数回(ここでは、2回)の画像撮像G1、G2を行う(ステップS61、S62)。
以下、3次元ビジョンセンサ1は、制御装置7Aと協働して前述と同様の演算処理を行い、ステップS61、S62で得られた複数の画像データに基づき、距離画像を計測する(ステップS1)。
また、3次元ビジョンセンサ1および制御装置7Aは、把持候補の座標を最適化して(ステップS2)、把持座標を確定し、把持候補の座標をロボット3に送出して(ステップS3)、ステップS61に戻る。
ロボット3は、3次元ビジョンセンサ1から把持候補の座標(把持座標)を受信すると(ステップS73)、前述と同様に、得られた把持座標に移動し(ステップS13)、ハンド閉動作(ステップS14)により部品を把持して、仮置き台4の座標に移動し(ステップS15)、ハンド開動作(ステップS16)により仮置き台4上に部品を転がして、ステップS11に戻る。
以下、2次元ビジョンセンサ5、制御装置7Aおよびロボット群6は、前述(図5)と同様の処理動作を行う。
図11は図10内のステップS61、S62、S70〜S73、S13の動作を示している。
図11においては、撮像指示F1におけるハンド3h(F1)および3次元ビジョンセンサ1(F1)の姿勢と、撮像指示F2におけるハンド3h(F2)および3次元ビジョンセンサ1(F2)の姿勢と、把持座標に移動したハンド3hの姿勢とが示されている。
図11において、破線矢印は、把持座標計測時のロボット3の移動シーケンスを示し、2点鎖線矢印は、各移動位置での3次元ビジョンセンサ1(F1)、(F2)による画像撮像G1、G2を示している。
以上のように、この発明の実施の形態4(図9〜図11)によれば、3次元ビジョンセンサ1がロボット3に一体的に設けられてハンドアイ構成を実現しており、3次元ビジョンセンサ1による撮像可能範囲と、ロボット3の動作可能範囲とが、ほぼ一致している。
これにより、前述よりもタクトタイムが増加するものの、3次元ビジョンセンサ1とロボット3とのレイアウト上の制約が緩くなるので、システムのレイアウト設計が容易になるという効果がある。
また、3次元ビジョンセンサ1の撮像時にロボット3の運動を停止しなくてもよいので、動作時間が短くなる効果もある。
また、バラ積み部品箱2のサイズを、3次元ビジョンセンサ1の視野よりも大きく構成することができる効果がある。
実施の形態5.
なお、上記実施の形態4(図9〜図11)では、位置姿勢変更手段として、前述の実施の形態1〜3と同様に、ロボット群6(ロボット6a〜6c)を用いたが、図12のように、1台のロボット6Bを用いてもよい。
図12はこの発明の実施の形態5に係る部品供給装置の全体構成を概略的示す側面図であり、前述(図1、図9参照)と同様のものについては、前述と同一符号を付して、または符号の後に「B」を付して詳述を省略する。
ここでは、仮置き台4からパレット8までの部品の位置姿勢変更手段が、1台のロボット6Bにより構成されている点が前述(図9)と異なる。また、この場合、前述の2次元ビジョンセンサ5が省略されており、制御装置7B内の制御シーケンスプログラムの一部が前述と異なるものとする。
図12において、ロボット3、6Bは、たとえば、一般的な垂直多関節型ロボット、または水平関節ロボット、直動ロボットなどからなる。
ロボット3は、ピンセット状または鉗子状の細い爪3t(図3、図4参照)を有するハンド3hを備えており、ロボット6Bは、平行チャックハンドを備えている。
ロボット3のハンド3hに一体的に取り付けられた3次元ビジョンセンサ1(距離画像計測手段)は、バラ積み部品箱2内の対象部品の距離画像を算出する。
また、前述と同様に、距離画像を解析することにより、積み上がった部品の中から、ロボット3が、摘める部位(図2内の中程に突起状に伸びている箇所、手前側に凹みが生じている箇所)の候補を算出し、最適化することで候補を1つに絞り込む。
また、前述と同様に、複数の候補に評価値をつけて、最も評価値の高い候補を1つ選ぶという最適化演算を行うことにより、部品の候補を最適化する。
その後、ロボット3は、部品を仮置き台4に運び、丁寧に仮置き台4上に置くのではなく、仮置き台4の上方で部品を解放して、放り投げるように仮置き台4に転がす。
これにより、絡まった部品が解けて、1つずつ分離した状態で仮置き台4に転がって静止する確率が高くなる。
また、前述と同様に、3次元ビジョンセンサ1の座標系とロボット3の座標系のキャリブレーション誤差のうち、姿勢誤差が小さくなる領域を使うことにより、単離成功確率を向上させることが可能となる。
ここで、3次元ビジョンセンサ1(距離画像計測手段)は、仮置き台4に転がされた部品を撮像して部品の外形形状を取得する部品外形計測手段としての機能を有し、計測した外形形状から、部品の位置姿勢を算出する。
なお、位置姿勢の算出演算は、前述と同様に、3次元ビジョンセンサ1内、または制御装置7B内で行われる。また、算出演算は、たとえばテンプレートマッチング法により行われ、テンプレート画像はあらかじめ登録されるものとする。
以下、平行チャックハンドを備えたロボット6Bは、仮置き台4から部品を摘み上げ、パレット8に部品を整列配置する。
次に、図12に示したこの発明の実施の形態5に係る部品供給装置の動作について、部品がハンドリングされていく順番にしたがって説明する。
まず、3次元ビジョンセンサ1(距離画像計測手段)は、部品認識を行い、認識された部品の把持可能な部位(耳のように突き出た部分)、または、把持可能な形状と推定できる部分の位置姿勢を、1つに絞り込む。
ロボット3は、距離画像により絞り込まれた位置姿勢と、ハンド3hの爪3tの位置姿勢とが一致するように動作し、爪3tを閉じて部品を把持した後、バラ積み部品箱2から部品を取り出して、仮置き台4の上方で爪3tを開き、部品を仮置き台4上に転がして載置する。
この結果、部品は、仮置き台4上で、何通りかの安定状態のうちの1つの位置姿勢で静止する。
ここでは、説明を簡単にするため、単離状態(部品が絡みや重なりを起すことなく、仮置き台4に置かれた状態)で安定した場合について説明する。
次に、3次元ビジョンセンサ1は、仮置き台4上の部品を撮像し、あらかじめ登録されたテンプレート画像と、距離画像とのパターンマッチング法により、仮置き台4に置かれた部品の位置姿勢を認識する。
これにより、仮置き台4の上面に転がった部品の、3次元的な位置姿勢が計測できたので、続いて、ロボット6Bは、仮置き台4上の部品を把持する。
このとき、部品の向きを変える必要がある場合には、ロボット6Bは、一旦仮置き台4上で部品を離して、再度、違う向きから部品を把持し直す。
制御装置7Bは、3次元ビジョンセンサ1(距離画像計測手段)、ロボット3(単離手段)およびロボット6B(位置姿勢変更手段)に対してシーケンス制御指令を出力し、上記一連の動作を繰り返し実行させる。
なお、ここでは、3次元ビジョンセンサ1が、部品外形計測手段の機能を兼ねる構成としたが、部品外形計測手段として、前述の2次元ビジョンセンサ5を備えていてもよい。
以上のように、この発明の実施の形態5(図12)によれば、距離画像を計測する3次元ビジョンセンサ1(距離画像計測手段)と、バラ積み部品箱2と、バラ積み部品箱2から部品を摘み出すロボット3(単離手段)と、1つ以上の部品を転がす仮置き台4と、部品の外形を計測する部品外形計測手段(3次元ビジョンセンサ1)と、仮置き台4上に転がった部品を摘み上げ、部品の位置姿勢を変更しながら、あらかじめ指定される位置姿勢に対して一定の誤差以下の位置姿勢に変更するロボット6B(位置姿勢変更手段)と、を備えている。
ロボット3(第1のロボット)は、バラ積み部品箱2から部品を把持して摘み出し、ロボット6B(第2のロボット)は、ロボット3が仮置き台4上に転がした部品を摘み上げて、部品の位置姿勢を変更する。
ロボット3が把持して転がした1つ以上の部品を載置する仮置き台4は、単離手段の一部機能を備えている。
ロボット3と一体の3次元ビジョンセンサ1は、仮置き台4上の部品の外形を計測する部品外形計測手段としても機能し、位置姿勢変更手段の一部機能をも備えている。
これにより、前述と同様に、部品ごとに専用ハンドを必要とせず、ハンドのコスト削減、ハンド設計時間の短縮、ハンド仮置き場所の削減を実現することができる。
また、ソフトウェアの変更のみで生産機種の切替が可能となり、生産機種切替の迅速化を実現することができる。
さらに、ロボット3は、3次元ビジョンセンサ1が一体的に設けられたハンドアイ構成を有するので、タクトタイムが増加するものの、バラ積み部品箱2および仮置き台4のサイズを3次元ビジョンセンサ1の視野よりも大きく構成することができる。
実施の形態6.
なお、上記実施の形態5(図12)では、ロボット3のハンド3hのみに3次元ビジョンセンサ1(距離画像計測手段)を取り付けたが、図13のように、ロボット6Bのハンド6hにも3次元ビジョンセンサ1C(距離画像計測手段)を取り付けて、仮置き台4を省略してもよい。
図13はこの発明の実施の形態6に係る部品供給装置の全体構成を概略的示す側面図であり、前述(図12参照)と同様のものについては、前述と同一符号を付して、または符号の後に「C」を付して詳述を省略する。
この場合、仮置き台4が除去された点と、ロボット6Bに3次元ビジョンセンサ1Cが追加された点と、が前述と異なる。
図13において、3次元ビジョンセンサ1、1Cは、前述と同様に、対象物の距離画像(図2)を算出する。
すなわち、ロボット3に取り付けられた3次元ビジョンセンサ1は、距離画像の解析結果により、積み上がった部品の中から、ロボット3が、摘める部位の候補を算出し、最適化することで候補を1つに絞り込む。
たとえば、前述の図3または図4に示すようなハンド3hであれば、バラ積み部品の山に対して、部品と接触せずに、ハンド3hの2本の爪先を同時に差し込みたいのであるから、爪3tの開き幅W分の距離を隔てた各爪を内包する最小の大きさの2本の円柱(または角柱)として、数値モデル化しておく。
次に、最新の距離画像が得られているとして、最新の距離画像の中から、上記数値化した円柱が入る空間であって、かつ、空間の間に部品が存在する場所を探索する。
図2の例であれば、中程に突起状に伸びている箇所と、手前側に凹みが生じている箇所との2カ所が発見されることになる。
または、ロボットハンドにて把持できる小突起部位の形状、たとえば、開いたハンド3hの爪3tの間に収まる角柱、円柱、平板、円盤を、距離画像に対して、テンプレートマッチングを行い、複数の候補を探索および抽出する。
次に、複数の候補に評価値をつけて、最も評価値の高い候補を1つ選ぶという最適化演算を行う。最適化の方法として、2本の円柱に挟まれた突起物のうち、または発見された微少な角柱のうち、最も高いZ軸値を評価値として採用し、その評価値が最大となる候補を選択する。これは、バラ積みされた部品のうち、最も上方に積まれている部品を選ぶことに相当する。つまり、これは、最大の評価値を選ぶことで部品の候補を最適化したことになる。図2の例であれば、中央の突起箇所が最適化された候補となる。
上記最適化候補に対して、ロボット3のハンド3hの爪3tをどのように掛ければ部品を把持できるかは、ロボット3の位置姿勢を、ロボット座標系におけるXYZ値および各軸周りの回転角として、先の候補の位置姿勢に対する相対位置姿勢を加えることにより、簡単な計算で得ることができる。
なお、距離画像に対して、ハンド3hで摘める大きさの、微少な角柱状の部位をテンプレートマッチングして候補点を抽出して、そのZ軸高さで最適化することによっても、把持位置姿勢を算出可能であり、同様の効果が得られる。
ロボット3は、バラ積み部品箱2の中にバラ積みされた部品を、上記ロボット座標算出方法によって、ハンド3hの爪3tが開いた状態にしたうえで、その時点で得られている把持位置に移動して、ハンドを閉じる。
続いて、ロボット3は、ハンド3hをZ軸方向に移動させて、バラ積み部品箱2から把持できた部品を引き上げ、その後、摘み上げた部品をロボット6Bに渡す。
このとき、ロボット6Bは、ロボット3が把持した部品を、ハンド6hに設けられた3次元ビジョンセンサ1C(距離画像計測手段)で計測し、部品の位置姿勢を認識したうえで把持位置を判定し、部品に接近して、部品を把持する。
ただし、ロボット3は、バラ積み部品箱2からの部品の取り出し動作に失敗することもあり、または、複数の部品が絡まって、ひとかたまりの状態で摘み出されることもあり得る。
上記のような単離失敗状態は、ロボット3とロボット6Bとの間の部品受渡し動作の際に、ロボット6Bに取り付けられた3次元ビジョンセンサ1Cの撮像結果により、判別することができる。
上述のように、単離状態(ただ1つの部品が絡まっていないという好ましい状態)に持ち込めず、部品の取り出しに失敗していた場合には、ロボット3は、現在把持している部品をラインアウトさせ、摘み出し操作を再度行う。
これにより、バラ積み部品箱2内の部品の単離が成功した時点で、ロボット6Bは、平行チャックハンドからなるハンド6hにより、ロボット3から受渡された部品を把持してパレット8に整列配置し、一連の動作を完了する。
ここで、この発明の実施の形態6(図13)による装置全体の動作について、部品がハンドリングされていく順番にしたがって説明する。
まず、ロボット3の3次元ビジョンセンサ1(距離画像計測手段)は、バラ積み部品箱2内の部品を認識し、認識された部品の、把持可能な部位(たとえば、耳のように突き出た部分、または、そのような形状になっていると推定できる部分)の位置姿勢を、1つに絞り込む。
続いて、制御装置7Cの制御下で、把持可能な部位の位置姿勢とロボット3のハンド3hの爪3tの位置姿勢とが一致するようにロボット3を動作させる。
その後、ロボット3は、爪3tを閉じて部品を把持したうえで、バラ積み部品箱2から部品を取り出して、ロボット6Bの近くに差し出す。
次に、ロボット6Bの3次元ビジョンセンサ1C(距離画像計測手段)は、差し出された部品の位置姿勢を認識する。
このとき、ロボット6Bは、部品の向きを変える必要がある場合には、ハンド6hを回転動作させながら部品を把持し、さらに複雑に姿勢を変更する必要がある場合には、一旦ロボット3に部品を差し出し返して、ロボット3に部品を引き取らせた後、違う向きから部品を再度把持し直す。
制御装置7Cは、ロボット3(単離手段)、ロボット6B(位置姿勢変更手段)および3次元ビジョンセンサ1、1C(距離画像計測手段)に対してシーケンス制御指令を出力し、上記一連の動作を繰り返し実行させる。
以上のように、この発明の実施の形態6(図13)によれば、距離画像を計測する3次元ビジョンセンサ1(距離画像計測手段)と、バラ積み部品箱2と、バラ積み部品箱2から部品を摘み出すロボット3(単離手段)と、ロボット3が把持した部品の外形計測手段として機能する3次元ビジョンセンサ1C(距離画像計測手段)と、ロボット3が把持した部品を把持し直して、部品の位置姿勢を変更しながら、あらかじめ指定される位置姿勢に対して一定の誤差以下の位置姿勢に変更するロボット6B(位置姿勢変更手段)と、を備えている。
これにより、前述と同様に、部品ごとに専用ハンドを必要とせず、ハンドのコスト削減、ハンド設計時間の短縮、ハンド仮置き場所の削減を実現することができる。
また、ソフトウェアの変更のみで生産機種の切替が可能となり、生産機種切替の迅速化を実現することができる。
さらに、ロボット3、6Bは、それぞれに一体的に設けられた3次元ビジョンセンサ1、1Cを備え、ハンドアイ構成を有するので、タクトタイムが増加するものの、バラ積み部品箱2およびパレット8のサイズを3次元ビジョンセンサ1、1Cの視野よりも大きく構成することができる。
実施の形態7.
なお、上記実施の形態5、6(図12、図13)では、ロボット3との間で部品の受渡しを行うロボット6Bを設けたが、図14のように、3次元ビジョンセンサ1を有するロボット3Dが位置姿勢変更手段の機能を兼ねる構成とし、前述のロボット6Bを省略してもよい。
図13はこの発明の実施の形態7に係る部品供給装置の全体構成を概略的示す側面図であり、前述(図12参照)と同様のものについては、前述と同一符号を付して、または符号の後に「D」を付して詳述を省略する。
この場合、ロボット6Bが除去された点のみが前述と異なり、前述と同様に、ロボット3Dは、図3または図4のようなハンド3hを有するものとする。
図14において、まず、制御装置7Dと協働する3次元ビジョンセンサ1は、前述と同様に、バラ積み部品箱2の距離画像(図2)を取得し、テンプレートマッチングを行い、把持可能な部位の最適化候補に対して、ロボット3Dのハンド3hの爪3tを掛けることが可能なように、ロボット3Dを動作させる。
ロボット3D(単離手段)は、バラ積み部品箱2の中に多数入っている部品の中から、1つの部品のみを取り出す。このとき、単離成功確率を向上させるために、3次元ビジョンセンサ1の座標系とロボット3Dの座標系とのキャリブレーション誤差のうち、姿勢誤差が小さくなる領域を使うようにする。
ロボット3Dは、バラ積み部品箱2から把持した部品を仮置き台4に運び、仮置き台4の上方で、放り投げるように部品を解放する。
このとき、ロボット3Dがバラ積み部品箱2からの部品の取り出しに失敗することもあり、複数の部品が絡まって、ひとかたまりの状態で仮置き台4に転がることもあり、または、複数の部品が絡まらずに、仮置き台4に転がることもある。
上記のような状態は、ロボット3Dが把持した部品を解放した直後に、仮置き台4を3次元ビジョンセンサ1で撮像することにより、判別することができる。
ロボット3Dが部品の取り出しに失敗した場合には、摘み出し操作を再度行う。
また、複数の部品が絡まって、ひとかたまりの状態で仮置き台4に転がった場合には、仮置き台4の天板を反転させる手段などで、部品をラインアウトさせる。
さらに、複数の部品が絡まらずに仮置き台4に転がった場合には、ロボット3Dが、部品を1つずつハンドリングするか、1つのみをハンドリングした後、仮置き台4の天板を反転させる手段などで、残りの部品をラインアウトさせる。
このとき、制御装置7Dと協働する3次元ビジョンセンサ1(距離画像計測手段)は、仮置き台4に転がされた部品を撮像して外形形状を取得する部品外形計測手段としての機能を有し、計測された外形形状から、テンプレートマッチング法により、仮置き台4上の部品の位置姿勢を算出する。
以下、ロボット3Dは、仮置き台4から部品を摘み上げて、パレット8上に整列配置する。
ここで、この発明の実施の形態7(図14)による装置全体の動作について、部品がハンドリングされていく順番にしたがって説明する。
まず、3次元ビジョンセンサ1(距離画像計測手段)は、バラ積み部品箱2内の部品の認識を行い、把持可能な部位を1つに絞り込み、把持可能な部位の位置姿勢と、ロボット3Dのハンド3hの爪3t(図3、図4参照)の位置姿勢とが一致するようにロボット3Dを動作させる。
続いて、ロボット3Dは、爪3tを閉じて、部品を把持したうえで、バラ積み部品箱2から部品を取り出して、仮置き台4の上方で爪を開き、部品を仮置き台4に転がす。この結果、部品は何通りかの安定状態のうちの1つで、仮置き台4の上で静止する。
ここでは、説明を簡単にするため、単離状態で、部品が絡みや重なりを起すことなく仮置き台4に置かれた場合について説明する。
次に、3次元ビジョンセンサ1は、仮置き台4上の撮像画像と、あらかじめ登録されたテンプレート画像とのパターンマッチング法により、仮置き台4に置かれた部品の位置姿勢を認識する。
これにより、仮置き台4の上面に転がった部品の、3次元的な位置姿勢が計測できたので、ロボット3Dは、仮置き台4上の部品を把持する。このとき、部品の向きを変える必要のある場合は、一旦仮置き台4上で部品を離して、再度、違う向きから把持し直す。
制御装置7Dは、ロボット3D(単離手段および位置姿勢変更手段)と、3次元ビジョンセンサ1(距離画像計測手段)とに対してシーケンス制御指令を出力し、上記一連の動作を繰り返し実行させる。
以上のように、この発明の実施の形態7(図14)によれば、バラ積みされた部品を収納するバラ積み部品箱2と、バラ積み部品箱内の部品の距離画像を計測する3次元ビジョンセンサ1(距離画像計測手段)と、距離画像に基づきバラ積み部品箱2から部品を摘み出すロボット3D(単離手段)と、ロボット3Dにより単離された部品の位置姿勢を、必要に応じて部品の位置姿勢を変更しながら、あらかじめ指定される最終位置姿勢に対して一定の誤差以下の位置姿勢に変更する位置姿勢変更手段(仮置き台4、ロボット3D、3次元ビジョンセンサ1、制御装置7D)と、を備えている。
単離手段および位置姿勢変更手段は、共通に機能する1台のロボット3Dを有する。
3次元ビジョンセンサ1(距離画像計測手段)は、ロボット3Dに一体的に設けられている。
これにより、前述と同様に、部品ごとに専用ハンドを必要とせず、ハンドのコスト削減、ハンド設計時間の短縮、ハンド仮置き場所の削減を実現することができる。
また、ソフトウェアの変更のみで生産機種の切替ができ、生産機種切替の迅速化を実現することができる。
実施の形態8.
なお、前述の実施の形態1では、ロボット3が部品をつまむために、バラ積み部品箱2に近づいていく動作において、ロボット3のハンド3hの姿勢を表わす座標軸のZ軸を、世界座標系の鉛直下向き、または重力加速度の向きに固定したが、ハンド3hの向きは、Z軸回りに回転しさえすればよい。
つまり、実施の形態1では、ロボット3として垂直関節型のロボットを用いていたが、この発明の実施の形態8では、ロボット3として、スカラ型ロボット(水平多関節ロボット)または直交型ロボットを用いることとする。
この発明の実施の形態8によれば、スカラ型ロボットや直交型ロボット(図示せず)を用いることにより、垂直型ロボットに比べてモータ数が少なくなるので、システムコストを低減させることができる。
実施の形態9.
また、上記実施の形態1〜8では、具体的に言及しなかったが、バラ積み状態の部品のうち、把持可能な部品を、まず3次元ビジョンセンサで計測する際に、図18のように、複数の3次元ビジョンセンサ1Dを用いてもよい。
以下、図15〜図18を参照しながら、複数の3次元ビジョンセンサ1Dを用いたこの発明の実施の形態9について説明する。
図15はこの発明の実施の形態9において把持対象となる部品10の立体形状を示す斜視図であり、図16および図17はこの発明の実施の形態9による解決課題を示す説明図である。
図16において、図16(a)はバラ積みされた部品10の側面図、図16(b)は同じ部品10の正面図である。図17において、図17(a)は重ね部品10a、10bの側面図、図17(b)は遮光状態の部品10c、10dの側面図である。
また、図18はこの発明の実施の形態9による複数の3次元ビジョンセンサ1Dを示す側面図であり、図17と同じ状態の部品10a〜10dに対応させて示している。
まず、図15に示す直方体形状の部品10をバラ積み部品箱2内でバラ積みした際に、3次元ビジョンセンサにより突起部分(図2参照)が観測された場合の把持動作について説明する。
図16のように傾斜した姿勢の部品10に対し、たとえば図16(a)に示した向きでハンド3hを移動させて、爪3tを閉じたとしても、爪3tが閉じる最中に部品10が逃げてしまい、部品10を把持できる確率は低い。
この場合、部品10に対して、図16(b)に示すように、正面方向の向きで爪3tを閉じるべきであり、これにより、部品10を把持できる確率が高まる。
したがって、図16(a)のように、部品10の突起物(角部)の側面が斜めになっている方向から把持するのではなく、図16(b)のように、側面が垂直に切り立っている方向を探して選択するように、認識アルゴリズムを構成すればよい。
しかしながら、図17に示すように、1つの3次元ビジョンセンサ1を用いて、図17(a)に示すように重ね状態の部品10a、10bを観測した場合、重なった部品10aが3次元ビジョンセンサ1の視野を遮っている。この場合には、遮られた視線の範囲内の距離データ(距離画像)が得られていない。
図17(a)の状態で、距離データが取得されない空白領域は、部品10aが切り立っているものと見なし、把持可能な部位であると判定してハンド3hの爪3tを降ろしていくと、陰にあって見えていない部品10bと爪3tが衝突し、最悪の場合には、爪3tが破損する可能性もある。また、直ちに破損しないまでも、摩耗や金属疲労が進んでいき、いずれ破損や、把持確率の低下に繋がる可能性がある。
これに対し、距離データが取得されない空白領域を、別の部品10bが潜んでいるものと見なした場合には、たとえば図17(b)のように、他の部品10cに遮られているものの、容易に把持できる切り立った部位を有するの部品10dを見逃すことになる。
そこで、この発明の実施の形態9においては、図18に示すように、複数(たとえば、3つ)の3次元ビジョンセンサ1Dを用いる。
各3次元ビジョンセンサ1Dで計測された距離データは、制御装置7に転送され、1つの空間内のデータとして合成される。または、1つの3次元ビジョンセンサ1Dが計測した距離データに対し、他の3次元ビジョンセンサ1Dが計測した距離データが転送されて合成される。
これにより、各3次元ビジョンセンサ1Dの空白領域が互いに補完され、図2のように合成された距離データが得られる。
以下、前述の実施の形態1と同様に、突起している部位を探す動作に続いて、たとえば部品10dの把持動作が行われる。このことは、他の実施の形態2、3、5、7においても、同様に適用可能である。
なお、複数の3次元ビジョンセンサ1Dの座標系、および、ロボット3の座標系は、あらかじめ校正されているものとする。
また、3次元ビジョンセンサ1Dに代えて、前述の実施の形態4、6のようにロボット3に取り付けた状態にして、複数箇所に移動させつつ静止させて、それぞれの静止位置で複数の距離データを計測してもよい。ただし、全体の計測時間は延長されることになる。
この発明の実施の形態9(図18)によれば、複数の距離データを取得することにより、バラ積み部品箱2内の部品10のうち、ロボット3が把持できる確率が高い部品と、把持できる確率が低い部品とを区別することができる。
したがって、部品10dを把持する成功率が高まり、把持のやり直し回数が減るので、システム全体のタクトタイムが高まる効果が得られる。また、部品10bと爪3tとの衝突によるシステム故障を回避する効果も奏する。
以上のように、この発明の実施の形態1〜9によれば、3次元ビジョンセンサ1を用いることにより、バラ積み供給される部品を整列させる(または、組立てる)装置が得られ、自動組立装置、自動組立ロボットなどに対して必ず必要な部品供給工程を革新することができる。
特に、部品の位置姿勢変更手段をロボットで構成した際に、ロボットの汎用性については、制御装置内のソフトウェア変更およびロボットのハードウェア変更により対応可能である。また、ハードウェア変更については、基本的にはロボットハンドの大きさの変更程度のエンジニアリングを行い、その後にハードウェアを使い回して様々な部品の取扱いに対応することができ、生産機種切替の迅速化、機種切替の低コスト化に寄与する。
1、1C、1D 3次元ビジョンセンサ、2 バラ積み部品箱、3、3D、6a、6b、6c、6B ロボット、3h、6h ハンド、3t 爪、4 仮置き台、5 2次元ビジョンセンサ、6 ロボット群、7、7A、7B、7C、7D 制御装置、8 パレット、10 部品。
この発明に係る部品供給装置は、バラ積みされた部品を収納するバラ積み部品箱と、バラ積み部品箱から部品を摘み出す平行チャックハンドを備えた第1のロボットと、バラ積み部品箱内の部品の距離画像を計測し、平行チャックハンドで把持可能な小突起部位の形状について距離画像に対してテンプレートマッチングを行って、小突起部位の形状の複数の候補を探索および抽出し、抽出された小突起部位の形状の複数の候補に評価値をつけて、最も評価値の高い1つの候補のみを選択する最適化演算により部品における把持可能な部位を1つに絞り込む3次元ビジョンセンサと、第1のロボットが、把持可能な部位を把持することにより,バラ積み部品箱から部品を摘み出した後、把持した部品を開放して載置する仮置き台と、仮置き台上の部品の位置姿勢を認識する2次元ビジョンセンサと、部品を把持する平行チャックハンドを備えた第2のロボット複数台と、部品を整列して保持するパレットと、を備え、第2のロボットのうちの1台が、仮置き台上に載置された部品を、2次元ビジョンセンサの計測結果をもとに平行チャックハンドを用いて摘み上げ、第2のロボットのうちの1台および他の第2のロボットとの間で、部品を受け渡しして部品の位置姿勢を変更し、パレットに挿入するものである。

Claims (11)

  1. バラ積みされた部品を収納するバラ積み部品箱と、
    前記バラ積み部品箱内の部品の距離画像を計測する距離画像計測手段と、
    前記距離画像に基づき前記バラ積み部品箱から部品を摘み出す単離手段と、
    前記単離手段により単離された部品の位置姿勢を、あらかじめ指定される最終位置姿勢に対して一定の誤差以下の位置姿勢に変更する位置姿勢変更手段と、
    を備えたことを特徴とする部品供給装置。
  2. 前記単離手段および前記位置姿勢変更手段は、共通に機能する1台のロボットを備えたことを特徴とする請求項1に記載の部品供給装置。
  3. 前記距離画像計測手段は、3次元ビジョンセンサを備え、
    前記3次元ビジョンセンサは、前記1台のロボットに一体的に設けられたことを特徴とする請求項2に記載の部品供給装置。
  4. 前記単離手段は、前記バラ積み部品箱から部品を把持して摘み出す第1のロボットを備え、
    前記位置姿勢変更手段は、前記第1のロボットから部品を受け取って、前記部品の位置姿勢を変更する第2のロボットを備えた
    ことを特徴とする請求項1に記載の部品供給装置。
  5. 前記第1および第2のロボットは、それぞれに一体的に設けられた3次元ビジョンセンサを備えたことを特徴とする請求項4に記載の部品供給装置。
  6. 前記単離手段は、前記第1のロボットが把持して転がされた1つ以上の部品が載置される仮置き台を備え、
    前記位置姿勢変更手段は、前記仮置き台上の部品の外形を計測する部品外形計測手段を備え、
    前記第2のロボットは、前記仮置き台上に転がった部品を摘み上げて、前記部品の位置姿勢を変更することを特徴とする請求項4に記載の部品供給装置。
  7. 前記距離画像計測手段は、3次元ビジョンセンサを備え、
    前記部品外形計測手段は、2次元ビジョンセンサを備え、
    前記第2のロボットは、複数のロボットからなり、前記仮置き台から摘み上げた部品を前記複数のロボットの相互間で受渡ししながら、前記部品の位置姿勢を変更し、
    前記第1および第2のロボット、ならびに、前記3次元ビジョンセンサおよび前記2次元ビジョンセンサの動作および動作タイミングを制御する制御装置を、さらに備えたことを特徴とする請求項6に記載の部品供給装置。
  8. 前記3次元ビジョンセンサは、前記第1のロボットに一体的に設けられたことを特徴とする請求項7に記載の部品供給装置。
  9. 前記距離画像計測手段は、複数の3次元ビジョンセンサを備え、
    前記制御装置は、前記複数の3次元ビジョンセンサにより計測された複数の距離画像を合成したデータを用いて、前記第1および第2のロボット、ならびに、前記3次元ビジョンセンサおよび前記2次元ビジョンセンサの動作および動作タイミングを制御することを特徴とする請求項7に記載の部品供給装置。
  10. 前記第1のロボットは、複数の静止位置での前記3次元ビジョンセンサによる複数の距離画像を取得し、
    前記制御装置は、前記複数の距離画像を合成したデータを用いて、前記第1および第2のロボット、ならびに、前記3次元ビジョンセンサおよび前記2次元ビジョンセンサの動作および動作タイミングを制御することを特徴とする請求項8に記載の部品供給装置。
  11. 前記単離手段は、パラメータ最適化手段を備え、
    前記パラメータ最適化手段は、前記バラ積み部品箱からの部品の摘み上げ動作を定義するパラメータを自動的に変化させながら、摘み上げ成功率を観測して記録し、摘み上げ成功率が最良となるパラメータを選択することを特徴とする請求項1から請求項10までのいずれか1項に記載の部品供給装置。
JP2013522797A 2011-06-29 2012-06-20 部品供給装置 Active JP5837065B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013522797A JP5837065B2 (ja) 2011-06-29 2012-06-20 部品供給装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011144073 2011-06-29
JP2011144073 2011-06-29
JP2013522797A JP5837065B2 (ja) 2011-06-29 2012-06-20 部品供給装置
PCT/JP2012/065766 WO2013002099A1 (ja) 2011-06-29 2012-06-20 部品供給装置

Publications (2)

Publication Number Publication Date
JPWO2013002099A1 true JPWO2013002099A1 (ja) 2015-02-23
JP5837065B2 JP5837065B2 (ja) 2015-12-24

Family

ID=47423996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013522797A Active JP5837065B2 (ja) 2011-06-29 2012-06-20 部品供給装置

Country Status (6)

Country Link
US (1) US9469035B2 (ja)
JP (1) JP5837065B2 (ja)
KR (1) KR101634463B1 (ja)
CN (1) CN103687702B (ja)
DE (1) DE112012002677B4 (ja)
WO (1) WO2013002099A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US11122721B2 (en) 2016-09-22 2021-09-14 Fuji Corporation Component supply system

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9605952B2 (en) 2012-03-08 2017-03-28 Quality Manufacturing Inc. Touch sensitive robotic gripper
DE102012013030A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatischen Entnehmen von in einem Behälter angeordneten Werkstücken
DE102012013022A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zur automatisierten Handhabung von Werkstücken
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP6057862B2 (ja) * 2013-08-29 2017-01-11 三菱電機株式会社 部品供給装置および部品供給装置のプログラム生成方法
JP5788460B2 (ja) 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
WO2015097904A1 (ja) * 2013-12-27 2015-07-02 富士機械製造株式会社 部品供給システム
WO2015186188A1 (ja) * 2014-06-03 2015-12-10 富士機械製造株式会社 ばら部品供給装置および部品実装装置
DE102014008444A1 (de) * 2014-06-06 2015-12-17 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
WO2016122840A1 (en) 2015-01-26 2016-08-04 Duke University Specialized robot motion planning hardware and methods of making and using same
WO2016129069A1 (ja) * 2015-02-12 2016-08-18 富士機械製造株式会社 部品供給装置
JP6117853B2 (ja) * 2015-05-13 2017-04-19 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
KR102484200B1 (ko) * 2015-07-13 2023-01-03 현대모비스 주식회사 부품 공급 장치 및 그 제어방법
JP2017074651A (ja) * 2015-10-16 2017-04-20 株式会社特電 ワークの自動供給方法
JP6219901B2 (ja) * 2015-10-28 2017-10-25 ファナック株式会社 ワークの向きを調整可能な仮置き装置
JP2017100142A (ja) * 2015-11-30 2017-06-08 株式会社特電 自動ナット溶接装置
JP6516663B2 (ja) * 2015-12-10 2019-05-22 学校法人立命館 機械システムの生産性能評価装置及び機械システムの生産性能評価方法
DE102016000611A1 (de) * 2016-01-23 2017-07-27 Sk-Technologies Ug (Haftungsbeschränkt) Anordnung und Verfahren für die automatisierte Erfassung und Entnahme von Werkstücken aus ungeordneter Ansammlung
JP2017151011A (ja) * 2016-02-26 2017-08-31 セイコーエプソン株式会社 電子部品搬送装置および電子部品検査装置
CN105668206B (zh) * 2016-03-23 2019-02-12 深圳市华星光电技术有限公司 玻璃基板的分流方法、分流装置及加工系统
JP5965561B1 (ja) * 2016-04-15 2016-08-10 宮川工機株式会社 金物供給装置
JP6548816B2 (ja) * 2016-04-22 2019-07-24 三菱電機株式会社 物体操作装置及び物体操作方法
US11429105B2 (en) 2016-06-10 2022-08-30 Duke University Motion planning for autonomous vehicles and reconfigurable motion planning processors
DE102017000527A1 (de) 2017-01-20 2018-07-26 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
DE102017000524A1 (de) * 2017-01-20 2018-07-26 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
CA3051434A1 (en) * 2017-02-02 2018-08-09 Walmart Apollo, Llc Conveyor and logic systems to return, balance, and buffer processed or empty totes
JP6453922B2 (ja) 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
CN110382173B (zh) * 2017-03-10 2023-05-09 Abb瑞士股份有限公司 用于标识物体的方法和设备
DE202017101643U1 (de) * 2017-03-21 2018-05-08 Kuka Systems Gmbh Fertigungsstation
US11003177B2 (en) * 2017-03-24 2021-05-11 Mitsubishi Electric Corporation Apparatus and method for generating robot program
US10537990B2 (en) * 2017-03-30 2020-01-21 Dematic Corp. Split robotic article pick and put system
JP6880457B2 (ja) 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
KR102109697B1 (ko) * 2017-12-12 2020-05-13 한국로봇융합연구원 시각 정보와 촉각 정보를 함께 이용하여 객체를 파지하는 로봇 핸드 및 그 제어방법
KR102109696B1 (ko) * 2017-12-12 2020-05-13 한국로봇융합연구원 정보가 없는 객체를 파지하는 로봇 핸드 및 그 제어방법
KR102067878B1 (ko) * 2017-12-12 2020-01-17 한국로봇융합연구원 재파지를 이용하여 테스크를 수행하는 로봇 핸드 및 그 제어방법
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
WO2019139815A1 (en) 2018-01-12 2019-07-18 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
US11738457B2 (en) 2018-03-21 2023-08-29 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
WO2019180953A1 (ja) * 2018-03-23 2019-09-26 株式会社Fuji 部品装着装置
CN112218748B (zh) 2018-06-14 2023-09-05 雅马哈发动机株式会社 机器人系统
CN109086736A (zh) * 2018-08-17 2018-12-25 深圳蓝胖子机器人有限公司 目标获取方法、设备和计算机可读存储介质
JP7031540B2 (ja) * 2018-09-07 2022-03-08 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
KR102561103B1 (ko) * 2018-11-16 2023-07-31 삼성전자주식회사 로봇 보정 시스템 및 그것의 보정 방법
JP7247572B2 (ja) * 2018-12-17 2023-03-29 京セラドキュメントソリューションズ株式会社 制御装置
CN113905855B (zh) 2019-04-17 2023-08-25 实时机器人有限公司 运动规划图生成用户界面、系统、方法和规则
EP3738725B1 (en) * 2019-05-15 2022-02-16 Omron Corporation Measurement system, measurement device, measurement method, and measurement program
CN114206698B (zh) 2019-06-03 2024-07-02 实时机器人有限公司 在具有动态障碍物的环境中促进运动规划的装置、方法和物品
US11014295B2 (en) * 2019-07-02 2021-05-25 Saudi Arabian Oil Company Fabrication of composite parts by additive manufacturing and microstructure topology optimization
US11472122B2 (en) 2019-07-02 2022-10-18 Saudi Arabian Oil Company Fabrication of composite parts by additive manufacturing and microstructure topology customization
WO2021041223A1 (en) 2019-08-23 2021-03-04 Realtime Robotics, Inc. Motion planning for robots to optimize velocity while maintaining limits on acceleration and jerk
US20220241982A1 (en) * 2019-09-18 2022-08-04 Fuji Corporation Work robot and work system
DE102019129417B4 (de) * 2019-10-31 2022-03-24 Sick Ag Verfahren zum automatischen Handhaben von Objekten
CN114845844B (zh) * 2019-12-17 2023-05-30 三菱电机株式会社 信息处理装置、工件识别装置及工件取出装置
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
WO2021149429A1 (ja) * 2020-01-23 2021-07-29 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP7454132B2 (ja) * 2020-01-23 2024-03-22 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
KR102350638B1 (ko) * 2020-08-26 2022-01-17 주식회사 이엠에스 인공지능형 로봇 시스템
DE102020212768B4 (de) 2020-10-09 2022-05-05 Ifc Intelligent Feeding Components Gmbh Schüttgut-Zuführsystem
CN112620908A (zh) * 2020-12-28 2021-04-09 武汉智艾德科技有限公司 一种基于机器人与视觉匹配的自动凸焊系统及方法
CN112847375B (zh) * 2021-01-22 2022-04-26 熵智科技(深圳)有限公司 一种工件抓取方法、装置、计算机设备及存储介质
US12064886B1 (en) * 2021-03-23 2024-08-20 Amazon Technologies, Inc. Systems and methods for scalable perception and purposeful robotic picking of items from a collection
CN117381802B (zh) * 2023-12-12 2024-03-05 吉林省吉邦自动化科技有限公司 一种分布式多机器人协同控制方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06127698A (ja) * 1992-10-20 1994-05-10 Omron Corp 部品供給装置
JPH08112788A (ja) * 1994-10-14 1996-05-07 Canon Inc 部品挿入装置及び部品挿入方法
JP2004230513A (ja) * 2003-01-30 2004-08-19 Fanuc Ltd ワーク取出し装置
JP2006035346A (ja) * 2004-07-23 2006-02-09 Toyota Motor Corp 部品組付け方法
JP2007245283A (ja) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2008178930A (ja) * 2007-01-23 2008-08-07 Fuji Electric Holdings Co Ltd ロボットのワーク把持方法及びロボット
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
JP2010105105A (ja) * 2008-10-29 2010-05-13 Olympus Corp 自動生産装置
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法
JP2011000685A (ja) * 2009-06-19 2011-01-06 Denso Wave Inc ビンピッキングシステム
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法
JP2011093058A (ja) * 2009-10-30 2011-05-12 Fuji Electric Holdings Co Ltd 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2011183537A (ja) * 2010-03-11 2011-09-22 Yaskawa Electric Corp ロボットシステム及びロボット装置並びにワーク取り出し方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4011437A (en) * 1975-09-12 1977-03-08 Cincinnati Milacron, Inc. Method and apparatus for compensating for unprogrammed changes in relative position between a machine and workpiece
US4402053A (en) 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
JPH09239682A (ja) 1996-03-06 1997-09-16 Nissan Motor Co Ltd ワーク供給方法およびワーク供給装置
WO2003004222A2 (en) * 2001-07-02 2003-01-16 Microbotic A/S Apparatus comprising a robot arm adapted to move object handling hexapods
JP2005335010A (ja) * 2004-05-26 2005-12-08 Toyota Motor Corp 把持制御装置
CN101522377B (zh) * 2006-10-20 2011-09-14 株式会社日立制作所 机械手
US7844105B2 (en) * 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining objects poses from range images
US8070409B2 (en) * 2007-11-05 2011-12-06 Ajax Tocco Magnethermic Corp. Method and apparatus for transporting steel billets
DE102008052436A1 (de) 2008-10-21 2010-04-22 Daimler Ag Verfahren und Vorrichtung zum Vereinzeln von Bauteilen aus einem Behältnis
CN201852793U (zh) * 2009-09-21 2011-06-01 Abb技术有限公司 用于生产制造部件的系统
JP2011115877A (ja) * 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
CN101706968B (zh) * 2009-12-10 2012-11-07 江苏大学 基于图像的果树枝干三维模型重建方法
US9089966B2 (en) 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5618908B2 (ja) 2011-05-31 2014-11-05 三菱電機株式会社 部品供給装置
JP5434991B2 (ja) 2011-09-01 2014-03-05 株式会社安川電機 ロボット
JP5623358B2 (ja) 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
KR102056664B1 (ko) * 2012-10-04 2019-12-17 한국전자통신연구원 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06127698A (ja) * 1992-10-20 1994-05-10 Omron Corp 部品供給装置
JPH08112788A (ja) * 1994-10-14 1996-05-07 Canon Inc 部品挿入装置及び部品挿入方法
JP2004230513A (ja) * 2003-01-30 2004-08-19 Fanuc Ltd ワーク取出し装置
JP2006035346A (ja) * 2004-07-23 2006-02-09 Toyota Motor Corp 部品組付け方法
JP2007245283A (ja) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2008178930A (ja) * 2007-01-23 2008-08-07 Fuji Electric Holdings Co Ltd ロボットのワーク把持方法及びロボット
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
JP2010105105A (ja) * 2008-10-29 2010-05-13 Olympus Corp 自動生産装置
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法
JP2011000685A (ja) * 2009-06-19 2011-01-06 Denso Wave Inc ビンピッキングシステム
JP2011093058A (ja) * 2009-10-30 2011-05-12 Fuji Electric Holdings Co Ltd 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2011183537A (ja) * 2010-03-11 2011-09-22 Yaskawa Electric Corp ロボットシステム及びロボット装置並びにワーク取り出し方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11122721B2 (en) 2016-09-22 2021-09-14 Fuji Corporation Component supply system
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法

Also Published As

Publication number Publication date
CN103687702B (zh) 2016-08-24
DE112012002677B4 (de) 2018-12-06
KR101634463B1 (ko) 2016-06-28
WO2013002099A1 (ja) 2013-01-03
US9469035B2 (en) 2016-10-18
DE112012002677T5 (de) 2014-04-17
KR20140037943A (ko) 2014-03-27
DE112012002677T9 (de) 2014-07-03
CN103687702A (zh) 2014-03-26
JP5837065B2 (ja) 2015-12-24
US20140147240A1 (en) 2014-05-29

Similar Documents

Publication Publication Date Title
JP5837065B2 (ja) 部品供給装置
JP6057862B2 (ja) 部品供給装置および部品供給装置のプログラム生成方法
US11383380B2 (en) Object pickup strategies for a robotic device
JP5788460B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP5685027B2 (ja) 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
CN111730603A (zh) 机器人系统的控制装置以及控制方法
JP2017520417A (ja) 複数の吸着カップの制御
JP2014210310A (ja) ワークを搬送するロボットを備えるロボットシステム
JP2012024903A (ja) ワーク取出し装置およびワーク取出し方法
JP7163506B2 (ja) 作業ロボットおよび作業システム
JP2012030320A (ja) 作業システム、作業ロボット制御装置および作業プログラム
CN110167723A (zh) 作业机及拾取位置选择方法
JP2017124450A (ja) ピックアップ装置
JP5879704B2 (ja) ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP5458807B2 (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
Weng et al. A framework for robotic bin packing with a dual-arm configuration
Spenrath et al. Statistical analysis of influencing factors for heuristic grip determination in random bin picking
JP5544957B2 (ja) カメラ脱着ロボット装置、ワーク把持システム、およびワーク把持方法
CN117377558A (zh) 自动拾取和放置系统
WO2024105783A1 (ja) ロボット制御装置、ロボットシステムおよびロボット制御プログラム
WO2019102575A1 (ja) 作業機および把持位置探索方法
TW202432319A (zh) 機器人控制裝置、機器人系統及機器人控制程式
WO2024023934A1 (ja) ワーク取出し装置、ワーク取出し方法及び制御装置
WO2022030414A1 (ja) ロボットの構成部材の干渉を検出するロボット装置
US20240157567A1 (en) Picking system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151104

R150 Certificate of patent or registration of utility model

Ref document number: 5837065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250