JP3421608B2 - 教示モデル生成装置 - Google Patents

教示モデル生成装置

Info

Publication number
JP3421608B2
JP3421608B2 JP10189099A JP10189099A JP3421608B2 JP 3421608 B2 JP3421608 B2 JP 3421608B2 JP 10189099 A JP10189099 A JP 10189099A JP 10189099 A JP10189099 A JP 10189099A JP 3421608 B2 JP3421608 B2 JP 3421608B2
Authority
JP
Japan
Prior art keywords
teaching
robot
image
orientation
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10189099A
Other languages
English (en)
Other versions
JP2000288968A (ja
Inventor
淳 渡辺
太郎 有松
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to JP10189099A priority Critical patent/JP3421608B2/ja
Publication of JP2000288968A publication Critical patent/JP2000288968A/ja
Application granted granted Critical
Publication of JP3421608B2 publication Critical patent/JP3421608B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、パターンマッチン
グ処理によって対象物の位置姿勢を検出する方法に用い
られる教示モデルの生成装置に関する。特に、検出対象
物が3次元にその位置姿勢が変化しても対象物を検出す
ることができるようにするための教示モデルの生成装置
に関する。
【0002】
【従来の技術】検出対象物の2次元画像を予め教示モデ
ルとして記憶しておき、平面上に載置された対象物をカ
メラ等の撮像手段で撮像して得られた画像データと教示
モデルとのパターンマッチング処理を行い、対象物の位
置姿勢を検出する方法、装置はすでに公知であり、ロボ
ットにより機械部品や物品とのワークピースを自動的に
把持し所定位置に搬送する作業等にこの対象物検出方
法、検出装置が使用されている。しかし、同一形状のワ
ークピースが乱雑に山積みされた中から、又は、所定領
域内に任意の3次元的に異なる位置姿勢で収納されてい
るワークビスの集合から個々のワークピースを取出す作
業はロボットによってできず、人手によって行われてい
る。ロボットを使用する場合は、乱雑に山積みされたワ
ークピースから人手により1つ1つ取り出し整列配置さ
せてロボットが直接ワークピースを取り出せるようにし
ておく必要がある。
【0003】
【発明が解決しようとする課題】同一形状のワークピー
スが山積みの中から、又は多数のワークピースが所定領
域内に任意の3次元的に異なる位置姿勢で収納されてい
る中から個々のワークピースをロボットで取り出すこと
ができない理由は、山積みされたワークピースの位置姿
勢を把握できないことから、ロボットで個々のワークピ
ースを把持できる位置姿勢に制御することができないこ
とに起因する。
【0004】そこで、山積みされ若しくは所定領域内に
任意の3次元的に異なる位置姿勢ので収納されている同
一形状のワークピースに対して個々のワークピースの3
次元位置、姿勢(方向)を検出する装置が開発されてい
る。この対象物の3次元位置、姿勢(方向)を検出する
装置は、予め検出しようとする同一形状の1つのワーク
ピースに対して異なった方向からカメラで撮像しその画
像データにより教示モデルを複数記憶すると共に各教示
モデルとワークピースとの相対位置姿勢を記憶してお
き、山積みされた同一形状のワークピースをカメラで撮
像して得られた画像データに対して、各教示モデルとパ
ターンマッチング処理を行い、マッチング値の高い教示
モデルを選択し、この選択教示モデルに対して記憶する
教示モデルとワークピースとの相対位置姿勢より検出対
象のワークピースの位置、姿勢(方向)を検出するもの
である。
【0005】上述した、対象物の3次元位置姿勢を検出
する画像処理装置は、ワークピースを複数の方向から撮
像して得られる複数の教示モデルを必要とする。
【0006】そこで、本発明の課題は、対象物の3次元
位置姿勢を検出する画像処理装置に用いられる教示モデ
ルの生成装置を得ることにある。
【0007】
【課題を解決するための手段】本願各発明は、3次元的
に異なる任意の位置姿勢で置かれている複数の対物の
中から任意の1つの対象物の位置姿勢を検出するための
マッチング方式の画像処理用の教示モデルを生成し記憶
するための教示モデル生成装置である。そして、請求項
1に係わる発明は、対象物か撮像手段のどちらか一方を
定位置に配置し他方をロボットの可動部に固定するかハ
ンドに把持させ、ロボットを動作させて前記撮像手段を
前記対象物に対して相対的に複数の画像取込み位置に移
動させて対象物を複数方向から撮像し前記対象物の画
像データをそれぞれ取得し教示モデルとして、前記方向
の情報と対応付けて記憶し、前記複数方向は、対象物の
3次元姿勢によって変化する画像パターンを複数種に分
け各種類のパターンがそれぞれ得られる方向としてい
る。
【0008】又、請求項2に係わる発明は、対象物を第
1のロボットの可動部に固定するかハンドに把持させ、
撮像手段を第2のロボットの可動部に固定するかハンド
に把持させ、ロボットを動作させて前記撮像手段を前記
対象物に対して相対的に複数の画像取込み位置に移動さ
せて対象物を複数方向から撮像し前記対象物の画像デー
タをそれぞれ取得し教示モデルとして記憶するようにし
たものである。
【0009】求項に係わる発明は、撮像手段をカメ
ラに限定したものであり、請求項に係わる発明は、撮
像手段を撮像手段と対象物の距離を複数の点で計測する
3次元視覚センサに限定したものである。
【0010】
【発明の実施の形態】本発明の一実施形態としてロボッ
トシステムによって構成した例を以下説明する。図1
は、同一形状のワークピースが多数山積みされている状
態からこのワークピースをロボット等で自動的に把持し
ピッキングするような場合、対象物のワークピースの3
次元位置姿勢を検出するための教示モデルを教示するた
めに用いられる、本発明の第1の実施形態を示すで概要
図である。このワークピースの1つを所定位置に固定
し、ロボットRBのハンドで把持されるか若しくはロボ
ット可動部に固定された撮像デバイス20で複数の方向
から撮像し、得られた画像データから対象物の教示モデ
ルを生成するものである。例えば、図4に示すようにワ
ークピースWに対して4方向から撮像しこの4つの画像
データからそれぞれ教示モデルを生成する。
【0011】図5は、本実施形態におけるロボットRB
の制御装置の要部ブロック図であり、従来のロボット制
御装置と同一構成である。符号8で示されるバスに、メ
インプロセッサ(以下単にプロセッサという。)1、R
AM、ROM、不揮発性メモリ(EEPROMなど)か
らなるメモリ2、教示操作盤用インターフェイス3,外
部装置用のインターフェイス6、画像処理装置との通信
インターフェイス7及びサーボ制御部5が接続されてい
る。又、教示操作盤用インターフェイス3には教示操作
盤4が接続されている。
【0012】ロボット及びロボット制御装置の基本機能
をささえるシステムプログラムは、メモリ2のROMに
格納されている。又、アプリケーションに応じて教示さ
れるロボットの動作プログラム並びに関連設定データ
は、メモリ2の不揮発性メモリに格納される。そして、
メモリ2のRAMは、プロセッサ1が行う各種演算処理
におけるデータの一時記憶の記憶領域として使用され
る。
【0013】サーボ制御部5は、サーボ制御器5a1〜5
an(n:ロボットの総軸数にロボット手首に取り付ける
ツールの可動軸数を加算した数)を備えており、プロセ
ッサ、ROM、RAM等で構成され、各軸を駆動するサ
ーボモータの位置・速度のループ制御、さらには電流ル
ープ制御を行っている。いわゆる、ソフトウエアで位
置、速度、電流のループ制御を行うデジタルサーボ制御
器を構成している。サーボ制御器5a1〜5anの出力は各
サーボアンプ5b1〜5bnを介して各軸サーボモータM1
〜Mnを駆動制御する。なお、図示はしていないが、各
サーボモータM1〜Mnには位置・速度検出器が取り付
けられており、該位置・速度検出器で検出した各サーボ
モータの位置、速度は各サーボ制御器5a1〜5anにフィ
ードバックされるようになっている。又、入出力インタ
ーフェイス6には、ロボットに設けられたセンサや周辺
機器のアクチュエータやセンサが接続されている。
【0014】図6は、ロボット制御装置のインターフェ
イスに接続される画像処理装置30のブロック図であ
る。プロセッサ31を備え、該プロセッサ31にはバス
40を介してこのプロセッサ31が実行するシステムプ
ログラム等を記憶するROM32、画像処理プロセッサ
32、撮像デバイスに接続された撮像デバイスインター
フェイス34、各種指令やデータを入出力するためのC
RTや液晶等の表示手段付MDI35、画像メモリ3
6、不揮発性メモリ37,データの一時記憶等に利用さ
れるRAM38、ロボット制御装置10に接続された通
信インターフェイス39が接続されている。撮像デバイ
ス20で撮像された画像は、画像メモリ26に格納され
る。画像処理プロセッサ33は、画像メモリに格納され
た画像をプロセッサ31の指令により画像処理して対象
物を認識する。この画像処理装置30の構成、作用は従
来の画像処理装置と同一であり差異はない。ただし、本
発明に関連し、不揮発性メモリ37に後述する教示モデ
ルが記憶されること、及びこの教示モデルを用いて撮像
デバイス20で撮像したワークピースの山の画像データ
に対してパターンマッチング処理を行い、ワークピース
の3次元位置姿勢を求める点に、この画像処理装置30
は特徴がある。
【0015】撮像デバイス20は、後述するように画像
データを得るものであるが、この撮像デバイス20とし
ては、2次元画像を得るCCDカメラでも、又、距離デ
ータを測定できる視覚センサでもよい。CCDカメラの
場合には撮像して得られた2次元画像より画像データを
従来から公知の方法で得るが、距離データを測定できる
視覚センサの場合は、センサと対象物との距離データを
要素とした2次元配列データを画像データとして得るも
のである。この距離データを測定できる視覚センサは、
例えば、特開平7−270137号公報に記載されたス
ポット光走査型3次元視覚センサ等で公知であるので、
簡単にこの3次元視覚センサについて述べる。
【0016】この視覚センサは、2台のスキャナによっ
て任意の方向(X方向、Y方向)にスポット状の光を照
射して対象物上に照射された光ビームを、位置検出型の
検出器(PSD)で測定することによって光ビームの位
置を計測するものである。2台のスキャナのミラーの偏
向角度θx、θyとPSD上の受光位置からビームが照射
された対象物の3次元位置が計算して求められるもので
ある。
【0017】この3次元視覚センサを用いて、画像デー
タとして、距離データを要素とする2次元配列データを
得る方法について、図11から図13を参照しながら簡
単に説明する。
【0018】対象物に対する走査範囲(計測範囲)が予
め決められており、スキャナのミラーの偏向角度θx、
θyをディスクリートに制御して、図11に示すよう
に、この走査範囲のX、Y平面における点(1,1)か
ら点(1,n)、点(2,1)から点(2,n)、・・
・点(m,1)から点(m,n)と走査して各点におけ
る3次元位置を測定し、各点(i、j)におけるこのセ
ンサとビームが照射された点の対象物間の距離Z(i、
j)を求め、画像処理装置30のRAM38に格納す
る。こうして図12に示すような、センサと対象物に照
射されたビームの点間の距離データZ(i、j)を要素
とする2次元配列データを画像データとして得る。
【0019】図13は、この画像データを得るための画
像処理装置30のプロセッサ31が実行する処理のフロ
ーチャートである。まず、指標i、jを「1」にセット
し(ステップ500)、予め決められた計測範囲の始点
y1,x1(図11における点(1,1))に対応する
ミラーの偏向角度θx、θyをセンサ20に送出し照射指
令を出力する(ステップ501〜503)、センサ20
は、ミラーをこの偏向角度に設定し、光ビームを照射す
る。そしてPSDで得られた信号を画像処理装置30に
出力する。画像処理装置30のプロセッサ31は、この
PSDからの信号と指令したミラーの偏向角度θx、θy
より、対象物に照射されたビームの位置を計算し、この
センサとこのビームが照射された位置との距離Z(i、
j)を計算し、この値をRAM28に2次元配列データ
[i、j]として格納する(ステップ504,50
5)。なお、対象物に照射されたビームの位置を計算し
及び距離Z(i、j)の計算をセンサ20側で行うよう
にしてもよい。
【0020】次に指標iを「1」インクリメントし、X
軸方向走査のミラーの偏差角度θxを設定所定量Δxだ
け増加させ(ステップ506,507)、指標iが設定
値nを越えたか判断し(ステップ508)、越えてなけ
ればステップ503に戻り、該ステップ503からステ
ップ508の処理を行い次の点の距離Z(i、j)を求
める。以下、指標iが設定値nを越えるまでステップ5
03〜ステップ508の処理を実行し、図11における
点(1,1)から点(1,n)までの各点における距離
Z(i、j)を求めて記憶する。
【0021】ステップ508で指標iが設定値nを越え
たことが判別されると、指標iを「1」にセットしかつ
指標jを「1」インクリメントして、Y軸方向走査のミ
ラーの偏差角度θyを設定所定量Δyだけ増加させる
(ステップ509〜511)。そして、指標jが設定値
mを越えたか判断し(ステップ512)、越えてなけれ
ばステップ502に戻り前述したステップ502以下の
処理を実行する。
【0022】このようにして、指標jが設定値mを越え
るまでステップ502〜512の処理を繰り返し実行す
る。指標jが設定値mを越えると、図11に示す計測範
囲(走査範囲)を全て計測したことになり、RAM28
には、2次元配列データである距離データZ(1、1)
〜Z(m、n)が記憶され、画像データ取得処理は終了
する。
【0023】以上が、距離データを測定できる視覚セン
サによる画像データとしての2次元配列データを得る処
理である。こうして得られた2次元配列データを画像デ
ータとして用い、教示モデルを作成してもよいが、説明
を簡単にするために、画像データを取り込むためのデー
タ取込み手段としての撮像デバイスにCCDカメラを用
いて、このカメラ20で対象物を撮像して得られた画像
データを用いるものとして以下説明する。
【0024】上述した、ロボット制御装置10、画像処
理装置30による構成される本実施形態の教示モデル生
成装置による教示モデルの生成動作処理を図7に示す動
作処理フローチャートと共に説明する。ロボット制御装
置10の教示操作盤4から固定位置に置かれたワークピ
ースに対してワーク座標系を設定し、これをロボット制
御装置10に記憶される。すなわち、ロボットに設けら
れているワールド座標系から見たワーク座標系の座標変
換行列を設定する(ステップ100)。次に、ロボット
手先に取り付けられたカメラのキャリブレーションを行
いロボット手先のフランジ面中心からカメラ取り付け位
置姿勢をロボット制御装置10に設定する。これによ
り、カメラ座標系がロボットに設定されることになる
(ステップ101)。
【0025】次に、ワークピースWに対して、ロボット
手首先端に取り付けられたカメラ20で撮像する最初
(第0番目)の位置姿勢と、次以降に撮像する位置姿勢
を特定するため、該最初の位置姿勢からカメラを回転さ
せる回転軸と回転角を設定し、かつ、その撮像位置姿勢
の数Nをも設定する(ステップ103)。例えば、図4
に示すようにワークピースWに対して4方向から撮像し
この4つの画像データからそれぞれ教示モデルを生成す
る。図4(a)に示す第0番目の撮像位置姿勢では、ワ
ークピースWを真上のワールド座標系Z軸方向から撮像
した画像データからの教示モデルである。次の撮像位置
姿勢は、このカメラ位置において、ワークピースの配置
位置(ワーク座標系の原点)を通りカメラの中心軸方向
に対して垂直方向の軸周りに回転させる回転角を設定す
る。最初(第0番目)の位置姿勢でワールド座標系のZ
軸とカメラの中心軸を平行とした場合には、ワールド座
標系のX軸、Y軸は垂直であるから、このうちどちらか
の軸周りにワークピース位置を中心に回転させる。図4
(b)に示す例では、ワールド座標系X軸まわりに30
度回転するものとして設定し、そのとき撮像して得られ
る画像データから教示モデルを生成するものである。同
様に、図4(c)、(d)は、ワークピースの配置位置
を通りワールド座標系のX軸と平行な軸周りにカメラ2
0をそれぞれ60度、90度回転させたときの画像デー
タから教示モデルを生成するものである。以下、この4
つの教示モデルを得るものを例に取り説明する。なお、
この例では、0度、30度、60度、90度の4つの教
示モデルとしたが、この回転角の刻みを小さくし、さら
に多くの教示モデルを得るようにしておけば、さらに精
度のよいワークピースの3次元位置姿勢を検出すること
ができる。
【0026】上述したように、ロボット手首先端に取り
付けたカメラ20で最初(第0番目)に撮像するロボッ
トの位置姿勢と回転中心軸となる軸及び回転角を教示
し、かつその数Nを設定する。説明をわかりやすくする
ために、所定位置に所定姿勢で配置されたワークピース
Wに対し、カメラの中心軸がワールド座標系のZ軸と平
行で、ワークピースWのワールド座標系上のX、Y軸座
標値と同一でZ軸のみが異なる位置を第0番目の教示モ
デル撮像位置姿勢として教示し、さらに、ワークピース
Wの配置位置を通り、ワールド座標系X軸と平行な軸周
りに30度、60度、90度回転させた位置を第1,第
2、第3の撮像位置姿勢として設定する。又撮像位置の
数Nを「4」と設定する。
【0027】そして、教示モデル取得指令を教示操作盤
4から入力すると、ロボット制御装置10のプロセッサ
1は、撮像回数を係数するカウンタMを「0」にセット
し(ステップ103)、ロボットを稼働し第M(=0)
番目の位置姿勢に移動させ、画像処理装置30へカメラ
での撮像指令を出力する(ステップ104)。画像処理
装置30では、この指令を受けてカメラ20でワークピ
ースを撮像し、その画像データを画像メモリ36に格納
するが、さらに、この画像データからM番目の教示モデ
ルを生成し不揮発性メモリ37に格納する(ステップ1
05)。さらに、ワーク座標系の位置姿勢をカメラ座標
系から見た座標変換行列として計算し、カメラとワーク
ピースとの相対位置姿勢を求めM番目の教示モデルの相
対位置姿勢として不揮発性メモリ37に格納し、データ
取得信号をロボット制御装置に送る(ステップ10
6)。例えば、カメラ座標系の位置姿勢として[x0,
y0,z0,α0,β0,γ0]c として記憶される。なお
α、β、γはそれぞれX、Y、Z軸周りの回転角を意味
し、「c」はカメラ座標系を意味する。
【0028】次に、データ取得信号を受信するとロボッ
ト制御装置10のプロセッサ1は、カウンタMを「1」
インクリメントし(ステップ107)、該カウンタMの
値が設定値N(=4)より小さいか判断し(ステップ1
08)、小さければ、(ステップ104に戻り第M番目
の撮像位置姿勢にロボットを移動させる。すなわち、図
4に示す上述した例では、ワークピース配置位置を通り
ワールド座標系のX軸と平行な軸周りに30度をカメラ
を回転させ撮像を行い教示モデルとそのときのカメラと
ワークピースとの相対位置姿勢を記憶する。
【0029】以下、カウンタMの値が設定値N(=4)
になるまで、ステップ104〜108の処理を行い、教
示モデルとカメラとワークピースとの相対位置姿勢を不
揮発性メモリに記憶する。上述した例では教示モデルと
しては、図4(a)〜(d)の画像から生成したものが
記憶され、その教示モデルに対してそれぞれカメラとワ
ークピースとの相対位置姿勢としての、カメラ座標系の
ワークピースWの位置姿勢として[x0,y0,z0,α
0,β0,γ0]c 、[x1,y1,z1,α1,β1,γ1]c
、[x2,y2,z2,α2,β2,γ2]c 、[x3,y
3,z3,α3,β3,γ3]c が記憶される。以上のよう
にして、画像処理装置30の不揮発性メモリ37には教
示モデルとカメラとワークピースとの相対位置を記憶さ
れることになる。
【0030】図2は、本発明の第2の実施形態を示すで
概要図である。図1に示す第1の実施形態と相違する点
は、カメラ20が固定位置に置かれ、対象物のワークピ
ースWがロボット手首先端に取り付けられたハンドで把
持するか、若しくはロボット可動部に固定し、教示モデ
ルを設定記憶させるようにした点である。ロボット制御
装置10及び画像処理装置(画像処理装置)30の構成
は同一であり、教示モデルを教示生成するための処理が
異なるのみである。この教示動作処理のフローを図8に
示す。
【0031】まず、固定位置に置かれたカメラ20のキ
ャリブレーションを行いカメラ座標系をロボット制御装
置10のメモリ2に記憶させる(ステップ200)。こ
れにより、ロボットワールド座標系から見たカメラ座標
系の座標変換行列が得られる。さらに、ロボットハンド
が把持した(若しくはロボット可動部に固定された)ワ
ークピースに想定した座標系(ワーク座標系)のロボッ
ト手先のフランジ面中心から見た位置姿勢を計測しロボ
ット制御装置10に設定しメモリ2に記憶させる。これ
により、ロボットが任意の位置にいる時のワークピース
に想定した座標系(ワーク座標系)の位置姿勢をロボッ
トが認識できることになる。
【0032】さらに第1の実施形態と同様に、固定位置
のカメラ20で撮像する、ロボットハンドに把持された
ワークピースWの最初(第0番目)の位置姿勢と、次以
降に撮像する位置姿勢を特定するため該最初の位置姿勢
からワークピースを固定位置のカメラ20に対して回転
させる回転軸と回転角を設定する(ステップ202)。
【0033】第1の実施形態と同様に、ワールド座標系
X軸と平行な軸周りにカメラ20を中心に30度、60
度、90度それぞれロボットハンドで把持したワークピ
ースを回転させた位置姿勢を第1,第2、第3の撮像位
置として設定する。又撮像位置の数Nを「4」と設定す
れば、第1の実施形態と同様の図4に示すような教示モ
デルを得ることができる。
【0034】そして、教示モデル取得指令を教示操作盤
4から入力すると、ロボット制御装置10のプロセッサ
1は、カウンタMを「0」にセットし、ロボットを動作
させ第M(=0)番目の位置姿勢にワークピースWを移
動させ、画像処理装置30へカメラ20での撮像指令を
出力する(ステップ203、204)。画像処理装置3
0では、この指令を受けてカメラでワークピースWを撮
像し、その画像データからM番目の教示モデルを生成し
不揮発性メモリ37に格納する。さらに、ワークピース
に想定した座標系(ワーク座標系)の位置姿勢をカメラ
座標系から見た座標変換行列として計算し、カメラとワ
ークピースとのM番目の教示モデルの相対位置姿勢とし
て不揮発性メモリ37に格納し、データ取得信号をロボ
ット制御装置に送る(ステップ204〜206)。
【0035】データ取得信号を受信するとロボット制御
装置10のプロセッサ1は、カウンタMを「1」インク
リメントし(ステップ207)、該カウンタMの値が設
定値N(=4)より小さいか判断し(ステップ20
8)、小さければ、ステップ204に戻り第M番目の撮
像位置姿勢にロボットを移動させる。
【0036】以下、カウンタMの値が設定値N(=4)
になるまで、ステップ204〜208の処理を行い、第
1の実施形態と同様に教示モデルとカメラとワークピー
スとの相対位置姿勢を不揮発性メモリに記憶することに
なる。
【0037】図3は、本発明の第3の実施形態の概要図
である。この第3の実施形態は、カメラも対象物のワー
クピースもロボットの可動部に固定するかハンドで把持
して教示モデルを生成するものである。この実施形態に
おいては、第1、第2のロボットRB1、RB2の各ロ
ボット制御装置は、図5に示す構成ほぼ同一であるが、
この2つのロボット制御装置間が通信インターフェイス
で接続されていること、及び、画像処理装置30が第2
のロボット制御装置のみに接続されている点に相違する
のみである。又画像処理装置30の構成も図6に示すも
のと同一である。
【0038】第1のロボットRB2のハンドには対象物
のワークピースWを把持させ、第2のロボットRB1の
手先にはカメラ20を取り付ける。そして、第1のロボ
ットRB1のワールド座標系から見た第2のロボットR
B2のワール度座標系の位置姿勢を計測し、座標変換行
列(A)として求め第1のロボット制御装置に記憶させ
る(ステップ300)。
【0039】さらに、第1のロボットRB1のハンドで
把持したワークピースWに想定された座標系(ワーク座
標系)のロボット手先のフランジ面中心から見た位置姿
勢の座標変換行列(B)を第1のロボット制御装置に設
定し記憶させる(ステップ301)。又、第2のロボッ
トRB1の手先に取り付けたカメラ20のキャリブレー
ションを行い第2のロボット手先のフランジ面中心から
カメラ座標系への変換行列(C)を第1のロボット制御
装置に設定し記憶させる(ステップ302)。
【0040】さらに第1、第2の実施形態と同様に、カ
メラ20で最初に撮像するワークピースWとカメラ20
が最初(第0番目)の相対位置姿勢となるように第1、
第2のロボットの位置姿勢を各ロボット制御装置に設定
し、続いて、第1番目、第2番目、・・・・第i番目・
・の位置姿勢をそれぞれ設定し、かつその数Nも設定す
る。この実施形態においても、最初の位置姿勢からワー
クピースWを把持した第1のロボットRB1の位置姿勢
は変えずにカメラが取り付けられた第2のロボットRB
20を動作させ、ワークピースWに対して回転させる
か、第2のロボットRB20の位置姿勢を変えずにカメ
ラ20を固定し、第1のロボットRB20を動作させ、
ワークピースWを回転させるか、どちらか一方を回転さ
せるか若しくは両方とも回転させ、相対的に設定回転角
だけ回転させるように設定する。又回転軸は、カメラ2
0の中心軸に直交する各ワールド座標系平行する軸で互
いに相手の中心位置(カメラ座標系の原点、ワーク座標
系の原点)を通る軸を設定する。例えば、図3に示す例
では、各ワールド座標系のZ軸(垂直軸)周りにワーク
ピースW又はカメラ20を中心に回転させる角度を設定
する。設定を簡単にするには、カメラ20かワークピー
スWの一方を固定し、他方を回転させるようにすればよ
いが、回転のために動作させるロボットの移動が困難で
ある時や移動できないような場合には、固定されていた
カメラ若しくはワークピース側のロボットを駆動してワ
ークピースとカメラが相対的に設定した位置姿勢関係に
なるように設定する。(ステップ303)。
【0041】そして、教示モデル取得指令をどちらか一
方のロボット制御装置の教示操作盤4から入力すると、
各ロボットRB1、RB2のロボット制御装置10のプ
ロセッサ1は、カウンタMを「0」にセットし、ロボッ
トを動作させ第M(=0)番目の位置姿勢にワークピー
スWを移動させ、画像処理装置30へカメラ20での撮
像指令を出力する(ステップ304、305)。画像処
理装置30では、この指令を受けてカメラでワークピー
スWを撮像し、その画像データからM番目の教示モデル
を生成し、不揮発性メモリ37に格納する(ステップ3
06)。
【0042】さらに、この画像取り込み時における第1
のロボットの位置姿勢とステップ301で求め設定され
ている座標変換行列(B)より、ワークピースWに想定
した座標系の位置姿勢を第1のロボットのワールド座標
系から見た座標変換行列(D)として求め、さらに、第
2のロボットの位置姿勢とステップ302で求め設定さ
れている座標変換行列(C)より、カメラ座標系から見
た位置姿勢を第2ロボットのワールド座標系から見た座
標変換行列(E)として求める(ステップ307)。こ
うして求めた座標変換行列(D)、(E)、及びステッ
プ300で設定されている座標変換行列(A)より、下
記1式の演算を行って、ワークピースWに想定されてい
る位置姿勢をカメラ座標系から見た座標変換行列(F)
に変換し、第M番目の相対位置姿勢として記憶しデータ
取得信号を両ロボット制御装置に出力する。
【0043】(F)=(E)-1(A)-1(D)・・・・(1) データ取得信号を受信すると各ロボット制御装置10の
プロセッサ1は、カウンタMを「1」インクリメントし
(ステップ308)、該カウンタMの値が設定値N(=
4)より小さいか判断し(ステップ309)、小さけれ
ば、ステップ305に戻り第M番目の撮像位置姿勢にロ
ボットを移動させる。
【0044】以下、カウンタMの値が設定値N(=4)
になるまで、ステップ305〜310の処理を行い、第
1、第2の実施形態と同様に教示モデルとカメラ20と
ワークピースWとの相対位置姿勢を不揮発性メモリ37
に記憶することになる。
【0045】以上、教示モデルの生成について3つの実
施形態を述べたが、こうして得られた教示モデルを利用
して、例えば、ワークピースWが山積みされた山から個
々のワークピースを取り出すピッキング作業を開始する
例について次に説明する。
【0046】ロボット手先には、カメラが取り付けられ
ると共にハンドが取り付けられている。そして、ロボッ
ト制御装置10に教示操作盤等からピッキング指令が入
力されると、プロセッサ1は、図10に示すピッキング
作業の動作処理を開始する。まず、教示されているロボ
ット先端手首に取り付けられているカメラを山積みされ
たワークピースが該カメラの視野にいる撮像位置へロボ
ットを移動させ、該カメラのワールド座標系上の3次元
位置姿勢を画像処理装置30へ出力すると共に撮像指令
を出力する(ステップ400、401)。画像処理装置
30のプロセッサ31は、撮像指令を受信し、ワークピ
ースの山を撮像し幾つかのワークピースの画像データを
得て画像メモリ36に記憶する(ステップ402)。
【0047】続いて、画像メモリに記憶した画像データ
に対して不揮発性メモリ37に設定記憶されている教示
モデルの1つ(第0番目の教示モデル)を使用してパタ
ーンマッチング処理を行いワークピースの検出を行い
(ステップ403)。このパターンマッチング処理で
は、ワークピースの画像内の位置、回転及びスケールの
変化を検出するマッチング処理を行う。そして、マッチ
ング値が設定基準値以上のものが検出されたか判断し
(ステップ404)、基準値以上のものが検出されなけ
れば、全教示モデル(第0〜第3番目の教示モデル)に
対してパターンマッチング処理を行ったか判断し(ステ
ップ405)、行っていなければ、他の教示モデルによ
りパターンマッチングの処理を行う(ステップ40
6)。こうして、ステップ404で、いずれかの教示モ
デルに対してマッチング値が設定基準値以上のワークピ
ースの画像データが検出されると、この検出したワーク
ピースの画像データに対して他の教示モデルで全てマッ
チング処理を行う。すなわち、検出されたワークピース
の画像データに対して、設定記憶されている教示モデル
の全てとパターンマッチング処理を行う(ステップ40
7)。このパターンマッチング処理によって得られたマ
ッチング値が一番高い教示モデルを選択し、この選択教
示モデルに対応して記憶するカメラとワークピースとの
相対位置姿勢と、選択した教示モデルに対するマッチン
グ処理での画像ないの位置、回転及びスケールの変化量
とにより最終的なカメラとワークピースとの相対位置姿
勢として得られる(ステップ408)。そして、この相
対位置姿勢とステップ401の処理で送られてきている
カメラのワールド座標系における位置姿勢からワークピ
ースのワールド座標系上の位置姿勢を求め出力する。す
なわち、ワークピースとカメラの相対位置姿勢は、カメ
ラ座標系からみたワークピースの位置姿勢であるから、
この位置姿勢のデータと、カメラのワールド座標系にお
ける位置姿勢のデータにより座標変換の演算を行うこと
によりワールド座標系上の検出ワークピースの位置姿勢
が求められる(ステップ409)。
【0048】ロボット制御装置10は送られて来た検出
ワークピースWの3次元位置姿勢に基づき、ロボットを
動作させ従来と同様にこの検出ワークピースをピツキン
グして教示された所定の位置に移動される(ステップ4
10)。そして、ステップ402に戻り、ステップ40
2以下の処理を繰り返し実行する。全てのワークピース
がワークピースの山からピッキングされなくなると、ス
テップ403〜406の処理で、全ての教示モデルに対
してパターンマッチング処理をしても設定基準値以上の
マッチング値を得ることができないから、このピッキン
グ作業は終了する。
【0049】
【発明の効果】本発明は、対象物が3次元にその位置姿
勢が変わってもその対象物を認識識別し対象物の位置姿
勢を検出する画像処理装置等に利用される教示パターン
をロボットを使用して簡単に生成することができるもの
である。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の概要を説明する説明
図である。
【図2】本発明の第2の実施形態の概要を説明する説明
図である。
【図3】本発明の第3の実施形態の概要を説明する説明
図である。
【図4】各実施形態における教示モデルの例を示す図で
ある。
【図5】各実施形態におけるロボット制御装置の要部ブ
ロック図である。
【図6】各実施形態における画像処理装置の要部ブロッ
ク図である。
【図7】第1の実施形態における教示モデルを生成する
動作処理フローである。
【図8】第2の実施形態における教示モデルを生成する
動作処理フローである。
【図9】第3の実施形態における教示モデルを生成する
動作処理フローである。
【図10】ピッキング作業の動作処理フローである。
【図11】本発明の実施形態に用いる距離データを測定
できる視覚センサの動作説明図である。
【図12】同距離データを測定できる視覚センサによっ
て得る画像データとしての距離データを要素とする2次
元配列データの説明図である。
【図13】同画像データとしての2次元配列データの取
得処理のフローチャートである。
【符号の説明】
10 ロボット制御装置 20 カメラ 30 画像処理装置 W ワークピース
フロントページの続き (56)参考文献 特開 平4−370703(JP,A) 特開 平7−319525(JP,A) 特開 平4−75887(JP,A) 特開 昭62−57884(JP,A) 特開 平7−270137(JP,A) 特開 平11−66321(JP,A) 特許3300682(JP,B2) (58)調査した分野(Int.Cl.7,DB名) B25J 9/00 - 9/02 B25J 13/00 - 13/08 G05B 19/00 - 19/42

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 3次元的に異なる任意の位置姿勢で置か
    れている複数の対物の中から任意の1つの対象物の位
    置姿勢を検出するためのマッチング方式の画像処理用の
    教示モデルを生成し記憶するための教示モデル生成装置
    であって、 対象物か撮像手段のどちらか一方を定位置に配置し他方
    をロボットの可動部に固定するかハンドに把持させ、ロ
    ボットを動作させて前記撮像手段を前記対象物に対して
    相対的に複数の画像取込み位置に移動させて対象物を複
    数方向から撮像し前記対象物の画像データをそれぞれ
    取得し教示モデルとして、前記方向の情報と対応付けて
    記憶し、前記複数方向は、対象物の3次元姿勢によって
    変化する画像パターンを複数種に分け各種類のパターン
    がそれぞれ得られる方向であることを特徴とする教示モ
    デル生成装置。
  2. 【請求項2】 3次元的に異なる任意の位置姿勢で置か
    れている複数の対象物の中から任意の1つの対象物の位
    置姿勢を検出するためのマッチング方式の画像処理用の
    教示モデルを生成し記憶するための教示モデル生成装置
    であって、 対象物を第1のロボットの可動部に固定するかハンドに
    把持させ、撮像手段を第2のロボットの可動部に固定す
    るかハンドに把持させ、ロボットを動作させて前記撮像
    手段を前記対象物に対して相対的に複数の画像取込み位
    置に移動させて対象物を複数方向から撮像し前記対象
    物の画像データをそれぞれ取得し教示モデルとして、前
    記方向の情報と対応付けて記憶し、前記複数方向は、対
    象物の3次元姿勢によって変化する画像パターンを複数
    種に分け各種類のパターンがそれぞれ得られる方向であ
    ることを特徴とする教示モデル生成装置。
  3. 【請求項3】 撮像手段がカメラであることを特徴とす
    る請求項1又は請求項2に記載の教示モデル生成装置。
  4. 【請求項4】 撮像手段は撮像手段と対象物の距離を複
    数の点で計測する3次元視覚センサであることを特徴と
    する請求項1又は請求項2に記載の教示モデル生成装
    置。
JP10189099A 1999-04-08 1999-04-08 教示モデル生成装置 Expired - Fee Related JP3421608B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10189099A JP3421608B2 (ja) 1999-04-08 1999-04-08 教示モデル生成装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP10189099A JP3421608B2 (ja) 1999-04-08 1999-04-08 教示モデル生成装置
DE60039934T DE60039934D1 (de) 1999-04-08 2000-04-10 Verfahren zur Erzeugung eines Lernmodells
EP00303007A EP1043126B1 (en) 1999-04-08 2000-04-10 Teaching model generating method
US09/546,213 US7200260B1 (en) 1999-04-08 2000-04-10 Teaching model generating device

Publications (2)

Publication Number Publication Date
JP2000288968A JP2000288968A (ja) 2000-10-17
JP3421608B2 true JP3421608B2 (ja) 2003-06-30

Family

ID=14312534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10189099A Expired - Fee Related JP3421608B2 (ja) 1999-04-08 1999-04-08 教示モデル生成装置

Country Status (4)

Country Link
US (1) US7200260B1 (ja)
EP (1) EP1043126B1 (ja)
JP (1) JP3421608B2 (ja)
DE (1) DE60039934D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7957580B2 (en) 2006-02-01 2011-06-07 Fanuc Ltd Workpiece picking device

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4305652B2 (ja) * 2001-09-07 2009-07-29 株式会社安川電機 ウェハ位置教示方法
JP2005515910A (ja) 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
WO2005090010A1 (en) * 2004-03-16 2005-09-29 Abb Ab System of manupulators and method for controlling such a system
JP3946711B2 (ja) * 2004-06-02 2007-07-18 ファナック株式会社 ロボットシステム
JP2006026790A (ja) 2004-07-15 2006-02-02 Fanuc Ltd 教示モデル生成装置
DE102006004153B4 (de) * 2006-01-27 2014-10-23 Vision Tools Hard- Und Software Entwicklungs Gmbh Automatisches Einmessen kooperierender Roboter
DE102006005958A1 (de) * 2006-02-08 2007-08-16 Kuka Roboter Gmbh Verfahren zum Erzeugen eines Umgebungsbildes
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
DE102007009851B3 (de) * 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP2010214546A (ja) * 2009-03-17 2010-09-30 Fuji Electric Holdings Co Ltd 組立装置および組立方法
CN201852793U (zh) * 2009-09-21 2011-06-01 Abb技术有限公司 用于生产制造部件的系统
JP5402697B2 (ja) * 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
US9179106B2 (en) * 2009-12-28 2015-11-03 Canon Kabushiki Kaisha Measurement system, image correction method, and computer program
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5516192B2 (ja) * 2010-07-28 2014-06-11 富士通株式会社 モデル作成装置、モデル作成プログラムおよびモデル作成方法
JP5743499B2 (ja) 2010-11-10 2015-07-01 キヤノン株式会社 画像生成装置、画像生成方法、およびプログラム
JP5852364B2 (ja) * 2011-08-26 2016-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US20150002855A1 (en) * 2011-12-19 2015-01-01 Peter Kovacs Arrangement and method for the model-based calibration of a robot in a working space
JP5895569B2 (ja) * 2012-02-08 2016-03-30 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
CN104853886A (zh) 2012-12-21 2015-08-19 贝克曼考尔特公司 用于基于激光的自动对准的系统和方法
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP2014176922A (ja) * 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボットシステムおよび被加工物の製造方法
WO2015046081A1 (ja) * 2013-09-24 2015-04-02 ソニー・オリンパスメディカルソリューションズ株式会社 医療用ロボットアーム装置、医療用ロボットアーム制御システム、医療用ロボットアーム制御方法及びプログラム
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
CN106061427B (zh) * 2014-02-28 2020-10-27 索尼公司 机器人臂设备、机器人臂控制方法和程序
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
TWI561354B (ja) * 2014-06-26 2016-12-11 Hiwin Tech Corp
EP3012695B1 (en) 2014-10-23 2017-10-11 Comau S.p.A. System for monitoring and controlling an industrial plant
US10082237B2 (en) 2015-03-27 2018-09-25 A9.Com, Inc. Imaging system for imaging replacement parts
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US10035269B2 (en) * 2015-09-16 2018-07-31 The Boeing Company Enhanced robotic teaching tool
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
WO2017151926A1 (en) * 2016-03-03 2017-09-08 Google Inc. Deep machine learning methods and apparatus for robotic grasping
KR102023588B1 (ko) 2016-03-03 2019-10-14 구글 엘엘씨 로봇 파지용 심층 기계 학습 방법 및 장치
US9990685B2 (en) 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
JP2018092449A (ja) * 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント システム、治具、情報処理装置、情報処理方法、およびプログラム
JP6705738B2 (ja) 2016-12-05 2020-06-03 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびプログラム
JP6846949B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
IT201800005091A1 (it) 2018-05-04 2019-11-04 "Procedure for monitoring the operating status of a processing station, its monitoring system and IT product"
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3804270A (en) * 1973-01-12 1974-04-16 Bendix Corp Bulk storage and automatic presenter system with image producing means
US4187051A (en) * 1978-05-26 1980-02-05 Jerry Kirsch Rotary video article centering, orienting and transfer device for computerized electronic operating systems
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
US4462046A (en) * 1982-07-02 1984-07-24 Amaf Industries Incorporated Machine vision system utilizing programmable optical parallel processing
GB2123172B (en) * 1982-07-06 1986-10-22 Emi Ltd A robot control system
US4611292A (en) * 1982-10-06 1986-09-09 Hitachi, Ltd. Robot vision system
US4504970A (en) * 1983-02-07 1985-03-12 Pattern Processing Technologies, Inc. Training controller for pattern processing system
JPS60200103A (en) * 1984-03-26 1985-10-09 Hitachi Ltd Light cutting-plate line extraction circuit
EP0204516A3 (en) 1985-06-04 1990-01-31 Adept Technology, Inc. Vision system for distinguishing touching parts
US4876728A (en) * 1985-06-04 1989-10-24 Adept Technology, Inc. Vision system for distinguishing touching parts
JPS6257884A (en) 1985-09-09 1987-03-13 Toshiba Corp Manipulator device
FR2597636B1 (fr) * 1986-04-18 1988-06-17 Commissariat Energie Atomique Procede de reconnaissance automatique d'objets susceptibles de se chevaucher
US4785528A (en) * 1986-12-22 1988-11-22 The Boeing Company Robotic work positioning system
JPS63288683A (en) * 1987-05-21 1988-11-25 Toshiba Corp Assembling robot
US4909376A (en) * 1987-10-06 1990-03-20 Western Technologies Automation, Inc. Robotically controlled component feed mechanism visually monitoring part orientation
JPH02110788A (en) * 1988-10-20 1990-04-23 Niigata Eng Co Ltd Method for recognizing shape of three-dimensional object
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
JP2686351B2 (ja) 1990-07-19 1997-12-08 ファナック株式会社 視覚センサのキャリブレーション方法
JP2976589B2 (ja) 1991-06-19 1999-11-10 日本電気株式会社 三次元物体の検出方法及び装置
US5577130A (en) * 1991-08-05 1996-11-19 Philips Electronics North America Method and apparatus for determining the distance between an image and an object
GB2261069B (en) * 1991-10-30 1995-11-01 Nippon Denso Co High speed picking system for stacked parts
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
US5621807A (en) * 1993-06-21 1997-04-15 Dornier Gmbh Intelligent range image camera for object measurement
JPH07270137A (ja) 1994-02-10 1995-10-20 Fanuc Ltd スポット光走査型3次元視覚センサ
JP3224687B2 (ja) 1994-05-25 2001-11-05 日本電信電話株式会社 3次元輪郭位置補正方法
JP3225740B2 (ja) 1994-05-25 2001-11-05 株式会社デンソー 山積み部品の高速ピッキング装置
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
JP3904605B2 (ja) * 1995-12-27 2007-04-11 ファナック株式会社 複合センサーロボットシステム
US5790687A (en) * 1996-06-18 1998-08-04 Levi Strauss & Co. Method and apparatus for the optical determination of the orientation of a garment workpiece
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
JPH11300670A (ja) * 1998-04-21 1999-11-02 Fanuc Ltd 物品ピックアップ装置
US6101455A (en) * 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
US6490369B1 (en) * 1999-07-06 2002-12-03 Fanuc Robotics North America Method of viewing and identifying a part for a robot manipulator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7957580B2 (en) 2006-02-01 2011-06-07 Fanuc Ltd Workpiece picking device

Also Published As

Publication number Publication date
DE60039934D1 (de) 2008-10-02
JP2000288968A (ja) 2000-10-17
EP1043126B1 (en) 2008-08-20
US7200260B1 (en) 2007-04-03
EP1043126A3 (en) 2004-06-16
EP1043126A2 (en) 2000-10-11

Similar Documents

Publication Publication Date Title
JP3421608B2 (ja) 教示モデル生成装置
JP3377465B2 (ja) 画像処理装置
JP3300682B2 (ja) 画像処理機能を持つロボット装置
JP3904605B2 (ja) 複合センサーロボットシステム
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP3834297B2 (ja) 画像処理装置
JP3556589B2 (ja) 位置姿勢認識装置
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US7532949B2 (en) Measuring system
JP5743499B2 (ja) 画像生成装置、画像生成方法、およびプログラム
JP2004185123A (ja) 3次元モデルデータ生成装置
US9990685B2 (en) Automated guidance system and method for a coordinated movement machine
JP2006026790A (ja) 教示モデル生成装置
JPH09187038A (ja) 3次元形状抽出装置
JP2008168372A (ja) ロボット装置及び形状認識方法
JP4572497B2 (ja) ロボット制御装置
US20180161983A1 (en) Control device, robot, and robot system
JP4849178B2 (ja) 移動型ロボット
WO1992008575A1 (en) Digitizing control device
CN108127661B (zh) 机器人控制装置
JP3104839B2 (ja) ロボット診断方法
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
JPH0727408B2 (ja) 固定3次元視覚併用ロボットハンドリング装置
JPH07111324B2 (ja) カメラの回転機構を利用したキヤリブレーション装置
JP2020190551A (ja) 計測システム、計測装置、計測方法、及び計測プログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20001114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100418

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100418

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees