JPH01205994A - ロボット視覚認識装置 - Google Patents

ロボット視覚認識装置

Info

Publication number
JPH01205994A
JPH01205994A JP63025625A JP2562588A JPH01205994A JP H01205994 A JPH01205994 A JP H01205994A JP 63025625 A JP63025625 A JP 63025625A JP 2562588 A JP2562588 A JP 2562588A JP H01205994 A JPH01205994 A JP H01205994A
Authority
JP
Japan
Prior art keywords
robot
recognition device
visual recognition
coordinate system
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63025625A
Other languages
English (en)
Inventor
Yasuhiro Matsumoto
泰弘 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP63025625A priority Critical patent/JPH01205994A/ja
Publication of JPH01205994A publication Critical patent/JPH01205994A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明はロボット視覚認識装置に関する。
(従来の技術) 位置決めが十分でない作業対象物あるいは形状の一定し
ない作業対象物に対して、TVカメラで捕らえた画像か
ら作業対象物の位置情報を得てロボットに作業を行わせ
るためのロボット視完認識装置を持ったロボットの場合
、ロボットが作業を行う空間と、ロボットの作業位置を
表すロボットの座標系と、ロボット視覚認識装置の内部
に取り込まれた画像上の属人系の対応関係を知る必要が
ある。この方法として、次のようなケースが考えられる
■ 第5図のごとくロボットが作業対象物に対して作業
を行う作業台1の上の作業面1−1上に形状寸法の判っ
ている作業対象物(あるいは校正用の治具)Wを置き、
このW上の、3点W−1〜3にロボットが作業対象物に
作用を及ぼす手先2−1を持ってきたときのロボットの
座標系2−3における手先2−1の位置情報2−1−1
〜3と、TVカメラ5でWを捕らえた画像をロボット視
覚認識装置4で画像処理して得られるロボット視覚認識
装置4の座標系4−7における3点の位置情報4−W−
1〜3とから、ロボットが作業を行う空間Oとロボット
の持つ座標系2−3とロボット視覚認!装置の持つ座標
系4−7の対応関係を得る方法、 ■ 第6図のごとくロボット2の持つ座標系2−3にお
けるロボットの手先2−1の位置情報H−1−i(iは
1以上でロボットの手先2−1の位置情報を得るのに動
作した回数以下の整数)と、その時のロボットの手先2
−1をTVカメラ5で捕らえた画像をロボット視覚認識
装置4で画像処理して得られるロボット視覚認識装置4
の座標系4−7における手先2−1の位置情報4− H
−i(iは1以上でロボットの手先2−1の位置情報を
得るのに動作した回数以下の整数)を、ロボットの手先
がTVカメラの視覚5−2内の異なる3点で取り、これ
らH−1−1〜3.4−H−1〜3からロボットが作業
を行う空間Oとロボットの持つ座標系2−3とロボット
視覚認識装置の持つ座標系4−7の対応関係を得る方法
、 ■ 第7図のごとくロボット2の手先に治具Jを取り付
け、この治具Jの1点J−1をTVカメラで捕らえた画
像をロボット視覚認識装置4で画像処理して得られるロ
ボット視覚認識装置4の持つ座標系4−7における点J
−1の位置情報4−J−i(iは1以上で治具J上の点
J−1の位置情報を得るのに動作した回数以下の整数)
と、その時のロボット2の持つ座標系2−3における手
先2−1の位置情報H−1−i(iは1以上でロボット
の手先2−1の位置情報を得るのに動作した回数以下の
整数)を、J−1と2−1がTVカメラの視野5−2内
の異なる3点で取り、これら4−J−1〜3.4−H−
1〜3とJ−1と2−1の位置関係からロボットが作業
を行う空間Oとロボットの持つ座標系2−3とロボット
視覚認識装置の持つ座標系4−7の対応関係を得る方法
がある。
(発明が解決しようとする課題) しかし、前述の方法では次のような問題点がある。
(a)■の方法だとロボットの手先2−1をW−1〜3
に合わせる作業が必要で、この作業はロボットの手先を
肉眼では特定しずらい事からかなり困難であり、またロ
ボットが作業を行う空間0とロボットの持つ座標系2−
3はロボット視覚認識装置の持つ座標系4−7の対応関
係は作業面1−1上でしか得られない。
(b)■の方法だと、手先2−1をTVカメラ5で捕ら
えられるようにTVカメラ5の光軸5−1を傾けてやる
必要がある。しかしこのためにロボットが作業を行う空
間0とロボットの持つ座標系2−3とロボット視覚認識
装置の持つ座標系4−7の対応関係を得る作業が複雑と
なる。
(C)■の方法だと治具Jがロボットの作業を干渉する
(d)■及び■の方法だとロボットの手先2−1や治具
Jがロボットの影に入った場合に手先2−1や治具Jの
認識が困難になる。
これらの問題を受けて本発明はロボットの動作を干渉す
ることなく、ロボットが作業を行う空間0とロボットの
持つ座標系2−3とロボット視覚認識装置の持つ座標系
4−7の対応関係を得る作業を容易にするロボット視覚
認識装置校正治具を有するロボット視覚認識装置を提供
することを目的としている。
〔発明の構成〕
(課題を解決するための手段) 上記目的を実現するために、ロボットの作業対象物やロ
ボット自身の画像を捕らノ外Vカメラと。
このTVカメラから送られる画像から作業対象物やロボ
ットの手先の位置を認識するロボット視覚U9識装置と
、このロボット視覚認識装置がら送られる作業対象物や
ロボットの手先の位置情報にょロボットの動作を干渉し
ないような、またロボットの影に入らないようなロボッ
トの手先と同期して動作する手先連動部に取り付けた構
成とする。
(作  用) 上記目印の特徴点をTVカメラで捕らえた画像をロボッ
ト視覚認識装置で画像処理して得られるロボット視覚認
識装置の持つ座標系における特徴点の位置情報と、その
時のロボットの持つ座標系における手先の位置情報を、
少なくとも1回は手先を作業面に付けたときの位置情報
と、少なくとも1回は手先から離したときの位置情報と
最低2回以上取り、これらの関係からロボットが作業を
行う空間とロボットの持つ座標系とロボット視覚認識装
置の持つ座標系の対応関係を得る。
(実 施 例) 本発明の一実施例を第1図に示す。
本実施例は以下の各要素で構成されている。
作業対象物Wに対して所定の作業を行う作業台1、この
作業台1の作業面1−1に固定され作業対象物Wに対し
て所定の作業を行うロボット2、このロボノ!−2を制
御するロボット制御装置3、作業対象物Wの形状や位置
とロボット2の手先2−1の位置を認識及び判断するた
めのロボット視覚認識装置4.前記ロボット視覚認識装
置4に視野5−2内の画像を与えるTVカメラ5、ロボ
ット2が作業を行う空間0とロボット2の持つ座標系2
−3とロボット視覚認識袋[if4の持つ座標系4−7
の対応関係をとるためのロボット視覚認識装置校正治具
6からなる。
作業台1の上方にはロボットが作業を行う空間Oが有り
、前記空間Oはロボット2の手先2−1が到達できる空
間と一致するかあるいは手先2−1が到達できる空間に
含まれ、更に空間O内に作業対象物Wが置かれている。
ロボット2は固有の座標系2−3を有し、座標系2−3
の2軸と平行に動作する軸2−0を有し、4i1112
−0が作業面1−1に垂直になるようにロボット2は固
定されている。ざらに軸2−0の作業面1−1側の先端
には作業対象物Wに所定の作用を及ぼす手先2−1を有
し、軸2−0の手先2−1の反対側の先端には手先2−
1と同期して動作する手先連動部2−2を有する。
ロボット制御装置3はロボット2の動作を制御するロボ
ット制御部3−1と、ロボット視覚認識装置4と命令及
び情報の送受信を行う視覚認識用インターフェース部3
−2を有する。
ロボット視覚認識装置4はTVカメラ5からの画像信号
を入力するTVカメラ画像入力部4−1、画像処理と画
像認識と画像計測に用いられる画像Qを蓄えておく画像
メモリ部4−3、画像処理と画像認識と画像計測を行う
画像処理部4−2、数値演算を行う数値計算部4−4、
ロボット制御装置2と命令やデータの送受信を行う外部
通信インターフェース部4−5、以上4−1から4−5
を制御するロボット視覚制御部4−6を有する。そして
画像Q上の位置を表すための座標系4−7を持つ。
ロボット制御装置3とロボット視覚認識装置4とは視覚
認識用インターフェース部3−2と外部通信インターフ
ェース部4−5でつながれていて、ロボット制御装置3
からの視覚認識要求命令やロボット視覚認識装置4から
の視覚認識結果情報などのやり取りはこれら3−2と4
−5を介して行われる。
TVカメラ5は光軸5−1が作業台1の作業面1−1に
垂直でかつ作業空間0の全であるいは一部を視野5−2
に持つように固定されている。そして視野5−2内の画
像信号をロボット視覚認識装置4のTVカメラ画像入力
部4−1に送る。−方TVカメラ画像入力部4−1はロ
ボット視覚制御部4−5からの画像入力要求命令を受は
取ると画像信号を画像メモリ部4−2に送る。
−1を有している。このロボット視覚認識装置校正治具
6は、ロボット2の手先2−1と同期して動く手先連動
部2−2に取り付けられていて、この複数の特徴点6−
1− a ” cを検出することによって、ロボット2
の手先2−1の位置が検出されるようになっている。
本実施例の作用について以下、順番に説明する。
(1)  ロボット制御装置3は視覚認識装置校正治具
6の目印6−1がTVカメラ5の視野5−2内に入りか
つロボット2の手先2−1が作業台1の作業面1−1に
接するようにロボット2fl動作させ停止する。  。
■ ロボット2が停止するとロボット制御装置3のロボ
ット制御部3−1はロボット2が停止したことを表す命
令M−1をロボット制御部3−1から視覚認識用インタ
ーフェース3−2を介してロボット視覚認識装置4に送
信する。
■ ロボット視覚認識装置4のロボット視覚制御部4−
6は上記命令M−1を外部通信用インターフェース4−
5を介して受信すると、画像入力部4−1に対してTV
カメラ5から画像を入力する命令M−2を送信する。
(イ)−画像入力部4−1は上記命令M−2を受信する
とTVカメラ5で検出した画像を画像メモリ部4−3に
蓄える。
■ 画像入力部4−1は画像データの取り込みが終了し
たことを表す情報I−1をロボット視覚制御部4−6に
送信し、ロボット視覚制御部4−6はこの情報I−1を
受信すると画像処理部4−2に画像処理及び画像計測を
開始する命令M−3を送信する。
0 画像処理部4−2は上記命令M−3をうけると画像
メモリ部4−3に蓄えられた画像データから目印6−1
の特徴点6−1− a ” cの位置を求めるアルゴリ
ズムにしたがって画像処理及び画像計測してロボット視
覚認識装置の座標系4−7における目印6−1の特徴点
6−1− a = cの位置をalす定し、測定結果A
1.B1.C1を数値計算部4−4に送信する。
■ 画像処理部4−2は目印の特徴点抽出が終了したこ
とを表す情報I−2をロボット視覚制御部4−6に送信
し、ロボット視覚制御部4−6はこの情報I−2を受信
すると外部通信用インターフェース4−6を介してロボ
ット制御装置3に目印の特徴点の位置を測定し終わった
ことを表す情報1−3を送信する。
(へ) ロボット制御部3−1は、上記情報I−3を視
覚認識用インターフェース3−2を介して受信すると、
ロボッ1−2の座標系における現在のロボッ1−2の手
先2−1の位置を表す情報T工を視覚認識用インターフ
ェース3−2を介してロボット視覚認識装置4に送信す
る。
■ ロボット視覚制御部4−6は上記情報T□を外部通
信用インターフェース4−5を介して受信すると、上記
情報Tよを受信したことを表す情報I−4を外部通信用
インターフェース4−5を介してロボット制御装置3に
送信する。
(10)  ロボット制御部3−1は視覚認識用インタ
ーフェース3−2を介して上記情報I−4を受信すると
、ロボット2を手先2−1が作業台1の作業面1−1か
ら隔れた位置へ移動する。
(11)  ロボット2が停止するとロボット制御部3
−1はロボット2が停止したことを表す命令M−1を視
覚認識用インターフェース3−2を介してロボット視覚
認識装置4に送信する。
(12)  ロボット視覚制御部4−6は−1;記命令
M−1を外部通信用インターフェース4−5を介して受
信すると1画像入力部4−1に対してTVカメラ5から
画像を入力する命令M−2を送信する。
(13)画像入力部4−1は上記命令M−2を受信する
とTVカメラ5から新しい画像を画像メモリ部4−3に
蓄える。
(14)画像入力部4−1は新しい画像データの取り込
みが終了したことを表す情報I−1をロボット視覚制御
部4−6に送信し、ロボット視覚制御部4−6はこの情
報I−1を受信すると画像処理部4−2に画像処理及び
画像針21I11を開始する命令M−3を送信する。
(15)画像処理部4−2は上記命令M−3を受信する
と画像メモリ部4−3に蓄えられた新しい画像データか
らロボット視覚認識装置の座標系4−7における目印6
−1の特徴点6−1− a ” cの位置を測定し、測
定結果A2、B2.C2を数値計算部4−4に送信する
(I6)画像処理部4−2は上記測定が終了したことを
表す情報I−2をロボット視覚制御部4−6に送信し、
ロボット視覚制御部4−6はこの情報I−2を受信する
と外部通信用インターフェース4−6を介して測定し終
わったことを表す情報I−3を送信する。
(17)  ロボット制御部3−1は、上記情報I−3
を視覚認識用インターフェース3−2を介して受信する
と、ロボット2の座標系における現在のロボット2の手
先2−1の位置を表す情報T2を視覚認識用インターフ
ェース3−2を介してロボット視’JT、認識装置4に
送信する。
(18)  ロボット視覚制御部4−6は」二記情報T
2を外部通信用インターフェース4−5を介して受信す
ると、情報T2を受信したことを表す情報I−4を外部
通信用インターフェース4−5を介してロボット制御装
置3しこ送信する。
(19)  ロボット視覚制御部4−6は情報T工t 
T2と、ロボットが作業を行う空間0とロボットの座標
系2−3とロボット視覚認識装置の座標系4−7の関係
を求める作業を開始する命令M −4を数値計算部4−
4に送信する。
(20)数値計算部4−4は上記命令M−4を受けて、
以上(ト)から(19)の作業によって得た情報A1、
r+□、C1、T1、A2.T:32、C2、T2よリ
ロボットが作業を行う空間Oとロボットの座標系2−3
とロボット視覚認識装置の座標系4−7の関係を以下に
述べる手順によって求める。
ロボット視覚認識装置の座標系4−7は第3図に示めさ
れるごとく2次元であるので、情報A1、B工、C1、
A2、B2、C2は次(υで表される。
但し1=1or2 一方ロボットの座標系2−3は3次元であるので情報T
工、T2は式■で表される ′l’、= (Tl、、 T貸I Tl□)     
・・・ ■但し1=lor2 但し情報T、にはZ軸周りの回転角Tioが含まれるへ
きだが、これは別に扱う。
ところで視覚認識装置校正治具6の目印6−1の特徴点
6−1− a = cとロボットの手先2−1の位置関
係は第4図のごとく対応しているのが判る。そこでロボ
ットの手先2−1のZ軸周りの回転角がOのときのロボ
ットの座標系2−3におけるロボットの手先2−1から
見た特徴点6−1−a = cの位置ベクトルao、b
o、coを式■で表す。
なお、目印6−1は手先連動部2−2に取り付けら才し
ており回転角Tよ。を一定とすると位置ベクトルa□、
 b□、 coも一定である。
式(2)、■より、ロボットの手先2−1がTt(但し
1=1or2)にあるときの特徴点6−1−a〜Cのロ
ボットの座標系における位置情報ai、bl。
Ciは式(イ)で表される。
但しa i+ bL* Ciは a工=(atx+  aiy・ a tz)br=(b
ix* bty+ btz)C5i= (Q LX+ 
Q iyy C1Z)とする。
但し1=10r2 今ロボットの手先2−1がTにあるとすると。
1゛のロボットの座標系2−3における位置情報TいT
y、T2、Toは、そのときのロボット視′ft認識装
置の座標系における特徴点6−1− a −cの位置情
報A、B、Cと弐〇)、■、(3)、@)より求まる。
但しA、B、Cは弐〇で表す。
先ずロボットの座標系における特徴点6−1−a−cの
位置情報a、b、cを求める。A、B。
Cとa、b、cの関係を式■で示す。但しa、b、Cは
式0で表す。
(以下余白) az=bz=c7:=Z 03m = D3a = O、D、i = 1但し1=
1or2 z□はTVカメラとロボット原点の位置補正のためのも
ので、 但し1=1or2 またa、b、cとTとの関係は式0)を使って式(ハ)
となる。
但し1=1or2 式(8)は連立方程式なので、これを解けばロボットの
手先の位置情報Tx、 Ty、 T2、T、が得られる
次に作業台1の作業面1−1の上の作業対象物WをTV
カメラ5で捕らえたときの画像から得たロボット視覚認
識装置の座標系4−7における作業対象物Wの特徴点P
の位置情報Pv (Pvつ、Pvy)とロボットの座標
系2−3における作業対象物Wの特徴点Pの位置情報P
R(PRMI PRyw PRZ)との対応関係を述べ
る。
点Wは作業台の上面にあるのでPRZは弐〇で与えられ
ることは明らかである。
PR□二T12                ・・
・ (9)またpRX* Puyは式■より式(10)
で与えられる。
Zl :alZ ” btz = c iz以上のこと
からロボットが作業を行う空間Oとロボットの持つ座標
系2−3とロボット視覚認識装置の持つ座標系4−7の
対応関係が得られる。
(21)上記の計算処理が終了すると数値計算部4−4
はロボット視覚制御部4−6に対して各座標系の対応関
係が得られた事を表す情報I−5を送る。
(22)  ロボット視覚制御部4−6は上記情報工−
5を受信すると外部通信用インターフェース4−5を介
して各座標系の対応関係が得られた事を表す情報I−6
をロボット制御装置3に送信する。
以上述べてきた作用により、作業対象物WをTVカメラ
5で捕らえた画像Qをロボット視覚認識装置4で画像処
理して得られる作業対象物Wのロボット視覚認識装置の
座標系4−7における特徴点Pの位置情報Pv(Pvヶ
、Pvy)からロボットの座標系2−3における作業対
象物Wの特徴点Pの位置情報PR(PRxt PRy*
 PRz)が得られ、視覚認識装置校正治具6の目印6
−1をTVカメラ5で捕らえた画像をロボット視覚認識
装置4で画像処理して得られる目印6−1の特徴点6−
1− a −cのロボット視ft認識装置の座標系4−
7における位置情報A(Ax−Ay)、 B (Bx、
By)、 C(Cつ、Cy)からロボットの座標系2−
3におけるロボットの手先2−1の位置情報T(Tx、
Ty、 Tz、T6 )が得られ、これから位置決めが
十分でないあるいは形状の一定していない作業作法物に
対して作業が可能になる。
本実施例によれば、ロボットの動作回数2回と画像の取
り込み回数2回でロボットが作業を行う空間Oとロボッ
トの座標系2−3とロボット視覚認識装置の座標系4−
7の対応関係を得ることができる。
なお、視覚認識装置校正治具6の目印6−1の特徴点6
−1− a = cに発光素子を用いることにより、照
明環境が変化する作業場所においても安定したロボット
の手先2の位置情報Tが得られる。
また前記実施例のロボットの動作回数と画像の取り込み
回数をふやし、式■に最少二乗法を適用することにより
ロボットが作業を行う空間Oとロボットの持つ座標系2
−3とロボット視覚認識装置の持つ座標系4−7の対応
関係の精度が上げられる。
〔発明の効果〕
本発明は、ロボットの手先と同期して動作する手先連動
部に1個あるいは複数個の目印を有するロボット視覚認
識装置校正治具を設けたロボット視覚認識装置によりロ
ボットの動作を干渉することなく、容易にロボットが作
業を行う空間0とロボットの持つ座標系2−3とロボッ
ト視覚認識装置の持つ座標系4−7の対応関係が得られ
る効果を持つ。
【図面の簡単な説明】
第1図は本発明によるロボット視覚認識装置による実施
例を示す図、第2図は本発明によるロボット視覚認識装
置校正治具(目印を含む)の詳細図、第3図は本発明の
実施例の作用を説明する図。 第4図は本発明の視覚認識装置校正治具とロボットの手
先の位置関係を示す図、第5図、第6図及び第7図は従
来の技術によるロボット視覚認識装置を示す図である。 1・・・作業台      2・・・ロボット2−1・
・・手先     2−2・・・手先連動部2−3・・
・ロボットの座標系 3・・・ロボット制御装置 4・・・ロボット視覚認識装置 4−7・・・ロボット視覚認識装置の座標系5・・・T
Vカメラ    6・・・校正治具6−1・・・目印 ; : 1 : 第2図 第3図 第4図

Claims (1)

    【特許請求の範囲】
  1. ロボットの手先と同期して移動する手先連動部と、この
    手先連動部に固定されテレビカメラで識別可能な目印を
    設け、テレビカメラの画像から得られる前記目印の位置
    情報とロボット制御装置から得られる前記手先の位置情
    報との対応関係を得てロボットの作業位置を認識するこ
    とを特徴とするロボット視覚認識装置。
JP63025625A 1988-02-08 1988-02-08 ロボット視覚認識装置 Pending JPH01205994A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63025625A JPH01205994A (ja) 1988-02-08 1988-02-08 ロボット視覚認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63025625A JPH01205994A (ja) 1988-02-08 1988-02-08 ロボット視覚認識装置

Publications (1)

Publication Number Publication Date
JPH01205994A true JPH01205994A (ja) 1989-08-18

Family

ID=12171057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63025625A Pending JPH01205994A (ja) 1988-02-08 1988-02-08 ロボット視覚認識装置

Country Status (1)

Country Link
JP (1) JPH01205994A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435885A (ja) * 1990-05-30 1992-02-06 Fanuc Ltd 視覚センサのキャリブレーション方法
JPH0475887A (ja) * 1990-07-19 1992-03-10 Fanuc Ltd 視覚センサのキャリブレーション方法
JPH058186A (ja) * 1991-07-04 1993-01-19 Fanuc Ltd 自動キヤリブレーシヨン方式
US5308221A (en) * 1990-08-02 1994-05-03 Toyoda Koki Kabushiki Kaisha Method and apparatus for controlling a robot having a floating hand
JPH0755427A (ja) * 1993-08-12 1995-03-03 Nec Corp リード位置検出装置
JP2020114609A (ja) * 2019-01-17 2020-07-30 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
WO2022100224A1 (zh) * 2020-11-10 2022-05-19 杭州迦智科技有限公司 一种用于多个定位对象定位一致性方法、设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435885A (ja) * 1990-05-30 1992-02-06 Fanuc Ltd 視覚センサのキャリブレーション方法
JPH0475887A (ja) * 1990-07-19 1992-03-10 Fanuc Ltd 視覚センサのキャリブレーション方法
US5308221A (en) * 1990-08-02 1994-05-03 Toyoda Koki Kabushiki Kaisha Method and apparatus for controlling a robot having a floating hand
JPH058186A (ja) * 1991-07-04 1993-01-19 Fanuc Ltd 自動キヤリブレーシヨン方式
JPH0755427A (ja) * 1993-08-12 1995-03-03 Nec Corp リード位置検出装置
JP2020114609A (ja) * 2019-01-17 2020-07-30 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
WO2022100224A1 (zh) * 2020-11-10 2022-05-19 杭州迦智科技有限公司 一种用于多个定位对象定位一致性方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN113696186B (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
US11046530B2 (en) Article transfer apparatus, robot system, and article transfer method
US10899001B2 (en) Method for teaching an industrial robot to pick parts
US9672630B2 (en) Contour line measurement apparatus and robot system
EP2543483B1 (en) Information processing apparatus and information processing method
US7283661B2 (en) Image processing apparatus
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
US20150224649A1 (en) Robot system using visual feedback
JP2018176334A (ja) 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
US20210197389A1 (en) Computer device and method for controlling robotic arm to grasp and place objects
JP3208953B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
CN104874900A (zh) 焊炬检测装置和焊接机器人系统
KR20150107597A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
JP2000094374A (ja) ピッキング装置
US20200398420A1 (en) Robot teaching device and robot system
JPH01205994A (ja) ロボット視覚認識装置
JPH0392712A (ja) 画像処理装置と測距センサによる物体の3次元位置認識方法
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP2778430B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
US20230356405A1 (en) Robot control system, and control device
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
WO2021210456A1 (ja) ロボットの制御座標系における視覚センサの位置を取得する装置、ロボットシステム、方法、及びコンピュータプログラム