JPH05305588A - 視覚付ロボットの制御装置 - Google Patents

視覚付ロボットの制御装置

Info

Publication number
JPH05305588A
JPH05305588A JP13614392A JP13614392A JPH05305588A JP H05305588 A JPH05305588 A JP H05305588A JP 13614392 A JP13614392 A JP 13614392A JP 13614392 A JP13614392 A JP 13614392A JP H05305588 A JPH05305588 A JP H05305588A
Authority
JP
Japan
Prior art keywords
robot
work
deviation
calculated
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13614392A
Other languages
English (en)
Inventor
Shuichi Nakada
周一 中田
Fumio Yamamoto
文夫 山本
Kiyotaka Kinoshita
清隆 木下
Takashi Kimura
孝 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyoda Koki KK
Original Assignee
Toyoda Koki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Koki KK filed Critical Toyoda Koki KK
Priority to JP13614392A priority Critical patent/JPH05305588A/ja
Publication of JPH05305588A publication Critical patent/JPH05305588A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

(57)【要約】 【目的】 ロボットの動作中にワークや目標物がズレて
も意図した動作が実行されるようにする。 【構成】 ロボットの姿勢を、ロボット、ロボットに把
持されているワーク及び目標物の少なくとも1つの最新
座標データに基づいて調整する。このために座標算出手
段とロボットコントローラは別の演算処理装置を備え、
両者間をバスで接続する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、視覚付きロボットの制
御装置に関する。なおここでいう視覚付ロボットとは、 a.ワーク位置を撮像して求め、これをロボットで把持
する装置、 b.ロボットに把持されているワーク位置を撮像して求
め、これを目標位置に搬送する装置、 c.ロボットのハンド位置を撮像して求め、さらにワー
ク位置を撮像して求め、両データに基づいてハンドをワ
ークに移動させるロボット等をいう。
【0002】
【従来の技術】従来の視覚付きロボットの制御技術で
は、ロボットの動作命令を実行するに先立って、視覚装
置によって目標位置の座標を求め、ロボットの動作命令
を指定するときに前提としていた基準位置と実位置との
偏差を求め、これによってロボットの動作量を修正して
ロボットを制御している。この方式が図2に模式的に示
されている。
【0003】
【発明が解決しようとする課題】上述したような技術で
は、視覚装置によって目標位置を一度決定すると、この
値を基にしてロボットが動作するため、目標位置を決定
する時の視覚装置からのデータに、照明等の不具合によ
ってノイズが発生していると、正しい動作が行なわれな
い。また、ロボットの動作命令の開始後に、目標位置が
ズレたり、あるいはロボットに把持されているワークが
ズレたりすると、所望の動作が実行されない。そこで本
発明では、上述の現象が生じてもなおロボットが意図し
たとおりに作動する制御装置を開発することにした。
【0004】
【課題を解決するための手段】そのために、本発明で
は、撮像装置の視野内でワークを搬送するロボットの制
御装置であり、ワークまたはロボットのハンド上に設定
された特定部位の座標で指示されるロボットの動作命令
を記憶しておく手段と、撮像装置で撮像されている前記
特定部位の座標を時々刻々算出する手段と、前記動作命
令中の座標と前記時々刻々算出される座標との偏差を時
々刻々算出する手段と、前記算出される偏差がゼロとな
るまでロボットの姿勢を調整する姿勢コントローラとを
有することを特徴とする視覚付ロボットの制御装置を開
発した。
【0005】
【作用】本発明に係わるロボットの制御装置によると、
ロボットの動作はワークまたはハンドの特定部位の座標
で指示されている。例えば図1に示すようにワークWの
特定部位P1を目標位置P2に移動させたい場合には、
ロボットの動作命令中に、目標位置P2の座標(XT,
YT)が指定されている。
【0006】一方撮像装置ではワークWを撮像し、その
撮像データから前記ワークWの前記特定部位P1の座標
(X0,Y0)が時々刻々算出されている。そしてその
偏差(すなわちXT−X0,YT−Y0)も時々刻々算
出されている。ロボットの姿勢コントローラはこの偏差
に基づいて、その偏差がゼロとなるようにロボットの姿
勢を調整する。この結果ワークWの特定部位P1は目標
位置P2におかれる。ロボットがワークWを搬送中に、
なんらかの理由でハンドとワークの位置関係がズレて
も、前述の作動は滞りなく実行される。
【0007】
【実施例】本発明を具現化した一実施例を図3を参照し
て説明する。この実施例は、ロボットRBに把持された
ワークWを撮像装置(この実施例ではCCDカメラ6)
の視野内にある目標物PTにまで搬送する装置である。
この装置ではロボットRBに把持されたワークWの開口
W1の中心をワークの特定部位とし、この開口W1を目
標物PTの直上に位置させたあとワークWを解放し、ワ
ークWを目標物PTに挿通した状態で積み重ねるために
用いられる。
【0008】CCDカメラ6は、目標PTを視野内にお
さめており、ワークWが目標PTに近づくと、ワークW
をも視野内におさめる。CCDカメラ6の側方にはレー
ザ投光器2が固定されており、このレーザ投光器2は図
中2aに示す一平面内のビーム光を照射し、ワークW上
にレーザ光の照射線2bを形成する。同様にレーザ投光
器4も図中4aに示す一平面内のビーム光を照射し、ワ
ークW上にレーザ光の照射線4bを形成する。なお両照
射線2b,4bはほぼ直交するように配置されている。
CCDカメラ6では、ワークWの板中に、他所よりも明
るい照射線2b,4bと他所よりも暗い開口W1を撮像
する。またCCDカメラ6は画素列を有し、これをこの
装置のX,Y軸とする。またこのCCDカメラの平面座
標系に直交する軸をZ軸としている。
【0009】CCDカメラ6の信号はケーブル7を介し
て視覚情報処理装置10に送られて処理される。この視
覚情報処理装置は後述のように4つの演算処理装置を有
し、座標を計算してバス52,54,56,58に座標
データを出力する。図4は視覚情報処理装置10のシス
テム構成を有しており、CCDカメラ6の画像情報はフ
レームメモリ12に記憶される。なおフレームメモリ1
2中のデータは時々刻々最新のものに更新される。フレ
ームメモリ12にはバスを介して4つのCPU(演算処
理装置)18,24,30,36が接続されており、各
CPUにROMとRAMが接続されている。各CPU1
8,24,30,36はバスを介してI/Oインターフ
ェース38に接続され、I/Oインターフェース38は
バス52,54,56,58を介してロボットコントロ
ーラ60に接続されている。ロボットコントローラは図
示しないCPUを有している。すなわち視覚情報処理装
置10とロボットコントローラ60は別々にCPUを有
し、バス52,54,56,58で接続されている。
【0010】視覚情報処理装置10の第1CPU18は
ROM14に記憶されているプログラムに従って、図5
の処理を実行する。即ち、ステップS2ではフレームメ
モリ12中のデータを2値化処理し、図6によく示され
ているようにワークWの開口W1(ここは暗い)を他所
と区分する。すなわち開口W1よりは明るく他所よりは
暗いレベルを閾値として2値化する。ステップS4では
暗い画素の個数をX軸とY軸についてそれぞれヒストグ
ラム処理する。この結果図6に示すヒストグラムが得ら
れ、このヒストグラムのピークとなる座標値から開口W
1の中心座標(X0,Y0)が算出される(S6)。こ
の座標、すなわち開口W1の中心座標(これはワークW
の特定部位の座標である)はステップS8でバス52に
出力される。この処理は繰返し実行され、バス52には
最新の座標データが出力されることになる。
【0011】視覚情報処理装置10の第2CPU24は
ROM20に記憶されているプログラムに従って図7に
示す処理を実行する。ステップS10では、レーザ照射
線4b,2bよりは暗く、ワークW表面よりは明るいレ
ベルの閾値を用いてフレームメモリ12中のデータを2
値化する。これにより図8(b) に示すように、レーザ照
射線4b,2bが抽出される。次に、図8(b) の領域X
11に示される範囲について、Y軸に沿ってヒストグラ
ム処理する(S12)。この結果図8(b) の上方に示す
ヒストグラムが得られこのピークをもつ座標Y1を算出
する(S14)。同様にステップS16では図8(b) の
領域X22に示す範囲についてヒストグラム処理をす
る。この結果図8(b) の下方に示すヒストグラムが得ら
れこのピークをもつ座標Y2を算出する(S18)。そ
してY1とY2の平均値を算出する(S19)。
【0012】図8の(a) に示すように、レーザ光4aは
Z軸に対して傾斜している。そしてワークWがZ=0
(これはワークWが目標PTの頂部と同一高さ位置にあ
ることをいう)の高さにあるときに、レーザ照射線4b
はY=YSの位置関係にあるように設定されている。そ
こでステップS20では前記YSとステップS19での
平均値とから図8(a) のΔYを算出する。その後ステッ
プS22でこのΔYの値からZ0 を算出する。これはレ
ーザ4aの傾きが既知であることから容易にわかる。こ
のようにして得られたZ0 の値は、ワークWのZ座標で
あり、これはバス54に出力される(ステップS2
4)。以上の処理は繰返し実行され、バス54にはワー
クWの最新のZ0 座標が出力される。
【0013】視覚情報処理装置10の第3CPU30は
ROM26に記憶されているプログラムに従って図9の
処理を実行する。ステップS30では、図7のステップ
S10と同様の処理を実行し、レーザ照射線2b,4b
を抽出する。ステップS32,S34,S36,S38
では、図7のステップS12,S14,S16,S18
と同様の処理を実行し、図8(b)のY1とY2を算出す
る。ステップS40ではY1−Y2を算出する。
【0014】ステップS42,S44,S46,S48
では、レーザ照射線2bに対して、S32,S34,S
36,S38で実行したレーザ照射線4bに対する処理
と同様の処理をし、S50でX1−X2を算出する。
【0015】図8(b) において、ワークWが水平にある
と、X1−X2もY1−Y2もともにゼロにある関係に
おかれている。このためワークWの水平面からの傾きに
応じてX1−X2とY1−Y2が特有の値を持つことに
なり、この関係を用いて図9のステップS52では、ワ
ークWのX軸まわりの角θX とY軸まわりの角θY が算
出される。算出されたθX とθY はステップS54でバ
ス56に出力される。以上の処理は繰返し実行される結
果、ワークWの傾きに関する最新のデータが常時バス5
6に出力されていることになる。
【0016】視覚情報処理装置10の第4CPU36は
ROM32に記憶されているプログラムに従って目標P
Tの中心座標XT,YTを算出し、バス58に出力す
る。すなわちバス58には、ロボットの動作中に目標P
Tがズレると、そのズレたあとの最新座標データが出力
される。ただし目標PTがワークWによってカバーさ
れ、CCDカメラ6が目標PTを視認できなくなると、
バス58にはその直前の座標データXT,YTが保存さ
れるようになっている。
【0017】図3で60で示されるロボットコントロー
ラは、バス52,54,56,58等を介して送られる
最新の座標データ(傾きに関するデータを含む)に基づ
いてロボットRBの姿勢を制御する。ロボットコントロ
ーラ60は、ロボットの動作命令を記憶している記憶手
段と、偏差を算出する手段と、偏差がゼロとなるように
ロボットの姿勢を調整する装置とを内蔵している。
【0018】ロボットの動作命令はワークWの特定部
位、この場合開口W1の中心の位置座標(傾きを含む)
を指定することで与えられている。例えばワークWの開
口W1を目標PTの直上に位置させ、しかもワークWを
水平に置きたい場合には、 MOVE(XT0,YT0,ZT0,FLAT) という命令で与えられる。ここでXT0,YT0,ZT
0は目標PTの基準座標であり、この場合目標PTの頂
点がZ=0であることからZT0はゼロとされる。
【0019】この命令が与えられると、ロボットコント
ローラ60に内蔵されているCPUが内蔵されているプ
ログラムに従って作動して図10の処理を実行する。ま
ずステップS62で、目標PTの現実の座標XT,YT
を読込む。XT,YTはバス58を介して最新のものが
送られており、目標がズレていても対応可能となってい
る。
【0020】次にステップS64でワークWの現在の座
標データ(X0,Y0,Z0,θx,θY )を読込む。
ここでは視覚情報処理装置10からバス52,54,5
6を介して送られる最新のデータが読込まれる。以上の
処理の終了後ステップS66で偏差を算出する。ここで
算出された偏差は、ワークWの座標をどれだけ移動させ
ると、ワークWの開口W1が目標PTの直上に水平に置
かれるかを示す値であり、ステップS68では各偏差を
ゼロとする向きにロボットの姿勢を変えるロボットRB
の各軸のサーボモータが回転される。ステップS70で
は各偏差がゼロになったか否かを判別し、ゼロにならな
い間はステップS62,S64,S66,S68を繰返
す。
【0021】この結果、ワークWはその開口W1が目標
PTの直上に水平におかれるまで移動され、そのときに
ステップS72にすすむ。これにより命令MOVE(X
T0,YT0,ZT0,FLAT)の処理が終了する。
なおここでなんらかの原因でワークWがロボットRBの
ハンドからズレたりしても、上述の動作は滞りなく行な
われる。また目標PTがズレても同様である(ただしこ
の実施例では目標PTがワークWにかくれた後に動くこ
とに対しては追従できない。これを避けるためには、ワ
ークWと目標PTの両者を常時視認できるところにカメ
ラ6をセットすることになる。)。この実施例では、レ
ーザ投光器2,4を備えることによってワークWの高さ
や傾きをも検出するようにしているが、ロボットの動き
が一平面内に限られている場合には、これらは不可欠で
はない。
【0022】上述の実施例では、ロボット動作命令記憶
手段がロボットコントローラ60で実現されている。ま
たワークの特定部位の座標を時々刻々算出する手段が視
覚情報処理装置10で構成されている。さらに偏差を算
出する手段と偏差をゼロにするようにロボット姿勢を調
整する装置がロボットコントローラ60で構成されてい
る(図10のステップS66,S68,S70とそれを
繰返すループ参照)。この実施例では偏差を算出すると
きに、動作命令中の座標データ(XT0,YT0)でな
くそれを修正した座標(XT,YT)との偏差を算出し
ている。これは動作命令中のデータを最新のデータに修
正するためのものであり、目標物が動かなければ、動作
命令中のデータを修正する必要はない。この場合はX0
−XT0,Y0−YT0を演算すればよい。
【0023】またこの実施例では座標を算出する視覚情
報処理装置10とロボットの姿勢コントローラ60がそ
れぞれ異なる演算処理装置を有し、各演算処理装置間は
バス52,54,56,58で接続されており、またロ
ボットの姿勢コントローラはバス52,54,56,5
8を介して送られる最新の座標データに基づいてロボッ
トの姿勢を調整する。
【0024】図11は他の実施例を示すものであり、こ
の場合はロボットのハンド上の特定位置の座標でロボッ
トの動作を指定する。この場合撮像装置でハンドの特定
部位の座標を検出しながら、ハンドを目標位置に移動さ
せることになる。このようにするとハンドでワークを把
持することが可能となる。なおレーザ光2,4にかえて
3つのスポット光を照射する光源を用いることができ、
この反射光を撮像することによってハンドの高さ、傾き
を検出することができる。
【0025】図3,図11に示される実施例では撮像装
置がロボットないしロボットに把持されているワークの
座標データを検出し、これをバスを介してロボットコン
トローラに送っている。これに対し、図12は目標を撮
像しながら目標の座標データを時々刻々算出する例を示
しており、この場合姿勢コントローラは最新の目標座標
を用いてロボットの姿勢をコントロールする。なお図1
1,図12のシステムの詳細は図3〜図10で説明した
ものと同様であり、詳しい記述は省略する。
【0026】
【発明の効果】この発明によると、ロボット・ワーク・
目標物等の最新の座標データが時々刻々算出され、これ
がロボットの姿勢制御に反映される。このためロボット
の作動中になんらかの原因で前記3者間の相対関係がズ
レても、意図したとおりの動作が実行される。また従来
だとロボットの動作前に一旦座標が算出されるだけであ
ることからその数値に誤りがあるとロボットの動作が異
常となってしまうが、本発明によるとこうした事故が発
生しにくい。
【図面の簡単な説明】
【図1】請求項1の概念を模式的に示す図
【図2】従来技術を模式的に示す図
【図3】一実施例のシステム図
【図4】視覚情報処理装置のシステム図
【図5】ワーク特定部位の座標を算出する処理手順図
【図6】図5の処理内容を示す図
【図7】ワークの高さを算出する処理手順図
【図8】図7の処理内容を示す図
【図9】ワークの傾きを算出する処理手順図
【図10】ロボットの姿勢コントローラによって処理さ
れる内容を示す図
【図11】請求項2の発明の一実施例を模式的に示す図
【図12】請求項2の他の発明の実施例を模式的に示す
【符号の説明】
6:CCDカメラ;撮像装置 10:視覚情報処理装置;座標算出手段 60:ロボットコントローラ(姿勢コントローラ) S66:偏差演算処理 S64,S66,S68,S70のループ:偏差ゼロにロボット
姿勢を調整する処理
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 W 9179−3H (72)発明者 木村 孝 山形県山形市中桜田二丁目1番3号 株式 会社東洋内

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 撮像装置の視野内でワークを搬送するロ
    ボットの制御装置であり、 ワークまたはロボットのハンド上に設定された特定部位
    の座標で指示されるロボットの動作命令を記憶しておく
    手段と、 撮像装置で撮像されている前記特定部位の座標を時々刻
    々算出する手段と、 前記動作命令中の座標と、前記時々刻々算出される座標
    との偏差を時々刻々算出する手段と、 前記算出される偏差がゼロとなるまでロボットの姿勢を
    調整する姿勢コントローラとを有することを特徴とする
    視覚付ロボットの制御装置。
JP13614392A 1992-04-28 1992-04-28 視覚付ロボットの制御装置 Pending JPH05305588A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13614392A JPH05305588A (ja) 1992-04-28 1992-04-28 視覚付ロボットの制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13614392A JPH05305588A (ja) 1992-04-28 1992-04-28 視覚付ロボットの制御装置

Publications (1)

Publication Number Publication Date
JPH05305588A true JPH05305588A (ja) 1993-11-19

Family

ID=15168316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13614392A Pending JPH05305588A (ja) 1992-04-28 1992-04-28 視覚付ロボットの制御装置

Country Status (1)

Country Link
JP (1) JPH05305588A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07286820A (ja) * 1994-04-20 1995-10-31 Fanuc Ltd 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法
EP1449626A1 (en) 2003-02-19 2004-08-25 Fanuc Ltd Workpiece conveying apparatus with visual sensor for checking the gripping state
JP2007011978A (ja) * 2005-07-04 2007-01-18 Toyota Motor Corp ロボットの運動制御装置
JP2007038370A (ja) * 2005-08-05 2007-02-15 Hirotec Corp ワークの搬送方法及びその搬送方法に用いられる搬送装置
JP2010127719A (ja) * 2008-11-26 2010-06-10 Canon Inc 作業システム及び情報処理方法
EP2221152A1 (en) * 2009-02-19 2010-08-25 ABB Technology AB A robot system and a method for picking and placing components
JP2012055999A (ja) * 2010-09-07 2012-03-22 Canon Inc 物体把持システム、物体把持方法、プログラム、およびロボットシステム
JP2015030086A (ja) * 2013-08-07 2015-02-16 キヤノン株式会社 ロボット制御方法、ロボットシステム、プログラム及び記録媒体
WO2024024877A1 (ja) * 2022-07-29 2024-02-01 Telexistence株式会社 商品移動装置及びその制御方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07286820A (ja) * 1994-04-20 1995-10-31 Fanuc Ltd 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法
EP1449626A1 (en) 2003-02-19 2004-08-25 Fanuc Ltd Workpiece conveying apparatus with visual sensor for checking the gripping state
JP2007011978A (ja) * 2005-07-04 2007-01-18 Toyota Motor Corp ロボットの運動制御装置
JP2007038370A (ja) * 2005-08-05 2007-02-15 Hirotec Corp ワークの搬送方法及びその搬送方法に用いられる搬送装置
JP2010127719A (ja) * 2008-11-26 2010-06-10 Canon Inc 作業システム及び情報処理方法
EP2221152A1 (en) * 2009-02-19 2010-08-25 ABB Technology AB A robot system and a method for picking and placing components
JP2012055999A (ja) * 2010-09-07 2012-03-22 Canon Inc 物体把持システム、物体把持方法、プログラム、およびロボットシステム
US9266237B2 (en) 2010-09-07 2016-02-23 Canon Kabushiki Kaisha Object gripping system, object gripping method, storage medium and robot system
US10131054B2 (en) 2010-09-07 2018-11-20 Canon Kabushiki Kaisha Object gripping system, object gripping method, storage medium and robot system
JP2015030086A (ja) * 2013-08-07 2015-02-16 キヤノン株式会社 ロボット制御方法、ロボットシステム、プログラム及び記録媒体
WO2024024877A1 (ja) * 2022-07-29 2024-02-01 Telexistence株式会社 商品移動装置及びその制御方法

Similar Documents

Publication Publication Date Title
JP4309439B2 (ja) 対象物取出装置
US4803735A (en) Method and apparatus for calculating position and orientation by combination of features of partial shapes
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
US20090070077A1 (en) Three-dimensional model data generating method, and three dimensional model data generating apparatus
JP4995458B2 (ja) 脚式移動ロボット
JP2000288974A (ja) 画像処理機能を持つロボット装置
JPH05305588A (ja) 視覚付ロボットの制御装置
JP2003271933A (ja) 顔検出装置及び顔検出方法並びにロボット装置
US11126844B2 (en) Control apparatus, robot system, and method of detecting object
JPH11144028A (ja) 月、惑星軟着陸のための画像処理装置及び画像処理方法
JP3237705B2 (ja) 障害物検出装置および障害物検出装置を搭載した移動体
JP2019205111A (ja) 画像処理装置、ロボット、及び、ロボットシステム
JPH10118975A (ja) ハンドリング位置認識方法および認識装置
JP2667885B2 (ja) 移動物体の自動追尾装置
JPH04250700A (ja) 電子部品認識方法
JPH05337785A (ja) 研削ロボットの研削経路修正装置
JPH11311506A (ja) 電子部品位置検出方法およびその装置
JP2887656B2 (ja) レーザ加工装置
JP3464902B2 (ja) 開先倣い装置
JP3602687B2 (ja) 自動機の作業支援装置
JPS62289701A (ja) 散積み物体の位置関係を3次元的に認識する視覚システム
JPH0929436A (ja) 溶接線検出装置および検出方法
JPH06226668A (ja) 物品位置検出装置
JP4647914B2 (ja) アーク溶接方法およびアーク溶接装置
JPH1177308A (ja) 溶接線検出方法およびその装置並びに溶接装置