JPH01124072A - ピックアンドプレイス - Google Patents
ピックアンドプレイスInfo
- Publication number
- JPH01124072A JPH01124072A JP62282594A JP28259487A JPH01124072A JP H01124072 A JPH01124072 A JP H01124072A JP 62282594 A JP62282594 A JP 62282594A JP 28259487 A JP28259487 A JP 28259487A JP H01124072 A JPH01124072 A JP H01124072A
- Authority
- JP
- Japan
- Prior art keywords
- silhouette
- built
- parts
- coordinates
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005484 gravity Effects 0.000 claims description 23
- 238000010348 incorporation Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、厚みをもった部品を被組み込み部品に組み込
むロボットに関する。
むロボットに関する。
透過照明とテレビカメラにより、厚みをもつ部品(組み
込み部品と称す)のシルエットをシルエット画像として
得て、そのシルエット画像からシルエットの重心位置と
、シルエットの長軸とロボットが持つX軸との角度((
IJtき角度と称す)を算出し、ロボットに伝送するビ
ジョンシステム(ビジョンと称す)を具備したロボット
の動作を、組み込み部品のシルエットの重心位置をビジ
ョンで算出し、算出したシルエットの重心位置をロボッ
トに伝送し、ロボットがシルエットの重心位置からシル
エットの重心のXY座標を算出し、ロボットに装着され
たテレビカメラの中心のXY座標が算出されたXY座標
に移動する動作を第一の動作とし、組み込み部品のシル
エットの重心位置をビジョンで算出し、算出したシルエ
ットの重心位置をロボットに伝送し、ロボットがシルエ
ットの重心位置からシルエットの重心のXY座探を算出
し、ロボットのグリッパ−の中心のXY座標がその算出
したXY座標に移動する動作を第二の動作とし、ロボッ
トグリッパ−がZ軸方向に下がり組み込み部品をエアー
グリッパ−し、あらかしめティーチングした被組み込み
座標に移動し組み込む動作を第三の動作とし、第一の動
作、第二の動作、第三の動作を連続して行うことによっ
て精度の高い組み込み動作を可能にした。
込み部品と称す)のシルエットをシルエット画像として
得て、そのシルエット画像からシルエットの重心位置と
、シルエットの長軸とロボットが持つX軸との角度((
IJtき角度と称す)を算出し、ロボットに伝送するビ
ジョンシステム(ビジョンと称す)を具備したロボット
の動作を、組み込み部品のシルエットの重心位置をビジ
ョンで算出し、算出したシルエットの重心位置をロボッ
トに伝送し、ロボットがシルエットの重心位置からシル
エットの重心のXY座標を算出し、ロボットに装着され
たテレビカメラの中心のXY座標が算出されたXY座標
に移動する動作を第一の動作とし、組み込み部品のシル
エットの重心位置をビジョンで算出し、算出したシルエ
ットの重心位置をロボットに伝送し、ロボットがシルエ
ットの重心位置からシルエットの重心のXY座探を算出
し、ロボットのグリッパ−の中心のXY座標がその算出
したXY座標に移動する動作を第二の動作とし、ロボッ
トグリッパ−がZ軸方向に下がり組み込み部品をエアー
グリッパ−し、あらかしめティーチングした被組み込み
座標に移動し組み込む動作を第三の動作とし、第一の動
作、第二の動作、第三の動作を連続して行うことによっ
て精度の高い組み込み動作を可能にした。
従来、透過照明とテレビカメラにより、組め込み部品の
シルエットをシルエット画像として得て、そのシルエッ
ト画像からシルエットの重心位置と、シルエットの傾き
角度を算出し、ロボットに伝送するビジョンを具備した
ロボットを利用して組み込み部品を被組み込み部品に組
め込む場合、上記第二の動作と第三の動作を連続して行
っていた。
シルエットをシルエット画像として得て、そのシルエッ
ト画像からシルエットの重心位置と、シルエットの傾き
角度を算出し、ロボットに伝送するビジョンを具備した
ロボットを利用して組み込み部品を被組み込み部品に組
め込む場合、上記第二の動作と第三の動作を連続して行
っていた。
ところが、組み込み部品に厚みがあり、かつ、組み込み
部品を斜め上方からビジョンがとらえると、例えば、第
2図(blに示すように円板のシルエットは楕円柱とと
してとらえられシルエットの重心位置が、組み込め部品
の真上上方からビジョンがとらえて得られたシルエット
の重心位置に対して偏り(誤差と称す)が生じる。
部品を斜め上方からビジョンがとらえると、例えば、第
2図(blに示すように円板のシルエットは楕円柱とと
してとらえられシルエットの重心位置が、組み込め部品
の真上上方からビジョンがとらえて得られたシルエット
の重心位置に対して偏り(誤差と称す)が生じる。
上記誤差を無くするには、組み込み部品の真上にテレビ
カメラが位置した状態でビジョンがシルエット処理すれ
ば良い。すなわち、従来の第二の動作、第三の動作の連
続動作の前に、前記第一の動作を行うようにした。
カメラが位置した状態でビジョンがシルエット処理すれ
ば良い。すなわち、従来の第二の動作、第三の動作の連
続動作の前に、前記第一の動作を行うようにした。
上記構成及び動作により、組み込み部品のシルエットの
重心座標及び傾き角度を誤差なく得られるようになり、
精度の高い組み込みができる。
重心座標及び傾き角度を誤差なく得られるようになり、
精度の高い組み込みができる。
以下に、本発明の実施例を図面に基づいて説明する。
第1図の(alにおいて、1はロボットアーム、2はロ
ボットアームに装着されたエアーグリッパ−23はロボ
ットアームに装着されたカメラ、4は厚みをもち円板の
形状をした組み込み部品、5は被組み込み部品である。
ボットアームに装着されたエアーグリッパ−23はロボ
ットアームに装着されたカメラ、4は厚みをもち円板の
形状をした組み込み部品、5は被組み込み部品である。
次に、第1図のfa)、 (bl、 tel、 (di
、および第2Mの!a1. (blを使って本発明の動
作について説明する。
、および第2Mの!a1. (blを使って本発明の動
作について説明する。
ロボットを利用して組み込み部品4を被組み込み部品5
に組み込む動作において、まずカメラ3が組み込み部品
4の上方に移動し、組み込み部品4のシルエットをとら
える。そのシルエットはビジョンに画像として入力され
、ビジョンはシルエットの重心位置と傾き角度を算出し
、ロボットへ出力する。ロボットはそのシルエットの重
心位置と傾き角度から、組み込み部品4の重心のXY座
標と傾き角度を得る。そしてロボットアーム1はカメラ
3の中心のXY座標が組み込み部品4の重心の真上に位
置するよう移動する。この状態が第1図(blである。
に組み込む動作において、まずカメラ3が組み込み部品
4の上方に移動し、組み込み部品4のシルエットをとら
える。そのシルエットはビジョンに画像として入力され
、ビジョンはシルエットの重心位置と傾き角度を算出し
、ロボットへ出力する。ロボットはそのシルエットの重
心位置と傾き角度から、組み込み部品4の重心のXY座
標と傾き角度を得る。そしてロボットアーム1はカメラ
3の中心のXY座標が組み込み部品4の重心の真上に位
置するよう移動する。この状態が第1図(blである。
そこで再びテレビカメラ3により組み込み部品4のシル
エットのシルエットをシルエット画像として得て、ビジ
ョンはそのシルエット画像からシルエットの重心位置と
傾き角度を算−4= 出し、ロボットに伝送する。ロボットがシルエットの重
心位置からシルエットの重心のXY座標と傾き角度を算
出し、ロボットのグリッパ−2の中心のXY座標がその
算出されたシルエットの重心のXY座標に一致するよう
に移動する。そして、ロボットアーム1がZ軸方向に下
がり組み込み部品をエアーグリップする。この状態が第
1図(C1である。
エットのシルエットをシルエット画像として得て、ビジ
ョンはそのシルエット画像からシルエットの重心位置と
傾き角度を算−4= 出し、ロボットに伝送する。ロボットがシルエットの重
心位置からシルエットの重心のXY座標と傾き角度を算
出し、ロボットのグリッパ−2の中心のXY座標がその
算出されたシルエットの重心のXY座標に一致するよう
に移動する。そして、ロボットアーム1がZ軸方向に下
がり組み込み部品をエアーグリップする。この状態が第
1図(C1である。
ロボットアームはあらかじめティーチングされた被組み
込み座標に移動し、さらにZ軸方向に下がり被組み込み
部品5に組み込み部品4を組み込む。この状態が第1図
fdlである。
込み座標に移動し、さらにZ軸方向に下がり被組み込み
部品5に組み込み部品4を組み込む。この状態が第1図
fdlである。
従来の方法、すなわち前記第二の動作と第三の動作の連
続動作において、第二の動作のシルエット処理の結果、
第2図の(b)に示すように実際の組み込み部品4の重
心座標とシルエット処理の結果算出される座標との間に
誤差が生じる。そして、第三の動作を続行すると被組み
込み部品5に組み込み部品4が組みにくくなる。
続動作において、第二の動作のシルエット処理の結果、
第2図の(b)に示すように実際の組み込み部品4の重
心座標とシルエット処理の結果算出される座標との間に
誤差が生じる。そして、第三の動作を続行すると被組み
込み部品5に組み込み部品4が組みにくくなる。
本発明によれば、前記第一の動作を最初に行うことで、
組み込み部品4の真上にテレビカメラ3が位置して、第
二の動作のテレビカメラ3によるシルエット画像のビジ
ョンへの取り込みが行えるので、第2図(blに示す誤
差はなくなる。この様子を第2図(alに示す。従って
、被組み込み部品5に組み込み部品4を精度良く組み込
めるのである。
組み込み部品4の真上にテレビカメラ3が位置して、第
二の動作のテレビカメラ3によるシルエット画像のビジ
ョンへの取り込みが行えるので、第2図(blに示す誤
差はなくなる。この様子を第2図(alに示す。従って
、被組み込み部品5に組み込み部品4を精度良く組み込
めるのである。
第1図(at、 (bl、 (cl、 (dlは本発明
の動作を示す図、第2図fan、 [blは本発明の実
施例における組み込み部品の厚みに起因する位置認識誤
差に関する説明図である。 1・・・ロボットアーム 2・ ・ ・グリッパ− 3・・・テレビカメラ 4・・・組み込み部品 5・・・被組み込み部品 以上 出願人 セイコー電子工業株式会社 ■ 1トC
の動作を示す図、第2図fan、 [blは本発明の実
施例における組み込み部品の厚みに起因する位置認識誤
差に関する説明図である。 1・・・ロボットアーム 2・ ・ ・グリッパ− 3・・・テレビカメラ 4・・・組み込み部品 5・・・被組み込み部品 以上 出願人 セイコー電子工業株式会社 ■ 1トC
Claims (1)
- 組み込み部品の下から光源で照明し、組み込み部品の
上でカメラによりシルエット像をとらえて画像処理し、
かつ、あらかじめ決められたX軸Y軸を基準にして、組
み込み部品の置かれている座標とX軸からみた傾き角度
を算出し、ロボットに伝送するビジョンシステムを具備
するロボットの動作において、最初にビジョンシステム
が組み込み部品の重心座標を読み取り、次にその読み取
られたXY座標の上にビジョンシステムのカメラが移動
し、再度組み込み部品の置かれているXY座標とX軸か
らみた傾き角度を算出することで、組み込み部品の位置
を認識することを特徴とするピックアンドプレイス。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62282594A JPH01124072A (ja) | 1987-11-09 | 1987-11-09 | ピックアンドプレイス |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62282594A JPH01124072A (ja) | 1987-11-09 | 1987-11-09 | ピックアンドプレイス |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH01124072A true JPH01124072A (ja) | 1989-05-16 |
Family
ID=17654537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62282594A Pending JPH01124072A (ja) | 1987-11-09 | 1987-11-09 | ピックアンドプレイス |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH01124072A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6816755B2 (en) * | 2002-01-31 | 2004-11-09 | Braintech Canada, Inc. | Method and apparatus for single camera 3D vision guided robotics |
US7336814B2 (en) | 2004-07-14 | 2008-02-26 | Braintech Canada, Inc. | Method and apparatus for machine-vision |
US7957583B2 (en) | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
-
1987
- 1987-11-09 JP JP62282594A patent/JPH01124072A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6816755B2 (en) * | 2002-01-31 | 2004-11-09 | Braintech Canada, Inc. | Method and apparatus for single camera 3D vision guided robotics |
US7336814B2 (en) | 2004-07-14 | 2008-02-26 | Braintech Canada, Inc. | Method and apparatus for machine-vision |
US7957583B2 (en) | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111775154B (zh) | 一种机器人视觉系统 | |
JP2690603B2 (ja) | 視覚センサのキャリブレーション方法 | |
JPH10162149A (ja) | アーク溶接工程で溶接線自動追跡のためのビジョンセンサー及びビジョン処理技法 | |
JP2009269110A (ja) | 組立装置 | |
JP2023108062A (ja) | 制御装置、ロボット装置、制御方法、およびプログラム | |
JP2003311670A (ja) | ロボットアームの位置制御方法およびロボット装置 | |
JP5509859B2 (ja) | ロボット制御装置及び方法 | |
JPH01124072A (ja) | ピックアンドプレイス | |
JP2707548B2 (ja) | 視覚認識装置の座標補正方法 | |
JP6499272B2 (ja) | ティーチング装置及び制御情報の生成方法 | |
JPH06218682A (ja) | 組立用ロボット | |
KR0161332B1 (ko) | 본딩좌표의 티칭방법 및 티칭수단 | |
JP2016203282A (ja) | エンドエフェクタの姿勢変更機構を備えたロボット | |
JPS6334093A (ja) | 視覚装置 | |
JPH10128689A (ja) | 無人移動体の視覚補正装置 | |
JPH0797059A (ja) | 物体取出装置 | |
JPH0934552A (ja) | 移動体の制御装置、位置検出装置、そして移動体装置、及びそれらの制御方法 | |
JPH03281182A (ja) | 移動ロボットの座標補正方法 | |
JPS63293403A (ja) | チップ部品の認識装置 | |
JP2907246B2 (ja) | 部品実装装置 | |
TWI761891B (zh) | 不間斷自動化系統及其執行方法 | |
CN108145711A (zh) | 产品位置移动方法和系统 | |
Vargas et al. | Modelling and control of a visual servoing system | |
JP2023182423A (ja) | 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム | |
JPS61294508A (ja) | 半導体ペレットの位置決め装置 |