JP2603643B2 - 組立方法 - Google Patents
組立方法Info
- Publication number
- JP2603643B2 JP2603643B2 JP62182878A JP18287887A JP2603643B2 JP 2603643 B2 JP2603643 B2 JP 2603643B2 JP 62182878 A JP62182878 A JP 62182878A JP 18287887 A JP18287887 A JP 18287887A JP 2603643 B2 JP2603643 B2 JP 2603643B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- line sensor
- robot
- moving
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Control Of Position Or Direction (AREA)
- Image Analysis (AREA)
- Details Of Measuring And Other Instruments (AREA)
- Automatic Assembly (AREA)
- Manipulator (AREA)
Description
【発明の詳細な説明】 [産業上の利用分野] 本発明は視覚位置決め装置における組立方法に関し、
例えばロボットハンドによる部品組み付けの際に好適な
視覚位置決め装置における組立方法に関するものであ
る。
例えばロボットハンドによる部品組み付けの際に好適な
視覚位置決め装置における組立方法に関するものであ
る。
[従来の技術] 従来、代表的な視覚位置決め装置としては、二次元エ
リアセンサを用いる位置決め装置と、一次元ラインセン
サを用いる位置決め装置とがある。
リアセンサを用いる位置決め装置と、一次元ラインセン
サを用いる位置決め装置とがある。
二次元のラインセンサを用いる視覚位置決め装置は、
ロボットで用いる部品等の対象物をセンサ上に投影し、
各種の既知のアルゴリズムに基づいて画像データを解析
して、部品の形状やその位置関係を認識する。更に、部
品に開けられた穴の形状や位置関係等も認識することが
できる。
ロボットで用いる部品等の対象物をセンサ上に投影し、
各種の既知のアルゴリズムに基づいて画像データを解析
して、部品の形状やその位置関係を認識する。更に、部
品に開けられた穴の形状や位置関係等も認識することが
できる。
一次元のラインセンサを用いる視覚位置決め装置は、
センサ上に部品を投影して、その部品を相対的に移動し
て、その都度センサにデータを入力して、画像データを
解析することにより、二次元的に部品の形状なり位置関
係を認識するものである。
センサ上に部品を投影して、その部品を相対的に移動し
て、その都度センサにデータを入力して、画像データを
解析することにより、二次元的に部品の形状なり位置関
係を認識するものである。
[発明が解決しようとする問題点] しかしながら、二次元エリアセンサは価格が高く、セ
ンサに入力されるデータ量は多いために記憶容量が膨大
となる。従って、メモリはサイズが大きくなるコスト高
となる。またセンサに入力するデータ量が多いので、デ
ータ収集時間がかかると共に、データ処理時間やデータ
解析時間もかかる。更に、X軸方向、Y軸方向における
センサの分解能を向上させることは困難である。
ンサに入力されるデータ量は多いために記憶容量が膨大
となる。従って、メモリはサイズが大きくなるコスト高
となる。またセンサに入力するデータ量が多いので、デ
ータ収集時間がかかると共に、データ処理時間やデータ
解析時間もかかる。更に、X軸方向、Y軸方向における
センサの分解能を向上させることは困難である。
他方、一次元ラインセンサを用いるにあたっては部品
を移動させたり、また部品を固定して一次元ラインセン
サを移動させることから、データ収集およびデータ解析
に時間を要し、作業を効率よく進行させることが難かし
い。
を移動させたり、また部品を固定して一次元ラインセン
サを移動させることから、データ収集およびデータ解析
に時間を要し、作業を効率よく進行させることが難かし
い。
本発明の目的は、上記のような従来の問題点を解消
し、一回のデータ収集により部品の形状や位置関係を認
識し、部品を位置決め制御することのできる廉価な視覚
位置決め方法を提供することにある。
し、一回のデータ収集により部品の形状や位置関係を認
識し、部品を位置決め制御することのできる廉価な視覚
位置決め方法を提供することにある。
[問題点を解決するための手段] 上記の目的を達成するために、本発明に係る組立方法
は、ワークをロボット等の作業機械によりピックアップ
して取付け部材に組み付ける組立方法において、前記作
業機械により前記ワークを保持する保持工程と、前記ワ
ークを前記取付け部材へ移動するための移動軌跡上の点
に対応する位置にある2次元座標面の各座標上に設けら
れた複数のラインセンサを用いて、該ラインセンサン上
に投影された既知形状物の複数の投影長を検出する検出
工程と、前記複数の投影長に基づいて、前記既知形状物
の位置を認識する認識工程と、前記認識工程によって認
識された位置情報と、予め定められた位置情報とを比較
して、前記ワークを前記取付け部材へ組みつける為に必
要な移動量を算出する移動量算出工程と、該移動量に基
づいて前記ワークを移動させる移動工程と、前記ワーク
を取付け部材に組みつける組みつけ工程とを備えたもの
である。
は、ワークをロボット等の作業機械によりピックアップ
して取付け部材に組み付ける組立方法において、前記作
業機械により前記ワークを保持する保持工程と、前記ワ
ークを前記取付け部材へ移動するための移動軌跡上の点
に対応する位置にある2次元座標面の各座標上に設けら
れた複数のラインセンサを用いて、該ラインセンサン上
に投影された既知形状物の複数の投影長を検出する検出
工程と、前記複数の投影長に基づいて、前記既知形状物
の位置を認識する認識工程と、前記認識工程によって認
識された位置情報と、予め定められた位置情報とを比較
して、前記ワークを前記取付け部材へ組みつける為に必
要な移動量を算出する移動量算出工程と、該移動量に基
づいて前記ワークを移動させる移動工程と、前記ワーク
を取付け部材に組みつける組みつけ工程とを備えたもの
である。
[作用] 本発明によれば、一次元ラインセンサを2個以上の座
標軸にそれぞれ配置することにより、一回のデータ収集
で対象物の位置関係を認識することが可能となり、また
データ処理時間を短くすることができる。
標軸にそれぞれ配置することにより、一回のデータ収集
で対象物の位置関係を認識することが可能となり、また
データ処理時間を短くすることができる。
[実施例] 以下、図面を参照して本発明の実施例を詳細に説明す
る。
る。
第1図に本発明の実施例の基本構成を示す。1は少な
くとも2つの座標軸上に配置された1次元ラインセンサ
を用いて、一次元ラインセンサ上に投影された既知形状
対象物の投影長を検出する検出手段、2は投影長に基づ
いて対象物の位置を判定する判定手段、3は判定手段に
よって判定された位置情報と、予め定められた位置情報
とを比較して、比較信号を出力する比較手段、4は比較
信号の結果に基づいて、対象物の位置を移動制御する制
御手段である。
くとも2つの座標軸上に配置された1次元ラインセンサ
を用いて、一次元ラインセンサ上に投影された既知形状
対象物の投影長を検出する検出手段、2は投影長に基づ
いて対象物の位置を判定する判定手段、3は判定手段に
よって判定された位置情報と、予め定められた位置情報
とを比較して、比較信号を出力する比較手段、4は比較
信号の結果に基づいて、対象物の位置を移動制御する制
御手段である。
第2図は、本実施例の視覚位置決め装置を、ロボット
によるワークの取り付けに適用した例(尺度は図示せ
ず)を示す。
によるワークの取り付けに適用した例(尺度は図示せ
ず)を示す。
図中、5はロボット、6はロボット5に把持されたワ
ーク把持ハンドである。7はワーク把持ハンド6に配置
され、後述するワークに開けられた丸穴8を照明器具で
ある。本実施例では2個の照明器具7がワーク把持ハン
ド6に取り付けられている。9はワークであって、ワー
ク9には設計仕様に従って2個の丸穴8が穿たれてい
る。10はレンズである。11Aは一次元CCDラインセンサ、
11Bは一次元CCDラインセンサン11Aと直角方向に配置さ
れた別の一次元CCDラインセンサンである。2個の一次
元CCDラインセンサ11A,11Bは同一面上に配置されてい
る。12は視覚位置決め装置本体である。
ーク把持ハンドである。7はワーク把持ハンド6に配置
され、後述するワークに開けられた丸穴8を照明器具で
ある。本実施例では2個の照明器具7がワーク把持ハン
ド6に取り付けられている。9はワークであって、ワー
ク9には設計仕様に従って2個の丸穴8が穿たれてい
る。10はレンズである。11Aは一次元CCDラインセンサ、
11Bは一次元CCDラインセンサン11Aと直角方向に配置さ
れた別の一次元CCDラインセンサンである。2個の一次
元CCDラインセンサ11A,11Bは同一面上に配置されてい
る。12は視覚位置決め装置本体である。
ロボット5のワーク把持ハンド6に配置された照明器
具7は、ワーク9の2個の丸穴8を照明する。丸穴8を
通った通過光はレンズ10によって曲げられる。曲げられ
ら光は、視覚位置決め装置本体12内の一次元CCDライン
センサ11A,11B上に投影され、円形の明るい部分ができ
る。本実施例においては、レンズ10の光心を通る横断面
と、2個の一次元CCDラインセンサが決定する平面との
垂直距離は、レンズ10の焦点距離の2倍に設定した。こ
のように設定することで、ワーク9の2個の丸穴8同じ
大きさの円形の明るい部分が上記の平面上に投影される
ことになる。
具7は、ワーク9の2個の丸穴8を照明する。丸穴8を
通った通過光はレンズ10によって曲げられる。曲げられ
ら光は、視覚位置決め装置本体12内の一次元CCDライン
センサ11A,11B上に投影され、円形の明るい部分ができ
る。本実施例においては、レンズ10の光心を通る横断面
と、2個の一次元CCDラインセンサが決定する平面との
垂直距離は、レンズ10の焦点距離の2倍に設定した。こ
のように設定することで、ワーク9の2個の丸穴8同じ
大きさの円形の明るい部分が上記の平面上に投影される
ことになる。
第3図は、ワーク9を定められた部材に取りつける使
用態様を示す。
用態様を示す。
13はワーク9を収納するワークホルダである。ワーク
ホルダ13内ではワーク9が±0.5mmの位置ずれを起こ
す。14はワーク9が取りつけられる取り付け部材であ
る。
ホルダ13内ではワーク9が±0.5mmの位置ずれを起こ
す。14はワーク9が取りつけられる取り付け部材であ
る。
ワークホルダ13に収納されたワーク9をワーク把持ハ
ンド6によってバキューム・クランプし、(第3図
(A)参照))、ワーク9を把持したままロボット5を
用いてワーク9を移動し、取り付け部材14に取り付ける
(第3図(C)参照)。ワーク9がワークホルダ13内で
位置ずれしたままの状態で取り付け部材14に取り付ける
と、一回のティーチングではワーク9と取り付け部材14
とが組み合わさらない可能性がある。そこで、第3図
(B)において、ワーク9の丸穴8を照明器具7を用い
て一次元CCDラインセンサ上に投影して丸穴8の位置を
認識する必要がある。
ンド6によってバキューム・クランプし、(第3図
(A)参照))、ワーク9を把持したままロボット5を
用いてワーク9を移動し、取り付け部材14に取り付ける
(第3図(C)参照)。ワーク9がワークホルダ13内で
位置ずれしたままの状態で取り付け部材14に取り付ける
と、一回のティーチングではワーク9と取り付け部材14
とが組み合わさらない可能性がある。そこで、第3図
(B)において、ワーク9の丸穴8を照明器具7を用い
て一次元CCDラインセンサ上に投影して丸穴8の位置を
認識する必要がある。
ワーク9はワークホルダ13内で±0.5mmの誤差で位置
決めされているので、ワーク9の丸穴8は直径が1mm以
上であれば、一次元CCDラインセンサ11A,11B上の丸穴の
一部が投影されるはずである。この一次元CCDラインセ
ンサ11A,11Bに投影させる光の入力エータを後述するCPU
が解析することで、丸穴8の位置を認識し、認識して得
られらデータに基づいてロボット5を移動制御してワー
ク9を取り付け部材14に正確に取り付けることができ
る。
決めされているので、ワーク9の丸穴8は直径が1mm以
上であれば、一次元CCDラインセンサ11A,11B上の丸穴の
一部が投影されるはずである。この一次元CCDラインセ
ンサ11A,11Bに投影させる光の入力エータを後述するCPU
が解析することで、丸穴8の位置を認識し、認識して得
られらデータに基づいてロボット5を移動制御してワー
ク9を取り付け部材14に正確に取り付けることができ
る。
第4図に視覚位置決め装置を用いてロボット5を制御
する回路を示す。図中、11A,11Bは一次元CCDラインセン
サ、14Aおよび14Bは、それぞれの一次元CCDラインセン
サ11Aおよび11Bを駆動する駆動回路である。15Aおよび1
5Bは、一次元CCDラインセンサ11Aおよび11Bからのビデ
オ信号を2値化して、一次元CCDラインセンサが照射さ
れた部分を1とし、照射されない部分を0として出力す
る2値化回路である。16は2値化回路15Aおよび15Bの出
力信号を記憶する記憶手段である。17はCPUであり、駆
動回路14Aおよび14Bを駆動する。
する回路を示す。図中、11A,11Bは一次元CCDラインセン
サ、14Aおよび14Bは、それぞれの一次元CCDラインセン
サ11Aおよび11Bを駆動する駆動回路である。15Aおよび1
5Bは、一次元CCDラインセンサ11Aおよび11Bからのビデ
オ信号を2値化して、一次元CCDラインセンサが照射さ
れた部分を1とし、照射されない部分を0として出力す
る2値化回路である。16は2値化回路15Aおよび15Bの出
力信号を記憶する記憶手段である。17はCPUであり、駆
動回路14Aおよび14Bを駆動する。
CPU17には丸穴8の位置を認識し、ロボット5を移動
制御するプログラムが格納さているプログラム制御部18
がある。19はプログラム制御部18からの情報に基いてロ
ボット5を移動制御するロボット制御部である。次に第
4図に示した動作について説明する。
制御するプログラムが格納さているプログラム制御部18
がある。19はプログラム制御部18からの情報に基いてロ
ボット5を移動制御するロボット制御部である。次に第
4図に示した動作について説明する。
まず、一次元CCDラインセンサ11A,11Bに投影された丸
穴8の画像情報を読み取る。2値化回路15A,15Bによっ
て画像情報を2値化して、CPU17で2値化された信号を
解析する。CPU17内のプログラム制御部18は予め決めら
れたプログラムに従ってCPU17への画像入力信号を解析
する。画像入力信号に基づいて解析された位置情報をロ
ボット制御部19に送り、ロボット5を移動制御する。
穴8の画像情報を読み取る。2値化回路15A,15Bによっ
て画像情報を2値化して、CPU17で2値化された信号を
解析する。CPU17内のプログラム制御部18は予め決めら
れたプログラムに従ってCPU17への画像入力信号を解析
する。画像入力信号に基づいて解析された位置情報をロ
ボット制御部19に送り、ロボット5を移動制御する。
第5図はワーク9の丸穴8が、照明器具7からの照明
光により一次元CCDラインセンサ11A,11Bに投影された時
の状況を示す。第6図は、2個の丸穴8の中心座標を求
めるサブルーチンを示す。S1〜S7は各ステップを示す。
次に第5図および第6図を参照しつつ2個の丸穴8の中
心座標を求める動作手順を説明する。
光により一次元CCDラインセンサ11A,11Bに投影された時
の状況を示す。第6図は、2個の丸穴8の中心座標を求
めるサブルーチンを示す。S1〜S7は各ステップを示す。
次に第5図および第6図を参照しつつ2個の丸穴8の中
心座標を求める動作手順を説明する。
まず、第5図において、一次元CCDラインセンサ11Bが
向いている方向をY軸、一次元CCDラインセンサ11Aが向
いている方向をX軸に取る。同図において太線で示した
線分hX hYは、それぞれ丸穴8を通過した光が一次元CCD
ラインセンサ11A、11B上を投影している部分である。
hX,hYの長さは一次元CCDラインセンサ11A、11Bの駆動を
開始し、ビットパターンを取り込み(ステップS1〜S4)
CPU17で処理して求める。
向いている方向をY軸、一次元CCDラインセンサ11Aが向
いている方向をX軸に取る。同図において太線で示した
線分hX hYは、それぞれ丸穴8を通過した光が一次元CCD
ラインセンサ11A、11B上を投影している部分である。
hX,hYの長さは一次元CCDラインセンサ11A、11Bの駆動を
開始し、ビットパターンを取り込み(ステップS1〜S4)
CPU17で処理して求める。
線分hXを弦とする円としては、O2を中心とする円と、
O2′を中心とする円と2つが考えられる。同様に、線分
hYを弦とする円は、O1とO1′を中心と円が考えらえる。
O2′を中心とする円と2つが考えられる。同様に、線分
hYを弦とする円は、O1とO1′を中心と円が考えらえる。
ここで、中心O2,O2′のX座標をX1,X軸と中心O2,O2′
との間の距離をそれぞれΔY,ΔY′とする。同様に中心
O1,O1′のY座標をY1,Y軸と中心O1とO2′との間の距離
をΔX,ΔX′とする。この時、4つの円の中心の座標
は、O1(ΔX,Y1)、O1′(ΔX′,Y1)、O2(X1,Δ
Y)、O2′(X1,ΔY′)である。ここでO1,O1′の円の
半径をr1,O2,O2′の円の半径をr2とすれば、 である。ここでr1,r2は設計仕様に従って予め定められ
ている。
との間の距離をそれぞれΔY,ΔY′とする。同様に中心
O1,O1′のY座標をY1,Y軸と中心O1とO2′との間の距離
をΔX,ΔX′とする。この時、4つの円の中心の座標
は、O1(ΔX,Y1)、O1′(ΔX′,Y1)、O2(X1,Δ
Y)、O2′(X1,ΔY′)である。ここでO1,O1′の円の
半径をr1,O2,O2′の円の半径をr2とすれば、 である。ここでr1,r2は設計仕様に従って予め定められ
ている。
これからO1,O1′,O2,O2′の座標を求める。
(ステップS5)。
次に、以下のように4つの円の中心間距離を求める
(ステップS6)。
(ステップS6)。
これらのl1,l2,l3,l4と設計仕様に予め定められた2
個の丸穴8の中心間距離lとを比較して、両者の中心間
距離の差が最小となる時の円の中心座標を求める(ステ
ップS7)。
個の丸穴8の中心間距離lとを比較して、両者の中心間
距離の差が最小となる時の円の中心座標を求める(ステ
ップS7)。
この時、l1−l,l2−l,l3−l,l4−lの値を最小とする
のは既知のサブルーチンによって求めることができるの
で、その時の中心座標も容易に求まる。
のは既知のサブルーチンによって求めることができるの
で、その時の中心座標も容易に求まる。
第7図に、本実施例の認識動作を示す。第7図に示さ
れる各ステップは、第4図に示したCPU17内のプログラ
ム制御部18で行なわれる。
れる各ステップは、第4図に示したCPU17内のプログラ
ム制御部18で行なわれる。
まず、始めに正しいティーチングの中心位置座標を求
め(ステップS8)、正しいティーチング位置P1(XP1,Y
P1)、P2(XP2,YP2)を記憶させる(ステップS9)。第
3図(B)に示す構成で、光を照射することによって一
次元CCDラインセンサを用いて認識を開始し(ステップS
10)、2つの丸穴8の中心の認識座標を求め(ステップ
S11)、この認識位置Q1(XQ1,YQ1)、Q2(XQ2,YQ2)を
記憶させる(ステップS12)。
め(ステップS8)、正しいティーチング位置P1(XP1,Y
P1)、P2(XP2,YP2)を記憶させる(ステップS9)。第
3図(B)に示す構成で、光を照射することによって一
次元CCDラインセンサを用いて認識を開始し(ステップS
10)、2つの丸穴8の中心の認識座標を求め(ステップ
S11)、この認識位置Q1(XQ1,YQ1)、Q2(XQ2,YQ2)を
記憶させる(ステップS12)。
第8図は、ティーチング位置P1,P2と認識位置Q1,Q2と
の位置関係を示す。認識位置がティーチング位置と合致
するようにX軸方向のずれ分ΔX▲ ▼、Y軸方
向のずれ分ΔY▲ ▼、座標軸の傾きのずれ分Δ
θだけ補正すればワークは取り付け部材に正確に合致す
る。ここで である。
の位置関係を示す。認識位置がティーチング位置と合致
するようにX軸方向のずれ分ΔX▲ ▼、Y軸方
向のずれ分ΔY▲ ▼、座標軸の傾きのずれ分Δ
θだけ補正すればワークは取り付け部材に正確に合致す
る。ここで である。
第7図において、これらのずれ分ΔX▲ ▼,
ΔY▲ ▼、Δθを求め(ステップS13)、これ
らのずれ分に関する情報をロボット制御部19に送信する
(ステップS14)。ロボット5は送られた情報に基づい
て動作してワーク9を取り付け部材14に正確に組み合わ
せる(ステップS15)。次にステップS16に進み、必要な
ワークがすべて組み合わさったか否かを判断し、肯定判
断ならばロボット5の動作を終了し、否定判断ならばス
テップS10に戻る。
ΔY▲ ▼、Δθを求め(ステップS13)、これ
らのずれ分に関する情報をロボット制御部19に送信する
(ステップS14)。ロボット5は送られた情報に基づい
て動作してワーク9を取り付け部材14に正確に組み合わ
せる(ステップS15)。次にステップS16に進み、必要な
ワークがすべて組み合わさったか否かを判断し、肯定判
断ならばロボット5の動作を終了し、否定判断ならばス
テップS10に戻る。
第9図に、2個の丸穴の中心が認知できる範囲を示し
た。図示の如く、その範囲はおよそΔd〜Δd′であ
る。
た。図示の如く、その範囲はおよそΔd〜Δd′であ
る。
今までは、X軸に一次元CCDラインセンサ1個、Y軸
に一元CCDラインセンサ1個を配置してワークの2個の
丸穴の位置関係を求めることについて述べた。本発明
は、形状が丸穴でなくても既知の形状の三角形、長方形
においても、それらの位置関係を認識することができ
る。
に一元CCDラインセンサ1個を配置してワークの2個の
丸穴の位置関係を求めることについて述べた。本発明
は、形状が丸穴でなくても既知の形状の三角形、長方形
においても、それらの位置関係を認識することができ
る。
第10図は、既知の大きさの三角形の位置関係を3個の
一次元CCDラインセンサを用いて認識する他の実施例を
示す。本図においては、Y軸に平行に2個の一次元CCD
ラインセンサを配置し、X軸に1個の一次元CCDライン
センサを配置した。図示の如く、三角形ABCが一次元CCD
ラインセンサを横切る点を、D1,D2,D3とする。点D1,D2
の位置がCCDラインセンサへの投影長から定まった時
は、三角形は直線AB上でしか動くことができない。それ
で、D1,D2の他に点D3が定まれば三角形ABCは一義的に定
まる。そこで、三角形の認識位置を三角形のティーチン
グ位置に合致させるようにロボットを操作することが可
能となる。
一次元CCDラインセンサを用いて認識する他の実施例を
示す。本図においては、Y軸に平行に2個の一次元CCD
ラインセンサを配置し、X軸に1個の一次元CCDライン
センサを配置した。図示の如く、三角形ABCが一次元CCD
ラインセンサを横切る点を、D1,D2,D3とする。点D1,D2
の位置がCCDラインセンサへの投影長から定まった時
は、三角形は直線AB上でしか動くことができない。それ
で、D1,D2の他に点D3が定まれば三角形ABCは一義的に定
まる。そこで、三角形の認識位置を三角形のティーチン
グ位置に合致させるようにロボットを操作することが可
能となる。
第11図に、既知の大きさの長方形の位置関係を3個の
一次元CCDラインセンサを用いて認識する更に他の実施
例を示す。本図においても第10図と同様に一次元CCDラ
インセンサを配置した。図示のように、長方形、EFGHが
一次元CCDラインセンサを横切る点をI1,I2,I3とする。I
1,I2が定まると長方形EFGHは、直線EF上しか動きえな
い。そこでI1,I2の他にI3が定まると、長方形二辺EF、E
Hの方向が定まる。別の配置の長方形としては破線で示
される長方形も考えられるが、位置ずれはそれほど大き
くないのでこの長方形は求めようとする長方形ではな
い。これにより長方形の位置関係は認識できる。以下は
同様にして長方形の認識位置を長方形のティーチング位
置に合致させるようにロボットを動作させればよい。
一次元CCDラインセンサを用いて認識する更に他の実施
例を示す。本図においても第10図と同様に一次元CCDラ
インセンサを配置した。図示のように、長方形、EFGHが
一次元CCDラインセンサを横切る点をI1,I2,I3とする。I
1,I2が定まると長方形EFGHは、直線EF上しか動きえな
い。そこでI1,I2の他にI3が定まると、長方形二辺EF、E
Hの方向が定まる。別の配置の長方形としては破線で示
される長方形も考えられるが、位置ずれはそれほど大き
くないのでこの長方形は求めようとする長方形ではな
い。これにより長方形の位置関係は認識できる。以下は
同様にして長方形の認識位置を長方形のティーチング位
置に合致させるようにロボットを動作させればよい。
[発明の効果] 以上説明したように、本発明によれば、一次元ライン
センサを2個以上の座標軸に配置することにより、一回
のデータ収集で対象物の位置関係を認識することが可能
となり、またデータ処理時間を短くすることができる。
センサを2個以上の座標軸に配置することにより、一回
のデータ収集で対象物の位置関係を認識することが可能
となり、またデータ処理時間を短くすることができる。
また、一次元ラインセンサを用いているので安価であ
り、データ量も膨大でないのでメモリ容量も小さくて済
み、その分コスト安となる。
り、データ量も膨大でないのでメモリ容量も小さくて済
み、その分コスト安となる。
第1図は、本発明の実施例を示す基本構成図、 第2図は、本発明の実施例をロボットによるワークの取
りつけに適用した概略構成を示す斜視図、 第3図は、本発明の実施例の使用態様を示す斜視図、 第4図は、本発明の実施例の回路構成を示すブロック
図、 第5図は、本実施例の部品の丸穴が投影された状況を示
す説明図、 第6図は、2個の丸穴の中心座標を求めるサブルーチン
プログラムを示す流れ図、 第7図は、第3図に示したブロック図の動作を示す流れ
図、 第8図は、ティーチング位置と認識位置との位置関係を
示す説明図、 第9図は、丸穴の中心間距離が認知できる範囲を示す説
明図、 第10図は、三角形の位置関係を認識するのに本発明を適
用した他の実施例を示す説明図、 第11図は、長方形の位置関係を認識するのに本発明を適
用した更に他の実施例を示す説明図である。 1……検出手段、 2……判定手段、 3……比較手段、 4……制御手段、 5……ロボット、 6……ワーク把持ハンド、 7……照明器具、 8……丸穴、 9……ワーク、 10……レンズ、 11A,11B……一次元CCDラインセンサ、 12……視覚位置決め装置本体、 13……ワークホルダ、 14……取り付け部材。
りつけに適用した概略構成を示す斜視図、 第3図は、本発明の実施例の使用態様を示す斜視図、 第4図は、本発明の実施例の回路構成を示すブロック
図、 第5図は、本実施例の部品の丸穴が投影された状況を示
す説明図、 第6図は、2個の丸穴の中心座標を求めるサブルーチン
プログラムを示す流れ図、 第7図は、第3図に示したブロック図の動作を示す流れ
図、 第8図は、ティーチング位置と認識位置との位置関係を
示す説明図、 第9図は、丸穴の中心間距離が認知できる範囲を示す説
明図、 第10図は、三角形の位置関係を認識するのに本発明を適
用した他の実施例を示す説明図、 第11図は、長方形の位置関係を認識するのに本発明を適
用した更に他の実施例を示す説明図である。 1……検出手段、 2……判定手段、 3……比較手段、 4……制御手段、 5……ロボット、 6……ワーク把持ハンド、 7……照明器具、 8……丸穴、 9……ワーク、 10……レンズ、 11A,11B……一次元CCDラインセンサ、 12……視覚位置決め装置本体、 13……ワークホルダ、 14……取り付け部材。
Claims (1)
- 【請求項1】ワークをロボット等の作業機械によりピッ
クアップして取付け部材に組みつける組立方法におい
て、 前記作業機械により前記ワークを保持する保持工程と、 前記ワークを前記取付け部材へ移動するための移動軌跡
上の点に対応する位置にある2次元座標面の各座標上に
設けられた複数のラインセンサを用いて、該ラインセン
サ上に投影された既知形状物の複数の投影長を検出する
検出工程と、 前記複数の投影長に基づいて、前記既知形状物の位置を
認識する認識工程と、 前記認識工程によって認識された位置情報と、予め定め
られた位置情報とを比較して、前記ワークを前記取付け
部材へ組みつける為に必要な移動量を算出する移動量算
出工程と、 該移動量に基づいて前記ワークを移動させる移動工程
と、 前記ワークを取付け部材に組みつける組みつけ工程と を備えたことを特徴とする組立方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62182878A JP2603643B2 (ja) | 1987-07-22 | 1987-07-22 | 組立方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62182878A JP2603643B2 (ja) | 1987-07-22 | 1987-07-22 | 組立方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6427887A JPS6427887A (en) | 1989-01-30 |
JP2603643B2 true JP2603643B2 (ja) | 1997-04-23 |
Family
ID=16125997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62182878A Expired - Fee Related JP2603643B2 (ja) | 1987-07-22 | 1987-07-22 | 組立方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2603643B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0797294B2 (ja) * | 1989-09-12 | 1995-10-18 | 久 松嵜 | 自動位置合せ制御装置 |
US5223705A (en) * | 1992-08-12 | 1993-06-29 | At&T Bell Laboratories | Measurement of an optical amplifier parameter with polarization |
JP6667376B2 (ja) * | 2016-06-10 | 2020-03-18 | トヨタ自動車九州株式会社 | 部品圧入方法および部品圧入システム |
CN114147664B (zh) * | 2021-12-09 | 2024-08-09 | 苏州华星光电技术有限公司 | 一种治具更换方法以及电子设备的制备方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62120099A (ja) * | 1985-11-20 | 1987-06-01 | 株式会社東芝 | チツプ部品装着キヤリブレ−シヨン装置 |
-
1987
- 1987-07-22 JP JP62182878A patent/JP2603643B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPS6427887A (en) | 1989-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3556589B2 (ja) | 位置姿勢認識装置 | |
JP2710850B2 (ja) | ワーク把持装置、ワーク及びその収納ケース | |
US6763284B2 (en) | Robot teaching apparatus | |
US4575304A (en) | Robot system for recognizing three dimensional shapes | |
US4611292A (en) | Robot vision system | |
US5234665A (en) | Apparatus for measuring aggregation patterns on a microplate | |
JPH02143309A (ja) | 操縦方法及び装置 | |
US6061467A (en) | Automated optical inspection apparatus using nearest neighbor interpolation | |
US11826919B2 (en) | Work coordinate generation device | |
JP2603643B2 (ja) | 組立方法 | |
JP3721983B2 (ja) | 三次元形状の欠陥検査方法 | |
JPH0545117A (ja) | 光学式3次元位置計測方法 | |
JPH10128689A (ja) | 無人移動体の視覚補正装置 | |
JP2932418B2 (ja) | ワークの位置計測方法 | |
JP3039645B1 (ja) | 電子部品の位置認識方法及び装置 | |
JP2568125B2 (ja) | ボンディング装置のツールとカメラとのオフセット量検出機構並びにその方法 | |
JP2605191B2 (ja) | 電子部品の取付け状態検査方法 | |
JP2782959B2 (ja) | 視覚機能付自動取付装置 | |
JPH11156577A (ja) | 突合せ位置検出装置 | |
JPH05280927A (ja) | レーザスリット光の位置検出方法 | |
JP3195940B2 (ja) | 半導体レーザ装置の検査方法および検査装置 | |
JPH0679672A (ja) | マニピュレータ | |
JPH08136217A (ja) | 位置検出装置 | |
JPH0474155B2 (ja) | ||
JPH05223535A (ja) | ロボット装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |