JPH08166810A - ロボットの位置補正精度を測定する方法 - Google Patents

ロボットの位置補正精度を測定する方法

Info

Publication number
JPH08166810A
JPH08166810A JP33270294A JP33270294A JPH08166810A JP H08166810 A JPH08166810 A JP H08166810A JP 33270294 A JP33270294 A JP 33270294A JP 33270294 A JP33270294 A JP 33270294A JP H08166810 A JPH08166810 A JP H08166810A
Authority
JP
Japan
Prior art keywords
robot
sensor
position correction
correction accuracy
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP33270294A
Other languages
English (en)
Inventor
Taro Arimatsu
太郎 有松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP33270294A priority Critical patent/JPH08166810A/ja
Publication of JPH08166810A publication Critical patent/JPH08166810A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 ロボットの位置補正精度を簡便で安全な方法
で測定する。 【構成】 位置Tでセンサ部10を用いて穴54の位置
を検出し、ロボットを位置Aへ移動させ、位置Aをロボ
ットに教示する。位置Aで非接触センサのカメラ30を
用いて機構部5の取り付け面53を撮影し、画像処理装
置2内で画像を解析して、ネジ穴位置F1〜F3の画像
面上の位置を表わす3組のセンサ出力を得る。ロボット
位置Bにおいても同様に、F1〜F3の画像面上の位置
を表わす3組のセンサ出力を得る。次に、機構部5にず
れを与え(矢印100、200)、センサ部10を用い
てずれ量を位置Tで検出・算出し、位置補正動作によっ
て、ロボットを補正位置A’に移動させる。位置A’で
カメラ30を用いてF1〜F3についての3組のセンサ
出力を獲得する。別のずれ量を機構部に与え、同様の手
順で位置A”,B”でF1〜F3について3組のセンサ
出力を獲得する。これらセンサ出力を機構部5が基準位
置にある時のセンサ出力と比較して、ロボットの位置補
正精度を測定する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本願発明は、産業用ロボット(以
下、単に「ロボット」と言う。)の位置(以下、特に断
りのない限り、「位置」は「姿勢」も含む意義で使用す
る。)を視覚センサ等の非接触センサを利用して補正す
るようにしたシステムにおける位置補正精度を測定する
技術に関する。
【0002】
【従来の技術】製造ラインにおける組み立て作業、加工
作業等にロボットを用いる場合、作業関連対象物(以
下、単に「対象物」と言う。)の位置を検出する機能を
持ったセンサ(例えば、3次元視覚センサ)を利用して
ワークの位置を検出し、検出されたワークの位置に応じ
てロボットの位置を補正した動作を行なわせる方式が頻
繁に採用されている。
【0003】しかし、この方式を用いたにも関わらず、
運動中のロボットに搭載されたセンサが対象物の位置を
認識するタイミングの誤差や、認識された対象物の位置
に基づいてロボット位置を補正する際に発生する誤差、
センサ側あるいはロボット側の各種設定値の設定ミス等
の原因によって、ロボットの位置補正動作が十分な正確
さをもって行なわれない場合がある。
【0004】従って、上記方式でロボットに補正動作を
行なわせるようにシステムの調整を完了した後に、実際
にロボットの位置補正動作が正確に行なわれるか否かを
確認する必要がある。従来は、対象物にいろいろな位置
をとらせ、各位置に置かれた対象物に対して本来の作業
時と同等のロボット動作を実行させ、正確に位置補正さ
れた動作が実現されるかどうかチェックすることが行な
われていた。
【0005】しかし、種々のずれ量に対応した対象物の
位置設定を行う毎に本来の作業時と同等のロボット動作
を実行させる上記従来の確認方法には次のような問題点
がある。
【0006】(1)センサを用いてロボットに補正動作
を行なわせる方式を採用するアプリケーションとして
は、ハンドリング、ペインティング、シーリング、溶接
等があるが、いずれも実際の対象物に働きかけたり、エ
ンドエフェクタを接触あるいは近接させて作業を行なう
ものが殆どであるから、確認の為のロボット動作時の補
正動作が不正確な場合には、対象物やハンドなどを破損
する危険性が高い。
【0007】(2)従って、確認の為のロボット動作は
低速で慎重に行なう必要があった。その結果、補正動作
の確認の為に多くの時間と作業負担を要することにな
る。
【0008】ロボットの動作確認の為のみに本来の作業
を行なうのが好ましくないペイント、シーリングなどの
アプリケーションにおいては、位置合わせ用のピンを利
用する方法がある。これは、ロボットハンドと対象物に
各々位置合わせ用のピンを取り付け、対象物が基準位置
にある状態でピン同士を突き合わせる動作を教示した上
で、対象物の位置を所定範囲で変更し、ロボットに突き
合わせ動作の再生運転を行なう。そして、再生運転時に
位置合わせピン同士の突合せが正確に再現されているこ
とを視認することで、所定の位置補正精度が確保されて
いることが確認される。
【0009】この方法も、位置合わせ用のピンの取り付
けやピン同士を突き合わせる動作の教示など煩雑な作業
が必要であり、簡便な方法であるとは言えない。また、
上記いずれの方法を採用した場合も、補正動作の精度を
定量的に記述したり、客観的な基準に基づいて位置補正
精度の良否を判別すること等が困難であった。
【0010】
【発明が解決しようとする課題】そこで、本願発明の基
本的な目的は、センサを用いてロボットの位置補正を行
なうロボットシステムにおいて、簡素な手続きでロボッ
トの位置補正精度を知ることが出来るロボットの位置補
正精度の測定方法を提供することにある。また、本願発
明は、ロボットの補正動作の確認作業時にハンド等の破
損の危険性を回することを目指している。
【0011】更に、別の観点から言えば、本願発明はロ
ボットの補正動作の精度を定量的に記述したり、客観的
な基準に基づいて位置補正精度の良否を判別すること等
が可能にすることを企図している。
【0012】
【課題を解決するための手段】本願発明では、センサを
用いて対象物の位置を検出し、該検出結果に基づいてロ
ボットの位置を補正させて動作させるようにしたロボッ
ト−センサシステムにおいて、該システムに装備された
センサとは別の非接触センサがロボットに付加使用され
る。
【0013】ロボットの位置補正精度を測定する為に、
先ず、ロボットに所定のロボット位置をとらせ、そのロ
ボット位置をロボットに記憶させると共に、前記センサ
とは別の非接触センサを用いて前記対象物が基準位置に
ある状態で該対象物の位置に関するセンサ出力を獲得す
る。
【0014】次に、対象物を前記基準位置とは異なるず
れ位置に移動させ、ロボット−センサシステムに装備さ
れたセンサを用いて前記対象物の前記ずれ位置の前記基
準位置からのずれ量を検出し、該検出結果に基づいて前
記記憶されたロボット位置から補正されたロボット位置
をロボットにとらせる。
【0015】そして、その補正されたロボット位置にお
いて、前記非接触センサを用いて前記対象物が前記ずれ
位置にある状態で該対象物の位置に関するセンサ出力を
獲得する。
【0016】前記対象物が前記ずれ位置にある状態で獲
得された前記センサ出力を前記対象物が前記基準位置に
ある状態で獲得された前記センサ出力と比較することに
よってロボットの位置補正精度が測定される。
【0017】前記対象物のずれ位置は複数個とすること
が出来る。その場合には、各ずれ位置について、前記対
象物が前記ずれ位置にある状態で獲得された前記センサ
出力を前記対象物が前記基準位置にある状態で獲得され
た前記センサ出力と比較することによってロボットの位
置補正精度が測定される。
【0018】非接触センサのセンサ出力が獲得されるロ
ボット位置についても、これを2個以上とすることが出
来る。その場合には、各ロボット位置について、前記対
象物が前記ずれ位置にある状態で獲得された前記センサ
出力を前記対象物が前記基準位置にある状態で獲得され
た前記センサ出力と比較することによってロボットの位
置補正精度が測定される。
【0019】前記センサとは別の前記非接触センサを用
いて前記対象物について獲得される前記センサ出力は、
前記対象物上の1つまたは複数個の特定部位の位置を表
わすセンサ出力とすることが出来る。
【0020】また、前記ロボット−センサシステムに装
備されたセンサとは別の前記非接触センサとしては、視
覚センサ、距離センサ、あるいはスリット光投光器とカ
メラを組み合わせた型の3次元視覚センサなど、任意の
型のものが使用可能である。
【0021】
【作用】先ず準備としてロボット位置補正のために装備
されたセンサとは別の非接触センサをロボットに支持さ
せる。非接触センサは、一般には対象物に関する位置情
報をセンシングする機能を有していれば良く、必ずしも
3次元視覚センサの機能を完備している必要はない。具
体的には、例えば、一台のカメラと画像処理装置からな
る視覚センサ、距離センサ、一台のカメラとレーザビー
ム投光器と画像処理装置からなる3次元視覚センサなど
がある。ロボットの位置補正精度を測定する為には、先
ず、ロボットにこのような非接触センサを支持させた状
態で、ロボットに所定のロボット位置をとらせ、そのロ
ボット位置をロボットに教示する。そして、その位置で
上記非接触センサを用いて、対象物が基準位置にある状
態で該対象物の位置に関するセンサ出力を獲得する。位
置教示とセンサ出力の獲得はいずれを先行させても良
い。
【0022】次に、対象物を前記基準位置とは異なるず
れ位置に移動させ、ロボット−センサシステムに装備さ
れたセンサを用いて前記対象物の前記ずれ位置の前記基
準位置からのずれ量を検出し、該検出結果に基づいて前
記記憶されたロボット位置から補正されたロボット位置
をロボットにとらせる。
【0023】そして、その補正されたロボット位置にお
いて、前記非接触センサを用いて前記対象物が前記ずれ
位置にある状態で該対象物の位置に関するセンサ出力を
獲得する。もし、ロボットの位置補正動作が誤差なく行
なわれていれば、前記非接触センサと対象物の相対的な
位置関係は、対象物が基準位置から前記ずれ位置に変位
しても不変に保たれる筈である。
【0024】これに反して、もしロボットの位置補正動
作に誤差が生じていれば、前記非接触センサと対象物の
相対的な位置関係がその誤差の大きさに応じて変化す
る。この相対的な位置変化を非接触センサの差異として
把握すれば、ロボットの位置補正精度を知ることが出来
る。
【0025】そこで、前記対象物が前記ずれ位置にある
状態で獲得された非接触センサの出力は、前記対象物が
前記基準位置にある状態で獲得された非接触センサのセ
ンサ出力と比較される。非接触センサに3次元位置情報
を検出する機能が完備していなくとも、例えば、対象物
の3点の位置に関する2次元的な位置情報(例;画像平
面上の位置)を表わすセンサ出力を得れば、位置補正動
作の誤差がどのようなものであっても、いずれかの点に
関するセンサ出力に必ず変化が生じる。
【0026】また、本来の作業で遭遇しそうな種々のず
れ位置を対象物に与え、各ずれ位置についてロボット位
置補正動作とセンサ出力の取得を実行することは、測定
の信頼性を向上させる上で好ましい。同様に、非接触セ
ンサのセンサ出力が獲得されるロボット位置について
も、これを2個以上とすることが出来る。その場合に
は、各ロボット位置について、前記対象物が前記ずれ位
置にある状態で非接触センサ出力が獲得される。
【0027】このようにして得られたセンサ出力は、前
記対象物が前記基準位置にある状態で獲得された前記セ
ンサ出力と比較され、ロボットの位置補正精度を測定す
る指標に利用される。例えば、対象物の3点の位置に関
する2次元的な位置情報(例;画像平面上の位置)を表
わすセンサ出力について、対象物が基準位置にある時と
ずれ位置にある時の間の差異がすべて基準値未満であっ
た場合のみ、ロボットの位置補正動作が正常に行なわれ
たものと判断する。
【0028】このように本願発明によれば、ロボットに
本来の作業を行なわせる必要ばなく、従って、ロボット
を対象物に直接アクセスさせる必要も無い。従って、上
記確認作業に含まれるロボット移動を比較的高速で行な
っても、干渉事故を起こすおそれがない。
【0029】また、本願発明では、ロボットの位置補正
精度の測定が非接触センサの検出結果をロボット座標系
上のデータに換算することなく実行され得る。従って、
キャリブレーション(センサ出力が準拠する座標系とロ
ボット座標系との結合)を行なわずに非接触センサをロ
ボットの位置補正精度の測定に用いることが出来るの
で、ロボットの位置補正精度測定のための準備作業が簡
素なものとなる。
【0030】更に、非接触センサによるセンシング位置
は、非接触センサが対象物のセンシングを行なえる範囲
であれば特に制約が無いから、ロボットの位置補正精度
の測定のための教示も位置合わせ用のピンを使用した場
合に比べてラフな教示で済ますことが出来るという利点
もある。
【0031】そして、ロボットの位置補正精度の測定結
果を定量的に表現することも可能である。従って、定量
的な判定基準を設定して、ロボットの位置補正精度の良
否を客観的な基準に基づいて判定するというようなこと
も可能となる。
【0032】
【実施例】図1は、本願発明を実施する際のシステムの
全体配置を概念的に例示したものである。本実施例で
は、アプリケーションとしてハンドリングによる部品の
組み付けを想定し、対象物(ワーク)の位置を検出する
センサとしてはスリット光投光器とCCDカメラを用い
た3次元視覚センサを採用したケースについて説明す
る。また、ロボットの位置補正精度を測定するための非
接触センサとして、通常の撮影を行なうCCDカメラを
備えた視覚センサを使用する。
【0033】同図に示したように、システム全体は、ロ
ボットコントローラ1、画像処理装2、センサ部コント
ローラ3、センサ部10、ロボット20並びに、CCD
カメラ30から構成されている。カメラ30は、ロボッ
トの位置補正精度を測定する為に搭載されたもので、画
像処理装置2とともにロボットの位置補正精度を測定す
るための非接触センサを構成している。本実施例で用い
られる画像処理装置2は、センサ部10のカメラとカメ
ラ30で共用される。
【0034】カメラ30は、ロボットの本来の作業時の
動作自体には使用されないものであり、位置補正精度測
定時のみ装着されるようにしても良い。その場合には、
カメラ30の装着位置は再現性があることが好ましい
(着脱前後のデータを比較可能とするため)。
【0035】ロボットコントローラ1にはロボット20
と画像処理装置2が接続され、画像処理装置2には、セ
ンサ部コントローラ3及びカメラ30が接続されてい
る。センサ部コントローラ3にはセンサ部10が接続さ
れている。
【0036】センサ部10は、投光器とCCDカメラ
(個別図示省略)を備えている。投光器は、スリット状
のレーザ光を対象物上に投影する機能を備えている。対
象物として、ここでは組み立て工程中の小型ロボットの
機構部の一部分5(以下、「機構部5」と略称する。)
が示されている。機構部5は、ベース50とその回転軸
51の周りに回転するアーム52を含んでいる。その
為、ロボットハンドHに把持された減速機、モータ等の
部品6(以下、「取り付け部品」と言う。)が取り付け
られる取り付け面53の位置(姿勢を含む。以下、同
じ)が供給される機構部5毎にばらつく。同時に、取り
付け部品の凸部が差し込まれる穴54の位置にも同様の
ばらつき(位置ずれ)が発生する。
【0037】センサ10を利用したロボット動作の補正
は概略次のように行なわれる。先ず、動作プログラムで
指定された観測位置で機構部5の所定部分(ここでは、
穴54)の位置を検出する。先ず、センサ部10の投光
器からは取り付け面53を横切るようにスリット光が投
射され、スリット光像61,62が順次形成され、セン
サ部10のカメラによる撮影が実行される。レーザスリ
ット光像61,62を含む画像は、画像処理装置内で解
析され、取り付け面53の外縁上の諸点に対応した屈曲
点P1 ,P2 及び端点Q1 ,Q2 の3次元位置が三角測
量の原理に基づいて計算される。その結果に基づいて取
り付け面53の位置が計算され、基準位置からのずれが
求められる。
【0038】次いで、投光器を消灯した状態でセンサ部
10のカメラによる通常撮影が行なわれ、取得された通
常画像が画像処理装置2内で解析され、先に求めた取り
付け面53の3次元位置と併せて穴54の中心位置(姿
勢を含む。)が計算される。ロボットコントローラ1
は、穴54の基準位置からのずれを計算する。ロボット
コントローラ1は、計算された穴54の基準位置からの
ずれに応じて以後の動作におけるロボット20の位置
(ツール先端点Tの位置)を補正する。このようなロボ
ット動作の補正方法自体は周知なので、より詳細な説明
は省略する。
【0039】次に、上記方式でロボット動作の補正を行
なうロボット−センサシステムについて、上記カメラ3
0を利用してロボットの位置補正の精度を測定し、シス
テムの作業精度を評価する方法について説明する。
【0040】図2は、上記配置に含まれるシステム構成
要素及びそれらの接続関係についてより詳細に示した要
部ブロック図である。各要素の符号は図1に準じて付さ
れている。
【0041】ロボットコントローラ1は、CPU(中央
演算処理装置)11を備え、CPU11には、プログラ
ムメモリ12、データメモリ13、汎用信号インターフ
ェイス14、サーボインターフェイス15及び教示操作
盤インターフェイス16がバス17を介して接続されて
いる。
【0042】プログラムメモリには、ロボットコントロ
ーラ自身を制御するプログラム、ロボットの動作プログ
ラム、汎用信号インターフェイス14に接続されたセン
サ部コントローラ3を介してセンサ部10を制御するた
めのプログラム、同じく汎用信号インターフェイス14
に接続された画像処理装置2との指令やデータの授受を
行なう為のプログラム等が格納される。また、本発明を
実施する為の処理(内容は後述)を実行するために必要
なプログラムが併せて格納される。
【0043】データメモリ13には、上記各プログラム
に関連した諸設定値等が格納されるとともに、一部領域
はCPU11が実行する処理の為のデータの一時記憶に
使用される。軸制御器、サーボ回路等を含むサーボイン
ターフェイス15は、ロボット20の機構部に接続され
ている。また、教示操作盤インターフェイス16は、ロ
ボットコントローラ1に付属の教示操作盤18の入出力
装置の役割を果たすものである。なお、教示操作盤18
には簡単な液晶ディスプレイが装備されており、各種デ
ータ(後述する補正精度測定結果のデータを含む)が表
示可能となっている。
【0044】一方、画像処理装置2はCPU(中央演算
処理装置)21を備え、CPU21には、フレームメモ
リ22、プログラムメモリ23、データメモリ24、汎
用信号インターフェイス25、カメラインターフェイス
26及び画像処理プロセッサ27がバス28を介して接
続されている。
【0045】カメラインターフェイス26は、センサ部
10に装備されたカメラと位置補正精度測定の為に装備
されたカメラに接続されており、カメラインターフェイ
ス26を介して取り込まれた各カメラの撮影画像は、グ
レイスケールに変換されてフレームメモリ22に格納さ
れる。信号授受を行なうカメラの選択は、CPU21に
よるコネクタ番号の指定によって行なわれる。
【0046】プログラムメモリ23には、画像処理装置
自身を制御するプログラム、センサ部10のカメラ及び
カメラ30で取得された画像を解析する為のプログラム
が格納される。
【0047】データメモリ24には、上記各プログラム
に関連した諸設定値等が格納されるとともに、一部領域
はCPU21が実行する処理の為のデータの一時記憶に
使用される。汎用信号インターフェイス25は、ロボッ
トコントローラ1側の汎用信号インターフェイス14に
接続されており、これを介してロボットコントローラ1
と画像処理装置2の間のデータや指令の授受が行なわれ
る。画像処理プロセッサ27は、プログラムメモリ23
に格納されたプログラムに従って、フレームメモリ22
に格納された画像を読み出してこれを解析する。
【0048】センサ部10の投光器のオン/オフ及び投
光方向の制御並びにセンサ部10のカメラの撮影指令
は、ロボットコントローラ1の汎用信号インターフェイ
ス14を介したセンサ部コントローラ3からの指令によ
って行なわれる。そして、センサ部10のカメラの撮影
画像の取り込みは、カメラ30と同じく画像処理装置2
のカメラインターフェイス26を介して行なわれる。ま
た、カメラ30の撮影動作は、ロボットコントローラ1
からの撮影指令を受けた画像処理装置2のCPU21が
カメラインターフェイス26内のコネクタ指定を行な
い、撮影実行信号をカメラ30に伝えることによって行
なわれる。
【0049】ここで、センサ部10の投光器及びカメラ
に関しては、ロボットの位置補正に用いるものであるか
ら、カメラの画像面上で得られるデータと投光方向の指
令値とに基づいてロボット座標系上のデータが得られる
ようにキャリブレーションが完了しているものとする。
キャリブレーションの方法については、周知であるから
ここでは説明を省略する。
【0050】しかし、ロボットの位置補正精度の測定に
用いる非接触センサを構成するカメラ30については、
画像面上のデータが得られれば十分であり、そのための
処理は画像処理装置2側だけで実行可能である。即ち、
センサ部10のカメラについて行なうようなキャリブレ
ーションは不要である。
【0051】以上の事項を前提に、以下ロボットの位置
補正精度の測定を行なう際の処理について図3及び図4
に示したフローチャートを参照して説明する。なお、作
業開始時にはロボット及び機構部5(対象物)は図1に
示された位置にあるものとする。そして、ロボットのこ
の位置(便宜上、「ロボット位置T」と言う。)は、本
来の作業(部品6の組み付け)時にセンサ部10を用い
て穴54の位置測定が行なわれる位置と一致またはそれ
に近い位置にあるものとする。また、機構部5について
はこの位置を基準位置(本来の作業のための教示が行な
われた位置)とする。
【0052】先ず、ロボット位置Tでセンサ部10を用
いて穴54の位置を検出し、結果をロボットコントロー
ラ1のデータメモリ13に記憶する(ステップS1)。
検出の為の処理については既に述べたので、ここでは説
明を省略する。
【0053】次いで、ロボットを位置Tから位置Aへ移
動させ、位置Aをロボットに教示する(ステップS
2)。位置Aは、機構部5がカメラ30の視野に適当な
大きさで収まる範囲で任意に選べば良いので、干渉事故
の起こり難い位置に位置Aを選ぶことは容易である。
【0054】更に、ロボット位置Aでカメラ30を用い
て機構部5の取り付け面53の撮影を行ない、得られた
画像を画像処理装置2内で解析し、複数の特徴点のセン
サ出力を獲得する(ステップS3)。ここでは、ネジ穴
位置F1〜F3の画像面上の位置を表わす3組のセンサ
出力(u1a,v1a)〜(u3a,v3a)を得るものとす
る。
【0055】次いで、ロボットを位置Aから位置Bへ移
動させ、位置Bをロボットに教示する(ステップS
4)。位置Bは、位置Aと同様の配慮の下で選ばれる
が、位置Aとは位置(姿勢のみでも良い。)が適当に異
なっていることが好ましい。更に、ロボット位置Aの場
合と同様に、カメラ30を用いて機構部5の取り付け面
53の撮影を行ない、得られた画像を画像処理装置2内
で解析し、ネジ穴位置F1〜F3の画像面上の位置を表
わす3組のセンサ出力(u1b,v1b)〜(u3b,v3b)
を獲得する(ステップS5)。
【0056】このようにして、機構部5が基準位置にあ
る状態でロボット位置Aとロボット位置Bについて、セ
ンサ出力(u1a,v1a)〜(u3a,v3a),(u1b,v
1b)〜(u3b,v3b)が得られたならば、ロボットを位
置Tに戻す(ステップS6)。
【0057】次に、オペレータが機構部5に適当な位置
ずれを与える。本事例の場合、位置ずれは、軸51の周
りの回転(矢印100)、ベース50の並進的な変位
(矢印200)あるいは両者の組合せで与えられる。
【0058】適当な位置ずれが与えられたならば、ロボ
ット位置Tでセンサ部10を用いて穴54の位置を検出
し、基準位置からのずれ量を算出する。結果はロボット
コントローラ1のデータメモリ13に記憶される(ステ
ップS7)。
【0059】次いで、上記算出されたずれ量に基づく位
置補正動作を行なわせながら、ロボットを位置Aに対応
した補正位置A’に移動させる(ステップS8)。ロボ
ットの位置補正の為の処理については、ここでは説明を
省略する。ここで、もし位置補正動作が誤差なく行なわ
れていれば、位置Aと位置A’の関係は、機構部5の基
準位置とずれ位置の関係と同一となっている筈である。
また、もし位置補正動作に誤差があれば、位置Aと位置
A’の関係は、機構部5の基準位置とずれ位置の関係と
誤差に応じた差異を有している筈である。
【0060】更に、ロボット位置A’でカメラ30を用
いて機構部5の取り付け面53の撮影を行ない、得られ
た画像を画像処理装置2内で解析し、ネジ穴位置F1〜
F3の画像面上の位置を表わす3組のセンサ出力(u1
a',v1a' )〜(u3a',v3a')を獲得する(ステップS
9)。
【0061】次に、再度位置補正動作を行なわせなが
ら、ロボットを位置Bに対応した補正位置B’に移動さ
せる(ステップS10;以下、図4※1へ続く)。位置
Bと位置B’の関係と、機構部5の基準位置とずれ位置
の関係について、ロボットの位置補正動作の誤差に応じ
た差異が生ずることは、位置A、A’の場合と同様であ
る。
【0062】更に、ロボット位置B’でカメラ30を用
いて機構部5の取り付け面53の撮影を行ない、得られ
た画像を画像処理装置2内で解析し、ネジ穴位置F1〜
F3の画像面上の位置を表わす3組のセンサ出力(u1
b',v1b' )〜(u3b',v3b')を獲得する(ステップS
11)。
【0063】以上で第1のずれ位置の下での処理が完了
するので、ロボットを位置Tに復帰させる(ステップS
12)。そして、オペレータが機構部5に適当な前回の
ずれ位置とは適当に異なる第2の位置ずれを与える。第
2の位置ずれ位置ずれは、前回と同様、軸51の周りの
回転(矢印100)、ベース50の並進的な変位(矢印
200)あるいは両者の組合せで与えられる。
【0064】第2の位置ずれが与えられたならば、前回
同様、ロボット位置Tでセンサ部10を用いて穴54の
位置を検出し、基準位置からのずれ量を算出する。結果
はロボットコントローラ1のデータメモリ13に記憶さ
れる(ステップS13)。
【0065】次いで、上記算出された第2の位置ずれに
関するずれ量に基づく位置補正動作を行なわせながら、
ロボットを位置Aに対応した補正位置A”に移動させる
(ステップS14)。位置Aと位置A”の関係と、機構
部5の基準位置と第2のずれ位置の関係について、ロボ
ットの位置補正動作の誤差に応じた差異が生ずること
は、位置A、A’の場合と同様である。
【0066】更に、ロボット位置A”でカメラ30を用
いて機構部5の取り付け面53の撮影を行ない、得られ
た画像を画像処理装置2内で解析し、ネジ穴位置F1〜
F3の画像面上の位置を表わす3組のセンサ出力(u1
a",v1b" )〜(u3a ,v3a")を獲得する(ステップS
15)。
【0067】次に、再たび位置補正動作を行なわせなが
ら、ロボットを第2の位置ずれの下において位置Bに対
応した補正位置B”に移動させる(ステップS11
6)。位置Bと位置B”の関係と、機構部5の基準位置
とずれ位置の関係について、ロボットの位置補正動作の
誤差に応じた差異が生ずることは、位置A、A’等の場
合と同様である。
【0068】更に、ロボット位置B”でカメラ30を用
いて機構部5の取り付け面53の撮影を行ない、得られ
た画像を画像処理装置2内で解析し、ネジ穴位置F1〜
F3の画像面上の位置を表わす3組のセンサ出力(u1
b",v1b" )〜(u3b",v3b")を獲得する(ステップS
17)。
【0069】以上の処理によって、機構部5に2つのず
れ量を与えた条件の下で、2つのロボット位置に関連し
て次のようなセンサ出力が収集される。 (u1a',v1a' ),(u2a',v2a' ),(u3a',v3a'
) (u1b',v1b' ),(u2b',v2b' ),(u3b',v3b'
) (u1a",v1a" ),(u2a",v2a" ),(u3a",v3a"
) (u1b",v1b" ),(u2b",v2b" ),(u3b",v3b"
) ステップ18では、これらを機構部5を基準位置に置い
た条件下で得られたセンサ出力(u1a ,v1a),(u2a
,v2a),(u3a ,v3a)と比較する。例えば、次の量
Δaj' ,Δbj' ,Δaj" ,Δbj" (j=1,2,3)を
算出し、結果をロボットコントローラ1の教示操作盤1
8に付属したLCD画面上に出力する。
【0070】 Δaj' =(uja',vja' )−(uja ,vja) Δbj' =(ujb',vjb' )−(ujb ,vjb) Δaj" =(uja",vja" )−(uja ,vja) Δbj" =(ujb",vjb" )−(ujb ,vjb) もし、ロボットの位置補正動作に誤差が無ければ、前記
非接触センサと対象物の相対的な位置関係は、対象物が
基準位置から前記各ずれ位置に変位しても不変に保たれ
る筈である。この場合には、上記Δaj' ,Δbj' ,Δa
j" ,Δbj" (j=1,2,3)はすべて0となる。
【0071】これに反して、もしロボットの位置補正動
作に誤差が生じていれば、前記非接触センサと対象物の
相対的な位置関係がその誤差の大きさに応じて変化す
る。その結果、上記Δaj' ,Δbj' ,Δaj" ,Δbj"
(j=1,2,3)の内、少なくとも1つは0でない値
となる。
【0072】従って、ロボットの位置補正精度の最も簡
単な指標の1つとして、上記Δaj',Δbj' ,Δaj" ,
Δbj" (j=1,2,3)の絶対値の最大値を採用し、
その最大値を基準値(許容値)Δ0 (>0)と比較し
て、ロボットの位置補正動作の適否を自動判定すること
が出来る。また、より正確な判定を行なうために、上記
差分量Δaj' ,Δbj' ,Δaj" ,Δbj" (j=1,2,
3)に関するいくつかの判定式(例えば、Δaj' ,Δb
j' ,Δaj" ,Δbj" の2乗の総和と基準値との大小判
別式)を用意しておき、その結果を出力するようにして
も良い。
【0073】なお、本実施例においては本来の作業時に
使用されるセンサとしてスリット光投光器とカメラを組
み合わせた3次元視覚センサを用い、ロボットの位置補
正精度測定用のセンサにはカメラ(画像処理装置は3次
元視覚センサと共用)を用いたが、これらセンサの組合
せに特に制約はない。例えば、本来の作業時に使用され
るセンサが溶接線トラッキング用のレーザセンサ、非接
触センサがスリット光投光器とカメラを組み合わせた3
次元視覚センサ、あるいはレーザ変位センサであっても
構わない。
【0074】また、対象物に与えるずれ位置の数、非接
触センサによって獲得される対象物の位置情報について
も種々の変形が考えられる。例えば、非接触センサに3
次元位置測定機能が完備していれば、単一の特徴点につ
いてのセンサ出力の変化からロボット位置補正精度を知
ることも可能である。いずれにしても、非接触センサに
よって獲得される対象物の位置情報はセンサ出力の変化
のレベルで把握されれば良く、また、情報内容が簡単な
ものであっても、ロボット位置補正動作に狂いがあれ
ば、容易に非接触センサのセンサ出力に反映される。
【0075】
【発明の効果】本願発明によれば、ロボットに本来の作
業を行なわせることなく、非接触センサを利用した簡便
な方法によってロボットの位置補正精度を測定すること
が出来る。従って、ロボットを対象物に直接アクセスさ
せる必要が無く、確認作業を迅速に行なっても、位置補
正精度の確認作業中に干渉事故を起こすおそれがない。
【0076】また、本願発明では、ロボットの位置補正
精度の測定が非接触センサの検出結果をロボット座標系
上のデータに換算することなく実行され得る。従って、
キャリブレーション(センサ出力が準拠する座標系とロ
ボット座標系との結合)を行なわずに非接触センサをロ
ボットの位置補正精度の測定に用いることが出来るの
で、ロボットの位置補正精度測定のための準備作業が煩
雑とならない。
【0077】更に、非接触センサによるセンシング位置
は、非接触センサが対象物のセンシングを行なえる範囲
であれば特に制約が無いから、ロボットの位置補正精度
の測定のための教示も位置合わせ用のピンを使用した場
合に比べてラフな教示で済ますことが出来るという利点
もある。
【0078】そして、ロボットの位置補正精度の測定結
果を理想値からのずれ量等で定量的に表現することが可
能なので、アプリケーション、使用する非接触センサの
種類、要求される補正精度等に応じて適当な判定基準値
を設定して、ロボットの位置補正精度の良否を客観的な
基準に基づいて判定するというようなことも可能とな
る。
【図面の簡単な説明】
【図1】本願発明を実施する際のシステムの全体配置を
概念的に例示したものである。
【図2】図1に示した配置に含まれるシステム構成要素
及びそれらの接続関係についてより詳細に示した要部ブ
ロック図である。
【図3】本実施例におけるロボットの位置補正精度の測
定の為の処理について説明するフローチャートの前半部
分である。
【図4】本実施例におけるロボットの位置補正精度の測
定の為の処理について説明するフローチャート後半部分
である。
【符号の説明】
1 ロボットコントローラ 2 画像処理装置 3 センサ部コントローラ 5 機構部 6 組み付け部品 10 センサ部 11 CPU(ロボットコントローラ) 12 プログラムメモリ(ロボットコントローラ) 13 データメモリ(ロボットコントローラ) 14 汎用信号インターフェイス(ロボットコントロー
ラ) 15 サーボインターフェイス 16 教示操作盤インターフェイス 17 バス(ロボットコントローラ) 18 教示操作盤 20 ロボット 21 CPU(画像処理装置) 22 フレームメモリ 23 プログラムメモリ(画像処理装置) 24 データメモリ(画像処理装置) 25 汎用信号インターフェイス(画像処理装置) 26 カメラインターフェイス 27 画像処理プロセッサ 28 バス(画像処理装置) 30 カメラ(非接触センサ) 50 ベース 51 回転軸 52 アーム 53 取り付け面 54 穴 61,62 スリット光像 H ハンド A,B 教示位置 A’,B’,A”,B” 補正されたロボット位置 F1,F2,F3 ネジ穴位置 P1 ,Q1 ,P2 ,Q2 スリット光像の屈曲点 T ツール先端点(ロボット位置)

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 センサを用いて対象物の位置を検出し、
    該検出結果に基づいてロボットの位置を補正させて動作
    させるようにしたロボット−センサシステムにおける位
    置補正精度を測定する方法であって、 ロボットに所定のロボット位置をとらせ、 (a)そのロボット位置をロボットに記憶させると共
    に、前記センサとは別の、該ロボットに支持させた非接
    触センサを用いて前記対象物が基準位置にある状態で該
    対象物の位置に関するセンサ出力を獲得する段階と、 (b)前記対象物を前記基準位置とは異なるずれ位置に
    移動させる段階と、 前記ロボット−センサシステムに装備されたセンサを用
    いて前記対象物の前記ずれ位置の前記基準位置からのず
    れ量を検出し、該検出結果に基づいて前記記憶されたロ
    ボット位置から補正されたロボット位置をロボットにと
    らせる段階と、 (c)その補正されたロボット位置において、前記非接
    触センサを用いて前記対象物が前記ずれ位置にある状態
    で該対象物の位置に関するセンサ出力を獲得する段階
    と、 (d)前記対象物が前記ずれ位置にある状態で獲得され
    た前記センサ出力を前記対象物が前記基準位置にある状
    態で獲得された前記センサ出力と比較する段階を含む、
    ロボットの位置補正精度の測定方法。
  2. 【請求項2】 前記対象物のずれ位置を複数とし、各ず
    れ位置について、前記(b)〜(c)の段階を実行し、
    更に前記複数のずれ位置に関して、前記(d)の段階を
    実行する、請求項1に記載されたロボットの位置補正精
    度の測定方法。
  3. 【請求項3】 前記所定のロボット位置を複数とし、各
    ロボット位置について、前記(a)〜(c)の段階を実
    行し、更に前記複数の所定のロボット位置に関して、前
    記(d)の段階を実行する、請求項1または請求項2に
    記載されたロボットの位置補正精度の測定方法。
  4. 【請求項4】 前記センサとは別の前記非接触センサを
    用いて前記対象物について獲得される前記センサ出力
    が、前記対象物上の1つまたは複数個の特定部位の位置
    を表わすセンサ出力である、請求項1〜請求項3のいず
    れか1項に記載されたロボットの位置補正精度の測定方
    法。
  5. 【請求項5】 前記ロボット−センサシステムに装備さ
    れたセンサとは別の前記非接触センサが、視覚センサで
    ある、請求項1〜請求項4のいずれか1項に記載された
    ロボットの位置補正精度の測定方法。
  6. 【請求項6】 前記ロボット−センサシステムに装備さ
    れたセンサとは別の前記非接触センサが距離センサであ
    る、請求項1〜請求項4のいずれか1項に記載されたロ
    ボットの位置補正精度の測定方法。
  7. 【請求項7】 前記ロボット−センサシステムに装備さ
    れたセンサとは別の前記非接触センサが、スリット光投
    光器とカメラを組み合わせた型の3次元視覚センサであ
    る、請求項1〜請求項4のいずれか1項に記載されたロ
    ボットの位置補正精度の測定方法。
JP33270294A 1994-12-13 1994-12-13 ロボットの位置補正精度を測定する方法 Withdrawn JPH08166810A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33270294A JPH08166810A (ja) 1994-12-13 1994-12-13 ロボットの位置補正精度を測定する方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33270294A JPH08166810A (ja) 1994-12-13 1994-12-13 ロボットの位置補正精度を測定する方法

Publications (1)

Publication Number Publication Date
JPH08166810A true JPH08166810A (ja) 1996-06-25

Family

ID=18257923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33270294A Withdrawn JPH08166810A (ja) 1994-12-13 1994-12-13 ロボットの位置補正精度を測定する方法

Country Status (1)

Country Link
JP (1) JPH08166810A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101155446B1 (ko) * 2010-11-01 2012-06-15 대우조선해양 주식회사 러그를 이용한 로봇과 레이저 비전 시스템 간의 캘리브레이션 방법
CN108693543A (zh) * 2017-03-31 2018-10-23 法拉第未来公司 用于检测信号欺骗的方法及系统
WO2021249379A1 (zh) * 2020-06-10 2021-12-16 苏州艾利特机器人有限公司 一种提升安全控制性能的工业机器人及其控制方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101155446B1 (ko) * 2010-11-01 2012-06-15 대우조선해양 주식회사 러그를 이용한 로봇과 레이저 비전 시스템 간의 캘리브레이션 방법
CN108693543A (zh) * 2017-03-31 2018-10-23 法拉第未来公司 用于检测信号欺骗的方法及系统
WO2021249379A1 (zh) * 2020-06-10 2021-12-16 苏州艾利特机器人有限公司 一种提升安全控制性能的工业机器人及其控制方法

Similar Documents

Publication Publication Date Title
US10357879B2 (en) Robot zero-point calibration device and method
EP0493612B1 (en) Method of calibrating visual sensor
JP4021413B2 (ja) 計測装置
JP6025386B2 (ja) 画像計測装置、画像計測方法及び画像計測プログラム
JP2001515236A (ja) ロボット検査システムを較正するための方法
US20090190826A1 (en) Working apparatus and calibration method thereof
JP3859571B2 (ja) 3次元視覚センサ
US11454498B2 (en) Coordinate measuring system
JPH1063317A (ja) ロボット−視覚センサシステムにおける座標系結合方法
JPH09128549A (ja) ロボット装置の相対位置姿勢検出方法
JP2682763B2 (ja) ロボット機体の作動誤差の自動測定方法
JP3666108B2 (ja) 外観検査装置
CN111145247B (zh) 基于视觉的位置度检测方法及机器人、计算机存储介质
JP4284765B2 (ja) ロボットハンド位置計測装置
JP3511551B2 (ja) ロボットアームの状態検出方法および検出システム
JP2890874B2 (ja) ロボットアーム相対姿勢補正方法
JPH08166810A (ja) ロボットの位置補正精度を測定する方法
JP2859946B2 (ja) 非接触型測定装置
JP3304251B2 (ja) 組立ロボットの自動教示方法及びその装置
Ravn et al. Auto-calibration in automation systems using vision
JP7414850B2 (ja) ロボットシステム
JPH09222913A (ja) ロボットの教示位置補正装置
JP2718249B2 (ja) ロボットの位置ずれ検出装置
WO2020184575A1 (ja) 計測システム及び計測方法
WO2020100522A1 (ja) マーク検出システム、信号処理回路、コンピュータプログラムおよび方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020305