JPH0475887A - 視覚センサのキャリブレーション方法 - Google Patents
視覚センサのキャリブレーション方法Info
- Publication number
- JPH0475887A JPH0475887A JP2190958A JP19095890A JPH0475887A JP H0475887 A JPH0475887 A JP H0475887A JP 2190958 A JP2190958 A JP 2190958A JP 19095890 A JP19095890 A JP 19095890A JP H0475887 A JPH0475887 A JP H0475887A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- visual sensor
- robot
- pattern
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims description 17
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 2
- 102100031584 Cell division cycle-associated 7-like protein Human genes 0.000 description 1
- 101000777638 Homo sapiens Cell division cycle-associated 7-like protein Proteins 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40605—Two cameras, each on a different end effector to measure relative position
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/49—Method of mechanical manufacture
- Y10T29/49764—Method of mechanical manufacture with testing or indicating
- Y10T29/49769—Using optical instrument [excludes mere human eyeballing]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野コ
本発明はロボットシステムにおける視覚センサのキャリ
ブレーション方式に関1〜、特にロボットに取りイ〈1
けられたカメラ等のキャリブレーションを行う視覚セン
サのキヤツジ1)−ション力式に関する。
ブレーション方式に関1〜、特にロボットに取りイ〈1
けられたカメラ等のキャリブレーションを行う視覚セン
サのキヤツジ1)−ション力式に関する。
ロボットシス7Aでは視覚機能を持たせ、ワクをカメラ
等によって撮像1−、ワークの位置を認識させて、組立
作業、パレタイジング作業等を実行させることが実用化
されつつある。また、正確にワークの位置を認識するた
め、複数のカメラが使用される。このカメラは、ロボッ
トのアームに取り付けられ、ワークの位置が変化しても
、それに対応できるようにするこきもある。
等によって撮像1−、ワークの位置を認識させて、組立
作業、パレタイジング作業等を実行させることが実用化
されつつある。また、正確にワークの位置を認識するた
め、複数のカメラが使用される。このカメラは、ロボッ
トのアームに取り付けられ、ワークの位置が変化しても
、それに対応できるようにするこきもある。
一方、正確にワークの位置を認識するために、ロボット
座標系と、カメラ座標系との関係をキ髪リプレージョン
する必要がある。
座標系と、カメラ座標系との関係をキ髪リプレージョン
する必要がある。
ロボットに取り何ζノられたカメラのキャリブレーショ
ンを行う場合、そのカメラの視野内に、専用のキャリジ
lノージョン治具を設置する必要がある。
ンを行う場合、そのカメラの視野内に、専用のキャリジ
lノージョン治具を設置する必要がある。
〔発明が解決しようとする課題]
しかし、従来のキャリブレーション治具は、般に大きく
、設置するのに特別のスペースが必要とされ、しかも、
ワークのライン」ユに設置されていた。このため、スペ
ース的に設置が因暫であることが多く、設rするのに時
間を要1−でいた。
、設置するのに特別のスペースが必要とされ、しかも、
ワークのライン」ユに設置されていた。このため、スペ
ース的に設置が因暫であることが多く、設rするのに時
間を要1−でいた。
また、キャリブレーション治具の設置位置精度を高くす
る必要があり、そのための機構が別に設けられていた。
る必要があり、そのための機構が別に設けられていた。
、二のため、コストが高くついていた。
ざらに、このような設Uスペース、股・置位置精度の問
題のために、ロボットシステムにおけるカメラのキャリ
ブレーションを行うのに、手間がかかり、時間を要1〜
でいた。、 本発明はこのような点に諜みてなされたものて゛あり、
ロボットに取り付けられたカメラのキヤツジ[/−ジョ
ンを手軽に、時間をかけずに行うことかで”きる視覚セ
ンサのキャリブレーション方式を提供することを目的と
する。
題のために、ロボットシステムにおけるカメラのキャリ
ブレーションを行うのに、手間がかかり、時間を要1〜
でいた。、 本発明はこのような点に諜みてなされたものて゛あり、
ロボットに取り付けられたカメラのキヤツジ[/−ジョ
ンを手軽に、時間をかけずに行うことかで”きる視覚セ
ンサのキャリブレーション方式を提供することを目的と
する。
また、本発明の他の目的は、キャリブレーション治具を
設けるたyつの特別のスペースを必要とせず、治具を容
易に設置できる視覚センサのキャリジ1ノージヨン方式
を提供することである。
設けるたyつの特別のスペースを必要とせず、治具を容
易に設置できる視覚センサのキャリジ1ノージヨン方式
を提供することである。
さらに、本発明の他の目的は、キャリブレーション治具
の設置位置精度を高くするための機構を別に設ける必要
がなく、その分コストを低減できる視覚センサのキャリ
ブレーション方式を提供することである。
の設置位置精度を高くするための機構を別に設ける必要
がなく、その分コストを低減できる視覚センサのキャリ
ブレーション方式を提供することである。
本発明では上記課題を解決するために、ロボットシステ
ムにおける視覚センサのキャリブレーションを行う視覚
センサのキヤリプレーション方式において、第1のロボ
ットのアームにキャリブレーション用のパターン板を取
り付け、第2のロボットのアームに視覚センサを取り付
け、第1のロボット制御装置は前記第1のロボットを、
第2のロボット制御装置は前記第2のロボットをそれぞ
れ共通座標上で制御し、前記第1のロボット制御装置は
、前記共通座標上における、前記パターン板の第1のキ
ャリブレーション・パターン・データを視覚センサ制御
装置に送り、前記視覚センサ制御装置は、前記視覚セン
サによる前記パターン板O撮像画面から得られた第2の
キャリブレーション・パターン・データを求約1前記第
1のキャリブレーション・パターン・データと前記第2
のキャリブレーション・パターン・データからキャリブ
レーション・データを求め、視覚センサのキャリブレー
ションを行うことを特徴とする視覚センサのキャリブレ
ーション方式が、提供される。
ムにおける視覚センサのキャリブレーションを行う視覚
センサのキヤリプレーション方式において、第1のロボ
ットのアームにキャリブレーション用のパターン板を取
り付け、第2のロボットのアームに視覚センサを取り付
け、第1のロボット制御装置は前記第1のロボットを、
第2のロボット制御装置は前記第2のロボットをそれぞ
れ共通座標上で制御し、前記第1のロボット制御装置は
、前記共通座標上における、前記パターン板の第1のキ
ャリブレーション・パターン・データを視覚センサ制御
装置に送り、前記視覚センサ制御装置は、前記視覚セン
サによる前記パターン板O撮像画面から得られた第2の
キャリブレーション・パターン・データを求約1前記第
1のキャリブレーション・パターン・データと前記第2
のキャリブレーション・パターン・データからキャリブ
レーション・データを求め、視覚センサのキャリブレー
ションを行うことを特徴とする視覚センサのキャリブレ
ーション方式が、提供される。
第1のロボット制御装置は第1のロボットを、第2のロ
ボット制御装置は第2のロボットをそれぞれ共通座標上
で制御する。また、第1のロボット制御装置は、共通座
標上におけるパターン板の位置データを正確に内部に持
っている。すなわち、第1のロボットのアームの先端の
座標位置と、パターン板の取り付は寸法から得られた、
パターン板の第1のキャリブレーション・パターン・デ
ータを持っている。
ボット制御装置は第2のロボットをそれぞれ共通座標上
で制御する。また、第1のロボット制御装置は、共通座
標上におけるパターン板の位置データを正確に内部に持
っている。すなわち、第1のロボットのアームの先端の
座標位置と、パターン板の取り付は寸法から得られた、
パターン板の第1のキャリブレーション・パターン・デ
ータを持っている。
この第1のキャリブレーション・パターン・データは、
第1のロボット制御装置から視覚センサ制御装置に、通
信回線を経由して送られる。
第1のロボット制御装置から視覚センサ制御装置に、通
信回線を経由して送られる。
視覚センサ制御装置は、第2のロボットのアームに取り
付けられた視覚センサによってパターン板を撮像し、そ
の撮像データに基づいて、パターン板の第2のキャリブ
レーション・パターン・データを求める。次に、第1の
キャリブレーション・パターン・データと第2のキャリ
ブレーション・パターン・データを比較し、キャリブレ
ーション・データを求める。
付けられた視覚センサによってパターン板を撮像し、そ
の撮像データに基づいて、パターン板の第2のキャリブ
レーション・パターン・データを求める。次に、第1の
キャリブレーション・パターン・データと第2のキャリ
ブレーション・パターン・データを比較し、キャリブレ
ーション・データを求める。
このキャリブレーション・データに基づいて、ワークの
、共通座標上における位置認識が行われる。
、共通座標上における位置認識が行われる。
以下、本発明の一実施例を図面に基づいて説明する。
第1図は本発明の視覚センサのキャリブレーション方式
を実施するためのロボットシステムの全体の構成図であ
る。
を実施するためのロボットシステムの全体の構成図であ
る。
第10ボツト1のアーム2には、パターン板3が結合さ
れている。パターン板3には複数のドツトパターンが設
けられている。パターン板3の詳細については後述する
。
れている。パターン板3には複数のドツトパターンが設
けられている。パターン板3の詳細については後述する
。
第20ボツト4のアーム5には、カメラ6が結合されて
いる。
いる。
第10ボツト1は、第10ボツト制御装置10によって
、第20ボツト4は、第20ボツト制御装置11によっ
てそれぞれ制御される。第10ボツト制御装置10及び
第20ボツト制御装置11は、各ロボット座標を共通座
標に変換する座標変換データを持っており、第10ボツ
ト1及び第20ボツト4を共通座標上で制御する。
、第20ボツト4は、第20ボツト制御装置11によっ
てそれぞれ制御される。第10ボツト制御装置10及び
第20ボツト制御装置11は、各ロボット座標を共通座
標に変換する座標変換データを持っており、第10ボツ
ト1及び第20ボツト4を共通座標上で制御する。
第10ボツト制御装置10は第10ボツト1の共通座標
上におけるアーム2の先端位置、すなわちTCP (ツ
ール・センタ・ポイント)の座標位置を現在位置として
認識している。従って、アーム2のTCPとパターン板
3の取り付は寸法がら、パターン板3の各ドツトパター
ンの位置である共通座標上でのキャリブレーション・パ
ターン・データをメモリ12に持っている。このキャリ
ブレーション・パターン・データをCPDr 12aと
する。
上におけるアーム2の先端位置、すなわちTCP (ツ
ール・センタ・ポイント)の座標位置を現在位置として
認識している。従って、アーム2のTCPとパターン板
3の取り付は寸法がら、パターン板3の各ドツトパター
ンの位置である共通座標上でのキャリブレーション・パ
ターン・データをメモリ12に持っている。このキャリ
ブレーション・パターン・データをCPDr 12aと
する。
一方、視覚センサ制御装置20には第20ボツト4のカ
メラ6が結合されている。視覚センサ制御装置20は、
カメラ6によってパターン板3を撮像し、カメラ6のキ
ャリブレーションを行う。
メラ6が結合されている。視覚センサ制御装置20は、
カメラ6によってパターン板3を撮像し、カメラ6のキ
ャリブレーションを行う。
視覚センサ制御装置20はプロセンサ(CPU)21を
中心に構成されている。ROM22にはキャリブレーシ
ョンを行うためのコントロール・ソフトウェア22aが
格納されており、キャリジ1/−ジヨン動作を制御する
。RAM23には後述のキャリブレーション・データ
(CD)23aと、第1oボット制御装置10からのキ
ャリブI/−ジョン・パターン・データ(CPDr)1
2aが格納されている。RAM24には、パターン板3
の各ドツトの座標位置データ、ドツトパターン・データ
(DPD)24aが格納される。
中心に構成されている。ROM22にはキャリブレーシ
ョンを行うためのコントロール・ソフトウェア22aが
格納されており、キャリジ1/−ジヨン動作を制御する
。RAM23には後述のキャリブレーション・データ
(CD)23aと、第1oボット制御装置10からのキ
ャリブI/−ジョン・パターン・データ(CPDr)1
2aが格納されている。RAM24には、パターン板3
の各ドツトの座標位置データ、ドツトパターン・データ
(DPD)24aが格納される。
プロセンサ21はコントロール・ソフトウェア22aに
従って、カメラ6によってパターン板3のドツトパター
ンを撮像する。この撮像データはカメラ・インタフェー
ス28を経由して、RAM25に一旦格納される。この
撮像データはカメラ6の撮像面上での各ドツトパターン
の映像デー・夕である。
従って、カメラ6によってパターン板3のドツトパター
ンを撮像する。この撮像データはカメラ・インタフェー
ス28を経由して、RAM25に一旦格納される。この
撮像データはカメラ6の撮像面上での各ドツトパターン
の映像デー・夕である。
画像処理プロセンサ26は、この各ドツトパターンの映
像データと予め格納されたドツトパターン・データ(D
PD)24aとから、カメラ6のキヤリブレーシヨン・
パターン・データ(CPDc)25aを求め、RAM2
5に格納する。
像データと予め格納されたドツトパターン・データ(D
PD)24aとから、カメラ6のキヤリブレーシヨン・
パターン・データ(CPDc)25aを求め、RAM2
5に格納する。
一方、第10ボツト制御装置10内のキイリブ1ノージ
ヨン・パターン・データ(CPDr)12aを通信回線
13を経由1−で、インタフェース27から読み取り、
RAM23に格納する。
ヨン・パターン・データ(CPDr)12aを通信回線
13を経由1−で、インタフェース27から読み取り、
RAM23に格納する。
続いて、共通座標上でのキャリブレーション・パターン
・テ゛−り (CPDr)12aとカメラ座標上でのキ
ャリブレーション・パターン・データ(CPDc)25
aとを比較して、カメラ座標系の共通座標系におげろ位
置、姿勢の関係を計算する。すなわち、キャリブレーシ
ョンを行う。この結果をキャリブレーション・データ
(CD)23aと(−で、RAM23に格納する。
・テ゛−り (CPDr)12aとカメラ座標上でのキ
ャリブレーション・パターン・データ(CPDc)25
aとを比較して、カメラ座標系の共通座標系におげろ位
置、姿勢の関係を計算する。すなわち、キャリブレーシ
ョンを行う。この結果をキャリブレーション・データ
(CD)23aと(−で、RAM23に格納する。
このキャリブレーション・データ (CD)23aに基
づいて、ワークの、共通座標上における位置認識が行わ
れる。すなわち、プロセンサ21はカメラ6によってワ
ークを撮像し、その撮像画面から得られたワークの映像
データと、RAM23に格納されているキャリブレーシ
ョン・データ(CD)23aに基づいて、ワークの共通
座標上における位置データを求める。
づいて、ワークの、共通座標上における位置認識が行わ
れる。すなわち、プロセンサ21はカメラ6によってワ
ークを撮像し、その撮像画面から得られたワークの映像
データと、RAM23に格納されているキャリブレーシ
ョン・データ(CD)23aに基づいて、ワークの共通
座標上における位置データを求める。
この位置データに基づいて、作業用ロボットは、組立、
パレタイジング作業等4行う。こ−の作業は、パターン
板を取り外した第10ボツト1が行うようにしてもよい
し、第1、第2Ijボツ!・と同じ共通座標上にある第
3のロボットが行うようにしてもよい。
パレタイジング作業等4行う。こ−の作業は、パターン
板を取り外した第10ボツト1が行うようにしてもよい
し、第1、第2Ijボツ!・と同じ共通座標上にある第
3のロボットが行うようにしてもよい。
」−記の説明では、第20ボツトのカメラのキャリブレ
ーションを行うようにしたが、第10ボツトにカメラを
、第20ボツトにパターン板を結合し、第10ボツトの
カメラのキャリブレーションを行う構成とすることもで
きる。jまたがって、2台のロボットは、互いに協力し
、て相手のカメラのキャリジ1/−ジヨンを行うことが
できる。
ーションを行うようにしたが、第10ボツトにカメラを
、第20ボツトにパターン板を結合し、第10ボツトの
カメラのキャリブレーションを行う構成とすることもで
きる。jまたがって、2台のロボットは、互いに協力し
、て相手のカメラのキャリジ1/−ジヨンを行うことが
できる。
さらに、」1記の説明では、共通座標上でのキャリブレ
ーション・パターン・デ 9 (CPDr)12aは、
第10ボツト制@装置10から視覚センサ制御装M20
に入力されるように構成したが、CPDr 12aの数
値データを手入力によって直接視覚七ンザ制御装置20
に入力することもできる。
ーション・パターン・デ 9 (CPDr)12aは、
第10ボツト制@装置10から視覚センサ制御装M20
に入力されるように構成したが、CPDr 12aの数
値データを手入力によって直接視覚七ンザ制御装置20
に入力することもできる。
第2図はパターン板のドツトパターンの詳細図である。
パターン板3には矩形状にドツトパターン3a、3b、
3C等が配列されている。これらのドツトパターンは理
論的に6個あれば足りるが、キャリブレーション・パタ
ーン・データを正確に求めるために、25個のドツトパ
ターンが設けられている。特に、ドツトパターン3aは
原点用として他のドツトパターンより大きくなっている
。
3C等が配列されている。これらのドツトパターンは理
論的に6個あれば足りるが、キャリブレーション・パタ
ーン・データを正確に求めるために、25個のドツトパ
ターンが設けられている。特に、ドツトパターン3aは
原点用として他のドツトパターンより大きくなっている
。
このパターン板3は1種類のみを用意すればよく、それ
ほど大きなものは必要なく、簡単に製造できる。ロボッ
トへの取り付けも容易であり短時間でできる。
ほど大きなものは必要なく、簡単に製造できる。ロボッ
トへの取り付けも容易であり短時間でできる。
第3図(a)、(b)及び(c)は、3台のロボットで
互いに相手のカメラのキャリブレーションを行う例を示
す図である。第3図(a)において、第10ボツト1に
パターン板3が結合され、第20ボツト4、第30ボツ
ト30にカメラ6b、6Cが結合されている。第20ボ
ツト4、第30ボツト30は、カメラ6b、6cを移1
して、パターン板3がカメラ6b、6eの視野に入るよ
うにする。カメラ6b、6cは、パターン板3を撮像す
る。ここでは図示されていない視覚センサ制御装置によ
って、各カメラの撮像データが取り込まれ、それぞれの
カメラの共通座標に対するキャリブレーション・データ
が計算される。その詳細は第1図の場合と同じである。
互いに相手のカメラのキャリブレーションを行う例を示
す図である。第3図(a)において、第10ボツト1に
パターン板3が結合され、第20ボツト4、第30ボツ
ト30にカメラ6b、6Cが結合されている。第20ボ
ツト4、第30ボツト30は、カメラ6b、6cを移1
して、パターン板3がカメラ6b、6eの視野に入るよ
うにする。カメラ6b、6cは、パターン板3を撮像す
る。ここでは図示されていない視覚センサ制御装置によ
って、各カメラの撮像データが取り込まれ、それぞれの
カメラの共通座標に対するキャリブレーション・データ
が計算される。その詳細は第1図の場合と同じである。
第3図(b)は、第20ボツト4にパターン板が、第1
0ボツト1、第30ボツト30にカメラ6a、6Cが結
合されている場合を、第3図(C)は、第30ボツト3
0にパターン板3が、第10ボツト1、第20ボツト4
にカメラ6a16bが結合されている場合を、それぞれ
示している。
0ボツト1、第30ボツト30にカメラ6a、6Cが結
合されている場合を、第3図(C)は、第30ボツト3
0にパターン板3が、第10ボツト1、第20ボツト4
にカメラ6a16bが結合されている場合を、それぞれ
示している。
このように、3台のロボットの任意の組み合わせで、互
いに協力して相手のカメラのキャリブレーションを行う
ことができる。したがって、任意のカメラのキャリブレ
ーションをニーズに応じてフレキシブルに行うことがで
きる。
いに協力して相手のカメラのキャリブレーションを行う
ことができる。したがって、任意のカメラのキャリブレ
ーションをニーズに応じてフレキシブルに行うことがで
きる。
上記の説明では、3台のロボットの場合を示したが、4
台以上の場合でも同様である。
台以上の場合でも同様である。
第4図は、キャリブレーション完了後、ロボットが移動
して、ワークの位置認識を行う場合を概略的に示した図
である。図において、第20ボツト4は、カメラ6のキ
ャリブレーション完了後、AからBに移動する。第20
ボツト制御装置11は、第20ボツト4の移動量を共通
座標上で求め、その移動量データをメモリ(図示せず)
に格納する。カメラ6はワーク40のポイント40aを
撮像し、その撮像データが視覚センサ制御装置20に送
られる。視覚センサ制御装置20は、第20ボツト制御
装置11のメモリに格納された第20ボツト4の移動量
データ、ポイン)40aの撮像データ、及び第20ボツ
ト4の移動前に求められたキャリブレーション・データ
(CD)23aに基づいて、ポイン)40aの共通座
標上における位置に関するデータを求める。
して、ワークの位置認識を行う場合を概略的に示した図
である。図において、第20ボツト4は、カメラ6のキ
ャリブレーション完了後、AからBに移動する。第20
ボツト制御装置11は、第20ボツト4の移動量を共通
座標上で求め、その移動量データをメモリ(図示せず)
に格納する。カメラ6はワーク40のポイント40aを
撮像し、その撮像データが視覚センサ制御装置20に送
られる。視覚センサ制御装置20は、第20ボツト制御
装置11のメモリに格納された第20ボツト4の移動量
データ、ポイン)40aの撮像データ、及び第20ボツ
ト4の移動前に求められたキャリブレーション・データ
(CD)23aに基づいて、ポイン)40aの共通座
標上における位置に関するデータを求める。
このように、キャリブレーション完了後は、カメラの位
置がロボットとともに移動したとしても、再度キャリブ
レーションを行う必要はない。ワークの位置は、キャリ
ブレーション・データに基づいて、直接カメラの撮像画
面から求められる。
置がロボットとともに移動したとしても、再度キャリブ
レーションを行う必要はない。ワークの位置は、キャリ
ブレーション・データに基づいて、直接カメラの撮像画
面から求められる。
なお、上記の説明では視覚センサとしてカメラを使用し
たが、これ以外にもレーザ測長器等を使用して、パター
ン板のドツトパターンを読み取り、キャリブレーション
・パターン・データを求めるようにすることもできる。
たが、これ以外にもレーザ測長器等を使用して、パター
ン板のドツトパターンを読み取り、キャリブレーション
・パターン・データを求めるようにすることもできる。
以上説明したように本発明では、一方のロボットのパタ
ーン板を、他方のロボットのカメラによって撮像して、
そのカメラのキャリブレーションを行う構成としたので
、複数のロボットからなるロボットシステムにおいて、
任意のロボットに取り付けられたカメラのキャリブレー
ションを手軽に、時間をかけずに行うことができる。
ーン板を、他方のロボットのカメラによって撮像して、
そのカメラのキャリブレーションを行う構成としたので
、複数のロボットからなるロボットシステムにおいて、
任意のロボットに取り付けられたカメラのキャリブレー
ションを手軽に、時間をかけずに行うことができる。
また、キャリブレーション治具に小型で簡単なパターン
板を用いるようにしたので、キャリブレーション治具を
容易に設置することができ、治具のだめのスペースを設
ける必要もない。
板を用いるようにしたので、キャリブレーション治具を
容易に設置することができ、治具のだめのスペースを設
ける必要もない。
さらに、キャリブレーション治具の設置位置精度を高く
するための機構を別に設ける必要がなく、その分コスト
を低減することができる。
するための機構を別に設ける必要がなく、その分コスト
を低減することができる。
第1図は本発明の視覚センサのキャリブレーション方式
を実施するためのロボットシステムの全体の構成図、 第2図はパターン板のドツトパターンの詳細図、第3図
(a)、(b)及び(c)は、3台のロボットで互いに
キャリブレーションを行う例を示す図、 第4図はキャリブレーション完了後、ロボットが移動し
てワークの位置認識を行う場合を概略的に示した図であ
る。 1 ′第10ボット 2 アーム 3 パターン板 4 第20ボツト 5 アーム 6.6a、6b、6c CPDc カメラ 第10ボット制御装置 第20ポツト制@装置 メモリ 視覚センサ制御装r ブロセッザ OM AM AM AM 画像処理ブロセッザ 第30ボット ワーク キャリブl/−ジョン′・テ“−夕 共通座標十のキャリブレーショ ン・パターン・データ カメラ座標上のキャリジ1ノージ ョン・パターン・データ
を実施するためのロボットシステムの全体の構成図、 第2図はパターン板のドツトパターンの詳細図、第3図
(a)、(b)及び(c)は、3台のロボットで互いに
キャリブレーションを行う例を示す図、 第4図はキャリブレーション完了後、ロボットが移動し
てワークの位置認識を行う場合を概略的に示した図であ
る。 1 ′第10ボット 2 アーム 3 パターン板 4 第20ボツト 5 アーム 6.6a、6b、6c CPDc カメラ 第10ボット制御装置 第20ポツト制@装置 メモリ 視覚センサ制御装r ブロセッザ OM AM AM AM 画像処理ブロセッザ 第30ボット ワーク キャリブl/−ジョン′・テ“−夕 共通座標十のキャリブレーショ ン・パターン・データ カメラ座標上のキャリジ1ノージ ョン・パターン・データ
Claims (8)
- (1)ロボットシステムにおける視覚センサのキャリブ
レーションを行う視覚センサのキャリブレーション方式
において、 第1のロボットのアームにキャリブレーション用のパタ
ーン板を取り付け、 第2のロボットのアームに視覚センサを取り付け、 第1のロボット制御装置は前記第1のロボットを、第2
のロボット制御装置は前記第2のロボットをそれぞれ共
通座標上で制御し、 前記第1のロボット制御装置は、前記共通座標上におけ
る、前記パターン板の第1のキャリブレーション・パタ
ーン・データを視覚センサ制御装置に送り、 前記視覚センサ制御装置は、前記視覚センサによる前記
パターン板の撮像画面から得られた第2のキャリブレー
ション・パターン・データを求め、前記第1のキャリブ
レーション・パターン・データと前記第2のキャリブレ
ーション・パターン・データからキャリブレーション・
データを求め、視覚センサのキャリブレーションを行う
ことを特徴とする視覚センサのキャリブレーション方式
。 - (2)前記第1及び第2のロボットは、3台以上のロボ
ットの任意の組み合わせによって構成され、任意の視覚
センサのキャリブレーションを行うことを特徴とする請
求項1記載の視覚センサのキャリブレーション方式。 - (3)前記キャリブレーションの完了後、前記第2のロ
ボットが移動したとき、前記第2のロボット制御装置は
、前記第2のロボットの移動量を前記視覚センサ制御装
置に送り、前記視覚センサ制御装置は、前記移動量、前
記視覚センサによるワークの撮像画面から得られた撮像
データ、及び前記キャリブレーション・データに基づい
て、前記ワークの共通座標上における位置認識を行うこ
とを特徴とする請求項1記載の視覚センサのキャリブレ
ーション方式。 - (4)前記パターン板は、前記第1のロボットに常時取
り付けられている場合と、必要に応じて取り付けられる
場合とがあることを特徴とする請求項1記載の視覚セン
サのキャリブレーション方式。 - (5)前記視覚センサはカメラであることを特徴とする
請求項1記載の視覚センサのキャリブレーション方式。 - (6)前記視覚センサはレーザ測長器であることを特徴
とする請求項1記載の視覚センサのキャリブレーション
方式。 - (7)1個の原点用のドット・パターンと、複数の矩形
上に配列されたドット・パターンからなるパターン板を
使用することを特徴とする請求項1記載の視覚センサの
キャリブレーション方式。 - (8)前記第1のキャリブレーション・パターン・デー
タは、前記視覚センサ制御装置に直接入力されることを
特徴とする請求項1記載の視覚センサのキャリブレーシ
ョン方式。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2190958A JP2686351B2 (ja) | 1990-07-19 | 1990-07-19 | 視覚センサのキャリブレーション方法 |
EP91913074A EP0493612B1 (en) | 1990-07-19 | 1991-07-18 | Method of calibrating visual sensor |
US07/838,812 US6114824A (en) | 1990-07-19 | 1991-07-18 | Calibration method for a visual sensor |
PCT/JP1991/000960 WO1992001539A1 (fr) | 1990-07-19 | 1991-07-18 | Procede d'etalonnage d'un capteur visuel |
DE69105476T DE69105476T2 (de) | 1990-07-19 | 1991-07-18 | Verfahren zum kalibrieren eines optischen sensors. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2190958A JP2686351B2 (ja) | 1990-07-19 | 1990-07-19 | 視覚センサのキャリブレーション方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0475887A true JPH0475887A (ja) | 1992-03-10 |
JP2686351B2 JP2686351B2 (ja) | 1997-12-08 |
Family
ID=16266507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2190958A Expired - Fee Related JP2686351B2 (ja) | 1990-07-19 | 1990-07-19 | 視覚センサのキャリブレーション方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6114824A (ja) |
EP (1) | EP0493612B1 (ja) |
JP (1) | JP2686351B2 (ja) |
DE (1) | DE69105476T2 (ja) |
WO (1) | WO1992001539A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06175715A (ja) * | 1992-12-03 | 1994-06-24 | Fanuc Ltd | 視覚センサ座標系設定治具及び設定方法 |
US6236896B1 (en) | 1994-05-19 | 2001-05-22 | Fanuc Ltd. | Coordinate system setting method using visual sensor |
US7200260B1 (en) | 1999-04-08 | 2007-04-03 | Fanuc Ltd | Teaching model generating device |
US7359817B2 (en) * | 2004-07-28 | 2008-04-15 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
CN109227532A (zh) * | 2017-07-11 | 2019-01-18 | 精工爱普生株式会社 | 机器人的控制装置及其系统、机器人及摄像机的校正方法 |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE20003381U1 (de) * | 2000-02-24 | 2001-07-05 | KUKA Schweissanlagen GmbH, 86165 Augsburg | Prüfeinrichtung für bewegliche optische Messeinrichtungen |
US6615112B1 (en) | 1999-06-26 | 2003-09-02 | Kuka Schweissanlagen Gmbh | Method and device for calibrating robot measuring stations, manipulators and associated optical measuring devices |
JP4108342B2 (ja) * | 2001-01-30 | 2008-06-25 | 日本電気株式会社 | ロボット、ロボット制御システム、およびそのプログラム |
CA2369845A1 (en) | 2002-01-31 | 2003-07-31 | Braintech, Inc. | Method and apparatus for single camera 3d vision guided robotics |
WO2003064116A2 (en) * | 2002-01-31 | 2003-08-07 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
US7090134B2 (en) * | 2003-03-04 | 2006-08-15 | United Parcel Service Of America, Inc. | System for projecting a handling instruction onto a moving item or parcel |
US7063256B2 (en) | 2003-03-04 | 2006-06-20 | United Parcel Service Of America | Item tracking and processing systems and methods |
DE10319253B4 (de) * | 2003-04-28 | 2005-05-19 | Tropf, Hermann | Dreidimensional lagegerechtes Zuführen mit Roboter |
JP2008506953A (ja) | 2004-07-14 | 2008-03-06 | ブレインテック カナダ インコーポレイテッド | 機械視覚のための方法及び装置 |
DE102005045854B3 (de) * | 2005-09-26 | 2007-04-12 | Siemens Ag | Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen |
WO2007041696A2 (en) * | 2005-10-04 | 2007-04-12 | Alexander Eugene J | System and method for calibrating a set of imaging devices and calculating 3d coordinates of detected features in a laboratory coordinate system |
WO2007041690A2 (en) * | 2005-10-04 | 2007-04-12 | Alexander Eugene J | Device for generating three dimensional surface models of moving objects |
EP1960941A4 (en) * | 2005-11-10 | 2012-12-26 | Motion Analysis Corp | DEVICE AND METHOD FOR CALIBRATING AN IMAGING DEVICE FOR GENERATING THREE-DIMENSIONAL SURFACE MODELS OF MOBILE OBJECTS |
WO2008036354A1 (en) | 2006-09-19 | 2008-03-27 | Braintech Canada, Inc. | System and method of determining object pose |
JP4886560B2 (ja) * | 2007-03-15 | 2012-02-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US7957583B2 (en) | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
US8923602B2 (en) * | 2008-07-22 | 2014-12-30 | Comau, Inc. | Automated guidance and recognition system and method of the same |
JP2010139329A (ja) * | 2008-12-10 | 2010-06-24 | Fanuc Ltd | キャリブレーション用の校正治具および校正治具を備えた画像計測システム |
TWI408037B (zh) | 2010-12-03 | 2013-09-11 | Ind Tech Res Inst | 機械手臂的定位方法及校正方法 |
JP2014180720A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
CN103878774A (zh) * | 2014-02-25 | 2014-06-25 | 西安航天精密机电研究所 | 一种基于机器人的视觉标定方法 |
PL3012695T3 (pl) | 2014-10-23 | 2018-03-30 | Comau S.P.A. | Układ do monitorowania i sterowania zakładem przemysłowym |
WO2016119829A1 (en) * | 2015-01-28 | 2016-08-04 | Abb Schweiz Ag | Multiple arm robot system and method for operating a multiple arm robot system |
JP6122065B2 (ja) * | 2015-05-29 | 2017-04-26 | ファナック株式会社 | 搬送物を吊り下げて搬送するロボットシステム |
WO2018181249A1 (ja) * | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | 撮像システムおよび校正方法 |
JP7122694B2 (ja) | 2017-03-31 | 2022-08-22 | パナソニックIpマネジメント株式会社 | 撮像システムおよび校正方法 |
JP6815924B2 (ja) | 2017-04-19 | 2021-01-20 | トヨタ自動車株式会社 | キャリブレーション装置 |
US10471478B2 (en) | 2017-04-28 | 2019-11-12 | United Parcel Service Of America, Inc. | Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same |
IT201800005091A1 (it) | 2018-05-04 | 2019-11-04 | "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico" | |
JP6740288B2 (ja) * | 2018-07-13 | 2020-08-12 | ファナック株式会社 | 物体検査装置、物体検査システム、及び検査位置を調整する方法 |
JP2020066066A (ja) * | 2018-10-22 | 2020-04-30 | セイコーエプソン株式会社 | ロボットシステム、ロボットの校正治具、ロボットの校正方法 |
CN109411268A (zh) * | 2018-12-11 | 2019-03-01 | 四川艾德瑞电气有限公司 | 一种铁路牵引变电所控制柜按钮视觉定位方法 |
JP2020154208A (ja) * | 2019-03-22 | 2020-09-24 | 本田技研工業株式会社 | カメラ焦点調整治具、及びカメラ焦点調整方法 |
CN111203862B (zh) * | 2020-01-07 | 2021-03-23 | 上海高仙自动化科技发展有限公司 | 数据的显示方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6037007A (ja) * | 1983-08-08 | 1985-02-26 | Hitachi Ltd | 画像処理装置の座標変換パラメタ決定方式 |
JPS6257884A (ja) * | 1985-09-09 | 1987-03-13 | 株式会社東芝 | マニピユレ−タ装置 |
JPH01205994A (ja) * | 1988-02-08 | 1989-08-18 | Toshiba Corp | ロボット視覚認識装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3890552A (en) * | 1972-12-29 | 1975-06-17 | George C Devol | Dual-armed multi-axes program controlled manipulators |
US4146924A (en) * | 1975-09-22 | 1979-03-27 | Board Of Regents For Education Of The State Of Rhode Island | System for visually determining position in space and/or orientation in space and apparatus employing same |
US4441817A (en) * | 1980-07-29 | 1984-04-10 | Diffracto Ltd. | Electro-optical sensors with fiber optic bundles |
US5148591A (en) * | 1981-05-11 | 1992-09-22 | Sensor Adaptive Machines, Inc. | Vision target based assembly |
US4481592A (en) * | 1982-03-05 | 1984-11-06 | Texas Instruments Incorporated | Calibration system for a programmable manipulator |
US4753569A (en) * | 1982-12-28 | 1988-06-28 | Diffracto, Ltd. | Robot calibration |
JPS59227382A (ja) * | 1983-06-10 | 1984-12-20 | 株式会社日立製作所 | 精密位置決めシステム |
EP0151417A1 (en) * | 1984-01-19 | 1985-08-14 | Hitachi, Ltd. | Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor |
JPS6142004A (ja) * | 1984-08-06 | 1986-02-28 | Toyota Central Res & Dev Lab Inc | 追従ロボツト装置 |
US4851905A (en) * | 1984-10-12 | 1989-07-25 | Diffracto Ltd. | Vision target fixture construction |
US4796200A (en) * | 1986-12-09 | 1989-01-03 | Diffracto Ltd. | Target based determination of robot and sensor alignment |
US4639878A (en) * | 1985-06-04 | 1987-01-27 | Gmf Robotics Corporation | Method and system for automatically determining the position and attitude of an object |
JPH069795B2 (ja) * | 1985-10-29 | 1994-02-09 | 日産自動車株式会社 | ロボットの手首部位置決め方法 |
US4853771A (en) * | 1986-07-09 | 1989-08-01 | The United States Of America As Represented By The Secretary Of The Navy | Robotic vision system |
US4979135A (en) * | 1988-01-27 | 1990-12-18 | Storage Technology Corporation | Vision system illumination calibration apparatus |
US5034904A (en) * | 1988-01-27 | 1991-07-23 | Storage Technology Corporation | Vision system illumination calibration apparatus |
JPH01237802A (ja) * | 1988-03-18 | 1989-09-22 | Tokico Ltd | 工業用ロボットのティーチングデータ変換装置 |
JPH079606B2 (ja) * | 1988-09-19 | 1995-02-01 | 豊田工機株式会社 | ロボット制御装置 |
JP2786225B2 (ja) * | 1989-02-01 | 1998-08-13 | 株式会社日立製作所 | 工業用ロボットの制御方法及び装置 |
US5023426A (en) * | 1989-06-21 | 1991-06-11 | Honeywell Inc. | Robotic laser soldering apparatus for automated surface assembly of microscopic components |
JPH08381B2 (ja) * | 1989-07-27 | 1996-01-10 | 株式会社不二越 | 産業用ロボットシステム及びその制御方法 |
US4983797A (en) * | 1989-12-29 | 1991-01-08 | Dana Corporation | Method for manufacturing a composite camshaft |
JP2964113B2 (ja) * | 1992-07-20 | 1999-10-18 | 東京エレクトロン株式会社 | 処理装置 |
US5083073A (en) * | 1990-09-20 | 1992-01-21 | Mazada Motor Manufacturing U.S.A. Corp. | Method and apparatus for calibrating a vision guided robot |
-
1990
- 1990-07-19 JP JP2190958A patent/JP2686351B2/ja not_active Expired - Fee Related
-
1991
- 1991-07-18 EP EP91913074A patent/EP0493612B1/en not_active Expired - Lifetime
- 1991-07-18 DE DE69105476T patent/DE69105476T2/de not_active Expired - Fee Related
- 1991-07-18 WO PCT/JP1991/000960 patent/WO1992001539A1/ja active IP Right Grant
- 1991-07-18 US US07/838,812 patent/US6114824A/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6037007A (ja) * | 1983-08-08 | 1985-02-26 | Hitachi Ltd | 画像処理装置の座標変換パラメタ決定方式 |
JPS6257884A (ja) * | 1985-09-09 | 1987-03-13 | 株式会社東芝 | マニピユレ−タ装置 |
JPH01205994A (ja) * | 1988-02-08 | 1989-08-18 | Toshiba Corp | ロボット視覚認識装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06175715A (ja) * | 1992-12-03 | 1994-06-24 | Fanuc Ltd | 視覚センサ座標系設定治具及び設定方法 |
US6236896B1 (en) | 1994-05-19 | 2001-05-22 | Fanuc Ltd. | Coordinate system setting method using visual sensor |
US7200260B1 (en) | 1999-04-08 | 2007-04-03 | Fanuc Ltd | Teaching model generating device |
US7359817B2 (en) * | 2004-07-28 | 2008-04-15 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
CN109227532A (zh) * | 2017-07-11 | 2019-01-18 | 精工爱普生株式会社 | 机器人的控制装置及其系统、机器人及摄像机的校正方法 |
JP2019014030A (ja) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 |
CN109227532B (zh) * | 2017-07-11 | 2023-08-29 | 精工爱普生株式会社 | 机器人的控制装置及其系统、机器人及摄像机的校正方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2686351B2 (ja) | 1997-12-08 |
EP0493612B1 (en) | 1994-11-30 |
DE69105476D1 (de) | 1995-01-12 |
US6114824A (en) | 2000-09-05 |
DE69105476T2 (de) | 1995-04-13 |
WO1992001539A1 (fr) | 1992-02-06 |
EP0493612A1 (en) | 1992-07-08 |
EP0493612A4 (en) | 1993-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0475887A (ja) | 視覚センサのキャリブレーション方法 | |
JPH0435885A (ja) | 視覚センサのキャリブレーション方法 | |
JP6527178B2 (ja) | 視覚センサのキャリブレーション装置、方法及びプログラム | |
JP5049975B2 (ja) | 3次元モデルデータ生成方法及び3次元モデルデータ生成装置 | |
JP4021413B2 (ja) | 計測装置 | |
US20050273199A1 (en) | Robot system | |
JPH04344503A (ja) | ロボットの数値制御装置 | |
JP2000293695A (ja) | 画像処理装置 | |
JP2000288968A (ja) | 教示モデル生成装置 | |
JP2702320B2 (ja) | ロボットの制御装置 | |
JP7250489B2 (ja) | 画像処理装置およびその制御方法、プログラム | |
TW201900316A (zh) | 雷射加工裝置 | |
CN111590593A (zh) | 机械臂的标定方法、装置、系统及存储介质 | |
CN114139857A (zh) | 一种工件精整加工工序修正方法、系统、存储介质及装置 | |
JPWO2018043524A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2003311670A (ja) | ロボットアームの位置制御方法およびロボット装置 | |
JP4572497B2 (ja) | ロボット制御装置 | |
JPWO2018168757A1 (ja) | 画像処理装置、システム、画像処理方法、物品の製造方法、プログラム | |
JP2682763B2 (ja) | ロボット機体の作動誤差の自動測定方法 | |
JP7112528B2 (ja) | 作業座標作成装置 | |
JP3541980B2 (ja) | 視覚センサ付きロボットにおけるキャリブレーション方法 | |
US20230191612A1 (en) | Coordinate system setting system and position/orientation measurement system | |
TWI813480B (zh) | 點群數據合成裝置、方法、系統以及電腦可讀取記錄媒體 | |
JP3252870B2 (ja) | 画像認識用ロボットカメラのキャリブレーシヨン方法 | |
JP2782959B2 (ja) | 視覚機能付自動取付装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070815 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080815 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090815 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |