JP2686351B2 - 視覚センサのキャリブレーション方法 - Google Patents
視覚センサのキャリブレーション方法Info
- Publication number
- JP2686351B2 JP2686351B2 JP2190958A JP19095890A JP2686351B2 JP 2686351 B2 JP2686351 B2 JP 2686351B2 JP 2190958 A JP2190958 A JP 2190958A JP 19095890 A JP19095890 A JP 19095890A JP 2686351 B2 JP2686351 B2 JP 2686351B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- visual sensor
- calibration
- data
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40605—Two cameras, each on a different end effector to measure relative position
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/49—Method of mechanical manufacture
- Y10T29/49764—Method of mechanical manufacture with testing or indicating
- Y10T29/49769—Using optical instrument [excludes mere human eyeballing]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明はロボットシステムにおける視覚センサのキャ
リブレーション方法に関し、特にロボットに取り付けら
れたカメラ等のキャリブレーションを行う視覚センサの
キャリブレーション方法に関する。
リブレーション方法に関し、特にロボットに取り付けら
れたカメラ等のキャリブレーションを行う視覚センサの
キャリブレーション方法に関する。
ロボットシステムでは視覚機能を持たせ、ワークをカ
メラ等によって撮像し、ワークの位置を認識させて、組
立作業、パレタイジング作業等を実行させることが実用
化されつつある。また、正確にワークの位置を認識する
ため、複数のカメラが使用される。このカメラは、ロボ
ットのアームに取り付けられ、ワークの位置が変化して
も、それに対応できるようにすることもある。
メラ等によって撮像し、ワークの位置を認識させて、組
立作業、パレタイジング作業等を実行させることが実用
化されつつある。また、正確にワークの位置を認識する
ため、複数のカメラが使用される。このカメラは、ロボ
ットのアームに取り付けられ、ワークの位置が変化して
も、それに対応できるようにすることもある。
一方、正確にワークの位置を認識するために、ロボッ
ト座標系と、カメラ座標系との関係をキャリブレーショ
ンする必要がある。
ト座標系と、カメラ座標系との関係をキャリブレーショ
ンする必要がある。
ロボットに取り付けられたカメラのキャリブレーショ
ンを行う場合、そのカメラの視野内に、専用のキャリブ
レーション治具を設置する必要がある。
ンを行う場合、そのカメラの視野内に、専用のキャリブ
レーション治具を設置する必要がある。
しかし、従来のキャリブレーション治具は、一般に大
きく、設置するのに特別のスペースが必要とされ、しか
も、ワークのライン上に設置されていた。このため、ス
ペース的に設置が困難であることが多く、設置するのに
時間を要していた。
きく、設置するのに特別のスペースが必要とされ、しか
も、ワークのライン上に設置されていた。このため、ス
ペース的に設置が困難であることが多く、設置するのに
時間を要していた。
また、キャリブレーション治具の設置位置精度を高く
する必要があり、そのための機構が別に設けられてい
た。このため、コストが高くついていた。
する必要があり、そのための機構が別に設けられてい
た。このため、コストが高くついていた。
さらに、このような設置スペース、設置位置精度の問
題のために、ロボットシステムにおけるカメラのキャリ
ブレーションを行うのに、手間がかかり、時間を要して
いた。
題のために、ロボットシステムにおけるカメラのキャリ
ブレーションを行うのに、手間がかかり、時間を要して
いた。
本発明はこのような点に鑑みてなされたものであり、
ロボットに取り付けられたカメラのキャリブレーション
を手軽に、時間をかけずに行うことができる視覚センサ
のキャリブレーション方法を提供することを目的とす
る。
ロボットに取り付けられたカメラのキャリブレーション
を手軽に、時間をかけずに行うことができる視覚センサ
のキャリブレーション方法を提供することを目的とす
る。
また、本発明の他の目的は、キャリブレーション治具
を設けるための特別のスペースを必要とせず、治具を容
易に設置できる視覚センサのキャリブレーション方法を
提供することである。
を設けるための特別のスペースを必要とせず、治具を容
易に設置できる視覚センサのキャリブレーション方法を
提供することである。
さらに、本発明の他の目的は、キャリブレーション治
具の設置位置精度を高くするための機構を別に設ける必
要がなく、その分コストを低減できる視覚センサのキャ
リブレーション方法を提供することである。
具の設置位置精度を高くするための機構を別に設ける必
要がなく、その分コストを低減できる視覚センサのキャ
リブレーション方法を提供することである。
本発明では上記課題を解決するために、ロボットシス
テムにおける視覚センサのキャリブレーションを行う視
覚センサのキャリブレーション方法において、第1のロ
ボットのアームにキャリブレーション用のパターン板を
取り付け、第2のロボットのアームに視覚センサを取り
付け、第1のロボット制御装置は前記第1のロボット
を、第2のロボット制御装置は前記第2のロボットをそ
れぞれ共通座標上で制御し、前記第1のロボット制御装
置は、前記共通座標上における、前記パターン板の第1
のキャリブレーション・パターン・データを視覚センサ
制御装置に送り、前記視覚センサ制御装置は、前記視覚
センサによる前記パターン板の撮像画面から得られた第
2のキャリブレーション・パターン・データを求め、前
記第1のキャリブレーション・パターン・データと前記
第2のキャリブレーション・パターン・データからキャ
リブレーション・データを求め、視覚センサのキャリブ
レーションを行うことを特徴とする視覚センサのキャリ
ブレーション方法が、提供される。
テムにおける視覚センサのキャリブレーションを行う視
覚センサのキャリブレーション方法において、第1のロ
ボットのアームにキャリブレーション用のパターン板を
取り付け、第2のロボットのアームに視覚センサを取り
付け、第1のロボット制御装置は前記第1のロボット
を、第2のロボット制御装置は前記第2のロボットをそ
れぞれ共通座標上で制御し、前記第1のロボット制御装
置は、前記共通座標上における、前記パターン板の第1
のキャリブレーション・パターン・データを視覚センサ
制御装置に送り、前記視覚センサ制御装置は、前記視覚
センサによる前記パターン板の撮像画面から得られた第
2のキャリブレーション・パターン・データを求め、前
記第1のキャリブレーション・パターン・データと前記
第2のキャリブレーション・パターン・データからキャ
リブレーション・データを求め、視覚センサのキャリブ
レーションを行うことを特徴とする視覚センサのキャリ
ブレーション方法が、提供される。
第1のロボット制御装置は第1のロボットを、第2の
ロボット制御装置は第2のロボットをそれぞれ共通座標
上で制御する。また、第1のロボット制御装置は、共通
座標上におけるパターン板の位置データを正確に内部に
持っている。すなわち、第1のロボットのアームの先端
の座標位置と、パターン板の取り付け寸法から得られ
た、パターン板の第1のキャリブレーション・パターン
・データを持っている。
ロボット制御装置は第2のロボットをそれぞれ共通座標
上で制御する。また、第1のロボット制御装置は、共通
座標上におけるパターン板の位置データを正確に内部に
持っている。すなわち、第1のロボットのアームの先端
の座標位置と、パターン板の取り付け寸法から得られ
た、パターン板の第1のキャリブレーション・パターン
・データを持っている。
この第1のキャリブレーション・パターン・データ
は、第1のロボット制御装置から視覚センサ制御装置
に、通信回線を経由して送られる。
は、第1のロボット制御装置から視覚センサ制御装置
に、通信回線を経由して送られる。
視覚センサ制御装置は、第2のロボットのアームに取
り付けられた視覚センサによってパターン板を撮像し、
その撮像データに基づいて、パターン板の第2のキャリ
ブレーション・パターン・データを求める。次に、第1
のキャリブレーション・パターン・データと第2のキャ
リブレーション・パターン・データを比較し、キャリブ
レーション・データを求める。
り付けられた視覚センサによってパターン板を撮像し、
その撮像データに基づいて、パターン板の第2のキャリ
ブレーション・パターン・データを求める。次に、第1
のキャリブレーション・パターン・データと第2のキャ
リブレーション・パターン・データを比較し、キャリブ
レーション・データを求める。
このキャリブレーション・データに基づいて、ワーク
の、共通座標上における位置認識が行われる。
の、共通座標上における位置認識が行われる。
以下、本発明の一実施例を図面に基づいて説明する。
第1図は本発明の視覚センサのキャリブレーション方
式を実施するためのロボットシステムの全体の構成図で
ある。
式を実施するためのロボットシステムの全体の構成図で
ある。
第1ロボット1のアーム2には、パターン板3が結合
されている。パターン板3には複数のドットパターンが
設けられている。パターン板3の詳細については後述す
る。
されている。パターン板3には複数のドットパターンが
設けられている。パターン板3の詳細については後述す
る。
第2ロボット4のアーム5には、カメラ6が結合され
ている。
ている。
第1ロボット1は、第1ロボット制御装置10によっ
て、第2ロボット4は、第2ロボット制御装置11によっ
てそれぞれ制御される。第1ロボット制御装置10及び第
2ロボット制御装置11は、各ロボット座標を共通座標に
変換する座標変換データを持っており、第1ロボット1
及び第2ロボット4を共通座標上で制御する。
て、第2ロボット4は、第2ロボット制御装置11によっ
てそれぞれ制御される。第1ロボット制御装置10及び第
2ロボット制御装置11は、各ロボット座標を共通座標に
変換する座標変換データを持っており、第1ロボット1
及び第2ロボット4を共通座標上で制御する。
第1ロボット制御装置10は第1ロボット1の共通座標
上におけるアーム2の先端位置、すなわちTCP(ツール
・センタ・ポイント)の座標位置を現在位置として認識
している。従って、アーム2のTCPとパターン板3の取
り付け寸法から、パターン板3の各ドットパターンの位
置である共通座標上でのキャリブレーション・パターン
・データをメモリ12に持っている。このキャリブレーシ
ョン・パターン・データをCPDr12aとする。
上におけるアーム2の先端位置、すなわちTCP(ツール
・センタ・ポイント)の座標位置を現在位置として認識
している。従って、アーム2のTCPとパターン板3の取
り付け寸法から、パターン板3の各ドットパターンの位
置である共通座標上でのキャリブレーション・パターン
・データをメモリ12に持っている。このキャリブレーシ
ョン・パターン・データをCPDr12aとする。
一方、視覚センサ制御装置20には第2ロボット4のカ
メラ6が結合されている。視覚センサ制御装置20は、カ
メラ6によってパターン板3を撮像し、カメラ6のキャ
リブレーションを行う。視覚センサ制御装置20はプロセ
ッサ(CPU)21を中心に構成されている。ROM22にはキャ
リブレーションを行うためのコントロール・ソフトウェ
ア22aが格納されており、キャリブレーション動作を制
御する。RAM23には後述のキャリブレーション・データ
(CD)23aと、第1ロボット制御装置10からのキャリブ
レーション・パターン・データ(CPDr)12aが格納され
ている。RAM24には、パターン板3の各ドットの座標位
置データ、ドットパターン・データ(DPD)24aが格納さ
れる。
メラ6が結合されている。視覚センサ制御装置20は、カ
メラ6によってパターン板3を撮像し、カメラ6のキャ
リブレーションを行う。視覚センサ制御装置20はプロセ
ッサ(CPU)21を中心に構成されている。ROM22にはキャ
リブレーションを行うためのコントロール・ソフトウェ
ア22aが格納されており、キャリブレーション動作を制
御する。RAM23には後述のキャリブレーション・データ
(CD)23aと、第1ロボット制御装置10からのキャリブ
レーション・パターン・データ(CPDr)12aが格納され
ている。RAM24には、パターン板3の各ドットの座標位
置データ、ドットパターン・データ(DPD)24aが格納さ
れる。
プロセッサ21はコントロール・ソフトウェア22aに従
って、カメラ6によってパターン板3のドットパターン
を撮像する。この撮像データはカメラ・インタフェース
28を経由して、RAM25に一旦格納させる。この撮像デー
タはカメラ6の撮像面上での各ドットパターンの映像デ
ータである。
って、カメラ6によってパターン板3のドットパターン
を撮像する。この撮像データはカメラ・インタフェース
28を経由して、RAM25に一旦格納させる。この撮像デー
タはカメラ6の撮像面上での各ドットパターンの映像デ
ータである。
画像処理プロセッサ26は、この各ドットパターンの映
像データと予め格納されたドットパターン・データ(DP
D)24aとから、カメラ6のキャリブレーション・パター
ン・データ(CPDc)25aを求め、RAM25に格納する。
像データと予め格納されたドットパターン・データ(DP
D)24aとから、カメラ6のキャリブレーション・パター
ン・データ(CPDc)25aを求め、RAM25に格納する。
一方、第1ロボット制御装置10内のキャリブレーショ
ン・パターン・データ(CPDr)12aを通信回線13を経由
して、インタフェース27から読み取り、RAM23に格納す
る。
ン・パターン・データ(CPDr)12aを通信回線13を経由
して、インタフェース27から読み取り、RAM23に格納す
る。
続いて、共通座標上でのキャリブレーション・パター
ン・データ(CPDr)12aとカメラ座標上でのキャリブレ
ーション・パターン・データ(CPDc)25aとを比較し
て、カメラ座標系の共通座標系における位置、姿勢の関
係を計算する。すなわち、キャリブレーションを行う。
この結果をキャリブレーション・データ(CD)23aとし
て、RAM23に格納する。
ン・データ(CPDr)12aとカメラ座標上でのキャリブレ
ーション・パターン・データ(CPDc)25aとを比較し
て、カメラ座標系の共通座標系における位置、姿勢の関
係を計算する。すなわち、キャリブレーションを行う。
この結果をキャリブレーション・データ(CD)23aとし
て、RAM23に格納する。
このキャリブレーション・データ(CD)23aに基づい
て、ワークの、共通座標上における位置認識が行われ
る。すなわち、プロセッサ21はカメラ6によってワーク
を撮像し、その撮像画面から得られたワークの映像デー
タと、RAM23に格納されているキャリブレーション・デ
ータ(CD)23aに基づいて、ワークの共通座標上におけ
る位置データを求める。
て、ワークの、共通座標上における位置認識が行われ
る。すなわち、プロセッサ21はカメラ6によってワーク
を撮像し、その撮像画面から得られたワークの映像デー
タと、RAM23に格納されているキャリブレーション・デ
ータ(CD)23aに基づいて、ワークの共通座標上におけ
る位置データを求める。
この位置データに基づいて、作業用ロボットは、組
立、パレタイジング作業等を行う。この作業は、パター
ン板を取り外した第1ロボット1が行うようにしてもよ
いし、第1、第2ロボットと同じ共通座標上にある第3
のロボットが行うようにしてもよい。
立、パレタイジング作業等を行う。この作業は、パター
ン板を取り外した第1ロボット1が行うようにしてもよ
いし、第1、第2ロボットと同じ共通座標上にある第3
のロボットが行うようにしてもよい。
上記の説明では、第2ロボットのカメラのキャリブレ
ーションを行うようにしたが、第1ロボットにカメラ
を、第2ロボットにパターン板を結合し、第1ロボット
のカメラのキャリブレーションを行う構成とすることも
できる。したがって、2台のロボットは、互いに協力し
て相手のカメラのキャリブレーションを行うことができ
る。
ーションを行うようにしたが、第1ロボットにカメラ
を、第2ロボットにパターン板を結合し、第1ロボット
のカメラのキャリブレーションを行う構成とすることも
できる。したがって、2台のロボットは、互いに協力し
て相手のカメラのキャリブレーションを行うことができ
る。
さらに、上記の説明では、共通座標上でのキャリブレ
ーション・パターン・データ(CPDr)12aは、第1ロボ
ット制御装置10から視覚センサ制御装置20に入力される
ように構成したが、CPDr12aの数値データを手入力によ
って直接視覚センサ制御装置20に入力することもでき
る。
ーション・パターン・データ(CPDr)12aは、第1ロボ
ット制御装置10から視覚センサ制御装置20に入力される
ように構成したが、CPDr12aの数値データを手入力によ
って直接視覚センサ制御装置20に入力することもでき
る。
第2図はパターン板のドットパターンの詳細図であ
り。パターン板3には矩形状にドットパターン3a、3b、
3c等が配列されている。これらのドットパターンは理論
的に6個ありば足りるが、キャリブレーション・パター
ン・データを正確に求めるために、25個のドットパター
ンが設けられている。特に、ドットパターン3aは原点用
として他のドットパターンより大きくなっている。
り。パターン板3には矩形状にドットパターン3a、3b、
3c等が配列されている。これらのドットパターンは理論
的に6個ありば足りるが、キャリブレーション・パター
ン・データを正確に求めるために、25個のドットパター
ンが設けられている。特に、ドットパターン3aは原点用
として他のドットパターンより大きくなっている。
このパターン板3は1種類のみを用意すればよく、そ
れほど大きなものは必要なく、簡単に製造できる。ロボ
ットへの取り付けも容易であり短時間でできる。
れほど大きなものは必要なく、簡単に製造できる。ロボ
ットへの取り付けも容易であり短時間でできる。
第3図(a)、(b)及び(c)は、3台のロボット
で互いに相手のカメラのキャリブレーションを行う例を
示す図である。第3図(a)において、第1ロボット1
にパターン板3が結合され、第2ロボット4、第3ロボ
ット30にカメラ6b、6cが結合されている。第2ロボット
4、第3ロボット30は、カメラ6b、6cを移動して、パタ
ーン板3がカメラ6b、6cの視野に入るようにする。カメ
ラ6b、6cは、パターン板3を撮像する。ここでは図示さ
れていない視覚センサ制御装置によって、各カメラの撮
像データが取り込まれ、それぞれのカメラの共通座標に
対するキャリブレーション・データが計算される。その
詳細は第1図の場合と同じである。
で互いに相手のカメラのキャリブレーションを行う例を
示す図である。第3図(a)において、第1ロボット1
にパターン板3が結合され、第2ロボット4、第3ロボ
ット30にカメラ6b、6cが結合されている。第2ロボット
4、第3ロボット30は、カメラ6b、6cを移動して、パタ
ーン板3がカメラ6b、6cの視野に入るようにする。カメ
ラ6b、6cは、パターン板3を撮像する。ここでは図示さ
れていない視覚センサ制御装置によって、各カメラの撮
像データが取り込まれ、それぞれのカメラの共通座標に
対するキャリブレーション・データが計算される。その
詳細は第1図の場合と同じである。
第3図(b)は、第2ロボット4にパターン板が、第
1ロボット1、第3ロボット30にカメラ6a、6cが結合さ
れている場合を、第3図(c)は、第3ロボット30にパ
ターン板3が、第1ロボット1、第2ロボット4にカメ
ラ6a、6cが結合されている場合を、それぞれ示してい
る。
1ロボット1、第3ロボット30にカメラ6a、6cが結合さ
れている場合を、第3図(c)は、第3ロボット30にパ
ターン板3が、第1ロボット1、第2ロボット4にカメ
ラ6a、6cが結合されている場合を、それぞれ示してい
る。
このように、3台のロボットの任意の組み合わせで、
互いに協力して相手のカメラのキャリブレーションを行
うことができる。したがって、任意のカメラのキャリブ
レーションをニーズに応じてフレキシブルに行うことが
できる。
互いに協力して相手のカメラのキャリブレーションを行
うことができる。したがって、任意のカメラのキャリブ
レーションをニーズに応じてフレキシブルに行うことが
できる。
上記の説明では、3台のロボットの場合を示したが、
4台以上の場合でも同様である。
4台以上の場合でも同様である。
第4図は、キャリブレーション完了後、ロボットが移
動して、ワークの位置認識を行う場合を概略的に示した
図である。図において、第2ロボット4は、カメラ6の
キャリブレーション完了後、AからBに移動する。第2
ロボット制御装置11は、第2ロボット4の移動量を共通
座標上で求め、その移動量データをメモリ(図示せず)
に格納する。カメラ6はワーク40のポイント40aを撮像
し、その撮像データが視覚センサ制御装置20に送られ
る。視覚センサ制御装置20は、第2ロボット制御装置11
のメモリに格納された第2ロボット4の移動量データ、
ポイント40aの撮像データ、及び第2ロボット4の移動
前に求められたキャリブレーション・データ(CD)23a
に基づいて、ポイント40aの共通座標上における位置に
関するデータを求める。
動して、ワークの位置認識を行う場合を概略的に示した
図である。図において、第2ロボット4は、カメラ6の
キャリブレーション完了後、AからBに移動する。第2
ロボット制御装置11は、第2ロボット4の移動量を共通
座標上で求め、その移動量データをメモリ(図示せず)
に格納する。カメラ6はワーク40のポイント40aを撮像
し、その撮像データが視覚センサ制御装置20に送られ
る。視覚センサ制御装置20は、第2ロボット制御装置11
のメモリに格納された第2ロボット4の移動量データ、
ポイント40aの撮像データ、及び第2ロボット4の移動
前に求められたキャリブレーション・データ(CD)23a
に基づいて、ポイント40aの共通座標上における位置に
関するデータを求める。
このように、キャリブレーション完了後は、カメラの
位置がロボットとともに移動したとしても、再度キャリ
ブレーションを行う必要はない。ワークの位置は、キャ
リブレーション・データに基づいて、直接カメラの撮像
画面から求められる。
位置がロボットとともに移動したとしても、再度キャリ
ブレーションを行う必要はない。ワークの位置は、キャ
リブレーション・データに基づいて、直接カメラの撮像
画面から求められる。
なお、上記の説明では視覚センサとしてカメラを使用
したが、これ以外にもレーザ測長器等を使用して、パタ
ーン板のドットパターンを読み取り、キャリブレーショ
ン・パターン・データを求めるようにすることもでき
る。
したが、これ以外にもレーザ測長器等を使用して、パタ
ーン板のドットパターンを読み取り、キャリブレーショ
ン・パターン・データを求めるようにすることもでき
る。
以上説明したように本発明では、一方のロボットのパ
ターン板を、他方のロボットのカメラによって撮像し
て、そのカメラのキャリブレーションを行うようにした
ので、複数のロボットからなるロボットシステムにおい
て、任意のロボットに取り付けられたカメラのキャリブ
レーションを手軽に、時間をかけずに行うことができ
る。
ターン板を、他方のロボットのカメラによって撮像し
て、そのカメラのキャリブレーションを行うようにした
ので、複数のロボットからなるロボットシステムにおい
て、任意のロボットに取り付けられたカメラのキャリブ
レーションを手軽に、時間をかけずに行うことができ
る。
また、キャリブレーション治具に小型で簡単なパター
ン板を用いるようにしたので、キャリブレーション治具
を容易に設置することができ、治具のためのスペースを
設ける必要もない。
ン板を用いるようにしたので、キャリブレーション治具
を容易に設置することができ、治具のためのスペースを
設ける必要もない。
さらに、キャリブレーション治具の設置位置精度を高
くするための機構を別に設ける必要がなく、その分コス
トを低減することができる。
くするための機構を別に設ける必要がなく、その分コス
トを低減することができる。
第1図は本発明の視覚センサのキャリブレーション方式
を実施するためのロボットシステムの全体の構成図、 第2図はパターン板のドットパターンの詳細図、 第3図(a)、(b)及び(c)は、3台のロボットで
互いにキャリブレーションを行う例を示す図、 第4図はキャリブレーション完了後、ロボットが移動し
てワークの位置認識を行う場合を概略的に示した図であ
る。 1……第1ロボット 2……アーム 3……パターン板 4……第2ロボット 5……アーム 6、6a、6b、6c……カメラ 10……第1ロボット制御装置 11……第2ロボット制御装置 12……メモリ 20……視覚センサ制御装置 21……プロセッサ 22……ROM 23……RAM 24……RAM 25……RAM 26……画像処理プロセッサ 30……第3ロボット 40……ワーク CD……キャリブレーション・データ CPDr……共通座標上のキャリブレーション・パターン・
データ CPDc……カメラ座標上のキャリブレーション・パターン
・データ
を実施するためのロボットシステムの全体の構成図、 第2図はパターン板のドットパターンの詳細図、 第3図(a)、(b)及び(c)は、3台のロボットで
互いにキャリブレーションを行う例を示す図、 第4図はキャリブレーション完了後、ロボットが移動し
てワークの位置認識を行う場合を概略的に示した図であ
る。 1……第1ロボット 2……アーム 3……パターン板 4……第2ロボット 5……アーム 6、6a、6b、6c……カメラ 10……第1ロボット制御装置 11……第2ロボット制御装置 12……メモリ 20……視覚センサ制御装置 21……プロセッサ 22……ROM 23……RAM 24……RAM 25……RAM 26……画像処理プロセッサ 30……第3ロボット 40……ワーク CD……キャリブレーション・データ CPDr……共通座標上のキャリブレーション・パターン・
データ CPDc……カメラ座標上のキャリブレーション・パターン
・データ
Claims (8)
- 【請求項1】ロボットシステムにおける視覚センサのキ
ャリブレーションを行う視覚センサのキャリブレーショ
ン方法において、 第1のロボットのアームにキャリブレーション用のパタ
ーン板を取り付け、 第2のロボットのアームに視覚センサを取り付け、 第1のロボット制御装置は前記第1のロボットを、第2
のロボット制御装置は前記第2のロボットをそれぞれ共
通座標上で制御し、 前記第1のロボット制御装置は、前記共通座標上におけ
る、前記パターン板の第1のキャリブレーション・パタ
ーン・データを視覚センサ制御装置に送り、 前記視覚センサ制御装置は、前記視覚センサによる前記
パターン板の撮像画面から得られた第2のキャリブレー
ション・パターン・データを求め、 前記第1のキャリブレーション・パターン・データと前
記第2のキャリブレーション・パターン・データからキ
ャリブレーション・データを求め、 視覚センサのキャリブレーションを行うことを特徴とす
る視覚センサのキャリブレーション方法。 - 【請求項2】前記第1及び第2のロボットは、3台以上
のロボットの任意の組み合わせによって構成され、任意
の視覚センサのキャリブレーションを行うことを特徴と
する請求項1記載の視覚センサのキャリブレーション方
法。 - 【請求項3】前記キャリブレーションの完了後、前記第
2のロボットが移動したとき、前記第2のロボット制御
装置は、前記第2のロボットの移動量を前記視覚センサ
制御装置に送り、前記視覚センサ制御装置は、前記移動
量、前記視覚センサによるワークの撮像画面から得られ
た撮像データ、及び前記キャリブレーション・データに
基づいて、前記ワークの共通座標上における位置認識を
行うことを特徴とする請求項1記載の視覚センサのキャ
リブレーション方法。 - 【請求項4】前記パターン板は、前記第1のロボットに
常時取り付けられている場合と、必要に応じて取り付け
られる場合とがあることを特徴とする請求項1記載の視
覚センサのキャリブレーション方法。 - 【請求項5】前記視覚センサはカメラであることを特徴
とする請求項1記載の視覚センサのキャリブレーション
方法。 - 【請求項6】前記視覚センサはレーザ測長器であること
を特徴とする請求項1記載の視覚センサのキャリブレー
ション方法。 - 【請求項7】1個の原点用のドット・パターンと、複数
の矩形上に配列されたドット・パターンからなるパター
ン板を使用することを特徴とする請求項1記載の視覚セ
ンサのキャリブレーション方法。 - 【請求項8】前記第1のキャリブレーション・パターン
・データは、前記視覚センサ制御装置に直接入力される
ことを特徴とする請求項1記載の視覚センサのキャリブ
レーション方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2190958A JP2686351B2 (ja) | 1990-07-19 | 1990-07-19 | 視覚センサのキャリブレーション方法 |
EP91913074A EP0493612B1 (en) | 1990-07-19 | 1991-07-18 | Method of calibrating visual sensor |
US07/838,812 US6114824A (en) | 1990-07-19 | 1991-07-18 | Calibration method for a visual sensor |
PCT/JP1991/000960 WO1992001539A1 (fr) | 1990-07-19 | 1991-07-18 | Procede d'etalonnage d'un capteur visuel |
DE69105476T DE69105476T2 (de) | 1990-07-19 | 1991-07-18 | Verfahren zum kalibrieren eines optischen sensors. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2190958A JP2686351B2 (ja) | 1990-07-19 | 1990-07-19 | 視覚センサのキャリブレーション方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0475887A JPH0475887A (ja) | 1992-03-10 |
JP2686351B2 true JP2686351B2 (ja) | 1997-12-08 |
Family
ID=16266507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2190958A Expired - Fee Related JP2686351B2 (ja) | 1990-07-19 | 1990-07-19 | 視覚センサのキャリブレーション方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6114824A (ja) |
EP (1) | EP0493612B1 (ja) |
JP (1) | JP2686351B2 (ja) |
DE (1) | DE69105476T2 (ja) |
WO (1) | WO1992001539A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1621297A1 (en) | 2004-07-28 | 2006-02-01 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3394278B2 (ja) * | 1992-12-03 | 2003-04-07 | ファナック株式会社 | 視覚センサ座標系設定治具及び設定方法 |
JP3394322B2 (ja) | 1994-05-19 | 2003-04-07 | ファナック株式会社 | 視覚センサを用いた座標系設定方法 |
JP3421608B2 (ja) | 1999-04-08 | 2003-06-30 | ファナック株式会社 | 教示モデル生成装置 |
DE20003381U1 (de) * | 2000-02-24 | 2001-07-05 | KUKA Schweissanlagen GmbH, 86165 Augsburg | Prüfeinrichtung für bewegliche optische Messeinrichtungen |
US6615112B1 (en) | 1999-06-26 | 2003-09-02 | Kuka Schweissanlagen Gmbh | Method and device for calibrating robot measuring stations, manipulators and associated optical measuring devices |
JP4108342B2 (ja) * | 2001-01-30 | 2008-06-25 | 日本電気株式会社 | ロボット、ロボット制御システム、およびそのプログラム |
CA2369845A1 (en) | 2002-01-31 | 2003-07-31 | Braintech, Inc. | Method and apparatus for single camera 3d vision guided robotics |
WO2003064116A2 (en) * | 2002-01-31 | 2003-08-07 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
US7090134B2 (en) * | 2003-03-04 | 2006-08-15 | United Parcel Service Of America, Inc. | System for projecting a handling instruction onto a moving item or parcel |
US7063256B2 (en) | 2003-03-04 | 2006-06-20 | United Parcel Service Of America | Item tracking and processing systems and methods |
DE10319253B4 (de) * | 2003-04-28 | 2005-05-19 | Tropf, Hermann | Dreidimensional lagegerechtes Zuführen mit Roboter |
JP2008506953A (ja) | 2004-07-14 | 2008-03-06 | ブレインテック カナダ インコーポレイテッド | 機械視覚のための方法及び装置 |
DE102005045854B3 (de) * | 2005-09-26 | 2007-04-12 | Siemens Ag | Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen |
WO2007041696A2 (en) * | 2005-10-04 | 2007-04-12 | Alexander Eugene J | System and method for calibrating a set of imaging devices and calculating 3d coordinates of detected features in a laboratory coordinate system |
WO2007041690A2 (en) * | 2005-10-04 | 2007-04-12 | Alexander Eugene J | Device for generating three dimensional surface models of moving objects |
EP1960941A4 (en) * | 2005-11-10 | 2012-12-26 | Motion Analysis Corp | DEVICE AND METHOD FOR CALIBRATING AN IMAGING DEVICE FOR GENERATING THREE-DIMENSIONAL SURFACE MODELS OF MOBILE OBJECTS |
WO2008036354A1 (en) | 2006-09-19 | 2008-03-27 | Braintech Canada, Inc. | System and method of determining object pose |
JP4886560B2 (ja) * | 2007-03-15 | 2012-02-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US7957583B2 (en) | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
US8923602B2 (en) * | 2008-07-22 | 2014-12-30 | Comau, Inc. | Automated guidance and recognition system and method of the same |
JP2010139329A (ja) * | 2008-12-10 | 2010-06-24 | Fanuc Ltd | キャリブレーション用の校正治具および校正治具を備えた画像計測システム |
TWI408037B (zh) | 2010-12-03 | 2013-09-11 | Ind Tech Res Inst | 機械手臂的定位方法及校正方法 |
JP2014180720A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
CN103878774A (zh) * | 2014-02-25 | 2014-06-25 | 西安航天精密机电研究所 | 一种基于机器人的视觉标定方法 |
PL3012695T3 (pl) | 2014-10-23 | 2018-03-30 | Comau S.P.A. | Układ do monitorowania i sterowania zakładem przemysłowym |
WO2016119829A1 (en) * | 2015-01-28 | 2016-08-04 | Abb Schweiz Ag | Multiple arm robot system and method for operating a multiple arm robot system |
JP6122065B2 (ja) * | 2015-05-29 | 2017-04-26 | ファナック株式会社 | 搬送物を吊り下げて搬送するロボットシステム |
WO2018181249A1 (ja) * | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | 撮像システムおよび校正方法 |
JP7122694B2 (ja) | 2017-03-31 | 2022-08-22 | パナソニックIpマネジメント株式会社 | 撮像システムおよび校正方法 |
JP6815924B2 (ja) | 2017-04-19 | 2021-01-20 | トヨタ自動車株式会社 | キャリブレーション装置 |
US10471478B2 (en) | 2017-04-28 | 2019-11-12 | United Parcel Service Of America, Inc. | Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same |
JP7003462B2 (ja) * | 2017-07-11 | 2022-01-20 | セイコーエプソン株式会社 | ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法 |
IT201800005091A1 (it) | 2018-05-04 | 2019-11-04 | "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico" | |
JP6740288B2 (ja) * | 2018-07-13 | 2020-08-12 | ファナック株式会社 | 物体検査装置、物体検査システム、及び検査位置を調整する方法 |
JP2020066066A (ja) * | 2018-10-22 | 2020-04-30 | セイコーエプソン株式会社 | ロボットシステム、ロボットの校正治具、ロボットの校正方法 |
CN109411268A (zh) * | 2018-12-11 | 2019-03-01 | 四川艾德瑞电气有限公司 | 一种铁路牵引变电所控制柜按钮视觉定位方法 |
JP2020154208A (ja) * | 2019-03-22 | 2020-09-24 | 本田技研工業株式会社 | カメラ焦点調整治具、及びカメラ焦点調整方法 |
CN111203862B (zh) * | 2020-01-07 | 2021-03-23 | 上海高仙自动化科技发展有限公司 | 数据的显示方法、装置、电子设备及存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3890552A (en) * | 1972-12-29 | 1975-06-17 | George C Devol | Dual-armed multi-axes program controlled manipulators |
US4146924A (en) * | 1975-09-22 | 1979-03-27 | Board Of Regents For Education Of The State Of Rhode Island | System for visually determining position in space and/or orientation in space and apparatus employing same |
US4441817A (en) * | 1980-07-29 | 1984-04-10 | Diffracto Ltd. | Electro-optical sensors with fiber optic bundles |
US5148591A (en) * | 1981-05-11 | 1992-09-22 | Sensor Adaptive Machines, Inc. | Vision target based assembly |
US4481592A (en) * | 1982-03-05 | 1984-11-06 | Texas Instruments Incorporated | Calibration system for a programmable manipulator |
US4753569A (en) * | 1982-12-28 | 1988-06-28 | Diffracto, Ltd. | Robot calibration |
JPS59227382A (ja) * | 1983-06-10 | 1984-12-20 | 株式会社日立製作所 | 精密位置決めシステム |
JPS6037007A (ja) * | 1983-08-08 | 1985-02-26 | Hitachi Ltd | 画像処理装置の座標変換パラメタ決定方式 |
EP0151417A1 (en) * | 1984-01-19 | 1985-08-14 | Hitachi, Ltd. | Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor |
JPS6142004A (ja) * | 1984-08-06 | 1986-02-28 | Toyota Central Res & Dev Lab Inc | 追従ロボツト装置 |
US4851905A (en) * | 1984-10-12 | 1989-07-25 | Diffracto Ltd. | Vision target fixture construction |
US4796200A (en) * | 1986-12-09 | 1989-01-03 | Diffracto Ltd. | Target based determination of robot and sensor alignment |
US4639878A (en) * | 1985-06-04 | 1987-01-27 | Gmf Robotics Corporation | Method and system for automatically determining the position and attitude of an object |
JPS6257884A (ja) * | 1985-09-09 | 1987-03-13 | 株式会社東芝 | マニピユレ−タ装置 |
JPH069795B2 (ja) * | 1985-10-29 | 1994-02-09 | 日産自動車株式会社 | ロボットの手首部位置決め方法 |
US4853771A (en) * | 1986-07-09 | 1989-08-01 | The United States Of America As Represented By The Secretary Of The Navy | Robotic vision system |
US4979135A (en) * | 1988-01-27 | 1990-12-18 | Storage Technology Corporation | Vision system illumination calibration apparatus |
US5034904A (en) * | 1988-01-27 | 1991-07-23 | Storage Technology Corporation | Vision system illumination calibration apparatus |
JPH01205994A (ja) * | 1988-02-08 | 1989-08-18 | Toshiba Corp | ロボット視覚認識装置 |
JPH01237802A (ja) * | 1988-03-18 | 1989-09-22 | Tokico Ltd | 工業用ロボットのティーチングデータ変換装置 |
JPH079606B2 (ja) * | 1988-09-19 | 1995-02-01 | 豊田工機株式会社 | ロボット制御装置 |
JP2786225B2 (ja) * | 1989-02-01 | 1998-08-13 | 株式会社日立製作所 | 工業用ロボットの制御方法及び装置 |
US5023426A (en) * | 1989-06-21 | 1991-06-11 | Honeywell Inc. | Robotic laser soldering apparatus for automated surface assembly of microscopic components |
JPH08381B2 (ja) * | 1989-07-27 | 1996-01-10 | 株式会社不二越 | 産業用ロボットシステム及びその制御方法 |
US4983797A (en) * | 1989-12-29 | 1991-01-08 | Dana Corporation | Method for manufacturing a composite camshaft |
JP2964113B2 (ja) * | 1992-07-20 | 1999-10-18 | 東京エレクトロン株式会社 | 処理装置 |
US5083073A (en) * | 1990-09-20 | 1992-01-21 | Mazada Motor Manufacturing U.S.A. Corp. | Method and apparatus for calibrating a vision guided robot |
-
1990
- 1990-07-19 JP JP2190958A patent/JP2686351B2/ja not_active Expired - Fee Related
-
1991
- 1991-07-18 EP EP91913074A patent/EP0493612B1/en not_active Expired - Lifetime
- 1991-07-18 DE DE69105476T patent/DE69105476T2/de not_active Expired - Fee Related
- 1991-07-18 WO PCT/JP1991/000960 patent/WO1992001539A1/ja active IP Right Grant
- 1991-07-18 US US07/838,812 patent/US6114824A/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1621297A1 (en) | 2004-07-28 | 2006-02-01 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
US7359817B2 (en) | 2004-07-28 | 2008-04-15 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
Also Published As
Publication number | Publication date |
---|---|
EP0493612B1 (en) | 1994-11-30 |
JPH0475887A (ja) | 1992-03-10 |
DE69105476D1 (de) | 1995-01-12 |
US6114824A (en) | 2000-09-05 |
DE69105476T2 (de) | 1995-04-13 |
WO1992001539A1 (fr) | 1992-02-06 |
EP0493612A1 (en) | 1992-07-08 |
EP0493612A4 (en) | 1993-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2686351B2 (ja) | 視覚センサのキャリブレーション方法 | |
JP2690603B2 (ja) | 視覚センサのキャリブレーション方法 | |
JP2889011B2 (ja) | 検出位置補正方法 | |
US20160075029A1 (en) | Method For Robot-Assisted Measurement Of Measurable Objects | |
JPH04344503A (ja) | ロボットの数値制御装置 | |
JPH08210816A (ja) | ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法 | |
EP0511396A1 (en) | Method for setting coordinate system of robot | |
US11241797B2 (en) | Control system | |
US20100017032A1 (en) | Device for controlling a robot | |
JPWO2018168757A1 (ja) | 画像処理装置、システム、画像処理方法、物品の製造方法、プログラム | |
JPH06249615A (ja) | 位置検出方法 | |
KR20070122271A (ko) | 로봇 자세 제어 시스템 및 로봇 자세 제어 방법 | |
JPH0460817A (ja) | カメラの位置ずれ検出方法 | |
CN117428777A (zh) | 一种拆袋机器人的手眼标定方法 | |
JPH0511822A (ja) | ロボツトの協調作業方式 | |
JP2707548B2 (ja) | 視覚認識装置の座標補正方法 | |
JP3541980B2 (ja) | 視覚センサ付きロボットにおけるキャリブレーション方法 | |
JPS63254575A (ja) | 視覚センサのキヤリブレ−シヨン装置 | |
JPH07120416B2 (ja) | 高速視覚認識装置 | |
US20230191612A1 (en) | Coordinate system setting system and position/orientation measurement system | |
JPH1034571A (ja) | ロボットの位置ずれ修正装置 | |
EP0457914A1 (en) | Data conversion system of a measuring robot | |
JP3040232B2 (ja) | 部品実装機における装着位置制御方法 | |
JPH05329793A (ja) | 視覚センサ | |
US20170094200A1 (en) | Image processing apparatus and positioning system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070815 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080815 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090815 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |