JP2005074617A - 生産システム - Google Patents

生産システム Download PDF

Info

Publication number
JP2005074617A
JP2005074617A JP2003312094A JP2003312094A JP2005074617A JP 2005074617 A JP2005074617 A JP 2005074617A JP 2003312094 A JP2003312094 A JP 2003312094A JP 2003312094 A JP2003312094 A JP 2003312094A JP 2005074617 A JP2005074617 A JP 2005074617A
Authority
JP
Japan
Prior art keywords
calculation unit
dimensional position
feature point
work
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003312094A
Other languages
English (en)
Other versions
JP2005074617A5 (ja
Inventor
Katsumi Hirano
克己 平野
Ryuichi Morita
隆一 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2003312094A priority Critical patent/JP2005074617A/ja
Publication of JP2005074617A publication Critical patent/JP2005074617A/ja
Publication of JP2005074617A5 publication Critical patent/JP2005074617A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】ワーク位置を高速・高精度で検出し、ロボットで作業を行う生産システムを提供するものである。
【解決手段】ワーク1上の複数の特徴点2、3、4をカメラ11、12、13、14により撮像し、前記特徴点の画像平面内での2次元位置に基づいてロボット31、32、33、34によりワーク1に対して作業を行う生産システムにおいて、特徴点4を異なる2方向から撮像して3次元位置を算出する複眼視算出部5と、特徴点2、3を1方向から撮像して3次元位置を算出する単眼視算出部6a、6bと、複眼視で撮像する特徴点4と単眼視で撮像する特徴点2、3との点間距離を設定する特徴点間距離設定部7と、複眼視算出部5と単眼視算出部6a、6bとにより算出される異なる特徴点3点以上の3次元位置に基づいて所定の基準座標系における前記ワークの位置を算出するワーク位置算出部8とを備え、単眼視算出部6a、6bは、特徴点2、3の画像平面内での2次元位置と複眼視算出部5で算出した3次元位置と特徴点間距離に基づいて3次元位置を算出することを特徴とする生産システム。
【選択図】図1

Description

本発明は、ロボットを有する生産システムに関する。
自動車の車体などの大きなワークに対しては、複数のロボットを用いて所望の作業が行われている。車体などのワークは、高精度な位置決めを行うことが非常に困難であるために、作業を行うために、予めワークの位置を検出し、その検出結果に基づいてロボットが作業を行う技術が提案されている。
従来例を図3に示して説明する。TVカメラ103、104、105がワーク上の同一直線上にない少なくとも3個の特徴点の画像を撮影し、画像処理装置107、108、109がこれらの各特徴点の画像平面内での座標を各々検出し、演算器100はこれらの座標に基づいて各特徴点のワールド座標系における座標および特徴点間の距離を演算する。この際、TVカメラ103、104、105で求めたカメラ座標系上の2次元位置(u,v)の3組をカメラ座標系の3次元位置に変換した位置と、各特徴点間の3つの距離を用いて、3組の方程式を解いて、ワールド座標系でのワークの位置を検出している(例えば特許文献1)。
また、予め設定した3点間の距離と、検出した3点間の距離の差を関数として、その関数の最小値を与える位置をニュートン−ラプソン法を用いて算出するものがある(例えば、特許文献2)。
特開平6−214622号公報(第4頁右列第31行〜左列第39行) 特表平3−505924号公報(第6〜7頁)
以上に述べた従来の問題点は、基準となる3点間の距離から、検出した3点間の距離の差が最小となるように反復演算を行うために、処理時間が長くなるという問題がある。
本発明は、このような従来の構成が有していた問題を解決しようとするものであり、ワーク位置を高速・高精度で検出し、ロボットで作業を行う生産システムを提供するものである。
本発明の請求項1記載の生産システムは、ワーク上の複数の特徴点をカメラにより撮像し、前記特徴点の画像平面内での2次元位置に基づいてロボットにより前記ワークに対して作業を行う生産システムにおいて、特徴点を異なる2方向から撮像して3次元位置を算出する複眼視算出部と、特徴点を1方向から撮像して3次元位置を算出する単眼視算出部と、前記複眼視で撮像する特徴点と前記単眼視で撮像する特徴点との点間距離を設定する特徴点間距離設定部と、前記複眼視算出部と前記単眼視算出部とにより算出される異なる特徴点3点以上の3次元位置に基づいて所定の基準座標系における前記ワークの位置を算出するワーク位置算出部とを備え、前記単眼視算出部は、特徴点の画像平面内での2次元位置と前記複眼視算出部で算出した3次元位置と前記特徴点間距離に基づいて3次元位置を算出することを特徴とするものである。
本発明の請求項2記載の生産システムは、前記ロボットは、複数台であり、複数のロボット制御装置により制御されており、前記ワーク位置算出部は前記複数のロボット制御装置に一斉同報通信を行う位置通信部を備えることを特徴とするものである。
本発明の請求項3記載の生産システムは、前記複眼視の対象となる特徴点を撮像するカメラは、前記ロボットに取り付けられていることを特徴とするものである。
本発明の請求項4記載の生産システムは、前記所定の基準座標系は、前記複眼視算出部により算出される特徴点を原点とすることを特徴とするものである。
請求項1及び4記載の発明によれば、生産システムによれば、反復演算を行う必要がなく、高速かつ高精度でワーク位置を検出できる。
また請求項2記載の発明によれば、複数のロボット制御装置へ一斉同報通信を行うために、生産システムのタクトタイムが短縮できるという効果がある。
また、請求項3記載の発明によれば、カメラの台数を少なくすることが可能であり、低コストでシステムを構築できるという効果がある。
以下、本発明の実施の形態として実施例を図1に基づいて説明する。
図1において、ワーク1は、自動車ボディである。ワーク1に対する作業は、1つのロボットの動作範囲によりカバーできない。そのため、複数のロボットが必要となる。このワーク1は、通常、コンベアなどにより、作業位置まで搬送される。搬送されて、所定の位置に位置決めされた場合でも、ワーク1は大きいいため、数mm〜数10mmの位置決め誤差が生じている。ワーク1が位置決めされ、搬送による振動が無くなった時点で、カメラ11、12、13、14の4つの撮像装置により、ワーク1の特徴点2、3、4が撮像される。
カメラ11、12は、特徴点4を異なる方向から検出する。この検出方法は、256階調のグレースケールを用いた位置検出である。この位置検出方法は、パターンマッチングなどの画像処理方法を用いる。カメラ11とカメラ12の特徴点4の画像は、複眼視算出部5により3次元位置として算出される。
特徴点間距離設定部7には、そのワーク毎の検出する特徴点の点間距離を設定する。自動車ボディでは、車種に応じて検出する特徴点の点間距離が異なるために、その距離を設定しておく。
単眼視算出部6a、6bは、カメラ13、14の撮像装置の画像を画像処理する。各カメラの画像からカメラ座標系の2次元座標値を検出する。この画像処理方法は、カメラ11、12の画像を処理する方法と同一の方法でよい。算出された2次元座標値と特徴点間距離設定部7と複眼視算出部5の3次元位置から特徴点2、3の3次元位置を求める。
複眼視算出部5では、予めキャリブレーションデータを設定しておく。以下にキャリブレーションデータの算出方法について説明する。
3次元空間上の点P(x,y,z)は、カメラ座標系上の点K(u,v,0)に射影される。この透視変換の一般式は、同次座標を用いて、4×4の行列式で表現される。
ここで、カメラ座標系の点では、wは使用してないので、3列は、
とすることができる。つまり、6点のカメラ座標系と6点のロボット座標系の座標値をもとに、変換行列Tを求める。
上述のように変換行列Tをカメラ11とカメラ12について求める。
この変換行列Tをキャリブレーションデータとして、格納しておく。
つぎに、カメラ11とカメラ12で検出したカメラ座標系の座標値(u,v)について、式(1)と予め求めたキャリブレーションデータの変換行列Tとから、3次元位置を求める。カメラ11について、(u,v)が既知、(x,y,z)が未知となり、式(1)を展開して2つの連立方程式が成立する。また、カメラ12についても同じように2つの連立方程式が成立する。ここで、カメラ11とカメラ12の未知数である(x,y,z)は、同一の値であることから、これらの4つの連立方程式を解き、カメラ11とカメラ12が検出している特徴点4の3次元位置を求める。
特徴点間距離設定部7は、ワーク毎の特徴点の点間距離を設定する。この場合、複眼視算出部5で演算される特徴点4からの距離を設定する。
以下に単眼視算出部6aについて、詳細に説明する。単眼視算出部6aは、複眼視算出部5と同じように変換行列Tを求めるキャリブレーションを予め実行しておく。カメラ14で検出した特徴点3のカメラ座標系の座標値を(u3,v3)とする。また、特徴点4の複眼時算出部5で算出した3次元位置を(x4,y4, z4)、特徴点間距離設定部7で設定した特徴点4と特徴点3の距離をLとする。
変換行列Tと2次元座標値(u3, v3)とから未知数(x,y,z)について2つの連立方程式が成り立つ。この2つの連立方程式は、2つの平面の方程式となる。また、2つの平面の方程式を整理すると、1つの直線の方程式となる。
次に、求めた直線の方程式と特徴点4からの距離がLとなる点が、特徴点3の3次元位置として算出される。これは、特徴点4を原点として半径Lの球と求めた直線の方程式の交点である。この場合、交点は2つ存在するが、特徴点4、特徴点3及びカメラ14の特徴点4を検出する取り付け角度により、決定することができる。
同様に、特徴点2の3次元位置も単眼視算出部6bにより算出される。
上記の求めた特徴点2、3、4の3次元空間上の位置に基づいて、ワーク位置算出部8でワークの位置を算出する。ワーク位置算出部8では、準備段階では、ワーク座標系Mを作成し、実行段階では、ワーク座標系Wを作成する。以下に詳細を示す。
準備段階として、予め以下に示す(1)〜(6)を行う。
(1)予め基準となるワーク1を設置する。
(2)複眼視演算部5、単眼視算出部6a、6bにより3次元位置を求めておく。
(3)ロボット31、32、33、34により、ワーク1に対する作業位置を教示する。
(4)(2)で求めた3点によりワーク位置算出部8でワーク座標系Mを作成する。ワーク座標系の作成方法は、複眼視算出部5で検出する特徴点4を原点として、特徴点4−特徴点2をX軸方向とし、特徴点3をXY平面上の点として定義する。
(5)(3)で教示した作業位置をワーク座標系M上の点に座標変換する。これらの作業位置(作業プログラム)Sを制御装置に格納しておく。
次に、検出時の実行を以下に示す。
(1)ワーク1を設置する。
(2)複眼視演算部5、単眼視算出部6a、6bにより3次元位置を求める。
(3)(2)で求めた3点によりワーク位置算出部8でワーク座標系Wを作成する。ワーク座標系の作成方法は、複眼視算出部5で検出する特徴点4を原点として、特徴点4−特徴点2をX軸方向とし、特徴点3をXY平面上の点として定義する。
(4)準備段階で求めた作業プログラムSをワーク座標系W上へ変換する。
位置通信部9は、ワーク位置算出部8で求めたワーク座標系Wをロボット制御装置21,22,23,24に一斉同報通信を行う。一斉同報通信とは、同じデータを複数の装置に同時に送信するものである。このように通信することで、通信に要する時間を大幅に短縮することができる。また、各ロボット制御装置からの応答に対する処理を省略できる。ただし、通信データに対しては、CRCなどの誤り検出コードを付加しておく。
実施例2としては、カメラを11をロボットの手首に取り付けた場合を示す。この場合、実施例1と異なるのは、画像撮像タイミングの違いによる処理である。図2にカメラ11の例を示す。カメラ11は、カメラ11Lの位置にある。
まず、カメラ11L、13、14にて画像処理を行う。カメラ座標系の2次元位置を求めておく。次にカメラ11Rの位置にてカメラ座標系の2次元位置を求める。このように、ロボット34の手首部にカメラ11を取り付けることにより、カメラの台数を減少させることが可能となる。また、カメラ13、14をロボットに把持させることも可能である。
また、ワーク1に対して、ロボット31、32、33、34を使用したシステムの説明を行ったが、ロボット31、33に走行軸を使用したシステムを構築することも可能である。このようにすれば、ロボットの動作範囲を広くできるために、ロボット台数を減少できる。
以上のように実施例1、2では、複眼視算出部5、単眼視算出部6、特徴点間距離設定部7、ワーク位置算出部8をロボット制御装置とは、別の装置として説明したが、図1の例では、ロボット制御装置21に内蔵することも可能である。その場合、ロボット制御装置21から各ロボット制御装置へ、ワーク座標系データを通信路を介して送信することにより、実現することができる。
本発明は、ロボットを有し、ワークの位置ずれを画像処理することで検出する生産システムに利用可能である。
本発明の実施例1のシステム構成図 本発明の実施例2のシステム構成図 従来技術の図
符号の説明
1:ワーク
2、3、4:特徴点
5:複眼視算出部
6a、6b:単眼視算出部
7:特徴点間距離設定部
8:ワーク位置算出部
9:位置通信部
11、12、13、14:カメラ
21、22、23、24:ロボット制御装置
31、32、33、34:ロボット

Claims (4)

  1. ワーク上の複数の特徴点をカメラにより撮像し、前記特徴点の画像平面内での2次元位置に基づいてロボットにより前記ワークに対して作業を行う生産システムにおいて、
    特徴点を異なる2方向から撮像して3次元位置を算出する複眼視算出部と、
    特徴点を1方向から撮像して3次元位置を算出する単眼視算出部と、
    前記複眼視で撮像する特徴点と前記単眼視で撮像する特徴点との点間距離を設定する特徴点間距離設定部と、
    前記複眼視算出部と前記単眼視算出部とにより算出される異なる特徴点3点以上の3次元位置に基づいて所定の基準座標系における前記ワークの位置を算出するワーク位置算出部とを備え、
    前記単眼視算出部は、特徴点の画像平面内での2次元位置と前記複眼視算出部で算出した3次元位置と前記特徴点間距離に基づいて3次元位置を算出することを特徴とする生産システム。
  2. 前記ロボットは、複数台であり、複数のロボット制御装置により制御されており、前記ワーク位置算出部は、前記複数のロボット制御装置に一斉同報通信を行う位置通信部を備えることを特徴とする請求項1記載の生産システム。
  3. 前記複眼視の対象となる特徴点を撮像するカメラは、前記ロボットに取り付けられていることを特徴とする請求項1乃至2記載の生産システム。
  4. 前記所定の基準座標系は、前記複眼視算出部により算出される特徴点を原点とすることを特徴とする請求項1乃至3記載の生産システム。
JP2003312094A 2003-09-04 2003-09-04 生産システム Pending JP2005074617A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003312094A JP2005074617A (ja) 2003-09-04 2003-09-04 生産システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003312094A JP2005074617A (ja) 2003-09-04 2003-09-04 生産システム

Publications (2)

Publication Number Publication Date
JP2005074617A true JP2005074617A (ja) 2005-03-24
JP2005074617A5 JP2005074617A5 (ja) 2006-10-19

Family

ID=34413448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003312094A Pending JP2005074617A (ja) 2003-09-04 2003-09-04 生産システム

Country Status (1)

Country Link
JP (1) JP2005074617A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136778A (ja) * 2014-01-24 2015-07-30 キヤノン株式会社 ロボット制御方法、ロボット装置、プログラム及び記録媒体
JP2016032854A (ja) * 2014-07-31 2016-03-10 川崎重工業株式会社 作業装置
WO2022153923A1 (ja) * 2021-01-15 2022-07-21 川崎重工業株式会社 ロボットシステム及びロボット制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214622A (ja) * 1993-01-20 1994-08-05 Tokico Ltd ワーク位置検知装置
JPH0634646Y2 (ja) * 1986-11-06 1994-09-07 川崎重工業株式会社 自動車の車体の作業装置
JPH06270083A (ja) * 1993-03-19 1994-09-27 Tokico Ltd ワーク位置検知装置
JPH0724765A (ja) * 1993-07-15 1995-01-27 Fanuc Ltd ロボット間補正データ通信方式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634646Y2 (ja) * 1986-11-06 1994-09-07 川崎重工業株式会社 自動車の車体の作業装置
JPH06214622A (ja) * 1993-01-20 1994-08-05 Tokico Ltd ワーク位置検知装置
JPH06270083A (ja) * 1993-03-19 1994-09-27 Tokico Ltd ワーク位置検知装置
JPH0724765A (ja) * 1993-07-15 1995-01-27 Fanuc Ltd ロボット間補正データ通信方式

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136778A (ja) * 2014-01-24 2015-07-30 キヤノン株式会社 ロボット制御方法、ロボット装置、プログラム及び記録媒体
JP2016032854A (ja) * 2014-07-31 2016-03-10 川崎重工業株式会社 作業装置
WO2022153923A1 (ja) * 2021-01-15 2022-07-21 川崎重工業株式会社 ロボットシステム及びロボット制御方法

Similar Documents

Publication Publication Date Title
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP5365379B2 (ja) ロボットシステム及びロボットシステムのキャリブレーション方法
US7532949B2 (en) Measuring system
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US20050273199A1 (en) Robot system
JP2006148745A (ja) カメラの校正方法及びカメラの校正装置
JP2005300230A (ja) 計測装置
JP2015093356A (ja) 教示点補正装置および教示点補正方法
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
KR101782317B1 (ko) 3차원 스캐너를 이용한 로봇 캘리브레이션 장치 및 이를 이용한 로봇 캘리브레이션 방법
JPH08132373A (ja) ロボット−センサシステムにおける座標系結合方法
JPH03213251A (ja) ワーク位置検知装置
JP2004243215A (ja) シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置
JP2006224291A (ja) ロボットシステム
CN114026384B (zh) 计算机视觉系统的校准方法及用于该方法的基准立体物
US20100017032A1 (en) Device for controlling a robot
CN107442973B (zh) 基于机器视觉的焊道定位方法及装置
JP2005074617A (ja) 生産システム
JPS6334093A (ja) 視覚装置
JPH04269194A (ja) 平面計測方法
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
KR101467898B1 (ko) 레이저 포인터를 이용한 마킹 보조 장치 및 방법
JP2006146760A (ja) 画像変換方法及び画像変換装置
JPH05204423A (ja) 視覚装置付きロボット装置における座標較正方法
KR100784734B1 (ko) 산업용 로봇 시스템의 타원 보간방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080908