JP2002172575A - 教示装置 - Google Patents
教示装置Info
- Publication number
- JP2002172575A JP2002172575A JP2000373388A JP2000373388A JP2002172575A JP 2002172575 A JP2002172575 A JP 2002172575A JP 2000373388 A JP2000373388 A JP 2000373388A JP 2000373388 A JP2000373388 A JP 2000373388A JP 2002172575 A JP2002172575 A JP 2002172575A
- Authority
- JP
- Japan
- Prior art keywords
- image
- work
- robot
- camera
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 claims abstract description 88
- 238000000034 method Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 18
- 238000013459 approach Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 3
- 238000003466 welding Methods 0.000 description 3
- 235000001630 Pyrus pyrifolia var culta Nutrition 0.000 description 2
- 240000002609 Pyrus pyrifolia var. culta Species 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/4202—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35506—Camera images overlayed with graphics, model
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36415—Adjust path and attitude tool by detecting path, line with a photosensor, laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37288—Tracking lasers follow object, reflection gives 3-D position
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37571—Camera detecting reflected light from laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37572—Camera, tv, vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40005—Vision, analyse image at one station during manipulation at next station
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
(57)【要約】
【課題】 ロボットの位置教示作業の効率化。
【解決手段】 適当なロボット位置で、カメラ2を用い
て基準ワーク7の画像を取得し、画像表示装置3上に表
示する。画像位置指示装置4ににより、計測開始点を指
示する。画像上での位置とカメラ2の位置と方向を用い
て対応する視線を求め、投光方向から外れないように基
準ワーク7に接近し、測定に適した位置に移動する。ス
リット光を投射し、測定点と近傍の面の傾き(方位)の
測定を開始する。基準ワーク7上の輝線像を含む画像を
カメラ2で撮像し、作業線に沿った諸点の3次元位置を
順次測定する。これらを教示点として、ロボット5の動
作経路を生成する。投光器としてスポット光投射型のも
のも採用可能である。カメラは外部に固定設置あるいは
他のロボットなどの移動手段上に搭載しても良い。教示
作業を担当しない別ロボットの教示も行える。
て基準ワーク7の画像を取得し、画像表示装置3上に表
示する。画像位置指示装置4ににより、計測開始点を指
示する。画像上での位置とカメラ2の位置と方向を用い
て対応する視線を求め、投光方向から外れないように基
準ワーク7に接近し、測定に適した位置に移動する。ス
リット光を投射し、測定点と近傍の面の傾き(方位)の
測定を開始する。基準ワーク7上の輝線像を含む画像を
カメラ2で撮像し、作業線に沿った諸点の3次元位置を
順次測定する。これらを教示点として、ロボット5の動
作経路を生成する。投光器としてスポット光投射型のも
のも採用可能である。カメラは外部に固定設置あるいは
他のロボットなどの移動手段上に搭載しても良い。教示
作業を担当しない別ロボットの教示も行える。
Description
【0001】
【発明の属する技術分野】本発明は、産業用ロボットに
動作位置を教示する作業に使用されるロボット教示装置
に関する。
動作位置を教示する作業に使用されるロボット教示装置
に関する。
【0002】
【従来の技術】ロボットの動作位置を教示する際に頻繁
に採用されている1つの典型的な手法にプレイバック方
式と呼ばれるものがある。この手法を用いる場合、実際
にロボットが移動すべき位置まで手動で動かし、その位
置をロボット制御装置に記憶させることになる。
に採用されている1つの典型的な手法にプレイバック方
式と呼ばれるものがある。この手法を用いる場合、実際
にロボットが移動すべき位置まで手動で動かし、その位
置をロボット制御装置に記憶させることになる。
【0003】もう1つの典型的な教示手法として、オフ
ライン教示と呼ばれるものがある。これは、オフライン
プログラミング装置を用い、同装置内にロボットや作業
対象物を含む環境のモデルを構築し、同モデルに準拠し
てロボットの移動すべき位置を計算で求めるものであ
る。求められた教示位置は、例えば転送などによってロ
ボット制御装置に記憶される。
ライン教示と呼ばれるものがある。これは、オフライン
プログラミング装置を用い、同装置内にロボットや作業
対象物を含む環境のモデルを構築し、同モデルに準拠し
てロボットの移動すべき位置を計算で求めるものであ
る。求められた教示位置は、例えば転送などによってロ
ボット制御装置に記憶される。
【0004】前者のプレイバック方式を用いた場合、ロ
ボットの動作に必要な位置(教示すべき位置)を1つ一
つ教示しなければならず、多くの時間と手間を必要とし
ている。実際の作業において必要となる教示位置の数が
多数(例えば100個)にのぼることも稀ではないから
である。
ボットの動作に必要な位置(教示すべき位置)を1つ一
つ教示しなければならず、多くの時間と手間を必要とし
ている。実際の作業において必要となる教示位置の数が
多数(例えば100個)にのぼることも稀ではないから
である。
【0005】また、後者のオフライン教示を用いた場
合、作業対象物のモデルをオフライン教示装置に入力す
ることが必須であるが、対象物の形状がCADモデルな
どで予め与えられていない場合は、形状を正確に入力す
ることが難しく、また形状モデルの入力に多くの時間が
かかるという問題点があった。
合、作業対象物のモデルをオフライン教示装置に入力す
ることが必須であるが、対象物の形状がCADモデルな
どで予め与えられていない場合は、形状を正確に入力す
ることが難しく、また形状モデルの入力に多くの時間が
かかるという問題点があった。
【0006】
【発明が解決しようとする課題】そこで、本発明の目的
は、ロボットの動作位置教示作業を、容易に、且つ、高
精度で行うことが出来るロボット位置教示装置を提供す
ることにある。また、本発明は特に、溶接や、シーリン
グ、バリ取りなど、ロボットが直線または曲線状の作業
経路を移動しながら作業を行うための動作経路教示に高
い適性を示すロボット位置教示装置を提供しようとする
ものである。
は、ロボットの動作位置教示作業を、容易に、且つ、高
精度で行うことが出来るロボット位置教示装置を提供す
ることにある。また、本発明は特に、溶接や、シーリン
グ、バリ取りなど、ロボットが直線または曲線状の作業
経路を移動しながら作業を行うための動作経路教示に高
い適性を示すロボット位置教示装置を提供しようとする
ものである。
【0007】
【課題を解決するための手段】本発明では、上記目的を
達成するために、作業対象物の作業線上の点の位置を、
カメラと投光手段により構成された3次元位置姿勢計測
装置(センサ)により測定する。それによって得られ
た、前記作業線を構成する点の3次元位置情報から、ロ
ボットを動作させるための教示点データを生成する。
達成するために、作業対象物の作業線上の点の位置を、
カメラと投光手段により構成された3次元位置姿勢計測
装置(センサ)により測定する。それによって得られ
た、前記作業線を構成する点の3次元位置情報から、ロ
ボットを動作させるための教示点データを生成する。
【0008】投光手段は、作業線上の計測点付近にパタ
ーン光(典型的には、スリット光あるいはスポット光)
を投影する。パターン光が投影された対象物はカメラで
撮影され、画像解析によりそのパターン光の投影された
部分の3次元位置情報が取得される。
ーン光(典型的には、スリット光あるいはスポット光)
を投影する。パターン光が投影された対象物はカメラで
撮影され、画像解析によりそのパターン光の投影された
部分の3次元位置情報が取得される。
【0009】ここで、周知のように、パターン光がスリ
ット光の場合、計測点に当たるように異なる2方向から
スポット光を投影して測定を行い、その結果から同計測
点の近傍の面(平面)の3次元位置と方位を計算するこ
とも出来る。
ット光の場合、計測点に当たるように異なる2方向から
スポット光を投影して測定を行い、その結果から同計測
点の近傍の面(平面)の3次元位置と方位を計算するこ
とも出来る。
【0010】また、パターン光がスポット光である場合
には、一直線上に並ばない異なる3点以上の点にスポッ
ト光を投影して得られる測定結果から、それらの点の乗
っている平面の3次元位置と方位が計算出来る。
には、一直線上に並ばない異なる3点以上の点にスポッ
ト光を投影して得られる測定結果から、それらの点の乗
っている平面の3次元位置と方位が計算出来る。
【0011】この場合、互いに接近した3点を選び、そ
れらの内の1つを着目する計測点としても良いし、着目
する計測点の近傍に3点(またはそれ以上)をとり、そ
れらの点の測定結果から同計測点の乗っている面の3次
元位置と方位を求めても良い。例えば、計測点を3点の
幾何学的な重心位置に対応させれば良い。
れらの内の1つを着目する計測点としても良いし、着目
する計測点の近傍に3点(またはそれ以上)をとり、そ
れらの点の測定結果から同計測点の乗っている面の3次
元位置と方位を求めても良い。例えば、計測点を3点の
幾何学的な重心位置に対応させれば良い。
【0012】要するに、本発明では、スリット光やスポ
ット光などのパターン光投光手段と、カメラとを備えた
3次元位置センサが利用され、着目する計測点の3次元
位置が計測される。また、それに付随して、着目する計
測点の乗っている面(平面とみなす近傍の面領域)の方
位が計算される。着目する計測点の姿勢はこの面の方位
で代表させることが出来る。
ット光などのパターン光投光手段と、カメラとを備えた
3次元位置センサが利用され、着目する計測点の3次元
位置が計測される。また、それに付随して、着目する計
測点の乗っている面(平面とみなす近傍の面領域)の方
位が計算される。着目する計測点の姿勢はこの面の方位
で代表させることが出来る。
【0013】なお、スリット光やスポット光などのパタ
ーン光投光手段と、カメラとを備えた3次元位置センサ
を用いて、着目する計測点の3次元位置を求める原理に
ついては既に周知である。即ち、投光手段及びカメラに
関するキャリブレーションで得られるデータを使えば、
カメラの画像上での計側点の位置とその時の投光状態
(パターン光の投光方位と位置を表現するデータ)か
ら、着目する点の3次元位置がセンサ内部等で計算され
る。
ーン光投光手段と、カメラとを備えた3次元位置センサ
を用いて、着目する計測点の3次元位置を求める原理に
ついては既に周知である。即ち、投光手段及びカメラに
関するキャリブレーションで得られるデータを使えば、
カメラの画像上での計側点の位置とその時の投光状態
(パターン光の投光方位と位置を表現するデータ)か
ら、着目する点の3次元位置がセンサ内部等で計算され
る。
【0014】3次元位置センサの投光器やカメラがロボ
ットの手先に搭載されている場合には、着目する点の3
次元位置は一旦ロボットの手先に固定された座標系(例
えばツール座標系)上で求められるが、その場合でもそ
の時のロボットの現在位置データを使えば、作業空間上
に固定された座標系(ワールド座標系、ワーク座標系な
ど)のデータに換算することは容易である。
ットの手先に搭載されている場合には、着目する点の3
次元位置は一旦ロボットの手先に固定された座標系(例
えばツール座標系)上で求められるが、その場合でもそ
の時のロボットの現在位置データを使えば、作業空間上
に固定された座標系(ワールド座標系、ワーク座標系な
ど)のデータに換算することは容易である。
【0015】ここで、上述の着目する計測点を対象物上
の作業線に沿って順次定め、計測を行なって行けば、同
作業線に沿って作業を行う作業ロボット用の教示点を求
めることが出来ることになる。
の作業線に沿って順次定め、計測を行なって行けば、同
作業線に沿って作業を行う作業ロボット用の教示点を求
めることが出来ることになる。
【0016】請求項1は、そのための基本的且つ典型的
な構成を規定している。即ち、教示装置は、スリット光
またはスポット光をパターン光として対象物に投光する
投光手段と共にカメラを搭載した教示ロボットを用い
て、前記対象物上の作業線に沿って作業を行う作業ロボ
ット用の教示点を求めるもので、前記パターン光が投光
された対象物上の面のカメラ画像から、該面の3次元位
置および姿勢を求める手段と、前記カメラの画像上で、
前記作業線を構成する点を特定する手段と、前記面の3
次元位置及び姿勢、並びに前記作業線を構成する点のカ
メラ画像上での位置に基づいて、前記特定された作業線
を構成する点の3次元位置を求める手段とを備えたこと
を特徴とする。
な構成を規定している。即ち、教示装置は、スリット光
またはスポット光をパターン光として対象物に投光する
投光手段と共にカメラを搭載した教示ロボットを用い
て、前記対象物上の作業線に沿って作業を行う作業ロボ
ット用の教示点を求めるもので、前記パターン光が投光
された対象物上の面のカメラ画像から、該面の3次元位
置および姿勢を求める手段と、前記カメラの画像上で、
前記作業線を構成する点を特定する手段と、前記面の3
次元位置及び姿勢、並びに前記作業線を構成する点のカ
メラ画像上での位置に基づいて、前記特定された作業線
を構成する点の3次元位置を求める手段とを備えたこと
を特徴とする。
【0017】ここで、請求項2で規定したように、前記
作業ロボットと前記教示ロボットを同一のロボットとす
ることも出来る。
作業ロボットと前記教示ロボットを同一のロボットとす
ることも出来る。
【0018】また、請求項3の発明においては、前記の
カメラと投光器により構成される3次元位置姿勢計測装
置に加え、2次元画像を撮影する別のカメラを別途作業
空間を俯瞰する位置に設置し、該別のカメラの画像上で
作業線を特定する。ここで、この別のカメラは、固定設
置されても良く。ロボットなどの移動装置上に搭載して
も良い。
カメラと投光器により構成される3次元位置姿勢計測装
置に加え、2次元画像を撮影する別のカメラを別途作業
空間を俯瞰する位置に設置し、該別のカメラの画像上で
作業線を特定する。ここで、この別のカメラは、固定設
置されても良く。ロボットなどの移動装置上に搭載して
も良い。
【0019】請求項4の発明においては、教示点として
認識すべき作業線を構成する点を画像上で作業者が指示
することにより認識すべき点が特定されるようになって
いる。
認識すべき作業線を構成する点を画像上で作業者が指示
することにより認識すべき点が特定されるようになって
いる。
【0020】また、請求項5の発明においては、対象物
上に予めほどこされたマーキングの位置を画像上で検出
することにより、教示点として認識すべき作業線を構成
する点が特定される。
上に予めほどこされたマーキングの位置を画像上で検出
することにより、教示点として認識すべき作業線を構成
する点が特定される。
【0021】請求項6の発明においては、カメラの画像
から、画像処理により前記作業線を構成する点が特定さ
れる。
から、画像処理により前記作業線を構成する点が特定さ
れる。
【0022】請求項7の発明においては、カメラの画像
と共に、前記特定された作業線を構成する点が表示画面
上に表示される。該特定点が認識すべき点と異なってい
る場合には、オペレータが前記カメラ画像上で、前記認
識すべき正しい点を指示し、特定点を更新出来るように
なっている。
と共に、前記特定された作業線を構成する点が表示画面
上に表示される。該特定点が認識すべき点と異なってい
る場合には、オペレータが前記カメラ画像上で、前記認
識すべき正しい点を指示し、特定点を更新出来るように
なっている。
【0023】請求項8の発明では、認識すべき作業線を
構成する点が特定されたのち、前記画像から、前記点を
画像処理により検出するために必要な特徴量が記録され
る。そして、次回以降の認識では、該特徴量を用いて前
記作業線を構成する点が画像処理により自動的に特定さ
れる。
構成する点が特定されたのち、前記画像から、前記点を
画像処理により検出するために必要な特徴量が記録され
る。そして、次回以降の認識では、該特徴量を用いて前
記作業線を構成する点が画像処理により自動的に特定さ
れる。
【0024】請求項9の発明では、作業線の形状を予め
指定することにより、直線、円、曲線など作業線の形状
に応じた認識方法を用いることにより、作業線を構成す
る点が特定される。
指定することにより、直線、円、曲線など作業線の形状
に応じた認識方法を用いることにより、作業線を構成す
る点が特定される。
【0025】請求項10および11は、ロボットが移動
し、連続的に作業線を構成する点を特定するケースに対
応する。現在(ある時点)までに特定された複数の点の
3次元位置、または2次元位置の情報を用いて、次の画
像取込み位置を決定し、該画像取込み位置ヘロボットを
移動するものである。請求項12の発明は、請求項10
またはllの発明において、作業線の形状も考慮し画像
取込み位置を決めるものである。
し、連続的に作業線を構成する点を特定するケースに対
応する。現在(ある時点)までに特定された複数の点の
3次元位置、または2次元位置の情報を用いて、次の画
像取込み位置を決定し、該画像取込み位置ヘロボットを
移動するものである。請求項12の発明は、請求項10
またはllの発明において、作業線の形状も考慮し画像
取込み位置を決めるものである。
【0026】そして、請求項13の発明に定めた教示装
置においては、作業線を構成する点の検出を開始するに
先立ち、認識時よりも広い視野の画像上で検出を開始す
る点の画像上の位置から、当該開始位置が存在する空間
上の直線をカメラの視線として求め、当該直線に沿って
計測位置に3次元センサ(投光器、カメラの内の少なく
とも一方)が接近する。これにより、開始位置の3次元
位置が未知であっても、カメラまたは投光器は正しく開
始点を捕らえた状態で、接近させることが可能である。
置においては、作業線を構成する点の検出を開始するに
先立ち、認識時よりも広い視野の画像上で検出を開始す
る点の画像上の位置から、当該開始位置が存在する空間
上の直線をカメラの視線として求め、当該直線に沿って
計測位置に3次元センサ(投光器、カメラの内の少なく
とも一方)が接近する。これにより、開始位置の3次元
位置が未知であっても、カメラまたは投光器は正しく開
始点を捕らえた状態で、接近させることが可能である。
【0027】請求項14の発明では、投光手段とカメラ
は、教示時のみロボットに装着され、作業時には取り外
される。
は、教示時のみロボットに装着され、作業時には取り外
される。
【0028】また、請求項15の発明においては、前記
投光手段とカメラにより計測された、特定された作業線
を構成する点の3次元位置から、前記作業ロボットの動
作プログラムを生成する手段を備えていることを特徴と
する。
投光手段とカメラにより計測された、特定された作業線
を構成する点の3次元位置から、前記作業ロボットの動
作プログラムを生成する手段を備えていることを特徴と
する。
【0029】
【発明の実施の形態】以下、本発明の5つの実施形態に
ついて、図1〜図5をもとに説明する。図1〜図5に
は、順に、本発明の第1〜第5の実施形態で採用される
配置の概要が示されている。各図において、共通性の高
い構成要素には同じ参照番号が付されており、それら構
成要素についての繰り返し説明は適宜省略される。
ついて、図1〜図5をもとに説明する。図1〜図5に
は、順に、本発明の第1〜第5の実施形態で採用される
配置の概要が示されている。各図において、共通性の高
い構成要素には同じ参照番号が付されており、それら構
成要素についての繰り返し説明は適宜省略される。
【0030】先ず図1を参照すると、教示対象とされる
ロボットが符号5で示されている。ロボット5のアーム
先端には、画像入力装置(カメラ)2と投光器1が取り
付けられている。投光器1は、パターン光を投射する機
能を有し、図1に示した例では、スリット光投射型のも
のが採用されている。
ロボットが符号5で示されている。ロボット5のアーム
先端には、画像入力装置(カメラ)2と投光器1が取り
付けられている。投光器1は、パターン光を投射する機
能を有し、図1に示した例では、スリット光投射型のも
のが採用されている。
【0031】ロボットコントローラ6は、画像処理装置
を内蔵した型のもので、ロボット5、投光器1、画像入
力装置2、表示装置3及び教示操作盤(図示省略)に接
続されている。このロボットコントローラ6には、通常
のロボット制御のためのハードウェア及びソフトウェア
の他に、投光器1の投光動作(オン/オフ、投光方向な
ど)を指令するためのハードウェア及びソフトウェアソ
フトウェア、画像入力装置2の撮影動作や取得画像の取
り込み、必要な画像処理、表示装置3への画像信号の伝
達などを行なうためのハードウェア及びソフトウェアソ
フトウェアが装備されている。
を内蔵した型のもので、ロボット5、投光器1、画像入
力装置2、表示装置3及び教示操作盤(図示省略)に接
続されている。このロボットコントローラ6には、通常
のロボット制御のためのハードウェア及びソフトウェア
の他に、投光器1の投光動作(オン/オフ、投光方向な
ど)を指令するためのハードウェア及びソフトウェアソ
フトウェア、画像入力装置2の撮影動作や取得画像の取
り込み、必要な画像処理、表示装置3への画像信号の伝
達などを行なうためのハードウェア及びソフトウェアソ
フトウェアが装備されている。
【0032】但し、作業対象物に対する作業を行なうた
めの位置教示は、未実行とする。また、基準ワーク7は
教示作業の基準となる対象物で、教示作業空間内に正し
く位置決めされているものとする。換言すれば、基準ワ
ーク7の位置と姿勢は、ロボット5が実際に、位置教示
完了後の再生運転時に、作業を行なう際のそれらと一致
しているものとする。
めの位置教示は、未実行とする。また、基準ワーク7は
教示作業の基準となる対象物で、教示作業空間内に正し
く位置決めされているものとする。換言すれば、基準ワ
ーク7の位置と姿勢は、ロボット5が実際に、位置教示
完了後の再生運転時に、作業を行なう際のそれらと一致
しているものとする。
【0033】教示にあたっては、先ず、ロボット5をマ
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て作業空間全体を見渡せる位置と姿勢に移動させる。次
いで、画像入力装置2を用いて、対象物7を視野に収め
た画像を取得し、画像表示装置3上に表示する。画像位
置指示装置4には、マウス等を利用した2次元画像位置
指示装置4が装備されており、この指示装置4を用いて
画像上でロボット5が計測すべき位置(計測開始点)を
指示する。指示された位置の画像上の座標(u0, v0 )
は、ロボット制御装置6内に記憶される。
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て作業空間全体を見渡せる位置と姿勢に移動させる。次
いで、画像入力装置2を用いて、対象物7を視野に収め
た画像を取得し、画像表示装置3上に表示する。画像位
置指示装置4には、マウス等を利用した2次元画像位置
指示装置4が装備されており、この指示装置4を用いて
画像上でロボット5が計測すべき位置(計測開始点)を
指示する。指示された位置の画像上の座標(u0, v0 )
は、ロボット制御装置6内に記憶される。
【0034】計測すべき位置の指示は、このように計測
開始点を指示する場合の他、作業線を構成する複数の点
を画像上で指示装置4を用いて指示する場合、作業線を
画像上で指示装置4でなぞり線を指定する場合、あるい
は画像上で作業線の存在する領域を指定するウィンドウ
を指示装置4で指定する場合などが有り得る。
開始点を指示する場合の他、作業線を構成する複数の点
を画像上で指示装置4を用いて指示する場合、作業線を
画像上で指示装置4でなぞり線を指定する場合、あるい
は画像上で作業線の存在する領域を指定するウィンドウ
を指示装置4で指定する場合などが有り得る。
【0035】計測開始点は、通常、実際の作業が行なわ
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
例えば溶接ロボットであれば、作業線は溶接線に対応
し、作業開始点は溶接線の始端となる。計測開始点が指
定されたら、二次元画像上での位置(u0, v0 )と画像
入力装置2の位置と方向を用いて、位置(u0, v0 )に
対応する視線(測定開始点と画像入力装置2のレンズ中
心を結ぶ三次元の直線)を求め、例えば、投光器1の投
光方向がその直線から外れないように基準ワーク7に接
近し、基準ワーク7上の三次元位置と面の傾きが測定可
能な位置まで移動する。
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
例えば溶接ロボットであれば、作業線は溶接線に対応
し、作業開始点は溶接線の始端となる。計測開始点が指
定されたら、二次元画像上での位置(u0, v0 )と画像
入力装置2の位置と方向を用いて、位置(u0, v0 )に
対応する視線(測定開始点と画像入力装置2のレンズ中
心を結ぶ三次元の直線)を求め、例えば、投光器1の投
光方向がその直線から外れないように基準ワーク7に接
近し、基準ワーク7上の三次元位置と面の傾きが測定可
能な位置まで移動する。
【0036】次いで、基準ワーク7上の三次元位置とそ
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝線の位置と方向)は、作業線を指
定された測定始点付近でまたぐように調整する。基準ワ
ーク7上に形成された輝線の像を含む画像をカメラ2で
撮像し、三角測量の原理により計測開始点の3次元位置
(x1、y1、z1)を測定する。これに対応する画像上の位
置を(u1、v1)とする。測定の原理及び測定のためにロ
ボットコントローラ6が行なう処理については、公知で
あるから、ここでは詳細の説明は省略する。
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝線の位置と方向)は、作業線を指
定された測定始点付近でまたぐように調整する。基準ワ
ーク7上に形成された輝線の像を含む画像をカメラ2で
撮像し、三角測量の原理により計測開始点の3次元位置
(x1、y1、z1)を測定する。これに対応する画像上の位
置を(u1、v1)とする。測定の原理及び測定のためにロ
ボットコントローラ6が行なう処理については、公知で
あるから、ここでは詳細の説明は省略する。
【0037】ロボットを作業経線に沿って小距離ずつ動
かして、その度に投光、撮影、輝線が作業線を跨ぐ点の
3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を求
めて行く。
かして、その度に投光、撮影、輝線が作業線を跨ぐ点の
3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を求
めて行く。
【0038】このようにして求めた作業線を構成する点
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボットの動作経路または動作プログ
ラムを生成する。また、各点に対応して作業線周辺の面
の方位(ai、bi、ci[i=1, 2・・・・])についても計測す
る。計測対象の面は通常2個と考えられるが、1個また
は3個以上の場合もあり得る。ロボットにツール先端点
の姿勢も教示する場合などにおいては、これら面方位デ
ータと、作業線の方向を表わす単位ベクトル(di、ei、
fi)[i=1, 2・・・・])が利用可能である。
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボットの動作経路または動作プログ
ラムを生成する。また、各点に対応して作業線周辺の面
の方位(ai、bi、ci[i=1, 2・・・・])についても計測す
る。計測対象の面は通常2個と考えられるが、1個また
は3個以上の場合もあり得る。ロボットにツール先端点
の姿勢も教示する場合などにおいては、これら面方位デ
ータと、作業線の方向を表わす単位ベクトル(di、ei、
fi)[i=1, 2・・・・])が利用可能である。
【0039】なお、検出した複数の点から冗長な点を間
引いたり、検出した点列を最少二乗法等により直線や円
弧で近似してロボットの教示点を生成し直す場合もあり
うる。その場合には、検出した点は直接教示点とならな
い。
引いたり、検出した点列を最少二乗法等により直線や円
弧で近似してロボットの教示点を生成し直す場合もあり
うる。その場合には、検出した点は直接教示点とならな
い。
【0040】また、カメラ画像から検出した線が間違っ
ている場合、あるいは、検出できない場合などで、作業
線を構成する点を特定できない場合がありうる。そのた
め、検出結果を確定する段階を導入することが望まし
い。具体的には、図1中に示したように、カメラ2の画
像を画像表示装置3の画面上に表示し、これに検出した
作業線を構成する点位置(点列10)を重ねて表示す
る。
ている場合、あるいは、検出できない場合などで、作業
線を構成する点を特定できない場合がありうる。そのた
め、検出結果を確定する段階を導入することが望まし
い。具体的には、図1中に示したように、カメラ2の画
像を画像表示装置3の画面上に表示し、これに検出した
作業線を構成する点位置(点列10)を重ねて表示す
る。
【0041】あるいは、検出した作業線を色または線の
太さなどを変えて、画像表示装置3に表示されるカメラ
2の画像に重ねて表示する。
太さなどを変えて、画像表示装置3に表示されるカメラ
2の画像に重ねて表示する。
【0042】オペレータは、当該画像および画像上に表
示きれた検出位置(検出できない場合は、検出できない
旨がオペレータにメッセージで通知される)を確認し、
正しい位置が検出できていない場合は、二次元画像上で
の位置指示装置4(たとえば、コンピュータのマウスな
ど)を用いて、正しい位置を画像上で指定する。
示きれた検出位置(検出できない場合は、検出できない
旨がオペレータにメッセージで通知される)を確認し、
正しい位置が検出できていない場合は、二次元画像上で
の位置指示装置4(たとえば、コンピュータのマウスな
ど)を用いて、正しい位置を画像上で指定する。
【0043】当該指定された画像上での位置と、前記計
測された平面から、検出位置の3次元位置を計算し直
す。これにより、カメラ画像から検出した点が間違って
いる場合や、検出できない場合でもオペレータの指示に
より教示点データを生成することができる。
測された平面から、検出位置の3次元位置を計算し直
す。これにより、カメラ画像から検出した点が間違って
いる場合や、検出できない場合でもオペレータの指示に
より教示点データを生成することができる。
【0044】さらに、カメラ画像から作業線を検出する
典型的な方法の一つは、パターンマッチングを用いた手
法である。この方法では、画像中で検出すべき線形状を
教示パターンとして予め教示しておき、検出時は入力カ
メラ画像から教示パターンと類似の画像パターン位置を
検出する。この手法は、教示パターンと類似のパターン
を画像中から検出するため、作業線に沿った検出部分が
教示パターンと類似していることが必要である。
典型的な方法の一つは、パターンマッチングを用いた手
法である。この方法では、画像中で検出すべき線形状を
教示パターンとして予め教示しておき、検出時は入力カ
メラ画像から教示パターンと類似の画像パターン位置を
検出する。この手法は、教示パターンと類似のパターン
を画像中から検出するため、作業線に沿った検出部分が
教示パターンと類似していることが必要である。
【0045】ところが、実際の作業対象物では、対象物
表面の反射状態や、周囲の照明状態などにより、作業線
の画像での見え方が一様でないことがあり、一つの教示
パターンで作業線の全経路を検出することが難しいこと
がある。そこで、本発明では画像から作業線が正しく検
出された場合、この検出した作業線の画像を、教示パタ
ーンとして記録し、次回の検出では、この前回検出した
画像から生成した教示パターンを用いて検出を行うよう
にする。
表面の反射状態や、周囲の照明状態などにより、作業線
の画像での見え方が一様でないことがあり、一つの教示
パターンで作業線の全経路を検出することが難しいこと
がある。そこで、本発明では画像から作業線が正しく検
出された場合、この検出した作業線の画像を、教示パタ
ーンとして記録し、次回の検出では、この前回検出した
画像から生成した教示パターンを用いて検出を行うよう
にする。
【0046】これにより、教示データは常に前回の検出
結果を元に更新されることになるため、作業線の画像上
での見え方が変化した場合でも、予め教示した、唯一の
教示データだけを用いる場合に比べ見え方の変化に影響
を受けないで検出することができる。ここでは、パター
ンマッチングを例にとり、教示パターンを記録する方法
を述べたが、画像上の特徴量(例えば、エッジ点の方向
や強度など)を用いて、対象物を検出する方法一般に適
用可能なものである。
結果を元に更新されることになるため、作業線の画像上
での見え方が変化した場合でも、予め教示した、唯一の
教示データだけを用いる場合に比べ見え方の変化に影響
を受けないで検出することができる。ここでは、パター
ンマッチングを例にとり、教示パターンを記録する方法
を述べたが、画像上の特徴量(例えば、エッジ点の方向
や強度など)を用いて、対象物を検出する方法一般に適
用可能なものである。
【0047】さらに、線形状を検出する場合、直線、曲
線、円弧など形状の違いにより最適な検出方法を用いる
ことが望ましいが、画像データから線の形状を常に正し
く認識することは難しい、そこで、本発明の請求項8に
示すように、オペレータが検出すべき線の形状を指示す
ることにより、適切な検出方法を適用することも出来
る。
線、円弧など形状の違いにより最適な検出方法を用いる
ことが望ましいが、画像データから線の形状を常に正し
く認識することは難しい、そこで、本発明の請求項8に
示すように、オペレータが検出すべき線の形状を指示す
ることにより、適切な検出方法を適用することも出来
る。
【0048】次に図2を参照すると、教示対象とされる
ロボット5のアーム先端には、画像入力装置(カメラ)
12と投光器1が取り付けられている。投光器1は、パ
ターン光を投射する機能を有し、図1の場合と同じく、
スリット光投射型のものが採用されている。但し、本実
施形態では、画像入力装置(カメラ)に、作業空間全体
を適当な距離から俯瞰するように固定設置された別カメ
ラ8が利用される。
ロボット5のアーム先端には、画像入力装置(カメラ)
12と投光器1が取り付けられている。投光器1は、パ
ターン光を投射する機能を有し、図1の場合と同じく、
スリット光投射型のものが採用されている。但し、本実
施形態では、画像入力装置(カメラ)に、作業空間全体
を適当な距離から俯瞰するように固定設置された別カメ
ラ8が利用される。
【0049】ロボットコントローラ6は、画像処理装置
を内蔵した型のもので、ロボット5、投光器1、別カメ
ラ8、表示装置3及び教示操作盤(図示省略)に接続さ
れている。このロボットコントローラ6は第1の実施形
態におけるものと同様で良い。基準ワーク7は教示作業
の基準となるもので、教示作業空間内に正しく位置決め
されている。
を内蔵した型のもので、ロボット5、投光器1、別カメ
ラ8、表示装置3及び教示操作盤(図示省略)に接続さ
れている。このロボットコントローラ6は第1の実施形
態におけるものと同様で良い。基準ワーク7は教示作業
の基準となるもので、教示作業空間内に正しく位置決め
されている。
【0050】教示にあたっては、先ず、ロボット5をマ
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て投光に適した位置と姿勢に移動させる。次いで、別カ
メラ8を用いて、基準ワーク7を視野に収めた画像を取
得し、画像表示装置3上に表示する。画像位置指示装置
4に装備された指示装置4を用いて画像上でロボット5
が計測すべき位置(計測開始点)を指示する。指示され
た位置の画像上の座標(u0, v0 )は、ロボット制御装
置6内に記憶される。計測すべき位置の他の指示方法
は、第1の実施形態と同様なので繰り返し説明は省略す
る。
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て投光に適した位置と姿勢に移動させる。次いで、別カ
メラ8を用いて、基準ワーク7を視野に収めた画像を取
得し、画像表示装置3上に表示する。画像位置指示装置
4に装備された指示装置4を用いて画像上でロボット5
が計測すべき位置(計測開始点)を指示する。指示され
た位置の画像上の座標(u0, v0 )は、ロボット制御装
置6内に記憶される。計測すべき位置の他の指示方法
は、第1の実施形態と同様なので繰り返し説明は省略す
る。
【0051】計測開始点は、通常、実際の作業が行なわ
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)と別カメラ8の位置と方向を用いて、位置(u0,
v0 )に対応する視線(測定開始点と別カメラ8のレン
ズ中心を結ぶ三次元の直線)を求め、例えば、投光器1
の投光方向がその直線から外れないように基準ワーク7
に接近し、基準ワーク7上の三次元位置と面の傾きが測
定可能な位置まで移動する。
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)と別カメラ8の位置と方向を用いて、位置(u0,
v0 )に対応する視線(測定開始点と別カメラ8のレン
ズ中心を結ぶ三次元の直線)を求め、例えば、投光器1
の投光方向がその直線から外れないように基準ワーク7
に接近し、基準ワーク7上の三次元位置と面の傾きが測
定可能な位置まで移動する。
【0052】次いで、基準ワーク7上の三次元位置とそ
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝線の位置と方向)は、作業線を指
定された測定始点付近でまたぐように調整する。基準ワ
ーク7上に形成された輝線の像を含む画像を別カメラ8
で撮像し、三角測量の原理により計測開始点の3次元位
置(x1、y1、z1)を測定する。
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝線の位置と方向)は、作業線を指
定された測定始点付近でまたぐように調整する。基準ワ
ーク7上に形成された輝線の像を含む画像を別カメラ8
で撮像し、三角測量の原理により計測開始点の3次元位
置(x1、y1、z1)を測定する。
【0053】または、図1の実施形態と同様に、該輝線
の像を含む画像を、ロボットアーム先端のカメラ12で
撮像し、三角測量の原理により計測開始点の3次元位置
(x1、y1、z1)を測定する構成も採用可能である。
の像を含む画像を、ロボットアーム先端のカメラ12で
撮像し、三角測量の原理により計測開始点の3次元位置
(x1、y1、z1)を測定する構成も採用可能である。
【0054】これに対応する画像上の位置を(u1、v1)
とする。測定の原理及び測定のためにロボットコントロ
ーラ6が行なう処理については、前述した通り公知であ
るからここでは詳細の説明は省略する。
とする。測定の原理及び測定のためにロボットコントロ
ーラ6が行なう処理については、前述した通り公知であ
るからここでは詳細の説明は省略する。
【0055】ロボットを作業経線に沿って小距離ずつ動
かして、その度に投光、撮影、輝線が作業線を跨ぐ点の
3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を求
めて行く。
かして、その度に投光、撮影、輝線が作業線を跨ぐ点の
3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を求
めて行く。
【0056】このようにして求めた作業線を構成する点
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボットの動作経路または動作プログ
ラムを生成する。また、各点に対応して作業線周辺の面
の方位(ai、bi、ci[i=1, 2・・・・])についても計測す
る。計測対象の面は通常2個と考えられるが、1個また
は3個以上の場合もあり得る。ロボットにツール先端点
の姿勢も教示する場合などにおいては、これら面方位デ
ータと、作業線の方向を表わす単位ベクトル(di、ei、
fi)[i=1, 2・・・・])が利用可能である。
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボットの動作経路または動作プログ
ラムを生成する。また、各点に対応して作業線周辺の面
の方位(ai、bi、ci[i=1, 2・・・・])についても計測す
る。計測対象の面は通常2個と考えられるが、1個また
は3個以上の場合もあり得る。ロボットにツール先端点
の姿勢も教示する場合などにおいては、これら面方位デ
ータと、作業線の方向を表わす単位ベクトル(di、ei、
fi)[i=1, 2・・・・])が利用可能である。
【0057】その他、冗長な検出点の間引き、直線や円
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、第1の実施形態と特に変わるところはないので
繰り返し説明は省略する。
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、第1の実施形態と特に変わるところはないので
繰り返し説明は省略する。
【0058】図3を参照すると、教示対象とされるロボ
ット5のアーム先端には、投光器1が取り付けられてい
る。投光器1は、パターン光を投射する機能を有し、図
1、図2の場合と同じく、スリット光投射型のものが採
用されている。
ット5のアーム先端には、投光器1が取り付けられてい
る。投光器1は、パターン光を投射する機能を有し、図
1、図2の場合と同じく、スリット光投射型のものが採
用されている。
【0059】一方、本実施形態の1つの特徴として、別
カメラ8がもう1台のロボット(以下、別ロボット:移
動装置の一例)15のアーム先端に取り付けられてお
り、この別カメラがロボット5に対する教示に利用され
る。
カメラ8がもう1台のロボット(以下、別ロボット:移
動装置の一例)15のアーム先端に取り付けられてお
り、この別カメラがロボット5に対する教示に利用され
る。
【0060】ロボットコントローラ6は、画像処理装置
を内蔵した型のもので、ここでは、ロボット5、別ロボ
ット15、投光器1、別カメラ8、表示装置3及び教示
操作盤(図示省略)に接続されている。
を内蔵した型のもので、ここでは、ロボット5、別ロボ
ット15、投光器1、別カメラ8、表示装置3及び教示
操作盤(図示省略)に接続されている。
【0061】このロボットコントローラ6は第1の実施
形態におけるものと同様で良い。但し、別ロボット15
を制御するためのハードウェア及びソフトウェアが更に
装備されている。基準ワーク7は教示作業の基準となる
もので、教示作業空間内に正しく位置決めされている。
形態におけるものと同様で良い。但し、別ロボット15
を制御するためのハードウェア及びソフトウェアが更に
装備されている。基準ワーク7は教示作業の基準となる
もので、教示作業空間内に正しく位置決めされている。
【0062】教示にあたっては、先ず、ロボット5をマ
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て投光に適した位置と姿勢に移動させる。同様に、別ロ
ボット15を基準ワーク7と適当な距離をとって基準ワ
ーク7を視野に収められる位置と姿勢に移動させる。
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て投光に適した位置と姿勢に移動させる。同様に、別ロ
ボット15を基準ワーク7と適当な距離をとって基準ワ
ーク7を視野に収められる位置と姿勢に移動させる。
【0063】次いで、別カメラ8を用いて、基準ワーク
7を視野に収めた画像を取得し、画像表示装置3上に表
示する。画像位置指示装置4に装備された指示装置4を
用いて画像上でロボット5が計測すべき位置(計測開始
点)を指示する(矢印参照)。指示された位置の画像上
の座標(u0, v0 )は、ロボット制御装置6内に記憶さ
れる。計測すべき位置の他の指示方法は、第1及び第2
の実施形態と同様なので繰り返し説明は省略する。
7を視野に収めた画像を取得し、画像表示装置3上に表
示する。画像位置指示装置4に装備された指示装置4を
用いて画像上でロボット5が計測すべき位置(計測開始
点)を指示する(矢印参照)。指示された位置の画像上
の座標(u0, v0 )は、ロボット制御装置6内に記憶さ
れる。計測すべき位置の他の指示方法は、第1及び第2
の実施形態と同様なので繰り返し説明は省略する。
【0064】計測開始点は、通常、実際の作業が行なわ
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)と別カメラ8の位置と方向を用いて、位置(u0,
v0 )に対応する視線(測定開始点と別カメラ8のレン
ズ中心を結ぶ三次元の直線)を求め、例えば、投光器1
の投光方向がその直線から外れないように基準ワーク7
に接近し、基準ワーク7上の三次元位置と面の傾きが測
定可能な位置まで移動する。
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)と別カメラ8の位置と方向を用いて、位置(u0,
v0 )に対応する視線(測定開始点と別カメラ8のレン
ズ中心を結ぶ三次元の直線)を求め、例えば、投光器1
の投光方向がその直線から外れないように基準ワーク7
に接近し、基準ワーク7上の三次元位置と面の傾きが測
定可能な位置まで移動する。
【0065】次いで、基準ワーク7上の三次元位置とそ
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝点の位置)は、作業線を指定され
た測定始点付近でまたぐように調整する。基準ワーク7
上に形成された輝線の像を含む画像を別カメラ8、また
は教示用ロボット5の先端に取り付けられたカメラ12
で撮像し、三角測量の原理により計測開始点の3次元位
置(x1、y1、z1)を測定する。これに対応する画像上の
位置を(u1、v1)とする。測定の原理及び測定のために
ロボットコントローラ6が行なう処理については、前述
した通り公知であるから説明は省略する。
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝点の位置)は、作業線を指定され
た測定始点付近でまたぐように調整する。基準ワーク7
上に形成された輝線の像を含む画像を別カメラ8、また
は教示用ロボット5の先端に取り付けられたカメラ12
で撮像し、三角測量の原理により計測開始点の3次元位
置(x1、y1、z1)を測定する。これに対応する画像上の
位置を(u1、v1)とする。測定の原理及び測定のために
ロボットコントローラ6が行なう処理については、前述
した通り公知であるから説明は省略する。
【0066】ロボット5を作業経線に沿って小距離ずつ
動かして、その度に投光、撮影、輝線が作業線を跨ぐ点
の3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を
求めて行く。
動かして、その度に投光、撮影、輝線が作業線を跨ぐ点
の3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を
求めて行く。
【0067】このようにして求めた作業線を構成する点
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボット5の動作経路または動作プロ
グラムを生成する。また、各点に対応して作業線周辺の
面の方位(ai、bi、ci[i=1,2・・・・])についても計測す
る。計測対象の面は通常2個と考えられるが、1個また
は3個以上の場合もあり得る。ロボットにツール先端点
の姿勢も教示する場合などにおいては、これら面方位デ
ータと、作業線の方向を表わす単位ベクトル(di、ei、
fi)[i=1, 2・・・・])が利用可能である。
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボット5の動作経路または動作プロ
グラムを生成する。また、各点に対応して作業線周辺の
面の方位(ai、bi、ci[i=1,2・・・・])についても計測す
る。計測対象の面は通常2個と考えられるが、1個また
は3個以上の場合もあり得る。ロボットにツール先端点
の姿勢も教示する場合などにおいては、これら面方位デ
ータと、作業線の方向を表わす単位ベクトル(di、ei、
fi)[i=1, 2・・・・])が利用可能である。
【0068】その他、冗長な検出点の間引き、直線や円
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、第1及び第2の実施形態と特に変わるところは
ないので繰り返し説明は省略する。
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、第1及び第2の実施形態と特に変わるところは
ないので繰り返し説明は省略する。
【0069】更に、図4を参照すると、教示対象とされ
るロボット5のアーム先端には、投光器11とカメラ2
が取り付けられている。投光器11は、パターン光とし
てスポット光を所定範囲内でロボット制御装置6から指
令される任意の方向へ投射する機能を有する。
るロボット5のアーム先端には、投光器11とカメラ2
が取り付けられている。投光器11は、パターン光とし
てスポット光を所定範囲内でロボット制御装置6から指
令される任意の方向へ投射する機能を有する。
【0070】ロボットコントローラ6は、画像処理装置
を内蔵した型のもので、ロボット5、投光器11、カメ
ラ2、表示装置3及び教示操作盤(図示省略)に接続さ
れている。
を内蔵した型のもので、ロボット5、投光器11、カメ
ラ2、表示装置3及び教示操作盤(図示省略)に接続さ
れている。
【0071】このロボットコントローラ6は第1の実施
形態におけるものと同様で良い。但し、投光装置11が
スポット光投射型に変更されたことに対応して、ハード
ウェア及びソフトウェアに多少の変更がある。それらに
ついては、周知なのでここでは説明を省く。基準ワーク
7は教示作業の基準となるもので、教示作業空間内に正
しく位置決めされている。
形態におけるものと同様で良い。但し、投光装置11が
スポット光投射型に変更されたことに対応して、ハード
ウェア及びソフトウェアに多少の変更がある。それらに
ついては、周知なのでここでは説明を省く。基準ワーク
7は教示作業の基準となるもので、教示作業空間内に正
しく位置決めされている。
【0072】教示にあたっては、先ず、ロボット5をマ
ニュアル操作などで、基準ワーク7と適当な距離をとっ
てカメラ2で基準ワークを視野に収められる位置と姿勢
に移動させる。
ニュアル操作などで、基準ワーク7と適当な距離をとっ
てカメラ2で基準ワークを視野に収められる位置と姿勢
に移動させる。
【0073】次いで、カメラ2を用いて、基準ワーク7
を視野に収めた画像を取得し、画像表示装置3上に表示
する。画像位置指示装置4に装備された指示装置4を用
いて画像上でロボット5が計測すべき位置(計測開始
点)を指示する(矢印参照)。指示された位置の画像上
の座標(u0, v0 )は、ロボット制御装置6内に記憶さ
れる。計測すべき位置の他の指示方法は、これまでの実
施形態と同様なので繰り返し説明は省略する。
を視野に収めた画像を取得し、画像表示装置3上に表示
する。画像位置指示装置4に装備された指示装置4を用
いて画像上でロボット5が計測すべき位置(計測開始
点)を指示する(矢印参照)。指示された位置の画像上
の座標(u0, v0 )は、ロボット制御装置6内に記憶さ
れる。計測すべき位置の他の指示方法は、これまでの実
施形態と同様なので繰り返し説明は省略する。
【0074】計測開始点は、通常、実際の作業が行なわ
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)とカメラ2の位置と方向を用いて、位置(u0, v
0 )に対応する視線(測定開始点とケメラ2のレンズ中
心を結ぶ三次元の直線)を求め、例えば、投光器11の
投光方向がその直線から外れないように基準ワーク7に
接近し、基準ワーク7上の三次元位置と面の傾きが測定
可能な位置まで移動する。
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)とカメラ2の位置と方向を用いて、位置(u0, v
0 )に対応する視線(測定開始点とケメラ2のレンズ中
心を結ぶ三次元の直線)を求め、例えば、投光器11の
投光方向がその直線から外れないように基準ワーク7に
接近し、基準ワーク7上の三次元位置と面の傾きが測定
可能な位置まで移動する。
【0075】次いで、基準ワーク7上の三次元位置とそ
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器11からスポット光を基準ワーク7上
に投光する。測定開始時の投光方向(スリット光が基準
ワーク7上に形成する輝点の位置)は、指定された測定
始点付近に調整する。基準ワーク7上に形成された輝点
の像を含む画像をカメラ2で撮像し、三角測量の原理に
より計測開始点の3次元位置(x1、y1、z1)を測定す
る。これに対応する画像上の位置を(u1、v1)とする。
測定の原理及び測定のためにロボットコントローラ6が
行なう処理については、前述した通り公知であるから説
明は省略する。
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器11からスポット光を基準ワーク7上
に投光する。測定開始時の投光方向(スリット光が基準
ワーク7上に形成する輝点の位置)は、指定された測定
始点付近に調整する。基準ワーク7上に形成された輝点
の像を含む画像をカメラ2で撮像し、三角測量の原理に
より計測開始点の3次元位置(x1、y1、z1)を測定す
る。これに対応する画像上の位置を(u1、v1)とする。
測定の原理及び測定のためにロボットコントローラ6が
行なう処理については、前述した通り公知であるから説
明は省略する。
【0076】なお、ここで周辺の面の方位を測定するた
めに、1つのロボット位置において、面1個あたりの検
出について少なくとも3点の計測を行なう。3点以上の
点は小距離離れ、一直線上に並ばないように設定して置
く。
めに、1つのロボット位置において、面1個あたりの検
出について少なくとも3点の計測を行なう。3点以上の
点は小距離離れ、一直線上に並ばないように設定して置
く。
【0077】ロボットを作業経線に沿って小距離ずつ動
かして、その度に投光、撮影、輝点の3次元位置(但
し、各ステップで複数個)求めて行く。
かして、その度に投光、撮影、輝点の3次元位置(但
し、各ステップで複数個)求めて行く。
【0078】このようにして求めた作業線の周辺の面の
位置に基づいて、作業線の3次元位置を求め、その上の
適当な諸点をロボットの教示点として、ロボットの動作
経路を生成する。
位置に基づいて、作業線の3次元位置を求め、その上の
適当な諸点をロボットの教示点として、ロボットの動作
経路を生成する。
【0079】例えば、作業線が2つの平面A、Bの交線
に対応する場合には、平面A、Bのの交線をロボットコ
ントローラ6内で計算し、その上で所定間隔のサンプル
点を教示点とし、3次元位置を教示点位置として記憶す
れば良い。また、面A、Bの面方位データと、作業線の
方向を表わす単位ベクトルのデータに基づいてロボット
5の姿勢(ツール先端点の姿勢)を教示することも可能
である。
に対応する場合には、平面A、Bのの交線をロボットコ
ントローラ6内で計算し、その上で所定間隔のサンプル
点を教示点とし、3次元位置を教示点位置として記憶す
れば良い。また、面A、Bの面方位データと、作業線の
方向を表わす単位ベクトルのデータに基づいてロボット
5の姿勢(ツール先端点の姿勢)を教示することも可能
である。
【0080】その他、冗長な検出点の間引き、直線や円
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、これまでの実施形態と特に変わるところはない
ので繰り返し説明は省略する。
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、これまでの実施形態と特に変わるところはない
ので繰り返し説明は省略する。
【0081】最後に、図5に示した例(第5の実施形
態)では、ロボット5が教示ロボットの役割を果たし、
別のロボット15が実際の作業を行う、作業ロボットと
なる。即ち、教示された位置に沿って移動する教示にロ
ボット5が使われ、ロボット15が例えば溶接などの実
際の作業にあたる。
態)では、ロボット5が教示ロボットの役割を果たし、
別のロボット15が実際の作業を行う、作業ロボットと
なる。即ち、教示された位置に沿って移動する教示にロ
ボット5が使われ、ロボット15が例えば溶接などの実
際の作業にあたる。
【0082】本実施形態では、教示作業を担当するロボ
ットのアーム先端には、画像入力装置(カメラ)12と
投光器1が取り付けられている。投光器1は、パターン
光を投射する機能を有し、スリット光投射型のものが採
用されている。一方、実際の作業を担当するロボット1
5には、アーム先端に作業ツール9が取り付けられてい
る。
ットのアーム先端には、画像入力装置(カメラ)12と
投光器1が取り付けられている。投光器1は、パターン
光を投射する機能を有し、スリット光投射型のものが採
用されている。一方、実際の作業を担当するロボット1
5には、アーム先端に作業ツール9が取り付けられてい
る。
【0083】ロボットコントローラ6は、画像処理装置
を内蔵した型のもので、両ロボット5、15、投光器
1、画像入力装置(カメラ)12、表示装置3及び教示
操作盤(図示省略)に接続されている。
を内蔵した型のもので、両ロボット5、15、投光器
1、画像入力装置(カメラ)12、表示装置3及び教示
操作盤(図示省略)に接続されている。
【0084】このロボットコントローラ6は第1の実施
形態におけるものと同様で良い。但し、別ロボット15
を制御するためのハードウェア及びソフトウェアが更に
装備されている。基準ワーク7は教示作業の基準となる
もので、教示作業空間内に正しく位置決めされている。
形態におけるものと同様で良い。但し、別ロボット15
を制御するためのハードウェア及びソフトウェアが更に
装備されている。基準ワーク7は教示作業の基準となる
もので、教示作業空間内に正しく位置決めされている。
【0085】教示にあたっては、先ず、ロボット5をマ
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て投光と撮影に適した位置と姿勢に移動させる。
ニュアル操作などで、基準ワーク7と適当な距離をとっ
て投光と撮影に適した位置と姿勢に移動させる。
【0086】次いで、カメラ12を用いて、基準ワーク
7を視野に収めた画像を取得し、画像表示装置3上に表
示する。画像位置指示装置4に装備された指示装置4を
用いて画像上でロボット5が計測すべき位置(計測開始
点)を指示する(矢印参照)。指示された位置の画像上
の座標(u0, v0 )は、ロボット制御装置6内に記憶さ
れる。計測すべき位置の他の指示方法は、これまでの実
施形態と同様なので繰り返し説明は省略する。
7を視野に収めた画像を取得し、画像表示装置3上に表
示する。画像位置指示装置4に装備された指示装置4を
用いて画像上でロボット5が計測すべき位置(計測開始
点)を指示する(矢印参照)。指示された位置の画像上
の座標(u0, v0 )は、ロボット制御装置6内に記憶さ
れる。計測すべき位置の他の指示方法は、これまでの実
施形態と同様なので繰り返し説明は省略する。
【0087】計測開始点は、通常、実際の作業が行なわ
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)と別カメラ8の位置と方向を用いて、位置(u0,
v0 )に対応する視線(測定開始点とカメラ12のレン
ズ中心を結ぶ三次元の直線)を求め、例えば、投光器1
の投光方向がその直線から外れないように基準ワーク7
に接近し、基準ワーク7上の三次元位置と面の傾きが測
定可能な位置まで移動する。
れる作業線上で、且つ、作業開始点の近傍に選ばれる。
計測開始点が指定されたら、二次元画像上での位置(u
0, v0)と別カメラ8の位置と方向を用いて、位置(u0,
v0 )に対応する視線(測定開始点とカメラ12のレン
ズ中心を結ぶ三次元の直線)を求め、例えば、投光器1
の投光方向がその直線から外れないように基準ワーク7
に接近し、基準ワーク7上の三次元位置と面の傾きが測
定可能な位置まで移動する。
【0088】次いで、基準ワーク7上の三次元位置とそ
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝点の位置)は、作業線を指定され
た測定始点付近でまたぐように調整する。基準ワーク7
上に形成された輝線の像を含む画像をカメラ2で撮像
し、三角測量の原理により計測開始点の3次元位置(x
1、y1、z1)を測定する。これに対応する画像上の位置
を(u1、v1)とする。測定の原理及び測定のためにロボ
ットコントローラ6が行なう処理については、前述した
通り公知であるから説明は省略する。
の近傍の面の傾き(方位)の測定を開始する。測定にあ
たっては、投光器1からスリット光を基準ワーク7上に
投光する。測定開始時の投光方向(スリット光が基準ワ
ーク7上に形成する輝点の位置)は、作業線を指定され
た測定始点付近でまたぐように調整する。基準ワーク7
上に形成された輝線の像を含む画像をカメラ2で撮像
し、三角測量の原理により計測開始点の3次元位置(x
1、y1、z1)を測定する。これに対応する画像上の位置
を(u1、v1)とする。測定の原理及び測定のためにロボ
ットコントローラ6が行なう処理については、前述した
通り公知であるから説明は省略する。
【0089】ロボット5を作業経線に沿って小距離ずつ
動かして、その度に投光、撮影、輝線が作業線を跨ぐ点
の3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を
求めて行く。
動かして、その度に投光、撮影、輝線が作業線を跨ぐ点
の3次元位置(x2、y2、z2)、(x3、y3、z3)・・・を
求めて行く。
【0090】このようにして求めた作業線を構成する点
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボット15の動作経路を生成する。
また、各点に対応して作業線周辺の面の方位(ai、bi、
ci[i=1, 2・・・・])についても計測する。計測対象の面は
通常2個と考えられるが、1個または3個以上の場合も
あり得る。ロボットにツール先端点の姿勢も教示する場
合などにおいては、これら面方位データと、作業線の方
向を表わす単位ベクトル(di、ei、fi)[i=1,2・・・・])
が利用可能である。
列の3次元位置(xi、yi、zi[i=1,2・・・・])をロボット
の教示点として、ロボット15の動作経路を生成する。
また、各点に対応して作業線周辺の面の方位(ai、bi、
ci[i=1, 2・・・・])についても計測する。計測対象の面は
通常2個と考えられるが、1個または3個以上の場合も
あり得る。ロボットにツール先端点の姿勢も教示する場
合などにおいては、これら面方位データと、作業線の方
向を表わす単位ベクトル(di、ei、fi)[i=1,2・・・・])
が利用可能である。
【0091】なお、ロボット15の動作の基準となる座
標系がロボット5の動作の基準となる座標系が異なる場
合には、両座標系の間の変換式を用いて変換した上でロ
ボット15の教示データとすれば良い。2つのロボット
の異なる動作準拠座標系の間の変換式(一般に、4行4
列の同次変換行列で表現される)の求め方は周知である
から、ここでは詳細説明を省く。例えば、両者に共通な
ワールド座標系があれば、それを媒介にして変換を行な
うことが出来る。
標系がロボット5の動作の基準となる座標系が異なる場
合には、両座標系の間の変換式を用いて変換した上でロ
ボット15の教示データとすれば良い。2つのロボット
の異なる動作準拠座標系の間の変換式(一般に、4行4
列の同次変換行列で表現される)の求め方は周知である
から、ここでは詳細説明を省く。例えば、両者に共通な
ワールド座標系があれば、それを媒介にして変換を行な
うことが出来る。
【0092】その他、冗長な検出点の間引き、直線や円
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、他の実施形態と特に変わるところはないので繰
り返し説明は省略する。
弧での近似、誤検出や検出不能時の対応(測定点の再指
定とその測定)、パターンマッチング法の適用などにつ
いては、他の実施形態と特に変わるところはないので繰
り返し説明は省略する。
【0093】また、図1〜図5の本発明の実施形態で
は、ロボットに装着される投光器1、11および2次元
画像入力装置2、12は、教示時にロボットに装着し、
該ロボットが作業を実行する際はロボットから取り外す
ようにしても良い。このように作業時に計測装置を取り
外せば、作業時に投光器や2次元画像入力装置と作業対
象物との干渉を回避出来るし、また、それら計測装置一
式を複数の教示用ロボットで共用出来るという利点も生
まれる。
は、ロボットに装着される投光器1、11および2次元
画像入力装置2、12は、教示時にロボットに装着し、
該ロボットが作業を実行する際はロボットから取り外す
ようにしても良い。このように作業時に計測装置を取り
外せば、作業時に投光器や2次元画像入力装置と作業対
象物との干渉を回避出来るし、また、それら計測装置一
式を複数の教示用ロボットで共用出来るという利点も生
まれる。
【0094】
【発明の効果】以上述べたように、本発明を用いること
で、教示対象ロボットにプレイバック動作を行なう必要
がなくなる。また、オフライン教示のためのモデル構築
なども要求されなくなる。従って、ロボットの教示作業
が容易に行えるようになる。
で、教示対象ロボットにプレイバック動作を行なう必要
がなくなる。また、オフライン教示のためのモデル構築
なども要求されなくなる。従って、ロボットの教示作業
が容易に行えるようになる。
【図1】本発明の第1の実施形態における配置の概要を
示した図である。
示した図である。
【図2】本発明の第2の実施形態における配置の概要を
示した図である。
示した図である。
【図3】本発明の第3の実施形態における配置の概要を
示した図である。
示した図である。
【図4】本発明の第4の実施形態における配置の概要を
示した図である。
示した図である。
【図5】本発明の第5の実施形態における配置の概要を
示した図である。
示した図である。
1、11 投光器 2、12 二次元画像入力装置 3 二次元画像表示装置 4 二次元画像位置指示装置 5 対象ロボット(本体) 6 ロボットコントローラ 7 対象(基準ワーク) 8 別カメラ 9 作業ツール 10 作業線 15 別ロボット(本体)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 滝澤 克俊 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 藁科 文和 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 伴 一訓 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 山田 慎 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 寺田 彰弘 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 奥田 満廣 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 Fターム(参考) 3F059 AA05 DA02 DB02 DB09 DB10 DD12 FA03 FA05 FB01 FB12 5H269 AB33 CC09 JJ09 JJ20 SA08
Claims (15)
- 【請求項1】 スリット光またはスポット光をパターン
光として対象物に投光する投光手段と共にカメラを搭載
した教示ロボットを用いて、前記対象物上の作業線に沿
って作業を行う作業ロボット用の教示点を求める教示装
置において;前記パターン光が投光された対象物上の面
のカメラ画像から、該面の3次元位置および姿勢を求め
る手段と、 前記カメラの画像上で、前記作業線を構成する線分を特
定する手段と、 前記面の3次元位置及び姿勢、並びに前記作業線を構成
する点のカメラ画像上での位置に基づいて、前記特定さ
れた作業線を構成する点の3次元位置を求める手段とを
備えたことを特徴とする前記教示装置。 - 【請求項2】 前記作業ロボットと前記教示ロボットが
同一のロボットである、請求項1に記載の教示装置。 - 【請求項3】 前記作業ロボットとは別個に設けられた
教示ロボットまたは移動装置に搭載された別カメラの画
像上で、あるいは前記教示ロボットとは別個に固定設置
された別カメラの画像上で、前記作業線を構成する点の
特定を行う、請求項1または請求項2に記載の教示装
置。 - 【請求項4】 前記カメラの画像を表示する表示手段
と、 前記表示手段に表示された画像上で点を指示する位置指
示手段とを更に備え、 前記作業線を構成する点を特定する手段は、前記表示手
段に表示された前記カメラの画像上における、前記位置
指示手段の指定に従って点を特定する、請求項1乃至請
求項3の内、何れか1項に記載の教示装置。 - 【請求項5】 作業ロボットが動作すべき位置または軌
跡情報が予め前記対象物上にマーキングされており、 前記作業線を構成する点を特定する手段は、前記カメラ
の画像上における、前記マーキングの位置を検出する請
求項1乃至請求項3の内、何れか1項に記載の教示装
置。 - 【請求項6】 前記作業線を構成する点を特定する手段
は、前記カメラの面像に対し、前記作業線に沿った線分
を検出する画像処理を行なって前記作業線を構成する点
を特定する請求項1乃至請求項3の内、何れか1項に記
載の教示装置。 - 【請求項7】 前記カメラ画像と共に前記特定された作
業線を構成する点を表示する表示手段を更に備え、 該特定点が認識すべき点と異なる場合に、前記カメラ画
像上で前記認識すべき点をオペレータが指示し、再度特
定出来るようになっている、請求項6に記載の教示装
置。 - 【請求項8】 前記認識する点が画像上で特定される
と、前記画像から、前記点を画像処理により検出するた
めの特徴が記録され、 前記教示ロボットが前記作業線に沿って移動すると共
に、該記録された特徴から画像処理により、作業線を構
成する点を特定する請求項6または請求項7に記載の教
示装置。 - 【請求項9】 前記カメラ画像上の作業線に対して、オ
ペレータにより指定される該作業線の形状に基づいて、
前記画像処理を行なうことにより、該作業線を構成する
点の特定を行なう請求項6乃至請求項8の内、何れか1
項に記載の教示装置。 - 【請求項10】 現在の画像取込み位置から、次の画像
取込み位置への前記教示ロボットの移動に際し、現在ま
でに求めた複数の点の3次元位置に基づいて次の画像取
込み位置を求める、請求項1乃至請求項9の内、何れか
1項に記載の教示装置。 - 【請求項11】 現在の画像取込み位置から、次の画像
取込み位置への前記教示ロボットの移動に際し、現在ま
でに特定された作業線を構成する複数の点の、画像上で
の2次元位置、および前記面の姿勢に基づいて次の画像
取込み位置を求める、請求項1乃至請求項9の内、何れ
か1項に記載の教示装置。 - 【請求項12】 次の画像取込み位置を求めるに際し、
さらに前記作業線の形状に基づいて、前記次の画像取込
み位置を求める、請求項10または請求項11に記載の
教示装置。 - 【請求項13】 カメラ画像での計測部位の位置と当該
画像取得時のカメラの位置から、前記計測部位とカメラ
を結ぶ空間内の直線(カメラの視線)を求め、該直線上
に存在する前記計測部位が、測定可能となるようにカメ
ラまたは投光装置の姿勢を決定し、前記直線に沿って、
対象物に接近し三次元情報が測定可能な位置まで移動す
ることを特徴とする請求項1乃至請求項12の内、何れ
か1項に記載の教示装置。 - 【請求項14】 前記投光手段と前記カメラは、教示時
に前記ロボットに装着し、作業時には取り外すことを特
徴とする、請求項1乃至請求項12の内、何れか1項に
記載の教示装置。 - 【請求項15】 前記特定された作業線を構成する点の
3次元位置から、前記作業ロボットの作業プログラムを
生成する手段を備えたことを特徴とする、請求項1乃至
請求項12の内、何れか1項に記載の教示装置。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000373388A JP2002172575A (ja) | 2000-12-07 | 2000-12-07 | 教示装置 |
| US10/001,991 US6763284B2 (en) | 2000-12-07 | 2001-12-05 | Robot teaching apparatus |
| DE60127644T DE60127644T2 (de) | 2000-12-07 | 2001-12-06 | Lehrvorrichtung für einen Roboter |
| EP01310214A EP1215017B1 (en) | 2000-12-07 | 2001-12-06 | Robot teaching apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000373388A JP2002172575A (ja) | 2000-12-07 | 2000-12-07 | 教示装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002172575A true JP2002172575A (ja) | 2002-06-18 |
Family
ID=18842790
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000373388A Pending JP2002172575A (ja) | 2000-12-07 | 2000-12-07 | 教示装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US6763284B2 (ja) |
| EP (1) | EP1215017B1 (ja) |
| JP (1) | JP2002172575A (ja) |
| DE (1) | DE60127644T2 (ja) |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7148442B2 (en) | 2004-03-04 | 2006-12-12 | Fanuc Ltd | Power supply device for electric discharge machining |
| JP2008080466A (ja) * | 2006-09-28 | 2008-04-10 | Daihen Corp | 搬送用ロボットの教示方法 |
| JP2010506739A (ja) * | 2006-10-19 | 2010-03-04 | アーベーベー・アーゲー | ハンドリング装置をキャリブレートするシステムおよびその方法 |
| JP2010127719A (ja) * | 2008-11-26 | 2010-06-10 | Canon Inc | 作業システム及び情報処理方法 |
| DE102005048812B4 (de) * | 2005-10-10 | 2011-02-10 | Universität Stuttgart | Steuerung werkstückbearbeitender Maschinen |
| JP2012517053A (ja) * | 2009-02-03 | 2012-07-26 | ファナック ロボティクス アメリカ コーポレイション | ロボットツールの制御方法 |
| CN102656419A (zh) * | 2009-11-20 | 2012-09-05 | 微-埃普西龙测量技术有限两合公司 | 用于自动的3d测量的机器人及方法 |
| JP2014075050A (ja) * | 2012-10-04 | 2014-04-24 | Kawasaki Heavy Ind Ltd | 加工システム、及びその加工方法 |
| JP2014083610A (ja) * | 2012-10-19 | 2014-05-12 | Yaskawa Electric Corp | ロボットシステムおよび加工品の製造方法 |
| CN103862472A (zh) * | 2012-12-18 | 2014-06-18 | 株式会社安川电机 | 示教数据生成装置、机器人系统以及示教数据生成方法 |
| CN105425721A (zh) * | 2015-11-10 | 2016-03-23 | 佛山市新恒萃材料科技有限公司 | 一种闭环式控制的智能示教方法及其装置 |
| CN106938470A (zh) * | 2017-03-22 | 2017-07-11 | 华中科技大学 | 一种机器人力控示教模仿学习的装置及方法 |
| CN109839075A (zh) * | 2017-11-29 | 2019-06-04 | 沈阳新松机器人自动化股份有限公司 | 一种机器人自动测量系统及测量方法 |
| CN110480236A (zh) * | 2019-08-26 | 2019-11-22 | 中车石家庄车辆有限公司 | 铁路平车焊接定位装置、生产线及焊接方法 |
| JP2020146823A (ja) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | ロボットの部品ピッキングシステム |
| CN113752267A (zh) * | 2021-11-10 | 2021-12-07 | 山东捷瑞数字科技股份有限公司 | 一种机械臂路径规划方法及系统 |
| JP7433501B1 (ja) | 2023-05-31 | 2024-02-19 | 株式会社ダイヘン | 干渉判定装置 |
| WO2024247250A1 (ja) * | 2023-06-02 | 2024-12-05 | ヤマハ発動機株式会社 | ロボットシステムおよびロボット教示方法 |
Families Citing this family (76)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| NO317898B1 (no) | 2002-05-24 | 2004-12-27 | Abb Research Ltd | Fremgangsmate og system for a programmere en industrirobot |
| CA2633137C (en) | 2002-08-13 | 2012-10-23 | The Governors Of The University Of Calgary | Microsurgical robot system |
| JP3859574B2 (ja) * | 2002-10-23 | 2006-12-20 | ファナック株式会社 | 3次元視覚センサ |
| DE10249786A1 (de) * | 2002-10-24 | 2004-05-13 | Medical Intelligence Medizintechnik Gmbh | Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür |
| JP2004160567A (ja) * | 2002-11-11 | 2004-06-10 | Fanuc Ltd | 物品取出し装置 |
| JP3805302B2 (ja) * | 2002-12-13 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
| DE10305384A1 (de) * | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen |
| JP4707306B2 (ja) * | 2003-02-28 | 2011-06-22 | 株式会社小坂研究所 | 多関節型座標測定装置 |
| JP3805317B2 (ja) * | 2003-03-17 | 2006-08-02 | ファナック株式会社 | 教示位置修正方法及び教示位置修正装置 |
| DE10345743A1 (de) * | 2003-10-01 | 2005-05-04 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung |
| JP2005138223A (ja) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | ロボット用位置データ修正装置 |
| DE10361018C9 (de) * | 2003-12-23 | 2021-03-04 | QUISS Qualitäts-Inspektionssysteme und Service GmbH | Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür |
| JP3930482B2 (ja) | 2004-01-19 | 2007-06-13 | ファナック株式会社 | 3次元視覚センサ |
| JP4797330B2 (ja) * | 2004-03-08 | 2011-10-19 | 日本電気株式会社 | ロボット |
| DE102004026185A1 (de) * | 2004-05-28 | 2005-12-22 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Betreiben einer Maschine, wie eines Mehrachs- Industrieroboters |
| US9390203B2 (en) | 2004-06-15 | 2016-07-12 | Abb Ab | Method and system for off-line programming of multiple interacting robots |
| ES2306161T3 (es) * | 2004-06-15 | 2008-11-01 | Abb Ab | Metodo y sistema para la programacion fuera de linea de multiples robots interactuantes. |
| JP4137862B2 (ja) * | 2004-10-05 | 2008-08-20 | ファナック株式会社 | 計測装置及びロボット制御装置 |
| US8000837B2 (en) | 2004-10-05 | 2011-08-16 | J&L Group International, Llc | Programmable load forming system, components thereof, and methods of use |
| JP4087841B2 (ja) * | 2004-12-21 | 2008-05-21 | ファナック株式会社 | ロボット制御装置 |
| DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
| DE102005040714B4 (de) * | 2005-08-27 | 2015-06-18 | Abb Research Ltd. | Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter |
| US9198728B2 (en) * | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
| JP2007098464A (ja) * | 2005-10-07 | 2007-04-19 | Nissan Motor Co Ltd | レーザー加工ロボット制御装置、レーザー加工ロボット制御方法およびレーザー加工ロボット制御プログラム |
| DE102006004153B4 (de) * | 2006-01-27 | 2014-10-23 | Vision Tools Hard- Und Software Entwicklungs Gmbh | Automatisches Einmessen kooperierender Roboter |
| JP4353219B2 (ja) * | 2006-08-14 | 2009-10-28 | 日産自動車株式会社 | レーザ加工装置、レーザ加工装置の制御方法 |
| US10875182B2 (en) | 2008-03-20 | 2020-12-29 | Teladoc Health, Inc. | Remote presence system mounted to operating room hardware |
| DE102008032259B4 (de) * | 2008-07-09 | 2010-08-12 | Dürr Systems GmbH | Verfahren und System zur Applikation eines Beschichtungsmaterials mit einem programmierbaren Roboter und Programmiergestell |
| US8319831B2 (en) * | 2009-03-25 | 2012-11-27 | Fuji Xerox Co., Ltd. | Component manipulating method, component extracting method, component assembling method, component manipulating apparatus, component extracting apparatus, and component assembling apparatus |
| JP5509645B2 (ja) * | 2009-03-25 | 2014-06-04 | 富士ゼロックス株式会社 | 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置 |
| US8352212B2 (en) | 2009-11-18 | 2013-01-08 | Hexagon Metrology, Inc. | Manipulable aid for dimensional metrology |
| US8670017B2 (en) | 2010-03-04 | 2014-03-11 | Intouch Technologies, Inc. | Remote presence system including a cart that supports a robot face and an overhead camera |
| JP2011209064A (ja) * | 2010-03-29 | 2011-10-20 | Fuji Xerox Co Ltd | 物品認識装置及びこれを用いた物品処理装置 |
| JP2011209958A (ja) * | 2010-03-29 | 2011-10-20 | Fuji Xerox Co Ltd | 採取対象物品の認識構造及びこれを用いた採取情報認識装置並びに採取処理装置 |
| US8781629B2 (en) | 2010-09-22 | 2014-07-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Human-robot interface apparatuses and methods of controlling robots |
| DE202010014359U1 (de) * | 2010-10-15 | 2012-01-17 | Hermann Eiblmeier | Abtastvorrichtung |
| KR102068216B1 (ko) | 2011-01-28 | 2020-01-20 | 인터치 테크놀로지스 인코퍼레이티드 | 이동형 원격현전 로봇과의 인터페이싱 |
| US11482326B2 (en) | 2011-02-16 | 2022-10-25 | Teladog Health, Inc. | Systems and methods for network-based counseling |
| KR101330049B1 (ko) * | 2012-03-06 | 2013-11-18 | 한국기계연구원 | 3차원 특징점 기반 직접 교시 궤적 후보정 방법 |
| US9221137B2 (en) | 2012-10-05 | 2015-12-29 | Beckman Coulter, Inc. | System and method for laser-based auto-alignment |
| IN2015DN02064A (ja) * | 2012-10-05 | 2015-08-14 | Beckman Coulter Inc | |
| DE102013203385A1 (de) * | 2013-02-28 | 2014-08-28 | Schuler Automation Gmbh & Co. Kg | Verfahren zum Schneiden einer Blechplatine mit einer vorgegebenen Kontur |
| US9782896B2 (en) * | 2013-11-28 | 2017-10-10 | Mitsubishi Electric Corporation | Robot system and control method for robot system |
| CN104765380B (zh) * | 2014-01-03 | 2017-04-19 | 科沃斯商用机器人有限公司 | 光点指示机器人及其光点指示方法 |
| JP5850958B2 (ja) * | 2014-01-24 | 2016-02-03 | ファナック株式会社 | ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置 |
| CN103862477B (zh) * | 2014-03-31 | 2016-03-30 | 内蒙古科技大学 | 一种自主抓物机械手的上位机控制方法 |
| CN105269578B (zh) * | 2014-07-01 | 2020-03-06 | 精工爱普生株式会社 | 指示装置以及机器人系统 |
| JP2016107379A (ja) | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
| US20160214200A1 (en) * | 2015-01-23 | 2016-07-28 | Illinois Tool Works Inc. | User Configuration of Image Capture and Display in a Welding Vision System |
| US9855658B2 (en) * | 2015-03-19 | 2018-01-02 | Rahul Babu | Drone assisted adaptive robot control |
| JP2016221645A (ja) * | 2015-06-02 | 2016-12-28 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットシステム |
| US10556347B2 (en) * | 2016-11-01 | 2020-02-11 | Brachium, Inc. | Vision guided robot path programming |
| DE102016121831B3 (de) * | 2016-11-15 | 2018-01-25 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Überprüfung der Maßhaltigkeit eines Teilegreifers |
| JP6527178B2 (ja) | 2017-01-12 | 2019-06-05 | ファナック株式会社 | 視覚センサのキャリブレーション装置、方法及びプログラム |
| JP6815924B2 (ja) | 2017-04-19 | 2021-01-20 | トヨタ自動車株式会社 | キャリブレーション装置 |
| US11862302B2 (en) | 2017-04-24 | 2024-01-02 | Teladoc Health, Inc. | Automated transcription and documentation of tele-health encounters |
| JP6308637B1 (ja) * | 2017-05-08 | 2018-04-11 | 国立大学法人福井大学 | 特徴量を用いた3次元計測方法およびその装置 |
| US10483007B2 (en) | 2017-07-25 | 2019-11-19 | Intouch Technologies, Inc. | Modular telehealth cart with thermal imaging and touch screen user interface |
| JP6622765B2 (ja) * | 2017-08-22 | 2019-12-18 | ファナック株式会社 | ロボットシステム |
| US11636944B2 (en) | 2017-08-25 | 2023-04-25 | Teladoc Health, Inc. | Connectivity infrastructure for a telehealth platform |
| TWI734867B (zh) * | 2017-11-20 | 2021-08-01 | 達明機器人股份有限公司 | 機器手臂作業軌跡的教導系統及方法 |
| DE102017011252A1 (de) * | 2017-12-06 | 2019-06-06 | Kuka Deutschland Gmbh | Verfahren und System zur Bauteilbearbeitung durch Roboter |
| JP6810087B2 (ja) * | 2018-03-29 | 2021-01-06 | ファナック株式会社 | 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 |
| US10617299B2 (en) | 2018-04-27 | 2020-04-14 | Intouch Technologies, Inc. | Telehealth cart that supports a removable tablet with seamless audio/video switching |
| EP3648152A1 (de) * | 2018-11-01 | 2020-05-06 | Integrated Dynamics Engineering GmbH | Verfahren zum anlernen oder kontrollieren eines roboters sowie hierfür verwendetes system |
| EP3648150A1 (de) * | 2018-11-01 | 2020-05-06 | Integrated Dynamics Engineering GmbH | Verfahren zum anlernen oder kontrollieren eines roboters sowie hierfür verwendetes system |
| JP7337495B2 (ja) * | 2018-11-26 | 2023-09-04 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
| CN109822575B (zh) * | 2019-03-25 | 2020-12-08 | 华中科技大学 | 一种利用投影特征图像进行移动加工的机器人系统及方法 |
| DE102019107964B3 (de) | 2019-03-28 | 2020-08-06 | Franka Emika Gmbh | Projektionseinrichtung für einen Robotermanipulator |
| CN110405730B (zh) * | 2019-06-06 | 2022-07-08 | 大连理工大学 | 一种基于rgb-d图像的人机物交互机械臂示教系统 |
| US11247335B2 (en) * | 2019-07-18 | 2022-02-15 | Caterpillar Inc. | Semi-autonomous robot path planning |
| TWI725630B (zh) | 2019-11-21 | 2021-04-21 | 財團法人工業技術研究院 | 加工路徑生成裝置及其方法 |
| JP6670974B1 (ja) * | 2019-12-02 | 2020-03-25 | ジック株式会社 | ロボット用の座標系アライメント方法及びアライメントシステム並びにアライメント装置 |
| US11676845B2 (en) | 2020-06-30 | 2023-06-13 | Brooks Automation Us, Llc | Automated teach apparatus for robotic systems and method therefor |
| TWI738601B (zh) | 2020-07-28 | 2021-09-01 | 盟立自動化股份有限公司 | 工具的移動路徑的生成方法 |
| DE102023105361B3 (de) | 2023-03-03 | 2024-06-20 | Kuka Deutschland Gmbh | Verfahren zum Kalibrieren eines Lichtschnittsensors und zugehöriges Robotersystem |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE3613096A1 (de) * | 1986-04-18 | 1987-10-29 | Messer Griesheim Gmbh | Verfahren zum bearbeiten von werkstuecken |
| JPS62282889A (ja) | 1986-05-29 | 1987-12-08 | 株式会社東芝 | ロボツトア−ム |
| JP2548027B2 (ja) * | 1988-06-30 | 1996-10-30 | ファナック株式会社 | アークビジョンセンサ操作方式 |
| JPH06110544A (ja) | 1992-09-25 | 1994-04-22 | Mitsubishi Heavy Ind Ltd | ロボットの遠隔操作装置 |
| US5363185A (en) * | 1992-12-23 | 1994-11-08 | The United States Of America As Represented By The Secretary Of The Air Force | Method and apparatus for identifying three-dimensional coordinates and orientation to a robot |
| US6535794B1 (en) * | 1993-02-23 | 2003-03-18 | Faro Technologoies Inc. | Method of generating an error map for calibration of a robot or multi-axis machining center |
| US5408537A (en) * | 1993-11-22 | 1995-04-18 | At&T Corp. | Mounted connector pin test using image processing |
| JP3354321B2 (ja) * | 1994-11-08 | 2002-12-09 | 統市 渡辺 | 亜鉛めっき鋼板のスポット溶接自動組付け方法 |
| US5572102A (en) * | 1995-02-28 | 1996-11-05 | Budd Canada Inc. | Method and apparatus for vision control of welding robots |
| JP3476288B2 (ja) * | 1995-08-31 | 2003-12-10 | ファナック株式会社 | Yagカッティングツールを用いた立体加工装置 |
| WO1997040657A1 (en) * | 1996-04-23 | 1997-10-30 | Matsushita Electric Industrial Co., Ltd. | Electronic component mounting apparatus |
| JPH1076489A (ja) | 1996-09-02 | 1998-03-24 | Nippon Telegr & Teleph Corp <Ntt> | ロボットアーム教示方法及び装置 |
| US6044308A (en) * | 1997-06-13 | 2000-03-28 | Huissoon; Jan Paul | Method and device for robot tool frame calibration |
| US6236924B1 (en) * | 1999-06-21 | 2001-05-22 | Caterpillar Inc. | System and method for planning the operations of an agricultural machine in a field |
| CA2369845A1 (en) * | 2002-01-31 | 2003-07-31 | Braintech, Inc. | Method and apparatus for single camera 3d vision guided robotics |
-
2000
- 2000-12-07 JP JP2000373388A patent/JP2002172575A/ja active Pending
-
2001
- 2001-12-05 US US10/001,991 patent/US6763284B2/en not_active Expired - Lifetime
- 2001-12-06 EP EP01310214A patent/EP1215017B1/en not_active Expired - Lifetime
- 2001-12-06 DE DE60127644T patent/DE60127644T2/de not_active Expired - Fee Related
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7148442B2 (en) | 2004-03-04 | 2006-12-12 | Fanuc Ltd | Power supply device for electric discharge machining |
| DE102005048812B4 (de) * | 2005-10-10 | 2011-02-10 | Universität Stuttgart | Steuerung werkstückbearbeitender Maschinen |
| JP2008080466A (ja) * | 2006-09-28 | 2008-04-10 | Daihen Corp | 搬送用ロボットの教示方法 |
| JP2010506739A (ja) * | 2006-10-19 | 2010-03-04 | アーベーベー・アーゲー | ハンドリング装置をキャリブレートするシステムおよびその方法 |
| JP2010127719A (ja) * | 2008-11-26 | 2010-06-10 | Canon Inc | 作業システム及び情報処理方法 |
| JP2012517053A (ja) * | 2009-02-03 | 2012-07-26 | ファナック ロボティクス アメリカ コーポレイション | ロボットツールの制御方法 |
| US8706300B2 (en) | 2009-02-03 | 2014-04-22 | Fanuc Robotics America, Inc. | Method of controlling a robotic tool |
| CN102656419A (zh) * | 2009-11-20 | 2012-09-05 | 微-埃普西龙测量技术有限两合公司 | 用于自动的3d测量的机器人及方法 |
| CN102656419B (zh) * | 2009-11-20 | 2015-04-01 | 微-埃普西龙测量技术有限两合公司 | 用于自动的3d测量的机器人及方法 |
| JP2014075050A (ja) * | 2012-10-04 | 2014-04-24 | Kawasaki Heavy Ind Ltd | 加工システム、及びその加工方法 |
| JP2014083610A (ja) * | 2012-10-19 | 2014-05-12 | Yaskawa Electric Corp | ロボットシステムおよび加工品の製造方法 |
| CN103862472A (zh) * | 2012-12-18 | 2014-06-18 | 株式会社安川电机 | 示教数据生成装置、机器人系统以及示教数据生成方法 |
| CN105425721A (zh) * | 2015-11-10 | 2016-03-23 | 佛山市新恒萃材料科技有限公司 | 一种闭环式控制的智能示教方法及其装置 |
| CN106938470A (zh) * | 2017-03-22 | 2017-07-11 | 华中科技大学 | 一种机器人力控示教模仿学习的装置及方法 |
| CN106938470B (zh) * | 2017-03-22 | 2017-10-31 | 华中科技大学 | 一种机器人力控示教模仿学习的装置及方法 |
| CN109839075A (zh) * | 2017-11-29 | 2019-06-04 | 沈阳新松机器人自动化股份有限公司 | 一种机器人自动测量系统及测量方法 |
| JP2020146823A (ja) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | ロボットの部品ピッキングシステム |
| JP7275688B2 (ja) | 2019-03-15 | 2023-05-18 | 株式会社デンソーウェーブ | ロボットの部品ピッキングシステム |
| CN110480236A (zh) * | 2019-08-26 | 2019-11-22 | 中车石家庄车辆有限公司 | 铁路平车焊接定位装置、生产线及焊接方法 |
| CN110480236B (zh) * | 2019-08-26 | 2021-07-20 | 中车石家庄车辆有限公司 | 铁路平车焊接定位装置、生产线及焊接方法 |
| CN113752267A (zh) * | 2021-11-10 | 2021-12-07 | 山东捷瑞数字科技股份有限公司 | 一种机械臂路径规划方法及系统 |
| JP7433501B1 (ja) | 2023-05-31 | 2024-02-19 | 株式会社ダイヘン | 干渉判定装置 |
| JP2024172311A (ja) * | 2023-05-31 | 2024-12-12 | 株式会社ダイヘン | 干渉判定装置 |
| WO2024247250A1 (ja) * | 2023-06-02 | 2024-12-05 | ヤマハ発動機株式会社 | ロボットシステムおよびロボット教示方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP1215017A2 (en) | 2002-06-19 |
| US6763284B2 (en) | 2004-07-13 |
| US20030078694A1 (en) | 2003-04-24 |
| DE60127644D1 (de) | 2007-05-16 |
| EP1215017A3 (en) | 2005-08-31 |
| EP1215017B1 (en) | 2007-04-04 |
| DE60127644T2 (de) | 2007-07-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2002172575A (ja) | 教示装置 | |
| US10805546B2 (en) | Image processing system, image processing device, and image processing program | |
| KR100878127B1 (ko) | 몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템 | |
| JP3556589B2 (ja) | 位置姿勢認識装置 | |
| JP4844453B2 (ja) | ロボットの教示装置及び教示方法 | |
| JP2005106825A (ja) | 受像装置の位置および方向づけの決定方法および装置 | |
| JP2004508954A (ja) | 位置決め装置およびシステム | |
| CN106537185B (zh) | 借助于相交平面探测障碍物的装置和使用所述装置的探测方法 | |
| JP2006329903A (ja) | 3次元計測方法および3次元計測システム | |
| JP7366264B2 (ja) | ロボット教示方法及びロボット作業方法 | |
| JP7359633B2 (ja) | ロボットシステム | |
| US20190291276A1 (en) | Measurement system and method of an industrial robot | |
| US20240066701A1 (en) | Simulation device using three-dimensional position information obtained from output from vision sensor | |
| EP3744461B1 (en) | Weld operation measurement system | |
| JPS62206684A (ja) | パタ−ン投影による位置形状計測方法 | |
| JP6973233B2 (ja) | 画像処理システム、画像処理装置および画像処理プログラム | |
| US11630208B2 (en) | Measurement system, measurement method, and measurement program | |
| WO2019193859A1 (ja) | カメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラム | |
| KR20220110546A (ko) | 로봇을 프로그래밍하기 위한 방법 및 시스템 | |
| JP2001166881A (ja) | ポインティング装置及びその方法 | |
| US20250135641A1 (en) | Terminal device | |
| JP7660686B2 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
| US20240246237A1 (en) | Robot control device, robot control system, and robot control method | |
| Wieghardt et al. | Self-calibration of a mobile manipulator using structured light | |
| US20230330855A1 (en) | Robot system and method of controlling the robot system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040817 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041018 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050208 |