JPH08132373A - Coordinate system coupling method in robot-sensor system - Google Patents

Coordinate system coupling method in robot-sensor system

Info

Publication number
JPH08132373A
JPH08132373A JP29807594A JP29807594A JPH08132373A JP H08132373 A JPH08132373 A JP H08132373A JP 29807594 A JP29807594 A JP 29807594A JP 29807594 A JP29807594 A JP 29807594A JP H08132373 A JPH08132373 A JP H08132373A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
sensor
data
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29807594A
Other languages
Japanese (ja)
Other versions
JP3644991B2 (en
Inventor
Katsutoshi Takizawa
克俊 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP29807594A priority Critical patent/JP3644991B2/en
Publication of JPH08132373A publication Critical patent/JPH08132373A/en
Application granted granted Critical
Publication of JP3644991B2 publication Critical patent/JP3644991B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE: To couple a robot coordinate system with a sensor coordinate system without preparing a precise design data or special jig by determining the relative positional relation between the robot coordinate system and the sensor coordinate system by the soft ware processing based on a data for expressing the position on the robot coordinate system and a data showing the sensor output. CONSTITUTION: At least three positions R0 , R1 , R2 never arranged on one straight line are selected. In each measuring position, the position of a hole 54 is three-dimensionally measured by a sensor part 10. A sensor output data for expressing the result on a sensor coordinate system is gained. The same linear transformation relation is present between the sensor output data and the data for expressing each measuring position on a robot coordinate system. The matrix showing this linear transformation is a coordinate transformation matrix. The relation of coordinate transformation established for different measuring positions is considered as a simultaneous equations using an unknown matrix element, and this is solved to determine the relation between the sensor coordinate system and the robot coordinate system.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本願発明は、対象物の位置あるい
は位置と姿勢(以下、特に区別しない限り、両者併せて
単に「位置」と言う。)を3次元的に計測する3次元視
覚センサを用いたロボット−センサシステムにおいて、
ロボットが動作する座標系とセンサ側で得られる位置デ
ータの表現に使用される座標系とを結合する為の方法に
関する。本願発明の適用分野としては、例えば、工場の
製造ラインにおける組み立て作業、加工作業等に利用さ
れるロボットシステムがある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional visual sensor for three-dimensionally measuring the position or position and orientation of an object (hereinafter, both are simply referred to as "position" unless otherwise distinguished). In the robot-sensor system used,
The present invention relates to a method for connecting a coordinate system in which a robot operates and a coordinate system used to represent position data obtained on the sensor side. The field of application of the present invention is, for example, a robot system used for assembly work, processing work, etc. in a manufacturing line of a factory.

【0002】[0002]

【従来の技術】工場の製造ラインにおける組み立て作
業、加工作業等においては、作業の自動化・省力化を図
る為に、ロボット等の自動機械と視覚センサとを組み合
わせたシステムが利用されている。近年では特に作業対
象物であるワークの3次元位置計測が必要とされるケー
スが増加しており、物体の3次元位置が計測出来る3次
元視覚センサがロボットシステムに導入されている。
2. Description of the Related Art A system combining an automatic machine such as a robot and a visual sensor is used in order to automate and save labor in assembling work and processing work in a factory production line. In recent years, in particular, the number of cases where the three-dimensional position measurement of a work, which is a work target, is required is increasing, and a three-dimensional visual sensor capable of measuring the three-dimensional position of an object has been introduced into a robot system.

【0003】3次元視覚センサの代表的なものは、スリ
ット状の光を被計測対象物(以下、単に「対象物」と言
う。)に投射し、対象物上に周辺よりも高輝度の光帯を
形成し、これをCCDカメラ等のカメラ手段によって観
測し、三角測量の原理によって対象物の3次元計測を行
なうものである。
A typical three-dimensional visual sensor projects slit-shaped light onto an object to be measured (hereinafter, simply referred to as "object"), and has a higher brightness than the surroundings on the object. A band is formed, this is observed by a camera means such as a CCD camera, and the object is three-dimensionally measured by the principle of triangulation.

【0004】このような3次元視覚センサを用いてワー
クの位置を計測し、それに基づいてロボットの動作を補
正する場合、センサの出力するワークの位置データをロ
ボットが動作する座標系上のデータに変換することが必
要となる。従って、センサ側の計測データの表現に使用
される座標系((以下、「センサ座標系」と言う。)
と、ロボットが動作する座標系(以下、「ロボット座標
系」と言う。)の間の関係を予め求めておかなければな
らない。
When the position of the work is measured by using such a three-dimensional visual sensor and the motion of the robot is corrected based on the measured position, the work position data output by the sensor is converted into data on the coordinate system in which the robot operates. It will need to be converted. Therefore, the coordinate system used to represent the measurement data on the sensor side ((hereinafter, referred to as “sensor coordinate system”).
And the coordinate system in which the robot operates (hereinafter referred to as "robot coordinate system") must be obtained in advance.

【0005】従来より、センサ座標系とロボット座標系
の関係を求める方法として次の2つの方法があった。 (1)ロボットの手先(フェイスプレート)に対して既
知の位置にセンサに取り付ける方法。 (2)座標系結合用に専用のジグを使用する。
Conventionally, there have been the following two methods for obtaining the relationship between the sensor coordinate system and the robot coordinate system. (1) A method of attaching the sensor to a known position on the hand (face plate) of the robot. (2) Use a dedicated jig for connecting coordinate systems.

【0006】(1)の方法は、ロボット手先に対するセ
ンサ取り付け位置(正確に言えば、センサ座標系の原点
位置)が既知となるようにセンサを取り付ける方法で、
センサ座標系とロボット座標系の関係は、取り付け位置
に関する幾何学的なデータで表わされる。このデータと
して通常使われるのは、設計データ(設計図面上のデー
タ)である。その為、当初は設計データが正確にセンサ
の取り付け位置を表わしていたとしても、ロボットとワ
ーク等の衝突等の原因でセンサの取り付け位置に狂いが
生じた場合に適切な対処法が無い。一旦狂ったセンサの
取り付け位置を元の状態に復元することや、元の状態か
らのずれ量を知ることは極めて困難である。
The method (1) is a method of mounting the sensor so that the sensor mounting position with respect to the robot hand (to be exact, the origin position of the sensor coordinate system) is known.
The relationship between the sensor coordinate system and the robot coordinate system is represented by geometrical data regarding the mounting position. Design data (data on a design drawing) is usually used as this data. Therefore, even if the design data accurately represent the mounting position of the sensor at the beginning, there is no appropriate countermeasure when the mounting position of the sensor is misaligned due to a collision between the robot and the work. It is extremely difficult to restore the mounting position of the sensor that has gone wrong to the original state and to know the amount of deviation from the original state.

【0007】また、実際のセンサ座標系はカメラの光学
系を基準とした座標系であり、その座標系の原点はカメ
ラの内部(レンズ系の焦点位置)に存在するから、レン
ズ系の焦点調整を行なうだけでセンサ座標系の位置が変
化する。従って、設計データで表わされたロボット手先
に対するセンサ取り付け位置からロボット座標系とセン
サ座標系の位置関係を正確に知ることは実際には困難で
ある。
The actual sensor coordinate system is a coordinate system based on the optical system of the camera, and the origin of the coordinate system is inside the camera (focal position of the lens system). Therefore, the focus adjustment of the lens system is performed. The position of the sensor coordinate system changes only by performing. Therefore, it is actually difficult to accurately know the positional relationship between the robot coordinate system and the sensor coordinate system from the sensor attachment position for the robot hand represented by the design data.

【0008】(2)の方法では座標系結合の為に専用の
ジグが使用される。このジグには、センサで計測が可能
な穴などのマークと、ロボットがタッチアップする為の
点が両者の位置関係が既知となるように設けられてい
る。
In the method (2), a dedicated jig is used for connecting the coordinate systems. This jig is provided with marks such as holes that can be measured by a sensor and points for the robot to touch up so that the positional relationship between the two is known.

【0009】実際の操作にあたっては、先ずセンサを用
いてマークの位置を計測することにより、ジグとセンサ
座標系の位置関係を求める。次に、ロボットでジグ上の
タッチアップ点をタッチアップすることにより、ロボッ
ト座標系とジグとの位置関係を知る。そして、これら2
つの位置関係から、ジグを媒介にしてロボット座標系と
センサ座標系の位置関係が求められる。
In the actual operation, first, the position of the mark is measured by using a sensor to obtain the positional relationship between the jig and the sensor coordinate system. Then, the robot touches up a touch-up point on the jig to know the positional relationship between the robot coordinate system and the jig. And these 2
From the one positional relationship, the positional relationship between the robot coordinate system and the sensor coordinate system is obtained through a jig.

【0010】この方法は、常に専用のジグを要するとい
う問題点がある。また、座標系結合後に設置されたロボ
ットシステムにおいて、ロボットをワークなどにぶつけ
るなどの理由でセンサ座標系の位置に狂いが生じた場合
には、座標系結合をやり直す必要があるが、工場の生産
現場等の設置環境によっては、専用のジグを設置して上
記操作を支障なく実行する為のスペース(ジグ設置の為
のスペースとロボットにタッチアップ動作を安全に行な
わせる為のスペース)を確保することが難しい場合も少
なくない。
This method has a problem that a dedicated jig is always required. Also, in the robot system installed after the coordinate system is connected, if the position of the sensor coordinate system is misaligned due to the robot hitting a workpiece, etc., it is necessary to redo the coordinate system connection. Depending on the installation environment at the site, etc., secure a space to install the dedicated jig and perform the above operations without any hindrance (space for jig installation and space for robot to perform touch-up operation safely). In many cases it is difficult.

【0011】[0011]

【発明が解決しようとする課題】そこで、本願発明の一
つの目的は、正確な設計データや特別のジグを用意する
必要のないロボット座標系とセンサ座標系の結合方法を
提供することにある。また、本願発明のもう一つ目的
は、ロボットの干渉時等に必要となる座標系結合の再実
行が容易なロボット座標系とセンサ座標系の結合方法を
提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method for connecting a robot coordinate system and a sensor coordinate system that does not require the provision of accurate design data or special jigs. Another object of the present invention is to provide a method for connecting a robot coordinate system and a sensor coordinate system, which makes it easy to re-execute the coordinate system connection required when the robots interfere with each other.

【0012】[0012]

【課題を解決するための手段】本願発明は上記従来技術
における種々の問題点を解決する為の基本構成として、
「ロボットと該ロボットに支持された3次元視覚センサ
を含むロボット−センサシステムにおける座標系結合方
法において、一直線上に並ばない少なくとも3つの位置
で、センサ座標系上で同一対象物に関する位置を表わす
センサ出力を得る段階と、前記3つの位置をロボット座
標系上で表現するデータと前記センサ出力を表わすデー
タに基づくソフトウェア処理によって、ロボット座標系
とセンサ座標系の相対的な位置関係を求める段階を含む
前記方法」を提案したものである。
The present invention has the following basic configuration for solving various problems in the above-mentioned prior art.
In a coordinate system coupling method in a robot-sensor system including a robot and a three-dimensional visual sensor supported by the robot, at least three positions that are not aligned on a straight line are sensors that represent a position related to the same object on the sensor coordinate system. The step of obtaining an output and the step of obtaining a relative positional relationship between the robot coordinate system and the sensor coordinate system by software processing based on the data expressing the three positions on the robot coordinate system and the data expressing the sensor output. The above method ”is proposed.

【0013】更に、上記少なくとも3つの位置間の移動
について、「ロボット座標系の座標軸の正あるいは負方
向に沿った移動によって実行され得る」と言う要件を更
に課した前記方法を提案した。
Further, the above-mentioned method has been proposed which further imposes the requirement that the movement between the at least three positions can be performed by moving along the positive or negative direction of the coordinate axes of the robot coordinate system.

【0014】また、上記少なくとも3つの位置につい
て、それらが予めロボットに教示しておく前記方法を併
せて提案した。
Further, the above method of teaching the robot in advance for at least the above-mentioned three positions was also proposed.

【0015】[0015]

【作用】本願発明は、ロボットとロボットに支持された
3次元視覚センサを含むロボット−センサシステムにお
いてセンサ座標系とロボット座標系とを結合する方法を
提供する。計測位置としては、一直線上に並ばない少な
くとも3つの位置が選ばれる。計測位置間の移動はロボ
ットの動作によって行なわれる。
The present invention provides a method for coupling a sensor coordinate system and a robot coordinate system in a robot-sensor system including a robot and a three-dimensional visual sensor supported by the robot. At least three positions that are not aligned on a straight line are selected as the measurement positions. The movement between the measurement positions is performed by the operation of the robot.

【0016】少なくとも3つの計測位置として好ましい
のは、それらの位置間の移動が、ロボット座標系の座標
軸の正あるいは負方向に沿った移動によって実行され得
る関係にあることである。例えば、第1の計測位置から
第2の計測位置に向かうベクトルがロボット座標系のX
軸の+方向に選ばれ、第2の計測位置から第3の計測位
置に向かうベクトルがロボット座標系のY軸の+方向に
選ばれる。これら計測位置間の移動は、予めロボットに
教示した位置間を再生運転によって移動させることで実
行されても良い。
A preference for at least three measurement positions is such that the movement between these positions is such that they can be carried out by a movement along the positive or negative direction of the coordinate axes of the robot coordinate system. For example, the vector from the first measurement position to the second measurement position is X in the robot coordinate system.
A vector that is selected in the + direction of the axis and goes from the second measurement position to the third measurement position is selected in the + direction of the Y axis of the robot coordinate system. The movement between the measurement positions may be executed by moving the positions taught to the robot in advance by the reproduction operation.

【0017】各計測位置においては、同一対象物に関す
る3次元位置計測が行なわれ、その結果をセンサ座標系
上で表現するセンサ出力データが獲得される。これらの
センサ出力データと各計測位置をロボット座標系上で表
現するデータ(各計測位置におけるロボットの位置デー
タが使用出来る。)の間には、同一の線形変換関係が存
在する。この線形変換を表わす行列が座標変換行列であ
る。
At each measurement position, three-dimensional position measurement for the same object is performed, and sensor output data expressing the result on the sensor coordinate system is acquired. The same linear conversion relationship exists between these sensor output data and the data expressing each measurement position on the robot coordinate system (the position data of the robot at each measurement position can be used). The matrix representing this linear transformation is the coordinate transformation matrix.

【0018】異なる計測位置について成立する座標変換
の関係を行列要素を未知数とする連立方程式と考えてこ
れを解けば、センサ座標系とロボット座標系の関係を求
めることが出来る。3つの計測位置として、それらの位
置間の移動が、ロボット座標系の座標軸の正あるいは負
方向に沿った移動によって実行され得る関係にある場合
には、行列要素を個別に求めることも可能になる(実施
例を参照。この場合も、数学的には上記連立方程式を解
くことと等価である)。
The relationship between the sensor coordinate system and the robot coordinate system can be obtained by considering the relationship of coordinate transformations established at different measurement positions as a simultaneous equation with matrix elements as unknowns and solving it. As the three measurement positions, if the movement between these positions is in a relation that can be executed by the movement along the positive or negative direction of the coordinate axis of the robot coordinate system, it becomes possible to individually obtain the matrix elements. (See Examples. Again, this is mathematically equivalent to solving the system of equations above).

【0019】3次元視覚センサとして代表的なものは、
スリット光投光器と1台のカメラとを組み合わせた型の
ものであるが、他の型の3次元視覚センサ(例えば、2
台の視線方向の異なるカメラを使用したもの)が使用さ
れても構わない。
A typical three-dimensional visual sensor is
Although it is of a type in which a slit light projector and one camera are combined, another type of three-dimensional visual sensor (for example, 2
A camera using cameras with different line-of-sight directions) may be used.

【0020】本願発明の方法は、座標系結合が行なわれ
る対象とされるロボットと3次元視覚センサそのものの
機能を利用して座標系結合が達成される点に基本的な特
徴がある。本願発明の方法は、正確な設計データや特別
のジグを必要としない。従って、一旦座標系結合を行な
ったロボットの稼働中に干渉等によってセンサ座標系の
位置に狂いが生じても、簡単にセンサ座標系とロボット
座標系の再結合を実行することが出来る。
The method of the present invention is basically characterized in that the coordinate system coupling is achieved by utilizing the functions of the robot to be coordinate system coupled and the three-dimensional visual sensor itself. The method of the present invention does not require accurate design data or special jigs. Therefore, even if the position of the sensor coordinate system is misaligned due to interference or the like during the operation of the robot that has once been connected to the coordinate system, the sensor coordinate system and the robot coordinate system can be easily reconnected.

【0021】[0021]

【実施例】図1は、本願発明の方法が実施されるロボッ
ト−センサシステムの構成の概要を例示した要部ブロッ
ク図である。システム全体は、ロボットコントローラ
1、画像処理装2、センサ部コントローラ3、センサ部
10、ロボット20から構成されている。ロボットコン
トローラ1にはロボット20と画像処理装2が接続され
ている。画像処理装置2には、センサ部コントローラ3
が接続されている。センサ部コントローラ3はセンサ部
10に接続されており、センサ部10のレーザスリット
光13を出射する投光器11に出射指令を出力する。以
下、各部分について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing the outline of the configuration of a robot-sensor system in which the method of the present invention is implemented. The entire system includes a robot controller 1, an image processing device 2, a sensor unit controller 3, a sensor unit 10, and a robot 20. A robot 20 and an image processing device 2 are connected to the robot controller 1. The image processing device 2 includes a sensor controller 3
Is connected. The sensor unit controller 3 is connected to the sensor unit 10 and outputs an emission command to the projector 11 that emits the laser slit light 13 of the sensor unit 10. Hereinafter, each part will be described.

【0022】[視覚センサ部]センサ部10は、投光器
11とカメラ(例えば、CCDカメラ)を備えている。
投光器11は、スリット状のレーザ光を対象物4上に投
影する機能を備えている。カメラ12は、投光器11を
点灯しスリット光を投影した状態における撮影と投光器
11を消灯し通常照明下における撮影とを行なうことが
出来る。前者の撮影時には、三角測量の原理に基づいて
3次元位置の計測が行なわれる。また、後者の撮影時に
は、通常の明暗画像が取得される。
[Visual Sensor Unit] The sensor unit 10 includes a light projector 11 and a camera (for example, a CCD camera).
The light projector 11 has a function of projecting a slit-shaped laser beam onto the object 4. The camera 12 can perform shooting under the condition that the projector 11 is turned on and the slit light is projected, and shooting under normal illumination by turning off the projector 11. At the time of photographing the former, the three-dimensional position is measured based on the principle of triangulation. In the latter case, a normal bright / dark image is acquired.

【0023】投光器11は、センサ部コントローラ3か
らの出射指令に応じてレーザ光を発生し、スリット状の
レーザスリット光13に変換して対象物4上に投影す
る。これにより、対象物4上にはスリット光像14が形
成され、反射光15がカメラ12で撮像される。
The light projector 11 generates a laser beam in response to an emission command from the sensor section controller 3, converts it into a slit-shaped laser slit beam 13 and projects it on the object 4. As a result, the slit light image 14 is formed on the object 4, and the reflected light 15 is captured by the camera 12.

【0024】投光器11によるレーザスリット光13の
オン/オフ状態の切換及び投光方向の制御は、投光器1
1に内蔵された偏向ミラー(図示省略)の角度位置を制
御することによって行なわれる。偏向ミラーの角度位置
を定める指令は、画像処理装置2からセンサ部コントロ
ーラ3を介して投光器11に与えられる。偏向ミラーの
角度位置を順次変えることにより、対象物4上の異なる
位置にレーザスリット光像14が形成される。
The switching of the on / off state of the laser slit light 13 and the control of the projection direction by the projector 11 are performed by the projector 1.
This is performed by controlling the angular position of a deflection mirror (not shown) incorporated in the No. 1 unit. A command for determining the angular position of the deflection mirror is given from the image processing device 2 to the light projector 11 via the sensor unit controller 3. By sequentially changing the angular position of the deflection mirror, the laser slit light image 14 is formed at different positions on the object 4.

【0025】対象物4の所定の面上にスリット光像14
が形成された状態で、画像処理装置2からセンサ部コン
トローラ3を介してカメラ12に撮影指令が送られる
と、カメラ12はレーザスリット光像14の反射光15
を撮像する。取得された画像信号は、センサ部コントロ
ーラ3を介して画像処理装置2へ送られる。
A slit light image 14 is formed on a predetermined surface of the object 4.
When a shooting command is sent from the image processing apparatus 2 to the camera 12 via the sensor unit controller 3 in the state where the image is formed, the camera 12 causes the reflected light 15 of the laser slit light image 14 to be reflected.
Is imaged. The acquired image signal is sent to the image processing apparatus 2 via the sensor unit controller 3.

【0026】画像処理装置2では、カメラインターフェ
イスを介して取り込まれた画像信号を、濃淡グレイスケ
ールによる明暗信号に変換した上でフレームメモリに格
納する。
In the image processing apparatus 2, the image signal taken in through the camera interface is converted into a light / dark signal based on a gray scale and then stored in the frame memory.

【0027】画像処理装置2は、画像処理プロセッサを
利用してレーザスリット像を解析し、三角測量の原理に
基づいて、その屈曲点、端点等の3次元位置が求められ
る。このような3次元位置計測方法自体は既に知られて
いるものであるから、詳しい説明は省略する。前記屈曲
点、端点等の3次元位置から、対象物4の位置及び姿勢
が認識され、その情報がロボットコントローラ1に送ら
れる。
The image processing apparatus 2 analyzes the laser slit image by using the image processor, and obtains the three-dimensional positions such as the bending point and the end point based on the principle of triangulation. Since such a three-dimensional position measuring method itself is already known, detailed description thereof will be omitted. The position and orientation of the object 4 are recognized from the three-dimensional position such as the bending point and the end point, and the information is sent to the robot controller 1.

【0028】センサ部10は、画像処理装置2からのレ
ーザ光出射指令をオフにし、通常照明光あるいは自然光
の下で対象物4の撮影を行ないうことも出来る。このよ
うな通常撮影によって得られた画像は、レーザスリット
像と同様、濃淡グレースケールによる明暗信号に変換さ
れてフレームメモリに格納される。この画像には、対象
物4の表面に明暗として現われている細部の情報が含ま
れている。
The sensor unit 10 can also turn off the laser beam emission command from the image processing apparatus 2 and photograph the object 4 under normal illumination light or natural light. An image obtained by such a normal photographing is converted into a light and dark signal based on a light and shade gray scale and stored in the frame memory, similarly to the laser slit image. This image contains detailed information that appears as light and dark on the surface of the object 4.

【0029】[ロボットコントローラ及びロボット]ロ
ボットコントローラ1は通常使用されている型のもの
で、マイクロプロセッサからなる中央演算処理装置(以
下、「CPU」と言う。)と、CPUにバス結合された
ROMメモリ、RAMメモリ、教示操作盤、ロボットの
軸制御器、汎用信号インターフェイス等を備えている。
[Robot Controller and Robot] The robot controller 1 is of a commonly used type and includes a central processing unit (hereinafter referred to as "CPU") including a microprocessor and a ROM connected to the CPU by a bus. A memory, a RAM memory, a teaching operation panel, a robot axis controller, a general-purpose signal interface, etc. are provided.

【0030】ROMメモリには、システム全体を制御す
るプログラムが格納される。ROMメモリには、ロボッ
ト動作や画像処理装置への指令送信、画像処理装置から
の画像解析結果の受信等を制御するプログラム、関連設
定値等が格納され、また、CPUによる演算実行時の一
時記憶用のメモリや必要に応じて設定されるレジスタ領
域としても使用される。軸制御器は、ロボット20の各
軸をサーボ回路を介して制御する。汎用信号インターフ
ェイスは、画像処理装置2やオフラインプログラミング
装置、製造ラインの制御部等に対する入出力装置の役割
を果たす。これら個別要素の図示及び詳しい説明は省略
する。
A program for controlling the entire system is stored in the ROM memory. The ROM memory stores a program for controlling robot operations, command transmission to the image processing apparatus, reception of image analysis results from the image processing apparatus, related set values, and the like, and temporary storage during execution of calculation by the CPU. It is also used as a memory and a register area that is set as needed. The axis controller controls each axis of the robot 20 via a servo circuit. The general-purpose signal interface serves as an input / output device for the image processing device 2, the offline programming device, the control unit of the manufacturing line, and the like. Illustration and detailed description of these individual elements are omitted.

【0031】ロボット20の動作は、ロボットコントロ
ーラ1のメモリに格納された動作プログラムによって制
御される。ロボット20は、アーム21,22,23を
備え、アーム23の先端にセンサ部10が装着されてい
る。ロボット20を動作させることにより、センサ部1
0をロボット20の動作範囲内の任意の位置に任意の姿
勢で位置決めすることが出来る。なお、アーム23の先
端には、センサ部10と並んで作業用のハンドが装着さ
れているが、図示を省略した。
The operation of the robot 20 is controlled by an operation program stored in the memory of the robot controller 1. The robot 20 includes arms 21, 22, and 23, and the sensor unit 10 is attached to the tip of the arm 23. By operating the robot 20, the sensor unit 1
0 can be positioned at any position within the movement range of the robot 20 in any posture. Although a working hand is attached to the tip of the arm 23 side by side with the sensor unit 10, the illustration is omitted.

【0032】図2は、以上説明した構成と機能を有する
ロボット−センサシステムを小型ロボットの組み立て作
業に利用するケースを例にとり、本願発明の方法を適用
してセンサ座標系とロボット座標系の関係を求めるプロ
セスを説明する為の全体配置である。
FIG. 2 shows the relationship between the sensor coordinate system and the robot coordinate system by applying the method of the present invention, taking as an example the case where the robot-sensor system having the above-described structure and function is used for the assembly work of a small robot. It is an overall arrangement for explaining the process for obtaining.

【0033】同図において、図1と共通の符号をもって
指示した要素、即ち、ロボットコントローラ1、画像処
理装2、センサ部コントローラ3、センサ部10及びロ
ボット20の構成、機能及び接続関係については、既に
説明した通りである。
In the figure, the elements designated by the same reference numerals as those in FIG. 1, namely, the configurations, functions and connection relationships of the robot controller 1, the image processing device 2, the sensor unit controller 3, the sensor unit 10 and the robot 20 are as follows. As already explained.

【0034】先ず、ここで作業例として取り上げられた
小型ロボットの組み立て作業の概要について簡単に説明
する。図1における対象物4は、作業空間内に次々と供
給される組み立て工程中の小型ロボットの機構部の一部
分5(以下、「機構部5」と略称する。)として示され
ている。機構部5は、ベース50とその回転軸51の周
りに回転するアーム52を含んでいる。その為、ロボッ
トハンドHに把持された減速機、モータ等の部品6(以
下、「取り付け部品」と言う。)が取り付けられる取り
付け面53の位置・姿勢が供給される機構部5毎にばら
つく。同時に、取り付け部品の凸部が差し込まれる穴5
4の位置・姿勢にも同様のばらつきによる位置ずれが発
生する。
First, a brief description will be given of the outline of the assembling work of the small robot, which is taken up here as a work example. The object 4 in FIG. 1 is shown as a part 5 (hereinafter, abbreviated as "mechanism part 5") of the mechanism part of the small robot during the assembly process which is successively supplied into the work space. The mechanism unit 5 includes a base 50 and an arm 52 that rotates around a rotation axis 51 thereof. Therefore, the position / orientation of the attachment surface 53 to which the components 6 (hereinafter, referred to as “attachment components”) such as the speed reducer and the motor gripped by the robot hand H are attached vary depending on the supplied mechanical units 5. At the same time, the hole 5 into which the convex part of the mounting part is inserted
The position / orientation of No. 4 also causes a positional deviation due to similar variations.

【0035】そこで、図2中、位置ずれを補正して部品
6の組み付け作業を実行する為に、スリット光を投光し
た下で行なわれる3次元計測と通常撮影による画像の解
析を組み合わせて、機構部5の穴54の位置・姿勢が求
められ、それに基づいてロボットの動作が補正される。
Therefore, in FIG. 2, in order to correct the positional deviation and to assemble the component 6, the three-dimensional measurement performed under the projection of the slit light and the image analysis by the normal photographing are combined. The position / orientation of the hole 54 of the mechanism unit 5 is obtained, and the operation of the robot is corrected based on the position / orientation.

【0036】機構部50の取り付け面53上にレーザス
リット光像61,52が順次形成され、カメラ12によ
る撮影が実行される。レーザスリット光像61,52を
含む画像は、画像処理装置内で解析され、取り付け面5
3の外縁上の諸点に対応した屈曲点P1 ,P2 及び端点
Q1 ,Q2 の3次元位置が計算される。その結果に基づ
いて取り付け面53の位置・方向が計算され、更に、基
準位置・方向からのずれが計算される。
Laser slit light images 61 and 52 are sequentially formed on the mounting surface 53 of the mechanism portion 50, and the camera 12 takes an image. The image including the laser slit light images 61 and 52 is analyzed in the image processing device, and the mounting surface 5 is analyzed.
Three-dimensional positions of bending points P1 and P2 and end points Q1 and Q2 corresponding to points on the outer edge of 3 are calculated. The position / direction of the mounting surface 53 is calculated based on the result, and further the deviation from the reference position / direction is calculated.

【0037】次いで、ロボット20を取り付け面53に
正対する位置に移動させ、通常撮影を行なう。画像処理
装置2に取り込まれた通常画像は画像処理プロセッサを
用いて解析され、穴54の中心位置を求める。その結果
と取り付け面53の位置・姿勢に基づき、穴54の3次
元的な位置・姿勢と基準位置・姿勢からのずれが算出さ
れ、ロボットの位置・姿勢(即ち、ツール先端点Tの位
置・姿)を補正した動作が実行される。
Next, the robot 20 is moved to a position directly facing the mounting surface 53, and normal photographing is performed. The normal image captured by the image processing device 2 is analyzed using an image processor to determine the center position of the hole 54. Based on the result and the position / orientation of the mounting surface 53, the three-dimensional position / orientation of the hole 54 and the deviation from the reference position / orientation are calculated, and the position / orientation of the robot (that is, the position of the tool tip point T / The figure is corrected.

【0038】上記プロセスの中で、視覚センサ側(画像
処理装置内)で得られる取り付け面53や穴54の位置
・姿勢あるいはそのずれ量を表わすデータ(センサ座標
系上で表現されたデータ)をロボット座標系上で表現さ
れたデータに変換する処理が実行される。
In the above process, the data (data expressed on the sensor coordinate system) representing the position / orientation of the mounting surface 53 and the hole 54 or the amount of deviation thereof obtained on the side of the visual sensor (in the image processing apparatus) is obtained. A process of converting into data expressed on the robot coordinate system is executed.

【0039】以下、その為に必要なセンサ座標系とロボ
ット座標系の結合を本願発明に従って実行するプロセス
の概要を図3のフローチャートを参照図に加えて説明す
る。
The outline of the process for executing the connection of the sensor coordinate system and the robot coordinate system required for that purpose according to the present invention will be described below with reference to the flowchart of FIG.

【0040】なお、準備として、1つの機構部5(例え
ば、最初に供給される機構部5)が適当な位置(組立作
業時と同じ位置が好ましい。)に位置決めされているも
のとする。位置決め後に面53の向きが変わることは無
いものとする。また、各ステップにおいて必要となる計
算処理等は、ロボットコントローラ1あるいは画像処理
装置2のメモリに格納されたプログラムを利用したソフ
トウェア処理によって遂行される。
As a preparation, it is assumed that one mechanism portion 5 (for example, the mechanism portion 5 initially supplied) is positioned at an appropriate position (the same position as that at the time of assembly work is preferable). It is assumed that the orientation of the surface 53 does not change after the positioning. Further, the calculation processing and the like required in each step are performed by software processing using a program stored in the memory of the robot controller 1 or the image processing apparatus 2.

【0041】先ず、ロボット20を移動させ、穴54の
計測に適した位置にセンサ部10を位置決めする(ステ
ップS1)。この時のロボット20の位置(ツール先端
点Tの位置、以下同じ。)をR0 (X0 ,Y0 ,Z0 )
とする。
First, the robot 20 is moved to position the sensor unit 10 at a position suitable for measuring the hole 54 (step S1). At this time, the position of the robot 20 (the position of the tool tip point T, the same applies hereinafter) is set to R0 (X0, Y0, Z0).
And

【0042】位置R0 で穴54の3次元位置計測を行な
い、得られた結果を位置R0 のデータ(X0 ,Y0 ,Z
0 )と共に画像処理装置2内のメモリに記憶する(ステ
ップS2)。位置計測の手順は既に述べた通りであるか
ら、説明を省略する。この時センサで計測された位置
(センサ座標系上で表わされた位置)をp0 (x0 ,y
0 ,z0 )とする。
The three-dimensional position of the hole 54 is measured at the position R0, and the obtained result is used as the data (X0, Y0, Z) at the position R0.
0) and the image data are stored in the memory in the image processing apparatus 2 (step S2). The procedure for position measurement is as already described, so the description is omitted. At this time, the position measured by the sensor (the position represented on the sensor coordinate system) is p0 (x0, y
0, z0).

【0043】次に、ロボット20をロボット座標系の1
つの座標軸の方向(+方向または−方向)に適当な距離
だけ移動させる。ここでは、位置R0 からX軸方向にd
Xだけ変位させた位置R1 へ移動させる(ステップS
3)。位置R1 のロボット座標系上の座標値は(X0 +
dX,Y0 ,Y0 )となる。位置R1 で再度穴54の3
次元位置計測を行ない、位置R1 のデータ(X0 +d
X,Y0 ,Z0 )と共に得られた結果を画像処理装置2
内のメモリに記憶する(ステップS4)。この時、セン
サで計測された位置(センサ座標系上で表わされた位
置)をp1 (x1 ,y1 ,z1 )とする。
Next, the robot 20 is set to 1 in the robot coordinate system.
Move by the appropriate distance in the direction of one coordinate axis (+ direction or-direction). Here, d from the position R0 in the X-axis direction
It is moved to the position R1 displaced by X (step S
3). The coordinate value of the position R1 on the robot coordinate system is (X0 +
dX, Y0, Y0). Position R1 again hole 54 3
Dimensional position measurement is performed, and the data of position R1 (X0 + d
X, Y0, Z0) and the result obtained with the image processing apparatus 2
It is stored in the internal memory (step S4). At this time, the position measured by the sensor (the position represented on the sensor coordinate system) is p1 (x1, y1, z1).

【0044】更に、ロボット20をロボット座標系のも
う1つの座標軸の方向(+方向または−方向)に適当な
距離だけ移動させる。ここでは、位置R1 からY軸方向
にdYだけ変位させた位置R2 へ移動させる(ステップ
S5)。位置R2 のロボット座標系上の座標値は(X0
+dX,Y0 +dY,Z0 )となる。R2 で穴54の3
次元位置計測を更に再び実行し、得られた結果を位置R
2 のデータ(X0 +dX,Y0 +dY,Z0 )と共に画
像処理装置2内のメモリに記憶する(ステップS6)。
この時、センサで計測された位置(センサ座標系上で表
わされた位置)をp1 (x2 ,y2 ,z2 )とする。
Further, the robot 20 is moved by an appropriate distance in the direction (+ direction or − direction) of the other coordinate axis of the robot coordinate system. Here, it is moved from the position R1 to the position R2 displaced by dY in the Y-axis direction (step S5). The coordinate value of the position R2 on the robot coordinate system is (X0
+ DX, Y0 + dY, Z0). R2, hole 54-3
Dimensional position measurement is performed again, and the obtained result is calculated as position R
The data (2) (X0 + dX, Y0 + dY, Z0) is stored in the memory in the image processing apparatus 2 (step S6).
At this time, the position measured by the sensor (the position represented on the sensor coordinate system) is p1 (x2, y2, z2).

【0045】一般には、以上のような位置計測は、少な
くとも3回実行される。また、原理的に言えば、位置R
0 からR1 、R1 からR2 の変位は、必ずしもロボット
座標系の座標軸に沿っていなくとも良い。但し、R0 ,
R1 ,R1 の3点が一直線上に並ばないように選ばれ
る。本実施例では、ロボット移動や後述する座標変換行
列の計算が簡単となる移動方法の1つを選んだ。
Generally, the above position measurement is performed at least three times. Also, in principle, position R
The displacements of 0 to R1 and R1 to R2 do not necessarily have to be along the coordinate axes of the robot coordinate system. However, R0,
The three points R1 and R1 are selected so that they do not line up in a straight line. In the present embodiment, one of the movement methods that facilitates the movement of the robot and the calculation of the coordinate conversion matrix described later is selected.

【0046】以上のような位置計測によって、穴54の
3次元位置に関し、(少なくとも)3組のセンサデータ
(センサ座標系上で表現されている。)と、各センサデ
ータを得た時のロボット位置(ロボット座標系上で表現
されている。)が用意されたことになる。
With the above-described position measurement, with respect to the three-dimensional position of the hole 54, (at least) three sets of sensor data (expressed on the sensor coordinate system) and the robot when each sensor data is obtained. The position (represented on the robot coordinate system) is prepared.

【0047】そこで、続くステップS7で、これらのデ
ータに基づいて、センサ座標系とロボット座標系の間の
関係を表わす座標変換行列を求め、画像処理装置2内の
メモリに記憶し、処理を終了する。座標系の結合が終了
したロボット−センサシステムを用いて、前記説明した
組立作業を実行すれば、供給される機構部5毎に3次元
位置計測が行なわれ、機構部5の位置ずれを補正したロ
ボット動作が実現される。
Then, in a succeeding step S7, a coordinate conversion matrix representing the relationship between the sensor coordinate system and the robot coordinate system is obtained based on these data, stored in the memory in the image processing apparatus 2, and the processing is completed. To do. If the assembly work described above is executed using the robot-sensor system in which the coordinate systems have been connected, three-dimensional position measurement is performed for each mechanical unit 5 supplied, and the positional deviation of the mechanical unit 5 is corrected. Robot movement is realized.

【0048】次に、ステップS7において、座標変換行
列を求める為に実行される計算について説明する。ロボ
ット20を位置R0 (X0 ,Y0 ,Z0 )からR1 (X
0 +dX,Y0 ,Z0 )に移動させることは、センサか
ら見れば、穴54がロボット座標系のX軸方法に−dX
変位することと等価である。
Next, the calculation executed to obtain the coordinate transformation matrix in step S7 will be described. Move the robot 20 from position R0 (X0, Y0, Z0) to R1 (X
0 + dX, Y0, Z0) means that the hole 54 is -dX to the X-axis method of the robot coordinate system from the viewpoint of the sensor.
It is equivalent to displacing.

【0049】従って、位置R1 においてセンサが出力し
た位置p1 (x1 ,y1 ,z1 )から位置R0 において
センサが出力した位置p0 (x0 ,y0 ,z0 )へ向か
うベクトルの方向が、ロボット座標系のX軸の方向を表
わしている。従って、ロボット座標系のX軸の方向は、
センサ座標系上で(x0 −x1 ,y0 −y1 ,z0 −z
1 )で表わされるベクトルの方向と一致する。同様に、
ロボット座標系のY軸の方向は、センサ座標系上で(x
1 −x2 ,y1 −y2 ,z1 −z2 )で表わされるベク
トルの方向と一致する。
Therefore, the direction of the vector from the position p1 (x1, y1, z1) output by the sensor at the position R1 to the position p0 (x0, y0, z0) output by the sensor at the position R0 is X in the robot coordinate system. It represents the direction of the axis. Therefore, the direction of the X axis of the robot coordinate system is
On the sensor coordinate system (x0-x1, y0-y1, z0-z
It agrees with the direction of the vector represented by 1). Similarly,
The direction of the Y axis in the robot coordinate system is (x
1−x2, y1−y2, z1−z2) coincides with the direction of the vector.

【0050】これらのベクトルを各々のノルムで除した
単位ベクトルをn1 (n1x,n1y,n1z),n2 (n2
x,n2y,n2z)とすれば、ロボット座標系のZ軸の方
向を表わす単位ベクトルは、n1 とn2 の外積n1 ×n
2 で与えられる。これをベクトルn3 (n3x,n3y,n
3z)とする。また、センサ座標系上で表わしたロボット
座標系の原点位置は、ベクトルn1 ,n2 で表わされる
2本の直線の交点位置として求められる。これをn0
(n0x,n0y,n0z)で表わす。
Unit vectors obtained by dividing these vectors by the respective norms are n1 (n1x, n1y, n1z), n2 (n2
x, n2y, n2z), the unit vector representing the direction of the Z axis of the robot coordinate system is the outer product n1 xn2 of n1 xn
Given in 2. This is the vector n3 (n3x, n3y, n
3z). Further, the origin position of the robot coordinate system represented on the sensor coordinate system is obtained as the intersection position of two straight lines represented by the vectors n1 and n2. This is n0
It is represented by (n0x, n0y, n0z).

【0051】すると、センサ座標系から見たロボット座
標系を表わす座標変換行列[A]は、次式(1)で与え
られる。
Then, the coordinate transformation matrix [A] representing the robot coordinate system viewed from the sensor coordinate system is given by the following equation (1).

【0052】[0052]

【数1】 従って、センサ座標系上で表現された位置を表わすセン
サの出力データをロボット座標系上で表現された位置を
表わすデータに変換する座標変換行列は、行列[A]の
逆行列[A]-1で与えられる。従って、上記(1)式で
求められた行列[A]の逆行列[A]-1を計算し、その
結果表わすデータが画像処理装置2(場合によっては、
ロボットコントローラ1)内のメモリに格納されること
が好ましい。この逆行列[A]-1を用いれば、センサに
よって出力される任意の位置データ(x,y,z)は次
式(2)によって直ちにベース座標系上の位置データに
変換される。
[Equation 1] Therefore, the coordinate conversion matrix for converting the output data of the sensor representing the position represented on the sensor coordinate system into the data representing the position represented on the robot coordinate system is the inverse matrix [A] −1 of the matrix [A]. Given in. Therefore, the inverse matrix [A] −1 of the matrix [A] obtained by the above equation (1) is calculated, and the data represented as a result is represented by
It is preferably stored in a memory within the robot controller 1). If this inverse matrix [A] −1 is used, arbitrary position data (x, y, z) output by the sensor is immediately converted into position data on the base coordinate system by the following equation (2).

【0053】[0053]

【数2】 なお、計測位置R0 からR1 、R1 からR2 への変位を
ロボット座標系の座標軸方向に選ばない場合には、次の
ような連立方程式(3)〜(5)を解いて、座標変換行
列の各行列要素を求めることになる。
[Equation 2] If the displacement from the measurement position R0 to R1 and the displacement from R1 to R2 are not selected in the coordinate axis direction of the robot coordinate system, the following simultaneous equations (3) to (5) are solved to calculate each coordinate transformation matrix. You will find the matrix elements.

【0054】[0054]

【数3】 また、以上の説明において、ロボット20の移動はジョ
グ送り操作で行なっても良いし、予め計測位置R0 ,R
1 ,R2 教示しておく方法によっても良い。
(Equation 3) Further, in the above description, the movement of the robot 20 may be performed by the jog feed operation, or the measurement positions R0, R may be previously set.
1, R2 Teaching method may be used.

【0055】更に、本実施例における3次元視覚センサ
は、スリット光投光器と1台のカメラとを組み合わせた
ものを使用したが、これに代えて、他の型の3次元視覚
センサ(例えば、2台の視線方向の異なるカメラを使用
したもの)を用いても構わない。
Further, the three-dimensional visual sensor in this embodiment is a combination of a slit light projector and one camera, but instead of this, another type of three-dimensional visual sensor (for example, 2 cameras) is used. It is also possible to use a camera that uses a camera with different line-of-sight directions.

【0056】[0056]

【発明の効果】本願発明によって、正確な設計データや
特別のジグを用いずにロボット座標系とセンサ座標系を
結合することが出来るようになった。また、一旦座標系
結合を行なったロボットの稼働中に干渉等によってセン
サ座標系の位置に狂いが生じても、簡単にセンサ座標系
とロボット座標系の再結合を実行することが可能となっ
た。
According to the present invention, the robot coordinate system and the sensor coordinate system can be connected without using accurate design data or a special jig. Further, even if the position of the sensor coordinate system is misaligned due to interference or the like during operation of the robot that has once been connected to the coordinate system, it is possible to easily rejoin the sensor coordinate system and the robot coordinate system. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本願発明の方法が実施されるロボット−センサ
システムの構成の概要を例示した要部ブロック図であ
る。
FIG. 1 is a principal block diagram illustrating an outline of the configuration of a robot-sensor system in which a method of the present invention is implemented.

【図2】図1に示した構成と機能を有するロボット−セ
ンサシステムを小型ロボットの組み立て作業に利用する
ケースを例にとり、本願発明の方法を適用してセンサ座
標系とロボット座標系の関係を求めるプロセスを説明す
る為の全体配置である。小型ロボットの組み立て作業に
おける位置ずれ補正に本願発明の方法を適用する場合の
全体配置を表わした模式図である。
FIG. 2 shows the relationship between the sensor coordinate system and the robot coordinate system by applying the method of the present invention, taking as an example the case where the robot-sensor system having the configuration and function shown in FIG. 1 is used in the assembly work of a small robot. It is an overall arrangement for explaining the process of obtaining. It is a schematic diagram showing the entire arrangement when applying the method of the present invention to the positional deviation correction in the assembly work of the small robot.

【図3】本実施例におけるセンサ座標系とロボット座標
系の結合のプロセスの概要を説明する為のフローチャー
トである。
FIG. 3 is a flowchart for explaining an outline of a process of connecting a sensor coordinate system and a robot coordinate system in this embodiment.

【符号の説明】 1 ロボットコントローラ 2 画像処理装置 3 センサ部コントローラ 4 被計測対象物 5 機構部 6 組み付け部品 10 センサ部 11 投光器 12 CCDカメラ 20 ロボット 21〜23 ロボットアーム 50 ベース 51 回転軸 52 アーム 53 取り付け面 54 穴 H ハンド R0 ,R1 ,R2 計測位置 T ツール先端点[Explanation of Codes] 1 Robot Controller 2 Image Processing Device 3 Sensor Unit Controller 4 Object to be Measured 5 Mechanism Unit 6 Assembly Parts 10 Sensor Unit 11 Projector 12 CCD Camera 20 Robot 21-23 Robot Arm 50 Base 51 Rotation Axis 52 Arm 53 Mounting surface 54 holes H hand R0, R1, R2 measurement position T Tool tip point

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 3/03 380 K G06T 7/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06F 3/03 380 K G06T 7/00

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 ロボットと該ロボットに支持された3次
元視覚センサを備えたロボット−センサシステムにおけ
る座標系結合方法において、 一直線上に並ばない少なくとも3つの位置で、センサ座
標系上で同一対象物に関する位置を表わすセンサ出力を
得る段階と、 前記3つの位置をロボット座標系上で表現するデータと
前記センサ出力を表わすデータに基づくソフトウェア処
理によって、ロボット座標系とセンサ座標系の相対的な
位置関係を求める段階を含む前記方法。
1. A method for connecting a coordinate system in a robot-sensor system comprising a robot and a three-dimensional visual sensor supported by the robot, wherein the same object is present on the sensor coordinate system at at least three positions which are not aligned. Relative position relationship between the robot coordinate system and the sensor coordinate system by a step of obtaining a sensor output indicating a position related to the robot coordinate system and a software process based on the data representing the three positions on the robot coordinate system and the data representing the sensor output. Said method comprising the step of:
【請求項2】 ロボットと、該ロボットに支持された3
次元視覚センサを含むロボット−センサシステムにおけ
る座標系結合方法において、 少なくとも3つの位置で、センサ座標系上で同一対象物
に関する位置を表わすセンサ出力を得る段階と、 前記3つの位置をロボット座標系上で表現するデータと
前記センサ出力を表わすデータに基づくソフトウェア処
理によって、ロボット座標系とセンサ座標系の相対的な
位置関係を求める段階を含み、 前記少なくとも3つの位置間の移動が、ロボット座標系
の座標軸の正あるいは負方向に沿った移動によって実行
され得る前記方法。
2. A robot and a robot supported by the robot
A method for connecting a coordinate system in a robot-sensor system including a three-dimensional visual sensor, comprising: obtaining a sensor output representing a position related to the same object on the sensor coordinate system at at least three positions; and setting the three positions on the robot coordinate system. And a step of obtaining a relative positional relationship between the robot coordinate system and the sensor coordinate system by software processing based on the data represented by and the sensor output data. The method as described above, which can be carried out by moving the coordinate axis along the positive or negative direction.
【請求項3】 前記少なくとも3つの位置が、予め前記
ロボットに教示される請求項1または請求項2に記載さ
れたロボット−センサシステムにおける座標系結合方
法。
3. The coordinate system coupling method in a robot-sensor system according to claim 1, wherein the at least three positions are taught to the robot in advance.
JP29807594A 1994-11-08 1994-11-08 Coordinate system coupling method in robot-sensor system Expired - Fee Related JP3644991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29807594A JP3644991B2 (en) 1994-11-08 1994-11-08 Coordinate system coupling method in robot-sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29807594A JP3644991B2 (en) 1994-11-08 1994-11-08 Coordinate system coupling method in robot-sensor system

Publications (2)

Publication Number Publication Date
JPH08132373A true JPH08132373A (en) 1996-05-28
JP3644991B2 JP3644991B2 (en) 2005-05-11

Family

ID=17854830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29807594A Expired - Fee Related JP3644991B2 (en) 1994-11-08 1994-11-08 Coordinate system coupling method in robot-sensor system

Country Status (1)

Country Link
JP (1) JP3644991B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005271103A (en) * 2004-03-23 2005-10-06 Tookin:Kk Working robot and calibration method thereof
JP2009006452A (en) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd Method for calibrating between camera and robot, and device therefor
JP2010112731A (en) * 2008-11-04 2010-05-20 Denso Wave Inc Joining method of coordinate of robot
JP2011031346A (en) * 2009-08-03 2011-02-17 Fanuc Ltd Apparatus and method for measuring position of tool end point of robot
KR101155446B1 (en) * 2010-11-01 2012-06-15 대우조선해양 주식회사 Calibration method between robot and laser vision system using lug
JP2013019704A (en) * 2011-07-07 2013-01-31 Toyota Motor East Japan Inc Three-dimensional measurement system and three-dimensional measurement method
JP2014018932A (en) * 2012-07-20 2014-02-03 Kobe Steel Ltd Calibration method for robot with optical sensor
JP2015062991A (en) * 2013-08-28 2015-04-09 キヤノン株式会社 Coordinate system calibration method, robot system, program, and recording medium
JP2016013607A (en) * 2014-07-03 2016-01-28 川崎重工業株式会社 Operation instruction system and operation instruction method for robot
JP2017056503A (en) * 2015-09-15 2017-03-23 ファナック株式会社 Sag measurement system for measuring sag of multijoint robot
DE102017209178A1 (en) * 2017-05-31 2018-12-06 Carl Zeiss Industrielle Messtechnik Gmbh Method for determining the spatial position of a moving coordinate system, a measuring point of its sensor or an operating point of a tool in a robot
CN109341532A (en) * 2018-11-05 2019-02-15 航天材料及工艺研究所 A kind of part coordinate scaling method based on structure feature towards automatic assembling
JP2019063954A (en) * 2017-10-03 2019-04-25 株式会社ダイヘン Robot system, calibration method and calibration program
JP2020003262A (en) * 2018-06-26 2020-01-09 セイコーエプソン株式会社 Three-dimensional measuring device, controller, and robot system
CN111951340A (en) * 2020-08-26 2020-11-17 珠海广浩捷科技股份有限公司 Non-contact optical vision calibration method
DE102019127250B3 (en) * 2019-10-10 2020-12-03 Franka Emika Gmbh Verification of a forward kinematics of a robot manipulator
JP2021088003A (en) * 2019-12-02 2021-06-10 ジック株式会社 Robot coordinate system alignment method, alignment system, and alignment device
CN114353802A (en) * 2022-01-04 2022-04-15 上海圭目机器人有限公司 Robot three-dimensional space positioning method based on laser tracking
WO2023135764A1 (en) * 2022-01-14 2023-07-20 ファナック株式会社 Robot device provided with three-dimensional sensor and method for controlling robot device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468741B2 (en) 2013-07-22 2019-02-13 キヤノン株式会社 Robot system and robot system calibration method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005271103A (en) * 2004-03-23 2005-10-06 Tookin:Kk Working robot and calibration method thereof
JP2009006452A (en) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd Method for calibrating between camera and robot, and device therefor
JP2010112731A (en) * 2008-11-04 2010-05-20 Denso Wave Inc Joining method of coordinate of robot
JP2011031346A (en) * 2009-08-03 2011-02-17 Fanuc Ltd Apparatus and method for measuring position of tool end point of robot
JP4763074B2 (en) * 2009-08-03 2011-08-31 ファナック株式会社 Measuring device and measuring method of position of tool tip of robot
US9050728B2 (en) 2009-08-03 2015-06-09 Fanuc Ltd Apparatus and method for measuring tool center point position of robot
KR101155446B1 (en) * 2010-11-01 2012-06-15 대우조선해양 주식회사 Calibration method between robot and laser vision system using lug
JP2013019704A (en) * 2011-07-07 2013-01-31 Toyota Motor East Japan Inc Three-dimensional measurement system and three-dimensional measurement method
JP2014018932A (en) * 2012-07-20 2014-02-03 Kobe Steel Ltd Calibration method for robot with optical sensor
JP2015062991A (en) * 2013-08-28 2015-04-09 キヤノン株式会社 Coordinate system calibration method, robot system, program, and recording medium
JP2016013607A (en) * 2014-07-03 2016-01-28 川崎重工業株式会社 Operation instruction system and operation instruction method for robot
JP2017056503A (en) * 2015-09-15 2017-03-23 ファナック株式会社 Sag measurement system for measuring sag of multijoint robot
DE102017209178A1 (en) * 2017-05-31 2018-12-06 Carl Zeiss Industrielle Messtechnik Gmbh Method for determining the spatial position of a moving coordinate system, a measuring point of its sensor or an operating point of a tool in a robot
DE102017209178B4 (en) 2017-05-31 2021-09-02 Carl Zeiss Industrielle Messtechnik Gmbh Method for determining the spatial position of a moving coordinate system, a measuring point of its sensor or an operating point of a tool in a robot
JP2019063954A (en) * 2017-10-03 2019-04-25 株式会社ダイヘン Robot system, calibration method and calibration program
JP2020003262A (en) * 2018-06-26 2020-01-09 セイコーエプソン株式会社 Three-dimensional measuring device, controller, and robot system
US11548160B2 (en) 2018-06-26 2023-01-10 Seiko Epson Corporation Three-dimensional measuring device, controller, and robot system
CN109341532B (en) * 2018-11-05 2020-11-10 航天材料及工艺研究所 Automatic-assembly-oriented part coordinate calibration method based on structural features
CN109341532A (en) * 2018-11-05 2019-02-15 航天材料及工艺研究所 A kind of part coordinate scaling method based on structure feature towards automatic assembling
DE102019127250B3 (en) * 2019-10-10 2020-12-03 Franka Emika Gmbh Verification of a forward kinematics of a robot manipulator
JP2021088003A (en) * 2019-12-02 2021-06-10 ジック株式会社 Robot coordinate system alignment method, alignment system, and alignment device
JPWO2021111868A1 (en) * 2019-12-02 2021-06-10
WO2021111868A1 (en) 2019-12-02 2021-06-10 ジック株式会社 Coordinate system alignment method, alignment system, and alignment device for robot
CN111951340A (en) * 2020-08-26 2020-11-17 珠海广浩捷科技股份有限公司 Non-contact optical vision calibration method
CN111951340B (en) * 2020-08-26 2024-05-07 珠海广浩捷科技股份有限公司 Non-contact optical vision calibration method
CN114353802A (en) * 2022-01-04 2022-04-15 上海圭目机器人有限公司 Robot three-dimensional space positioning method based on laser tracking
WO2023135764A1 (en) * 2022-01-14 2023-07-20 ファナック株式会社 Robot device provided with three-dimensional sensor and method for controlling robot device

Also Published As

Publication number Publication date
JP3644991B2 (en) 2005-05-11

Similar Documents

Publication Publication Date Title
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
JP3733364B2 (en) Teaching position correction method
JP4267005B2 (en) Measuring apparatus and calibration method
KR970005616B1 (en) Automatic calibration method
EP1555508B1 (en) Measuring system
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US7359817B2 (en) Method of and device for re-calibrating three-dimensional visual sensor in robot system
JP4191080B2 (en) Measuring device
EP1215017A2 (en) Robot teaching apparatus
JPH0784631A (en) Method for correcting robot teaching program
JP6922204B2 (en) Controls, robots and robot systems
JP3442140B2 (en) Position measurement device and position deviation correction device using three-dimensional visual sensor
JPH1063317A (en) Method for combining coordinate system in robot and visual sensor system
CN109531604B (en) Robot control device for performing calibration, measurement system, and calibration method
EP1886771B1 (en) Rotation center point calculating method, rotation axis calculating method, program creating method, operation method, and robot apparatus
JP5378908B2 (en) Robot accuracy adjustment method and robot
JP4020994B2 (en) Robot tool coordinate system correction setting method and end effector used in the method
JPH09222913A (en) Teaching position correcting device for robot
JPH08328624A (en) Method for coupling sensor and robot and robot system
JPH0746288B2 (en) Control method and device for robot with hand vision
WO2021172271A1 (en) Robot system
WO2021210540A1 (en) Coordinate system setting system and position/orientation measurement system
CN116348252A (en) Tool deformation amount calculation device for robot, tool deformation amount calculation system for robot, and tool deformation amount calculation method for robot
CN117621044A (en) Control method and robot system
JPH05158529A (en) Teaching method for measuring robot

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050202

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees