JP2012091280A - Coordinate system calibration method and robot system - Google Patents

Coordinate system calibration method and robot system Download PDF

Info

Publication number
JP2012091280A
JP2012091280A JP2010241016A JP2010241016A JP2012091280A JP 2012091280 A JP2012091280 A JP 2012091280A JP 2010241016 A JP2010241016 A JP 2010241016A JP 2010241016 A JP2010241016 A JP 2010241016A JP 2012091280 A JP2012091280 A JP 2012091280A
Authority
JP
Japan
Prior art keywords
robot
observation
mark
coordinate system
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010241016A
Other languages
Japanese (ja)
Other versions
JP5371927B2 (en
Inventor
Haruhisa Okuda
晴久 奥田
Yukiyasu Domae
幸康 堂前
Yasuo Kitaaki
靖雄 北明
Shinjiro Kawato
慎二郎 川戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010241016A priority Critical patent/JP5371927B2/en
Publication of JP2012091280A publication Critical patent/JP2012091280A/en
Application granted granted Critical
Publication of JP5371927B2 publication Critical patent/JP5371927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate system calibration method which facilitates the calibration of a parameter as relevant information describing the relative relation between a finger coordinate system of a robot and a sensor coordinate system of a visual sensor.SOLUTION: One mark 10 is disposed on a robot coordinate system 35 of a robot 30, a finger of the robot 30 attached with a visual sensor 20 is moved, and then the mark 10 is observed at least at three observation locations from first to third locations while moving the visual sensor 20 in parallel without changing its attitude, and also at least at fourth and fifth observation locations in a direction different from the observation directions at the three locations from the first to third locations relative to the mark 10 and facing the mark 10 from mutually different directions. The images at each observation location are image-processed to obtain mark position recognition data, and the attitude data and mark position recognition data of the robot 30 at each observation location are obtained by associating both with each other to calibrate relevant information based on both data.

Description

本発明は、ロボットと視覚センサとを組み合わせたロボットシステムの座標系校正方法に関するものである。   The present invention relates to a coordinate system calibration method for a robot system that combines a robot and a visual sensor.

従来、ロボットと視覚センサとを組み合わせたシステムにおいて、視覚センサの設置形態の一つにハンドアイと呼ばれる方式が提案されている。ロボットの手先部(フランジ)に視覚センサを固定し、視覚センサにロボットの手先部と同一の動きをさせるもので、視覚センサの数を増やすことなく複数の位置での計測が可能なことから、コスト面や作業スペース節約の面から効果が大きい。   Conventionally, in a system combining a robot and a visual sensor, a method called a hand eye has been proposed as one of the installation forms of the visual sensor. Because the visual sensor is fixed to the robot's hand (flange) and the visual sensor moves the same as the robot's hand, it is possible to measure at multiple positions without increasing the number of visual sensors. Great effect in terms of cost and work space saving.

ハンドアイ方式を採用したシステムにおいては、視覚センサを用いて対象物の位置を計測し、それに基づいてロボットの動作(位置)を補正する。そのためには、視覚センサによって得られる対象物の位置データをロボットが動作する座標系上のデータに変換する必要がある。すなわち、視覚センサの座標系(センサ座標系)と、ロボットが動作する座標系(ロボット座標系)の間の関係を情報として求めておく必要がある。   In a system employing a hand-eye method, the position of an object is measured using a visual sensor, and the movement (position) of the robot is corrected based on the measured position. For this purpose, it is necessary to convert the position data of the object obtained by the visual sensor into data on a coordinate system in which the robot operates. That is, the relationship between the coordinate system of the visual sensor (sensor coordinate system) and the coordinate system (robot coordinate system) in which the robot operates must be obtained as information.

一般に、ロボットアームの先端には、各種ツールを取付けるフランジが設けられている。そして、このフランジに定義されている座標系(フランジ座標系/手先座標系)をロボット座標系に変換するパラメータ(回転行列と並進ベクトル)が、ロボットコントローラの記憶部に記憶されている。したがって、このフランジに視覚センサが取付けられた場合には、視覚センサの座標系つまりセンサ座標系をフランジ座標系に変換するパラメータを校正すればよい。これにより、視覚センサで検出した対象物のセンサ座標系をフランジ座標系に変換し、さらにそれをロボット座標系に変換することができる。   Generally, a flange for attaching various tools is provided at the tip of the robot arm. Parameters (rotation matrix and translation vector) for converting the coordinate system (flange coordinate system / hand coordinate system) defined for the flange into a robot coordinate system are stored in the storage unit of the robot controller. Therefore, when a visual sensor is attached to the flange, the parameters for converting the coordinate system of the visual sensor, that is, the sensor coordinate system to the flange coordinate system, may be calibrated. Thereby, the sensor coordinate system of the target object detected by the visual sensor can be converted into the flange coordinate system, and further converted into the robot coordinate system.

下記の特許文献1は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法に関するものである。同一平面上に視覚センサが検出可能なマークを4つ以上設けて、ロボットの制御点をマークに位置決めすることによりマークのロボット座標を取得する。一方、ロボットの手先を所定位置に固定して視覚センサでマークを検出することでマークのセンサ座標を取得する。その後、一定の評価により3つのマークを選択し、3つのマークのロボット座標とセンサ座標の対応関係から両座標系の関係を決定する。   Patent Document 1 below relates to a calibration method when a visual sensor is attached to the tip of a robot arm. Four or more marks that can be detected by the visual sensor are provided on the same plane, and the robot coordinate of the mark is obtained by positioning the control point of the robot on the mark. On the other hand, the sensor coordinates of the mark are acquired by fixing the hand of the robot at a predetermined position and detecting the mark with a visual sensor. Thereafter, three marks are selected by a constant evaluation, and the relationship between the two coordinate systems is determined from the correspondence between the robot coordinates of the three marks and the sensor coordinates.

また、下記の非特許文献1は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法に関するものである。この文献では座標系の回転と並進を4×4の行列で表現する方法を用いているが、アーム先端の姿勢すなわち視覚センサの姿勢を変えて2方向から校正用マークを観測すると、センサ座標系のXをフランジ座標系に変換する行列として、AX=XBという形式の方程式が成立することを示している。ここでAは校正用マークを視覚センサで検出したときのアームの2通りの姿勢に関する行列で、ロボットコントローラの出力から得られる。一方Bはアームの各姿勢のときに視覚センサで検出された校正用マークのセンサ系座標に関する行列で、校正用マークの検出結果から得られる。そして、この方程式をいかに解いて行列Xを求めるかということがこの文献の主題になっている。ここで、行列Bを得るためには同一平面にはない校正用マークが少なくとも4点必要である。   Non-Patent Document 1 below relates to a calibration method in the case where a visual sensor is attached to the tip of a robot arm. In this document, a method of expressing the rotation and translation of the coordinate system as a 4 × 4 matrix is used. However, if the calibration mark is observed from two directions by changing the posture of the arm tip, that is, the posture of the visual sensor, the sensor coordinate system is used. It is shown that an equation of the form of AX = XB is established as a matrix for converting X in the flange coordinate system. Here, A is a matrix related to two postures of the arm when the calibration mark is detected by the visual sensor, and is obtained from the output of the robot controller. On the other hand, B is a matrix related to the sensor system coordinates of the calibration mark detected by the visual sensor at each posture of the arm, and is obtained from the detection result of the calibration mark. The subject of this document is how to solve this equation to find the matrix X. Here, in order to obtain the matrix B, at least four calibration marks that are not on the same plane are required.

さらに、下記の非特許文献2は、ロボットの手先に取り付けられた視覚センサで、ロボット座標系に固定されたただ一つのマークを、ロボットの手先の位置・姿勢を変化させてさまざまな方向(一つの実験例では27方向)から観測し、その観測データを用いて非線形最適化手法による複雑なアルゴリズムでロボットの手先の座標系とセンサの座標系の関係を計算している。   Further, Non-Patent Document 2 below is a visual sensor attached to the hand of a robot, and a single mark fixed to the robot coordinate system is changed in various directions (one by changing the position and posture of the hand of the robot. In one experimental example, observation is performed from 27 directions), and the relationship between the coordinate system of the hand of the robot and the coordinate system of the sensor is calculated by using a complex algorithm based on the nonlinear optimization method using the observed data.

特許第3541980号公報Japanese Patent No. 3541980

Y. Shiu and S. Ahmad: "Calibration of Wrist-Mounted Robotic Sensors by Solving Homogeneous Transform Equations of the Form AX = XB", IEEE Trans. on Robotics and Automation, vol. 5, no. 1, pp.16-29, August 1989.Y. Shiu and S. Ahmad: "Calibration of Wrist-Mounted Robotic Sensors by Solving Homogeneous Transform Equations of the Form AX = XB", IEEE Trans. On Robotics and Automation, vol. 5, no. 1, pp.16-29 , August 1989. 川端聡, 永田和之, 河井良浩:"環境に固定されたマーカを用いたハンドアイキャリブレーション", 「画像認識・理解シンポジウム(MIRU2009)」,pp.825−832, 2009年7月Satoshi Kawabata, Kazuyuki Nagata, Yoshihiro Kawai: "Hand-eye calibration using markers fixed to the environment", "Image Recognition and Understanding Symposium (MIRU2009)", pp. 825-832, July 2009

しかしながら、上記特許文献1に開示された校正方法は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法において、視覚センサが検出可能なマークを同一平面上に4つ以上設けて、ロボットの制御点をマークに位置決めすることによりマークのロボット座標を取得するものであり、校正用マークが4点以上必要であるので、コストが増えるという問題があった。   However, the calibration method disclosed in Patent Document 1 is a calibration method in which the visual sensor is attached to the tip of the arm of the robot, and four or more marks that can be detected by the visual sensor are provided on the same plane. The robot coordinate of the mark is obtained by positioning the control point of the robot on the mark, and four or more calibration marks are required, which increases the cost.

また、上記非特許文献1に開示された校正方法は、同一平面にない、すなわち3次元的に配置された校正用マークが4点以上必要であり、それらは2方向から同時に精度よく視覚センサによって検出可能とされていなければならない。そのため、形状と配置に工夫が必要で、その製作にコストと時間を要する、という問題があった。   Further, the calibration method disclosed in Non-Patent Document 1 requires four or more calibration marks that are not in the same plane, that is, three-dimensionally arranged. Must be detectable. For this reason, there has been a problem that the shape and arrangement need to be devised, and the production requires cost and time.

また、非特許文献2に開示された校正方法は、校正用マークはただ一つでよいが、非常に多数の方向からマークを観測する必要があり、また非線形最適化手法を用いているので、計算が真値に収束する保証がない、という問題があった。   In addition, the calibration method disclosed in Non-Patent Document 2 requires only one calibration mark, but it is necessary to observe the mark from a very large number of directions, and a nonlinear optimization method is used. There was a problem that there was no guarantee that the calculation would converge to a true value.

本発明は、上記に鑑みてなされたものであって、ロボットと、ロボットの手先に固定された視覚センサを組み合わせたロボットシステムにおいて、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報(回転行列と並進ベクトル)を、容易にまた安価に校正することができる座標系校正方法及びロボットシステムを提供することを目的とする。   The present invention has been made in view of the above, and in a robot system that combines a robot and a visual sensor fixed to the hand of the robot, the relative relationship between the robot's hand coordinate system and the sensor coordinate system of the visual sensor. It is an object of the present invention to provide a coordinate system calibration method and a robot system that can calibrate related information (rotation matrix and translation vector) describing a relationship easily and inexpensively.

上述した課題を解決し、目的を達成するために、本発明の座標系校正方法は、ロボットと、ロボットの手先に固定された視覚センサを組み合わせたシステムにおいて、記憶部に記憶されたロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を校正する方法であり、ロボットのロボット座標系に一つのマークを配置し、視覚センサを取り付けたロボットの手先を移動させて、マークに向けた視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マークに対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向からマークを臨む少なくとも第4及び第5の観測箇所で、マークの観測を行い、各観測箇所の画像を画像処理してマーク位置認識データを得て、各観測箇所でのロボットの姿勢データとマーク位置認識データとを対応づけて取得し、両データに基づいて関連情報を校正することを特徴とする。   In order to solve the above-described problems and achieve the object, the coordinate system calibration method of the present invention is a system that combines a robot and a visual sensor fixed to the hand of the robot. This is a method to calibrate the related information describing the relative relationship between the coordinate system and the sensor coordinate system of the visual sensor. One mark is placed in the robot coordinate system of the robot and the hand of the robot with the visual sensor attached is moved. And at least the first to third observation locations translated without changing the attitude of the visual sensor toward the mark, and a direction different from the first to third observation directions with respect to the mark In addition, the mark is observed at least at the fourth and fifth observation points facing the mark from different directions, and the image of each observation point is processed to obtain the mark position recognition data. Te, acquires the posture data and the mark position recognition data of the robot at each observation point in association with, and wherein the calibrating the relevant information based on both data.

上述した課題を解決し、目的を達成するために、本発明のロボットシステムは、ロボットと、ロボットの手先に固定された視覚センサと、視覚センサの画像処理を行う画像処理装置と、ロボットを動作させるロボット動作手段と、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を記憶する記憶部と、関連情報を校正する演算部とを備え、ロボットのロボット座標系に一つのマークが配置されており、ロボット動作手段は、視覚センサを取り付けたロボットの手先を、マークに向けた視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マークに対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向の少なくとも第4及び第5の観測箇所に移動させ、画像処理装置は、各観測箇所の視覚センサの画像を画像処理してマーク位置認識データを出力し、演算部は、各観測箇所でのロボットの姿勢データとマーク位置認識データとを対応づけて取得し、このデータに基づいて関連情報を校正することを特徴とする。   In order to solve the above-described problems and achieve the object, a robot system of the present invention operates a robot, a visual sensor fixed to the hand of the robot, an image processing apparatus that performs image processing of the visual sensor, and a robot A robot operation means, a storage unit that stores relative information describing a relative relationship between the robot's hand coordinate system and the sensor coordinate system of the visual sensor, and a calculation unit that calibrates the related information. One mark is arranged in the system, and the robot operation means translates at least the first to third three of the robot's hand attached with the visual sensor without changing the posture of the visual sensor toward the mark. Observation points and at least the fourth and fifth observation points in directions different from and different from the first to third observation directions with respect to the mark. The image processing device performs image processing on the image of the visual sensor at each observation point and outputs mark position recognition data, and the calculation unit associates the robot posture data with the mark position recognition data at each observation point. The related information is calibrated and the related information is calibrated based on this data.

本発明によれば、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を、容易にまた安価に校正することができる、という効果を奏する。   According to the present invention, there is an effect that related information describing the relative relationship between the hand coordinate system of the robot and the sensor coordinate system of the visual sensor can be calibrated easily and inexpensively.

図1は、実施の形態1のロボットシステムを示す模式図である。FIG. 1 is a schematic diagram illustrating the robot system according to the first embodiment. 図2は、5箇所の観測位置の位置と姿勢を表す概念図である。FIG. 2 is a conceptual diagram showing the positions and orientations of the five observation positions. 図3は、各観測位置におけるマークの観測画像である。FIG. 3 is an observation image of the mark at each observation position. 図4は、実施の形態3のロボットシステムを示す模式図である。FIG. 4 is a schematic diagram illustrating the robot system according to the third embodiment.

以下に、本発明にかかる座標系校正方法及びロボットシステムの実施の形態を図面に基づいて詳細に説明する。なおこの実施の形態によりこの発明が限定されるものではない。   Embodiments of a coordinate system calibration method and a robot system according to the present invention will be described below in detail with reference to the drawings. The present invention is not limited to the embodiments.

実施の形態1.
本実施の形態1においては、視覚センサが位置認識可能である一つのマークをロボットの座標系に配置し、視覚センサを取り付けたロボットの手先を制御して、少なくとも3箇所の視覚センサの姿勢が同じでかつ異なる観測位置に移動(つまり平行移動のみ)させ、また少なくとも3箇所の視覚センサの姿勢が互いに異なる方向から該マークを観測する観測位置に移動させてマークを観測し、各マーク観測箇所でのロボットの姿勢のデータと視覚システムによるマーク位置認識データとを対応づけて取得し、そのデータに基づいてロボットの手先の座標系と視覚センサの座標系の関係を表す関連情報(パラメータ)を校正する。
Embodiment 1 FIG.
In the first embodiment, one mark that can be recognized by the visual sensor is arranged in the coordinate system of the robot, the hand of the robot to which the visual sensor is attached is controlled, and the postures of at least three visual sensors are Move to the same and different observation positions (that is, only parallel movement), and move the marks from different directions in which the attitude of the visual sensor is different from each other to observe the marks. The robot posture data and the mark position recognition data obtained by the visual system are acquired in association with each other. Based on the data, related information (parameters) representing the relationship between the coordinate system of the robot hand and the coordinate system of the visual sensor is obtained. Calibrate.

用意する校正用マークは一つでよく、その配置位置の座標は未知でよい。マークの観測位置は5箇所でたり、そのうち3箇所は視覚センサを平行移動させた位置でよいので、安価で、容易にロボットの手先の座標系とセンサ座標系の間の関係を校正することができる。計算は連立方程式を解いて行われるが解析的に解を求めることができるので、非線形最適化アルゴリズムのように真値に収束するか否の心配がない。   One calibration mark may be prepared, and the coordinates of the arrangement position may be unknown. There are five mark observation positions, and three of them may be positions where the visual sensor is translated, so it is inexpensive and can easily calibrate the relationship between the coordinate system of the robot hand and the sensor coordinate system. it can. The calculation is performed by solving simultaneous equations, but since the solution can be obtained analytically, there is no concern about whether or not it converges to a true value unlike the nonlinear optimization algorithm.

図1は、実施の形態1のロボットシステムを示す模式図である。図1において、本実施の形態1のロボットシステム101は、ロボット30、ロボットコントローラ31、手動操作パネル37、画像処理装置21、視覚センサ20を含んで構成されている。ロボットコントローラ31には、ロボット30と画像処理装置21と手動操作パネル37が接続されている。   FIG. 1 is a schematic diagram illustrating the robot system according to the first embodiment. In FIG. 1, a robot system 101 according to the first embodiment includes a robot 30, a robot controller 31, a manual operation panel 37, an image processing device 21, and a visual sensor 20. The robot controller 31 is connected to the robot 30, the image processing device 21, and the manual operation panel 37.

ロボット30は、6自由度の多関節ロボットであり、ロボットアームの先端には、フランジ32が設けられている。このフランジ32には作業用のツールとして例えばロボットハンド等が装着されるが図1では省略している。そして、このフランジ32には、ロボットハンド等のツールと並んで視覚センサ20が取り付けられている。   The robot 30 is a multi-joint robot with 6 degrees of freedom, and a flange 32 is provided at the tip of the robot arm. For example, a robot hand or the like is attached to the flange 32 as a working tool, which is omitted in FIG. The visual sensor 20 is attached to the flange 32 along with a tool such as a robot hand.

一般にロボット座標系35の原点は、ロボット30の基部の底面にあり、Z軸を垂直方向にとって定義される。図1ではこのロボット座標系35を便宜上少しずらして描いている。フランジ座標系(手先座標系)36は、ロボット30の手先のフランジ32に定義された座標系で、同様に図1では便宜上少しずらして描いている。フランジ座標系(手先座標系)36の位置と姿勢はロボットコントローラ31が制御している。ロボット座標系35内に唯一つの校正用マークが配置されており、その座標位置は未知である。   In general, the origin of the robot coordinate system 35 is on the bottom surface of the base of the robot 30 and is defined with the Z axis as the vertical direction. In FIG. 1, the robot coordinate system 35 is drawn with a slight shift for convenience. The flange coordinate system (hand coordinate system) 36 is a coordinate system defined for the flange 32 of the hand of the robot 30 and is similarly drawn slightly shifted in FIG. The robot controller 31 controls the position and orientation of the flange coordinate system (hand coordinate system) 36. Only one calibration mark is arranged in the robot coordinate system 35, and its coordinate position is unknown.

視覚センサ20を用いて対象物の位置を計測し、それに基づいてロボット30の動作をさせるために、視覚センサ20によって得られる対象物の位置データをロボット30が動作する座標系上のデータに変換する。つまり、視覚センサ20の座標系(これを「センサ座標系25」と言う)と、ロボット30が動作する座標系(これを「ロボット座標系35」と言う)の間の関係を予め求める。ロボットアーム先端のフランジ32に定義されているフランジ座標系(手先座標系)36をロボット座標系35に変換するパラメータが、ロボットコントローラ31の記憶部31cにあらかじめ記憶されている。そして、このフランジ32に視覚センサ20が取付けられているので、センサ座標系25をフランジ座標系36に変換するパラメータ(回転行列と並進ベクトル)を校正すればよい。これにより、視覚センサ20で検出したマーク10のセンサ座標系25をフランジ座標系36に変換し、さらにそれをロボット座標系35に変換することができる。   In order to measure the position of the object using the visual sensor 20 and to operate the robot 30 based on the measured position, the position data of the object obtained by the visual sensor 20 is converted into data on the coordinate system on which the robot 30 operates. To do. That is, the relationship between the coordinate system of the visual sensor 20 (referred to as “sensor coordinate system 25”) and the coordinate system in which the robot 30 operates (referred to as “robot coordinate system 35”) is obtained in advance. Parameters for converting the flange coordinate system (hand coordinate system) 36 defined in the flange 32 at the tip of the robot arm into the robot coordinate system 35 are stored in advance in the storage unit 31 c of the robot controller 31. Since the visual sensor 20 is attached to the flange 32, parameters (rotation matrix and translation vector) for converting the sensor coordinate system 25 to the flange coordinate system 36 may be calibrated. Thereby, the sensor coordinate system 25 of the mark 10 detected by the visual sensor 20 can be converted into the flange coordinate system 36 and further converted into the robot coordinate system 35.

ロボットコントローラ31は、マイクロプロセッサからなる中央演算処理装置(CPU)と、CPUにバス結合されたROMメモリ、RAMメモリ、不揮発性メモリ、ロボットの軸制御のためのディジタルサーボ回路と、サーボアンプ、外部信号の入出力装置、画像処理装置21と結ばれた通信インターフェイス等を備えている。これら電子部品は、機能的に制御部31a、演算部31b、記憶部31cを構成している。   The robot controller 31 includes a central processing unit (CPU) composed of a microprocessor, a ROM memory, a RAM memory, a nonvolatile memory, a digital servo circuit for robot axis control, a servo amplifier, A signal input / output device and a communication interface connected to the image processing device 21 are provided. These electronic components functionally configure a control unit 31a, a calculation unit 31b, and a storage unit 31c.

記憶部31cを構成するメモリのうち、ROMメモリにはシステムを制御するシステムプログラムが格納され、RAMメモリはCPUが行なう処理のためのデータの一時記憶等に使用される。また、不揮発性メモリには、動作プログラムのデータや、システムの動作に必要な各種設定値が格納される。この各種設定値には、ロボット30のフランジ32に定義されている座標系(フランジ座標系/手先座標系)36をロボット座標系35に変換するパラメータ、すなわち、フランジ座標系(手先座標系)36とセンサ座標系25の相対的な関係を記述する関連情報であるパラメータ(回転行列と並進ベクトル)も含まれている。ロボットコントローラ31は、フランジ32の位置姿勢を制御すると同時にそのデータをリアルタイムでアップデートしており、出力することができる。なお、本実施の形態の記憶部31cは、ロボットコントローラ31の内部に設けられているが、外部に設けられた記憶装置であってもよい。   Of the memories constituting the storage unit 31c, the ROM memory stores a system program for controlling the system, and the RAM memory is used for temporary storage of data for processing performed by the CPU. The nonvolatile memory stores operation program data and various setting values necessary for system operation. These various set values include parameters for converting the coordinate system (flange coordinate system / hand coordinate system) 36 defined in the flange 32 of the robot 30 into the robot coordinate system 35, that is, the flange coordinate system (hand coordinate system) 36. Also included are parameters (rotation matrix and translation vector) which are related information describing the relative relationship between the sensor coordinate system 25 and the sensor coordinate system 25. The robot controller 31 controls the position and orientation of the flange 32 and at the same time updates the data in real time and can output it. In addition, although the memory | storage part 31c of this Embodiment is provided in the inside of the robot controller 31, the memory | storage device provided outside may be sufficient.

手動操作パネル37は、ロボット30の手動操作をするためのパネルであり、このパネル上に設けられたボタン、ジョイスティックなどを操作することにより、ロボット30を手動操作できるようになっている。   The manual operation panel 37 is a panel for manually operating the robot 30, and the robot 30 can be manually operated by operating buttons, joysticks, and the like provided on the panel.

本実施の形態1の動作においては、ロボットコントローラ31と手動操作パネル37は、視覚センサ20を第1の観測位置1から第5の観測位置5に順次移動させるロボット動作手段を構成している。作業者が、手動操作パネル37を使ってボタン操作などによりロボットを操作して、視覚センサ20を第1の観測位置1から第5の観測位置5に順次移動させる場合には、手動操作パネル37がロボット動作手段を構成する。一方、ロボットコントローラ31の記憶部31cに記憶された動作プログラムにより、自動的に視覚センサ20が第1の観測位置1から第5の観測位置5に順次移動する場合(実施の形態2)には、ロボットコントローラ31がロボット動作手段を構成する。   In the operation of the first embodiment, the robot controller 31 and the manual operation panel 37 constitute a robot operation unit that sequentially moves the visual sensor 20 from the first observation position 1 to the fifth observation position 5. When the operator operates the robot by a button operation or the like using the manual operation panel 37 and sequentially moves the visual sensor 20 from the first observation position 1 to the fifth observation position 5, the manual operation panel 37 is used. Constitutes robot operating means. On the other hand, when the visual sensor 20 automatically moves sequentially from the first observation position 1 to the fifth observation position 5 by the operation program stored in the storage unit 31c of the robot controller 31 (Embodiment 2). The robot controller 31 constitutes a robot operation means.

視覚センサ20は、視野22を有し、マーク10の3次元位置データを得ることができる視覚センサであり、図1では一つのカメラのように描かれているが、2眼ステレオカメラのようなセンサでもよい。視覚センサ20には、視覚センサ20が撮像した画像の情報を処理する画像処理装置21が接続されている。一般にセンサ座標系25の原点はレンズ中心にとり、Z軸を光軸方向にとるが、図1では便宜上少しずらして描いている。   The visual sensor 20 is a visual sensor having a visual field 22 and capable of obtaining three-dimensional position data of the mark 10, and is depicted as one camera in FIG. It may be a sensor. The visual sensor 20 is connected to an image processing device 21 that processes information of an image captured by the visual sensor 20. In general, the origin of the sensor coordinate system 25 is set at the center of the lens and the Z-axis is set in the direction of the optical axis.

次に、動作の説明に入る前に、座標系の関係を整理しておく。ロボット30の手先座標系(フランジ座標系)36とセンサ座標系25の間の関係の校正作業で目的とするのは、次式に示すセンサ系座標(x、y、z)をフランジ系座標(X,Y,Z)に変換する3×3の回転行列Rと並進ベクトルTを決定することである。

Figure 2012091280
Next, before describing the operation, the relationship of the coordinate system is organized. The purpose of calibrating the relationship between the hand coordinate system (flange coordinate system) 36 of the robot 30 and the sensor coordinate system 25 is to use the sensor system coordinates (x, y, z) shown in the following equation as flange system coordinates ( 3 × 3 rotation matrix R h and translation vector T h to be converted to X F , Y F , Z F ).
Figure 2012091280

フランジ系座標36は、次式でロボット系座標35に変換される。

Figure 2012091280
The flange system coordinates 36 are converted into robot system coordinates 35 by the following equation.
Figure 2012091280

ここでR、Tはロボットコントローラ31が保持しているフランジ32の位置、姿勢を表す回転行列と並進ベクトルである。そして、(1)(2)式を結合すると、

Figure 2012091280
となる。すなわち、この式がセンサ系座標(x、y、z)をロボット系座標(X,Y,Z)に変換する式である。フランジ32の姿勢をRfcに固定して、つまり視覚センサ20の姿勢を同じに保ったまま、2つの位置Tf1およびTf2に移動して校正用マークを観測したときのマーク10のセンサ系座標25をそれぞれ(x、y、z)、(x、y、z)とすると、ロボット座標系35におけるマーク10の座標は同じであるから次の等式が成り立つ。
Figure 2012091280
Here, R f and T f are a rotation matrix and a translation vector representing the position and orientation of the flange 32 held by the robot controller 31. And combining (1) and (2),
Figure 2012091280
It becomes. That is, this expression is an expression for converting the sensor system coordinates (x, y, z) to the robot system coordinates (X, Y, Z). The sensor system of the mark 10 when the position of the flange 32 is fixed to R fc , that is, the calibration mark is observed by moving to the two positions T f1 and T f2 while keeping the posture of the visual sensor 20 the same. If the coordinates 25 are (x 1 , y 1 , z 1 ) and (x 2 , y 2 , z 2 ), respectively, the coordinates of the mark 10 in the robot coordinate system 35 are the same, so the following equation holds.
Figure 2012091280

式を変形すると

Figure 2012091280
If you transform the expression
Figure 2012091280

同様にして、視覚センサ20の姿勢を同じに保ったまま第3の位置Tf3に移動して、同じ校正用マークを観測すると、

Figure 2012091280
が得られる。(5)(6)式において未知数はRのみである。Rは3×3の行列で9要素からなるが、回転行列であることから、各列(各行)の要素の2乗和が1になるという制約条件があり、(x、y、z)、(x、y、z)、(x、y、z)が互いに異なっていれば、(5)(6)の連立方程式を解いてRをユニークに決定できる。 Similarly, when the same calibration mark is observed by moving to the third position T f3 while keeping the posture of the visual sensor 20 the same,
Figure 2012091280
Is obtained. (5) (6) unknown it is only R h in formulas. R h is a 3 × 3 matrix consisting of 9 elements, but since it is a rotation matrix, there is a constraint that the sum of squares of the elements in each column (each row) is 1, and (x 1 , y 1 , z 1), (x 2, y 2, z 2), (x 3, y 3, z 3) long as it is different from each other, determines uniquely the R h by solving the simultaneous equations (5) (6) it can.

次に、フランジ32の位置と姿勢をTf4,Rf4に移動して校正用マークを観測し、マーク10のセンサ系座標が(x、y、z)だったとすると、(4)式と同様に

Figure 2012091280
が言える。整理をすると
Figure 2012091280
Next, if the position and orientation of the flange 32 are moved to T f4 and R f4 to observe the calibration mark, and the sensor system coordinates of the mark 10 are (x 4 , y 4 , z 4 ), (4) Like the formula
Figure 2012091280
I can say. When organizing
Figure 2012091280

前述のようにしてRが求まっていれば、(8)式の未知数は右辺のTのみであり、[Rf4−Rfc]の逆行列を左から掛ければTが求まるように思われる。しかし回転行列の差の行列はランクが2に縮退しているため、逆行列は存在しない。そこで、さらにフランジ32の位置と姿勢をTf5,Rf5に移動して校正用マークを観測し、マークのセンサ系座標が(x、y、z)だったとすると、(8)式と同様にして

Figure 2012091280
を得る。回転行列Rf4、Rf5の回転軸が平行でなければ、言い換えれば回転方向が異なっていれば、(8)(9)式を連立一次方程式として解いてTを求めることが出来る。 If been determined that R h in the manner described above, (8) unknowns is only T h of the right side, seems T h is obtained by multiplying the left the inverse matrix of [R f4 -R fc] It is. However, since the difference matrix of the rotation matrix is degenerated to rank 2, there is no inverse matrix. Therefore, when the position and orientation of the flange 32 are further moved to T f5 and R f5 to observe the calibration mark, and the sensor system coordinates of the mark are (x 5 , y 5 , z 5 ), equation (8) Like
Figure 2012091280
Get. If not parallel the axis of rotation of the rotation matrix R f4, R f5 is, if the rotational direction is different in other words, (8) (9) it is possible to determine the T h by solving a system of linear equations.

以上の準備のもと、以下に動作について説明する。作業者は、まず校正用マーク10を配置するが、その位置はロボット30を操作してその手先に取り付けられた視覚センサ20で以下に述べるような観測が可能な位置ならどこでもよい。そして、その座標も未知でよい。マーク10の形状やパターンに特に制限はなく、マークが視覚センサで認識できて、その上の1点の位置が視覚センサ20で計測できればよい。   Based on the above preparation, the operation will be described below. The operator first arranges the calibration mark 10, but the position may be any position where the robot 30 can be operated and the following observation can be performed by the visual sensor 20 attached to the hand. And the coordinates may be unknown. There are no particular restrictions on the shape or pattern of the mark 10, as long as the mark can be recognized by the visual sensor and the position of one point on it can be measured by the visual sensor 20.

次に、作業者はロボット30の手動操作パネル37を操作して、順次ロボット30の手先の位置と姿勢を制御しながら、視覚センサ20によるマーク10の検出を5回実行し、各回のロボット30の姿勢データR、Tとマークのセンサ系座標を対応付けて記録する。このときに姿勢を変えずに位置だけ手先を移動させた第1から第3の観測箇所にてマーク10の観測を行い、次いで手先の位置も姿勢も変化させた第4および第5の観測箇所でマーク10の検出を実行する。 Next, the operator operates the manual operation panel 37 of the robot 30 to sequentially detect the mark 10 by the visual sensor 20 while controlling the position and posture of the hand of the robot 30, and each time the robot 30 is detected. attitude data R f, recorded in association with the sensor system coordinates of T f and mark. At this time, the mark 10 is observed at the first to third observation points where the hand is moved by the position without changing the posture, and then the fourth and fifth observation points where the position and posture of the hand are also changed. The mark 10 is detected.

図2は、本実施の形態1の5箇所の観測位置の位置と姿勢を表す概念図である。第1から第3の観測箇所である観測1、2、3の観測姿勢は固定(一定の方向に保持)されており、観測位置のみ互いに異なることを示している。第4および第5の観測箇所である観測4と5は、第1の観測箇所にくらべて位置も姿勢も互いに異なっていることを示している。第1の観測箇所から第4の観測箇所への移動するとき、あるいは、第1の観測箇所から第5の観測箇所へ移動するときには、視覚センサ20はマーク10を回転中心とする円弧状の経路を通って移動(回転)する。このとき図示は難しいが、上述のように第1の観測箇所から第4の観測箇所への移動するときの円弧の回転軸と第1の観測箇所から第5の観測箇所へ移動するときの円弧の回転軸とは、ともにマーク10中心近傍を通る直線となるが、両直線が平行にならないように制御する。   FIG. 2 is a conceptual diagram showing the positions and orientations of the five observation positions according to the first embodiment. The observation postures of observations 1, 2, and 3, which are the first to third observation points, are fixed (held in a certain direction), indicating that only the observation positions are different from each other. Observations 4 and 5, which are the fourth and fifth observation points, indicate that the position and the posture are different from each other as compared with the first observation point. When moving from the first observation point to the fourth observation point, or when moving from the first observation point to the fifth observation point, the visual sensor 20 has an arcuate path with the mark 10 as the rotation center. Move (rotate) through. Although it is difficult to illustrate at this time, as described above, the rotation axis of the arc when moving from the first observation point to the fourth observation point and the arc when moving from the first observation point to the fifth observation point The rotation axis is a straight line that passes through the vicinity of the center of the mark 10, but is controlled so that both straight lines do not become parallel.

各観測毎に、ロボットコントローラ31から出力されるフランジ座標系36の位置、姿勢を表す回転行列Rfと並進ベクトルTfが、画像処理装置21から出力される観測されたマーク10のセンサ系座標(x、y、z)25と対応づけられて記録される。   For each observation, the rotation matrix Rf representing the position and orientation of the flange coordinate system 36 output from the robot controller 31 and the translation vector Tf are used as the sensor system coordinates (x of the observed mark 10 output from the image processing device 21. , Y, z) are recorded in association with 25.

第1から第3の観測箇所である観測1、2、3から並進ベクトルを含まない方程式が得られて、回転行列が容易に求まり、第1、第4及び第5の観測箇所である観測1,4,5からは回転行列、並進ベクトルを含む一般形の方程式が得られるが、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。   An equation that does not include a translation vector is obtained from observations 1, 2, and 3 that are the first to third observation points, and a rotation matrix can be easily obtained. Observation 1 that is the first, fourth, and fifth observation points , 4 and 5 give general equations including a rotation matrix and a translation vector. However, if the rotation matrix is known, an equation of only the translation vector is obtained, and the translation vector can be easily obtained.

なお、マーク10の観測順序は図2に示された観測1から観測5の順序に従う必要はなく、任意の順序で実行してよい。図3にマークの観測例を示す。マークは正方形を2本の対角線で4分割し、4つの3角形を白、黒交互に塗り分けたパターンで、視覚センサ20がその位置を計測する点は対角線の交点である。このような明確な特徴のある点であれば、上記非特許文献2の技術のように2眼ステレオ方式の視覚センサで容易に対応点を見つけて、カメラからの距離を計算できる。   Note that the observation order of the mark 10 does not need to follow the order of observation 1 to observation 5 shown in FIG. 2, and may be executed in an arbitrary order. FIG. 3 shows an example of mark observation. The mark is a pattern in which a square is divided into four by two diagonal lines, and four triangles are painted alternately in white and black. The point at which the visual sensor 20 measures the position is the intersection of the diagonal lines. If it is a point with such a clear feature, a corresponding point can be easily found with a binocular stereo type visual sensor as in the technique of Non-Patent Document 2, and the distance from the camera can be calculated.

所定の5箇所のマーク観測が終了した後、方程式(5)(6)を連立で解いてRを求め、求まったRを利用して、方程式(8)(9)を連立で解いてTを求める。方程式を解く作業は、マーク観測時に得られるフランジ32の位置姿勢に関するデータ、TとRおよび視覚センサ20から出力されるマークのセンサ系座標(x、y、z)25の値を対応付けて、例えばエクセルのような表計算プログラムにインプットして解くことができる。 After completing the mark observation of a given 5 points, obtains the R h by solving equations (5) (6) in simultaneous, utilizing Motoma' was R h, by solving equations (8) (9) in simultaneous determine the T h. The work of solving the equation is associated with the data on the position and orientation of the flange 32 obtained at the time of mark observation, the values of T f and R f, and the sensor system coordinates (x, y, z) 25 of the mark output from the visual sensor 20. For example, it can be input into a spreadsheet program such as Excel and solved.

方程式を解く作業は、ロボットコントローラ31の記憶部31cに記憶されたプログラムを演算部31bにより解いたり、画像処理装置21の図示しない記憶部に記憶されたプログラムで実行したりしてもよい。その場合には、ロボットコントローラ31と画像処理装置21が通信網を介して必要なデータの送受信をするようにするのがよい。   The operation for solving the equations may be performed by solving a program stored in the storage unit 31c of the robot controller 31 by the calculation unit 31b or by a program stored in a storage unit (not shown) of the image processing device 21. In that case, it is preferable that the robot controller 31 and the image processing device 21 transmit / receive necessary data via a communication network.

以上のように、本実施の形態1の座標系校正方法は、ロボット30のロボット座標系35に一つのマーク10を配置し、視覚センサ20を取り付けたロボット30の手先を移動させて、視覚センサ20の姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マーク10に対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向からマーク10を臨む少なくとも第4及び第5の観測箇所で、マーク10の観測を行い、各観測箇所の画像を画像処理してマーク位置認識データを得て、各観測箇所でのロボット30の姿勢データとマーク位置認識データとを対応づけて取得し、両データに基づいて関連情報(パラメータ)を校正する。計算は連立方程式を解いて行われるが解析的に解を求めることができるので、非線形最適化アルゴリズムのように真値に収束するか否の心配がない。そして、第1から第3の観測箇所から並進ベクトルを含まない方程式がえられて、回転行列が容易に求まり、第1、第4及び第5の観測箇所からは回転行列、並進ベクトルを含む一般形の方程式が得られ、その際、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。これにより、ロボット30の手先座標系(フランジ座標系)36と視覚センサ20のセンサ座標系25の相対的な関係を記述する関連情報(パラメータ)を、容易にまた安価に校正することができる。   As described above, in the coordinate system calibration method according to the first embodiment, one mark 10 is arranged in the robot coordinate system 35 of the robot 30, the hand of the robot 30 to which the visual sensor 20 is attached is moved, and the visual sensor 20. At least the first to third observation points translated in parallel without changing the posture of 20 and directions different from the first to third observation directions with respect to the mark 10 and different from each other The observation of the mark 10 is performed at least at the fourth and fifth observation points facing the mark 10, and the image of each observation point is subjected to image processing to obtain mark position recognition data, and the posture of the robot 30 at each observation point Data and mark position recognition data are acquired in association with each other, and related information (parameters) is calibrated based on both data. The calculation is performed by solving simultaneous equations, but since the solution can be obtained analytically, there is no concern about whether or not it converges to a true value unlike the nonlinear optimization algorithm. An equation that does not include a translation vector is obtained from the first to third observation points, and a rotation matrix can be easily obtained. From the first, fourth, and fifth observation points, a rotation matrix and a translation vector are generally included. In this case, if the rotation matrix is known, the equation of only the translation vector is obtained, and the translation vector can be easily obtained. Thereby, the related information (parameter) describing the relative relationship between the hand coordinate system (flange coordinate system) 36 of the robot 30 and the sensor coordinate system 25 of the visual sensor 20 can be easily and inexpensively calibrated.

実施の形態2.
実施の形態1では、作業者が手動操作パネル37からロボット30を操作して、ロボット30の手先の位置と姿勢を制御して、必要な5箇所の観測位置へロボット手先を誘導した。本実施の形態2では、あらかじめ5箇所のマーク観測位置および各位置での姿勢をロボット制御プログラムとしてプログラミングしてロボットコントローラ31の記憶部31cに記憶させておき、作業者はマーク10を配置したのち、プログラムの起動操作をすることのみで、必要な5箇所の観測データを得られるようにする。必要な5箇所のマークの観測位置、姿勢をあらかじめプログラムとして組み込んでおくことにより、何かのトラブルで再度、座標系の校正作業が必要になったときに、迅速に対応できる。
Embodiment 2. FIG.
In the first embodiment, the operator operates the robot 30 from the manual operation panel 37 to control the position and posture of the hand of the robot 30 and guide the robot hand to the required five observation positions. In the second embodiment, five mark observation positions and postures at each position are programmed as a robot control program in advance and stored in the storage unit 31c of the robot controller 31. After the operator arranges the mark 10, The observation data at the required five points can be obtained only by starting the program. By incorporating the observation positions and orientations of the necessary five marks in advance as a program, it is possible to respond quickly when a calibration work for the coordinate system becomes necessary again due to some trouble.

実施の形態3.
図4は、実施の形態3のロボットシステムを示す模式図である。本実施の形態3の構成は実施の形態1の構成に対してロボット誘導装置(ロボット誘導手段)40が付加されている。実施の形態1では、マーク観測位置への手先すなわち視覚センサ20の移動は作業者の手動操作によるものであったが、本実施の形態3ではロボット誘導装置40が主導権を持って、マーク10の位置認識結果を用いてロボット10を誘導して視覚センサ20を順次所定のマーク観測位置へ移動させる。ロボット誘導装置40は誘導目標データとして理想観測画像情報41を記憶している。理想観測画像情報41には、第2、第3の観測に対しては、マーク10を観測する画像上の理想位置、第4、第5の観測にたいしてはマーク10を観測する画像上の理想位置と観測1から見た姿勢の理想回転情報が保持されている。
Embodiment 3 FIG.
FIG. 4 is a schematic diagram illustrating the robot system according to the third embodiment. In the configuration of the third embodiment, a robot guidance device (robot guidance means) 40 is added to the configuration of the first embodiment. In the first embodiment, the movement of the hand, that is, the visual sensor 20 to the mark observation position is by manual operation of the operator. However, in the third embodiment, the robot guidance device 40 has the initiative and the mark 10 The robot 10 is guided using the result of position recognition, and the visual sensor 20 is sequentially moved to a predetermined mark observation position. The robot guidance device 40 stores ideal observation image information 41 as guidance target data. The ideal observation image information 41 includes an ideal position on the image for observing the mark 10 for the second and third observations, and an ideal position on the image for observing the mark 10 for the fourth and fifth observations. And the ideal rotation information of the posture as viewed from observation 1 is held.

まず、作業者は図3の観測1のような観測ができる位置にロボット30の手先を手動操作で移動させる。次に自動モードに切り替えて、ロボット誘導装置40を起動する。ロボット誘導装置40は、順次、第2、第3、第4、第5のマーク観測位置姿勢に、ビジュアルフィードバックと呼ばれる手法でロボット30の手先を誘導する。すなわち、現在観測しているマーク10の位置と理想観測画像情報41に記された画像上の理想マーク位置の差が小さくなるようにロボット30を誘導する。そのためにまず、視覚センサ25の視野22からマークが外れない程度にわずかにロボット30の手先を移動させ、その結果マーク10が画像上でどの方向へ移動したか調べ、理想位置にマークが近づくように試行錯誤を繰り返す。そして、理想マーク位置と画像上のマーク位置の差が一定以下になれば、目標観測位置に達したと判断する。第2、第3の観測においては姿勢は最初に作業者が手動操作で移動した姿勢を変化させず、第4、第5の観測においては理想観測画像情報41に記された回転を、マーク10が視野22から外れない程度に序々に加えて同様に誘導する。なお、本実施の形態の理想観測画像情報41は、ロボット誘導装置40の内部に設けられた記憶部に記憶されているが、外部に設けられた記憶装置などに記憶されてもよい。   First, the operator manually moves the hand of the robot 30 to a position where observation like the observation 1 in FIG. 3 can be performed. Next, the robot guidance device 40 is activated by switching to the automatic mode. The robot guidance device 40 sequentially guides the hand of the robot 30 to the second, third, fourth, and fifth mark observation positions and postures by a technique called visual feedback. That is, the robot 30 is guided so that the difference between the position of the mark 10 currently observed and the ideal mark position on the image described in the ideal observation image information 41 becomes small. For this purpose, first, the hand of the robot 30 is slightly moved so that the mark does not come off from the visual field 22 of the visual sensor 25, and as a result, it is checked in which direction the mark 10 has moved on the image so that the mark approaches the ideal position. Repeat trial and error. Then, if the difference between the ideal mark position and the mark position on the image is below a certain level, it is determined that the target observation position has been reached. In the second and third observations, the posture does not change the posture that the operator first moved manually. In the fourth and fifth observations, the rotation described in the ideal observation image information 41 is changed to the mark 10. In addition to the above, the guidance is performed in the same manner. The ideal observation image information 41 according to the present embodiment is stored in a storage unit provided inside the robot guidance device 40, but may be stored in a storage device provided outside.

このようにして、本実施の形態3では5箇所の観測データを自動的に取得することができる。視覚センサ20では一般に視野中心部における計測精度が視野周辺部よりも高い。理想観測画像情報41として視野中心で観測するように設定しておけば、作業者の目視によるマーク観測位置の位置決めよりも精度のよい観測データをもとに座標系の校正を実施できる。   In this way, in the third embodiment, observation data at five locations can be automatically acquired. The visual sensor 20 generally has higher measurement accuracy in the center of the visual field than in the peripheral part of the visual field. If the ideal observation image information 41 is set to observe at the center of the visual field, the coordinate system can be calibrated based on observation data with higher accuracy than the positioning of the mark observation position by the operator's visual observation.

以上のように、本発明にかかる座標系校正方法及びロボットシステムは、ロボットハンドに視覚センサを組み合わせたロボットシステムの座標系校正方法に最適なものである。   As described above, the coordinate system calibration method and the robot system according to the present invention are optimal for the coordinate system calibration method of the robot system in which the visual sensor is combined with the robot hand.

10 マーク
20 視覚センサ
21 画像処理装置
22 視野
25 センサ座標系
30 ロボット
31 ロボットコントローラ(ロボット動作手段)
31a 制御部
31b 演算部
31c 記憶部
32 フランジ
35 ロボット座標系
36 フランジ座標系(手先座標系)
37 手動操作パネル(ロボット動作手段)
40 ロボット誘導装置(ロボット誘導手段)
41 理想観測画像情報
10 mark 20 visual sensor 21 image processing apparatus 22 field of view 25 sensor coordinate system 30 robot 31 robot controller (robot operation means)
31a Control unit 31b Calculation unit 31c Storage unit 32 Flange 35 Robot coordinate system 36 Flange coordinate system (hand coordinate system)
37 Manual operation panel (robot operation means)
40 Robot guidance device (robot guidance means)
41 Ideal observation image information

Claims (6)

ロボットと、前記ロボットの手先に固定された視覚センサを組み合わせたシステムにおいて、記憶部に記憶された前記ロボットの手先座標系と前記視覚センサのセンサ座標系の相対的な関係を記述する関連情報を校正する方法であり、
前記ロボットのロボット座標系に一つのマークを配置し、
前記視覚センサを取り付けた前記ロボットの手先を移動させて、前記マークに向けた前記視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、前記マークに対して前記第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向から前記マークを臨む少なくとも第4及び第5の観測箇所で、前記マークの観測を行い、
各観測箇所の画像を画像処理してマーク位置認識データを得て、
各観測箇所での前記ロボットの姿勢データと前記マーク位置認識データとを対応づけて取得し、両データに基づいて前記関連情報を校正する
ことを特徴とする座標系校正方法。
In a system combining a robot and a visual sensor fixed to the hand of the robot, related information describing a relative relationship between the hand coordinate system of the robot stored in a storage unit and the sensor coordinate system of the visual sensor is stored. A method of proofreading,
Placing one mark in the robot coordinate system of the robot,
At least first to third observation points that have been translated by moving the hand of the robot to which the visual sensor is attached and changing the posture of the visual sensor toward the mark, and the mark On the other hand, the mark is observed at least at the fourth and fifth observation points facing the mark from directions different from and different from the first to third observation directions,
Image processing of each observation point image to obtain mark position recognition data,
A coordinate system calibration method characterized in that the posture data of the robot at each observation point and the mark position recognition data are acquired in association with each other, and the related information is calibrated based on both data.
前記ロボットを制御するロボットコントローラに、あらかじめ前記第1から第5の5箇所の観測箇所をプログラミングしておき、前記ロボットコントローラにより、各観測箇所への移動、観測、画像処理及び前記関連情報の校正を自動的に制御する
ことを特徴とする請求項1に記載の座標系校正方法。
The first to fifth observation points are programmed in advance in a robot controller that controls the robot, and the robot controller moves to each observation point, observes, processes images, and calibrates the related information. The coordinate system calibration method according to claim 1, wherein the coordinate system is automatically controlled.
前記視覚センサによって観測される画像が、あらかじめ登録された理想的な観測画像と一致するように漸近的にロボットを誘導するロボット誘導手段を設け、
前記ロボット誘導手段により、前記視覚センサの各観測箇所への移動を行う
ことを特徴とする請求項1に記載の座標系校正方法。
A robot guidance means for asymptotically guiding the robot so that an image observed by the visual sensor matches an ideal observation image registered in advance;
The coordinate system calibration method according to claim 1, wherein the robot guidance unit moves the visual sensor to each observation location.
ロボットと、前記ロボットの手先に固定された視覚センサと、前記視覚センサの画像処理を行う画像処理装置と、前記ロボットを動作させるロボット動作手段と、前記ロボットの手先座標系と前記視覚センサのセンサ座標系の相対的な関係を記述する関連情報を記憶する記憶部と、前記関連情報を校正する演算部とを備え、
前記ロボットのロボット座標系に一つのマークが配置されており、
前記ロボット動作手段は、前記視覚センサを取り付けた前記ロボットの手先を、前記マークに向けた前記視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、前記マークに対して前記第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向の少なくとも第4及び第5の観測箇所に移動させ、
前記画像処理装置は、各観測箇所の前記視覚センサの画像を画像処理してマーク位置認識データを出力し、
前記演算部は、各観測箇所での前記ロボットの姿勢データと前記マーク位置認識データとを対応づけて取得し、このデータに基づいて前記関連情報を校正する
ことを特徴とするロボットシステム。
A robot, a visual sensor fixed to the hand of the robot, an image processing device for performing image processing of the visual sensor, a robot operating means for operating the robot, a hand coordinate system of the robot, and a sensor of the visual sensor A storage unit that stores related information describing a relative relationship of the coordinate system, and a calculation unit that calibrates the related information,
One mark is arranged in the robot coordinate system of the robot,
The robot operation means includes at least first to third observation points obtained by translating the hand of the robot to which the visual sensor is attached without changing the posture of the visual sensor toward the mark; Move to at least the fourth and fifth observation points in directions different from and different from the first to third observation directions with respect to the mark,
The image processing device performs image processing on the image of the visual sensor at each observation location and outputs mark position recognition data,
The arithmetic unit obtains the robot posture data and the mark position recognition data at each observation location in association with each other, and calibrates the related information based on the data.
前記ロボット動作手段は、前記第1から第5の5箇所の観測箇所があらかじめプログラミングされたロボットコントローラであり、前記ロボットコントローラは、各観測箇所への移動、観測及び前記関連情報の校正を自動的に行う
ことを特徴とする請求項4に記載のロボットシステム。
The robot operation means is a robot controller in which the first to fifth observation points are programmed in advance, and the robot controller automatically performs movement to each observation point, observation, and calibration of the related information. 5. The robot system according to claim 4, wherein the robot system is performed.
前記視覚センサによって観測される画像が、あらかじめ登録された理想的な観測画像と一致するように漸近的にロボットを誘導するロボット誘導手段を、さらに備え、
前記ロボット誘導手段は、各観測箇所にて前記視覚センサが理想的な位置に近づくように誘導する
ことを特徴とする請求項4に記載のロボットシステム。
Robot guidance means for asymptotically guiding the robot so that an image observed by the visual sensor matches an ideal observation image registered in advance;
The robot system according to claim 4, wherein the robot guiding unit guides the visual sensor so as to approach an ideal position at each observation point.
JP2010241016A 2010-10-27 2010-10-27 Coordinate system calibration method and robot system Active JP5371927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010241016A JP5371927B2 (en) 2010-10-27 2010-10-27 Coordinate system calibration method and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010241016A JP5371927B2 (en) 2010-10-27 2010-10-27 Coordinate system calibration method and robot system

Publications (2)

Publication Number Publication Date
JP2012091280A true JP2012091280A (en) 2012-05-17
JP5371927B2 JP5371927B2 (en) 2013-12-18

Family

ID=46385224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241016A Active JP5371927B2 (en) 2010-10-27 2010-10-27 Coordinate system calibration method and robot system

Country Status (1)

Country Link
JP (1) JP5371927B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014061578A (en) * 2012-09-24 2014-04-10 Seiko Epson Corp Robot, robot system, robot control device, robot control method, and program
JP2014069272A (en) * 2012-09-28 2014-04-21 Denso Wave Inc Calibration device; and calibration method of imaging device
JP2014070978A (en) * 2012-09-28 2014-04-21 Denso Wave Inc Calibration device, and calibration method of imaging apparatus
KR101465652B1 (en) * 2013-04-12 2014-11-28 성균관대학교산학협력단 Apparatus and method for calibration of a robot hand and a camera attached to robot hand
JP2015042437A (en) * 2013-07-22 2015-03-05 キヤノン株式会社 Robot system and calibration method of robot system
JP2015062991A (en) * 2013-08-28 2015-04-09 キヤノン株式会社 Coordinate system calibration method, robot system, program, and recording medium
JP2015136770A (en) * 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
WO2015129473A1 (en) * 2014-02-28 2015-09-03 ソニー株式会社 Robot arm apparatus, calibration method, and program
WO2015129474A1 (en) * 2014-02-28 2015-09-03 ソニー株式会社 Robot arm apparatus, robot arm control method, and program
JP2017100202A (en) * 2015-11-30 2017-06-08 株式会社アイキューブテクノロジ Robot system, control device, control method, and program
CN107175662A (en) * 2017-06-02 2017-09-19 成都福莫斯智能系统集成服务有限公司 The position calibration method of robot arm
CN107309884A (en) * 2016-04-27 2017-11-03 上海福赛特机器人有限公司 Robot calibration system and method
WO2017208699A1 (en) * 2016-05-30 2017-12-07 ソニー株式会社 Information processing device, information processing method, program, and image capturing system
KR101842286B1 (en) 2012-10-30 2018-03-26 현대로보틱스주식회사 Method for Automatic Calibration of Robot
KR20180035172A (en) * 2016-09-28 2018-04-05 코그넥스코오포레이션 Simultaneous kinematic and hand-eye calibration
CN109227532A (en) * 2017-07-11 2019-01-18 精工爱普生株式会社 The bearing calibration of the control device and its system, robot and video camera of robot
JP2019155556A (en) * 2018-03-15 2019-09-19 セイコーエプソン株式会社 Control device of robot, robot, robot system, and calibration method for camera
CN111504183A (en) * 2020-04-22 2020-08-07 无锡中车时代智能装备有限公司 Calibration method for relative position of linear laser three-dimensional measurement sensor and robot
CN112686964A (en) * 2021-03-15 2021-04-20 中科长光精拓智能装备(苏州)有限公司 Calibration method and system for improving precision image indirect identification
CN112971993A (en) * 2016-08-16 2021-06-18 株式会社高迎科技 Surgical robot system for positioning operation and control method thereof
CN114174006A (en) * 2019-07-19 2022-03-11 西门子(中国)有限公司 Robot eye calibration method, device, computing equipment, medium and product

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063317A (en) * 1996-08-13 1998-03-06 Fanuc Ltd Method for combining coordinate system in robot and visual sensor system
JP3541980B2 (en) * 1995-03-28 2004-07-14 株式会社安川電機 Calibration method for robot with visual sensor
JP2005138223A (en) * 2003-11-06 2005-06-02 Fanuc Ltd Positional data correcting device for robot
JP2007061979A (en) * 2005-09-01 2007-03-15 Sharp Corp Visual sensor correction method for robot arm and computer program
JP2010112731A (en) * 2008-11-04 2010-05-20 Denso Wave Inc Joining method of coordinate of robot
JP2010188439A (en) * 2009-02-16 2010-09-02 Mitsubishi Electric Corp Method and apparatus for calculating parameter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3541980B2 (en) * 1995-03-28 2004-07-14 株式会社安川電機 Calibration method for robot with visual sensor
JPH1063317A (en) * 1996-08-13 1998-03-06 Fanuc Ltd Method for combining coordinate system in robot and visual sensor system
JP2005138223A (en) * 2003-11-06 2005-06-02 Fanuc Ltd Positional data correcting device for robot
JP2007061979A (en) * 2005-09-01 2007-03-15 Sharp Corp Visual sensor correction method for robot arm and computer program
JP2010112731A (en) * 2008-11-04 2010-05-20 Denso Wave Inc Joining method of coordinate of robot
JP2010188439A (en) * 2009-02-16 2010-09-02 Mitsubishi Electric Corp Method and apparatus for calculating parameter

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014061578A (en) * 2012-09-24 2014-04-10 Seiko Epson Corp Robot, robot system, robot control device, robot control method, and program
JP2014069272A (en) * 2012-09-28 2014-04-21 Denso Wave Inc Calibration device; and calibration method of imaging device
JP2014070978A (en) * 2012-09-28 2014-04-21 Denso Wave Inc Calibration device, and calibration method of imaging apparatus
KR101842286B1 (en) 2012-10-30 2018-03-26 현대로보틱스주식회사 Method for Automatic Calibration of Robot
KR101465652B1 (en) * 2013-04-12 2014-11-28 성균관대학교산학협력단 Apparatus and method for calibration of a robot hand and a camera attached to robot hand
JP2015042437A (en) * 2013-07-22 2015-03-05 キヤノン株式会社 Robot system and calibration method of robot system
JP2015062991A (en) * 2013-08-28 2015-04-09 キヤノン株式会社 Coordinate system calibration method, robot system, program, and recording medium
US9519736B2 (en) 2014-01-23 2016-12-13 Fanuc Corporation Data generation device for vision sensor and detection simulation system
JP2015136770A (en) * 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
JPWO2015129473A1 (en) * 2014-02-28 2017-03-30 ソニー株式会社 Robot arm device, calibration method and program
WO2015129474A1 (en) * 2014-02-28 2015-09-03 ソニー株式会社 Robot arm apparatus, robot arm control method, and program
CN106029308A (en) * 2014-02-28 2016-10-12 索尼公司 Robot arm apparatus, calibration method, and program
US10556345B2 (en) 2014-02-28 2020-02-11 Sony Corporation Robot arm apparatus and calibration method
JPWO2015129474A1 (en) * 2014-02-28 2017-03-30 ソニー株式会社 Robot arm apparatus, robot arm control method and program
US10561469B2 (en) 2014-02-28 2020-02-18 Sony Corporation Robot arm apparatus and robot arm control method
US11633245B2 (en) 2014-02-28 2023-04-25 Sony Corporation Robot arm apparatus and robot arm control method
CN106061427B (en) * 2014-02-28 2020-10-27 索尼公司 Robot arm apparatus, robot arm control method, and program
EP3112096A4 (en) * 2014-02-28 2017-11-15 Sony Corporation Robot arm apparatus, calibration method, and program
WO2015129473A1 (en) * 2014-02-28 2015-09-03 ソニー株式会社 Robot arm apparatus, calibration method, and program
CN106061427A (en) * 2014-02-28 2016-10-26 索尼公司 Robot arm apparatus, robot arm control method, and program
JP2017100202A (en) * 2015-11-30 2017-06-08 株式会社アイキューブテクノロジ Robot system, control device, control method, and program
CN107309884A (en) * 2016-04-27 2017-11-03 上海福赛特机器人有限公司 Robot calibration system and method
WO2017208699A1 (en) * 2016-05-30 2017-12-07 ソニー株式会社 Information processing device, information processing method, program, and image capturing system
CN112971993A (en) * 2016-08-16 2021-06-18 株式会社高迎科技 Surgical robot system for positioning operation and control method thereof
KR20180035172A (en) * 2016-09-28 2018-04-05 코그넥스코오포레이션 Simultaneous kinematic and hand-eye calibration
KR102093165B1 (en) * 2016-09-28 2020-03-25 코그넥스코오포레이션 Simultaneous kinematic and hand-eye calibration
US10864639B2 (en) 2016-09-28 2020-12-15 Cognex Corporation Simultaneous kinematic and hand-eye calibration
JP2018051758A (en) * 2016-09-28 2018-04-05 コグネックス・コーポレイション Simultaneous kinematics and hand eye calibration
CN107175662A (en) * 2017-06-02 2017-09-19 成都福莫斯智能系统集成服务有限公司 The position calibration method of robot arm
JP2019014030A (en) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 Control device for robot, robot, robot system, and calibration method for camera
CN109227532A (en) * 2017-07-11 2019-01-18 精工爱普生株式会社 The bearing calibration of the control device and its system, robot and video camera of robot
CN109227532B (en) * 2017-07-11 2023-08-29 精工爱普生株式会社 Robot control device and system thereof, robot and camera correction method
JP7003462B2 (en) 2017-07-11 2022-01-20 セイコーエプソン株式会社 Robot control device, robot system, and camera calibration method
JP2019155556A (en) * 2018-03-15 2019-09-19 セイコーエプソン株式会社 Control device of robot, robot, robot system, and calibration method for camera
JP7035657B2 (en) 2018-03-15 2022-03-15 セイコーエプソン株式会社 Robot control device, robot, robot system, and camera calibration method
CN114174006B (en) * 2019-07-19 2024-03-05 西门子(中国)有限公司 Robot hand-eye calibration method, device, computing equipment, medium and product
CN114174006A (en) * 2019-07-19 2022-03-11 西门子(中国)有限公司 Robot eye calibration method, device, computing equipment, medium and product
CN111504183A (en) * 2020-04-22 2020-08-07 无锡中车时代智能装备有限公司 Calibration method for relative position of linear laser three-dimensional measurement sensor and robot
CN111504183B (en) * 2020-04-22 2021-03-09 无锡中车时代智能装备有限公司 Calibration method for relative position of linear laser three-dimensional measurement sensor and robot
CN112686964A (en) * 2021-03-15 2021-04-20 中科长光精拓智能装备(苏州)有限公司 Calibration method and system for improving precision image indirect identification

Also Published As

Publication number Publication date
JP5371927B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5371927B2 (en) Coordinate system calibration method and robot system
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP4021413B2 (en) Measuring device
US9437005B2 (en) Information processing apparatus and information processing method
US9199379B2 (en) Robot system display device
EP1584426B1 (en) Tool center point calibration system
US20160279800A1 (en) Robot, robot control device, and robotic system
US11072074B2 (en) Calibration and operation of vision-based manipulation systems
JP2018528084A (en) Automatic calibration method for robot system
US11403780B2 (en) Camera calibration device and camera calibration method
US11230011B2 (en) Robot system calibration
JP2014013147A (en) Three-dimensional measuring instrument and robot device
CN110621447B (en) Robot conveyor calibration method, robot system and control system
JP2010188439A (en) Method and apparatus for calculating parameter
JP2019069493A (en) Robot system
JP5787646B2 (en) Robot system and component manufacturing method
Evangelista et al. An unified iterative hand-eye calibration method for eye-on-base and eye-in-hand setups
JP7366264B2 (en) Robot teaching method and robot working method
Scaria et al. Cost Effective Real Time Vision Interface for Off Line Simulation of Fanuc Robots
CN116867615A (en) Installation position measuring device, installation position measuring method, robot control device, teaching system, and simulation device for robot
WO2020184575A1 (en) Measurement system and measurement method
Axelrod et al. Improving hand-eye calibration for robotic grasping and manipulation
KR20130104284A (en) Sensor calibration apparatus
Evangelista et al. A Graph-Based Optimization Framework for Hand-Eye Calibration for Multi-Camera Setups
US20220219328A1 (en) Method and device for creation of three dimensional tool frame

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R150 Certificate of patent or registration of utility model

Ref document number: 5371927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250