JP2012091280A - Coordinate system calibration method and robot system - Google Patents
Coordinate system calibration method and robot system Download PDFInfo
- Publication number
- JP2012091280A JP2012091280A JP2010241016A JP2010241016A JP2012091280A JP 2012091280 A JP2012091280 A JP 2012091280A JP 2010241016 A JP2010241016 A JP 2010241016A JP 2010241016 A JP2010241016 A JP 2010241016A JP 2012091280 A JP2012091280 A JP 2012091280A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- observation
- mark
- coordinate system
- visual sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットと視覚センサとを組み合わせたロボットシステムの座標系校正方法に関するものである。 The present invention relates to a coordinate system calibration method for a robot system that combines a robot and a visual sensor.
従来、ロボットと視覚センサとを組み合わせたシステムにおいて、視覚センサの設置形態の一つにハンドアイと呼ばれる方式が提案されている。ロボットの手先部(フランジ)に視覚センサを固定し、視覚センサにロボットの手先部と同一の動きをさせるもので、視覚センサの数を増やすことなく複数の位置での計測が可能なことから、コスト面や作業スペース節約の面から効果が大きい。 Conventionally, in a system combining a robot and a visual sensor, a method called a hand eye has been proposed as one of the installation forms of the visual sensor. Because the visual sensor is fixed to the robot's hand (flange) and the visual sensor moves the same as the robot's hand, it is possible to measure at multiple positions without increasing the number of visual sensors. Great effect in terms of cost and work space saving.
ハンドアイ方式を採用したシステムにおいては、視覚センサを用いて対象物の位置を計測し、それに基づいてロボットの動作(位置)を補正する。そのためには、視覚センサによって得られる対象物の位置データをロボットが動作する座標系上のデータに変換する必要がある。すなわち、視覚センサの座標系(センサ座標系)と、ロボットが動作する座標系(ロボット座標系)の間の関係を情報として求めておく必要がある。 In a system employing a hand-eye method, the position of an object is measured using a visual sensor, and the movement (position) of the robot is corrected based on the measured position. For this purpose, it is necessary to convert the position data of the object obtained by the visual sensor into data on a coordinate system in which the robot operates. That is, the relationship between the coordinate system of the visual sensor (sensor coordinate system) and the coordinate system (robot coordinate system) in which the robot operates must be obtained as information.
一般に、ロボットアームの先端には、各種ツールを取付けるフランジが設けられている。そして、このフランジに定義されている座標系(フランジ座標系/手先座標系)をロボット座標系に変換するパラメータ(回転行列と並進ベクトル)が、ロボットコントローラの記憶部に記憶されている。したがって、このフランジに視覚センサが取付けられた場合には、視覚センサの座標系つまりセンサ座標系をフランジ座標系に変換するパラメータを校正すればよい。これにより、視覚センサで検出した対象物のセンサ座標系をフランジ座標系に変換し、さらにそれをロボット座標系に変換することができる。 Generally, a flange for attaching various tools is provided at the tip of the robot arm. Parameters (rotation matrix and translation vector) for converting the coordinate system (flange coordinate system / hand coordinate system) defined for the flange into a robot coordinate system are stored in the storage unit of the robot controller. Therefore, when a visual sensor is attached to the flange, the parameters for converting the coordinate system of the visual sensor, that is, the sensor coordinate system to the flange coordinate system, may be calibrated. Thereby, the sensor coordinate system of the target object detected by the visual sensor can be converted into the flange coordinate system, and further converted into the robot coordinate system.
下記の特許文献1は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法に関するものである。同一平面上に視覚センサが検出可能なマークを4つ以上設けて、ロボットの制御点をマークに位置決めすることによりマークのロボット座標を取得する。一方、ロボットの手先を所定位置に固定して視覚センサでマークを検出することでマークのセンサ座標を取得する。その後、一定の評価により3つのマークを選択し、3つのマークのロボット座標とセンサ座標の対応関係から両座標系の関係を決定する。 Patent Document 1 below relates to a calibration method when a visual sensor is attached to the tip of a robot arm. Four or more marks that can be detected by the visual sensor are provided on the same plane, and the robot coordinate of the mark is obtained by positioning the control point of the robot on the mark. On the other hand, the sensor coordinates of the mark are acquired by fixing the hand of the robot at a predetermined position and detecting the mark with a visual sensor. Thereafter, three marks are selected by a constant evaluation, and the relationship between the two coordinate systems is determined from the correspondence between the robot coordinates of the three marks and the sensor coordinates.
また、下記の非特許文献1は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法に関するものである。この文献では座標系の回転と並進を4×4の行列で表現する方法を用いているが、アーム先端の姿勢すなわち視覚センサの姿勢を変えて2方向から校正用マークを観測すると、センサ座標系のXをフランジ座標系に変換する行列として、AX=XBという形式の方程式が成立することを示している。ここでAは校正用マークを視覚センサで検出したときのアームの2通りの姿勢に関する行列で、ロボットコントローラの出力から得られる。一方Bはアームの各姿勢のときに視覚センサで検出された校正用マークのセンサ系座標に関する行列で、校正用マークの検出結果から得られる。そして、この方程式をいかに解いて行列Xを求めるかということがこの文献の主題になっている。ここで、行列Bを得るためには同一平面にはない校正用マークが少なくとも4点必要である。 Non-Patent Document 1 below relates to a calibration method in the case where a visual sensor is attached to the tip of a robot arm. In this document, a method of expressing the rotation and translation of the coordinate system as a 4 × 4 matrix is used. However, if the calibration mark is observed from two directions by changing the posture of the arm tip, that is, the posture of the visual sensor, the sensor coordinate system is used. It is shown that an equation of the form of AX = XB is established as a matrix for converting X in the flange coordinate system. Here, A is a matrix related to two postures of the arm when the calibration mark is detected by the visual sensor, and is obtained from the output of the robot controller. On the other hand, B is a matrix related to the sensor system coordinates of the calibration mark detected by the visual sensor at each posture of the arm, and is obtained from the detection result of the calibration mark. The subject of this document is how to solve this equation to find the matrix X. Here, in order to obtain the matrix B, at least four calibration marks that are not on the same plane are required.
さらに、下記の非特許文献2は、ロボットの手先に取り付けられた視覚センサで、ロボット座標系に固定されたただ一つのマークを、ロボットの手先の位置・姿勢を変化させてさまざまな方向(一つの実験例では27方向)から観測し、その観測データを用いて非線形最適化手法による複雑なアルゴリズムでロボットの手先の座標系とセンサの座標系の関係を計算している。 Further, Non-Patent Document 2 below is a visual sensor attached to the hand of a robot, and a single mark fixed to the robot coordinate system is changed in various directions (one by changing the position and posture of the hand of the robot. In one experimental example, observation is performed from 27 directions), and the relationship between the coordinate system of the hand of the robot and the coordinate system of the sensor is calculated by using a complex algorithm based on the nonlinear optimization method using the observed data.
しかしながら、上記特許文献1に開示された校正方法は、視覚センサがロボットのアーム先端に取り付けられている場合の校正方法において、視覚センサが検出可能なマークを同一平面上に4つ以上設けて、ロボットの制御点をマークに位置決めすることによりマークのロボット座標を取得するものであり、校正用マークが4点以上必要であるので、コストが増えるという問題があった。 However, the calibration method disclosed in Patent Document 1 is a calibration method in which the visual sensor is attached to the tip of the arm of the robot, and four or more marks that can be detected by the visual sensor are provided on the same plane. The robot coordinate of the mark is obtained by positioning the control point of the robot on the mark, and four or more calibration marks are required, which increases the cost.
また、上記非特許文献1に開示された校正方法は、同一平面にない、すなわち3次元的に配置された校正用マークが4点以上必要であり、それらは2方向から同時に精度よく視覚センサによって検出可能とされていなければならない。そのため、形状と配置に工夫が必要で、その製作にコストと時間を要する、という問題があった。 Further, the calibration method disclosed in Non-Patent Document 1 requires four or more calibration marks that are not in the same plane, that is, three-dimensionally arranged. Must be detectable. For this reason, there has been a problem that the shape and arrangement need to be devised, and the production requires cost and time.
また、非特許文献2に開示された校正方法は、校正用マークはただ一つでよいが、非常に多数の方向からマークを観測する必要があり、また非線形最適化手法を用いているので、計算が真値に収束する保証がない、という問題があった。 In addition, the calibration method disclosed in Non-Patent Document 2 requires only one calibration mark, but it is necessary to observe the mark from a very large number of directions, and a nonlinear optimization method is used. There was a problem that there was no guarantee that the calculation would converge to a true value.
本発明は、上記に鑑みてなされたものであって、ロボットと、ロボットの手先に固定された視覚センサを組み合わせたロボットシステムにおいて、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報(回転行列と並進ベクトル)を、容易にまた安価に校正することができる座標系校正方法及びロボットシステムを提供することを目的とする。 The present invention has been made in view of the above, and in a robot system that combines a robot and a visual sensor fixed to the hand of the robot, the relative relationship between the robot's hand coordinate system and the sensor coordinate system of the visual sensor. It is an object of the present invention to provide a coordinate system calibration method and a robot system that can calibrate related information (rotation matrix and translation vector) describing a relationship easily and inexpensively.
上述した課題を解決し、目的を達成するために、本発明の座標系校正方法は、ロボットと、ロボットの手先に固定された視覚センサを組み合わせたシステムにおいて、記憶部に記憶されたロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を校正する方法であり、ロボットのロボット座標系に一つのマークを配置し、視覚センサを取り付けたロボットの手先を移動させて、マークに向けた視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マークに対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向からマークを臨む少なくとも第4及び第5の観測箇所で、マークの観測を行い、各観測箇所の画像を画像処理してマーク位置認識データを得て、各観測箇所でのロボットの姿勢データとマーク位置認識データとを対応づけて取得し、両データに基づいて関連情報を校正することを特徴とする。 In order to solve the above-described problems and achieve the object, the coordinate system calibration method of the present invention is a system that combines a robot and a visual sensor fixed to the hand of the robot. This is a method to calibrate the related information describing the relative relationship between the coordinate system and the sensor coordinate system of the visual sensor. One mark is placed in the robot coordinate system of the robot and the hand of the robot with the visual sensor attached is moved. And at least the first to third observation locations translated without changing the attitude of the visual sensor toward the mark, and a direction different from the first to third observation directions with respect to the mark In addition, the mark is observed at least at the fourth and fifth observation points facing the mark from different directions, and the image of each observation point is processed to obtain the mark position recognition data. Te, acquires the posture data and the mark position recognition data of the robot at each observation point in association with, and wherein the calibrating the relevant information based on both data.
上述した課題を解決し、目的を達成するために、本発明のロボットシステムは、ロボットと、ロボットの手先に固定された視覚センサと、視覚センサの画像処理を行う画像処理装置と、ロボットを動作させるロボット動作手段と、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を記憶する記憶部と、関連情報を校正する演算部とを備え、ロボットのロボット座標系に一つのマークが配置されており、ロボット動作手段は、視覚センサを取り付けたロボットの手先を、マークに向けた視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マークに対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向の少なくとも第4及び第5の観測箇所に移動させ、画像処理装置は、各観測箇所の視覚センサの画像を画像処理してマーク位置認識データを出力し、演算部は、各観測箇所でのロボットの姿勢データとマーク位置認識データとを対応づけて取得し、このデータに基づいて関連情報を校正することを特徴とする。 In order to solve the above-described problems and achieve the object, a robot system of the present invention operates a robot, a visual sensor fixed to the hand of the robot, an image processing apparatus that performs image processing of the visual sensor, and a robot A robot operation means, a storage unit that stores relative information describing a relative relationship between the robot's hand coordinate system and the sensor coordinate system of the visual sensor, and a calculation unit that calibrates the related information. One mark is arranged in the system, and the robot operation means translates at least the first to third three of the robot's hand attached with the visual sensor without changing the posture of the visual sensor toward the mark. Observation points and at least the fourth and fifth observation points in directions different from and different from the first to third observation directions with respect to the mark. The image processing device performs image processing on the image of the visual sensor at each observation point and outputs mark position recognition data, and the calculation unit associates the robot posture data with the mark position recognition data at each observation point. The related information is calibrated and the related information is calibrated based on this data.
本発明によれば、ロボットの手先座標系と視覚センサのセンサ座標系の相対的な関係を記述する関連情報を、容易にまた安価に校正することができる、という効果を奏する。 According to the present invention, there is an effect that related information describing the relative relationship between the hand coordinate system of the robot and the sensor coordinate system of the visual sensor can be calibrated easily and inexpensively.
以下に、本発明にかかる座標系校正方法及びロボットシステムの実施の形態を図面に基づいて詳細に説明する。なおこの実施の形態によりこの発明が限定されるものではない。 Embodiments of a coordinate system calibration method and a robot system according to the present invention will be described below in detail with reference to the drawings. The present invention is not limited to the embodiments.
実施の形態1.
本実施の形態1においては、視覚センサが位置認識可能である一つのマークをロボットの座標系に配置し、視覚センサを取り付けたロボットの手先を制御して、少なくとも3箇所の視覚センサの姿勢が同じでかつ異なる観測位置に移動(つまり平行移動のみ)させ、また少なくとも3箇所の視覚センサの姿勢が互いに異なる方向から該マークを観測する観測位置に移動させてマークを観測し、各マーク観測箇所でのロボットの姿勢のデータと視覚システムによるマーク位置認識データとを対応づけて取得し、そのデータに基づいてロボットの手先の座標系と視覚センサの座標系の関係を表す関連情報(パラメータ)を校正する。
Embodiment 1 FIG.
In the first embodiment, one mark that can be recognized by the visual sensor is arranged in the coordinate system of the robot, the hand of the robot to which the visual sensor is attached is controlled, and the postures of at least three visual sensors are Move to the same and different observation positions (that is, only parallel movement), and move the marks from different directions in which the attitude of the visual sensor is different from each other to observe the marks. The robot posture data and the mark position recognition data obtained by the visual system are acquired in association with each other. Based on the data, related information (parameters) representing the relationship between the coordinate system of the robot hand and the coordinate system of the visual sensor is obtained. Calibrate.
用意する校正用マークは一つでよく、その配置位置の座標は未知でよい。マークの観測位置は5箇所でたり、そのうち3箇所は視覚センサを平行移動させた位置でよいので、安価で、容易にロボットの手先の座標系とセンサ座標系の間の関係を校正することができる。計算は連立方程式を解いて行われるが解析的に解を求めることができるので、非線形最適化アルゴリズムのように真値に収束するか否の心配がない。 One calibration mark may be prepared, and the coordinates of the arrangement position may be unknown. There are five mark observation positions, and three of them may be positions where the visual sensor is translated, so it is inexpensive and can easily calibrate the relationship between the coordinate system of the robot hand and the sensor coordinate system. it can. The calculation is performed by solving simultaneous equations, but since the solution can be obtained analytically, there is no concern about whether or not it converges to a true value unlike the nonlinear optimization algorithm.
図1は、実施の形態1のロボットシステムを示す模式図である。図1において、本実施の形態1のロボットシステム101は、ロボット30、ロボットコントローラ31、手動操作パネル37、画像処理装置21、視覚センサ20を含んで構成されている。ロボットコントローラ31には、ロボット30と画像処理装置21と手動操作パネル37が接続されている。
FIG. 1 is a schematic diagram illustrating the robot system according to the first embodiment. In FIG. 1, a
ロボット30は、6自由度の多関節ロボットであり、ロボットアームの先端には、フランジ32が設けられている。このフランジ32には作業用のツールとして例えばロボットハンド等が装着されるが図1では省略している。そして、このフランジ32には、ロボットハンド等のツールと並んで視覚センサ20が取り付けられている。
The
一般にロボット座標系35の原点は、ロボット30の基部の底面にあり、Z軸を垂直方向にとって定義される。図1ではこのロボット座標系35を便宜上少しずらして描いている。フランジ座標系(手先座標系)36は、ロボット30の手先のフランジ32に定義された座標系で、同様に図1では便宜上少しずらして描いている。フランジ座標系(手先座標系)36の位置と姿勢はロボットコントローラ31が制御している。ロボット座標系35内に唯一つの校正用マークが配置されており、その座標位置は未知である。
In general, the origin of the robot coordinate
視覚センサ20を用いて対象物の位置を計測し、それに基づいてロボット30の動作をさせるために、視覚センサ20によって得られる対象物の位置データをロボット30が動作する座標系上のデータに変換する。つまり、視覚センサ20の座標系(これを「センサ座標系25」と言う)と、ロボット30が動作する座標系(これを「ロボット座標系35」と言う)の間の関係を予め求める。ロボットアーム先端のフランジ32に定義されているフランジ座標系(手先座標系)36をロボット座標系35に変換するパラメータが、ロボットコントローラ31の記憶部31cにあらかじめ記憶されている。そして、このフランジ32に視覚センサ20が取付けられているので、センサ座標系25をフランジ座標系36に変換するパラメータ(回転行列と並進ベクトル)を校正すればよい。これにより、視覚センサ20で検出したマーク10のセンサ座標系25をフランジ座標系36に変換し、さらにそれをロボット座標系35に変換することができる。
In order to measure the position of the object using the
ロボットコントローラ31は、マイクロプロセッサからなる中央演算処理装置(CPU)と、CPUにバス結合されたROMメモリ、RAMメモリ、不揮発性メモリ、ロボットの軸制御のためのディジタルサーボ回路と、サーボアンプ、外部信号の入出力装置、画像処理装置21と結ばれた通信インターフェイス等を備えている。これら電子部品は、機能的に制御部31a、演算部31b、記憶部31cを構成している。
The
記憶部31cを構成するメモリのうち、ROMメモリにはシステムを制御するシステムプログラムが格納され、RAMメモリはCPUが行なう処理のためのデータの一時記憶等に使用される。また、不揮発性メモリには、動作プログラムのデータや、システムの動作に必要な各種設定値が格納される。この各種設定値には、ロボット30のフランジ32に定義されている座標系(フランジ座標系/手先座標系)36をロボット座標系35に変換するパラメータ、すなわち、フランジ座標系(手先座標系)36とセンサ座標系25の相対的な関係を記述する関連情報であるパラメータ(回転行列と並進ベクトル)も含まれている。ロボットコントローラ31は、フランジ32の位置姿勢を制御すると同時にそのデータをリアルタイムでアップデートしており、出力することができる。なお、本実施の形態の記憶部31cは、ロボットコントローラ31の内部に設けられているが、外部に設けられた記憶装置であってもよい。
Of the memories constituting the
手動操作パネル37は、ロボット30の手動操作をするためのパネルであり、このパネル上に設けられたボタン、ジョイスティックなどを操作することにより、ロボット30を手動操作できるようになっている。
The
本実施の形態1の動作においては、ロボットコントローラ31と手動操作パネル37は、視覚センサ20を第1の観測位置1から第5の観測位置5に順次移動させるロボット動作手段を構成している。作業者が、手動操作パネル37を使ってボタン操作などによりロボットを操作して、視覚センサ20を第1の観測位置1から第5の観測位置5に順次移動させる場合には、手動操作パネル37がロボット動作手段を構成する。一方、ロボットコントローラ31の記憶部31cに記憶された動作プログラムにより、自動的に視覚センサ20が第1の観測位置1から第5の観測位置5に順次移動する場合(実施の形態2)には、ロボットコントローラ31がロボット動作手段を構成する。
In the operation of the first embodiment, the
視覚センサ20は、視野22を有し、マーク10の3次元位置データを得ることができる視覚センサであり、図1では一つのカメラのように描かれているが、2眼ステレオカメラのようなセンサでもよい。視覚センサ20には、視覚センサ20が撮像した画像の情報を処理する画像処理装置21が接続されている。一般にセンサ座標系25の原点はレンズ中心にとり、Z軸を光軸方向にとるが、図1では便宜上少しずらして描いている。
The
次に、動作の説明に入る前に、座標系の関係を整理しておく。ロボット30の手先座標系(フランジ座標系)36とセンサ座標系25の間の関係の校正作業で目的とするのは、次式に示すセンサ系座標(x、y、z)をフランジ系座標(XF,YF,ZF)に変換する3×3の回転行列Rhと並進ベクトルThを決定することである。
フランジ系座標36は、次式でロボット系座標35に変換される。
ここでRf、Tfはロボットコントローラ31が保持しているフランジ32の位置、姿勢を表す回転行列と並進ベクトルである。そして、(1)(2)式を結合すると、
式を変形すると
同様にして、視覚センサ20の姿勢を同じに保ったまま第3の位置Tf3に移動して、同じ校正用マークを観測すると、
次に、フランジ32の位置と姿勢をTf4,Rf4に移動して校正用マークを観測し、マーク10のセンサ系座標が(x4、y4、z4)だったとすると、(4)式と同様に
前述のようにしてRhが求まっていれば、(8)式の未知数は右辺のThのみであり、[Rf4−Rfc]の逆行列を左から掛ければThが求まるように思われる。しかし回転行列の差の行列はランクが2に縮退しているため、逆行列は存在しない。そこで、さらにフランジ32の位置と姿勢をTf5,Rf5に移動して校正用マークを観測し、マークのセンサ系座標が(x5、y5、z5)だったとすると、(8)式と同様にして
以上の準備のもと、以下に動作について説明する。作業者は、まず校正用マーク10を配置するが、その位置はロボット30を操作してその手先に取り付けられた視覚センサ20で以下に述べるような観測が可能な位置ならどこでもよい。そして、その座標も未知でよい。マーク10の形状やパターンに特に制限はなく、マークが視覚センサで認識できて、その上の1点の位置が視覚センサ20で計測できればよい。
Based on the above preparation, the operation will be described below. The operator first arranges the
次に、作業者はロボット30の手動操作パネル37を操作して、順次ロボット30の手先の位置と姿勢を制御しながら、視覚センサ20によるマーク10の検出を5回実行し、各回のロボット30の姿勢データRf、Tfとマークのセンサ系座標を対応付けて記録する。このときに姿勢を変えずに位置だけ手先を移動させた第1から第3の観測箇所にてマーク10の観測を行い、次いで手先の位置も姿勢も変化させた第4および第5の観測箇所でマーク10の検出を実行する。
Next, the operator operates the
図2は、本実施の形態1の5箇所の観測位置の位置と姿勢を表す概念図である。第1から第3の観測箇所である観測1、2、3の観測姿勢は固定(一定の方向に保持)されており、観測位置のみ互いに異なることを示している。第4および第5の観測箇所である観測4と5は、第1の観測箇所にくらべて位置も姿勢も互いに異なっていることを示している。第1の観測箇所から第4の観測箇所への移動するとき、あるいは、第1の観測箇所から第5の観測箇所へ移動するときには、視覚センサ20はマーク10を回転中心とする円弧状の経路を通って移動(回転)する。このとき図示は難しいが、上述のように第1の観測箇所から第4の観測箇所への移動するときの円弧の回転軸と第1の観測箇所から第5の観測箇所へ移動するときの円弧の回転軸とは、ともにマーク10中心近傍を通る直線となるが、両直線が平行にならないように制御する。
FIG. 2 is a conceptual diagram showing the positions and orientations of the five observation positions according to the first embodiment. The observation postures of observations 1, 2, and 3, which are the first to third observation points, are fixed (held in a certain direction), indicating that only the observation positions are different from each other. Observations 4 and 5, which are the fourth and fifth observation points, indicate that the position and the posture are different from each other as compared with the first observation point. When moving from the first observation point to the fourth observation point, or when moving from the first observation point to the fifth observation point, the
各観測毎に、ロボットコントローラ31から出力されるフランジ座標系36の位置、姿勢を表す回転行列Rfと並進ベクトルTfが、画像処理装置21から出力される観測されたマーク10のセンサ系座標(x、y、z)25と対応づけられて記録される。
For each observation, the rotation matrix Rf representing the position and orientation of the flange coordinate
第1から第3の観測箇所である観測1、2、3から並進ベクトルを含まない方程式が得られて、回転行列が容易に求まり、第1、第4及び第5の観測箇所である観測1,4,5からは回転行列、並進ベクトルを含む一般形の方程式が得られるが、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。 An equation that does not include a translation vector is obtained from observations 1, 2, and 3 that are the first to third observation points, and a rotation matrix can be easily obtained. Observation 1 that is the first, fourth, and fifth observation points , 4 and 5 give general equations including a rotation matrix and a translation vector. However, if the rotation matrix is known, an equation of only the translation vector is obtained, and the translation vector can be easily obtained.
なお、マーク10の観測順序は図2に示された観測1から観測5の順序に従う必要はなく、任意の順序で実行してよい。図3にマークの観測例を示す。マークは正方形を2本の対角線で4分割し、4つの3角形を白、黒交互に塗り分けたパターンで、視覚センサ20がその位置を計測する点は対角線の交点である。このような明確な特徴のある点であれば、上記非特許文献2の技術のように2眼ステレオ方式の視覚センサで容易に対応点を見つけて、カメラからの距離を計算できる。
Note that the observation order of the
所定の5箇所のマーク観測が終了した後、方程式(5)(6)を連立で解いてRhを求め、求まったRhを利用して、方程式(8)(9)を連立で解いてThを求める。方程式を解く作業は、マーク観測時に得られるフランジ32の位置姿勢に関するデータ、TfとRfおよび視覚センサ20から出力されるマークのセンサ系座標(x、y、z)25の値を対応付けて、例えばエクセルのような表計算プログラムにインプットして解くことができる。
After completing the mark observation of a given 5 points, obtains the R h by solving equations (5) (6) in simultaneous, utilizing Motoma' was R h, by solving equations (8) (9) in simultaneous determine the T h. The work of solving the equation is associated with the data on the position and orientation of the
方程式を解く作業は、ロボットコントローラ31の記憶部31cに記憶されたプログラムを演算部31bにより解いたり、画像処理装置21の図示しない記憶部に記憶されたプログラムで実行したりしてもよい。その場合には、ロボットコントローラ31と画像処理装置21が通信網を介して必要なデータの送受信をするようにするのがよい。
The operation for solving the equations may be performed by solving a program stored in the
以上のように、本実施の形態1の座標系校正方法は、ロボット30のロボット座標系35に一つのマーク10を配置し、視覚センサ20を取り付けたロボット30の手先を移動させて、視覚センサ20の姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、マーク10に対して第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向からマーク10を臨む少なくとも第4及び第5の観測箇所で、マーク10の観測を行い、各観測箇所の画像を画像処理してマーク位置認識データを得て、各観測箇所でのロボット30の姿勢データとマーク位置認識データとを対応づけて取得し、両データに基づいて関連情報(パラメータ)を校正する。計算は連立方程式を解いて行われるが解析的に解を求めることができるので、非線形最適化アルゴリズムのように真値に収束するか否の心配がない。そして、第1から第3の観測箇所から並進ベクトルを含まない方程式がえられて、回転行列が容易に求まり、第1、第4及び第5の観測箇所からは回転行列、並進ベクトルを含む一般形の方程式が得られ、その際、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。これにより、ロボット30の手先座標系(フランジ座標系)36と視覚センサ20のセンサ座標系25の相対的な関係を記述する関連情報(パラメータ)を、容易にまた安価に校正することができる。
As described above, in the coordinate system calibration method according to the first embodiment, one
実施の形態2.
実施の形態1では、作業者が手動操作パネル37からロボット30を操作して、ロボット30の手先の位置と姿勢を制御して、必要な5箇所の観測位置へロボット手先を誘導した。本実施の形態2では、あらかじめ5箇所のマーク観測位置および各位置での姿勢をロボット制御プログラムとしてプログラミングしてロボットコントローラ31の記憶部31cに記憶させておき、作業者はマーク10を配置したのち、プログラムの起動操作をすることのみで、必要な5箇所の観測データを得られるようにする。必要な5箇所のマークの観測位置、姿勢をあらかじめプログラムとして組み込んでおくことにより、何かのトラブルで再度、座標系の校正作業が必要になったときに、迅速に対応できる。
Embodiment 2. FIG.
In the first embodiment, the operator operates the
実施の形態3.
図4は、実施の形態3のロボットシステムを示す模式図である。本実施の形態3の構成は実施の形態1の構成に対してロボット誘導装置(ロボット誘導手段)40が付加されている。実施の形態1では、マーク観測位置への手先すなわち視覚センサ20の移動は作業者の手動操作によるものであったが、本実施の形態3ではロボット誘導装置40が主導権を持って、マーク10の位置認識結果を用いてロボット10を誘導して視覚センサ20を順次所定のマーク観測位置へ移動させる。ロボット誘導装置40は誘導目標データとして理想観測画像情報41を記憶している。理想観測画像情報41には、第2、第3の観測に対しては、マーク10を観測する画像上の理想位置、第4、第5の観測にたいしてはマーク10を観測する画像上の理想位置と観測1から見た姿勢の理想回転情報が保持されている。
Embodiment 3 FIG.
FIG. 4 is a schematic diagram illustrating the robot system according to the third embodiment. In the configuration of the third embodiment, a robot guidance device (robot guidance means) 40 is added to the configuration of the first embodiment. In the first embodiment, the movement of the hand, that is, the
まず、作業者は図3の観測1のような観測ができる位置にロボット30の手先を手動操作で移動させる。次に自動モードに切り替えて、ロボット誘導装置40を起動する。ロボット誘導装置40は、順次、第2、第3、第4、第5のマーク観測位置姿勢に、ビジュアルフィードバックと呼ばれる手法でロボット30の手先を誘導する。すなわち、現在観測しているマーク10の位置と理想観測画像情報41に記された画像上の理想マーク位置の差が小さくなるようにロボット30を誘導する。そのためにまず、視覚センサ25の視野22からマークが外れない程度にわずかにロボット30の手先を移動させ、その結果マーク10が画像上でどの方向へ移動したか調べ、理想位置にマークが近づくように試行錯誤を繰り返す。そして、理想マーク位置と画像上のマーク位置の差が一定以下になれば、目標観測位置に達したと判断する。第2、第3の観測においては姿勢は最初に作業者が手動操作で移動した姿勢を変化させず、第4、第5の観測においては理想観測画像情報41に記された回転を、マーク10が視野22から外れない程度に序々に加えて同様に誘導する。なお、本実施の形態の理想観測画像情報41は、ロボット誘導装置40の内部に設けられた記憶部に記憶されているが、外部に設けられた記憶装置などに記憶されてもよい。
First, the operator manually moves the hand of the
このようにして、本実施の形態3では5箇所の観測データを自動的に取得することができる。視覚センサ20では一般に視野中心部における計測精度が視野周辺部よりも高い。理想観測画像情報41として視野中心で観測するように設定しておけば、作業者の目視によるマーク観測位置の位置決めよりも精度のよい観測データをもとに座標系の校正を実施できる。
In this way, in the third embodiment, observation data at five locations can be automatically acquired. The
以上のように、本発明にかかる座標系校正方法及びロボットシステムは、ロボットハンドに視覚センサを組み合わせたロボットシステムの座標系校正方法に最適なものである。 As described above, the coordinate system calibration method and the robot system according to the present invention are optimal for the coordinate system calibration method of the robot system in which the visual sensor is combined with the robot hand.
10 マーク
20 視覚センサ
21 画像処理装置
22 視野
25 センサ座標系
30 ロボット
31 ロボットコントローラ(ロボット動作手段)
31a 制御部
31b 演算部
31c 記憶部
32 フランジ
35 ロボット座標系
36 フランジ座標系(手先座標系)
37 手動操作パネル(ロボット動作手段)
40 ロボット誘導装置(ロボット誘導手段)
41 理想観測画像情報
10
37 Manual operation panel (robot operation means)
40 Robot guidance device (robot guidance means)
41 Ideal observation image information
Claims (6)
前記ロボットのロボット座標系に一つのマークを配置し、
前記視覚センサを取り付けた前記ロボットの手先を移動させて、前記マークに向けた前記視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、前記マークに対して前記第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向から前記マークを臨む少なくとも第4及び第5の観測箇所で、前記マークの観測を行い、
各観測箇所の画像を画像処理してマーク位置認識データを得て、
各観測箇所での前記ロボットの姿勢データと前記マーク位置認識データとを対応づけて取得し、両データに基づいて前記関連情報を校正する
ことを特徴とする座標系校正方法。 In a system combining a robot and a visual sensor fixed to the hand of the robot, related information describing a relative relationship between the hand coordinate system of the robot stored in a storage unit and the sensor coordinate system of the visual sensor is stored. A method of proofreading,
Placing one mark in the robot coordinate system of the robot,
At least first to third observation points that have been translated by moving the hand of the robot to which the visual sensor is attached and changing the posture of the visual sensor toward the mark, and the mark On the other hand, the mark is observed at least at the fourth and fifth observation points facing the mark from directions different from and different from the first to third observation directions,
Image processing of each observation point image to obtain mark position recognition data,
A coordinate system calibration method characterized in that the posture data of the robot at each observation point and the mark position recognition data are acquired in association with each other, and the related information is calibrated based on both data.
ことを特徴とする請求項1に記載の座標系校正方法。 The first to fifth observation points are programmed in advance in a robot controller that controls the robot, and the robot controller moves to each observation point, observes, processes images, and calibrates the related information. The coordinate system calibration method according to claim 1, wherein the coordinate system is automatically controlled.
前記ロボット誘導手段により、前記視覚センサの各観測箇所への移動を行う
ことを特徴とする請求項1に記載の座標系校正方法。 A robot guidance means for asymptotically guiding the robot so that an image observed by the visual sensor matches an ideal observation image registered in advance;
The coordinate system calibration method according to claim 1, wherein the robot guidance unit moves the visual sensor to each observation location.
前記ロボットのロボット座標系に一つのマークが配置されており、
前記ロボット動作手段は、前記視覚センサを取り付けた前記ロボットの手先を、前記マークに向けた前記視覚センサの姿勢を変えずに平行移動させた少なくとも第1から第3の3箇所の観測箇所と、前記マークに対して前記第1から第3の3箇所の観測方向と異なる方向でかつ相互に異なる方向の少なくとも第4及び第5の観測箇所に移動させ、
前記画像処理装置は、各観測箇所の前記視覚センサの画像を画像処理してマーク位置認識データを出力し、
前記演算部は、各観測箇所での前記ロボットの姿勢データと前記マーク位置認識データとを対応づけて取得し、このデータに基づいて前記関連情報を校正する
ことを特徴とするロボットシステム。 A robot, a visual sensor fixed to the hand of the robot, an image processing device for performing image processing of the visual sensor, a robot operating means for operating the robot, a hand coordinate system of the robot, and a sensor of the visual sensor A storage unit that stores related information describing a relative relationship of the coordinate system, and a calculation unit that calibrates the related information,
One mark is arranged in the robot coordinate system of the robot,
The robot operation means includes at least first to third observation points obtained by translating the hand of the robot to which the visual sensor is attached without changing the posture of the visual sensor toward the mark; Move to at least the fourth and fifth observation points in directions different from and different from the first to third observation directions with respect to the mark,
The image processing device performs image processing on the image of the visual sensor at each observation location and outputs mark position recognition data,
The arithmetic unit obtains the robot posture data and the mark position recognition data at each observation location in association with each other, and calibrates the related information based on the data.
ことを特徴とする請求項4に記載のロボットシステム。 The robot operation means is a robot controller in which the first to fifth observation points are programmed in advance, and the robot controller automatically performs movement to each observation point, observation, and calibration of the related information. 5. The robot system according to claim 4, wherein the robot system is performed.
前記ロボット誘導手段は、各観測箇所にて前記視覚センサが理想的な位置に近づくように誘導する
ことを特徴とする請求項4に記載のロボットシステム。 Robot guidance means for asymptotically guiding the robot so that an image observed by the visual sensor matches an ideal observation image registered in advance;
The robot system according to claim 4, wherein the robot guiding unit guides the visual sensor so as to approach an ideal position at each observation point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010241016A JP5371927B2 (en) | 2010-10-27 | 2010-10-27 | Coordinate system calibration method and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010241016A JP5371927B2 (en) | 2010-10-27 | 2010-10-27 | Coordinate system calibration method and robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012091280A true JP2012091280A (en) | 2012-05-17 |
JP5371927B2 JP5371927B2 (en) | 2013-12-18 |
Family
ID=46385224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010241016A Active JP5371927B2 (en) | 2010-10-27 | 2010-10-27 | Coordinate system calibration method and robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5371927B2 (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014061578A (en) * | 2012-09-24 | 2014-04-10 | Seiko Epson Corp | Robot, robot system, robot control device, robot control method, and program |
JP2014069272A (en) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | Calibration device; and calibration method of imaging device |
JP2014070978A (en) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | Calibration device, and calibration method of imaging apparatus |
KR101465652B1 (en) * | 2013-04-12 | 2014-11-28 | 성균관대학교산학협력단 | Apparatus and method for calibration of a robot hand and a camera attached to robot hand |
JP2015042437A (en) * | 2013-07-22 | 2015-03-05 | キヤノン株式会社 | Robot system and calibration method of robot system |
JP2015062991A (en) * | 2013-08-28 | 2015-04-09 | キヤノン株式会社 | Coordinate system calibration method, robot system, program, and recording medium |
JP2015136770A (en) * | 2014-01-23 | 2015-07-30 | ファナック株式会社 | Data creation system of visual sensor, and detection simulation system |
WO2015129473A1 (en) * | 2014-02-28 | 2015-09-03 | ソニー株式会社 | Robot arm apparatus, calibration method, and program |
WO2015129474A1 (en) * | 2014-02-28 | 2015-09-03 | ソニー株式会社 | Robot arm apparatus, robot arm control method, and program |
JP2017100202A (en) * | 2015-11-30 | 2017-06-08 | 株式会社アイキューブテクノロジ | Robot system, control device, control method, and program |
CN107175662A (en) * | 2017-06-02 | 2017-09-19 | 成都福莫斯智能系统集成服务有限公司 | The position calibration method of robot arm |
CN107309884A (en) * | 2016-04-27 | 2017-11-03 | 上海福赛特机器人有限公司 | Robot calibration system and method |
WO2017208699A1 (en) * | 2016-05-30 | 2017-12-07 | ソニー株式会社 | Information processing device, information processing method, program, and image capturing system |
KR101842286B1 (en) | 2012-10-30 | 2018-03-26 | 현대로보틱스주식회사 | Method for Automatic Calibration of Robot |
KR20180035172A (en) * | 2016-09-28 | 2018-04-05 | 코그넥스코오포레이션 | Simultaneous kinematic and hand-eye calibration |
CN109227532A (en) * | 2017-07-11 | 2019-01-18 | 精工爱普生株式会社 | The bearing calibration of the control device and its system, robot and video camera of robot |
JP2019155556A (en) * | 2018-03-15 | 2019-09-19 | セイコーエプソン株式会社 | Control device of robot, robot, robot system, and calibration method for camera |
CN111504183A (en) * | 2020-04-22 | 2020-08-07 | 无锡中车时代智能装备有限公司 | Calibration method for relative position of linear laser three-dimensional measurement sensor and robot |
CN112686964A (en) * | 2021-03-15 | 2021-04-20 | 中科长光精拓智能装备(苏州)有限公司 | Calibration method and system for improving precision image indirect identification |
CN112971993A (en) * | 2016-08-16 | 2021-06-18 | 株式会社高迎科技 | Surgical robot system for positioning operation and control method thereof |
CN114174006A (en) * | 2019-07-19 | 2022-03-11 | 西门子(中国)有限公司 | Robot eye calibration method, device, computing equipment, medium and product |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11911914B2 (en) | 2019-01-28 | 2024-02-27 | Cognex Corporation | System and method for automatic hand-eye calibration of vision system for robot motion |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1063317A (en) * | 1996-08-13 | 1998-03-06 | Fanuc Ltd | Method for combining coordinate system in robot and visual sensor system |
JP3541980B2 (en) * | 1995-03-28 | 2004-07-14 | 株式会社安川電機 | Calibration method for robot with visual sensor |
JP2005138223A (en) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | Positional data correcting device for robot |
JP2007061979A (en) * | 2005-09-01 | 2007-03-15 | Sharp Corp | Visual sensor correction method for robot arm and computer program |
JP2010112731A (en) * | 2008-11-04 | 2010-05-20 | Denso Wave Inc | Joining method of coordinate of robot |
JP2010188439A (en) * | 2009-02-16 | 2010-09-02 | Mitsubishi Electric Corp | Method and apparatus for calculating parameter |
-
2010
- 2010-10-27 JP JP2010241016A patent/JP5371927B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3541980B2 (en) * | 1995-03-28 | 2004-07-14 | 株式会社安川電機 | Calibration method for robot with visual sensor |
JPH1063317A (en) * | 1996-08-13 | 1998-03-06 | Fanuc Ltd | Method for combining coordinate system in robot and visual sensor system |
JP2005138223A (en) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | Positional data correcting device for robot |
JP2007061979A (en) * | 2005-09-01 | 2007-03-15 | Sharp Corp | Visual sensor correction method for robot arm and computer program |
JP2010112731A (en) * | 2008-11-04 | 2010-05-20 | Denso Wave Inc | Joining method of coordinate of robot |
JP2010188439A (en) * | 2009-02-16 | 2010-09-02 | Mitsubishi Electric Corp | Method and apparatus for calculating parameter |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014061578A (en) * | 2012-09-24 | 2014-04-10 | Seiko Epson Corp | Robot, robot system, robot control device, robot control method, and program |
JP2014069272A (en) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | Calibration device; and calibration method of imaging device |
JP2014070978A (en) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | Calibration device, and calibration method of imaging apparatus |
KR101842286B1 (en) | 2012-10-30 | 2018-03-26 | 현대로보틱스주식회사 | Method for Automatic Calibration of Robot |
KR101465652B1 (en) * | 2013-04-12 | 2014-11-28 | 성균관대학교산학협력단 | Apparatus and method for calibration of a robot hand and a camera attached to robot hand |
JP2015042437A (en) * | 2013-07-22 | 2015-03-05 | キヤノン株式会社 | Robot system and calibration method of robot system |
JP2015062991A (en) * | 2013-08-28 | 2015-04-09 | キヤノン株式会社 | Coordinate system calibration method, robot system, program, and recording medium |
US9519736B2 (en) | 2014-01-23 | 2016-12-13 | Fanuc Corporation | Data generation device for vision sensor and detection simulation system |
JP2015136770A (en) * | 2014-01-23 | 2015-07-30 | ファナック株式会社 | Data creation system of visual sensor, and detection simulation system |
JPWO2015129473A1 (en) * | 2014-02-28 | 2017-03-30 | ソニー株式会社 | Robot arm device, calibration method and program |
WO2015129474A1 (en) * | 2014-02-28 | 2015-09-03 | ソニー株式会社 | Robot arm apparatus, robot arm control method, and program |
CN106029308A (en) * | 2014-02-28 | 2016-10-12 | 索尼公司 | Robot arm apparatus, calibration method, and program |
US10556345B2 (en) | 2014-02-28 | 2020-02-11 | Sony Corporation | Robot arm apparatus and calibration method |
JPWO2015129474A1 (en) * | 2014-02-28 | 2017-03-30 | ソニー株式会社 | Robot arm apparatus, robot arm control method and program |
US10561469B2 (en) | 2014-02-28 | 2020-02-18 | Sony Corporation | Robot arm apparatus and robot arm control method |
US11633245B2 (en) | 2014-02-28 | 2023-04-25 | Sony Corporation | Robot arm apparatus and robot arm control method |
CN106061427B (en) * | 2014-02-28 | 2020-10-27 | 索尼公司 | Robot arm apparatus, robot arm control method, and program |
EP3112096A4 (en) * | 2014-02-28 | 2017-11-15 | Sony Corporation | Robot arm apparatus, calibration method, and program |
WO2015129473A1 (en) * | 2014-02-28 | 2015-09-03 | ソニー株式会社 | Robot arm apparatus, calibration method, and program |
CN106061427A (en) * | 2014-02-28 | 2016-10-26 | 索尼公司 | Robot arm apparatus, robot arm control method, and program |
JP2017100202A (en) * | 2015-11-30 | 2017-06-08 | 株式会社アイキューブテクノロジ | Robot system, control device, control method, and program |
CN107309884A (en) * | 2016-04-27 | 2017-11-03 | 上海福赛特机器人有限公司 | Robot calibration system and method |
WO2017208699A1 (en) * | 2016-05-30 | 2017-12-07 | ソニー株式会社 | Information processing device, information processing method, program, and image capturing system |
CN112971993A (en) * | 2016-08-16 | 2021-06-18 | 株式会社高迎科技 | Surgical robot system for positioning operation and control method thereof |
KR20180035172A (en) * | 2016-09-28 | 2018-04-05 | 코그넥스코오포레이션 | Simultaneous kinematic and hand-eye calibration |
KR102093165B1 (en) * | 2016-09-28 | 2020-03-25 | 코그넥스코오포레이션 | Simultaneous kinematic and hand-eye calibration |
US10864639B2 (en) | 2016-09-28 | 2020-12-15 | Cognex Corporation | Simultaneous kinematic and hand-eye calibration |
JP2018051758A (en) * | 2016-09-28 | 2018-04-05 | コグネックス・コーポレイション | Simultaneous kinematics and hand eye calibration |
CN107175662A (en) * | 2017-06-02 | 2017-09-19 | 成都福莫斯智能系统集成服务有限公司 | The position calibration method of robot arm |
JP2019014030A (en) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | Control device for robot, robot, robot system, and calibration method for camera |
CN109227532A (en) * | 2017-07-11 | 2019-01-18 | 精工爱普生株式会社 | The bearing calibration of the control device and its system, robot and video camera of robot |
CN109227532B (en) * | 2017-07-11 | 2023-08-29 | 精工爱普生株式会社 | Robot control device and system thereof, robot and camera correction method |
JP7003462B2 (en) | 2017-07-11 | 2022-01-20 | セイコーエプソン株式会社 | Robot control device, robot system, and camera calibration method |
JP2019155556A (en) * | 2018-03-15 | 2019-09-19 | セイコーエプソン株式会社 | Control device of robot, robot, robot system, and calibration method for camera |
JP7035657B2 (en) | 2018-03-15 | 2022-03-15 | セイコーエプソン株式会社 | Robot control device, robot, robot system, and camera calibration method |
CN114174006B (en) * | 2019-07-19 | 2024-03-05 | 西门子(中国)有限公司 | Robot hand-eye calibration method, device, computing equipment, medium and product |
CN114174006A (en) * | 2019-07-19 | 2022-03-11 | 西门子(中国)有限公司 | Robot eye calibration method, device, computing equipment, medium and product |
CN111504183A (en) * | 2020-04-22 | 2020-08-07 | 无锡中车时代智能装备有限公司 | Calibration method for relative position of linear laser three-dimensional measurement sensor and robot |
CN111504183B (en) * | 2020-04-22 | 2021-03-09 | 无锡中车时代智能装备有限公司 | Calibration method for relative position of linear laser three-dimensional measurement sensor and robot |
CN112686964A (en) * | 2021-03-15 | 2021-04-20 | 中科长光精拓智能装备(苏州)有限公司 | Calibration method and system for improving precision image indirect identification |
Also Published As
Publication number | Publication date |
---|---|
JP5371927B2 (en) | 2013-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5371927B2 (en) | Coordinate system calibration method and robot system | |
US11911914B2 (en) | System and method for automatic hand-eye calibration of vision system for robot motion | |
JP4021413B2 (en) | Measuring device | |
US9437005B2 (en) | Information processing apparatus and information processing method | |
US9199379B2 (en) | Robot system display device | |
EP1584426B1 (en) | Tool center point calibration system | |
US20160279800A1 (en) | Robot, robot control device, and robotic system | |
US11072074B2 (en) | Calibration and operation of vision-based manipulation systems | |
JP2018528084A (en) | Automatic calibration method for robot system | |
US11403780B2 (en) | Camera calibration device and camera calibration method | |
US11230011B2 (en) | Robot system calibration | |
JP2014013147A (en) | Three-dimensional measuring instrument and robot device | |
CN110621447B (en) | Robot conveyor calibration method, robot system and control system | |
JP2010188439A (en) | Method and apparatus for calculating parameter | |
JP2019069493A (en) | Robot system | |
JP5787646B2 (en) | Robot system and component manufacturing method | |
Evangelista et al. | An unified iterative hand-eye calibration method for eye-on-base and eye-in-hand setups | |
JP7366264B2 (en) | Robot teaching method and robot working method | |
Scaria et al. | Cost Effective Real Time Vision Interface for Off Line Simulation of Fanuc Robots | |
CN116867615A (en) | Installation position measuring device, installation position measuring method, robot control device, teaching system, and simulation device for robot | |
WO2020184575A1 (en) | Measurement system and measurement method | |
Axelrod et al. | Improving hand-eye calibration for robotic grasping and manipulation | |
KR20130104284A (en) | Sensor calibration apparatus | |
Evangelista et al. | A Graph-Based Optimization Framework for Hand-Eye Calibration for Multi-Camera Setups | |
US20220219328A1 (en) | Method and device for creation of three dimensional tool frame |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5371927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |