JP7264763B2 - calibration device - Google Patents
calibration device Download PDFInfo
- Publication number
- JP7264763B2 JP7264763B2 JP2019145546A JP2019145546A JP7264763B2 JP 7264763 B2 JP7264763 B2 JP 7264763B2 JP 2019145546 A JP2019145546 A JP 2019145546A JP 2019145546 A JP2019145546 A JP 2019145546A JP 7264763 B2 JP7264763 B2 JP 7264763B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sensor
- parameter
- calibration device
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、ロボットやセンサの位置や姿勢等の状態を示す各種パラメータを、より適切な値に更新する、キャリブレーション装置に関する。 The present invention relates to a calibration device that updates various parameters indicating states such as the position and orientation of robots and sensors to more appropriate values.
従来のキャリブレーション装置としては、特許文献1に記載のものが知られている。この文献の要約書には、「単一のカメラ又はステレオカメラのキャリブレーションに関し、予め画像座標系でキャリブレーション範囲を設定し、任意の範囲でキャリブレーションすることを可能とする」ための解決手段として、「ロボットにターゲットマークを設置すると共に、当該ロボットを動かしてカメラの視野内の複数個所でターゲットマークを検出することで、当該ロボットのロボット座標系とカメラの画像座標系の対応付けを行うキャリブレーション装置であって、カメラの画像座標系における画像範囲を設定する画像範囲設定部と、キャリブレーション実行前に、ロボットを動かしてターゲットマークを検出することで、画像範囲に相当するロボットの動作範囲を計測するキャリブレーション範囲計測部を備える」キャリブレーション装置が開示されている。
As a conventional calibration device, one described in
すなわち、特許文献1のキャリブレーション装置では、ロボットのアーム先端を連続的に動かし、アーム先端に取り付けたターゲットマークを複数個所で検出することで、視覚センサ(単眼カメラ、ステレオカメラ)のキャリブレーションを行っている。
That is, in the calibration device of
しかしながら、特許文献1で用いる多関節ロボットアームでは、各関節の製造誤差や制御誤差等が累積してアーム先端のターゲットマークに現れるため、ターゲットマークの実位置は誤差のない理論上の位置からずれており、ターゲットマークの実位置に基づいて視覚センサをキャリブレーションしても、そのキャリブレーションが適切でない可能性が高かった。
However, in the articulated robot arm used in
そこで、本発明では、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新できる、キャリブレーション装置を提供することを目的とする。 Therefore, the present invention aims to provide a calibration device that can update various parameters of the robot and sensors to more appropriate values without using an unstable reference such as a target mark attached to the tip of the arm of the robot. aim.
上記課題を解決するため、本発明のキャリブレーション装置は、設置位置が既知のターゲットマークを背景として、その手前のロボットを観測するカメラまたはレーザ変位計をセンサとして利用するキャリブレーション装置であって、前記センサにより前記ロボットと前記ターゲットマークを計測したセンサデータを生成するセンサデータ取得部と、前記ロボットを制御するロボット制御部と、前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットと前記ターゲットマークを計測した仮想データを生成する仮想データ生成部と、前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、を具備し、前記データ記憶部は、前記センサと前記ロボットと前記ターゲットマークの位置に関する環境情報を更に記憶しており、前記仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットと前記ターゲットマークを配置した仮想空間上の前記センサから前記ロボットと前記ターゲットマークを観測することで、前記仮想データを生成するものとした。 In order to solve the above problems, the calibration device of the present invention is a calibration device that uses a camera or a laser displacement meter as a sensor for observing a robot in front of a target mark whose installation position is known, as a sensor, A sensor data acquisition unit that generates sensor data obtained by measuring the robot and the target mark by the sensor , a robot control unit that controls the robot, and a data storage unit that stores sensor parameters related to the sensors and robot parameters related to the robot. a virtual data generating unit that generates virtual data obtained by measuring the robot and the target mark from the sensor in the virtual space based on the sensor parameter and the robot parameter; and comparing the sensor data and the virtual data. , an environment determination unit that determines the difference between the two; a relative position/orientation estimation unit that searches for the sensor parameter or the robot parameter that reduces the difference; and the sensor parameter or the robot parameter stored in the data storage unit. an updating unit that updates the sensor parameters or the robot parameters searched by the relative position/orientation estimating unit, wherein the data storage unit further stores environment information regarding the positions of the sensor, the robot, and the target mark. The virtual data generation unit observes the robot and the target mark from the sensor in a virtual space in which the sensor, the robot, and the target mark are arranged based on the environment information, thereby generating the virtual data should be generated.
本発明のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新することができる。 According to the calibration apparatus of the present invention, various parameters of the robot and sensors can be updated to more appropriate values without using an unstable reference such as the target mark attached to the tip of the arm of the robot.
以下、図面を用いて、本発明のセンサ位置姿勢キャリブレーション装置の実施例を説明する。 An embodiment of the sensor position/orientation calibration device of the present invention will be described below with reference to the drawings.
図1から図7を用いて、本発明の実施例1に係るキャリブレーション装置1を説明する。
A
図1は、本実施例のキャリブレーション装置1の機能ブロックを、ロボット2、センサ3、ターゲットマーク4の概略配置と共に示した図である。以下では、ロボット2、センサ3、ターゲットマーク4を概説した後、キャリブレーション装置1の詳細を説明する。
FIG. 1 is a diagram showing functional blocks of a
<ロボット2、センサ3、ターゲットマーク4>
ロボット2は、アーム先端のロボットハンドで物体を把持する多関節ロボットアームであり、キャリブレーション装置1が備えるロボット制御部1aからの指令に応じて、各関節の回転角θやロボットハンドの開閉状態等が制御される。本実施例はロボットハンドに限らず、吸着ハンドなどの各種エンドエフェクタにおいても適用可能である。なお、以下では、関節数が三個であるロボット2を例に説明するが、本発明の適用対象は、関節数が三個のロボット2に限定されないことは言うまでもない。
<
The
センサ3は、設置位置が既知のターゲットマーク4を背景として、その手前のロボット2を観測するカメラ、レーザ変位計等である。なお、以下では、センサ3がカメラであるものとして説明する。
The
ターゲットマーク4は、平面上に複数のマークを配置したものである。センサ3とターゲットマーク4の相対位置や相対姿勢が異なる場合、センサ3で観測されるターゲットマーク4の見え方が異なることを利用して、センサ3とターゲットマーク4の相対位置や相対姿勢を検出することができる。なお、ターゲットマーク4上に配置する複数のマークは、個々が同等のものであっても良いし、個々に識別可能なユニークなものであっても良い。
The target mark 4 is formed by arranging a plurality of marks on a plane. When the relative positions and orientations of the
ここで、図2を用いて、本実施例に関連する座標系を説明する。同図において、Wはワールド座標系であり、ロボット2、センサ3、ターゲットマーク4、または、ロボット2に把持される物体の位置等を特定する際の基準となる座標系である。Rはロボット2の不動点(例えばベース)を原点としたロボット座標系であり、ワールド座標系Wの各軸方向を維持したまま平行移動した座標系である。Sはセンサ3の不動点(例えばカメラの受光素子)を原点としたセンサ座標系であり、センサ3の視線方向をSz軸とし、このSz軸と直交するようにSx軸とSy軸を設定した座標系である。
Here, a coordinate system related to this embodiment will be described with reference to FIG. In the figure, W denotes a world coordinate system, which is a coordinate system that serves as a reference when specifying the position of the
また、CRSは、センサ座標系S上の座標とロボット座標系R上の座標を相互に座標変換する係数である。この係数CRSを利用することで、センサ3が検出したセンサ座標系S上の物体の位置と形状を、ロボット座標系R上の物体の位置と形状として認識できるので、ロボット制御部1aは、ロボット座標系R上での座標を用いて、ロボット2に所望の物体の把持などを指令することができる。
CRS is a coefficient for coordinate transformation between the coordinates on the sensor coordinate system S and the coordinates on the robot coordinate system R mutually. By using this coefficient CRS , the position and shape of the object on the sensor coordinate system S detected by the
このような係数CRSを用いて座標変換を行う場合、係数CRSが適切であれば、センサ3の検出結果をロボット2に正確に伝達することができるが、係数CRSが不適切であれば、センサ3の検出結果をロボット2に正確に伝達することができず、例えば、ロボット2が所望の物体を正しく把持できないなどの不具合が生じる恐れがある。
When coordinate transformation is performed using such a coefficient CRS , the detection result of the
係数CRSの精度は、後述するセンサパラメータPSやロボットパラメータPRに依拠するため、これらのパラメータを最適化できれば、係数CRSも自ずと最適化される。そこで、本実施例のキャリブレーション装置1では、センサパラメータPSやロボットパラメータPRを自動的に最適化できるようにすることで、作業者の熟練度に拘わらず係数CRSを容易に最適化できるようにした。
Since the accuracy of the coefficient CRS depends on the sensor parameter PS and the robot parameter PR , which will be described later, if these parameters can be optimized, the coefficient CRS will also be optimized. Therefore, in the
<キャリブレーション装置1>
ここで図1に戻り、係数CRSを最適化するために必要な、キャリブレーション装置1の詳細構造を説明する。なお、キャリブレーション装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えたパソコン等の計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、図1に示す各機能を実現する。ここに示す各機能の詳細は後述するが、以下では、計算機分野での周知技術は適宜省略する。
<
Returning now to FIG. 1, the detailed structure of the
図1に示すように、本実施例のキャリブレーション装置1は、ロボット制御部1a、データ記憶部1b、仮想撮像データ生成部1c、センサデータ取得部1d、撮像環境判定部1e、相対位置姿勢推定部1f、ロボットパラメータ更新部1g、センサパラメータ更新部1hを備えている。
As shown in FIG. 1, the
ロボット制御部1aは、ロボット2と双方向に通信し、ロボット2の姿勢や挙動を制御する。例えば、ロボット制御部1aは、ロボット2の各関節の回転角θ1~θ3を指定することで、ロボット2の姿勢を制御する。以下では、ロボット制御部1aからロボット2に送信される回転角θ1~θ3の組み合わせを姿勢情報ISと称する。
The
データ記憶部1bは、後述する仮想データ生成部1cで仮想撮像データDVを生成するために用いる、環境情報IE、センサパラメータPS、ロボットパラメータPRを記憶している。なお、環境情報IEは、例えば、ワールド座標系Wにおける、ロボット2、センサ3、ターゲットマーク4の設置位置等の情報である。センサパラメータPSは、例えば、センサ3がカメラである場合は、その焦点距離(fx、fy)、歪係数、光軸中心(cu、cv)等の内部パラメータと、センサの世界座標系に対する並進移動(Tx、Ty、Tz)、回転(r11~r33の3x3行列)を示す外部パラメータである。ロボットパラメータPRは、例えば、ロボット2の各アームの姿勢(各関節の回転角θ)やロボットハンドの開閉状態のパラメータである。
The
仮想撮像データ生成部1cは、データ記憶部1bから取得した環境情報IE、センサパラメータPS、ロボットパラメータPRに基づいて、仮想撮像データDVを生成する。ここでの仮想撮像データDVの生成処理を、図3のフローチャートを用いて説明する。
The virtual imaging
まず、ステップS31では、仮想撮像データ生成部1cは、データ記憶部1bから環境情報IEを取得し、それに基づいて、仮想空間上にロボット2V、センサ3V、ターゲットマーク4Vを配置する。次に、ステップS32では、仮想撮像データ生成部1cは、データ記憶部1bから取得したロボットパラメータPRに基づいて、仮想空間上のロボット2Vに各関節の回転角θやロボットハンドの開閉状態を設定する。次に、ステップS33では、仮想撮像データ生成部1cは、データ記憶部1bから取得したセンサパラメータPSに基づいて、仮想空間上のセンサ3V(カメラ)に内部パラメータを設定する。これにより、後述する図8の仮想空間データ表示領域5bに例示するような、ロボット2V、センサ3V、ターゲットマーク4Vが、仮想空間上に配置されることとなる。
First, in step S31, the virtual imaging
最後に、ステップS34では、仮想撮像データ生成部1cは、仮想空間上のロボット2Vとターゲットマーク4Vを、仮想空間上のセンサ3Vの視点から撮像したものに相当する仮想撮像データDVを生成する。
Finally, in step S34, the virtual image
仮想空間上の任意の点(x,y,z)を仮想撮像データDVに投影するには、例えば、式1を利用する。なお、式1において、u、vは仮想撮像データDV上に仮想的に設定したuv座標系(仮想座標系)における座標である。fx,fyは、カメラの画素あたりの焦点距離であり、カメラの焦点距離をカメラの画素の縦、横の物理的な間隔で割った値である。cu、cvは、カメラの光軸と仮想撮像データDVが交差する、仮想座標系における光軸中心の座標である。
To project an arbitrary point (x, y, z) on the virtual space onto the virtual imaging data DV , for example,
センサデータ取得部1dは、実際のロボット2とターゲットマーク4を、実際のセンサ3の視点から観測した出力に基づいて、センサデータDSを取得する。本実施例では、センサ3をカメラとしているので、ここで取得されるセンサデータDSは画像データである。
The sensor
撮像環境判定部1eでは、仮想撮像データ生成部1cが出力する仮想撮像データDVと、センサデータ取得部1dが出力するセンサデータDSを比較し、撮像環境を判定する。ここでの処理の詳細を、図4と図5を用いて説明する。
The imaging
図4は、仮想撮像データDVとセンサデータDSのマッチング処理の説明図であり、(a)は、データ記憶部1bに記憶されたパラメータに基づき仮想撮像データ生成部1cで生成された仮想撮像データDV、(b)は、センサ3の実際の出力に基づいて生成されたセンサデータDS、(c)は、仮想撮像データDVとセンサデータDSのマッチング処理である。
4A and 4B are explanatory diagrams of the matching processing of the virtual image data DV and the sensor data DS , and FIG. The imaging data D V , (b) is the sensor data D S generated based on the actual output of the
仮想撮像データDVとセンサデータDSが大きく相違していることから明らかなように、図4は、データ記憶部1bに記憶されたパラメータが実態と乖離しており、その修正が必要な状況に相当するものである。 As is clear from the large difference between the virtual imaging data DV and the sensor data DS , FIG. is equivalent to
パラメータを最適化するには、センサデータDSと一致する仮想撮像データDVを生成できるパラメータを選択すればよい。具体的には、(c)マッチング処理に示すように、仮想撮像データDVをセンサデータDSと一致させるのに必要な回転処理と移動処理を施すと同等のパラメータ調整を行えば良い。 Parameters can be optimized by choosing parameters that can produce virtual imaging data DV that match the sensor data DS . Specifically, as shown in (c) matching processing, parameter adjustment equivalent to rotation processing and movement processing required to match the virtual image data DV with the sensor data DS may be performed.
図5は、撮像環境判定部1eで実行される撮像環境判定処理の一例を示すフローチャートである。
FIG. 5 is a flowchart showing an example of imaging environment determination processing executed by the imaging
まず、ステップS51では、撮像環境判定部1eは、センサデータDSと仮想撮像データDVを取得する。次に、ステップS52では、撮像環境判定部1eは、両データに含まれるターゲットマーク4の基準マーカ位置を計測し、ステップS53では、撮像環境判定部1eは、両データ間の対応点をマッチングする。
First, in step S51, the imaging
以上のステップS51からS53の処理により、撮像環境判定部1eは、仮想撮像データDVをセンサデータDSと一致させるのに必要な回転量と移動量を演算できるので、ステップS54では、撮像環境判定部1eは、これらの回転量または移動量が所定の閾値以上であるかを判定する。そして、パラメータのキャリブレーションに必要な回転量と移動量が閾値未満のときは、撮像環境判定部1eは、現在記憶されているパラメータは実態に則した有効なものと判断し、データ記憶部1bのパラメータを更新せずに本フローチャートの処理を終了する。
By the processing of steps S51 to S53 described above, the imaging
一方、仮想撮像データDVをセンサデータDSと一致させるのに必要な回転量または移動量が閾値以上のときは、撮像環境判定部1eは、データ記憶部1bに現在記憶されているパラメータが実態に則しておらず修正が必要と判断し、パラメータ修正のための相対位置姿勢推定処理に移行する。
On the other hand, when the amount of rotation or the amount of movement required to match the virtual imaging data DV with the sensor data DS is equal to or greater than the threshold, the imaging
相対位置姿勢推定処理に移行すると、まず、ステップS55では、相対位置姿勢推定部1fは、仮想撮像データDVとセンサデータDSのターゲットマーク4の差異を最小化するセンサパラメータPSを探索する。例えば、センサパラメータPSが、PS1、PS2、PS3、PS4の四種類であれば、センサパラメータPS1から順に、ターゲットマーク4の差異を最小化する最適値を求めていく。次に、ステップS56では、相対位置姿勢推定部1fは、仮想撮像データDVとセンサデータDSのロボット2の差異を最小化するロボットパラメータPRを探索する。例えば、ロボットパラメータPRが、PR1、PR2、PR3、PR4の四種類であれば、ロボットパラメータPR1から順に、ロボット2の差異を最小化する最適値を求めていく。
When shifting to the relative position/orientation estimation processing, first, in step S55, the relative position/
そして、ステップS57では、ロボットパラメータ更新部1gまたはセンサパラメータ更新部1hは、データ記憶部1bに記憶された各パラメータを、ステップS55、ステップS56で求めた各パラメータの最適値に更新する。なお、図5では、センサパラメータPSの最適値探索の後に、ロボットパラメータPRの最適値探索を行ったが、仮想撮像データDVとセンサデータDSを比較した場合のロボット2側の差異がターゲットマーク4側の差異よりも大きかった場合は、ロボットパラメータPRの最適値を探索した後に、センサパラメータPSの最適値を探索しても良い。
Then, in step S57, the robot
次に、図6と図7を用いて、ロボット2の姿勢精度の評価方法を説明する。
Next, a method for evaluating the posture accuracy of the
ロボット2の姿勢精度を評価する場合、まず、ロボット制御部1aは、任意の姿勢情報IS(θ1、θ2、θ3)をロボット2に送信する。このとき、ロボット2は、図6(a)に示す姿勢となるので、姿勢情報ISに対応する誤差量dを測定し記録する。
When evaluating the posture accuracy of the
次に、ロボット制御部1aは、姿勢情報ISの回転角θ1だけを回転角θ1’に変更した、姿勢情報IS’(θ1’、θ2、θ3)をロボット2に送信する。このとき、ロボット2は、図6(b)に示す姿勢となるので、姿勢情報IS’に対応する誤差量d’を測定し記録する。
Next, the
そして、誤差量dと誤差量d’が相違し、かつ、誤差量d’が大きい場合は、回転角度θ1に対応する関節の姿勢精度が悪いか、その関節より先端側のリンクの精度が悪いと判定することができる。
Then, when the error amount d and the error amount d' are different and the error amount d' is large, the posture accuracy of the joint corresponding to the rotation angle θ1 is poor, or the accuracy of the link on the tip side of the joint is poor. can be determined.
以上のような姿勢精度の評価作業を多数の姿勢情報ISに対して実行することで、図7に例示するような、姿勢情報ISと誤差量dの対応表を作成することができる。そして、ここに示す姿勢情報ISと誤差量dの関係から、重回帰分析やロジスティック回帰分析など一般的な解析手法によって誤差量dを増加または減少させる姿勢情報ISの要素、または姿勢情報ISの要素の組み合わせを求めることができるため、それを最適なロボットパラメータPRと特定することができる。 By executing the posture accuracy evaluation work as described above for a large number of posture information IS , it is possible to create a correspondence table between the posture information IS and the amount of error d as shown in FIG. Then, from the relationship between the attitude information I S and the error amount d shown here, an element of the attitude information I S that increases or decreases the error amount d by a general analysis method such as multiple regression analysis or logistic regression analysis, or the attitude information I Since we can find a combination of the elements of S , we can identify it as the optimal robot parameter P R .
そして、図5や図7に基づいて修正されたセンサパラメータPSとロボットパラメータPRに基づいて係数CRSを演算し、この係数CRSを用いてセンサ座標系S・ロボット座標系Rの座標変換を実施することで、ロボット2の近傍の物体の位置や形状を正しく認識できるため、ロボット2はその物体を適切に把持できるようになる。
Then, the coefficient CRS is calculated based on the sensor parameter PS and the robot parameter PR corrected based on FIGS. By performing transformation, the position and shape of an object in the vicinity of the
以上で説明したように、本実施例のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットの状態を規定するロボットパラメータPRや、センサの状態を規定するセンサパラメータPSをより適切な値にキャリブレーションすることをできる。そして、それらのパラメータを用いることで、ロボットの制御がより正確になり、例えば、ロボットハンドで物体をより正確に把持できるようになる。 As described above, according to the calibration apparatus of the present embodiment, the robot parameters P R that define the state of the robot and the , the sensor parameter PS defining the state of the sensor can be calibrated to a more appropriate value. By using those parameters, the control of the robot becomes more accurate, and for example, an object can be more accurately grasped by the robot hand.
次に、図8を用いて、本発明の実施例2に係るキャリブレーション装置1を説明する。なお、実施例1との共通点は重複説明を省略する。
Next, with reference to FIG. 8, a
実施例1では、キャリブレーション装置1がセンサパラメータPSとロボットパラメータPRを自動的に更新したが、本実施例では、相対位置姿勢推定部1fでの処理に作業者が関与できるようにした。
In the first embodiment, the
図8は、キャリブレーション装置1と接続した表示装置に表示される、キャリブレーションツールのアプリケーションソフトの表示画面5の一例である。
FIG. 8 is an example of the
ここに示すように、表示画面5には、撮像データ表示領域5a、仮想空間データ表示領域5b、センサパラメータ設定領域5c、ロボットパラメータ設定領域5d、決定ボタン5e、および、ポインタ5fが表示されている。
As shown here, the
撮像データ表示領域5aには、センサ3が実際に取得したセンサデータDSと、現在のセンサパラメータPS、ロボットパラメータPRを利用して仮想撮像データ生成部1cで生成した仮想撮像データDVが並べて表示されている。なお、両者が相違すれば、現在のセンサパラメータPSまたはロボットパラメータPRが不適切であり、両者が一致すれば、現在のセンサパラメータPSとロボットパラメータPRが適切であることは実施例1と同様である。
In the imaging
仮想空間データ表示領域5bには、仮想空間上における、ロボット2V、センサ3V、ターゲットマーク4Vの配置が表示されおり、センサパラメータ設定領域5c、ロボットパラメータ設定領域5dに表示されている各種パラメータを調整することで、撮像データ表示領域5aに表示される仮想撮像データDVと、仮想空間データ表示領域5bに表示されるロボット2Vの状態が変化する。
The virtual space
このような表示画面5にて、作業者が、ポインタ5fを操作して、センサパラメータ設定領域5cやロボットパラメータ設定領域5dの各パラメータを適切に設定すると、センサデータDSと仮想撮像データDVが略一致する。このとき、作業者が決定ボタン5eを押すと、ロボットパラメータ更新部1gとセンサパラメータ更新部1hは、表示中の各パラメータ値に基づいて、データ記憶部1bに記憶された各パラメータを更新する。
When the operator operates the
以上で説明した実施例2の構成によれば、実施例1と同等の効果を得ることができるだけでなく、作業者は何れのパラメータに問題があったのかを直感的な操作により容易に把握することができる。 According to the configuration of the second embodiment described above, not only can an effect equivalent to that of the first embodiment be obtained, but the operator can easily grasp which parameter has a problem by an intuitive operation. be able to.
1…キャリブレーション装置、
1a…ロボット制御部、
1b…データ記憶部、
1c…仮想撮像データ生成部、
1d…センサデータ取得部、
1e…撮像環境判定部、
1f…相対位置姿勢推定部、
1g…ロボットパラメータ更新部、
1h…センサパラメータ更新部、
2、2V…ロボット、
3、3V…センサ、
4、4V…ターゲットマーク、
5…表示画面、
5a…撮像データ表示領域5a、
5b…仮想空間データ表示領域
5c…センサパラメータ設定領域
5d…ロボットパラメータ設定領域
5e…決定ボタン
5f…ポインタ
1 ... calibration device,
1a ... robot control unit,
1b ... data storage unit,
1c ... virtual imaging data generation unit,
1d ... sensor data acquisition unit,
1e ... imaging environment determination unit,
1f: relative position/orientation estimator,
1g ... robot parameter update unit,
1h ... sensor parameter update unit,
2, 2 V ... Robot,
3, 3 V ... sensor,
4, 4 V ... target mark,
5 ... display screen,
5a... Imaging
5b... Virtual space
Claims (5)
前記センサにより前記ロボットと前記ターゲットマークを計測したセンサデータを生成するセンサデータ取得部と、
前記ロボットを制御するロボット制御部と、
前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、
前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットと前記ターゲットマークを計測した仮想データを生成する仮想データ生成部と、
前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、
前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、
前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、
を具備し、
前記データ記憶部は、前記センサと前記ロボットと前記ターゲットマークの位置に関する環境情報を更に記憶しており、
前記仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットと前記ターゲットマークを配置した仮想空間上の前記センサから前記ロボットと前記ターゲットマークを観測することで、前記仮想データを生成することを特徴とするキャリブレーション装置。 A calibration device that uses a camera or a laser displacement meter as a sensor for observing a robot in front of a target mark whose installation position is known,
a sensor data acquisition unit that generates sensor data obtained by measuring the robot and the target mark with the sensor;
a robot control unit that controls the robot;
a data storage unit storing sensor parameters related to the sensor and robot parameters related to the robot;
a virtual data generation unit that generates virtual data obtained by measuring the robot and the target mark from the sensor in the virtual space based on the sensor parameter and the robot parameter;
an environment determination unit that compares the sensor data and the virtual data and determines a difference between the two;
a relative position and orientation estimator that searches for the sensor parameter or the robot parameter that reduces the difference;
an updating unit that updates the sensor parameters or the robot parameters stored in the data storage unit to the sensor parameters or the robot parameters searched by the relative position/orientation estimating unit;
and
the data storage unit further stores environmental information regarding the positions of the sensor, the robot, and the target mark;
The virtual data generation unit generates the virtual data by observing the robot and the target mark from the sensor in a virtual space in which the sensor, the robot, and the target mark are arranged based on the environment information. A calibration device characterized by:
前記環境判定部は、前記仮想データを前記センサデータと一致させるのに必要な回転量または移動量を求め、
前記相対位置姿勢推定部は、前記回転量または前記移動量が閾値以上の場合に、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索し、前記回転量または前記移動量が前記閾値未満の場合には、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索しないことを特徴とするキャリブレーション装置。 In the calibration device according to claim 1,
The environment determination unit obtains an amount of rotation or an amount of movement necessary to match the virtual data with the sensor data,
The relative position/orientation estimating unit searches for the sensor parameter or the robot parameter that reduces the difference when the amount of rotation or the amount of movement is equal to or greater than a threshold, case, the calibration device does not search for the sensor parameter or the robot parameter that reduces the difference.
前記ロボットは、多関節ロボットアームであり、
前記ロボットパラメータは、前記多関節ロボットアームの各関節の回転角、または、ロボットに装着されたエンドエフェクタの動作状態であることを特徴とするキャリブレーション装置。 In the calibration device according to claim 1 or claim 2,
The robot is an articulated robot arm,
The calibration device, wherein the robot parameter is a rotation angle of each joint of the multi-joint robot arm or an operating state of an end effector attached to the robot.
前記センサはカメラであり、
前記センサパラメータは、前記カメラの、位置姿勢、焦点距離、歪係数、または、光軸中心であることを特徴とするキャリブレーション装置。 In the calibration device according to claim 1 or claim 2,
the sensor is a camera;
The calibration device, wherein the sensor parameter is the position and orientation, focal length, distortion coefficient, or optical axis center of the camera.
前記相対位置姿勢推定部での探索には、作業者が入力した前記センサパラメータまたは前記ロボットパラメータを用いることを特徴とするキャリブレーション装置。 In the calibration device according to claim 1,
A calibration device, wherein the sensor parameters or the robot parameters input by a worker are used for searching by the relative position/orientation estimating unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145546A JP7264763B2 (en) | 2019-08-07 | 2019-08-07 | calibration device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145546A JP7264763B2 (en) | 2019-08-07 | 2019-08-07 | calibration device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021024056A JP2021024056A (en) | 2021-02-22 |
JP7264763B2 true JP7264763B2 (en) | 2023-04-25 |
Family
ID=74664274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019145546A Active JP7264763B2 (en) | 2019-08-07 | 2019-08-07 | calibration device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7264763B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013191128A (en) | 2012-03-15 | 2013-09-26 | Omron Corp | Simulator, simulation method, and simulation program |
JP2014014912A (en) | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | Robot system, robot, robot control device, robot control method and robot control program |
JP2015136770A (en) | 2014-01-23 | 2015-07-30 | ファナック株式会社 | Data creation system of visual sensor, and detection simulation system |
JP2017094406A (en) | 2015-11-18 | 2017-06-01 | オムロン株式会社 | Simulation device, simulation method, and simulation program |
JP2018144160A (en) | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device |
-
2019
- 2019-08-07 JP JP2019145546A patent/JP7264763B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013191128A (en) | 2012-03-15 | 2013-09-26 | Omron Corp | Simulator, simulation method, and simulation program |
JP2014014912A (en) | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | Robot system, robot, robot control device, robot control method and robot control program |
JP2015136770A (en) | 2014-01-23 | 2015-07-30 | ファナック株式会社 | Data creation system of visual sensor, and detection simulation system |
JP2017094406A (en) | 2015-11-18 | 2017-06-01 | オムロン株式会社 | Simulation device, simulation method, and simulation program |
JP2018144160A (en) | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device |
Also Published As
Publication number | Publication date |
---|---|
JP2021024056A (en) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10035268B2 (en) | Measurement system used for calibrating mechanical parameters of robot | |
JP4267005B2 (en) | Measuring apparatus and calibration method | |
JP7237483B2 (en) | Robot system control method, control program, recording medium, control device, robot system, article manufacturing method | |
JP4298757B2 (en) | Robot mechanism calibration apparatus and method | |
US9889565B2 (en) | Method for calibrating a robot and a robot system | |
JP6235664B2 (en) | Measuring device used to calibrate mechanism parameters of robot | |
KR102271941B1 (en) | Automated machining head with vision and procedure | |
JP6489776B2 (en) | Coordinate system calibration method, robot system, program, and recording medium | |
JP5371927B2 (en) | Coordinate system calibration method and robot system | |
EP2993002A1 (en) | Robot apparatus and method for controlling robot apparatus | |
US20080013825A1 (en) | Simulation device of robot system | |
CN111278608B (en) | Calibration article for 3D vision robot system | |
JP2015147280A (en) | robot calibration method | |
KR20080088165A (en) | Robot calibration method | |
JP2012240174A (en) | Calibration device and calibration method | |
JPH0885083A (en) | Method for deriving and calibrating tool parameter of robot | |
JPH0538688A (en) | Coordinate system calibrating method for industrial robot system | |
JP7264763B2 (en) | calibration device | |
WO2021210456A1 (en) | Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program | |
TW202235239A (en) | Device for adjusting parameter, robot system, method, and computer program | |
JPH06278064A (en) | Method for converting coordinate of visual sensor | |
KR102262235B1 (en) | Method for calibrating real robot operation program made by off line programming | |
Van Wyk et al. | Efficiently Improving and Quantifying Robot Accuracy In Situ | |
RU2761924C1 (en) | Manipulator control method | |
JPH08141950A (en) | Calibration method of articulated robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7264763 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |