JP2012240174A - Calibration device and calibration method - Google Patents

Calibration device and calibration method Download PDF

Info

Publication number
JP2012240174A
JP2012240174A JP2011114870A JP2011114870A JP2012240174A JP 2012240174 A JP2012240174 A JP 2012240174A JP 2011114870 A JP2011114870 A JP 2011114870A JP 2011114870 A JP2011114870 A JP 2011114870A JP 2012240174 A JP2012240174 A JP 2012240174A
Authority
JP
Japan
Prior art keywords
dimensional
robot
coordinate system
unit
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011114870A
Other languages
Japanese (ja)
Other versions
JP5523392B2 (en
Inventor
Yasuo Kitaaki
靖雄 北明
Yukiyasu Domae
幸康 堂前
Haruhisa Okuda
晴久 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011114870A priority Critical patent/JP5523392B2/en
Publication of JP2012240174A publication Critical patent/JP2012240174A/en
Application granted granted Critical
Publication of JP5523392B2 publication Critical patent/JP5523392B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain a calibration device in which labor and time of calibration caused after starting up the system can be reduced more than those of the first system startup.SOLUTION: The calibration device includes: an estimation means for estimating deviation amount of relative positional relationship between a coordinate system of a three dimension measuring means and a coordinate system of a robot, based on a three dimension position memorized in a second memory means and a three dimension position obtained after starting up the system by the three dimension measuring means; a calculation means for calculating the degree of matching between a two dimension image memorized in the second memory means and a two dimension image obtained after starting up the system by the two dimension measuring means, using the deviation amount estimated by the estimation means; and a correction means for correcting relation information memorized in a first memory means using the deviation amount estimated by the estimation means when the degree of matching calculated by the calculation means is smaller than the threshold amount.

Description

本発明は、キャリブレーション装置及びキャリブレーション方法に関する。   The present invention relates to a calibration apparatus and a calibration method.

ビジョンセンサの情報からロボットが作業するためには、ビジョンセンサの座標系をロボット座標系に変換する必要があり、この変換行列を求めることをキャリブレーションと呼ぶ。   In order for the robot to work from the information of the vision sensor, it is necessary to convert the coordinate system of the vision sensor to the robot coordinate system, and obtaining this conversion matrix is called calibration.

システムを立ち上げた時や、立ち上げ後に衝突などで位置ずれが発生した時には、キャリブレーションを実施する必要がある。ロボットによる作業に対して要求される精度が高くなるほど、キャリブレーションに対して要求される精度も高くなる。そのため、熟練作業者が時間をかけて作業を行っていたが、手間と時間とがかかり手戻りも多く、キャリブレーションが必要なビジョンセンサを用いたシステムの保全性が低下する傾向にある。   It is necessary to perform calibration when the system is started up or when a position shift occurs due to a collision after starting up. The higher the accuracy required for work by the robot, the higher the accuracy required for calibration. For this reason, skilled workers have spent time working, but it takes time and effort, and there are many reworks, which tends to lower the maintainability of a system using a vision sensor that requires calibration.

それに対して、特許文献1には、ロボットアーム装置のアーム先端部に指し棒を把持させ、ステレオ画像計測装置の画像内にアーム先端部の指し棒が映し出された状態で指し棒が長方形を描くようにロボットアームを動作させ、このときの位置データを基に、ステレオ画像計測装置の座標系からロボットアーム装置の座標系への座標変換データを計算することが記載されている。これにより、特許文献1によれば、キャリブレーション作業を自動化できるとされている。   On the other hand, in Patent Document 1, the pointing rod is drawn in a rectangle in a state where the pointing rod is gripped by the arm tip of the robot arm device and the pointing rod of the arm tip is projected in the image of the stereo image measuring device. The robot arm is operated as described above, and the coordinate conversion data from the coordinate system of the stereo image measuring device to the coordinate system of the robot arm device is calculated based on the position data at this time. Thereby, according to patent document 1, it is supposed that a calibration operation can be automated.

また、特許文献2には、ロボットビジョンシステムにおいて、ロボットのアームの先端にチェッカーボードを固定し、機構的に既知な位置に固定された指示ピンがチェッカーボード上の交点と同一点となるようにアームを動かし、ロボット座標系におけるチェッカーボード上の各マーカーの3次元座標を求めることが記載されている。また、右カメラの撮影画像及び左カメラの撮影画像をそれぞれ画像解析して、ステレオカメラ座標系におけるチェッカーボード上の各マーカーの3次元座標を求め、ロボット座標系におけるマーカーの3次元座標とステレオカメラ座標系におけるマーカーの3次元座標とを対応付けることにより、ステレオカメラ座標系からロボット座標系への剛体変換行列を求めるとされている。これにより、特許文献2によれば、キャリブレーション作業を自動で行うことができるとされている。   Further, in Patent Document 2, in a robot vision system, a checker board is fixed to the tip of a robot arm, and an instruction pin fixed at a mechanically known position is the same point as an intersection on the checker board. It is described that the three-dimensional coordinates of each marker on the checker board in the robot coordinate system are obtained by moving the arm. The right camera and left camera images are analyzed, and the three-dimensional coordinates of the markers on the checker board in the stereo camera coordinate system are obtained. The three-dimensional coordinates of the markers in the robot coordinate system and the stereo camera It is supposed that a rigid body transformation matrix from the stereo camera coordinate system to the robot coordinate system is obtained by associating with the three-dimensional coordinates of the marker in the coordinate system. Thereby, according to patent document 2, it is supposed that a calibration work can be performed automatically.

特許第3402021号公報Japanese Patent No. 3402201 特開2010−172986号公報JP 2010-172986 A

特許文献1、2に記載の技術は、いずれも、キャリブレーションを行う際にロボットのアーム先端にマーカーとなるものを把持又は固定させることが必要である。このため、システム立ち上げ後、ロボットへの所定の物体の衝突などにより既にキャリブレーション済みであるロボットの座標系とビジョンセンサの座標系との間に位置ずれが発生した際にも、システム立ち上げ時と同じキャリブレーション作業を行う必要がある。このため、システム立ち上げ後のキャリブレーションにおいて、システム立ち上げ時と同じ手間及び時間が必要になる。   In any of the techniques described in Patent Documents 1 and 2, it is necessary to hold or fix a marker serving as a marker at the tip of a robot arm when performing calibration. For this reason, even after a system start-up, the system is started up even when a position error occurs between the coordinate system of the robot that has already been calibrated and the coordinate system of the vision sensor due to a collision of a predetermined object with the robot. It is necessary to perform the same calibration work as the time. For this reason, the calibration after the system startup requires the same effort and time as those at the system startup.

例えば、実際の生産ラインでロボットの座標系とビジョンセンサの座標系との相対的な位置関係にずれが生じた際、生産ラインの中へ人が立ち入り、ロボットのアーム先端に指し棒を把持させる必要がある。あるいは、ロボットのアーム先端から作業用のエンドエフェクタを取り外し、ロボットのアーム先端にチェッカーボードを取り付ける必要がある。   For example, when there is a shift in the relative positional relationship between the robot coordinate system and the vision sensor coordinate system in the actual production line, a person enters the production line and causes the robot arm's arm tip to hold the pointer. There is a need. Alternatively, it is necessary to remove the working end effector from the tip of the robot arm and attach a checkerboard to the tip of the robot arm.

本発明は、上記に鑑みてなされたものであって、システム立ち上げ後におけるキャリブレーションの手間及び時間をシステム立ち上げ時より低減できるキャリブレーション装置及びキャリブレーション方法を得ることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a calibration device and a calibration method that can reduce the labor and time of calibration after system startup compared to when the system is started up.

上述した課題を解決し、目的を達成するために、本発明の1つの側面にかかるキャリブレーション装置は、ロボットを有するシステムのキャリブレーションを行うキャリブレーション装置であって、前記ロボットの手先により作業が行われる作業エリア周辺の2次元画像を取得する2次元計測手段と、前記作業エリア周辺の3次元位置を取得する3次元計測手段と、前記3次元計測手段の座標系に対する前記ロボットの座標系の相対的な位置関係を記述する関連情報を記憶する第1の記憶手段と、前記2次元計測手段によりシステム立ち上げ時に取得された2次元画像と前記3次元計測手段によりシステム立ち上げ時に取得された3次元位置とを記憶する第2の記憶手段と、前記第2の記憶手段に記憶された3次元位置と前記3次元計測手段によりシステム立ち上げ後に取得された3次元位置とに基づいて、前記3次元計測手段の座標系に対する前記ロボットの座標系の相対的な位置関係のずれ量を推定する推定手段と、前記推定手段により推定されたずれ量を用いて、前記第2の記憶手段に記憶された2次元画像と前記2次元計測手段によりシステム立ち上げ後に取得された2次元画像との一致度を計算する計算手段と、前記計算手段により計算された一致度が閾値より小さい場合、前記推定手段により推定されたずれ量を用いて、前記第1の記憶手段に記憶された関連情報を補正する補正手段とを備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a calibration apparatus according to one aspect of the present invention is a calibration apparatus for calibrating a system having a robot, and is operated by the hand of the robot. A two-dimensional measuring means for acquiring a two-dimensional image around the work area to be performed; a three-dimensional measuring means for acquiring a three-dimensional position around the work area; and a coordinate system of the robot relative to the coordinate system of the three-dimensional measuring means. A first storage means for storing related information describing a relative positional relationship; a two-dimensional image obtained at the time of system startup by the two-dimensional measurement means; and a information obtained at the time of system startup by the three-dimensional measurement means Second storage means for storing a three-dimensional position; three-dimensional position stored in the second storage means; and the three-dimensional measurement means Based on the three-dimensional position acquired after system startup, an estimation unit that estimates a relative positional deviation of the robot coordinate system with respect to the coordinate system of the three-dimensional measurement unit, and the estimation unit Calculation means for calculating a degree of coincidence between the two-dimensional image stored in the second storage means and the two-dimensional image obtained after the system is started up by the two-dimensional measurement means, using the estimated shift amount; And a correction unit that corrects the related information stored in the first storage unit by using the deviation amount estimated by the estimation unit when the degree of coincidence calculated by the calculation unit is smaller than a threshold value. It is characterized by.

本発明によれば、システム運用時に3次元計測手段の座標系に対するロボットの座標系の相対的な位置関係のずれが発生した際、2次元計測手段及び3次元計測手段の計測データを用いてずれの補正を行うので、キャリブレーション用の専用の計測対象物の設置が必要なく、ロボットの作業エリアに作業者が入る必要がない。これにより、システム立ち上げ後におけるキャリブレーションの手間及び時間をシステム立ち上げ時より低減できる。   According to the present invention, when a relative positional shift of the coordinate system of the robot with respect to the coordinate system of the three-dimensional measurement unit occurs during system operation, the shift is performed using the measurement data of the two-dimensional measurement unit and the three-dimensional measurement unit. Therefore, there is no need to install a dedicated measurement object for calibration, and there is no need for an operator to enter the robot work area. As a result, it is possible to reduce the labor and time of calibration after the system is started up than when the system is started up.

図1は、実施の形態に係るキャリブレーション装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a calibration apparatus according to an embodiment. 図2は、実施の形態に係るキャリブレーション装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of the calibration apparatus according to the embodiment. 図3は、システム立ち上げ時におけるキャリブレーション装置の動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the calibration apparatus when the system is started up. 図4は、5箇所の観測位置の位置と姿勢を表す概念図である。FIG. 4 is a conceptual diagram showing the positions and orientations of the five observation positions. 図5は、各観測位置におけるマーカーの観測画像である。FIG. 5 is an observation image of the marker at each observation position. 図6は、システム立ち上げ後におけるキャリブレーション装置の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the calibration apparatus after system startup. 図7は、実施の形態の変形例に係るキャリブレーション装置の構成を示す図である。FIG. 7 is a diagram illustrating a configuration of a calibration apparatus according to a modification of the embodiment.

以下に、本発明にかかるキャリブレーション装置の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Embodiments of a calibration apparatus according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

実施の形態.
実施の形態にかかるキャリブレーション装置100について説明する。
Embodiment.
A calibration apparatus 100 according to an embodiment will be described.

キャリブレーション装置100は、図1に示すように、ロボットRB及び3Dセンサ21を有するロボットシステムRSのキャリブレーションを行う。キャリブレーションとは、例えば、3Dセンサ21の座標系(x,y,z)からロボットRBの座標系(X,Y,Z)への座標変換を行うための変換行列を求めることである。   As illustrated in FIG. 1, the calibration apparatus 100 calibrates the robot system RS including the robot RB and the 3D sensor 21. The calibration is to obtain a transformation matrix for performing coordinate transformation from the coordinate system (x, y, z) of the 3D sensor 21 to the coordinate system (X, Y, Z) of the robot RB, for example.

まず、キャリブレーション装置100がキャリブレーションを行う対象であるロボットシステムRSについて説明する。   First, the robot system RS that is the target for calibration performed by the calibration apparatus 100 will be described.

ロボットRBは、例えば、6自由度の多関節ロボットであり、ロボットアームの先端には、フランジRB2が設けられている。このフランジRB2には作業用のツールとして例えばロボットハンドRB1等が装着される。そして、このフランジRB2には、ロボットハンドRB1等のツールと並んで3Dセンサ21及び2Dセンサ11が取り付けられている。これにより、ロボットRBは、作業エリアWAの作業台WT上に配置された所定の対象物に対して組み付けや加工等の作業を行う。   The robot RB is, for example, a multi-joint robot with 6 degrees of freedom, and a flange RB2 is provided at the tip of the robot arm. For example, a robot hand RB1 is mounted on the flange RB2 as a working tool. The 3D sensor 21 and the 2D sensor 11 are attached to the flange RB2 along with tools such as the robot hand RB1. As a result, the robot RB performs operations such as assembly and processing on a predetermined object placed on the work table WT in the work area WA.

ロボット座標系(X,Y,Z)の原点は、例えばロボットRBの基部の底面にあり、Z軸を垂直方向にとって定義される。図1ではこのロボット座標系(X,Y,Z)を便宜上少しずらして描いている。フランジ座標系(X,Y,Z)は、ロボットRBの手先のフランジRB2に定義された座標系で、同様に図1では便宜上少しずらして描いている。フランジ座標系(X,Y,Z)の位置と姿勢はロボットコントローラRCが制御している。 The origin of the robot coordinate system (X, Y, Z) is, for example, on the bottom surface of the base of the robot RB, and is defined with the Z axis as the vertical direction. In FIG. 1, the robot coordinate system (X, Y, Z) is drawn with a slight shift for convenience. The flange coordinate system (X F , Y F , Z F ) is a coordinate system defined for the flange RB2 at the hand of the robot RB, and is similarly drawn slightly shifted in FIG. The position and orientation of the flange coordinate system (X F , Y F , Z F ) are controlled by the robot controller RC.

3Dセンサ21を用いて対象物の位置を計測し、それに基づいてロボットRBを動作させるために、3Dセンサ21によって得られる対象物の位置データをロボットRBが動作する座標系上のデータに変換する。つまり、3Dセンサ21の座標系(x,y,z)と、ロボット30が動作する座標系(X,Y,Z)の間の関係を予め求める。ロボットアーム先端のフランジRB2に定義されているフランジ座標系(X,Y,Z)をロボット座標系(X,Y,Z)に変換するパラメータが、ロボットコントローラRCの記憶部RC3にあらかじめ記憶されている。そして、このフランジRB2に3Dセンサ21が取付けられているので、センサ座標系(x,y,z)をフランジ座標系(X,Y,Z)に変換するパラメータ(回転行列と並進ベクトル)をキャリブレーションすればよい。これにより、3Dセンサ21で検出したセンサ座標系における対象物の座標をフランジ座標系における座標に変換し、さらにそれをロボット座標系における座標に変換することができる。 In order to measure the position of the object using the 3D sensor 21 and operate the robot RB based on the measured position, the position data of the object obtained by the 3D sensor 21 is converted into data on the coordinate system on which the robot RB operates. . That is, the relationship between the coordinate system (x, y, z) of the 3D sensor 21 and the coordinate system (X, Y, Z) in which the robot 30 operates is obtained in advance. Parameters for converting the flange coordinate system (X F , Y F , Z F ) defined in the flange RB2 at the tip of the robot arm into the robot coordinate system (X, Y, Z) are stored in advance in the storage unit RC3 of the robot controller RC. It is remembered. Since the 3D sensor 21 is attached to the flange RB2, parameters (rotation matrix and translation vector) for converting the sensor coordinate system (x, y, z) into the flange coordinate system (X F , Y F , Z F ). ) Should be calibrated. Thereby, the coordinates of the object in the sensor coordinate system detected by the 3D sensor 21 can be converted into coordinates in the flange coordinate system, and further converted into coordinates in the robot coordinate system.

ロボットコントローラRCは、マイクロプロセッサからなる中央演算処理装置(CPU)と、CPUにバス結合されたROMメモリ、RAMメモリ、不揮発性メモリ、ロボットの軸制御のためのディジタルサーボ回路と、サーボアンプ、外部信号の入出力装置、画像処理装置と結ばれた通信インターフェイス等を備えている。これら電子部品は、機能的に制御部RC1、演算部RC2、記憶部RC3を構成している。   The robot controller RC includes a central processing unit (CPU) composed of a microprocessor, a ROM memory, a RAM memory, a nonvolatile memory, a digital servo circuit for robot axis control, a servo amplifier, A signal input / output device, a communication interface connected to the image processing device, and the like are provided. These electronic components functionally configure a control unit RC1, a calculation unit RC2, and a storage unit RC3.

記憶部RC3を構成するメモリのうち、ROMメモリにはシステムを制御するシステムプログラムが格納され、RAMメモリはCPUが行なう処理のためのデータの一時記憶等に使用される。また、不揮発性メモリには、動作プログラムのデータや、システムの動作に必要な各種設定値が格納される。この各種設定値には、ロボットRBのフランジRB2に定義されているフランジ座標系(X,Y,Z)をロボット座標系(X,Y,Z)に変換するパラメータ、すなわち、フランジ座標系(X,Y,Z)とセンサ座標系(x,y,z)の相対的な関係を記述する関連情報(例えば、回転行列や並進ベクトルなどのパラメータ)も含まれている。ロボットコントローラRCは、フランジRB2の位置姿勢を制御すると同時にそのデータをリアルタイムでアップデートしており、出力することができる。なお、本実施の形態の記憶部RC3は、ロボットコントローラRCの内部に設けられているが、外部に設けられた記憶装置であってもよい。 Of the memories constituting the storage unit RC3, the ROM memory stores a system program for controlling the system, and the RAM memory is used for temporary storage of data for processing performed by the CPU. The nonvolatile memory stores operation program data and various setting values necessary for system operation. These various setting values include parameters for converting the flange coordinate system (X F , Y F , Z F ) defined in the flange RB2 of the robot RB into the robot coordinate system (X, Y, Z), that is, the flange coordinates Related information (for example, parameters such as a rotation matrix and a translation vector) describing the relative relationship between the system (X F , Y F , Z F ) and the sensor coordinate system (x, y, z) is also included. The robot controller RC controls the position and orientation of the flange RB2 and simultaneously updates and outputs the data in real time. The storage unit RC3 according to the present embodiment is provided inside the robot controller RC, but may be a storage device provided outside.

手動操作パネルPAは、ロボットRBの手動操作をするためのパネルであり、このパネル上に設けられたボタン、ジョイスティックなどを操作することにより、ロボットRBを手動操作できるようになっている。   The manual operation panel PA is a panel for manually operating the robot RB, and the robot RB can be manually operated by operating buttons, joysticks, and the like provided on the panel.

次に、キャリブレーション装置100の構成について図2を用いて説明する。図2は、キャリブレーション装置100の構成を示すブロック図である。   Next, the configuration of the calibration apparatus 100 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the calibration apparatus 100.

キャリブレーション装置100は、制御部90、2次元計測部10、3次元計測部20、第1の記憶部30、第2の記憶部40、推定部50、計算部60、比較部65、補正部70、及び表示部80を備える。   The calibration device 100 includes a control unit 90, a two-dimensional measurement unit 10, a three-dimensional measurement unit 20, a first storage unit 30, a second storage unit 40, an estimation unit 50, a calculation unit 60, a comparison unit 65, and a correction unit. 70 and a display unit 80.

制御部90は、キャリブレーション装置100における各部を全体的に制御する。   The control unit 90 generally controls each unit in the calibration apparatus 100.

2次元計測部10は、作業エリアWA周辺の2次元画像を取得する。作業エリアWAは、ロボットRBのロボットハンドRB1等により作業が行われるためのエリアである。2次元計測部10は、例えば、作業エリアWA周辺における複数の計測位置のそれぞれで2次元画像を取得する。   The two-dimensional measuring unit 10 acquires a two-dimensional image around the work area WA. The work area WA is an area for performing work by the robot hand RB1 of the robot RB. For example, the two-dimensional measurement unit 10 acquires a two-dimensional image at each of a plurality of measurement positions around the work area WA.

具体的には、2次元計測部10は、2Dセンサ11及び信号処理部12を有し、2Dセンサ11により複数の計測位置のそれぞれの2次元画像を撮像し、2Dセンサ11により撮像された複数の2次元画像の画像信号に対して信号処理部12により所定の信号処理(アナログ信号処理等)を行う。   Specifically, the two-dimensional measurement unit 10 includes a 2D sensor 11 and a signal processing unit 12. The 2D sensor 11 captures a two-dimensional image at each of a plurality of measurement positions, and a plurality of images captured by the 2D sensor 11. The signal processing unit 12 performs predetermined signal processing (analog signal processing or the like) on the image signal of the two-dimensional image.

2次元計測部10は、システム立ち上げ時に、取得した例えば複数の計測位置の2次元画像を制御部90経由で第2の記憶部40へ供給する。2次元計測部10は、システム立ち上げ後に、取得した例えば複数の計測位置の2次元画像を制御部90経由で計算部60へ供給する。   The two-dimensional measurement unit 10 supplies, for example, the acquired two-dimensional images at a plurality of measurement positions to the second storage unit 40 via the control unit 90 when the system is started up. The two-dimensional measurement unit 10 supplies, for example, the acquired two-dimensional images at a plurality of measurement positions to the calculation unit 60 via the control unit 90 after starting up the system.

3次元計測部20は、作業エリアWA周辺の3次元位置を取得する。3次元計測部20は、例えば、作業エリアWA周辺における複数の計測位置のそれぞれで3次元位置を取得する。3次元計測部20は、取得した例えば複数の計測位置の3次元位置を制御部90経由で第2の記憶部40又は推定部50へ供給する。   The three-dimensional measuring unit 20 acquires a three-dimensional position around the work area WA. For example, the three-dimensional measurement unit 20 acquires a three-dimensional position at each of a plurality of measurement positions around the work area WA. The three-dimensional measurement unit 20 supplies the acquired three-dimensional positions of a plurality of measurement positions, for example, to the second storage unit 40 or the estimation unit 50 via the control unit 90.

具体的には、3次元計測部20は、3Dセンサ21、信号処理部22、及び演算部23を有し、3Dセンサ21は、右センサ211及び左センサ212を有する。右センサ211により複数の計測位置のそれぞれの2次元画像を撮像し、左センサ212により複数の計測位置のそれぞれの2次元画像を撮像し、右センサ211及び左センサ212により撮像された複数の2次元画像の画像信号に対して信号処理部22により所定の信号処理(アナログ信号処理等)を行って3次元画像信号を生成し、生成された3次元画像信号から演算部23は複数の計測位置の3次元位置を求める。   Specifically, the three-dimensional measurement unit 20 includes a 3D sensor 21, a signal processing unit 22, and a calculation unit 23, and the 3D sensor 21 includes a right sensor 211 and a left sensor 212. A two-dimensional image of each of a plurality of measurement positions is captured by the right sensor 211, a two-dimensional image of each of the plurality of measurement positions is captured by the left sensor 212, and a plurality of two images captured by the right sensor 211 and the left sensor 212 are captured. The signal processing unit 22 performs predetermined signal processing (analog signal processing or the like) on the image signal of the three-dimensional image to generate a three-dimensional image signal, and the calculation unit 23 uses a plurality of measurement positions from the generated three-dimensional image signal. Is obtained.

3次元計測部20は、システム立ち上げ時に、取得した例えば複数の計測位置の3次元位置を制御部90経由で第2の記憶部40へ供給する。3次元計測部20は、システム立ち上げ後に、取得した例えば複数の計測位置の3次元位置を制御部90経由で推定部50へ供給する。   The three-dimensional measurement unit 20 supplies, for example, the acquired three-dimensional positions of a plurality of measurement positions to the second storage unit 40 via the control unit 90 when the system is started up. The three-dimensional measuring unit 20 supplies, for example, the acquired three-dimensional positions of a plurality of measurement positions to the estimating unit 50 via the control unit 90 after starting up the system.

第1の記憶部30は、例えば、上述したロボットコントローラRCの記憶部RC3に含まれており、関連情報31を記憶している。関連情報31は、3次元計測部20の座標系すなわちセンサ座標系(x,y,z)に対するロボットの座標系(X,Y,Z)の相対的な位置関係を記述する情報である。関連情報31は、例えば、センサ座標系(x,y,z)をフランジ座標系(X,Y,Z)に変換するパラメータ(例えば、回転行列Rや並進ベクトルTなどのパラメータ)や、フランジ座標系(X,Y,Z)をロボット座標系(X,Y,Z)に変換するパラメータ(例えば、回転行列Rや並進ベクトルTなどのパラメータ)などを含む。 The first storage unit 30 is included in, for example, the storage unit RC3 of the robot controller RC described above, and stores related information 31. The related information 31 is information describing the relative positional relationship of the coordinate system (X, Y, Z) of the robot with respect to the coordinate system of the three-dimensional measuring unit 20, that is, the sensor coordinate system (x, y, z). Related information 31 is, for example, the sensor coordinate system (x, y, z) a flange coordinate system (X F, Y F, Z F) parameters be converted into (e.g., parameters such as a rotation matrix R h and translation vector T h ) And parameters for converting the flange coordinate system (X F , Y F , Z F ) to the robot coordinate system (X, Y, Z) (for example, parameters such as the rotation matrix R f and the translation vector T f ), etc. .

例えば、センサ座標系(x,y,z)は、次の数式(1)でフランジ座標系(X,Y,Z)に変換される。

Figure 2012240174
For example, the sensor coordinate system (x, y, z) is converted into the flange coordinate system (X F , Y F , Z F ) by the following formula (1).
Figure 2012240174

また、例えば、フランジ座標系(X,Y,Z)は、次の数式(2)でロボット座標系(X,Y,Z)に変換される。

Figure 2012240174
Further, for example, the flange coordinate system (X F , Y F , Z F ) is converted into the robot coordinate system (X, Y, Z) by the following formula (2).
Figure 2012240174

数式(1)、数式(2)を結合すると、次の数式(3)になる。

Figure 2012240174
すなわち、この式がセンサ座標系(x,y,z)をロボット座標系(X,Y,Z)に変換する式である。 Combining Equation (1) and Equation (2) yields the following Equation (3).
Figure 2012240174
That is, this expression is an expression for converting the sensor coordinate system (x, y, z) to the robot coordinate system (X, Y, Z).

第2の記憶部40は、システム立ち上げ時に取得された2次元画像を2次元計測部10から制御部90経由で受けて記憶する。例えば、第2の記憶部40は、複数の計測位置の2次元画像を2次元画像群41として記憶する。2次元画像群41では、計測位置と2次元画像とが複数の計測位置のそれぞれについて対応付けられている。   The second storage unit 40 receives and stores the two-dimensional image acquired at the time of system startup from the two-dimensional measurement unit 10 via the control unit 90. For example, the second storage unit 40 stores two-dimensional images at a plurality of measurement positions as a two-dimensional image group 41. In the two-dimensional image group 41, a measurement position and a two-dimensional image are associated with each other for a plurality of measurement positions.

また、第2の記憶部40は、システム立ち上げ時に取得された3次元位置を3次元計測部20から制御部90経由で受けて記憶する。例えば、第2の記憶部40は、複数の計測位置の3次元位置を3次元位置群42として記憶する。3次元位置群42では、計測位置と3次元位置とが複数の計測位置のそれぞれについて対応付けられている。   The second storage unit 40 receives and stores the three-dimensional position acquired at the time of system startup from the three-dimensional measurement unit 20 via the control unit 90. For example, the second storage unit 40 stores three-dimensional positions of a plurality of measurement positions as a three-dimensional position group 42. In the three-dimensional position group 42, the measurement position and the three-dimensional position are associated with each other for a plurality of measurement positions.

推定部50は、システム立ち上げ後に取得された3次元位置を3次元計測部20から制御部90経由で受ける。これに応じて、推定部50は、制御部90経由で第2の記憶部40にアクセスし、システム立ち上げ時に取得された3次元位置を第2の記憶部40から制御部90経由で読み出す。そして、推定部50は、システム立ち上げ時に取得された3次元位置とシステム立ち上げ後に取得された3次元位置とに基づいて、3次元計測部20の座標系(x,y,z)に対するロボットRBの座標系(X,Y,Z)の相対的な位置関係のずれ量を推定する。推定部50は、推定されたずれ量を制御部90経由で計算部60へ供給する。   The estimation unit 50 receives the three-dimensional position acquired after the system startup from the three-dimensional measurement unit 20 via the control unit 90. In response to this, the estimation unit 50 accesses the second storage unit 40 via the control unit 90, and reads the three-dimensional position acquired at the time of system startup from the second storage unit 40 via the control unit 90. Then, the estimation unit 50 is a robot for the coordinate system (x, y, z) of the three-dimensional measurement unit 20 based on the three-dimensional position acquired at the time of system startup and the three-dimensional position acquired after the system startup. The amount of shift in the relative positional relationship of the RB coordinate system (X, Y, Z) is estimated. The estimation unit 50 supplies the estimated deviation amount to the calculation unit 60 via the control unit 90.

計算部60は、推定されたずれ量を推定部50から制御部90経由で受ける。また、計算部60は、システム立ち上げ後に取得された2次元画像を2次元計測部10から制御部90経由で受ける。これに応じて、計算部60は、制御部90経由で第2の記憶部40にアクセスし、システム立ち上げ時に取得された2次元画像を第2の記憶部40から制御部90経由で読み出す。そして、計算部60は、推定部50により推定されたずれ量を用いて、システム立ち上げ時に取得された2次元画像とシステム立ち上げ後に取得された2次元画像との一致度を計算する。例えば、計算部60は、システム立ち上げ時に取得された2次元画像とシステム立ち上げ後に取得された2次元画像との個別の一致度を複数の計測位置のそれぞれについて計算し、複数の計測位置について計算された個別の一致度の総和を求め、その総和を上記の一致度として計算する。計算部60は、計算された一致度を制御部90経由で比較部65へ供給する。   The calculation unit 60 receives the estimated shift amount from the estimation unit 50 via the control unit 90. Further, the calculation unit 60 receives a two-dimensional image acquired after the system startup from the two-dimensional measurement unit 10 via the control unit 90. In response to this, the calculation unit 60 accesses the second storage unit 40 via the control unit 90, and reads the two-dimensional image acquired at the time of system startup from the second storage unit 40 via the control unit 90. Then, the calculation unit 60 calculates the degree of coincidence between the two-dimensional image acquired at the time of system startup and the two-dimensional image acquired after the system startup, using the deviation amount estimated by the estimation unit 50. For example, the calculation unit 60 calculates the individual coincidence between the two-dimensional image acquired at the time of system startup and the two-dimensional image acquired after the system startup for each of a plurality of measurement positions. A total sum of the calculated individual matching degrees is obtained, and the total is calculated as the above matching degree. The calculation unit 60 supplies the calculated degree of coincidence to the comparison unit 65 via the control unit 90.

比較部65は、計算された一致度を計算部60から制御部90経由で受ける。比較部65は、計算された一致度を閾値と比較し、比較結果を制御部90経由で補正部70及び表示部80へ供給する。   The comparison unit 65 receives the calculated degree of coincidence from the calculation unit 60 via the control unit 90. The comparison unit 65 compares the calculated degree of coincidence with a threshold value, and supplies the comparison result to the correction unit 70 and the display unit 80 via the control unit 90.

補正部70は、比較結果を比較部65から制御部90経由で受ける。補正部70は、計算部60により計算された一致度が閾値より小さいことが比較結果により示されていた場合、推定部50により推定されたずれ量を用いて、第1の記憶部30に記憶された関連情報31を補正する。   The correction unit 70 receives the comparison result from the comparison unit 65 via the control unit 90. When the comparison result indicates that the degree of coincidence calculated by the calculation unit 60 is smaller than the threshold value, the correction unit 70 stores the amount of deviation estimated by the estimation unit 50 in the first storage unit 30. The related information 31 is corrected.

表示部80は、比較結果を比較部65から制御部90経由で受ける。表示部80は、計算部60により計算された一致度が閾値以上であることが比較結果により示されていた場合、推定部50により推定されたずれ量に応じた補正すべき方向を示すオブジェクトをロボットRBに関する画像に重ねて表示する。具体的には、表示部80は、ディスプレイ81及び表示制御部82を有し、例えば2次元計測部10によりシステム立ち上げ後に取得された2次元画像に例えば、図1に示す補正すべき方向を示す矢印のオブジェクトを重ね合わせた表示データを表示制御部82により生成し、その表示データに応じた図1に示すような画像をディスプレイ81により表示する。   The display unit 80 receives the comparison result from the comparison unit 65 via the control unit 90. When the comparison result indicates that the degree of coincidence calculated by the calculation unit 60 is equal to or greater than the threshold value, the display unit 80 displays an object indicating a direction to be corrected according to the deviation amount estimated by the estimation unit 50. The image related to the robot RB is displayed in an overlapping manner. Specifically, the display unit 80 includes a display 81 and a display control unit 82. For example, the direction to be corrected illustrated in FIG. Display data in which objects indicated by arrows are superimposed is generated by the display control unit 82, and an image as shown in FIG. 1 corresponding to the display data is displayed on the display 81.

次に、ロボットシステムRSのシステム立ち上げ時におけるキャリブレーション装置100の動作について図3を用いて説明する。図3は、システム立ち上げ時におけるキャリブレーション装置100の動作を示すフローチャートである。   Next, the operation of the calibration apparatus 100 when the system of the robot system RS is started will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the calibration apparatus 100 when the system is started up.

ステップS1では、キャリブレーション装置100が、図4に示すようなマーカーMKを用いたキャリブレーション(フルキャリブレーション)を実施する。   In step S1, the calibration apparatus 100 performs calibration (full calibration) using the marker MK as shown in FIG.

具体的には、マーカーMKが作業台WT(図1参照)上に配置される。作業者は、ロボットRBの手動操作パネルPAを操作して、順次ロボットRBの手先の位置と姿勢を制御しながら、3次元計測部20によるマーカーMKの検出を例えば5回実行し、各回のロボットRBの姿勢データR、TとマーカーMKのセンサ座標系上の座標とを対応付けて記録する。このときに姿勢を変えずに位置だけ手先を移動させた第1から第3の観測箇所(例えば、図4に示す観測1、観測2、観測3)にてマーカーMKの(例えば、白、黒交互に塗り分けたパターンにおける対角線の交点の)観測を行い、次いで手先の位置も姿勢も変化させた第4および第5の観測箇所(例えば、図4に示す観測4、観測5)でマーカーMKの観測を実行する(図5参照)。 Specifically, the marker MK is disposed on the work table WT (see FIG. 1). The operator operates the manual operation panel PA of the robot RB, sequentially controls the position and orientation of the hand of the robot RB, and executes the detection of the marker MK by the three-dimensional measuring unit 20 for example five times. The RB attitude data R f and T f and the coordinates of the marker MK on the sensor coordinate system are recorded in association with each other. At this time, the marker MK (for example, white, black, etc.) is observed at the first to third observation points (for example, observation 1, observation 2, observation 3 shown in FIG. 4) where the hand is moved by the position without changing the posture. The marker MK is observed at the fourth and fifth observation points (for example, observation 4 and observation 5 shown in FIG. 4) in which observations are made on the intersections of diagonal lines in alternately painted patterns, and then both the hand position and posture are changed. (See FIG. 5).

各観測毎に、ロボットコントローラRCから出力されるフランジ座標系(X,Y,Z)の位置、姿勢を表す回転行列Rfと並進ベクトルTfとが、画像処理装置から出力される観測されたマーカーMKのセンサ座標系(x,y,z)と対応づけられて記録される。 For each observation, the rotation matrix Rf representing the position and orientation of the flange coordinate system (X F , Y F , Z F ) output from the robot controller RC and the translation vector Tf are observed output from the image processing device. The marker MK is recorded in association with the sensor coordinate system (x, y, z).

第1から第3の観測箇所から並進ベクトルを含まない方程式が得られて、回転行列が容易に求まり、第1、第4及び第5の観測箇所からは回転行列、並進ベクトルを含む一般形の方程式が得られるが、回転行列がわかっていると並進ベクトルだけの方程式となり、容易に並進ベクトルが求まる。   An equation that does not include a translation vector is obtained from the first to third observation points, and a rotation matrix is easily obtained. From the first, fourth, and fifth observation points, a general form including a rotation matrix and a translation vector is obtained. Although an equation is obtained, if the rotation matrix is known, an equation with only a translation vector is obtained, and the translation vector can be easily obtained.

例えば、フランジRB2の姿勢をRfcに固定して、つまり3Dセンサ21の姿勢を同じに保ったまま、2つの位置Tf1およびTf2に移動してマーカーMKを観測したときのマーカーMKのセンサ座標系上の座標値をそれぞれ(x,y,z)、(x,y,z)とすると、ロボット座標系におけるマーカーMKの座標は同じであるから次の数式(4)が成り立つ。

Figure 2012240174
For example, the sensor of the marker MK when the posture of the flange RB2 is fixed to Rfc , that is, the marker MK is observed by moving to the two positions Tf1 and Tf2 while keeping the posture of the 3D sensor 21 the same. If the coordinate values on the coordinate system are (x 1 , y 1 , z 1 ) and (x 2 , y 2 , z 2 ), respectively, the coordinates of the marker MK in the robot coordinate system are the same. ) Holds.
Figure 2012240174

数式(4)を変形すると、次の数式(5)が得られる。

Figure 2012240174
When formula (4) is transformed, the following formula (5) is obtained.
Figure 2012240174

同様にして、3Dセンサ21の姿勢を同じに保ったまま第3の位置Tf3に移動して、同じマーカーMKを観測すると、次の数式(6)が得られる。

Figure 2012240174
Similarly, when the same marker MK is observed by moving to the third position Tf3 while maintaining the same posture of the 3D sensor 21, the following equation (6) is obtained.
Figure 2012240174

数式(5)、数式(6)において未知数はRである。Rは3×3の行列で9要素からなるが、回転行列であることから、各列(各行)の要素の2乗和が1になるという制約条件があり、(x,y,z)、(x,y,z)、(x,y,z)が互いに異なっていれば、数式(5)、数式(6)からなる連立方程式を解いてRをユニークに決定できる。 Equation (5), unknowns in Equation (6) is R h. Rh is a 3 × 3 matrix consisting of 9 elements, but since it is a rotation matrix, there is a constraint that the sum of squares of the elements in each column (each row) is 1, and (x 1 , y 1 , If z 1 ), (x 2 , y 2 , z 2 ), and (x 3 , y 3 , z 3 ) are different from each other, the simultaneous equations consisting of Equation (5) and Equation (6) are solved to obtain R h Can be determined uniquely.

このようにして、システム立ち上げ時のキャリブレーション(ステップS1)の実施後に、ステップS2〜ステップS7の処理を、システム立ち上げ後の再キャリブレーションの事前準備として行う。   In this way, after the calibration at the time of starting the system (step S1), the processing of step S2 to step S7 is performed as advance preparation for recalibration after the system is started.

ステップS2では、作業者は、ロボットRBの手動操作パネルPAを操作して、作業エリアWA周辺で計測位置P(i)(i=1,2,…,N)をN個登録し、ロボットコントローラRC或いは計算機のメモリに保存する。そして、キャリブレーション装置100は、計測位置を識別するためのパラメータiに初期値0を設定する。   In step S2, the operator operates the manual operation panel PA of the robot RB to register N measurement positions P (i) (i = 1, 2,..., N) around the work area WA, and the robot controller Save to RC or computer memory. Then, the calibration apparatus 100 sets an initial value 0 to the parameter i for identifying the measurement position.

ステップS3では、キャリブレーション装置100が、計測位置を識別するためのパラメータiをインクリメントする。例えば、初回であれば、キャリブレーション装置100は、i=1とする。   In step S3, the calibration apparatus 100 increments the parameter i for identifying the measurement position. For example, for the first time, the calibration apparatus 100 sets i = 1.

ステップS4では、キャリブレーション装置100が、ロボットRBを計測位置P(i)へ移動させる。例えば、初回であれば、キャリブレーション装置100は、ロボットRBを計測位置P(1)へ移動させる。   In step S4, the calibration apparatus 100 moves the robot RB to the measurement position P (i). For example, for the first time, the calibration apparatus 100 moves the robot RB to the measurement position P (1).

ステップS5では、キャリブレーション装置100が、計測位置P(i)の3次元位置として3D点群データbPnt(i)を取得する。例えば、初回であれば、キャリブレーション装置100は、計測位置P(1)の3D点群データbPnt(1)を取得して第2の記憶部40に保存する。   In step S5, the calibration apparatus 100 acquires 3D point cloud data bPnt (i) as a three-dimensional position of the measurement position P (i). For example, for the first time, the calibration apparatus 100 acquires 3D point cloud data bPnt (1) of the measurement position P (1) and stores it in the second storage unit 40.

ステップS6では、キャリブレーション装置100が、計測位置P(i)の2次元画像として2D画像bImg(i)を取得する。例えば、初回であれば、キャリブレーション装置100は、計測位置P(1)の2D画像bImg(1)を取得して第2の記憶部40に保存する。   In step S6, the calibration apparatus 100 acquires a 2D image bImg (i) as a two-dimensional image at the measurement position P (i). For example, at the first time, the calibration apparatus 100 acquires the 2D image bImg (1) at the measurement position P (1) and stores it in the second storage unit 40.

ステップS7では、キャリブレーション装置100が、計測位置を識別するためのパラメータiが上限値Nより小さいか否かを判断する。キャリブレーション装置100は、パラメータiが上限値Nより小さい場合(ステップS7でYes)、まだ未計測の計測位置があるものとして、処理をステップS3へ戻し、パラメータiが上限値N以上である場合(ステップS7でNo)、全ての計測位置の計測を完了したものとして、処理を終了する。   In step S7, the calibration apparatus 100 determines whether or not the parameter i for identifying the measurement position is smaller than the upper limit value N. When the parameter i is smaller than the upper limit value N (Yes in step S7), the calibration apparatus 100 returns the process to step S3, assuming that there is an unmeasured measurement position, and the parameter i is greater than or equal to the upper limit value N. (No in step S7), the process is terminated assuming that all the measurement positions have been measured.

このようにして、各計測位置P(i)(i=1,2,…,N)で、2D画像bImg(i)と3次元点群データbPnt(i)とをそれぞれ計測し、第2の記憶部40に保存しておく。   In this way, at each measurement position P (i) (i = 1, 2,..., N), the 2D image bImg (i) and the three-dimensional point group data bPnt (i) are respectively measured, and the second Saved in the storage unit 40.

次に、ロボットシステムRSのシステム立ち上げ後におけるキャリブレーション装置100の動作について図6を用いて説明する。図6は、システム立ち上げ後におけるキャリブレーション装置100の動作を示すフローチャートである。   Next, the operation of the calibration apparatus 100 after the system startup of the robot system RS will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the calibration apparatus 100 after the system is started up.

キャリブレーション装置100は、センサ座標系(x,y,z)に対するロボット座標系(X,Y,Z)の相対的な位置関係にずれが発生したことを所定のセンサ(図示せず)により検知すると、ステップS11以降の簡易キャリブレーション補正処理を開始する。   The calibration apparatus 100 detects that a deviation has occurred in the relative positional relationship of the robot coordinate system (X, Y, Z) with respect to the sensor coordinate system (x, y, z) by using a predetermined sensor (not shown). Then, the simple calibration correction process after step S11 is started.

ステップS11では、キャリブレーション装置100が、計測位置を識別するためのパラメータiに初期値0を設定する。   In step S11, the calibration apparatus 100 sets an initial value 0 to the parameter i for identifying the measurement position.

ステップS12では、キャリブレーション装置100が、計測位置を識別するためのパラメータiをインクリメントする。例えば、初回であれば、キャリブレーション装置100は、i=1とする。   In step S12, the calibration apparatus 100 increments the parameter i for identifying the measurement position. For example, for the first time, the calibration apparatus 100 sets i = 1.

ステップS13では、キャリブレーション装置100が、ロボットRBを計測位置P(i)へ移動させる。例えば、初回であれば、キャリブレーション装置100は、ロボットRBを計測位置P(1)へ移動させる。   In step S13, the calibration apparatus 100 moves the robot RB to the measurement position P (i). For example, for the first time, the calibration apparatus 100 moves the robot RB to the measurement position P (1).

ステップS14では、キャリブレーション装置100が、計測位置P(i)の3次元位置として3D点群データaPnt(i)を取得する。例えば、初回であれば、キャリブレーション装置100は、計測位置P(1)の3D点群データaPnt(1)を取得する。   In step S14, the calibration apparatus 100 acquires 3D point cloud data aPnt (i) as a three-dimensional position of the measurement position P (i). For example, if it is the first time, the calibration apparatus 100 acquires 3D point cloud data aPnt (1) at the measurement position P (1).

ステップS15では、キャリブレーション装置100が、計測位置を識別するためのパラメータiが上限値Nより小さいか否かを判断する。キャリブレーション装置100は、パラメータiが上限値Nより小さい場合(ステップS15でYes)、まだ未計測の計測位置があるものとして、処理をステップS12へ戻し、パラメータiが上限値N以上である場合(ステップS15でNo)、全ての計測位置の計測を完了したものとして、処理をステップS16へ進める。   In step S15, the calibration apparatus 100 determines whether or not the parameter i for identifying the measurement position is smaller than the upper limit value N. When the parameter i is smaller than the upper limit value N (Yes in step S15), the calibration apparatus 100 returns the process to step S12, assuming that there is an unmeasured measurement position, and the parameter i is greater than or equal to the upper limit value N. (No in step S15), the process proceeds to step S16 on the assumption that all the measurement positions have been measured.

このようにして、各計測位置P(i)(i=1,2,…,N)で、3D点群データaPnt(i)を計測する。   In this way, the 3D point cloud data aPnt (i) is measured at each measurement position P (i) (i = 1, 2,..., N).

ステップS16では、キャリブレーション装置100が、センサ座標系(x,y,z)に対するロボット座標系(X,Y,Z)の相対的な位置関係のずれ量を推定する。具体的には、キャリブレーション装置100は、次の数式(7)の値を最小にする回転行列(回転成分)R、並進ベクトル(並進成分)Tを推定する。   In step S <b> 16, the calibration apparatus 100 estimates a shift amount of the relative positional relationship of the robot coordinate system (X, Y, Z) with respect to the sensor coordinate system (x, y, z). Specifically, the calibration apparatus 100 estimates a rotation matrix (rotation component) R and a translation vector (translation component) T that minimize the value of the following formula (7).


Σ{bPnt(i)−(R・aPnt(i)+T)} ・・・(7)
i=1
推定方法は特定の方法に限定されず、どんな手法を使っても良い。例えば、ICP(Iterative Closest Point)法と呼ばれる手法で、回転行列R、並進ベクトルTを求めることができる。
N
Σ {bPnt (i) − (R · aPnt (i) + T)} (7)
i = 1
The estimation method is not limited to a specific method, and any method may be used. For example, the rotation matrix R and the translation vector T can be obtained by a technique called an ICP (Iterative Closest Point) method.

ステップS17では、キャリブレーション装置100が、計測位置を識別するためのパラメータiに初期値0を設定する。   In step S17, the calibration apparatus 100 sets an initial value 0 to a parameter i for identifying a measurement position.

ステップS18では、キャリブレーション装置100が、計測位置を識別するためのパラメータiをインクリメントする。例えば、初回であれば、キャリブレーション装置100は、i=1とする。   In step S18, the calibration apparatus 100 increments the parameter i for identifying the measurement position. For example, for the first time, the calibration apparatus 100 sets i = 1.

ステップS19では、キャリブレーション装置100が、ステップS16で推定されたずれ量(例えば、回転行列R、並進ベクトルT)を用いて計測位置を修正する。例えば、キャリブレーション装置100は、次の数式(8)を用いて修正後のP’(i)を計算する。   In step S19, the calibration apparatus 100 corrects the measurement position using the deviation amount (for example, the rotation matrix R and the translation vector T) estimated in step S16. For example, the calibration apparatus 100 calculates the corrected P ′ (i) using the following formula (8).

P’(i)=R・P(i)+T ・・・(8)       P ′ (i) = R · P (i) + T (8)

ステップS20では、キャリブレーション装置100が、ロボットRBを計測位置P’(i)へ移動させる。例えば、初回であれば、キャリブレーション装置100は、ロボットRBを計測位置P’(1)へ移動させる。   In step S20, the calibration apparatus 100 moves the robot RB to the measurement position P ′ (i). For example, for the first time, the calibration apparatus 100 moves the robot RB to the measurement position P ′ (1).

ステップS21では、キャリブレーション装置100が、計測位置P’(i)の2次元画像として2D画像aImg(i)を取得する。例えば、初回であれば、キャリブレーション装置100は、計測位置P’(1)の2D画像aImg(1)を取得する。   In step S21, the calibration apparatus 100 acquires a 2D image aImg (i) as a two-dimensional image at the measurement position P ′ (i). For example, for the first time, the calibration apparatus 100 acquires the 2D image aImg (1) at the measurement position P ′ (1).

ステップS22では、キャリブレーション装置100が、システム立ち上げ時に取得された2D画像bImg(i)とシステム立ち上げ後に取得された2D画像aImg(i)との一致度である個別の一致度E(i)を計算する。例えば、初回であれば、キャリブレーション装置100は、システム立ち上げ時に取得された2D画像bImg(1)とシステム立ち上げ後に取得された2D画像aImg(1)との一致度である個別の一致度E(1)を計算する。一致度の定義は例えば、画像の背景差分を用いて評価することが考えられる。   In step S22, the calibration apparatus 100 uses the individual coincidence degree E (i) that is the degree of coincidence between the 2D image bImg (i) acquired at the time of system startup and the 2D image aImg (i) acquired after the system startup. ). For example, at the first time, the calibration apparatus 100 determines the individual coincidence degree that is the coincidence degree between the 2D image bImg (1) acquired at the time of system startup and the 2D image aImg (1) acquired after the system startup. E (1) is calculated. For example, the definition of the degree of coincidence may be evaluated using the background difference of the image.

ステップS23では、キャリブレーション装置100が、計測位置を識別するためのパラメータiが上限値Nより小さいか否かを判断する。キャリブレーション装置100は、パラメータiが上限値Nより小さい場合(ステップS23でYes)、まだ未計測の計測位置があるものとして、処理をステップS18へ戻し、パラメータiが上限値N以上である場合(ステップS23でNo)、全ての計測位置の計測を完了したものとして、処理をステップS24へ進める。   In step S23, the calibration apparatus 100 determines whether or not the parameter i for identifying the measurement position is smaller than the upper limit value N. When the parameter i is smaller than the upper limit value N (Yes in step S23), the calibration apparatus 100 returns the process to step S18, assuming that there is an unmeasured measurement position, and the parameter i is greater than or equal to the upper limit value N. (No in step S23), the process proceeds to step S24 assuming that the measurement of all measurement positions has been completed.

このようにして、各計測位置P’(i)(i=1,2,…,N)で2D画像aImg(i)を計測するとともに、対応する各計測位置P(i)及びP’(i)(i=1,2,…,N)について個別の一致度E(i)を計算する。   In this way, the 2D image aImg (i) is measured at each measurement position P ′ (i) (i = 1, 2,..., N), and the corresponding measurement positions P (i) and P ′ (i) are measured. ) (I = 1, 2,..., N), the individual matching degree E (i) is calculated.

ステップS24では、キャリブレーション装置100が、個別の一致度E(i)の総和が閾値Tより大きいか否かを判断する。すなわち、キャリブレーション装置100は、次の数式(9)が成り立つか否かを判断する。 In step S24, the calibration apparatus 100 determines whether or not the sum of the individual matching degrees E (i) is larger than the threshold value T E. That is, the calibration apparatus 100 determines whether or not the following formula (9) is satisfied.


ΣE(i)>T ・・・(9)
i=1
N
ΣE (i)> T E (9)
i = 1

キャリブレーション装置100は、数式(9)が成り立たない場合(ステップS24でNo)、センサ座標系(x,y,z)に対するロボット座標系(X,Y,Z)の相対的な位置関係のずれ量が補正可能な範囲内にあるものとして、処理をステップS25へ進める。あるいは、キャリブレーション装置100は、数式(9)が成り立つ場合(ステップS24でYes)、センサ座標系(x,y,z)に対するロボット座標系(X,Y,Z)の相対的な位置関係のずれ量が補正可能な範囲を超えているものとして、処理をステップS26へ進める。   When the mathematical formula (9) does not hold (No in step S24), the calibration apparatus 100 shifts the relative positional relationship of the robot coordinate system (X, Y, Z) with respect to the sensor coordinate system (x, y, z). Assuming that the amount is within the correctable range, the process proceeds to step S25. Alternatively, when the mathematical formula (9) is satisfied (Yes in step S24), the calibration apparatus 100 determines the relative positional relationship of the robot coordinate system (X, Y, Z) with respect to the sensor coordinate system (x, y, z). Assuming that the deviation amount exceeds the correctable range, the process proceeds to step S26.

ステップS25では、キャリブレーション装置100が、システム立ち上げ時に計算した変換行列に、ステップS16で推定されたずれ量(例えば、回転行列R、並進ベクトルT)を反映させて補正する。例えば、キャリブレーション装置100は、数式(1)における回転行列R、並進ベクトルTに対して、それぞれ、回転行列R、並進ベクトルTを加算したものを新たに回転行列R、並進ベクトルTとする補正を行う。 In step S25, the calibration apparatus 100 corrects the shift amount calculated in step S16 (for example, the rotation matrix R and the translation vector T) in the conversion matrix calculated when the system is started up. For example, the calibration device 100, the rotation matrix R h in Equation (1), with respect to the translation vector T h, respectively, the rotation matrix R, a new rotation matrix obtained by adding the translation vector T R h, the translation vector T Correction to h is performed.

ステップS26では、キャリブレーション装置100が、フルキャリブレーションを行う。   In step S26, the calibration apparatus 100 performs full calibration.

ここで、最初からフルキャリブレーションを行う場合、ステップS1と全く同じ処理を行うのであれば、キャリブレーション用のマーカーMKや冶具の計測位置姿勢を2Dセンサ、3Dセンサのそれぞれで試行錯誤しながら変更しなくてはならない。   Here, when performing full calibration from the beginning, if the same processing as step S1 is performed, the measurement position and orientation of the calibration marker MK and the jig are changed through trial and error with each of the 2D sensor and the 3D sensor. I have to do it.

それに対して、本実施の形態では、キャリブレーション装置100が、推定されたずれ量に応じた補正すべき方向を示すオブジェクトをロボットRBに関する画像に重ねて表示する。例えば2次元計測部10によりシステム立ち上げ後に取得された2次元画像に例えば、図1に示す補正すべき方向を示す矢印のオブジェクトを重ね合わせた表示データを表示制御部82により生成し、その表示データに応じた図1に示すような画像をディスプレイ81により表示する。これにより、どちらの方向に移動すればキャリブレーションの補正を行うために次に必要な情報が得られるかの方向性を示すことができる。すなわち、フルキャリブレーションをステップS1よりも簡易に行うことができる。   On the other hand, in the present embodiment, the calibration apparatus 100 displays an object indicating the direction to be corrected according to the estimated deviation amount superimposed on the image related to the robot RB. For example, the display control unit 82 generates display data in which, for example, an arrow object indicating the direction to be corrected shown in FIG. 1 is superimposed on the two-dimensional image acquired after the system is started up by the two-dimensional measurement unit 10, and the display is performed. An image as shown in FIG. 1 corresponding to the data is displayed on the display 81. As a result, it is possible to indicate the direction in which direction the next necessary information is obtained in order to perform calibration correction in which direction. That is, full calibration can be performed more easily than in step S1.

例えば、位置ずれ前及び位置ずれ後の3次元点群データbPnt(i)及びaPnt(i)(i=1,2,…,N)を用いて、bPnt(i)をどう動かせばaPnt(i)との一致度が高くなるかについて、数式(7)を最小化するような回転行列R、並進ベクトルTを計算する。そして、回転行列R、並進ベクトルTでキャリブレーション用の各計測位置を変換後、作業者がライブ画像を見ながら矢印のオブジェクトに従って微修正する。微修正後にキャリブレーション用のプログラムを走らせて位置ずれ後の再立上げが完了する。   For example, how to move bPnt (i) using the three-dimensional point cloud data bPnt (i) and aPnt (i) (i = 1, 2,..., N) before and after the positional deviation, aPnt (i ), A rotation matrix R and a translation vector T that minimize Equation (7) are calculated. Then, after each measurement position for calibration is converted by the rotation matrix R and the translation vector T, the operator performs fine correction according to the object indicated by the arrow while viewing the live image. After making minor corrections, the calibration program is run to complete the re-startup after misalignment.

以上のように、実施の形態では、キャリブレーション装置100が、システム立上げ完了時点で、事前に作業エリア周辺の2次元画像及び3次元位置を取得しておく。センサ座標系とロボット座標系との相対関係が衝突により変化したときや、3Dセンサをセンサ自体の調整や修理などの目的で取り外して再度取り付けたりして変化したときに、再度作業エリア周辺の2次元画像及び3次元位置を取得する。位置ずれ発生前後の3次元点群データ間の位置ずれ量を計算することでキャリブレーションデータの補正パラメータを計算するとともに、位置ずれ発生前後の2次元画像間の一致度を計算し閾値と比較することで位置ずれ量が補正可能な範囲内か否かを判断する。これにより、ロボットとビジョンセンサの相対関係が衝突や取り付け直しでずれが発生した際、ずれ量が補正可能な範囲内であれば自動で位置ずれ量を補正して復旧することができる。   As described above, in the embodiment, the calibration apparatus 100 acquires a two-dimensional image and a three-dimensional position around the work area in advance when the system startup is completed. When the relative relationship between the sensor coordinate system and the robot coordinate system changes due to a collision, or when the 3D sensor is changed by removing and reattaching the 3D sensor for the purpose of adjusting or repairing the sensor itself, the 2 around the work area again. A three-dimensional image and a three-dimensional position are acquired. The correction parameter of the calibration data is calculated by calculating the amount of positional deviation between the three-dimensional point cloud data before and after the occurrence of the positional deviation, and the degree of coincidence between the two-dimensional images before and after the occurrence of the positional deviation is calculated and compared with the threshold value Thus, it is determined whether or not the positional deviation amount is within a correctable range. As a result, when the relative relationship between the robot and the vision sensor is shifted due to a collision or reattachment, the positional shift amount can be automatically corrected and restored if the shift amount is within a correctable range.

したがって、システム運用時に位置ずれが発生した際、ゼロベースのフルキャリブレーションを行う必要がなく、作業エリア周辺の環境を撮影した2次元及び3次元の計測データを用いるので2Dセンサや3Dセンサの固定さえできれば、キャリブレーション用の専用の計測対象物の設置が必要なく、ロボットの作業エリアに作業者が入る必要がない。このため、再キャリブレーションの手間と時間を短縮できる。すなわち、システム立ち上げ後におけるキャリブレーションの手間及び時間をシステム立ち上げ時より低減できる。   Therefore, when a misalignment occurs during system operation, it is not necessary to perform zero-based full calibration, and 2D and 3D sensor data obtained by photographing the environment around the work area is used, so that the 2D sensor or 3D sensor is fixed. If it is possible, there is no need to install a dedicated measurement object for calibration, and there is no need for an operator to enter the work area of the robot. For this reason, the labor and time of recalibration can be shortened. That is, it is possible to reduce the labor and time of calibration after starting up the system compared to when starting up the system.

また、実施の形態では、キャリブレーション装置100が、推定されたずれ量に応じた補正すべき方向を示すオブジェクトをロボットRBに関する画像に重ねて表示する。これにより、補正すべき方向性が示されるので、ずれ量が補正可能な範囲を超えても、その後やり直すキャリブレーションの教示作業を支援してシステムの迅速な復旧を行うことができる。   Further, in the embodiment, the calibration apparatus 100 displays an object indicating the direction to be corrected according to the estimated shift amount, superimposed on the image related to the robot RB. As a result, the directionality to be corrected is indicated, so that even if the deviation amount exceeds the correctable range, the calibration teaching operation to be re-executed thereafter can be supported and the system can be quickly restored.

なお、キャリブレーション装置100iの表示部80iは、ディスプレイ81に代えて、又は、ディスプレイ81に加えて、図7に示すようなAR(Augmented Reality)ツール81iを有していても良い。すなわち、作業者WPにARツール81iを持たせ、表示部80iの表示制御部82(図2参照)は、ARツール81iと例えば無線通信回線で通信を行い、表示すべきデータをARツール81iへ送信する。これにより、ARツール81iのディスプレイにロボットを動かすべき方向を示すことで、計測位置の修正を容易にするような支援を行ってもよい。   Note that the display unit 80 i of the calibration apparatus 100 i may include an AR (Augmented Reality) tool 81 i as shown in FIG. 7 instead of the display 81 or in addition to the display 81. That is, the worker WP is provided with the AR tool 81i, and the display control unit 82 (see FIG. 2) of the display unit 80i communicates with the AR tool 81i through, for example, a wireless communication line, and sends data to be displayed to the AR tool 81i. Send. In this way, support that facilitates correction of the measurement position may be performed by indicating the direction in which the robot should be moved on the display of the AR tool 81i.

以上のように、本発明にかかるキャリブレーション装置は、ロボットを有するシステムのキャリブレーションに有用である。   As described above, the calibration apparatus according to the present invention is useful for calibration of a system having a robot.

10 2次元計測部
20 3次元計測部
30 第1の記憶部
40 第2の記憶部
50 推定部
60 計算部
80、80i 表示部
100、100i キャリブレーション装置
DESCRIPTION OF SYMBOLS 10 2D measuring part 20 3D measuring part 30 1st memory | storage part 40 2nd memory | storage part 50 Estimating part 60 Calculation part 80, 80i Display part 100, 100i Calibration apparatus

Claims (4)

ロボットを有するシステムのキャリブレーションを行うキャリブレーション装置であって、
前記ロボットの手先により作業が行われる作業エリア周辺の2次元画像を取得する2次元計測手段と、
前記作業エリア周辺の3次元位置を取得する3次元計測手段と、
前記3次元計測手段の座標系に対する前記ロボットの座標系の相対的な位置関係を記述する関連情報を記憶する第1の記憶手段と、
前記2次元計測手段によりシステム立ち上げ時に取得された2次元画像と前記3次元計測手段によりシステム立ち上げ時に取得された3次元位置とを記憶する第2の記憶手段と、
前記第2の記憶手段に記憶された3次元位置と前記3次元計測手段によりシステム立ち上げ後に取得された3次元位置とに基づいて、前記3次元計測手段の座標系に対する前記ロボットの座標系の相対的な位置関係のずれ量を推定する推定手段と、
前記推定手段により推定されたずれ量を用いて、前記第2の記憶手段に記憶された2次元画像と前記2次元計測手段によりシステム立ち上げ後に取得された2次元画像との一致度を計算する計算手段と、
前記計算手段により計算された一致度が閾値より小さい場合、前記推定手段により推定されたずれ量を用いて、前記第1の記憶手段に記憶された関連情報を補正する補正手段と、
を備えたことを特徴とするキャリブレーション装置。
A calibration device for calibrating a system having a robot,
Two-dimensional measuring means for acquiring a two-dimensional image around a work area where work is performed by the hand of the robot;
Three-dimensional measuring means for acquiring a three-dimensional position around the work area;
First storage means for storing related information describing a relative positional relationship of the coordinate system of the robot with respect to the coordinate system of the three-dimensional measurement means;
Second storage means for storing a two-dimensional image acquired at system startup by the two-dimensional measurement means and a three-dimensional position acquired at system startup by the three-dimensional measurement means;
Based on the three-dimensional position stored in the second storage means and the three-dimensional position acquired after the system is started up by the three-dimensional measurement means, the coordinate system of the robot with respect to the coordinate system of the three-dimensional measurement means An estimation means for estimating the amount of relative positional deviation;
The degree of coincidence between the two-dimensional image stored in the second storage unit and the two-dimensional image obtained after the system is started up by the two-dimensional measurement unit is calculated using the deviation amount estimated by the estimation unit. Calculation means;
When the degree of coincidence calculated by the calculating unit is smaller than a threshold value, a correcting unit that corrects the related information stored in the first storage unit using the deviation amount estimated by the estimating unit;
A calibration apparatus comprising:
前記計算手段により計算された一致度が前記閾値以上である場合、前記推定手段により推定されたずれ量に応じた補正すべき方向を示すオブジェクトを前記ロボットに関する画像に重ねて表示する表示手段をさらに備えた
ことを特徴とする請求項1に記載のキャリブレーション装置。
Display means for displaying an object indicating a direction to be corrected in accordance with the amount of deviation estimated by the estimation means in an overlapping manner with an image related to the robot when the degree of coincidence calculated by the calculation means is equal to or greater than the threshold. The calibration device according to claim 1, comprising: a calibration device.
ロボットを有するシステムのキャリブレーションを行うキャリブレーション方法であって、
システム立ち上げ時に、前記ロボットの手先により作業が行われる作業エリア周辺の2次元画像を取得する第1の2次元計測ステップと、
システム立ち上げ時に、3次元計測手段により前記作業エリア周辺の3次元位置を取得する第1の3次元計測ステップと、
前記3次元計測手段の座標系に対する前記ロボットの座標系の相対的な位置関係を記述する関連情報を記憶する第1の記憶ステップと、
前記第1の2次元計測手段で取得された2次元画像と前記第1の3次元計測ステップで取得された3次元位置とを記憶する第2の記憶ステップと、
システム立ち上げ後に、前記作業エリア周辺の2次元画像を取得する第2の2次元計測ステップと、
システム立ち上げ後に、前記作業エリア周辺の3次元位置を取得する第2の3次元計測ステップと、
前記第2の記憶ステップで記憶された3次元位置と前記第2の3次元計測ステップで取得された3次元位置とに基づいて、前記3次元計測手段の座標系に対する前記ロボットの座標系の相対的な位置関係のずれ量を推定する推定ステップと、
前記推定ステップで推定されたずれ量を用いて、前記第2の記憶ステップで記憶された2次元画像と前記第2の2次元計測ステップで取得された2次元画像との一致度を計算する計算ステップと、
前記計算ステップで計算された一致度が閾値より小さい場合、前記推定ステップで推定されたずれ量を用いて、前記第1の記憶ステップで記憶された関連情報を補正する補正ステップと、
を備えたことを特徴とするキャリブレーション方法。
A calibration method for calibrating a system having a robot,
A first two-dimensional measurement step of acquiring a two-dimensional image around a work area where work is performed by a hand of the robot at the time of starting the system;
A first three-dimensional measurement step of acquiring a three-dimensional position around the work area by a three-dimensional measurement means when the system is started up;
A first storage step for storing related information describing a relative positional relationship of the coordinate system of the robot with respect to the coordinate system of the three-dimensional measuring means;
A second storage step for storing the two-dimensional image acquired by the first two-dimensional measurement means and the three-dimensional position acquired by the first three-dimensional measurement step;
A second two-dimensional measurement step of acquiring a two-dimensional image around the work area after the system is started;
A second three-dimensional measurement step for obtaining a three-dimensional position around the work area after the system is started;
Based on the three-dimensional position stored in the second storage step and the three-dimensional position acquired in the second three-dimensional measurement step, the robot coordinate system is relative to the coordinate system of the three-dimensional measurement means. An estimation step for estimating the amount of deviation of a typical positional relationship;
Calculation for calculating the degree of coincidence between the two-dimensional image stored in the second storage step and the two-dimensional image acquired in the second two-dimensional measurement step, using the deviation amount estimated in the estimation step. Steps,
When the degree of coincidence calculated in the calculation step is smaller than a threshold value, a correction step of correcting the related information stored in the first storage step using the deviation amount estimated in the estimation step;
A calibration method characterized by comprising:
前記計算ステップで計算された一致度が前記閾値以上である場合、前記推定ステップで推定されたずれ量に応じた補正すべき方向を示すオブジェクトを前記ロボットに関する画像に重ねて表示する表示ステップをさらに備えた
ことを特徴とする請求項3に記載のキャリブレーション方法。
When the degree of coincidence calculated in the calculating step is equal to or greater than the threshold value, a display step of displaying an object indicating a direction to be corrected according to the amount of deviation estimated in the estimating step on an image related to the robot. The calibration method according to claim 3, wherein the calibration method is provided.
JP2011114870A 2011-05-23 2011-05-23 Calibration apparatus and calibration method Active JP5523392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011114870A JP5523392B2 (en) 2011-05-23 2011-05-23 Calibration apparatus and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011114870A JP5523392B2 (en) 2011-05-23 2011-05-23 Calibration apparatus and calibration method

Publications (2)

Publication Number Publication Date
JP2012240174A true JP2012240174A (en) 2012-12-10
JP5523392B2 JP5523392B2 (en) 2014-06-18

Family

ID=47462401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011114870A Active JP5523392B2 (en) 2011-05-23 2011-05-23 Calibration apparatus and calibration method

Country Status (1)

Country Link
JP (1) JP5523392B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465652B1 (en) * 2013-04-12 2014-11-28 성균관대학교산학협력단 Apparatus and method for calibration of a robot hand and a camera attached to robot hand
JP2016022541A (en) * 2014-07-17 2016-02-08 株式会社アマダホールディングス Method for correcting position of robot hand, and press brake system
US9517725B2 (en) 2014-09-19 2016-12-13 Hyundai Motor Company Auto revising system for around view monitoring and method thereof
JPWO2017033247A1 (en) * 2015-08-21 2018-03-15 株式会社安川電機 Processing system and robot control method
JP2018134695A (en) * 2017-02-20 2018-08-30 株式会社安川電機 Robot system, robot control device, and robot control method
JPWO2018173178A1 (en) * 2017-03-23 2019-11-21 株式会社Fuji Robot system
WO2019234814A1 (en) * 2018-06-05 2019-12-12 株式会社日立製作所 Camera position/attitude calibration device, camera position/attitude calibration method, and robot
WO2020055801A1 (en) * 2018-09-11 2020-03-19 Becton, Dickinson And Company Robotic sample preparation system for diagnostic testing with automated position learning
JP2020082273A (en) * 2018-11-26 2020-06-04 キヤノン株式会社 Image processing device, control method thereof, and program
JP2020108909A (en) * 2019-01-07 2020-07-16 トヨタ自動車株式会社 State determination device
JP6796899B1 (en) * 2020-08-07 2020-12-09 リンクウィズ株式会社 Information processing method, information processing system, program
US10913150B2 (en) 2015-09-11 2021-02-09 Kabushiki Kaisha Yaskawa Denki Processing system and method of controlling robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784631A (en) * 1993-09-14 1995-03-31 Fanuc Ltd Method for correcting robot teaching program
JP3402021B2 (en) * 1995-11-07 2003-04-28 株式会社明電舎 Method for detecting relative position and orientation of robot device
JP2009006452A (en) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd Method for calibrating between camera and robot, and device therefor
JP2010172986A (en) * 2009-01-28 2010-08-12 Fuji Electric Holdings Co Ltd Robot vision system and automatic calibration method
JP2011036975A (en) * 2009-08-18 2011-02-24 Honda Motor Co Ltd Control method for robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784631A (en) * 1993-09-14 1995-03-31 Fanuc Ltd Method for correcting robot teaching program
JP3402021B2 (en) * 1995-11-07 2003-04-28 株式会社明電舎 Method for detecting relative position and orientation of robot device
JP2009006452A (en) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd Method for calibrating between camera and robot, and device therefor
JP2010172986A (en) * 2009-01-28 2010-08-12 Fuji Electric Holdings Co Ltd Robot vision system and automatic calibration method
JP2011036975A (en) * 2009-08-18 2011-02-24 Honda Motor Co Ltd Control method for robot

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465652B1 (en) * 2013-04-12 2014-11-28 성균관대학교산학협력단 Apparatus and method for calibration of a robot hand and a camera attached to robot hand
JP2016022541A (en) * 2014-07-17 2016-02-08 株式会社アマダホールディングス Method for correcting position of robot hand, and press brake system
US9517725B2 (en) 2014-09-19 2016-12-13 Hyundai Motor Company Auto revising system for around view monitoring and method thereof
JPWO2017033247A1 (en) * 2015-08-21 2018-03-15 株式会社安川電機 Processing system and robot control method
US10913150B2 (en) 2015-09-11 2021-02-09 Kabushiki Kaisha Yaskawa Denki Processing system and method of controlling robot
US10889003B2 (en) 2017-02-20 2021-01-12 Kabushiki Kaisha Yaskawa Denki Robot system, robot controller, and method for controlling robot
JP2018134695A (en) * 2017-02-20 2018-08-30 株式会社安川電機 Robot system, robot control device, and robot control method
DE102018202322B4 (en) * 2017-02-20 2021-02-11 Kabushiki Kaisha Yaskawa Denki Robot system, robot control device and robot control method
US11230015B2 (en) 2017-03-23 2022-01-25 Fuji Corporation Robot system
JP7105223B2 (en) 2017-03-23 2022-07-22 株式会社Fuji robot system
JPWO2018173178A1 (en) * 2017-03-23 2019-11-21 株式会社Fuji Robot system
WO2019234814A1 (en) * 2018-06-05 2019-12-12 株式会社日立製作所 Camera position/attitude calibration device, camera position/attitude calibration method, and robot
JPWO2019234814A1 (en) * 2018-06-05 2021-02-12 株式会社日立製作所 Camera position / orientation calibration device, camera position / orientation calibration method, and robot
JP7064586B2 (en) 2018-06-05 2022-05-10 株式会社日立製作所 Camera position / orientation calibration device, camera position / orientation calibration method, and robot
US11865730B2 (en) 2018-06-05 2024-01-09 Hitachi, Ltd. Camera position/attitude calibration device, camera position/attitude calibration method, and robot
WO2020055801A1 (en) * 2018-09-11 2020-03-19 Becton, Dickinson And Company Robotic sample preparation system for diagnostic testing with automated position learning
US11940456B2 (en) 2018-09-11 2024-03-26 Becton Dickinson And Company Robotic sample preparation system for diagnostic testing with automated position learning
JP2020082273A (en) * 2018-11-26 2020-06-04 キヤノン株式会社 Image processing device, control method thereof, and program
JP7337495B2 (en) 2018-11-26 2023-09-04 キヤノン株式会社 Image processing device, its control method, and program
JP2020108909A (en) * 2019-01-07 2020-07-16 トヨタ自動車株式会社 State determination device
JP6796899B1 (en) * 2020-08-07 2020-12-09 リンクウィズ株式会社 Information processing method, information processing system, program
JP2022030588A (en) * 2020-08-07 2022-02-18 リンクウィズ株式会社 Information processing method, information processing system, and program

Also Published As

Publication number Publication date
JP5523392B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5523392B2 (en) Calibration apparatus and calibration method
KR102532072B1 (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP3733364B2 (en) Teaching position correction method
JP4763074B2 (en) Measuring device and measuring method of position of tool tip of robot
JP5670416B2 (en) Robot system display device
JP4021413B2 (en) Measuring device
JP5850962B2 (en) Robot system using visual feedback
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP4191080B2 (en) Measuring device
JP4171488B2 (en) Offline programming device
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
JP6235664B2 (en) Measuring device used to calibrate mechanism parameters of robot
JP6489776B2 (en) Coordinate system calibration method, robot system, program, and recording medium
JP2008012604A (en) Measuring apparatus and method of its calibration
JP2010172986A (en) Robot vision system and automatic calibration method
JP2019098409A (en) Robot system and calibration method
JP6568172B2 (en) ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION
JP6912529B2 (en) How to correct the visual guidance robot arm
JP7389237B2 (en) Coordinate system setting system and position/orientation measurement system
WO2023053395A1 (en) Position and posture measurement system
WO2024062535A1 (en) Robot control device
CN117132658A (en) Method, system, and storage medium for visualizing calibration status of camera
TW202241660A (en) Program generation device and robot control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R150 Certificate of patent or registration of utility model

Ref document number: 5523392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250