JP3626400B2 - Method for measuring position of object using target marker and robot system - Google Patents
Method for measuring position of object using target marker and robot system Download PDFInfo
- Publication number
- JP3626400B2 JP3626400B2 JP2000263876A JP2000263876A JP3626400B2 JP 3626400 B2 JP3626400 B2 JP 3626400B2 JP 2000263876 A JP2000263876 A JP 2000263876A JP 2000263876 A JP2000263876 A JP 2000263876A JP 3626400 B2 JP3626400 B2 JP 3626400B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- marker
- base
- image
- target marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ターゲットマーカを用いた対象物の位置計測方法及びロボットシステムに関する。
【0002】
【従来の技術】
一般に、種々の組立作業などをロボットによって行う場合、ロボットアームの位置決めのために視覚センサで対象物の画像を取得し、その画像を2値化した後に輪郭(エッジ)抽出を行って輪郭の線画像を求め、予め与えられた対象物の情報とのマッチングを行って、ロボットアームに対する対象物の相対位置(姿勢も含む)を求める方法が用いられている。
【0003】
この方法では、対象物の位置計測精度が対象物の形状に大きく左右されるという問題点がある。このため、対象物に位置検出用マークが形成されたターゲットマーカと呼ばれる部材を設置し、このターゲットマーカの画像を視覚センサで取得して、画像処理により対象物の相対位置を求める方法が提案されている。そのような例として、例えば特開平5−312521号公報には、ベース上に面積最大のリング状マーク及び一つだけ他と面積の異なる5個の円形マークを配置したターゲットマーカが記載されている。
【0004】
この公知例のターゲットマーカでは、ターゲットマーカを構成する複数のマークの種別を形状と大きさで識別しているため、特に視覚センサでターゲットマーカを斜めから撮像した場合、大きさの違いを認識できないことがあり、マークの識別が困難となることがある。
【0005】
また、この公知例では色については特に言及していないが、マークを形状・大きさで識別していることから、ベースとマークのいずれか一方が白、他方が黒であると考えられる。しかし、このような白黒のターゲットマーカでは、例えば宇宙空間で作業を行うロボットに適用することを考えた場合、マーカが太陽光線に反射してしまい、マーカ自体を周囲の物体と識別したり、各マークを識別する際の精度が著しく低下することが予想される。
【0006】
【発明が解決しようとする課題】
上述したように、ベース上に形状や大きさの異なるマークを配置したターゲットマーカでは、マーカと視覚センサとの角度位置関係によってマークの識別が困難となったり、宇宙空間で使用するロボットに適用する場合に、太陽光線の反射によりターゲットマーカの他との識別及び各マークの識別が困難になるという問題があった。
【0007】
本発明の目的は、視覚センサとの角度位置関係によらずマークの識別が容易であって、また太陽光線の反射の影響を受けることなく識別が可能なターゲットマーカを用いて対象物の相対位置を容易かつ確実に計測できる位置計測方法を提供することにある。
【0009】
本発明のもう一つの目的は、ターゲットマーカによる対象物の相対位置計測結果に基づき対象物を確実に把持して所定の作業を行うことができるロボットシステムを提供することにある。
【0010】
【課題を解決するための手段】
上記の課題を解決するため、本発明に係る位置計測方法は、第1の色に着色されたベースと、このベース上に配置され、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークとを有するターゲットマーカを位置決めの対象物に設置し、このターゲットマーカを例えばステレオカラーCCDカメラからなるカラー視覚センサにより撮像してカラー画像を取得し、このカラー画像中の第1乃至第3の成分に基づいて対象物の位置計測を行う。この位置計測においては、まず第1の色の成分に基づく粗位置計測を行い、次に第2及び第3の色の成分に基づいて対象物の姿勢を含めた精位置計測を行う。
【0012】
さらに、本発明は対象物をロボットアームの先端で把持して所定の作業を行うロボットシステムにおいて、上記ターゲットマーカを対象物に設置し、ロボットアームの先端近傍に設置されたカラー視覚センサによりターゲットマーカを撮像してカラー画像を取得し、この取得されたカラー画像を画像処理部に入力して、カラー画像中の第1乃至第3の色の成分に基づく対象物の位置計測を行い、この画像処理部による対象物の位置計測結果に基づいてロボットアームを駆動制御するようにしたことを特徴とする。
【0013】
ここで、画像処理部においてはカラー画像中の第1の色の成分に基づく対象物の粗位置計測と、カラー画像中の第2及び第3の色の成分に基づく対象物の姿勢を含めた精位置計測を行い、ロボットアームの駆動制御手段においては、粗位置計測結果に基づいてロボットアームの対象物を把持する把持部の粗位置決めを行った後、精位置計測結果に基づいてロボットアームの精位置決めを行うようにロボットアームを駆動制御するようにしてもよい。
【0014】
より具体的に説明すると、まず粗位置計測においては、具体的にはターゲットマーカを撮像して取得したカラー画像を予め登録された基準カラーパターンと比較し、カラー画像の基準カラーパターンの範囲内に基準カラーパターンと同一色のみの領域が含まれるようにカラーパターンマッチングを行い、このカラーパターンマッチングでマッチングした位置においてカラー画像のカラーヒストグラムを作成して画像中のマーカのベースの色成分の明るさを調べ、この色成分の明るさと同じ明るさの範囲の領域をカラー画像から抜き出し、この抜き出した領域の画像とカラー画像との論理積を演算することにより、マーカのベースの部分の画像を抽出してその重心を求め、この重心とカラー視覚センサの重心からターゲットマーカの相対位置、すなわち対象物の位置をX−Y−Z座標からなる3次元位置として算出する。
【0015】
一方、精位置計測においては、例えば粗位置計測時と同様にターゲットマーカを撮像して取得したカラー画像ついてカラーパターンマッチングを行い、このカラーパターンマッチングでマッチングした位置においてカラー画像のカラーヒストグラムを作成して画像中のマーカのベースの色成分の明るさを判定し、この赤色成分の明るさと同じ明るさの範囲の領域をカラー画像から抜き出し、この抜き出した領域とカラー画像全体との論理積を演算して、ターゲットマーカの第1の色の領域、つまりベースの領域の画像を抽出し、この領域の画像の輪郭を求めてベースの領域を識別して、このベースの領域内のカラー画像を例えばRGB−HLS変換することにより第2の色及び第3の色にそれぞれ着色されたマークの部分の画像を抽出し二値化してその画像の重心、すなわち各マークの各々の中心の3次元座標を求め、マーク全体の3次元的な中心をターゲットマーカの中心として求める。
【0016】
そして、各マークの各々の中心を通る平面を求め、この平面に垂直かつターゲットマーカの中心を通る法線ベクトルを求めた後、この法線ベクトルに対して垂直な2つのベクトルとして、第2の色に着色された二つのマークの中心からY方向のベクトル、また第2の色に着色されたマークの中心とこれに隣り合う第3の色に着色されたマークの中心からX方向のベクトルをそれぞれ求めることにより、対象物の位置をカラー視覚センサからのターゲットマーカの相対距離及び姿勢として計測する。
【0017】
このように本発明では、第1の色に着色されたベースの上に、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークを設けることにより、視覚センサとの角度位置関係によらずマークの識別が容易で、しかも白黒のターゲットマーカのように太陽光線の反射の影響を受けることなく識別が可能なターゲットマーカを構成でき、またこのターゲットマーカを用いて対象物の相対位置を容易かつ確実に計測することが可能であり、さらに、この相対位置計測結果に基づき対象物を確実に把持して所定の作業を行うロボットシステムを構築することができる。
【0018】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施形態に係るターゲットマーカの構成を示す平面図である。
このターゲットマーカ1は、図示しない対象物に設置されてその対象物の位置計測に用いられるものであり、矩形(この例では正方形)板状のマーカベース2と、このマーカベース2の表面上の4隅に配置されたマーク3a,3b,3c,3dからなる。ここで、マーカベース2は全表面またはマーク3a,3b,3c,3dの配置された表面が第1の色、例えば赤色(R)に着色されている。このようにマーカベース2の表面を赤色に着色する理由は、本実施形態ではマーカベース2の色は、これが設置される対象物の大まかな相対位置計測と位置決め(粗位置計測・位置決め)に使用する関係で、宇宙空間で最も視認性が高い色であることが望ましいと考えたからである。
【0019】
一方、マーク3a,3b,3c,3dは、マーカベース2と異なる複数の色に着色されている、具体的には、図でマーカベース2の右側の辺に沿って隣り合うマーク3a,3bは第2の色、例えば黄色(Y)に着色され、図でマーカベース2の左側の辺に沿って隣り合うマーク3c,3dは第3の色、例えば緑色(G)に着色されている。
【0020】
ターゲットマーカ1の各部の具体的な形状と寸法を例示すると、例えばマーカベース2は一辺の長さが30mm程度の正方形、マーク3a,3b,3c,3dは直径が6mm程度の円形である。また、マーク3a,3b,3c,3dのマーカベース2の辺に沿う方向の間隔は20mm程度である。
【0021】
マーク3a,3b,3c,3dは、マーカベース2の表面から突出しないように、例えば薄いシート状に形成されてマーカベース2上に貼り付けられるか、あるいはマーカベース2の表面に直接プリントされることが望ましい。このようにマーク3a,3b,3c,3dをマーカベース2の表面から突出しないように形成することにより、後述するロボットアームで対象物を把持する際、マーク3a,3b,3c,3dがアームの移動に邪魔となるようなことがなくなる。また、マーク3a,3b,3c,3dは図の例では円形、すなわち等方的な形状であるが、四角形、三角形、楕円等のような非等方性の形状、つまり方向性を有する形状であってもよい。
【0022】
図2は、図1のターゲットマーカ1を対象物18に取り付け、ロボットアーム11に対する対象物18の相対位置計測と、それに基づくロボットアーム11の対象物18に対する位置決めを行い、対象物18の取っ手19を把持して運搬・組立等の所定の作業を行うロボットシステムの構成を示している。このロボットシステムは、地上で使用することももちろん可能であるが、特に宇宙空間での使用に適している。
【0023】
図2において、ロボットアーム11はロボットベース12上に6自由度を持つように、6個の関節部13a,13b,13c,13d,13e,13fと上腕14及び下腕15を有する構成となっている。また、ロボットアーム11の先端には、対象物18の取っ手19を把持して所定の作業を行うためのエンド・エフェクタ16が設けられている。
【0024】
関節部13a,13b,13c,13d,13e,13fについてさらに説明すると、関節部13aはロボットベース12のロール軸の関節軸θ1(第1軸)、関節部13bは下腕15のピッチ軸の関節軸θ2(第2軸)、関節部13cは上腕14のピッチ軸の関節軸θ3(第3軸)、関節部13dはエンドエフェクタ16のピッチ軸の関節軸θ4(第4軸)、関節部13eはエンドエフェクタ16のヨー軸の関節軸θ5(第5軸)、関節部13fはエンドエフェクタ16のロール軸の関節軸θ6(第6軸)をそれぞれ有し、図中に一点鎖線で示すそれぞれの回転軸を中心に回転駆動されることにより、ロボットアーム11の先端の位置・姿勢を変化させることができる。
また、各関節部13a,13b,13c,13d,13e,13fには、図示しない位置センサ及び角度センサが取り付けられている。
【0025】
エンドエフェクタ16には、カラー視覚センサ17が取り付けられている。このカラー視覚センサ17は、例えばステレオカラーCCDカメラによって構成され、対象物18に取り付けられたターゲットマーカ1を含むカラー画像、すなわターゲットマーカ1とその周辺部のカラー画像(例えばRGB画像)を取得し、カラー画像信号を制御装置21に出力する。
【0026】
制御装置21は、図3に示すようにカラー視覚センサ17から入力されるカラー画像信号を処理する画像処理部22、この画像処理部22からの出力信号を入力とする駆動制御部23、及び駆動制御部23により制御されて関節部13a,13b,13c,13d,13e,13fを回転駆動する駆動装置24から構成されている。
【0027】
次に、本実施形態に係るロボットシステムの動作について説明する。
まず、ロボットアーム11の先端に取り付けられたカラー視覚センサ17により、対象物18上のターゲットマーカ1を撮像して、ターゲットマーカ1を含むRGB画像を取得する。このカラー視覚センサ17によって得られたRGB画像の画像信号は、制御装置21に入力される。制御装置21に入力された画像信号は画像処理部22により処理され、ロボットアーム11に対するターゲットマーカ1の相対位置、つまり対象物18の相対位置が計測される。
【0028】
この相対位置の計測結果に基づき駆動制御部23によって駆動装置24が制御されることにより、関節部13a,13b,13c,13d,13e,13fが回転駆動され、ロボットアーム11の位置決めが行われる。この後、エンドエフェクタ16によって対象物18の取っ手19が把持され、対象物18の運搬や組立といった所定の作業が行われる。
【0029】
対象物18の相対位置の計測とロボットアーム11の位置決めは、本実施形態では粗位置計測・位置決めモードと精位置計測・位置決めモードの順で行われる。以下、各モードの詳細な手順について説明する。
【0030】
(粗位置計測・位置決めモード)
粗位置計測・位置決めモードは、例えばターゲットマーカ1の各部の寸法が前述の例の場合(特に、マーカベース2の一辺の長さが30mmの場合)、カラー視覚センサ17からターゲットマーカ1までの距離が200mm以上離れているときに用いられる。図4は、粗位置計測・位置決めモードでの処理手順を示している。
【0031】
この粗位置計測・位置決めモードでは、まずステレオカラーCCDカメラからなるカラー視覚センサ17をターゲットマーカ1の方向に向けた状態で撮像して得られるカラー画像信号、すなわちRGB画像を取り込む(ステップS11)。
【0032】
次に、カラーパターンマッチング、すなわち、図5に示すように、取り込んだRGB画像40を予め登録された基準カラーパターン(マーカベース2の色と同じ色でかつ所定形状のカラーパターン)41と比較し、RGB画像40の基準カラーパターン41の範囲内に基準カラーパターン41と同一色のみの領域が含まれるように、ロボットアーム11の位置決めを行う(ステップS12)。この例では、基準カラーパターン41の色は、マーカベース2が赤色であるため、赤色に設定されている。また、基準カラーパターン41の形状は図5では矩形となっているが、円形その他の形状であってもよい。
【0033】
次に、ステップS12のカラーパターンマッチングでマッチングした位置、つまりRGB画像40の基準カラーパターン41の範囲内に基準カラーパターン41と同一色のみの領域が含まれるようにロボットアーム11を位置決めした状態で、図6に示すようにRGB画像40のカラーヒストグラムを作成し、RGB画像40中のマーカベース2の色成分であるR(赤色)成分の明るさを調べる(ステップS13)。図6のカラーヒストグラムは、横軸に明るさ(輝度)、縦軸に頻度をとっている。明るさ(輝度)は色の成分によって異なり、この例ではR(赤色)成分が最大輝度となっている。
【0034】
次に、図7に示すようにRGB画像40からステップS13で求められた赤色成分の明るさと同じ明るさの範囲の領域を抜き出し、この抜き出した領域の画像とRGB画像との論理積を演算することにより、ターゲットマーカ1の赤色領域42、すなわちマーカベース2の部分の画像を抽出する(ステップS14)。
【0035】
次に、ステップS14で抽出されたターゲットマーカ1の赤色領域42(マーカベース2の部分)の重心43を算出する(ステップS15)。重心43の算出は、公知の種々の画像処理手法を用いることができ、例えば、赤色領域42の画像について、X方向に関してはこれと垂直なY方向の画素数に応じたX座標値の加重平均をとりその平均値をX方向の重心(重心43のX座標)とし、同様にY方向に関してもこれと垂直なX方向の画素数に応じたY座標値の加重平均をとりその平均値をY方向の重心(重心43のY座標)とすればよい。
【0036】
次に、カラー視覚センサ17であるステレオカラーCCDカメラの重心(左側のカメラの光軸と右側のカメラの光軸との中心)と、ステップS15で算出されたマーカベース2の重心43から、ロボットアーム11に対するターゲットマーカ1の相対位置をX−Y−Z座標からなる3次元位置として算出する(ステップS16)。ここで、ターゲットマーカ1の相対位置(3次元位置)を表すX−Y−Z座標のうち、X,YはRGB画像におけるマーカベース2の重心位置43のX−Y座標として求めることができ、またZは三角測量の原理でカラー視覚センサ17であるステレオカラーCCDカメラの重心とマーカベース2の重心43との距離として求めることができる。
【0037】
以上のステップS11〜S16により、ロボットアーム11に対するターゲットマーカ1の概略的な相対位置が求まる。すなわち、ロボットアーム11に対する対象物18の相対位置の粗位置計測が行われたことになる。
【0038】
そこで、次にロボットアーム11の現在位置(3次元位置)と、予めターゲットマーカ1の相対位置(3次元位置)を基準にして生成した指令位置により、ロボットアーム11の先端(エンドエフェクタ16)についてのみの位置決め(粗位置決め)を行う(ステップS17)。
【0039】
具体的には、制御装置21内の駆動制御部23において、ロボットアーム11の各関節部13a,13b,13c,13d,13e,13fの位置を検出する図示しない位置センサの出力より算出したベース座標系(ロボットベース12を基準とする座標系)(Σbase)でのロボットアーム11の先端位置baseTtipと、ロボットアーム11に対するカラー視覚センサ17の取り付け状態で決まるアーム先端座標系(ロボットアーム11の先端であるエンドエフェクタ16の位置を基準とする座標系)(Σtip)でのカラー視覚センサ17の位置tipTcameraを用いて、ロボットアーム11の先端の目標位置を示すアーム先端位置指令baseTtip demandが次式により算出される。
baseTtip demand=tipTcamera・cameraTmarker・markerTtip demand さらに、こうして算出されたアーム先端位置指令baseTtip demandに基づいてロボットアーム11の先端の目標速度を示すアーム先端速度指令が生成される。
【0040】
粗位置計測・位置決めモードでは、上述したように視覚センサ座標系(カラー視覚センサ17の位置を基準とする座標系)(Σcamera)でのターゲットマーカ1の相対位置のみが計測され、ターゲットマーカ1の姿勢は計測されない。従って、カラー視覚センサ17を用いて計測された視覚センサ座標系(Σcamera)でのターゲットマーカ1の位置cameraTmarker、及び予め指令されたマーカ座標系(ターゲットマーカ1の位置を基準とする座標系)(Σmarker)でのアーム先端位置指令markerTtip demandのうちの姿勢項については、ターゲットマーカ1がカラー視覚センサ17に対して正対しているものとして、アーム先端速度指令を生成する。
【0041】
すなわち、視覚センサ座標系(Σcamera)でのターゲットマーカ1の姿勢項、マーカ座標系(Σmarker)でのアーム先端位置指令markerTtip demandは、各々の座標系(Σcamera)、(Σmarker)に対しそれぞれ正対しているものとして演算される。
【0042】
こうして生成されたアーム先端速度指令が制御装置21内の駆動制御部22から駆動装置23に入力されることによって、ロボットアーム11の粗位置決めが行われる。
【0043】
(精位置計測・位置決めモード)
精位置計測・位置決めモードは、例えばターゲットマーカ1の各部の寸法が前述の例の場合(特に、マーカベース2の一辺の長さが30mmの場合)、カラー視覚センサ17からターゲットマーカ1までの距離が200mm以内まで近づいたときに用いられる。従って、ロボットシステム11の初期状態においてカラー視覚センサ17からターゲットマーカ1までの距離が200mm以内にあれば、前述した粗位置計測・位置決めモードは省略され、精位置計測・位置決めモードのみが用いられる。
【0044】
図8は、精位置計測・位置決めモードでの処理手順を示している。この精位置計測・位置決めモードにおいて、ステップS21〜S23の処理は図4に示した粗位置計測・位置決めモードにおけるステップS11〜S13の処理と同様である。
【0045】
すなわち、カラー視覚センサ17によって取得されたRGB画像を取り込み(ステップS21)、このRGB画像についてカラーパターンマッチングを行い(ステップS22)、このマッチング位置でカラーヒストグラムを作成してマーカベース2の色である赤色成分の明るさを判定する(ステップS23)
次に、本実施形態ではステップS23で判定された赤色成分の明るさと同じ明るさの範囲の領域をRGB画像40から抜き出し、この抜き出した領域とRGB画像40との論理積を演算して、ターゲットマーカ1の赤色領域42(マーカベース2の領域)の画像を抽出し、赤色領域42の画像の輪郭を求めることにより赤色領域42、すなわちマーカベース2の領域を識別する(ステップS24)。
【0046】
精位置計測・位置決めモードでは、次にステップS24で識別されたマーカベース2の領域の内部の画像をRGB−HLS(色相)変換することにより、図9に示すように黄色領域、すなわちマーク3a,3bの部分の画像を抽出し、それを二値化する(ステップS25)。
【0047】
次に、ステップS25で求められた二値化された黄色領域の画像の重心、すなわちマーク3a,3bの各々の中心を求める(ステップS26)。
【0048】
次に、ステップS25と同様に、ステップS24で識別されたマーカベース2の領域の内部の画像をRGB−HLS(色相)変換することにより、図10に示すように緑色領域、すなわちマーク3c,3dの部分の画像を抽出し、それを二値化する(ステップS27)。
【0049】
次に、ステップS26と同様に、ステップS27で求められた二値化された緑色領域の画像の重心、すなわちマーク3c,3dの各々の中心を求める(ステップS28)。
【0050】
ステップS25〜S28の処理は、カラー視覚センサ17を構成するステレオカラーCCDカメラの左右両方のカメラで取得されたRGB画像に対して行われる。これにより、4個のマーク3a,3b,3c,3dの各々の中心が3次元座標として求められる。そこで、次に4個のマーク3a,3b,3c,3dの各々の中心の3次元座標から、マーク3a,3b,3c,3d全体の3次元的な中心をターゲットマーカ1の中心として求める(ステップS29)。
【0051】
次に、4個のマーク3a,3b,3c,3dの各々の中心を通る平面を例えば最小二乗法で求め、この平面に垂直かつステップS29で求められたターゲットマーカ1の中心を通る法線ベクトルを求める(ステップS30)。
【0052】
次に、この法線ベクトルに対して垂直な2つのベクトルを求める(ステップS31)。すなわち、ステップS26で求められた二つの黄色のマーク3a,3bの中心から、Y方向(垂直方向)のベクトルを求め、また黄色の一つのマーク(例えばマーク3a)の中心と、このマーク3aとマーカベース2の同一辺に沿って隣り合う緑色のマーク(例えばマーク3d)の中心から、X方向(水平方向)のベクトルを求める。
【0053】
以上のステップS21〜S31により、ターゲットマーカ1のカラー視覚センサ17からの相対位置(相対距離及び姿勢)が求められたことになる。
そこで、次にロボットアーム11の現在位置(3次元位置)とステップS21〜S33で求められたターゲットマーカ1の相対距離及び姿勢に基づいて、ロボットアーム11の先端(エンドエフェクタ16)のロボットベース12を基準とした指令位置を生成し、この指令位置によりロボットアーム11全体の位置決め、すなわち精位置決めを行う(ステップS32)。
【0054】
具体的には、制御装置21内の駆動制御部23において、ロボットアーム11の各関節部13a,13b,13c,13d,13e,13fの角度を検出する図示しない角度センサの出力より算出したベース座標系(ロボットベース12を基準とする座標系)(Σbase)でのアーム先端位置baseTtipと、ロボットアーム11に対するカラー視覚センサ17の取り付け状態で決まるアーム先端座標系(エンドエフェクタ16の位置を基準とする座標系)(Σtip)でのカラー視覚センサ17の位置tipTcameraと、カラー視覚センサ17を用いて計測した視覚センサ座標系(カラー視覚センサ17を基準とした座標系)(Σcamera)でのターゲットマーカ1の位置cameraTmarkerと、予め指令したマーカ座標系(ターゲットマーカ1の位置を基準とする座標系)(Σmarker)でのアーム先端位置指令markerTtip demandを用いて、アーム先端位置指令baseTtip demandが次式により算出される。
baseTtip demand=baseTtip・tipTcamera・cameraTmarker・markerTtip demand
さらに、このアーム先端位置指令baseTtip demandに基づいてアーム先端速度指令が作成される。こうして生成されたアーム先端速度指令が制御装置21内の駆動制御部22から駆動装置23に入力されることにより、ロボットアーム11全体の精位置決めが行われる。
【0055】
このように本実施形態によれば、ターゲットマーカ1が第1の色(例えば赤色)に着色されたマーカベース2と、このマーカベース2上に設置された複数のマーカ3a,3b,3c,3dとから構成され、マーカベース2の右側の辺に沿って隣り合うマーク3a,3bは第2の色(例えば黄色)に着色され、マーカベース2の左側の辺に沿って隣り合うマーク3c,3dは第3の色(例えば緑色)に着色されている。
【0056】
そして、このターゲットマーカ1のカラー画像(例えばRGB画像)をカラー視覚センサ17により取得し、マーカベース2の色とマーク3a,3b,3c,3dの色の違い及び各マーク3a,3b,3c,3dの色の違いを利用して対象物18の粗位置及び精位置計測を行う。
【0057】
従って、例えば視覚センサ17から見てターゲットマーカ1が斜めの位置関係にあってマーカベース2及びマーク3a,3b,3c,3dが例えば円形が変形して楕円に見えたり、マーク相互の大小関係が異なって見えたような場合でも、これらの影響を受けることなく、マーカベース2及びマーク3a,3b,3c,3dの識別を行うことができる。
【0058】
また、マーカベース2及びマーク3a,3b,3c,3dはそれぞれ固有の色(有彩色)に着色されているため、例えば宇宙空間で衛星に搭載されて使用されるロボットシステムに適用する場合でも、太陽光線の反射の影響を受けることなく、これらを確実に識別することができる。
【0059】
従って、カラー視覚センサ17で取得したターゲットマーカ1のカラー画像に基づく対象物18の位置計測を高い信頼性をもって行うことが可能となり、ロボットシステムのロボットアーム11による対象物の把持操作を確実に行うことができる。
【0060】
本発明は、上記実施形態に限られるものではなく、種々変形して実施することが可能である。例えば、ターゲットマーカについては、図1に示した構成以外に図11に示すような種々の変形が可能である。
【0061】
図11(a)は、図1に示したターゲットマーカ1における緑色の二つのマーク3c,3dのうちの一方3dを省略した例、図11(b)は図1に示したターゲットマーカ1における黄色の二つのマーク3a,3bのうちの一方3bを省略した例である。このようにターゲットマーカにおけるマークの数は3個であってもよく、その少なくとも一つが第2の色、他の少なくとも一つが第3の色であればよい。
【0062】
図11(c)は、図11(a)のターゲットマーカ1を変形し、3個のマーク3a,3b,3cを正三角形の3つの頂点にそれぞれ配置した例である。この場合、前述した精位置計測・位置決めモードにおいてステップS31で法線ベクトルに対して垂直な2つのベクトルを求める際、例えばY方向(垂直方向)のベクトルについては、ステップS26で求められた二つの黄色のマーク3a,3bの中心間のベクトルをY方向(垂直方向)のベクトルに換算して求めればよい。
【0063】
図11(d)は、マーカベース2の形状を円形とした例である。この場合、例えば前述した粗位置計測・位置決めモード及び精位置計測・位置決めモードにおいて、ターゲットマーカ1の赤色領域42(マーカベース2の領域)の重心43を算出するステップS15は、赤色領域42の画像の重心を公知の画像処理で求めることにより実現できる。また、マーカベース2の形状は、他に長方形、菱形、楕円形等であっても構わない。
【0064】
さらに、以上説明したターゲットマーカでは、マーカベースの色である第1の色を赤、マークの色である第2、第3の色を黄色、緑色としたが、これらの一路の組み合わせは任意に変更できることはいうまでもない。
【0065】
【発明の効果】
以上説明したように、本発明によれば視覚センサとの角度位置関係によらずマークの識別が容易で、しかも太陽光線の反射の影響を受けることなく識別が可能なターゲットマーカを提供でき、またこのターゲットマーカを用いて対象物の相対位置を容易かつ確実に計測することが可能となり、さらにこの相対位置計測結果に基づき対象物を確実に把持して所定の作業を行うロボットシステムを提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るターゲットマーカの構成を示す平面図
【図2】同実施形態に係るロボットシステムの概略構成を示す図
【図3】図2中に示した制御装置の構成を示すブロック図
【図4】同実施形態における粗位置計測・位置決めモードの処理手順を示すフローチャート
【図5】図4におけるステップS12のカラーパターンマッチング処理を説明するための図
【図6】図4におけるステップS13で作成されるカラーヒストグラムの例を示す図
【図7】図4におけるステップS14〜S15の処理を説明するための図
【図8】同実施形態における精位置計測・位置決めモードの処理手順を示すフローチャート
【図9】図8におけるステップS25〜S26の処理を説明するための図
【図10】図8におけるステップS27〜S28の処理を説明するための図
【図11】本発明の他の実施形態に係るターゲットマーカの構成を示す平面図
【符号の説明】
1…ターゲットマーカ
2…マーカベース(赤色)
3a,3b…マーク(黄色)
3c,3d…マーク(緑色)
11…ロボットアーム
12…ロボットベース
13a〜13f…関節部
14…上腕
15…下腕
16…エンドエフェクタ(アーム先端)
17…カラー視覚センサ
18…対象物
19…取っ手
21…制御装置
22…画像処理部
23…駆動制御部
24…駆動装置
40…RGB画像
41…基準カラーパターン
42…赤色領域(マーカベース部分)
43…赤色領域の重心[0001]
BACKGROUND OF THE INVENTION
The present invention provides a target markerMosquitoThe present invention relates to a method for measuring the position of an object used and a robot system.
[0002]
[Prior art]
In general, when various assembling operations are performed by a robot, an image of an object is acquired by a visual sensor for positioning a robot arm, and the image is binarized, and then the contour (edge) is extracted to extract the contour line. A method is used in which an image is obtained and matching is performed with information on an object given in advance to obtain a relative position (including posture) of the object with respect to the robot arm.
[0003]
This method has a problem that the position measurement accuracy of the object is greatly influenced by the shape of the object. For this reason, a method has been proposed in which a member called a target marker in which a position detection mark is formed on an object is installed, an image of the target marker is acquired by a visual sensor, and the relative position of the object is obtained by image processing. ing. As such an example, for example, Japanese Patent Application Laid-Open No. 5-312521 describes a target marker in which a ring-shaped mark having the largest area and five circular marks having different areas from one another are arranged on a base. .
[0004]
In the target marker of this known example, since the types of a plurality of marks constituting the target marker are identified by shape and size, the difference in size cannot be recognized particularly when the target marker is imaged obliquely with a visual sensor. The mark may be difficult to identify.
[0005]
In this known example, color is not particularly mentioned. However, since the mark is identified by the shape and size, it is considered that one of the base and the mark is white and the other is black. However, with such a black and white target marker, for example, when considered to be applied to a robot working in outer space, the marker is reflected by sunlight, and the marker itself can be identified from surrounding objects, It is expected that the accuracy in identifying marks will be significantly reduced.
[0006]
[Problems to be solved by the invention]
As described above, in the target marker in which marks of different shapes and sizes are arranged on the base, it is difficult to identify the mark due to the angular positional relationship between the marker and the visual sensor, or it is applied to a robot used in outer space. In this case, there is a problem that it is difficult to identify the target marker and each mark due to the reflection of sunlight.
[0007]
An object of the present invention is to make it easy to identify a mark regardless of the angular positional relationship with a visual sensor, and to be able to identify the target marker without being affected by the reflection of sunlight.Position measurement method that can easily and reliably measure the relative position of an objectIs to provide.
[0009]
Another object of the present invention is to provide a robot system capable of performing a predetermined operation by reliably grasping an object based on a result of relative position measurement of the object by a target marker.
[0010]
[Means for Solving the Problems]
In order to solve the above problems, the present invention relates toThe position measurement method isA base colored in a first color, and three or more marks arranged on the base, at least one colored in the second color and at least one colored in the third color. HaveA target marker is placed on a positioning target, and the target marker is imaged by a color visual sensor such as a stereo color CCD camera to obtain a color image. Based on the first to third components in the color image Measure the position of the object. In this position measurement, coarse position measurement based on the first color component is first performed, and then fine position measurement including the posture of the object is performed based on the second and third color components.
[0012]
Furthermore, the present invention provides a robot system in which a target object is gripped by a tip of a robot arm and performs a predetermined operation. The target marker is set on the target, and the target marker is detected by a color visual sensor installed near the tip of the robot arm. To obtain a color image, input the obtained color image to the image processing unit, measure the position of the object based on the components of the first to third colors in the color image, and The robot arm is driven and controlled based on the position measurement result of the object by the processing unit.
[0013]
Here, the image processing unit includes the rough position measurement of the object based on the first color component in the color image and the posture of the object based on the second and third color components in the color image. In the robot arm drive control means, after the coarse positioning of the gripping part for gripping the object of the robot arm based on the coarse position measurement result, the robot arm drive control means performs the robot arm drive control means based on the precise position measurement result. The robot arm may be driven and controlled to perform precise positioning.
[0014]
More specifically, in the coarse position measurement, specifically, a color image obtained by imaging a target marker is compared with a reference color pattern registered in advance, and is within the range of the reference color pattern of the color image. Color pattern matching is performed so that only the same color area as the reference color pattern is included, and the color histogram of the color image is created at the position matched by this color pattern matching, and the brightness of the base color component of the marker in the image And extract the area of the same brightness range as the brightness of this color component from the color image, and extract the image of the base part of the marker by calculating the logical product of the image of the extracted area and the color image The center of gravity of the target marker is calculated from this center of gravity and the center of gravity of the color vision sensor. It calculates the position of the ie object as the three-dimensional position consisting of X-Y-Z coordinates.
[0015]
On the other hand, in fine position measurement, for example, color pattern matching is performed on a color image obtained by imaging a target marker in the same way as in rough position measurement, and a color histogram of the color image is created at the position matched by this color pattern matching. To determine the brightness of the base color component of the marker in the image, extract an area in the same brightness range as the brightness of the red component, and calculate the logical product of the extracted area and the entire color image. Then, an image of the first color area of the target marker, that is, an image of the base area is extracted, an outline of the image of the area is obtained, the base area is identified, and the color image in the base area is An image of a mark portion colored in the second color and the third color is extracted and binarized by RGB-HLS conversion. To the center of gravity of the image, i.e., the 3-dimensional coordinates of the center of each of the marks calculated, obtaining the three-dimensional center of the entire marked as the center of the target marker.
[0016]
Then, after obtaining a plane passing through the center of each mark, obtaining a normal vector perpendicular to the plane and passing through the center of the target marker, the second vector is obtained as two vectors perpendicular to the normal vector. A vector in the Y direction from the center of the two colored marks, and a vector in the X direction from the center of the mark colored in the second color and the center of the mark colored in the third color adjacent thereto. By obtaining each, the position of the object is measured as the relative distance and posture of the target marker from the color visual sensor.
[0017]
Thus, in the present invention, on the base colored in the first color, at least one mark is colored in the second color and at least one other color is colored in the third color. It is possible to configure a target marker that can be easily identified regardless of the angular positional relationship with the visual sensor, and can be identified without being affected by the reflection of sunlight like a black and white target marker, Further, it is possible to easily and surely measure the relative position of the object using the target marker, and further, a robot system that reliably grasps the object based on the relative position measurement result and performs a predetermined operation. Can be built.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a plan view showing a configuration of a target marker according to an embodiment of the present invention.
The
[0019]
On the other hand, the
[0020]
The specific shape and dimensions of each part of the
[0021]
The
[0022]
2, the
[0023]
In FIG. 2, the robot arm 11 has six
[0024]
The
Further, a position sensor and an angle sensor (not shown) are attached to the
[0025]
A color
[0026]
As shown in FIG. 3, the
[0027]
Next, the operation of the robot system according to this embodiment will be described.
First, the color
[0028]
The
[0029]
In this embodiment, measurement of the relative position of the object 18 and positioning of the robot arm 11 are performed in the order of the coarse position measurement / positioning mode and the fine position measurement / positioning mode. Hereinafter, detailed procedures in each mode will be described.
[0030]
(Coarse position measurement / positioning mode)
In the coarse position measurement / positioning mode, for example, when the dimension of each part of the
[0031]
In this coarse position measurement / positioning mode, first, a color image signal obtained by capturing an image with the color
[0032]
Next, color pattern matching, that is, as shown in FIG. 5, the captured
[0033]
Next, in a state in which the robot arm 11 is positioned so that the region matched with the color pattern matching in step S12, that is, the region of only the same color as the
[0034]
Next, as shown in FIG. 7, a region having the same brightness range as the brightness of the red component obtained in step S13 is extracted from the
[0035]
Next, the center of
[0036]
Next, from the center of gravity (center between the optical axis of the left camera and the optical axis of the right camera) of the stereo color CCD camera as the color
[0037]
Through the above steps S11 to S16, the approximate relative position of the
[0038]
Therefore, the tip of the robot arm 11 (end effector 16) is then determined based on the current position (three-dimensional position) of the robot arm 11 and the command position generated in advance based on the relative position (three-dimensional position) of the
[0039]
Specifically, the base coordinates calculated from the output of a position sensor (not shown) that detects the positions of the
baseTtip demand=tipTcamera・cameraTmarker・markerTtip demand Furthermore, the arm tip position command calculated in this waybaseTtip demandBased on the above, an arm tip speed command indicating the target speed of the tip of the robot arm 11 is generated.
[0040]
In the coarse position measurement / positioning mode, as described above, only the relative position of the
[0041]
That is, the posture term of the
[0042]
The arm tip speed command thus generated is input from the drive control unit 22 in the
[0043]
(Precise position measurement / positioning mode)
The fine position measurement / positioning mode is a distance from the color
[0044]
FIG. 8 shows a processing procedure in the fine position measurement / positioning mode. In this fine position measurement / positioning mode, the processes in steps S21 to S23 are the same as the processes in steps S11 to S13 in the coarse position measurement / positioning mode shown in FIG.
[0045]
That is, an RGB image acquired by the color
Next, in the present embodiment, an area in the same brightness range as the brightness of the red component determined in step S23 is extracted from the
[0046]
In the fine position measurement / positioning mode, the image inside the area of the
[0047]
Next, the center of gravity of the image of the binarized yellow region obtained in step S25, that is, the center of each of the
[0048]
Next, as in step S25, the image inside the
[0049]
Next, as in step S26, the center of gravity of the binarized green region image obtained in step S27, that is, the center of each of the
[0050]
The processes in steps S25 to S28 are performed on the RGB images acquired by both the left and right cameras of the stereo color CCD camera constituting the color
[0051]
Next, a plane passing through the center of each of the four
[0052]
Next, two vectors perpendicular to the normal vector are obtained (step S31). That is, a vector in the Y direction (vertical direction) is obtained from the centers of the two
[0053]
Through the above steps S21 to S31, the relative position (relative distance and posture) of the
Then, based on the current position (three-dimensional position) of the robot arm 11 and the relative distance and posture of the
[0054]
Specifically, the base coordinates calculated from the output of an angle sensor (not shown) that detects the angles of the
baseTtip demand=baseTtip・tipTcamera・cameraTmarker・markerTtip demand
Furthermore, this arm tip position commandbaseTtip demandBased on the above, an arm tip speed command is generated. The arm tip speed command thus generated is input from the drive control unit 22 in the
[0055]
As described above, according to the present embodiment, the
[0056]
Then, a color image (for example, RGB image) of the
[0057]
Therefore, for example, the
[0058]
Further, since the
[0059]
Therefore, the position measurement of the object 18 based on the color image of the
[0060]
The present invention is not limited to the above embodiment, and can be implemented with various modifications. For example, the target marker can be variously modified as shown in FIG. 11 in addition to the configuration shown in FIG.
[0061]
FIG. 11A shows an example in which one of the two
[0062]
FIG. 11C shows an example in which the
[0063]
FIG. 11D shows an example in which the
[0064]
Furthermore, in the target marker described above, the first color that is the marker base color is red, and the second and third colors that are the mark colors are yellow and green. Needless to say, it can be changed.
[0065]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a target marker that can be easily identified regardless of the angular positional relationship with the visual sensor and that can be identified without being affected by the reflection of sunlight. To provide a robot system that can easily and reliably measure the relative position of an object using this target marker, and that reliably holds the object based on the relative position measurement result and performs a predetermined operation. Can do.
[Brief description of the drawings]
FIG. 1 is a plan view showing a configuration of a target marker according to an embodiment of the present invention.
FIG. 2 is a diagram showing a schematic configuration of a robot system according to the embodiment.
FIG. 3 is a block diagram showing the configuration of the control device shown in FIG.
FIG. 4 is a flowchart showing a processing procedure of a coarse position measurement / positioning mode in the embodiment;
FIG. 5 is a diagram for explaining color pattern matching processing in step S12 in FIG. 4;
6 is a diagram showing an example of a color histogram created in step S13 in FIG.
7 is a diagram for explaining the processing of steps S14 to S15 in FIG. 4;
FIG. 8 is a flowchart showing a processing procedure in a precision position measurement / positioning mode in the embodiment;
FIG. 9 is a diagram for explaining the processing of steps S25 to S26 in FIG. 8;
FIG. 10 is a diagram for explaining the processing of steps S27 to S28 in FIG. 8;
FIG. 11 is a plan view showing a configuration of a target marker according to another embodiment of the present invention.
[Explanation of symbols]
1 ... Target marker
2. Marker base (red)
3a, 3b ... mark (yellow)
3c, 3d ... mark (green)
11 ... Robot arm
12 ... Robot base
13a-13f ... Joint part
14 ... Upper arm
15 ... Lower arm
16 ... End effector (arm tip)
17 ... Color visual sensor
18 ... Object
19 ... handle
21 ... Control device
22. Image processing unit
23 ... Drive control unit
24 ... Drive device
40 ... RGB image
41 ... Standard color pattern
42 ... Red region (marker base part)
43 ... Red center of gravity
Claims (2)
前記ターゲットマーカを撮像してカラー画像を取得するステップと、
前記カラー画像中の前記第1の色の成分に基づいて前記対象物の粗位置計測を行うステップと、
前記カラー画像中の前記第1乃至第3の色の成分に基づいて前記対象物の姿勢を含めた精位置計測を行うステップとを含むことを特徴とする位置計測方法。A target composed of a base colored in a first color and three or more marks arranged on the base, at least one colored in the second color and at least one other colored in the third color Place the marker on the positioning object,
Capturing a color image by imaging the target marker;
Performing coarse position measurement of the object based on the first color component in the color image ;
And a step of performing fine position measurement including the posture of the object based on the first to third color components in the color image .
前記対象物に設置された第1の色に着色されたベース及び該ベース上に配置され、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークからなるターゲットマーカと、
前記ロボットアームの先端近傍に設置され、前記ターゲットマーカを撮像してカラー画像を取得するカラー視覚センサと、
前記カラー視覚センサにより取得されたカラー画像中の前記第1の色の成分に基づいて前記対象物の粗位置計測を行った後、前記カラー画像中の前記第1乃至第3の色の成分に基づいて前記対象物の姿勢を含めた精位置計測を行うための画像処理部と、
前記粗位置計測結果に基づいて前記ロボットアームの前記対象物を把持する把持部の粗位置決めを行った後、前記精位置計測結果に基づいて前記ロボットアームの精位置決めを行うように前記ロボットアームを駆動制御する駆動制御手段とを有することを特徴とするロボットシステム。In a robot system that grips an object with the tip of a robot arm and performs a predetermined work,
A base colored in the first color placed on the object and arranged on the base, at least one colored in the second color and at least one other colored in the third color 3 A target marker consisting of more than one mark,
A color visual sensor installed near the tip of the robot arm and capturing a color image by imaging the target marker;
After performing rough position measurement of the object based on the first color component in the color image acquired by the color visual sensor, the first to third color components in the color image are measured. An image processing unit for performing precise position measurement including the posture of the object based on the
The robot arm is configured to perform fine positioning of the robot arm based on the precise position measurement result after performing rough positioning of a gripping portion that grips the object of the robot arm based on the coarse position measurement result. A robot system comprising drive control means for driving control.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000263876A JP3626400B2 (en) | 2000-08-31 | 2000-08-31 | Method for measuring position of object using target marker and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000263876A JP3626400B2 (en) | 2000-08-31 | 2000-08-31 | Method for measuring position of object using target marker and robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002071313A JP2002071313A (en) | 2002-03-08 |
JP3626400B2 true JP3626400B2 (en) | 2005-03-09 |
Family
ID=18751366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000263876A Expired - Fee Related JP3626400B2 (en) | 2000-08-31 | 2000-08-31 | Method for measuring position of object using target marker and robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3626400B2 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4825964B2 (en) * | 2003-08-18 | 2011-11-30 | 独立行政法人 宇宙航空研究開発機構 | Non-contact measuring device |
JP2005337870A (en) * | 2004-05-26 | 2005-12-08 | Kyoto Univ | Detection system and labeled object |
JP4599184B2 (en) * | 2005-02-02 | 2010-12-15 | キヤノン株式会社 | Index placement measurement method, index placement measurement device |
JP2006346790A (en) * | 2005-06-15 | 2006-12-28 | Toyota Motor Corp | Robot, and interference discriminating method and interference discriminating device |
JP5207719B2 (en) * | 2007-12-05 | 2013-06-12 | 株式会社トプコン | Label with color code, color code extraction means, and three-dimensional measurement system |
JP5083715B2 (en) * | 2008-03-10 | 2012-11-28 | 株式会社Ihi | 3D position and orientation measurement method and apparatus |
JP5019478B2 (en) * | 2008-09-26 | 2012-09-05 | 独立行政法人日本原子力研究開発機構 | Marker automatic registration method and system |
JP2010243405A (en) * | 2009-04-08 | 2010-10-28 | Hiroshima Univ | Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program |
JP5612916B2 (en) | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | Position / orientation measuring apparatus, processing method thereof, program, robot system |
JP5561109B2 (en) * | 2010-11-09 | 2014-07-30 | 株式会社デンソー | Apparatus and method for measuring three-dimensional dimensions |
JP5961938B2 (en) * | 2011-07-15 | 2016-08-03 | 国立大学法人山梨大学 | Monospectral marker and method and apparatus for detecting the same |
CZ306033B6 (en) * | 2012-02-13 | 2016-07-07 | ÄŚVUT v Praze, Fakulta strojnĂ | Method of setting position of transfer arms on a supporting frame and transfer arms for gripping technological or measuring means |
JP5778311B1 (en) * | 2014-05-08 | 2015-09-16 | 東芝機械株式会社 | Picking apparatus and picking method |
CN107367270B (en) * | 2017-08-30 | 2023-07-21 | 中冶建工集团有限公司 | Measurement template for establishing indoor clear height measurement point and use method thereof |
US10839547B2 (en) | 2017-09-28 | 2020-11-17 | Samsung Electronics Co., Ltd. | Camera pose determination and tracking |
US10529074B2 (en) | 2017-09-28 | 2020-01-07 | Samsung Electronics Co., Ltd. | Camera pose and plane estimation using active markers and a dynamic vision sensor |
CN110956660B (en) * | 2018-09-26 | 2023-10-10 | 深圳市优必选科技有限公司 | Positioning method, robot, and computer storage medium |
JP7521737B2 (en) | 2020-04-03 | 2024-07-24 | 学校法人法政大学 | Marking Identification Processing System and Concrete Compaction Traceability System |
-
2000
- 2000-08-31 JP JP2000263876A patent/JP3626400B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002071313A (en) | 2002-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3626400B2 (en) | Method for measuring position of object using target marker and robot system | |
EP1555507B1 (en) | Three-dimensional visual sensor | |
US8447097B2 (en) | Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement | |
JP4757142B2 (en) | Imaging environment calibration method and information processing apparatus | |
EP1477765B1 (en) | Method of detecting object of detection and device therefor, and method of inspecting object of inspection and device therefor | |
EP2788717B1 (en) | Position and orientation determination in 6-dof | |
EP3032818B1 (en) | Image processing device | |
JP5045556B2 (en) | Robot hand posture detection system | |
US9613421B2 (en) | Optical tracking | |
KR101583663B1 (en) | Method for generating calibration indicator of camera for vehicle | |
WO2005088250A1 (en) | Method and system of measuring an object in a digital image | |
WO2017133756A1 (en) | Robot system calibration | |
JP2000094374A (en) | Picking device | |
WO2018169467A1 (en) | A vehicle with a crane with object detecting device | |
JP5019478B2 (en) | Marker automatic registration method and system | |
CN114341930A (en) | Image processing device, imaging device, robot, and robot system | |
JP2003065714A (en) | Guiding device and guiding method for camera calibration, and camera calibration apparatus | |
WO2018173192A1 (en) | Articulated robot parallelism determination method and articulated robot inclination adjustment device | |
JPH1185981A (en) | Distance measuring origin recognition device for mobile object | |
JP3511551B2 (en) | Robot arm state detection method and detection system | |
Gleichauf et al. | Sensor fusion of a 2D laser scanner and a thermal camera | |
JP3516668B2 (en) | Three-dimensional shape recognition method, apparatus and program | |
JP2546037B2 (en) | Target mark | |
JP2616225B2 (en) | Relative positioning method | |
JP3192779B2 (en) | Position / posture measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041202 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071210 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121210 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121210 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131210 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |