JP3626400B2 - Method for measuring position of object using target marker and robot system - Google Patents

Method for measuring position of object using target marker and robot system Download PDF

Info

Publication number
JP3626400B2
JP3626400B2 JP2000263876A JP2000263876A JP3626400B2 JP 3626400 B2 JP3626400 B2 JP 3626400B2 JP 2000263876 A JP2000263876 A JP 2000263876A JP 2000263876 A JP2000263876 A JP 2000263876A JP 3626400 B2 JP3626400 B2 JP 3626400B2
Authority
JP
Japan
Prior art keywords
color
marker
base
image
target marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000263876A
Other languages
Japanese (ja)
Other versions
JP2002071313A (en
Inventor
靖 福田
準治 大明
文夫 尾崎
康徳 高瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000263876A priority Critical patent/JP3626400B2/en
Publication of JP2002071313A publication Critical patent/JP2002071313A/en
Application granted granted Critical
Publication of JP3626400B2 publication Critical patent/JP3626400B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ターゲットマーカを用いた対象物の位置計測方法及びロボットシステムに関する。
【0002】
【従来の技術】
一般に、種々の組立作業などをロボットによって行う場合、ロボットアームの位置決めのために視覚センサで対象物の画像を取得し、その画像を2値化した後に輪郭(エッジ)抽出を行って輪郭の線画像を求め、予め与えられた対象物の情報とのマッチングを行って、ロボットアームに対する対象物の相対位置(姿勢も含む)を求める方法が用いられている。
【0003】
この方法では、対象物の位置計測精度が対象物の形状に大きく左右されるという問題点がある。このため、対象物に位置検出用マークが形成されたターゲットマーカと呼ばれる部材を設置し、このターゲットマーカの画像を視覚センサで取得して、画像処理により対象物の相対位置を求める方法が提案されている。そのような例として、例えば特開平5−312521号公報には、ベース上に面積最大のリング状マーク及び一つだけ他と面積の異なる5個の円形マークを配置したターゲットマーカが記載されている。
【0004】
この公知例のターゲットマーカでは、ターゲットマーカを構成する複数のマークの種別を形状と大きさで識別しているため、特に視覚センサでターゲットマーカを斜めから撮像した場合、大きさの違いを認識できないことがあり、マークの識別が困難となることがある。
【0005】
また、この公知例では色については特に言及していないが、マークを形状・大きさで識別していることから、ベースとマークのいずれか一方が白、他方が黒であると考えられる。しかし、このような白黒のターゲットマーカでは、例えば宇宙空間で作業を行うロボットに適用することを考えた場合、マーカが太陽光線に反射してしまい、マーカ自体を周囲の物体と識別したり、各マークを識別する際の精度が著しく低下することが予想される。
【0006】
【発明が解決しようとする課題】
上述したように、ベース上に形状や大きさの異なるマークを配置したターゲットマーカでは、マーカと視覚センサとの角度位置関係によってマークの識別が困難となったり、宇宙空間で使用するロボットに適用する場合に、太陽光線の反射によりターゲットマーカの他との識別及び各マークの識別が困難になるという問題があった。
【0007】
本発明の目的は、視覚センサとの角度位置関係によらずマークの識別が容易であって、また太陽光線の反射の影響を受けることなく識別が可能なターゲットマーカを用いて対象物の相対位置を容易かつ確実に計測できる位置計測方法を提供することにある。
【0009】
本発明のもう一つの目的は、ターゲットマーカによる対象物の相対位置計測結果に基づき対象物を確実に把持して所定の作業を行うことができるロボットシステムを提供することにある。
【0010】
【課題を解決するための手段】
上記の課題を解決するため、本発明に係る位置計測方法は、第1の色に着色されたベースと、このベース上に配置され、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークとを有するターゲットマーカを位置決めの対象物に設置し、このターゲットマーカを例えばステレオカラーCCDカメラからなるカラー視覚センサにより撮像してカラー画像を取得し、このカラー画像中の第1乃至第3の成分に基づいて対象物の位置計測を行う。この位置計測においては、まず第1の色の成分に基づく粗位置計測を行い、次に第2及び第3の色の成分に基づいて対象物の姿勢を含めた精位置計測を行う。
【0012】
さらに、本発明は対象物をロボットアームの先端で把持して所定の作業を行うロボットシステムにおいて、上記ターゲットマーカを対象物に設置し、ロボットアームの先端近傍に設置されたカラー視覚センサによりターゲットマーカを撮像してカラー画像を取得し、この取得されたカラー画像を画像処理部に入力して、カラー画像中の第1乃至第3の色の成分に基づく対象物の位置計測を行い、この画像処理部による対象物の位置計測結果に基づいてロボットアームを駆動制御するようにしたことを特徴とする。
【0013】
ここで、画像処理部においてはカラー画像中の第1の色の成分に基づく対象物の粗位置計測と、カラー画像中の第2及び第3の色の成分に基づく対象物の姿勢を含めた精位置計測を行い、ロボットアームの駆動制御手段においては、粗位置計測結果に基づいてロボットアームの対象物を把持する把持部の粗位置決めを行った後、精位置計測結果に基づいてロボットアームの精位置決めを行うようにロボットアームを駆動制御するようにしてもよい。
【0014】
より具体的に説明すると、まず粗位置計測においては、具体的にはターゲットマーカを撮像して取得したカラー画像を予め登録された基準カラーパターンと比較し、カラー画像の基準カラーパターンの範囲内に基準カラーパターンと同一色のみの領域が含まれるようにカラーパターンマッチングを行い、このカラーパターンマッチングでマッチングした位置においてカラー画像のカラーヒストグラムを作成して画像中のマーカのベースの色成分の明るさを調べ、この色成分の明るさと同じ明るさの範囲の領域をカラー画像から抜き出し、この抜き出した領域の画像とカラー画像との論理積を演算することにより、マーカのベースの部分の画像を抽出してその重心を求め、この重心とカラー視覚センサの重心からターゲットマーカの相対位置、すなわち対象物の位置をX−Y−Z座標からなる3次元位置として算出する。
【0015】
一方、精位置計測においては、例えば粗位置計測時と同様にターゲットマーカを撮像して取得したカラー画像ついてカラーパターンマッチングを行い、このカラーパターンマッチングでマッチングした位置においてカラー画像のカラーヒストグラムを作成して画像中のマーカのベースの色成分の明るさを判定し、この赤色成分の明るさと同じ明るさの範囲の領域をカラー画像から抜き出し、この抜き出した領域とカラー画像全体との論理積を演算して、ターゲットマーカの第1の色の領域、つまりベースの領域の画像を抽出し、この領域の画像の輪郭を求めてベースの領域を識別して、このベースの領域内のカラー画像を例えばRGB−HLS変換することにより第2の色及び第3の色にそれぞれ着色されたマークの部分の画像を抽出し二値化してその画像の重心、すなわち各マークの各々の中心の3次元座標を求め、マーク全体の3次元的な中心をターゲットマーカの中心として求める。
【0016】
そして、各マークの各々の中心を通る平面を求め、この平面に垂直かつターゲットマーカの中心を通る法線ベクトルを求めた後、この法線ベクトルに対して垂直な2つのベクトルとして、第2の色に着色された二つのマークの中心からY方向のベクトル、また第2の色に着色されたマークの中心とこれに隣り合う第3の色に着色されたマークの中心からX方向のベクトルをそれぞれ求めることにより、対象物の位置をカラー視覚センサからのターゲットマーカの相対距離及び姿勢として計測する。
【0017】
このように本発明では、第1の色に着色されたベースの上に、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークを設けることにより、視覚センサとの角度位置関係によらずマークの識別が容易で、しかも白黒のターゲットマーカのように太陽光線の反射の影響を受けることなく識別が可能なターゲットマーカを構成でき、またこのターゲットマーカを用いて対象物の相対位置を容易かつ確実に計測することが可能であり、さらに、この相対位置計測結果に基づき対象物を確実に把持して所定の作業を行うロボットシステムを構築することができる。
【0018】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施形態に係るターゲットマーカの構成を示す平面図である。
このターゲットマーカ1は、図示しない対象物に設置されてその対象物の位置計測に用いられるものであり、矩形(この例では正方形)板状のマーカベース2と、このマーカベース2の表面上の4隅に配置されたマーク3a,3b,3c,3dからなる。ここで、マーカベース2は全表面またはマーク3a,3b,3c,3dの配置された表面が第1の色、例えば赤色(R)に着色されている。このようにマーカベース2の表面を赤色に着色する理由は、本実施形態ではマーカベース2の色は、これが設置される対象物の大まかな相対位置計測と位置決め(粗位置計測・位置決め)に使用する関係で、宇宙空間で最も視認性が高い色であることが望ましいと考えたからである。
【0019】
一方、マーク3a,3b,3c,3dは、マーカベース2と異なる複数の色に着色されている、具体的には、図でマーカベース2の右側の辺に沿って隣り合うマーク3a,3bは第2の色、例えば黄色(Y)に着色され、図でマーカベース2の左側の辺に沿って隣り合うマーク3c,3dは第3の色、例えば緑色(G)に着色されている。
【0020】
ターゲットマーカ1の各部の具体的な形状と寸法を例示すると、例えばマーカベース2は一辺の長さが30mm程度の正方形、マーク3a,3b,3c,3dは直径が6mm程度の円形である。また、マーク3a,3b,3c,3dのマーカベース2の辺に沿う方向の間隔は20mm程度である。
【0021】
マーク3a,3b,3c,3dは、マーカベース2の表面から突出しないように、例えば薄いシート状に形成されてマーカベース2上に貼り付けられるか、あるいはマーカベース2の表面に直接プリントされることが望ましい。このようにマーク3a,3b,3c,3dをマーカベース2の表面から突出しないように形成することにより、後述するロボットアームで対象物を把持する際、マーク3a,3b,3c,3dがアームの移動に邪魔となるようなことがなくなる。また、マーク3a,3b,3c,3dは図の例では円形、すなわち等方的な形状であるが、四角形、三角形、楕円等のような非等方性の形状、つまり方向性を有する形状であってもよい。
【0022】
図2は、図1のターゲットマーカ1を対象物18に取り付け、ロボットアーム11に対する対象物18の相対位置計測と、それに基づくロボットアーム11の対象物18に対する位置決めを行い、対象物18の取っ手19を把持して運搬・組立等の所定の作業を行うロボットシステムの構成を示している。このロボットシステムは、地上で使用することももちろん可能であるが、特に宇宙空間での使用に適している。
【0023】
図2において、ロボットアーム11はロボットベース12上に6自由度を持つように、6個の関節部13a,13b,13c,13d,13e,13fと上腕14及び下腕15を有する構成となっている。また、ロボットアーム11の先端には、対象物18の取っ手19を把持して所定の作業を行うためのエンド・エフェクタ16が設けられている。
【0024】
関節部13a,13b,13c,13d,13e,13fについてさらに説明すると、関節部13aはロボットベース12のロール軸の関節軸θ1(第1軸)、関節部13bは下腕15のピッチ軸の関節軸θ2(第2軸)、関節部13cは上腕14のピッチ軸の関節軸θ3(第3軸)、関節部13dはエンドエフェクタ16のピッチ軸の関節軸θ4(第4軸)、関節部13eはエンドエフェクタ16のヨー軸の関節軸θ5(第5軸)、関節部13fはエンドエフェクタ16のロール軸の関節軸θ6(第6軸)をそれぞれ有し、図中に一点鎖線で示すそれぞれの回転軸を中心に回転駆動されることにより、ロボットアーム11の先端の位置・姿勢を変化させることができる。
また、各関節部13a,13b,13c,13d,13e,13fには、図示しない位置センサ及び角度センサが取り付けられている。
【0025】
エンドエフェクタ16には、カラー視覚センサ17が取り付けられている。このカラー視覚センサ17は、例えばステレオカラーCCDカメラによって構成され、対象物18に取り付けられたターゲットマーカ1を含むカラー画像、すなわターゲットマーカ1とその周辺部のカラー画像(例えばRGB画像)を取得し、カラー画像信号を制御装置21に出力する。
【0026】
制御装置21は、図3に示すようにカラー視覚センサ17から入力されるカラー画像信号を処理する画像処理部22、この画像処理部22からの出力信号を入力とする駆動制御部23、及び駆動制御部23により制御されて関節部13a,13b,13c,13d,13e,13fを回転駆動する駆動装置24から構成されている。
【0027】
次に、本実施形態に係るロボットシステムの動作について説明する。
まず、ロボットアーム11の先端に取り付けられたカラー視覚センサ17により、対象物18上のターゲットマーカ1を撮像して、ターゲットマーカ1を含むRGB画像を取得する。このカラー視覚センサ17によって得られたRGB画像の画像信号は、制御装置21に入力される。制御装置21に入力された画像信号は画像処理部22により処理され、ロボットアーム11に対するターゲットマーカ1の相対位置、つまり対象物18の相対位置が計測される。
【0028】
この相対位置の計測結果に基づき駆動制御部23によって駆動装置24が制御されることにより、関節部13a,13b,13c,13d,13e,13fが回転駆動され、ロボットアーム11の位置決めが行われる。この後、エンドエフェクタ16によって対象物18の取っ手19が把持され、対象物18の運搬や組立といった所定の作業が行われる。
【0029】
対象物18の相対位置の計測とロボットアーム11の位置決めは、本実施形態では粗位置計測・位置決めモードと精位置計測・位置決めモードの順で行われる。以下、各モードの詳細な手順について説明する。
【0030】
(粗位置計測・位置決めモード)
粗位置計測・位置決めモードは、例えばターゲットマーカ1の各部の寸法が前述の例の場合(特に、マーカベース2の一辺の長さが30mmの場合)、カラー視覚センサ17からターゲットマーカ1までの距離が200mm以上離れているときに用いられる。図4は、粗位置計測・位置決めモードでの処理手順を示している。
【0031】
この粗位置計測・位置決めモードでは、まずステレオカラーCCDカメラからなるカラー視覚センサ17をターゲットマーカ1の方向に向けた状態で撮像して得られるカラー画像信号、すなわちRGB画像を取り込む(ステップS11)。
【0032】
次に、カラーパターンマッチング、すなわち、図5に示すように、取り込んだRGB画像40を予め登録された基準カラーパターン(マーカベース2の色と同じ色でかつ所定形状のカラーパターン)41と比較し、RGB画像40の基準カラーパターン41の範囲内に基準カラーパターン41と同一色のみの領域が含まれるように、ロボットアーム11の位置決めを行う(ステップS12)。この例では、基準カラーパターン41の色は、マーカベース2が赤色であるため、赤色に設定されている。また、基準カラーパターン41の形状は図5では矩形となっているが、円形その他の形状であってもよい。
【0033】
次に、ステップS12のカラーパターンマッチングでマッチングした位置、つまりRGB画像40の基準カラーパターン41の範囲内に基準カラーパターン41と同一色のみの領域が含まれるようにロボットアーム11を位置決めした状態で、図6に示すようにRGB画像40のカラーヒストグラムを作成し、RGB画像40中のマーカベース2の色成分であるR(赤色)成分の明るさを調べる(ステップS13)。図6のカラーヒストグラムは、横軸に明るさ(輝度)、縦軸に頻度をとっている。明るさ(輝度)は色の成分によって異なり、この例ではR(赤色)成分が最大輝度となっている。
【0034】
次に、図7に示すようにRGB画像40からステップS13で求められた赤色成分の明るさと同じ明るさの範囲の領域を抜き出し、この抜き出した領域の画像とRGB画像との論理積を演算することにより、ターゲットマーカ1の赤色領域42、すなわちマーカベース2の部分の画像を抽出する(ステップS14)。
【0035】
次に、ステップS14で抽出されたターゲットマーカ1の赤色領域42(マーカベース2の部分)の重心43を算出する(ステップS15)。重心43の算出は、公知の種々の画像処理手法を用いることができ、例えば、赤色領域42の画像について、X方向に関してはこれと垂直なY方向の画素数に応じたX座標値の加重平均をとりその平均値をX方向の重心(重心43のX座標)とし、同様にY方向に関してもこれと垂直なX方向の画素数に応じたY座標値の加重平均をとりその平均値をY方向の重心(重心43のY座標)とすればよい。
【0036】
次に、カラー視覚センサ17であるステレオカラーCCDカメラの重心(左側のカメラの光軸と右側のカメラの光軸との中心)と、ステップS15で算出されたマーカベース2の重心43から、ロボットアーム11に対するターゲットマーカ1の相対位置をX−Y−Z座標からなる3次元位置として算出する(ステップS16)。ここで、ターゲットマーカ1の相対位置(3次元位置)を表すX−Y−Z座標のうち、X,YはRGB画像におけるマーカベース2の重心位置43のX−Y座標として求めることができ、またZは三角測量の原理でカラー視覚センサ17であるステレオカラーCCDカメラの重心とマーカベース2の重心43との距離として求めることができる。
【0037】
以上のステップS11〜S16により、ロボットアーム11に対するターゲットマーカ1の概略的な相対位置が求まる。すなわち、ロボットアーム11に対する対象物18の相対位置の粗位置計測が行われたことになる。
【0038】
そこで、次にロボットアーム11の現在位置(3次元位置)と、予めターゲットマーカ1の相対位置(3次元位置)を基準にして生成した指令位置により、ロボットアーム11の先端(エンドエフェクタ16)についてのみの位置決め(粗位置決め)を行う(ステップS17)。
【0039】
具体的には、制御装置21内の駆動制御部23において、ロボットアーム11の各関節部13a,13b,13c,13d,13e,13fの位置を検出する図示しない位置センサの出力より算出したベース座標系(ロボットベース12を基準とする座標系)(Σbase)でのロボットアーム11の先端位置basetipと、ロボットアーム11に対するカラー視覚センサ17の取り付け状態で決まるアーム先端座標系(ロボットアーム11の先端であるエンドエフェクタ16の位置を基準とする座標系)(Σtip)でのカラー視覚センサ17の位置tipcameraを用いて、ロボットアーム11の先端の目標位置を示すアーム先端位置指令basetip demandが次式により算出される。
basetip demandtipcameracameramarkermarkertip demand さらに、こうして算出されたアーム先端位置指令basetip demandに基づいてロボットアーム11の先端の目標速度を示すアーム先端速度指令が生成される。
【0040】
粗位置計測・位置決めモードでは、上述したように視覚センサ座標系(カラー視覚センサ17の位置を基準とする座標系)(Σcamera)でのターゲットマーカ1の相対位置のみが計測され、ターゲットマーカ1の姿勢は計測されない。従って、カラー視覚センサ17を用いて計測された視覚センサ座標系(Σcamera)でのターゲットマーカ1の位置cameramarker、及び予め指令されたマーカ座標系(ターゲットマーカ1の位置を基準とする座標系)(Σmarker)でのアーム先端位置指令markertip demandのうちの姿勢項については、ターゲットマーカ1がカラー視覚センサ17に対して正対しているものとして、アーム先端速度指令を生成する。
【0041】
すなわち、視覚センサ座標系(Σcamera)でのターゲットマーカ1の姿勢項、マーカ座標系(Σmarker)でのアーム先端位置指令markertip demandは、各々の座標系(Σcamera)、(Σmarker)に対しそれぞれ正対しているものとして演算される。
【0042】
こうして生成されたアーム先端速度指令が制御装置21内の駆動制御部22から駆動装置23に入力されることによって、ロボットアーム11の粗位置決めが行われる。
【0043】
(精位置計測・位置決めモード)
精位置計測・位置決めモードは、例えばターゲットマーカ1の各部の寸法が前述の例の場合(特に、マーカベース2の一辺の長さが30mmの場合)、カラー視覚センサ17からターゲットマーカ1までの距離が200mm以内まで近づいたときに用いられる。従って、ロボットシステム11の初期状態においてカラー視覚センサ17からターゲットマーカ1までの距離が200mm以内にあれば、前述した粗位置計測・位置決めモードは省略され、精位置計測・位置決めモードのみが用いられる。
【0044】
図8は、精位置計測・位置決めモードでの処理手順を示している。この精位置計測・位置決めモードにおいて、ステップS21〜S23の処理は図4に示した粗位置計測・位置決めモードにおけるステップS11〜S13の処理と同様である。
【0045】
すなわち、カラー視覚センサ17によって取得されたRGB画像を取り込み(ステップS21)、このRGB画像についてカラーパターンマッチングを行い(ステップS22)、このマッチング位置でカラーヒストグラムを作成してマーカベース2の色である赤色成分の明るさを判定する(ステップS23)
次に、本実施形態ではステップS23で判定された赤色成分の明るさと同じ明るさの範囲の領域をRGB画像40から抜き出し、この抜き出した領域とRGB画像40との論理積を演算して、ターゲットマーカ1の赤色領域42(マーカベース2の領域)の画像を抽出し、赤色領域42の画像の輪郭を求めることにより赤色領域42、すなわちマーカベース2の領域を識別する(ステップS24)。
【0046】
精位置計測・位置決めモードでは、次にステップS24で識別されたマーカベース2の領域の内部の画像をRGB−HLS(色相)変換することにより、図9に示すように黄色領域、すなわちマーク3a,3bの部分の画像を抽出し、それを二値化する(ステップS25)。
【0047】
次に、ステップS25で求められた二値化された黄色領域の画像の重心、すなわちマーク3a,3bの各々の中心を求める(ステップS26)。
【0048】
次に、ステップS25と同様に、ステップS24で識別されたマーカベース2の領域の内部の画像をRGB−HLS(色相)変換することにより、図10に示すように緑色領域、すなわちマーク3c,3dの部分の画像を抽出し、それを二値化する(ステップS27)。
【0049】
次に、ステップS26と同様に、ステップS27で求められた二値化された緑色領域の画像の重心、すなわちマーク3c,3dの各々の中心を求める(ステップS28)。
【0050】
ステップS25〜S28の処理は、カラー視覚センサ17を構成するステレオカラーCCDカメラの左右両方のカメラで取得されたRGB画像に対して行われる。これにより、4個のマーク3a,3b,3c,3dの各々の中心が3次元座標として求められる。そこで、次に4個のマーク3a,3b,3c,3dの各々の中心の3次元座標から、マーク3a,3b,3c,3d全体の3次元的な中心をターゲットマーカ1の中心として求める(ステップS29)。
【0051】
次に、4個のマーク3a,3b,3c,3dの各々の中心を通る平面を例えば最小二乗法で求め、この平面に垂直かつステップS29で求められたターゲットマーカ1の中心を通る法線ベクトルを求める(ステップS30)。
【0052】
次に、この法線ベクトルに対して垂直な2つのベクトルを求める(ステップS31)。すなわち、ステップS26で求められた二つの黄色のマーク3a,3bの中心から、Y方向(垂直方向)のベクトルを求め、また黄色の一つのマーク(例えばマーク3a)の中心と、このマーク3aとマーカベース2の同一辺に沿って隣り合う緑色のマーク(例えばマーク3d)の中心から、X方向(水平方向)のベクトルを求める。
【0053】
以上のステップS21〜S31により、ターゲットマーカ1のカラー視覚センサ17からの相対位置(相対距離及び姿勢)が求められたことになる。
そこで、次にロボットアーム11の現在位置(3次元位置)とステップS21〜S33で求められたターゲットマーカ1の相対距離及び姿勢に基づいて、ロボットアーム11の先端(エンドエフェクタ16)のロボットベース12を基準とした指令位置を生成し、この指令位置によりロボットアーム11全体の位置決め、すなわち精位置決めを行う(ステップS32)。
【0054】
具体的には、制御装置21内の駆動制御部23において、ロボットアーム11の各関節部13a,13b,13c,13d,13e,13fの角度を検出する図示しない角度センサの出力より算出したベース座標系(ロボットベース12を基準とする座標系)(Σbase)でのアーム先端位置basetipと、ロボットアーム11に対するカラー視覚センサ17の取り付け状態で決まるアーム先端座標系(エンドエフェクタ16の位置を基準とする座標系)(Σtip)でのカラー視覚センサ17の位置tipcameraと、カラー視覚センサ17を用いて計測した視覚センサ座標系(カラー視覚センサ17を基準とした座標系)(Σcamera)でのターゲットマーカ1の位置cameramarkerと、予め指令したマーカ座標系(ターゲットマーカ1の位置を基準とする座標系)(Σmarker)でのアーム先端位置指令markertip demandを用いて、アーム先端位置指令basetip demandが次式により算出される。
basetip demandbasetiptipcameracameramarkermarkertip demand
さらに、このアーム先端位置指令basetip demandに基づいてアーム先端速度指令が作成される。こうして生成されたアーム先端速度指令が制御装置21内の駆動制御部22から駆動装置23に入力されることにより、ロボットアーム11全体の精位置決めが行われる。
【0055】
このように本実施形態によれば、ターゲットマーカ1が第1の色(例えば赤色)に着色されたマーカベース2と、このマーカベース2上に設置された複数のマーカ3a,3b,3c,3dとから構成され、マーカベース2の右側の辺に沿って隣り合うマーク3a,3bは第2の色(例えば黄色)に着色され、マーカベース2の左側の辺に沿って隣り合うマーク3c,3dは第3の色(例えば緑色)に着色されている。
【0056】
そして、このターゲットマーカ1のカラー画像(例えばRGB画像)をカラー視覚センサ17により取得し、マーカベース2の色とマーク3a,3b,3c,3dの色の違い及び各マーク3a,3b,3c,3dの色の違いを利用して対象物18の粗位置及び精位置計測を行う。
【0057】
従って、例えば視覚センサ17から見てターゲットマーカ1が斜めの位置関係にあってマーカベース2及びマーク3a,3b,3c,3dが例えば円形が変形して楕円に見えたり、マーク相互の大小関係が異なって見えたような場合でも、これらの影響を受けることなく、マーカベース2及びマーク3a,3b,3c,3dの識別を行うことができる。
【0058】
また、マーカベース2及びマーク3a,3b,3c,3dはそれぞれ固有の色(有彩色)に着色されているため、例えば宇宙空間で衛星に搭載されて使用されるロボットシステムに適用する場合でも、太陽光線の反射の影響を受けることなく、これらを確実に識別することができる。
【0059】
従って、カラー視覚センサ17で取得したターゲットマーカ1のカラー画像に基づく対象物18の位置計測を高い信頼性をもって行うことが可能となり、ロボットシステムのロボットアーム11による対象物の把持操作を確実に行うことができる。
【0060】
本発明は、上記実施形態に限られるものではなく、種々変形して実施することが可能である。例えば、ターゲットマーカについては、図1に示した構成以外に図11に示すような種々の変形が可能である。
【0061】
図11(a)は、図1に示したターゲットマーカ1における緑色の二つのマーク3c,3dのうちの一方3dを省略した例、図11(b)は図1に示したターゲットマーカ1における黄色の二つのマーク3a,3bのうちの一方3bを省略した例である。このようにターゲットマーカにおけるマークの数は3個であってもよく、その少なくとも一つが第2の色、他の少なくとも一つが第3の色であればよい。
【0062】
図11(c)は、図11(a)のターゲットマーカ1を変形し、3個のマーク3a,3b,3cを正三角形の3つの頂点にそれぞれ配置した例である。この場合、前述した精位置計測・位置決めモードにおいてステップS31で法線ベクトルに対して垂直な2つのベクトルを求める際、例えばY方向(垂直方向)のベクトルについては、ステップS26で求められた二つの黄色のマーク3a,3bの中心間のベクトルをY方向(垂直方向)のベクトルに換算して求めればよい。
【0063】
図11(d)は、マーカベース2の形状を円形とした例である。この場合、例えば前述した粗位置計測・位置決めモード及び精位置計測・位置決めモードにおいて、ターゲットマーカ1の赤色領域42(マーカベース2の領域)の重心43を算出するステップS15は、赤色領域42の画像の重心を公知の画像処理で求めることにより実現できる。また、マーカベース2の形状は、他に長方形、菱形、楕円形等であっても構わない。
【0064】
さらに、以上説明したターゲットマーカでは、マーカベースの色である第1の色を赤、マークの色である第2、第3の色を黄色、緑色としたが、これらの一路の組み合わせは任意に変更できることはいうまでもない。
【0065】
【発明の効果】
以上説明したように、本発明によれば視覚センサとの角度位置関係によらずマークの識別が容易で、しかも太陽光線の反射の影響を受けることなく識別が可能なターゲットマーカを提供でき、またこのターゲットマーカを用いて対象物の相対位置を容易かつ確実に計測することが可能となり、さらにこの相対位置計測結果に基づき対象物を確実に把持して所定の作業を行うロボットシステムを提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るターゲットマーカの構成を示す平面図
【図2】同実施形態に係るロボットシステムの概略構成を示す図
【図3】図2中に示した制御装置の構成を示すブロック図
【図4】同実施形態における粗位置計測・位置決めモードの処理手順を示すフローチャート
【図5】図4におけるステップS12のカラーパターンマッチング処理を説明するための図
【図6】図4におけるステップS13で作成されるカラーヒストグラムの例を示す図
【図7】図4におけるステップS14〜S15の処理を説明するための図
【図8】同実施形態における精位置計測・位置決めモードの処理手順を示すフローチャート
【図9】図8におけるステップS25〜S26の処理を説明するための図
【図10】図8におけるステップS27〜S28の処理を説明するための図
【図11】本発明の他の実施形態に係るターゲットマーカの構成を示す平面図
【符号の説明】
1…ターゲットマーカ
2…マーカベース(赤色)
3a,3b…マーク(黄色)
3c,3d…マーク(緑色)
11…ロボットアーム
12…ロボットベース
13a〜13f…関節部
14…上腕
15…下腕
16…エンドエフェクタ(アーム先端)
17…カラー視覚センサ
18…対象物
19…取っ手
21…制御装置
22…画像処理部
23…駆動制御部
24…駆動装置
40…RGB画像
41…基準カラーパターン
42…赤色領域(マーカベース部分)
43…赤色領域の重心
[0001]
BACKGROUND OF THE INVENTION
The present invention provides a target markerMosquitoThe present invention relates to a method for measuring the position of an object used and a robot system.
[0002]
[Prior art]
In general, when various assembling operations are performed by a robot, an image of an object is acquired by a visual sensor for positioning a robot arm, and the image is binarized, and then the contour (edge) is extracted to extract the contour line. A method is used in which an image is obtained and matching is performed with information on an object given in advance to obtain a relative position (including posture) of the object with respect to the robot arm.
[0003]
This method has a problem that the position measurement accuracy of the object is greatly influenced by the shape of the object. For this reason, a method has been proposed in which a member called a target marker in which a position detection mark is formed on an object is installed, an image of the target marker is acquired by a visual sensor, and the relative position of the object is obtained by image processing. ing. As such an example, for example, Japanese Patent Application Laid-Open No. 5-312521 describes a target marker in which a ring-shaped mark having the largest area and five circular marks having different areas from one another are arranged on a base. .
[0004]
In the target marker of this known example, since the types of a plurality of marks constituting the target marker are identified by shape and size, the difference in size cannot be recognized particularly when the target marker is imaged obliquely with a visual sensor. The mark may be difficult to identify.
[0005]
In this known example, color is not particularly mentioned. However, since the mark is identified by the shape and size, it is considered that one of the base and the mark is white and the other is black. However, with such a black and white target marker, for example, when considered to be applied to a robot working in outer space, the marker is reflected by sunlight, and the marker itself can be identified from surrounding objects, It is expected that the accuracy in identifying marks will be significantly reduced.
[0006]
[Problems to be solved by the invention]
As described above, in the target marker in which marks of different shapes and sizes are arranged on the base, it is difficult to identify the mark due to the angular positional relationship between the marker and the visual sensor, or it is applied to a robot used in outer space. In this case, there is a problem that it is difficult to identify the target marker and each mark due to the reflection of sunlight.
[0007]
An object of the present invention is to make it easy to identify a mark regardless of the angular positional relationship with a visual sensor, and to be able to identify the target marker without being affected by the reflection of sunlight.Position measurement method that can easily and reliably measure the relative position of an objectIs to provide.
[0009]
Another object of the present invention is to provide a robot system capable of performing a predetermined operation by reliably grasping an object based on a result of relative position measurement of the object by a target marker.
[0010]
[Means for Solving the Problems]
In order to solve the above problems, the present invention relates toThe position measurement method isA base colored in a first color, and three or more marks arranged on the base, at least one colored in the second color and at least one colored in the third color. HaveA target marker is placed on a positioning target, and the target marker is imaged by a color visual sensor such as a stereo color CCD camera to obtain a color image. Based on the first to third components in the color image Measure the position of the object. In this position measurement, coarse position measurement based on the first color component is first performed, and then fine position measurement including the posture of the object is performed based on the second and third color components.
[0012]
Furthermore, the present invention provides a robot system in which a target object is gripped by a tip of a robot arm and performs a predetermined operation. The target marker is set on the target, and the target marker is detected by a color visual sensor installed near the tip of the robot arm. To obtain a color image, input the obtained color image to the image processing unit, measure the position of the object based on the components of the first to third colors in the color image, and The robot arm is driven and controlled based on the position measurement result of the object by the processing unit.
[0013]
Here, the image processing unit includes the rough position measurement of the object based on the first color component in the color image and the posture of the object based on the second and third color components in the color image. In the robot arm drive control means, after the coarse positioning of the gripping part for gripping the object of the robot arm based on the coarse position measurement result, the robot arm drive control means performs the robot arm drive control means based on the precise position measurement result. The robot arm may be driven and controlled to perform precise positioning.
[0014]
More specifically, in the coarse position measurement, specifically, a color image obtained by imaging a target marker is compared with a reference color pattern registered in advance, and is within the range of the reference color pattern of the color image. Color pattern matching is performed so that only the same color area as the reference color pattern is included, and the color histogram of the color image is created at the position matched by this color pattern matching, and the brightness of the base color component of the marker in the image And extract the area of the same brightness range as the brightness of this color component from the color image, and extract the image of the base part of the marker by calculating the logical product of the image of the extracted area and the color image The center of gravity of the target marker is calculated from this center of gravity and the center of gravity of the color vision sensor. It calculates the position of the ie object as the three-dimensional position consisting of X-Y-Z coordinates.
[0015]
On the other hand, in fine position measurement, for example, color pattern matching is performed on a color image obtained by imaging a target marker in the same way as in rough position measurement, and a color histogram of the color image is created at the position matched by this color pattern matching. To determine the brightness of the base color component of the marker in the image, extract an area in the same brightness range as the brightness of the red component, and calculate the logical product of the extracted area and the entire color image. Then, an image of the first color area of the target marker, that is, an image of the base area is extracted, an outline of the image of the area is obtained, the base area is identified, and the color image in the base area is An image of a mark portion colored in the second color and the third color is extracted and binarized by RGB-HLS conversion. To the center of gravity of the image, i.e., the 3-dimensional coordinates of the center of each of the marks calculated, obtaining the three-dimensional center of the entire marked as the center of the target marker.
[0016]
Then, after obtaining a plane passing through the center of each mark, obtaining a normal vector perpendicular to the plane and passing through the center of the target marker, the second vector is obtained as two vectors perpendicular to the normal vector. A vector in the Y direction from the center of the two colored marks, and a vector in the X direction from the center of the mark colored in the second color and the center of the mark colored in the third color adjacent thereto. By obtaining each, the position of the object is measured as the relative distance and posture of the target marker from the color visual sensor.
[0017]
Thus, in the present invention, on the base colored in the first color, at least one mark is colored in the second color and at least one other color is colored in the third color. It is possible to configure a target marker that can be easily identified regardless of the angular positional relationship with the visual sensor, and can be identified without being affected by the reflection of sunlight like a black and white target marker, Further, it is possible to easily and surely measure the relative position of the object using the target marker, and further, a robot system that reliably grasps the object based on the relative position measurement result and performs a predetermined operation. Can be built.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a plan view showing a configuration of a target marker according to an embodiment of the present invention.
The target marker 1 is installed on a target object (not shown) and is used for position measurement of the target object. The target marker 1 is a rectangular (square in this example) plate-like marker base 2 and a surface of the marker base 2. It consists of marks 3a, 3b, 3c, 3d arranged at four corners. Here, the entire surface of the marker base 2 or the surface on which the marks 3a, 3b, 3c, 3d are arranged is colored in a first color, for example, red (R). The reason why the surface of the marker base 2 is colored in red as described above is that the color of the marker base 2 is used for rough relative position measurement and positioning (coarse position measurement / positioning) of the object on which the marker base 2 is installed. This is because it is desirable that the color has the highest visibility in outer space.
[0019]
On the other hand, the marks 3a, 3b, 3c, and 3d are colored in a plurality of colors different from the marker base 2. Specifically, the marks 3a and 3b adjacent to each other along the right side of the marker base 2 in the figure are The mark 3c, 3d adjacent to the left side of the marker base 2 in the drawing is colored in a second color, for example, yellow (Y), and colored in a third color, for example, green (G).
[0020]
The specific shape and dimensions of each part of the target marker 1 are exemplified. For example, the marker base 2 is a square having a side length of about 30 mm, and the marks 3a, 3b, 3c, 3d are circular having a diameter of about 6 mm. Further, the distance between the marks 3a, 3b, 3c, and 3d in the direction along the side of the marker base 2 is about 20 mm.
[0021]
The marks 3 a, 3 b, 3 c, 3 d are formed on, for example, a thin sheet so as not to protrude from the surface of the marker base 2, and are attached to the marker base 2 or printed directly on the surface of the marker base 2. It is desirable. By forming the marks 3a, 3b, 3c, and 3d so as not to protrude from the surface of the marker base 2 as described above, the marks 3a, 3b, 3c, 3d There will be no obstacles to movement. In addition, the marks 3a, 3b, 3c, and 3d have a circular shape, that is, an isotropic shape in the example of the figure, but an anisotropic shape such as a quadrangle, a triangle, an ellipse, or the like, that is, a shape having directionality. There may be.
[0022]
2, the target marker 1 shown in FIG. 1 is attached to the object 18, the relative position of the object 18 is measured with respect to the robot arm 11, and the robot arm 11 is positioned relative to the object 18 based on the measurement. 1 shows a configuration of a robot system that holds a handle and performs a predetermined operation such as transportation and assembly. This robot system can of course be used on the ground, but is particularly suitable for use in outer space.
[0023]
In FIG. 2, the robot arm 11 has six joint portions 13a, 13b, 13c, 13d, 13e, 13f, an upper arm 14, and a lower arm 15 so as to have six degrees of freedom on the robot base 12. Yes. Further, an end effector 16 for holding a handle 19 of the object 18 and performing a predetermined work is provided at the tip of the robot arm 11.
[0024]
The joint portions 13a, 13b, 13c, 13d, 13e, and 13f will be further described. The joint portion 13a is a joint axis θ1 (first axis) of the roll axis of the robot base 12, and the joint portion 13b is a joint of the pitch axis of the lower arm 15. The axis θ2 (second axis), the joint portion 13c is the pitch axis joint axis θ3 (third axis) of the upper arm 14, the joint portion 13d is the pitch axis joint axis θ4 (fourth axis) of the end effector 16, and the joint portion 13e. Is a joint axis θ5 (fifth axis) of the yaw axis of the end effector 16, and the joint part 13f has a joint axis θ6 (sixth axis) of the roll axis of the end effector 16, respectively. By being rotationally driven around the rotation axis, the position / posture of the tip of the robot arm 11 can be changed.
Further, a position sensor and an angle sensor (not shown) are attached to the joint portions 13a, 13b, 13c, 13d, 13e, and 13f.
[0025]
A color visual sensor 17 is attached to the end effector 16. The color visual sensor 17 is constituted by, for example, a stereo color CCD camera, and acquires a color image including the target marker 1 attached to the object 18, that is, a color image (for example, RGB image) of the target marker 1 and its peripheral portion. Then, a color image signal is output to the control device 21.
[0026]
As shown in FIG. 3, the control device 21 includes an image processing unit 22 that processes a color image signal input from the color visual sensor 17, a drive control unit 23 that receives an output signal from the image processing unit 22, and a drive It is configured by a driving device 24 that is controlled by the control unit 23 to rotationally drive the joint portions 13a, 13b, 13c, 13d, 13e, and 13f.
[0027]
Next, the operation of the robot system according to this embodiment will be described.
First, the color visual sensor 17 attached to the tip of the robot arm 11 images the target marker 1 on the object 18 to obtain an RGB image including the target marker 1. The image signal of the RGB image obtained by the color visual sensor 17 is input to the control device 21. The image signal input to the control device 21 is processed by the image processing unit 22, and the relative position of the target marker 1 with respect to the robot arm 11, that is, the relative position of the object 18 is measured.
[0028]
The drive device 24 is controlled by the drive control unit 23 based on the measurement result of the relative position, whereby the joint portions 13a, 13b, 13c, 13d, 13e, and 13f are rotationally driven, and the robot arm 11 is positioned. Thereafter, the handle 19 of the object 18 is gripped by the end effector 16, and a predetermined operation such as transportation and assembly of the object 18 is performed.
[0029]
In this embodiment, measurement of the relative position of the object 18 and positioning of the robot arm 11 are performed in the order of the coarse position measurement / positioning mode and the fine position measurement / positioning mode. Hereinafter, detailed procedures in each mode will be described.
[0030]
(Coarse position measurement / positioning mode)
In the coarse position measurement / positioning mode, for example, when the dimension of each part of the target marker 1 is the above example (particularly, when the length of one side of the marker base 2 is 30 mm), the distance from the color visual sensor 17 to the target marker 1 Is used when the distance is 200 mm or more. FIG. 4 shows a processing procedure in the coarse position measurement / positioning mode.
[0031]
In this coarse position measurement / positioning mode, first, a color image signal obtained by capturing an image with the color visual sensor 17 formed of a stereo color CCD camera directed toward the target marker 1, that is, an RGB image is captured (step S11).
[0032]
Next, color pattern matching, that is, as shown in FIG. 5, the captured RGB image 40 is compared with a reference color pattern (a color pattern having the same color as the marker base 2 and having a predetermined shape) 41 registered in advance. Then, the robot arm 11 is positioned so that the region of the same color as the reference color pattern 41 is included in the range of the reference color pattern 41 of the RGB image 40 (step S12). In this example, the color of the reference color pattern 41 is set to red because the marker base 2 is red. Further, the shape of the reference color pattern 41 is a rectangle in FIG. 5, but may be a circle or other shapes.
[0033]
Next, in a state in which the robot arm 11 is positioned so that the region matched with the color pattern matching in step S12, that is, the region of only the same color as the reference color pattern 41 is included in the range of the reference color pattern 41 of the RGB image 40. As shown in FIG. 6, a color histogram of the RGB image 40 is created, and the brightness of the R (red) component, which is the color component of the marker base 2 in the RGB image 40, is examined (step S13). In the color histogram of FIG. 6, the horizontal axis represents brightness (luminance) and the vertical axis represents frequency. Brightness (luminance) varies depending on the color component, and in this example, the R (red) component has the maximum luminance.
[0034]
Next, as shown in FIG. 7, a region having the same brightness range as the brightness of the red component obtained in step S13 is extracted from the RGB image 40, and the logical product of the image of the extracted region and the RGB image is calculated. Thus, an image of the red region 42 of the target marker 1, that is, the marker base 2 portion is extracted (step S14).
[0035]
Next, the center of gravity 43 of the red region 42 (marker base 2 portion) of the target marker 1 extracted in step S14 is calculated (step S15). The center of gravity 43 can be calculated by using various known image processing techniques. For example, with respect to the image of the red region 42, the weighted average of the X coordinate values according to the number of pixels in the Y direction perpendicular to the X direction. And the average value is taken as the center of gravity in the X direction (X coordinate of the center of gravity 43). Similarly, in the Y direction, a weighted average of Y coordinate values corresponding to the number of pixels in the X direction perpendicular to the Y direction is taken. The center of gravity in the direction (Y coordinate of the center of gravity 43) may be used.
[0036]
Next, from the center of gravity (center between the optical axis of the left camera and the optical axis of the right camera) of the stereo color CCD camera as the color visual sensor 17, and the center of gravity 43 of the marker base 2 calculated in step S15, the robot The relative position of the target marker 1 with respect to the arm 11 is calculated as a three-dimensional position composed of XYZ coordinates (step S16). Here, among the XYZ coordinates representing the relative position (three-dimensional position) of the target marker 1, X and Y can be obtained as the XY coordinates of the barycentric position 43 of the marker base 2 in the RGB image. Z can be obtained as the distance between the center of gravity of the stereo color CCD camera as the color visual sensor 17 and the center of gravity 43 of the marker base 2 by the principle of triangulation.
[0037]
Through the above steps S11 to S16, the approximate relative position of the target marker 1 with respect to the robot arm 11 is obtained. That is, the coarse position measurement of the relative position of the object 18 with respect to the robot arm 11 is performed.
[0038]
Therefore, the tip of the robot arm 11 (end effector 16) is then determined based on the current position (three-dimensional position) of the robot arm 11 and the command position generated in advance based on the relative position (three-dimensional position) of the target marker 1. Only positioning (coarse positioning) is performed (step S17).
[0039]
Specifically, the base coordinates calculated from the output of a position sensor (not shown) that detects the positions of the joints 13a, 13b, 13c, 13d, 13e, and 13f of the robot arm 11 in the drive control unit 23 in the control device 21. Position of the robot arm 11 in the system (coordinate system based on the robot base 12) (Σbase)baseTtipThe position of the color visual sensor 17 in the arm tip coordinate system (coordinate system based on the position of the end effector 16 that is the tip of the robot arm 11) (Σtip) determined by the attachment state of the color visual sensor 17 to the robot arm 11tipTcameraThe arm tip position command indicating the target position of the tip of the robot arm 11 usingbaseTtip demandIs calculated by the following equation.
baseTtip demand=tipTcameracameraTmarkermarkerTtip demand Furthermore, the arm tip position command calculated in this waybaseTtip demandBased on the above, an arm tip speed command indicating the target speed of the tip of the robot arm 11 is generated.
[0040]
In the coarse position measurement / positioning mode, as described above, only the relative position of the target marker 1 in the visual sensor coordinate system (coordinate system based on the position of the color visual sensor 17) (Σcamera) is measured. Posture is not measured. Accordingly, the position of the target marker 1 in the visual sensor coordinate system (Σcamera) measured using the color visual sensor 17.cameraTmarker, And an arm tip position command in a marker coordinate system (a coordinate system based on the position of the target marker 1) (Σmarker) commanded in advancemarkerTtip demandFor the posture term, the arm tip speed command is generated on the assumption that the target marker 1 is directly facing the color visual sensor 17.
[0041]
That is, the posture term of the target marker 1 in the visual sensor coordinate system (Σcamera), the arm tip position command in the marker coordinate system (Σmarker)markerTtip demandAre calculated as facing each coordinate system (Σcamera) and (Σmarker).
[0042]
The arm tip speed command thus generated is input from the drive control unit 22 in the control device 21 to the drive device 23, whereby the robot arm 11 is roughly positioned.
[0043]
(Precise position measurement / positioning mode)
The fine position measurement / positioning mode is a distance from the color visual sensor 17 to the target marker 1 when, for example, the dimensions of each part of the target marker 1 are the above-described example (particularly, when the length of one side of the marker base 2 is 30 mm) Is used when approaching within 200 mm. Accordingly, if the distance from the color visual sensor 17 to the target marker 1 is within 200 mm in the initial state of the robot system 11, the above-described coarse position measurement / positioning mode is omitted, and only the fine position measurement / positioning mode is used.
[0044]
FIG. 8 shows a processing procedure in the fine position measurement / positioning mode. In this fine position measurement / positioning mode, the processes in steps S21 to S23 are the same as the processes in steps S11 to S13 in the coarse position measurement / positioning mode shown in FIG.
[0045]
That is, an RGB image acquired by the color visual sensor 17 is captured (step S21), color pattern matching is performed on this RGB image (step S22), and a color histogram is created at this matching position to obtain the color of the marker base 2. The brightness of the red component is determined (step S23).
Next, in the present embodiment, an area in the same brightness range as the brightness of the red component determined in step S23 is extracted from the RGB image 40, and a logical product of the extracted area and the RGB image 40 is calculated to obtain a target. An image of the red region 42 (marker base 2 region) of the marker 1 is extracted, and the contour of the image of the red region 42 is obtained to identify the red region 42, that is, the marker base 2 region (step S24).
[0046]
In the fine position measurement / positioning mode, the image inside the area of the marker base 2 identified in step S24 is subjected to RGB-HLS (hue) conversion, so that the yellow area, that is, the mark 3a, The image of the part 3b is extracted and binarized (step S25).
[0047]
Next, the center of gravity of the image of the binarized yellow region obtained in step S25, that is, the center of each of the marks 3a and 3b is obtained (step S26).
[0048]
Next, as in step S25, the image inside the marker base 2 area identified in step S24 is subjected to RGB-HLS (hue) conversion, so that the green area, that is, the marks 3c and 3d, as shown in FIG. Is extracted and binarized (step S27).
[0049]
Next, as in step S26, the center of gravity of the binarized green region image obtained in step S27, that is, the center of each of the marks 3c and 3d is obtained (step S28).
[0050]
The processes in steps S25 to S28 are performed on the RGB images acquired by both the left and right cameras of the stereo color CCD camera constituting the color visual sensor 17. Thereby, the center of each of the four marks 3a, 3b, 3c, 3d is obtained as a three-dimensional coordinate. Therefore, the three-dimensional center of the marks 3a, 3b, 3c, 3d as a whole is obtained as the center of the target marker 1 from the three-dimensional coordinates of the centers of the four marks 3a, 3b, 3c, 3d (step S29).
[0051]
Next, a plane passing through the center of each of the four marks 3a, 3b, 3c, 3d is obtained by, for example, the least square method, and a normal vector that passes through the center of the target marker 1 that is perpendicular to this plane and obtained in step S29. Is obtained (step S30).
[0052]
Next, two vectors perpendicular to the normal vector are obtained (step S31). That is, a vector in the Y direction (vertical direction) is obtained from the centers of the two yellow marks 3a and 3b obtained in step S26, the center of one yellow mark (for example, the mark 3a), and the mark 3a A vector in the X direction (horizontal direction) is obtained from the center of the green mark (for example, mark 3d) adjacent along the same side of the marker base 2.
[0053]
Through the above steps S21 to S31, the relative position (relative distance and posture) of the target marker 1 from the color visual sensor 17 is obtained.
Then, based on the current position (three-dimensional position) of the robot arm 11 and the relative distance and posture of the target marker 1 obtained in steps S21 to S33, the robot base 12 of the tip of the robot arm 11 (end effector 16). Is used as a reference, and the entire robot arm 11 is positioned, that is, precisely positioned by this command position (step S32).
[0054]
Specifically, the base coordinates calculated from the output of an angle sensor (not shown) that detects the angles of the joint portions 13a, 13b, 13c, 13d, 13e, and 13f of the robot arm 11 in the drive control unit 23 in the control device 21. Position of arm in the system (coordinate system based on the robot base 12) (Σbase)baseTtipThe position of the color visual sensor 17 in the arm tip coordinate system (coordinate system based on the position of the end effector 16) (Σtip) determined by the attachment state of the color visual sensor 17 to the robot arm 11tipTcameraAnd the position of the target marker 1 in the visual sensor coordinate system (coordinate system based on the color visual sensor 17) (Σcamera) measured using the color visual sensor 17cameraTmarkerAnd an arm tip position command in a marker coordinate system (a coordinate system based on the position of the target marker 1) (Σmarker) commanded in advancemarkerTtip demandCommand the arm tip positionbaseTtip demandIs calculated by the following equation.
baseTtip demand=baseTtiptipTcameracameraTmarkermarkerTtip demand
Furthermore, this arm tip position commandbaseTtip demandBased on the above, an arm tip speed command is generated. The arm tip speed command thus generated is input from the drive control unit 22 in the control device 21 to the drive device 23, whereby the robot arm 11 as a whole is precisely positioned.
[0055]
As described above, according to the present embodiment, the marker base 2 in which the target marker 1 is colored in the first color (for example, red) and the plurality of markers 3a, 3b, 3c, 3d installed on the marker base 2 are used. The marks 3a and 3b adjacent to each other along the right side of the marker base 2 are colored in a second color (for example, yellow), and the marks 3c and 3d adjacent to each other along the left side of the marker base 2 Is colored in a third color (eg green).
[0056]
Then, a color image (for example, RGB image) of the target marker 1 is acquired by the color visual sensor 17, and the difference between the color of the marker base 2 and the marks 3a, 3b, 3c, 3d and the marks 3a, 3b, 3c, The coarse position and the fine position of the object 18 are measured using the 3d color difference.
[0057]
Therefore, for example, the target marker 1 is in an oblique positional relationship when viewed from the visual sensor 17, and the marker base 2 and the marks 3a, 3b, 3c, and 3d are, for example, deformed into a circular shape and appear as an ellipse, or the size relationship between the marks. Even when they look different, the marker base 2 and the marks 3a, 3b, 3c, 3d can be identified without being affected by these effects.
[0058]
Further, since the marker base 2 and the marks 3a, 3b, 3c, and 3d are colored with unique colors (chromatic colors), for example, even when applied to a robot system that is mounted on a satellite and used in space, These can be reliably identified without being affected by the reflection of sunlight.
[0059]
Therefore, the position measurement of the object 18 based on the color image of the target marker 1 acquired by the color visual sensor 17 can be performed with high reliability, and the object gripping operation by the robot arm 11 of the robot system is reliably performed. be able to.
[0060]
The present invention is not limited to the above embodiment, and can be implemented with various modifications. For example, the target marker can be variously modified as shown in FIG. 11 in addition to the configuration shown in FIG.
[0061]
FIG. 11A shows an example in which one of the two green marks 3c and 3d in the target marker 1 shown in FIG. 1 is omitted, and FIG. 11B shows the yellow color in the target marker 1 shown in FIG. This is an example in which one of the two marks 3a and 3b is omitted. Thus, the number of marks in the target marker may be three, and at least one of the marks may be the second color and at least one of the other may be the third color.
[0062]
FIG. 11C shows an example in which the target marker 1 of FIG. 11A is deformed and three marks 3a, 3b, 3c are respectively arranged at three vertices of an equilateral triangle. In this case, when two vectors perpendicular to the normal vector are obtained in step S31 in the fine position measurement / positioning mode described above, for example, two vectors obtained in step S26 are obtained in the Y direction (vertical direction). The vector between the centers of the yellow marks 3a and 3b may be obtained by converting into a vector in the Y direction (vertical direction).
[0063]
FIG. 11D shows an example in which the marker base 2 has a circular shape. In this case, for example, in the above-described coarse position measurement / positioning mode and fine position measurement / positioning mode, step S15 for calculating the centroid 43 of the red region 42 (the region of the marker base 2) of the target marker 1 is an image of the red region 42. The center of gravity can be obtained by known image processing. Further, the shape of the marker base 2 may be a rectangle, a diamond, an ellipse, or the like.
[0064]
Furthermore, in the target marker described above, the first color that is the marker base color is red, and the second and third colors that are the mark colors are yellow and green. Needless to say, it can be changed.
[0065]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a target marker that can be easily identified regardless of the angular positional relationship with the visual sensor and that can be identified without being affected by the reflection of sunlight. To provide a robot system that can easily and reliably measure the relative position of an object using this target marker, and that reliably holds the object based on the relative position measurement result and performs a predetermined operation. Can do.
[Brief description of the drawings]
FIG. 1 is a plan view showing a configuration of a target marker according to an embodiment of the present invention.
FIG. 2 is a diagram showing a schematic configuration of a robot system according to the embodiment.
FIG. 3 is a block diagram showing the configuration of the control device shown in FIG.
FIG. 4 is a flowchart showing a processing procedure of a coarse position measurement / positioning mode in the embodiment;
FIG. 5 is a diagram for explaining color pattern matching processing in step S12 in FIG. 4;
6 is a diagram showing an example of a color histogram created in step S13 in FIG.
7 is a diagram for explaining the processing of steps S14 to S15 in FIG. 4;
FIG. 8 is a flowchart showing a processing procedure in a precision position measurement / positioning mode in the embodiment;
FIG. 9 is a diagram for explaining the processing of steps S25 to S26 in FIG. 8;
FIG. 10 is a diagram for explaining the processing of steps S27 to S28 in FIG. 8;
FIG. 11 is a plan view showing a configuration of a target marker according to another embodiment of the present invention.
[Explanation of symbols]
1 ... Target marker
2. Marker base (red)
3a, 3b ... mark (yellow)
3c, 3d ... mark (green)
11 ... Robot arm
12 ... Robot base
13a-13f ... Joint part
14 ... Upper arm
15 ... Lower arm
16 ... End effector (arm tip)
17 ... Color visual sensor
18 ... Object
19 ... handle
21 ... Control device
22. Image processing unit
23 ... Drive control unit
24 ... Drive device
40 ... RGB image
41 ... Standard color pattern
42 ... Red region (marker base part)
43 ... Red center of gravity

Claims (2)

第1の色に着色されたベース及び該ベース上に配置され、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークからなるターゲットマーカを位置決めの対象物に設置し、
前記ターゲットマーカを撮像してカラー画像を取得するステップと、
前記カラー画像中の前記第1の色の成分に基づいて前記対象物の粗位置計測を行うステップと、
前記カラー画像中の前記第1乃至第3の色の成分に基づいて前記対象物の姿勢を含めた精位置計測を行うステップとを含むことを特徴とする位置計測方法。
A target composed of a base colored in a first color and three or more marks arranged on the base, at least one colored in the second color and at least one other colored in the third color Place the marker on the positioning object,
Capturing a color image by imaging the target marker;
Performing coarse position measurement of the object based on the first color component in the color image ;
And a step of performing fine position measurement including the posture of the object based on the first to third color components in the color image .
対象物をロボットアームの先端で把持して所定の作業を行うロボットシステムにおいて、
前記対象物に設置された第1の色に着色されたベース及び該ベース上に配置され、少なくとも一つは第2の色に、他の少なくとも一つは第3の色にそれぞれ着色された3個以上のマークからなるターゲットマーカと、
前記ロボットアームの先端近傍に設置され、前記ターゲットマーカを撮像してカラー画像を取得するカラー視覚センサと、
前記カラー視覚センサにより取得されたカラー画像中の前記第1の色の成分に基づいて前記対象物の粗位置計測を行った後、前記カラー画像中の前記第1乃至第3の色の成分に基づいて前記対象物の姿勢を含めた精位置計測を行うための画像処理部と、
前記粗位置計測結果に基づいて前記ロボットアームの前記対象物を把持する把持部の粗位置決めを行った後、前記精位置計測結果に基づいて前記ロボットアームの精位置決めを行うように前記ロボットアームを駆動制御する駆動制御手段とを有することを特徴とするロボットシステム。
In a robot system that grips an object with the tip of a robot arm and performs a predetermined work,
A base colored in the first color placed on the object and arranged on the base, at least one colored in the second color and at least one other colored in the third color 3 A target marker consisting of more than one mark,
A color visual sensor installed near the tip of the robot arm and capturing a color image by imaging the target marker;
After performing rough position measurement of the object based on the first color component in the color image acquired by the color visual sensor, the first to third color components in the color image are measured. An image processing unit for performing precise position measurement including the posture of the object based on the
The robot arm is configured to perform fine positioning of the robot arm based on the precise position measurement result after performing rough positioning of a gripping portion that grips the object of the robot arm based on the coarse position measurement result. A robot system comprising drive control means for driving control.
JP2000263876A 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system Expired - Fee Related JP3626400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000263876A JP3626400B2 (en) 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000263876A JP3626400B2 (en) 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system

Publications (2)

Publication Number Publication Date
JP2002071313A JP2002071313A (en) 2002-03-08
JP3626400B2 true JP3626400B2 (en) 2005-03-09

Family

ID=18751366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000263876A Expired - Fee Related JP3626400B2 (en) 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system

Country Status (1)

Country Link
JP (1) JP3626400B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4825964B2 (en) * 2003-08-18 2011-11-30 独立行政法人 宇宙航空研究開発機構 Non-contact measuring device
JP2005337870A (en) * 2004-05-26 2005-12-08 Kyoto Univ Detection system and labeled object
JP4599184B2 (en) * 2005-02-02 2010-12-15 キヤノン株式会社 Index placement measurement method, index placement measurement device
JP2006346790A (en) * 2005-06-15 2006-12-28 Toyota Motor Corp Robot, and interference discriminating method and interference discriminating device
JP5207719B2 (en) * 2007-12-05 2013-06-12 株式会社トプコン Label with color code, color code extraction means, and three-dimensional measurement system
JP5083715B2 (en) * 2008-03-10 2012-11-28 株式会社Ihi 3D position and orientation measurement method and apparatus
JP5019478B2 (en) * 2008-09-26 2012-09-05 独立行政法人日本原子力研究開発機構 Marker automatic registration method and system
JP2010243405A (en) * 2009-04-08 2010-10-28 Hiroshima Univ Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program
JP5612916B2 (en) 2010-06-18 2014-10-22 キヤノン株式会社 Position / orientation measuring apparatus, processing method thereof, program, robot system
JP5561109B2 (en) * 2010-11-09 2014-07-30 株式会社デンソー Apparatus and method for measuring three-dimensional dimensions
JP5961938B2 (en) * 2011-07-15 2016-08-03 国立大学法人山梨大学 Monospectral marker and method and apparatus for detecting the same
CZ306033B6 (en) * 2012-02-13 2016-07-07 ÄŚVUT v Praze, Fakulta strojnĂ­ Method of setting position of transfer arms on a supporting frame and transfer arms for gripping technological or measuring means
JP5778311B1 (en) * 2014-05-08 2015-09-16 東芝機械株式会社 Picking apparatus and picking method
CN107367270B (en) * 2017-08-30 2023-07-21 中冶建工集团有限公司 Measurement template for establishing indoor clear height measurement point and use method thereof
US10839547B2 (en) 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
US10529074B2 (en) 2017-09-28 2020-01-07 Samsung Electronics Co., Ltd. Camera pose and plane estimation using active markers and a dynamic vision sensor
CN110956660B (en) * 2018-09-26 2023-10-10 深圳市优必选科技有限公司 Positioning method, robot, and computer storage medium
JP7521737B2 (en) 2020-04-03 2024-07-24 学校法人法政大学 Marking Identification Processing System and Concrete Compaction Traceability System

Also Published As

Publication number Publication date
JP2002071313A (en) 2002-03-08

Similar Documents

Publication Publication Date Title
JP3626400B2 (en) Method for measuring position of object using target marker and robot system
EP1555507B1 (en) Three-dimensional visual sensor
US8447097B2 (en) Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
JP4757142B2 (en) Imaging environment calibration method and information processing apparatus
EP1477765B1 (en) Method of detecting object of detection and device therefor, and method of inspecting object of inspection and device therefor
EP2788717B1 (en) Position and orientation determination in 6-dof
EP3032818B1 (en) Image processing device
JP5045556B2 (en) Robot hand posture detection system
US9613421B2 (en) Optical tracking
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
WO2005088250A1 (en) Method and system of measuring an object in a digital image
WO2017133756A1 (en) Robot system calibration
JP2000094374A (en) Picking device
WO2018169467A1 (en) A vehicle with a crane with object detecting device
JP5019478B2 (en) Marker automatic registration method and system
CN114341930A (en) Image processing device, imaging device, robot, and robot system
JP2003065714A (en) Guiding device and guiding method for camera calibration, and camera calibration apparatus
WO2018173192A1 (en) Articulated robot parallelism determination method and articulated robot inclination adjustment device
JPH1185981A (en) Distance measuring origin recognition device for mobile object
JP3511551B2 (en) Robot arm state detection method and detection system
Gleichauf et al. Sensor fusion of a 2D laser scanner and a thermal camera
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
JP2546037B2 (en) Target mark
JP2616225B2 (en) Relative positioning method
JP3192779B2 (en) Position / posture measuring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees