JP2002071313A - Target marker, method for measuring location of object for using the same, and robot system - Google Patents

Target marker, method for measuring location of object for using the same, and robot system

Info

Publication number
JP2002071313A
JP2002071313A JP2000263876A JP2000263876A JP2002071313A JP 2002071313 A JP2002071313 A JP 2002071313A JP 2000263876 A JP2000263876 A JP 2000263876A JP 2000263876 A JP2000263876 A JP 2000263876A JP 2002071313 A JP2002071313 A JP 2002071313A
Authority
JP
Japan
Prior art keywords
color
marker
base
image
target marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000263876A
Other languages
Japanese (ja)
Other versions
JP3626400B2 (en
Inventor
Yasushi Fukuda
靖 福田
Jiyunji Ooaki
準治 大明
Fumio Ozaki
文夫 尾崎
Yasunari Takase
康徳 高瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000263876A priority Critical patent/JP3626400B2/en
Publication of JP2002071313A publication Critical patent/JP2002071313A/en
Application granted granted Critical
Publication of JP3626400B2 publication Critical patent/JP3626400B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a target marker, capable of easily distinguishing marks independently of the relation of angular location with a visual sensor and conducting distinguishing, without being affected by the reflection of the sunlight. SOLUTION: The target marker 1, arranged at an object and used for measuring the location of the object, is constituted of a marker base 2 given a first color (e.g., red) and a plurality of markers 3a-3d mounted onto the marker base 2. The markers 3a and 3b adjacent along the right side of the marker base 2 are given a second color (e.g., yellow), and the markers 3c and 3d adjacent along the left side of the marker base 2 are given a third color (e.g., green).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ターゲットマーカ
とこれを用いた対象物の位置計測方法及びロボットシス
テムに関する。
The present invention relates to a target marker, a method for measuring a position of an object using the target marker, and a robot system.

【0002】[0002]

【従来の技術】一般に、種々の組立作業などをロボット
によって行う場合、ロボットアームの位置決めのために
視覚センサで対象物の画像を取得し、その画像を2値化
した後に輪郭(エッジ)抽出を行って輪郭の線画像を求
め、予め与えられた対象物の情報とのマッチングを行っ
て、ロボットアームに対する対象物の相対位置(姿勢も
含む)を求める方法が用いられている。
2. Description of the Related Art In general, when performing various assembling operations by a robot, an image of an object is acquired by a visual sensor for positioning a robot arm, and the image is binarized, and then contours (edges) are extracted. A method of obtaining a relative line image (including a posture) of the target object with respect to the robot arm is performed by obtaining a contour line image and performing matching with predetermined information of the target object.

【0003】この方法では、対象物の位置計測精度が対
象物の形状に大きく左右されるという問題点がある。こ
のため、対象物に位置検出用マークが形成されたターゲ
ットマーカと呼ばれる部材を設置し、このターゲットマ
ーカの画像を視覚センサで取得して、画像処理により対
象物の相対位置を求める方法が提案されている。そのよ
うな例として、例えば特開平5−312521号公報に
は、ベース上に面積最大のリング状マーク及び一つだけ
他と面積の異なる5個の円形マークを配置したターゲッ
トマーカが記載されている。
[0003] In this method, there is a problem that the position measurement accuracy of the object largely depends on the shape of the object. For this reason, a method has been proposed in which a member called a target marker having a position detection mark formed on an object is installed, an image of the target marker is acquired by a visual sensor, and the relative position of the object is obtained by image processing. ing. As such an example, for example, Japanese Patent Application Laid-Open No. Hei 5-31521 describes a target marker in which a ring-shaped mark having the largest area and five circular marks having only one area different from the others are arranged on a base. .

【0004】この公知例のターゲットマーカでは、ター
ゲットマーカを構成する複数のマークの種別を形状と大
きさで識別しているため、特に視覚センサでターゲット
マーカを斜めから撮像した場合、大きさの違いを認識で
きないことがあり、マークの識別が困難となることがあ
る。
In the known target marker, the types of a plurality of marks constituting the target marker are identified by the shape and the size. May not be recognized, and it may be difficult to identify the mark.

【0005】また、この公知例では色については特に言
及していないが、マークを形状・大きさで識別している
ことから、ベースとマークのいずれか一方が白、他方が
黒であると考えられる。しかし、このような白黒のター
ゲットマーカでは、例えば宇宙空間で作業を行うロボッ
トに適用することを考えた場合、マーカが太陽光線に反
射してしまい、マーカ自体を周囲の物体と識別したり、
各マークを識別する際の精度が著しく低下することが予
想される。
[0005] Further, in this known example, the color is not particularly mentioned, but since the mark is identified by the shape and size, it is considered that one of the base and the mark is white and the other is black. Can be However, with such a black-and-white target marker, for example, when applied to a robot that works in outer space, the marker is reflected by sunlight, and the marker itself is identified as a surrounding object,
It is expected that the accuracy in identifying each mark will be significantly reduced.

【0006】[0006]

【発明が解決しようとする課題】上述したように、ベー
ス上に形状や大きさの異なるマークを配置したターゲッ
トマーカでは、マーカと視覚センサとの角度位置関係に
よってマークの識別が困難となったり、宇宙空間で使用
するロボットに適用する場合に、太陽光線の反射により
ターゲットマーカの他との識別及び各マークの識別が困
難になるという問題があった。
As described above, in a target marker in which marks having different shapes and sizes are arranged on the base, it is difficult to identify the mark due to the angular positional relationship between the marker and the visual sensor. When applied to a robot used in outer space, there has been a problem that it is difficult to identify the target marker and other marks by reflection of sunlight.

【0007】本発明の目的は、視覚センサとの角度位置
関係によらずマークの識別が容易であって、また太陽光
線の反射の影響を受けることなく識別が可能なターゲッ
トマーカを提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a target marker which can easily identify a mark irrespective of the angular positional relationship with a visual sensor and can be identified without being affected by the reflection of sunlight. is there.

【0008】また、本発明の他の目的はターゲットマー
カを用いて対象物の相対位置を容易かつ確実に計測でき
る位置計測方法を提供することにある。
It is another object of the present invention to provide a position measuring method capable of easily and reliably measuring a relative position of an object using a target marker.

【0009】本発明のもう一つの目的は、ターゲットマ
ーカによる対象物の相対位置計測結果に基づき対象物を
確実に把持して所定の作業を行うことができるロボット
システムを提供することにある。
It is another object of the present invention to provide a robot system capable of securely holding an object and performing a predetermined operation based on a result of relative position measurement of the object by a target marker.

【0010】[0010]

【課題を解決するための手段】上記の課題を解決するた
め、本発明に係るターゲットマーカは、第1の色に着色
されたベースと、このベース上に配置され、少なくとも
一つは第2の色に、他の少なくとも一つは第3の色にそ
れぞれ着色された3個以上のマークとを有することを特
徴とする。
In order to solve the above-mentioned problems, a target marker according to the present invention is provided with a base colored in a first color and disposed on the base, and at least one of the base markers is provided in a second color. The color is characterized in that at least one other has three or more marks respectively colored in a third color.

【0011】また、本発明に係る位置計測方法は、上記
ターゲットマーカを位置決めの対象物に設置し、このタ
ーゲットマーカを例えばステレオカラーCCDカメラか
らなるカラー視覚センサにより撮像してカラー画像を取
得し、このカラー画像中の第1乃至第3の成分に基づい
て対象物の位置計測を行うことを特徴とする。この位置
計測においては、まず第1の色の成分に基づく粗位置計
測を行い、次に第2及び第3の色の成分に基づいて対象
物の姿勢を含めた精位置計測を行うようにしてもよい。
Further, in the position measuring method according to the present invention, the target marker is set on an object to be positioned, and the target marker is picked up by a color visual sensor composed of, for example, a stereo color CCD camera to obtain a color image. The position measurement of the object is performed based on the first to third components in the color image. In this position measurement, first, a coarse position measurement based on the first color component is performed, and then a fine position measurement including the posture of the object is performed based on the second and third color components. Is also good.

【0012】さらに、本発明は対象物をロボットアーム
の先端で把持して所定の作業を行うロボットシステムに
おいて、上記ターゲットマーカを対象物に設置し、ロボ
ットアームの先端近傍に設置されたカラー視覚センサに
よりターゲットマーカを撮像してカラー画像を取得し、
この取得されたカラー画像を画像処理部に入力して、カ
ラー画像中の第1乃至第3の色の成分に基づく対象物の
位置計測を行い、この画像処理部による対象物の位置計
測結果に基づいてロボットアームを駆動制御するように
したことを特徴とする。
Further, the present invention relates to a robot system for performing a predetermined operation by gripping an object with the end of a robot arm, wherein the target marker is set on the object, and a color visual sensor installed near the end of the robot arm. By capturing a target marker to obtain a color image,
The acquired color image is input to the image processing unit, and the position of the target is measured based on the first to third color components in the color image. The drive control of the robot arm is performed based on this.

【0013】ここで、画像処理部においてはカラー画像
中の第1の色の成分に基づく対象物の粗位置計測と、カ
ラー画像中の第2及び第3の色の成分に基づく対象物の
姿勢を含めた精位置計測を行い、ロボットアームの駆動
制御手段においては、粗位置計測結果に基づいてロボッ
トアームの対象物を把持する把持部の粗位置決めを行っ
た後、精位置計測結果に基づいてロボットアームの精位
置決めを行うようにロボットアームを駆動制御するよう
にしてもよい。
Here, the image processing section measures the coarse position of the object based on the first color component in the color image and the posture of the object based on the second and third color components in the color image. The robot arm drive control means performs coarse positioning of the gripper that grips the object of the robot arm based on the coarse position measurement result, and then performs fine positioning based on the fine position measurement result. The drive of the robot arm may be controlled so as to perform precise positioning of the robot arm.

【0014】より具体的に説明すると、まず粗位置計測
においては、具体的にはターゲットマーカを撮像して取
得したカラー画像を予め登録された基準カラーパターン
と比較し、カラー画像の基準カラーパターンの範囲内に
基準カラーパターンと同一色のみの領域が含まれるよう
にカラーパターンマッチングを行い、このカラーパター
ンマッチングでマッチングした位置においてカラー画像
のカラーヒストグラムを作成して画像中のマーカのベー
スの色成分の明るさを調べ、この色成分の明るさと同じ
明るさの範囲の領域をカラー画像から抜き出し、この抜
き出した領域の画像とカラー画像との論理積を演算する
ことにより、マーカのベースの部分の画像を抽出してそ
の重心を求め、この重心とカラー視覚センサの重心から
ターゲットマーカの相対位置、すなわち対象物の位置を
X−Y−Z座標からなる3次元位置として算出する。
More specifically, in the coarse position measurement, specifically, a color image obtained by imaging a target marker is compared with a reference color pattern registered in advance, and the reference color pattern of the color image is compared. Color pattern matching is performed so that the area includes only the same color as the reference color pattern, and a color histogram of the color image is created at the position matched by the color pattern matching, and the base color component of the marker in the image is created. The brightness of the marker is extracted from the color image, and an area in the same brightness range as the brightness of the color component is extracted from the color image, and the logical product of the image of the extracted area and the color image is calculated. The image is extracted and its center of gravity is calculated, and the target marker is calculated from the center of gravity and the center of the color vision sensor. Relative position, that is calculated as the three-dimensional position as a position of the object from the X-Y-Z coordinates.

【0015】一方、精位置計測においては、例えば粗位
置計測時と同様にターゲットマーカを撮像して取得した
カラー画像ついてカラーパターンマッチングを行い、こ
のカラーパターンマッチングでマッチングした位置にお
いてカラー画像のカラーヒストグラムを作成して画像中
のマーカのベースの色成分の明るさを判定し、この赤色
成分の明るさと同じ明るさの範囲の領域をカラー画像か
ら抜き出し、この抜き出した領域とカラー画像全体との
論理積を演算して、ターゲットマーカの第1の色の領
域、つまりベースの領域の画像を抽出し、この領域の画
像の輪郭を求めてベースの領域を識別して、このベース
の領域内のカラー画像を例えばRGB−HLS変換する
ことにより第2の色及び第3の色にそれぞれ着色された
マークの部分の画像を抽出し二値化してその画像の重
心、すなわち各マークの各々の中心の3次元座標を求
め、マーク全体の3次元的な中心をターゲットマーカの
中心として求める。
On the other hand, in the fine position measurement, for example, in the same manner as in the coarse position measurement, color pattern matching is performed on a color image obtained by imaging a target marker, and a color histogram of the color image is obtained at the position matched by the color pattern matching. Is created, the brightness of the base color component of the marker in the image is determined, an area in the same brightness range as the brightness of the red component is extracted from the color image, and the logic of the extracted area and the entire color image is extracted. The product is calculated to extract an image of the first color region of the target marker, that is, the image of the base region, to identify the outline of the image of this region, to identify the base region, and to determine the color within the base region. An image of a mark portion colored in a second color and a third color by, for example, performing RGB-HLS conversion on the image. Extracted binarization to the centroid of the image, i.e., obtains the three-dimensional coordinates of the center of each of the marks to determine the three-dimensional center of the entire marked as the center of the target marker.

【0016】そして、各マークの各々の中心を通る平面
を求め、この平面に垂直かつターゲットマーカの中心を
通る法線ベクトルを求めた後、この法線ベクトルに対し
て垂直な2つのベクトルとして、第2の色に着色された
二つのマークの中心からY方向のベクトル、また第2の
色に着色されたマークの中心とこれに隣り合う第3の色
に着色されたマークの中心からX方向のベクトルをそれ
ぞれ求めることにより、対象物の位置をカラー視覚セン
サからのターゲットマーカの相対距離及び姿勢として計
測する。
Then, a plane passing through each center of each mark is obtained, and a normal vector perpendicular to this plane and passing through the center of the target marker is obtained. Then, as two vectors perpendicular to this normal vector, A vector in the Y direction from the center of the two marks colored in the second color, and the center of the mark colored in the second color and the X direction from the center of the mark colored in the third color adjacent thereto. , The position of the object is measured as the relative distance and orientation of the target marker from the color vision sensor.

【0017】このように本発明では、第1の色に着色さ
れたベースの上に、少なくとも一つは第2の色に、他の
少なくとも一つは第3の色にそれぞれ着色された3個以
上のマークを設けることにより、視覚センサとの角度位
置関係によらずマークの識別が容易で、しかも白黒のタ
ーゲットマーカのように太陽光線の反射の影響を受ける
ことなく識別が可能なターゲットマーカを構成でき、ま
たこのターゲットマーカを用いて対象物の相対位置を容
易かつ確実に計測することが可能であり、さらに、この
相対位置計測結果に基づき対象物を確実に把持して所定
の作業を行うロボットシステムを構築することができ
る。
As described above, according to the present invention, on the base colored in the first color, at least one is colored in the second color and at least one is colored in the third color. By providing the above mark, it is easy to identify the mark irrespective of the angular positional relationship with the visual sensor, and a target marker that can be identified without being affected by the reflection of sunlight, such as a black and white target marker. It is possible to easily and reliably measure the relative position of the target object by using the target marker, and to perform the predetermined work by securely grasping the target object based on the result of the relative position measurement. A robot system can be constructed.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1は、本発明の一実施形態に係
るターゲットマーカの構成を示す平面図である。このタ
ーゲットマーカ1は、図示しない対象物に設置されてそ
の対象物の位置計測に用いられるものであり、矩形(こ
の例では正方形)板状のマーカベース2と、このマーカ
ベース2の表面上の4隅に配置されたマーク3a,3
b,3c,3dからなる。ここで、マーカベース2は全
表面またはマーク3a,3b,3c,3dの配置された
表面が第1の色、例えば赤色(R)に着色されている。
このようにマーカベース2の表面を赤色に着色する理由
は、本実施形態ではマーカベース2の色は、これが設置
される対象物の大まかな相対位置計測と位置決め(粗位
置計測・位置決め)に使用する関係で、宇宙空間で最も
視認性が高い色であることが望ましいと考えたからであ
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a plan view showing a configuration of a target marker according to one embodiment of the present invention. The target marker 1 is placed on an object (not shown) and used for position measurement of the object, and has a rectangular (square in this example) plate-like marker base 2 and a marker base 2 on the surface of the marker base 2. Marks 3a, 3 arranged at four corners
b, 3c and 3d. Here, the entire surface of the marker base 2 or the surface on which the marks 3a, 3b, 3c, 3d are arranged is colored in a first color, for example, red (R).
The reason why the surface of the marker base 2 is colored red in this embodiment is that the color of the marker base 2 is used for rough relative position measurement and positioning (coarse position measurement / positioning) of an object on which the marker base 2 is installed. The reason is that it is desirable that the color has the highest visibility in outer space.

【0019】一方、マーク3a,3b,3c,3dは、
マーカベース2と異なる複数の色に着色されている、具
体的には、図でマーカベース2の右側の辺に沿って隣り
合うマーク3a,3bは第2の色、例えば黄色(Y)に
着色され、図でマーカベース2の左側の辺に沿って隣り
合うマーク3c,3dは第3の色、例えば緑色(G)に
着色されている。
On the other hand, the marks 3a, 3b, 3c, 3d are
The marks 3a and 3b adjacent to the marker base 2 along the right side in the figure are colored in a second color, for example, yellow (Y). In the figure, the marks 3c and 3d adjacent to each other along the left side of the marker base 2 are colored in a third color, for example, green (G).

【0020】ターゲットマーカ1の各部の具体的な形状
と寸法を例示すると、例えばマーカベース2は一辺の長
さが30mm程度の正方形、マーク3a,3b,3c,
3dは直径が6mm程度の円形である。また、マーク3
a,3b,3c,3dのマーカベース2の辺に沿う方向
の間隔は20mm程度である。
To illustrate the specific shape and dimensions of each part of the target marker 1, for example, the marker base 2 is a square having a side length of about 30 mm, the marks 3a, 3b, 3c, and 3c.
3d is a circle having a diameter of about 6 mm. Mark 3
The distance between the a, 3b, 3c, and 3d in the direction along the side of the marker base 2 is about 20 mm.

【0021】マーク3a,3b,3c,3dは、マーカ
ベース2の表面から突出しないように、例えば薄いシー
ト状に形成されてマーカベース2上に貼り付けられる
か、あるいはマーカベース2の表面に直接プリントされ
ることが望ましい。このようにマーク3a,3b,3
c,3dをマーカベース2の表面から突出しないように
形成することにより、後述するロボットアームで対象物
を把持する際、マーク3a,3b,3c,3dがアーム
の移動に邪魔となるようなことがなくなる。また、マー
ク3a,3b,3c,3dは図の例では円形、すなわち
等方的な形状であるが、四角形、三角形、楕円等のよう
な非等方性の形状、つまり方向性を有する形状であって
もよい。
The marks 3a, 3b, 3c, 3d are formed, for example, in the form of a thin sheet and affixed on the marker base 2 so as not to protrude from the surface of the marker base 2, or directly on the surface of the marker base 2. It is desirable to be printed. Thus, the marks 3a, 3b, 3
By forming c and 3d so as not to protrude from the surface of the marker base 2, the marks 3a, 3b, 3c and 3d may hinder the movement of the arm when gripping an object with a robot arm described later. Disappears. The marks 3a, 3b, 3c, 3d are circular in the example shown in the figure, that is, isotropic, but are anisotropic, such as a square, a triangle, an ellipse, etc., that is, a shape having directionality. There may be.

【0022】図2は、図1のターゲットマーカ1を対象
物18に取り付け、ロボットアーム11に対する対象物
18の相対位置計測と、それに基づくロボットアーム1
1の対象物18に対する位置決めを行い、対象物18の
取っ手19を把持して運搬・組立等の所定の作業を行う
ロボットシステムの構成を示している。このロボットシ
ステムは、地上で使用することももちろん可能である
が、特に宇宙空間での使用に適している。
FIG. 2 shows a state in which the target marker 1 shown in FIG. 1 is attached to an object 18, the relative position of the object 18 with respect to the robot arm 11 is measured, and the robot arm 1 based on the measurement.
1 shows the configuration of a robot system that performs positioning with respect to one target object 18 and grips a handle 19 of the target object 18 to perform predetermined operations such as transportation and assembly. This robot system can of course be used on the ground, but is particularly suitable for use in outer space.

【0023】図2において、ロボットアーム11はロボ
ットベース12上に6自由度を持つように、6個の関節
部13a,13b,13c,13d,13e,13fと
上腕14及び下腕15を有する構成となっている。ま
た、ロボットアーム11の先端には、対象物18の取っ
手19を把持して所定の作業を行うためのエンド・エフ
ェクタ16が設けられている。
In FIG. 2, the robot arm 11 has six joints 13a, 13b, 13c, 13d, 13e, 13f, an upper arm 14 and a lower arm 15 so as to have six degrees of freedom on the robot base 12. It has become. At the tip of the robot arm 11, an end effector 16 for gripping the handle 19 of the object 18 and performing a predetermined operation is provided.

【0024】関節部13a,13b,13c,13d,
13e,13fについてさらに説明すると、関節部13
aはロボットベース12のロール軸の関節軸θ1(第1
軸)、関節部13bは下腕15のピッチ軸の関節軸θ2
(第2軸)、関節部13cは上腕14のピッチ軸の関節
軸θ3(第3軸)、関節部13dはエンドエフェクタ1
6のピッチ軸の関節軸θ4(第4軸)、関節部13eは
エンドエフェクタ16のヨー軸の関節軸θ5(第5
軸)、関節部13fはエンドエフェクタ16のロール軸
の関節軸θ6(第6軸)をそれぞれ有し、図中に一点鎖
線で示すそれぞれの回転軸を中心に回転駆動されること
により、ロボットアーム11の先端の位置・姿勢を変化
させることができる。また、各関節部13a,13b,
13c,13d,13e,13fには、図示しない位置
センサ及び角度センサが取り付けられている。
The joints 13a, 13b, 13c, 13d,
13e and 13f will be further described.
a is the joint axis θ1 of the roll axis of the robot base 12 (first
Axis), the joint 13b is the joint axis θ2 of the pitch axis of the lower arm 15.
(Second axis), the joint 13c is the joint axis θ3 (third axis) of the pitch axis of the upper arm 14, and the joint 13d is the end effector 1.
A joint axis θ4 (fourth axis) of the pitch axis of No. 6 and a joint axis 13 of the yaw axis of the end effector 16 (fifth axis)
Axis) and the joint portion 13f have a joint axis θ6 (sixth axis) of the roll axis of the end effector 16, and are driven to rotate around respective rotation axes indicated by alternate long and short dash lines in FIG. 11 can change the position and posture of the tip. Also, each of the joints 13a, 13b,
Position sensors and angle sensors (not shown) are attached to 13c, 13d, 13e, and 13f.

【0025】エンドエフェクタ16には、カラー視覚セ
ンサ17が取り付けられている。このカラー視覚センサ
17は、例えばステレオカラーCCDカメラによって構
成され、対象物18に取り付けられたターゲットマーカ
1を含むカラー画像、すなわターゲットマーカ1とその
周辺部のカラー画像(例えばRGB画像)を取得し、カ
ラー画像信号を制御装置21に出力する。
A color vision sensor 17 is attached to the end effector 16. The color visual sensor 17 is constituted by, for example, a stereo color CCD camera, and acquires a color image including the target marker 1 attached to the object 18, that is, a color image (for example, an RGB image) of the target marker 1 and its peripheral portion. Then, a color image signal is output to the control device 21.

【0026】制御装置21は、図3に示すようにカラー
視覚センサ17から入力されるカラー画像信号を処理す
る画像処理部22、この画像処理部22からの出力信号
を入力とする駆動制御部23、及び駆動制御部23によ
り制御されて関節部13a,13b,13c,13d,
13e,13fを回転駆動する駆動装置24から構成さ
れている。
As shown in FIG. 3, the control unit 21 includes an image processing unit 22 for processing a color image signal input from the color visual sensor 17, and a drive control unit 23 for receiving an output signal from the image processing unit 22 as an input. , And the joints 13a, 13b, 13c, 13d,
The driving device 24 is configured to rotate the driving devices 13e and 13f.

【0027】次に、本実施形態に係るロボットシステム
の動作について説明する。まず、ロボットアーム11の
先端に取り付けられたカラー視覚センサ17により、対
象物18上のターゲットマーカ1を撮像して、ターゲッ
トマーカ1を含むRGB画像を取得する。このカラー視
覚センサ17によって得られたRGB画像の画像信号
は、制御装置21に入力される。制御装置21に入力さ
れた画像信号は画像処理部22により処理され、ロボッ
トアーム11に対するターゲットマーカ1の相対位置、
つまり対象物18の相対位置が計測される。
Next, the operation of the robot system according to the present embodiment will be described. First, the target marker 1 on the object 18 is imaged by the color visual sensor 17 attached to the tip of the robot arm 11, and an RGB image including the target marker 1 is acquired. The image signal of the RGB image obtained by the color visual sensor 17 is input to the control device 21. The image signal input to the control device 21 is processed by the image processing unit 22, and the relative position of the target marker 1 with respect to the robot arm 11,
That is, the relative position of the object 18 is measured.

【0028】この相対位置の計測結果に基づき駆動制御
部23によって駆動装置24が制御されることにより、
関節部13a,13b,13c,13d,13e,13
fが回転駆動され、ロボットアーム11の位置決めが行
われる。この後、エンドエフェクタ16によって対象物
18の取っ手19が把持され、対象物18の運搬や組立
といった所定の作業が行われる。
The drive unit 24 is controlled by the drive control unit 23 based on the measurement result of the relative position, so that
Joints 13a, 13b, 13c, 13d, 13e, 13
f is rotated and the robot arm 11 is positioned. Thereafter, the handle 19 of the target object 18 is gripped by the end effector 16, and a predetermined operation such as transportation and assembly of the target object 18 is performed.

【0029】対象物18の相対位置の計測とロボットア
ーム11の位置決めは、本実施形態では粗位置計測・位
置決めモードと精位置計測・位置決めモードの順で行わ
れる。以下、各モードの詳細な手順について説明する。
The measurement of the relative position of the object 18 and the positioning of the robot arm 11 are performed in this embodiment in the order of the coarse position measurement / positioning mode and the fine position measurement / positioning mode. Hereinafter, a detailed procedure of each mode will be described.

【0030】(粗位置計測・位置決めモード)粗位置計
測・位置決めモードは、例えばターゲットマーカ1の各
部の寸法が前述の例の場合(特に、マーカベース2の一
辺の長さが30mmの場合)、カラー視覚センサ17か
らターゲットマーカ1までの距離が200mm以上離れ
ているときに用いられる。図4は、粗位置計測・位置決
めモードでの処理手順を示している。
(Coarse Position Measurement / Positioning Mode) In the coarse position measurement / positioning mode, for example, when the dimensions of each part of the target marker 1 are as described above (particularly when the length of one side of the marker base 2 is 30 mm), Used when the distance from the color vision sensor 17 to the target marker 1 is 200 mm or more. FIG. 4 shows a processing procedure in the coarse position measurement / positioning mode.

【0031】この粗位置計測・位置決めモードでは、ま
ずステレオカラーCCDカメラからなるカラー視覚セン
サ17をターゲットマーカ1の方向に向けた状態で撮像
して得られるカラー画像信号、すなわちRGB画像を取
り込む(ステップS11)。
In this coarse position measurement / positioning mode, first, a color image signal, that is, an RGB image obtained by imaging the color visual sensor 17 composed of a stereo color CCD camera in the direction of the target marker 1 is fetched (step). S11).

【0032】次に、カラーパターンマッチング、すなわ
ち、図5に示すように、取り込んだRGB画像40を予
め登録された基準カラーパターン(マーカベース2の色
と同じ色でかつ所定形状のカラーパターン)41と比較
し、RGB画像40の基準カラーパターン41の範囲内
に基準カラーパターン41と同一色のみの領域が含まれ
るように、ロボットアーム11の位置決めを行う(ステ
ップS12)。この例では、基準カラーパターン41の
色は、マーカベース2が赤色であるため、赤色に設定さ
れている。また、基準カラーパターン41の形状は図5
では矩形となっているが、円形その他の形状であっても
よい。
Next, color pattern matching, that is, as shown in FIG. 5, the captured RGB image 40 is converted into a reference color pattern (a color pattern having the same color as the marker base 2 and a predetermined shape) 41 registered in advance. Then, the robot arm 11 is positioned so that the area of the reference color pattern 41 of the RGB image 40 includes only the same color as the reference color pattern 41 (step S12). In this example, the color of the reference color pattern 41 is set to red since the marker base 2 is red. The shape of the reference color pattern 41 is shown in FIG.
Although the shape is rectangular, it may be circular or another shape.

【0033】次に、ステップS12のカラーパターンマ
ッチングでマッチングした位置、つまりRGB画像40
の基準カラーパターン41の範囲内に基準カラーパター
ン41と同一色のみの領域が含まれるようにロボットア
ーム11を位置決めした状態で、図6に示すようにRG
B画像40のカラーヒストグラムを作成し、RGB画像
40中のマーカベース2の色成分であるR(赤色)成分
の明るさを調べる(ステップS13)。図6のカラーヒ
ストグラムは、横軸に明るさ(輝度)、縦軸に頻度をと
っている。明るさ(輝度)は色の成分によって異なり、
この例ではR(赤色)成分が最大輝度となっている。
Next, the position matched by the color pattern matching in step S12, that is, the RGB image 40
In a state where the robot arm 11 is positioned so that the area of only the same color as the reference color pattern 41 is included in the range of the reference color pattern 41, as shown in FIG.
A color histogram of the B image 40 is created, and the brightness of the R (red) component, which is the color component of the marker base 2 in the RGB image 40, is checked (step S13). The color histogram of FIG. 6 has brightness (luminance) on the horizontal axis and frequency on the vertical axis. Brightness (brightness) depends on the color components,
In this example, the R (red) component has the maximum luminance.

【0034】次に、図7に示すようにRGB画像40か
らステップS13で求められた赤色成分の明るさと同じ
明るさの範囲の領域を抜き出し、この抜き出した領域の
画像とRGB画像との論理積を演算することにより、タ
ーゲットマーカ1の赤色領域42、すなわちマーカベー
ス2の部分の画像を抽出する(ステップS14)。
Next, as shown in FIG. 7, an area in the same brightness range as the brightness of the red component obtained in step S13 is extracted from the RGB image 40, and the logical product of the extracted area image and the RGB image is extracted. To extract the image of the red area 42 of the target marker 1, that is, the image of the marker base 2 (step S14).

【0035】次に、ステップS14で抽出されたターゲ
ットマーカ1の赤色領域42(マーカベース2の部分)
の重心43を算出する(ステップS15)。重心43の
算出は、公知の種々の画像処理手法を用いることがで
き、例えば、赤色領域42の画像について、X方向に関
してはこれと垂直なY方向の画素数に応じたX座標値の
加重平均をとりその平均値をX方向の重心(重心43の
X座標)とし、同様にY方向に関してもこれと垂直なX
方向の画素数に応じたY座標値の加重平均をとりその平
均値をY方向の重心(重心43のY座標)とすればよ
い。
Next, the red area 42 of the target marker 1 extracted in step S14 (the part of the marker base 2)
Is calculated (step S15). For calculation of the center of gravity 43, various known image processing techniques can be used. For example, for the image of the red area 42, in the X direction, a weighted average of X coordinate values according to the number of pixels in the Y direction perpendicular to the X area And the average value is taken as the center of gravity in the X direction (X coordinate of the center of gravity 43).
The weighted average of the Y coordinate values according to the number of pixels in the direction may be obtained, and the average value may be used as the center of gravity in the Y direction (Y coordinate of the center of gravity 43).

【0036】次に、カラー視覚センサ17であるステレ
オカラーCCDカメラの重心(左側のカメラの光軸と右
側のカメラの光軸との中心)と、ステップS15で算出
されたマーカベース2の重心43から、ロボットアーム
11に対するターゲットマーカ1の相対位置をX−Y−
Z座標からなる3次元位置として算出する(ステップS
16)。ここで、ターゲットマーカ1の相対位置(3次
元位置)を表すX−Y−Z座標のうち、X,YはRGB
画像におけるマーカベース2の重心位置43のX−Y座
標として求めることができ、またZは三角測量の原理で
カラー視覚センサ17であるステレオカラーCCDカメ
ラの重心とマーカベース2の重心43との距離として求
めることができる。
Next, the center of gravity (center between the optical axis of the left camera and the optical axis of the right camera) of the stereo color CCD camera, which is the color visual sensor 17, and the center of gravity 43 of the marker base 2 calculated in step S15. From, the relative position of the target marker 1 with respect to the robot arm 11 is
It is calculated as a three-dimensional position consisting of Z coordinates (step S
16). Here, among the XYZ coordinates representing the relative position (three-dimensional position) of the target marker 1, X and Y are RGB.
It can be obtained as the XY coordinates of the center of gravity 43 of the marker base 2 in the image, and Z is the distance between the center of gravity of the stereo color CCD camera which is the color visual sensor 17 and the center of gravity 43 of the marker base 2 based on the principle of triangulation. Can be obtained as

【0037】以上のステップS11〜S16により、ロ
ボットアーム11に対するターゲットマーカ1の概略的
な相対位置が求まる。すなわち、ロボットアーム11に
対する対象物18の相対位置の粗位置計測が行われたこ
とになる。
By the above steps S11 to S16, the approximate relative position of the target marker 1 with respect to the robot arm 11 is determined. That is, the rough position measurement of the relative position of the target object 18 with respect to the robot arm 11 has been performed.

【0038】そこで、次にロボットアーム11の現在位
置(3次元位置)と、予めターゲットマーカ1の相対位
置(3次元位置)を基準にして生成した指令位置によ
り、ロボットアーム11の先端(エンドエフェクタ1
6)についてのみの位置決め(粗位置決め)を行う(ス
テップS17)。
Then, the current position (three-dimensional position) of the robot arm 11 and the command position generated in advance with reference to the relative position (three-dimensional position) of the target marker 1 are used to determine the tip of the robot arm 11 (end effector). 1
Positioning (coarse positioning) is performed only for step 6) (step S17).

【0039】具体的には、制御装置21内の駆動制御部
23において、ロボットアーム11の各関節部13a,
13b,13c,13d,13e,13fの位置を検出
する図示しない位置センサの出力より算出したベース座
標系(ロボットベース12を基準とする座標系)(Σba
se)でのロボットアーム11の先端位置basetipと、
ロボットアーム11に対するカラー視覚センサ17の取
り付け状態で決まるアーム先端座標系(ロボットアーム
11の先端であるエンドエフェクタ16の位置を基準と
する座標系)(Σtip)でのカラー視覚センサ17の位
tipcameraを用いて、ロボットアーム11の先端の
目標位置を示すアーム先端位置指令base tip demand
次式により算出される。basetip demandtip
cameracameramarkermarkertip demandさらに、
こうして算出されたアーム先端位置指令base
tip demandに基づいてロボットアーム11の先端の目標
速度を示すアーム先端速度指令が生成される。
Specifically, a drive control unit in the control device 21
23, each joint 13a of the robot arm 11
Detects positions of 13b, 13c, 13d, 13e, 13f
Base seat calculated from the output of a position sensor (not shown)
Target system (coordinate system based on robot base 12) (Σba
se) the position of the tip of the robot arm 11baseTtipWhen,
Mounting of the color vision sensor 17 on the robot arm 11
Arm coordinate system (robot arm
With reference to the position of the end effector 16 which is the tip of 11
Position of the color visual sensor 17 in the coordinate system (tip)
PlacetipTcameraBy using the tip of the robot arm 11
Arm tip position command indicating target positionbaseT tip demandBut
It is calculated by the following equation.baseTtip demand=tipT
cameracameraTmarkermarkerTtip demandfurther,
Arm tip position command calculated in this waybaseT
tip demandOf the tip of the robot arm 11 based on
An arm tip speed command indicating the speed is generated.

【0040】粗位置計測・位置決めモードでは、上述し
たように視覚センサ座標系(カラー視覚センサ17の位
置を基準とする座標系)(Σcamera)でのターゲットマ
ーカ1の相対位置のみが計測され、ターゲットマーカ1
の姿勢は計測されない。従って、カラー視覚センサ17
を用いて計測された視覚センサ座標系(Σcamera)での
ターゲットマーカ1の位置cameramarker、及び予め指
令されたマーカ座標系(ターゲットマーカ1の位置を基
準とする座標系)(Σmarker)でのアーム先端位置指令
markertip demandのうちの姿勢項については、ターゲ
ットマーカ1がカラー視覚センサ17に対して正対して
いるものとして、アーム先端速度指令を生成する。
In the coarse position measurement / positioning mode, as described above, only the relative position of the target marker 1 in the visual sensor coordinate system (coordinate system based on the position of the color visual sensor 17) (よ う camera) is measured. Marker 1
Is not measured. Therefore, the color vision sensor 17
The position of the target marker 1 in the visual sensor coordinate system (eracamera) measured by using the camera T marker and the previously specified marker coordinate system (the coordinate system based on the position of the target marker 1) (Σmarker) Arm tip position command
For the posture term of the marker T tip demand , an arm tip speed command is generated on the assumption that the target marker 1 faces the color visual sensor 17.

【0041】すなわち、視覚センサ座標系(Σcamera)
でのターゲットマーカ1の姿勢項、マーカ座標系(Σma
rker)でのアーム先端位置指令markertip demandは、
各々の座標系(Σcamera)、(Σmarker)に対しそれぞ
れ正対しているものとして演算される。
That is, the visual sensor coordinate system (Σcamera)
Of the target marker 1 in the marker coordinate system (系 ma
rker) The arm tip position command marker T tip demand is
The calculation is performed as if the respective coordinate systems (座標 camera) and (Σmarker) face each other.

【0042】こうして生成されたアーム先端速度指令が
制御装置21内の駆動制御部22から駆動装置23に入
力されることによって、ロボットアーム11の粗位置決
めが行われる。
The robot arm 11 is roughly positioned by inputting the thus generated arm tip speed command from the drive control unit 22 in the control device 21 to the drive device 23.

【0043】(精位置計測・位置決めモード)精位置計
測・位置決めモードは、例えばターゲットマーカ1の各
部の寸法が前述の例の場合(特に、マーカベース2の一
辺の長さが30mmの場合)、カラー視覚センサ17か
らターゲットマーカ1までの距離が200mm以内まで
近づいたときに用いられる。従って、ロボットシステム
11の初期状態においてカラー視覚センサ17からター
ゲットマーカ1までの距離が200mm以内にあれば、
前述した粗位置計測・位置決めモードは省略され、精位
置計測・位置決めモードのみが用いられる。
(Fine Position Measurement / Positioning Mode) In the fine position measurement / positioning mode, for example, when the dimensions of each part of the target marker 1 are the above-described example (particularly, when the length of one side of the marker base 2 is 30 mm), It is used when the distance from the color vision sensor 17 to the target marker 1 approaches within 200 mm. Therefore, if the distance from the color visual sensor 17 to the target marker 1 is within 200 mm in the initial state of the robot system 11,
The coarse position measurement / positioning mode described above is omitted, and only the fine position measurement / positioning mode is used.

【0044】図8は、精位置計測・位置決めモードでの
処理手順を示している。この精位置計測・位置決めモー
ドにおいて、ステップS21〜S23の処理は図4に示
した粗位置計測・位置決めモードにおけるステップS1
1〜S13の処理と同様である。
FIG. 8 shows a processing procedure in the precise position measurement / positioning mode. In the fine position measurement / positioning mode, the processing in steps S21 to S23 is performed in step S1 in the coarse position measurement / positioning mode shown in FIG.
This is the same as the processing of 1 to S13.

【0045】すなわち、カラー視覚センサ17によって
取得されたRGB画像を取り込み(ステップS21)、
このRGB画像についてカラーパターンマッチングを行
い(ステップS22)、このマッチング位置でカラーヒ
ストグラムを作成してマーカベース2の色である赤色成
分の明るさを判定する(ステップS23)次に、本実施
形態ではステップS23で判定された赤色成分の明るさ
と同じ明るさの範囲の領域をRGB画像40から抜き出
し、この抜き出した領域とRGB画像40との論理積を
演算して、ターゲットマーカ1の赤色領域42(マーカ
ベース2の領域)の画像を抽出し、赤色領域42の画像
の輪郭を求めることにより赤色領域42、すなわちマー
カベース2の領域を識別する(ステップS24)。
That is, the RGB image acquired by the color visual sensor 17 is fetched (step S21),
This RGB image is subjected to color pattern matching (step S22), and a color histogram is created at this matching position to determine the brightness of the red component, which is the color of the marker base 2 (step S23). An area in the same brightness range as the brightness of the red component determined in step S23 is extracted from the RGB image 40, and the logical product of the extracted area and the RGB image 40 is calculated, and the red area 42 of the target marker 1 ( The image of the marker base 2 (area of the marker base 2) is extracted, and the outline of the image of the red area 42 is determined to identify the red area 42, that is, the area of the marker base 2 (step S24).

【0046】精位置計測・位置決めモードでは、次にス
テップS24で識別されたマーカベース2の領域の内部
の画像をRGB−HLS(色相)変換することにより、
図9に示すように黄色領域、すなわちマーク3a,3b
の部分の画像を抽出し、それを二値化する(ステップS
25)。
In the fine position measurement / positioning mode, the image inside the area of the marker base 2 identified in step S24 is subjected to RGB-HLS (hue) conversion to obtain an image.
As shown in FIG. 9, yellow areas, that is, marks 3a and 3b
Is extracted and binarized (step S
25).

【0047】次に、ステップS25で求められた二値化
された黄色領域の画像の重心、すなわちマーク3a,3
bの各々の中心を求める(ステップS26)。
Next, the center of gravity of the image of the binarized yellow area obtained in step S25, that is, the marks 3a, 3
The center of each of b is obtained (step S26).

【0048】次に、ステップS25と同様に、ステップ
S24で識別されたマーカベース2の領域の内部の画像
をRGB−HLS(色相)変換することにより、図10
に示すように緑色領域、すなわちマーク3c,3dの部
分の画像を抽出し、それを二値化する(ステップS2
7)。
Next, as in step S25, the image inside the area of the marker base 2 identified in step S24 is subjected to RGB-HLS (hue) conversion to obtain the image shown in FIG.
As shown in (2), the image of the green area, that is, the image of the mark 3c, 3d is extracted and binarized (step S2).
7).

【0049】次に、ステップS26と同様に、ステップ
S27で求められた二値化された緑色領域の画像の重
心、すなわちマーク3c,3dの各々の中心を求める
(ステップS28)。
Next, similarly to step S26, the center of gravity of the binarized green area image obtained in step S27, that is, the center of each of the marks 3c and 3d is obtained (step S28).

【0050】ステップS25〜S28の処理は、カラー
視覚センサ17を構成するステレオカラーCCDカメラ
の左右両方のカメラで取得されたRGB画像に対して行
われる。これにより、4個のマーク3a,3b,3c,
3dの各々の中心が3次元座標として求められる。そこ
で、次に4個のマーク3a,3b,3c,3dの各々の
中心の3次元座標から、マーク3a,3b,3c,3d
全体の3次元的な中心をターゲットマーカ1の中心とし
て求める(ステップS29)。
The processes in steps S25 to S28 are performed on the RGB images acquired by the left and right cameras of the stereo color CCD camera constituting the color vision sensor 17. Thereby, the four marks 3a, 3b, 3c,
The center of each of 3d is obtained as three-dimensional coordinates. Then, next, the marks 3a, 3b, 3c, 3d are obtained from the three-dimensional coordinates of the center of each of the four marks 3a, 3b, 3c, 3d.
The three-dimensional center of the whole is determined as the center of the target marker 1 (step S29).

【0051】次に、4個のマーク3a,3b,3c,3
dの各々の中心を通る平面を例えば最小二乗法で求め、
この平面に垂直かつステップS29で求められたターゲ
ットマーカ1の中心を通る法線ベクトルを求める(ステ
ップS30)。
Next, the four marks 3a, 3b, 3c, 3
A plane passing through each center of d is obtained by, for example, the least square method,
A normal vector perpendicular to this plane and passing through the center of the target marker 1 obtained in step S29 is obtained (step S30).

【0052】次に、この法線ベクトルに対して垂直な2
つのベクトルを求める(ステップS31)。すなわち、
ステップS26で求められた二つの黄色のマーク3a,
3bの中心から、Y方向(垂直方向)のベクトルを求
め、また黄色の一つのマーク(例えばマーク3a)の中
心と、このマーク3aとマーカベース2の同一辺に沿っ
て隣り合う緑色のマーク(例えばマーク3d)の中心か
ら、X方向(水平方向)のベクトルを求める。
Next, 2 perpendicular to the normal vector
Two vectors are obtained (step S31). That is,
The two yellow marks 3a obtained in step S26,
From the center of 3b, a vector in the Y direction (vertical direction) is obtained, and the center of one yellow mark (for example, mark 3a) and a green mark ( For example, a vector in the X direction (horizontal direction) is obtained from the center of the mark 3d).

【0053】以上のステップS21〜S31により、タ
ーゲットマーカ1のカラー視覚センサ17からの相対位
置(相対距離及び姿勢)が求められたことになる。そこ
で、次にロボットアーム11の現在位置(3次元位置)
とステップS21〜S33で求められたターゲットマー
カ1の相対距離及び姿勢に基づいて、ロボットアーム1
1の先端(エンドエフェクタ16)のロボットベース1
2を基準とした指令位置を生成し、この指令位置により
ロボットアーム11全体の位置決め、すなわち精位置決
めを行う(ステップS32)。
By the above steps S21 to S31, the relative position (relative distance and attitude) of the target marker 1 from the color visual sensor 17 has been obtained. Then, next, the current position (three-dimensional position) of the robot arm 11
And the robot arm 1 based on the relative distance and posture of the target marker 1 obtained in steps S21 to S33.
Robot base 1 of 1 tip (end effector 16)
Then, a command position is generated based on 2 and the entire robot arm 11 is positioned based on the command position, that is, precise positioning is performed (step S32).

【0054】具体的には、制御装置21内の駆動制御部
23において、ロボットアーム11の各関節部13a,
13b,13c,13d,13e,13fの角度を検出
する図示しない角度センサの出力より算出したベース座
標系(ロボットベース12を基準とする座標系)(Σba
se)でのアーム先端位置basetipと、ロボットアーム
11に対するカラー視覚センサ17の取り付け状態で決
まるアーム先端座標系(エンドエフェクタ16の位置を
基準とする座標系)(Σtip)でのカラー視覚センサ1
7の位置tipcameraと、カラー視覚センサ17を用い
て計測した視覚センサ座標系(カラー視覚センサ17を
基準とした座標系)(Σcamera)でのターゲットマーカ
1の位置cameramarkerと、予め指令したマーカ座標系
(ターゲットマーカ1の位置を基準とする座標系)(Σ
marker)でのアーム先端位置指令 markertip demand
用いて、アーム先端位置指令basetip demandが次式に
より算出される。basetip demandbasetiptipcameracamera
markermarkerti p demand さらに、このアーム先端位置指令basetip demandに基
づいてアーム先端速度指令が作成される。こうして生成
されたアーム先端速度指令が制御装置21内の駆動制御
部22から駆動装置23に入力されることにより、ロボ
ットアーム11全体の精位置決めが行われる。
Specifically, a drive control unit in the control device 21
23, each joint 13a of the robot arm 11
Detect angles of 13b, 13c, 13d, 13e, 13f
Base seat calculated from the output of an angle sensor (not shown)
Target system (coordinate system based on robot base 12) (Σba
arm tip position at se)baseTtipAnd the robot arm
11 depends on the mounting state of the color vision sensor 17
Completely coordinate the tip of the arm (the position of the end effector 16
Color vision sensor 1 with reference coordinate system (Σtip)
7 positiontipTcameraAnd using the color vision sensor 17
Sensor coordinate system (color visual sensor 17
Target marker in the reference coordinate system (基準 camera)
1 positioncameraTmarkerAnd a previously specified marker coordinate system
(Coordinate system based on the position of the target marker 1) (Σ
marker) arm tip position command markerTtip demandTo
Using the arm tip position commandbaseTtip demandBecomes
It is calculated from:base Ttip demand=baseTtiptipTcameracameraT
markermarkerTti p demand Furthermore, this arm tip position commandbaseTtip demandBased on
Then, an arm tip speed command is created. Generated in this way
The set arm tip speed command is used for drive control in the controller 21.
By being input to the driving device 23 from the unit 22, the robot
The precise positioning of the entire cut arm 11 is performed.

【0055】このように本実施形態によれば、ターゲッ
トマーカ1が第1の色(例えば赤色)に着色されたマー
カベース2と、このマーカベース2上に設置された複数
のマーカ3a,3b,3c,3dとから構成され、マー
カベース2の右側の辺に沿って隣り合うマーク3a,3
bは第2の色(例えば黄色)に着色され、マーカベース
2の左側の辺に沿って隣り合うマーク3c,3dは第3
の色(例えば緑色)に着色されている。
As described above, according to the present embodiment, the marker base 2 in which the target marker 1 is colored in the first color (for example, red), and the plurality of markers 3a, 3b, 3c, 3d, and adjacent marks 3a, 3 along the right side of the marker base 2.
b is colored in a second color (for example, yellow), and the marks 3c and 3d adjacent along the left side of the marker base 2 are colored in the third color.
(For example, green).

【0056】そして、このターゲットマーカ1のカラー
画像(例えばRGB画像)をカラー視覚センサ17によ
り取得し、マーカベース2の色とマーク3a,3b,3
c,3dの色の違い及び各マーク3a,3b,3c,3
dの色の違いを利用して対象物18の粗位置及び精位置
計測を行う。
Then, a color image (for example, an RGB image) of the target marker 1 is obtained by the color visual sensor 17, and the color of the marker base 2 and the marks 3a, 3b, 3 are obtained.
c, 3d and each mark 3a, 3b, 3c, 3
The rough position and the fine position of the object 18 are measured using the color difference d.

【0057】従って、例えば視覚センサ17から見てタ
ーゲットマーカ1が斜めの位置関係にあってマーカベー
ス2及びマーク3a,3b,3c,3dが例えば円形が
変形して楕円に見えたり、マーク相互の大小関係が異な
って見えたような場合でも、これらの影響を受けること
なく、マーカベース2及びマーク3a,3b,3c,3
dの識別を行うことができる。
Accordingly, for example, when the target marker 1 is obliquely positioned relative to the visual sensor 17, the marker base 2 and the marks 3a, 3b, 3c, 3d may be deformed, for example, in a circular shape, and may look like an ellipse. Even if the magnitude relationship looks different, the marker base 2 and the marks 3a, 3b, 3c, 3
d can be identified.

【0058】また、マーカベース2及びマーク3a,3
b,3c,3dはそれぞれ固有の色(有彩色)に着色さ
れているため、例えば宇宙空間で衛星に搭載されて使用
されるロボットシステムに適用する場合でも、太陽光線
の反射の影響を受けることなく、これらを確実に識別す
ることができる。
Further, the marker base 2 and the marks 3a, 3
Since b, 3c and 3d are each colored in a unique color (chromatic color), even when applied to, for example, a robot system mounted on a satellite in outer space, it is affected by the reflection of sunlight. And these can be reliably identified.

【0059】従って、カラー視覚センサ17で取得した
ターゲットマーカ1のカラー画像に基づく対象物18の
位置計測を高い信頼性をもって行うことが可能となり、
ロボットシステムのロボットアーム11による対象物の
把持操作を確実に行うことができる。
Therefore, the position of the object 18 based on the color image of the target marker 1 acquired by the color visual sensor 17 can be measured with high reliability.
The gripping operation of the target object by the robot arm 11 of the robot system can be reliably performed.

【0060】本発明は、上記実施形態に限られるもので
はなく、種々変形して実施することが可能である。例え
ば、ターゲットマーカについては、図1に示した構成以
外に図11に示すような種々の変形が可能である。
The present invention is not limited to the above embodiment, but can be implemented with various modifications. For example, various modifications as shown in FIG. 11 are possible for the target marker in addition to the configuration shown in FIG.

【0061】図11(a)は、図1に示したターゲット
マーカ1における緑色の二つのマーク3c,3dのうち
の一方3dを省略した例、図11(b)は図1に示した
ターゲットマーカ1における黄色の二つのマーク3a,
3bのうちの一方3bを省略した例である。このように
ターゲットマーカにおけるマークの数は3個であっても
よく、その少なくとも一つが第2の色、他の少なくとも
一つが第3の色であればよい。
FIG. 11A shows an example in which one of the two green marks 3c and 3d in the target marker 1 shown in FIG. 1 is omitted, and FIG. 11B shows the target marker shown in FIG. 1, two yellow marks 3a,
This is an example in which one of 3b is omitted. Thus, the number of marks in the target marker may be three, at least one of which is the second color and the other at least one of which is the third color.

【0062】図11(c)は、図11(a)のターゲッ
トマーカ1を変形し、3個のマーク3a,3b,3cを
正三角形の3つの頂点にそれぞれ配置した例である。こ
の場合、前述した精位置計測・位置決めモードにおいて
ステップS31で法線ベクトルに対して垂直な2つのベ
クトルを求める際、例えばY方向(垂直方向)のベクト
ルについては、ステップS26で求められた二つの黄色
のマーク3a,3bの中心間のベクトルをY方向(垂直
方向)のベクトルに換算して求めればよい。
FIG. 11 (c) is an example in which the target marker 1 of FIG. 11 (a) is modified and three marks 3a, 3b, 3c are arranged at three vertices of an equilateral triangle, respectively. In this case, when two vectors perpendicular to the normal vector are obtained in step S31 in the above-described fine position measurement / positioning mode, for example, for the vector in the Y direction (vertical direction), the two vectors obtained in step S26 are obtained. The vector between the centers of the yellow marks 3a and 3b may be obtained by converting it into a vector in the Y direction (vertical direction).

【0063】図11(d)は、マーカベース2の形状を
円形とした例である。この場合、例えば前述した粗位置
計測・位置決めモード及び精位置計測・位置決めモード
において、ターゲットマーカ1の赤色領域42(マーカ
ベース2の領域)の重心43を算出するステップS15
は、赤色領域42の画像の重心を公知の画像処理で求め
ることにより実現できる。また、マーカベース2の形状
は、他に長方形、菱形、楕円形等であっても構わない。
FIG. 11D shows an example in which the shape of the marker base 2 is circular. In this case, for example, in the coarse position measurement / positioning mode and the fine position measurement / positioning mode, the center of gravity 43 of the red area 42 (the area of the marker base 2) of the target marker 1 is calculated in step S15.
Can be realized by determining the center of gravity of the image of the red area 42 by known image processing. Further, the shape of the marker base 2 may be a rectangle, a diamond, an ellipse, or the like.

【0064】さらに、以上説明したターゲットマーカで
は、マーカベースの色である第1の色を赤、マークの色
である第2、第3の色を黄色、緑色としたが、これらの
一路の組み合わせは任意に変更できることはいうまでも
ない。
Further, in the target marker described above, the first color which is the marker base color is red, and the second and third colors which are the mark colors are yellow and green. Needless to say, can be changed arbitrarily.

【0065】[0065]

【発明の効果】以上説明したように、本発明によれば視
覚センサとの角度位置関係によらずマークの識別が容易
で、しかも太陽光線の反射の影響を受けることなく識別
が可能なターゲットマーカを提供でき、またこのターゲ
ットマーカを用いて対象物の相対位置を容易かつ確実に
計測することが可能となり、さらにこの相対位置計測結
果に基づき対象物を確実に把持して所定の作業を行うロ
ボットシステムを提供することができる。
As described above, according to the present invention, a target marker which can easily identify a mark regardless of the angular positional relationship with a visual sensor and can be identified without being affected by the reflection of sunlight. Robot that can easily and reliably measure the relative position of the target object using the target marker, and further performs a predetermined operation by securely gripping the target object based on the result of the relative position measurement. A system can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るターゲットマーカの
構成を示す平面図
FIG. 1 is a plan view showing a configuration of a target marker according to an embodiment of the present invention.

【図2】同実施形態に係るロボットシステムの概略構成
を示す図
FIG. 2 is a diagram showing a schematic configuration of a robot system according to the embodiment;

【図3】図2中に示した制御装置の構成を示すブロック
FIG. 3 is a block diagram showing a configuration of a control device shown in FIG. 2;

【図4】同実施形態における粗位置計測・位置決めモー
ドの処理手順を示すフローチャート
FIG. 4 is a flowchart showing a processing procedure in a coarse position measurement / positioning mode in the embodiment.

【図5】図4におけるステップS12のカラーパターン
マッチング処理を説明するための図
FIG. 5 is a view for explaining a color pattern matching process in step S12 in FIG. 4;

【図6】図4におけるステップS13で作成されるカラ
ーヒストグラムの例を示す図
FIG. 6 is a diagram showing an example of a color histogram created in step S13 in FIG.

【図7】図4におけるステップS14〜S15の処理を
説明するための図
FIG. 7 is a view for explaining processing in steps S14 to S15 in FIG. 4;

【図8】同実施形態における精位置計測・位置決めモー
ドの処理手順を示すフローチャート
FIG. 8 is a flowchart showing a processing procedure in a precise position measurement / positioning mode in the embodiment.

【図9】図8におけるステップS25〜S26の処理を
説明するための図
FIG. 9 is a view for explaining the processing of steps S25 to S26 in FIG. 8;

【図10】図8におけるステップS27〜S28の処理
を説明するための図
FIG. 10 is a view for explaining processing in steps S27 to S28 in FIG. 8;

【図11】本発明の他の実施形態に係るターゲットマー
カの構成を示す平面図
FIG. 11 is a plan view showing a configuration of a target marker according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…ターゲットマーカ 2…マーカベース(赤色) 3a,3b…マーク(黄色) 3c,3d…マーク(緑色) 11…ロボットアーム 12…ロボットベース 13a〜13f…関節部 14…上腕 15…下腕 16…エンドエフェクタ(アーム先端) 17…カラー視覚センサ 18…対象物 19…取っ手 21…制御装置 22…画像処理部 23…駆動制御部 24…駆動装置 40…RGB画像 41…基準カラーパターン 42…赤色領域(マーカベース部分) 43…赤色領域の重心 DESCRIPTION OF SYMBOLS 1 ... Target marker 2 ... Marker base (red) 3a, 3b ... Mark (yellow) 3c, 3d ... Mark (green) 11 ... Robot arm 12 ... Robot base 13a to 13f ... Joint part 14 ... Upper arm 15 ... Lower arm 16 ... End effector (arm tip) 17 ... Color visual sensor 18 ... Object 19 ... Handle 21 ... Control device 22 ... Image processing unit 23 ... Drive control unit 24 ... Drive device 40 ... RGB image 41 ... Reference color pattern 42 ... Red area ( (Marker base portion) 43 ... center of gravity of red area

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B (72)発明者 尾崎 文夫 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 高瀬 康徳 神奈川県横浜市磯子区新磯子町33番地 株 式会社東芝生産技術センター内 Fターム(参考) 2F065 AA04 AA14 AA37 AA56 BB02 BB28 DD04 DD09 DD11 FF01 FF05 FF09 FF61 JJ03 JJ05 JJ08 JJ26 NN06 QQ25 QQ36 QQ38 QQ43 RR02 RR08 UU04 UU05 3F059 AA20 BA02 BA10 CA05 DA02 DA09 DB04 DB09 DC08 DD01 DE03 FA03 FA10 FB12 FB22 FC13 5L096 AA11 BA03 CA02 CA14 FA69 GA40 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/60 150 G06T 7/60 150B (72) Inventor Fumio Ozaki Komukai Toshiba-cho, Kochi-ku, Kawasaki-shi, Kanagawa No. 1 Toshiba R & D Center (72) Inventor Yasunori Takase 33 Shinisogo-cho, Isogo-ku, Yokohama-shi, Kanagawa Prefecture F-term (reference) 2F065 AA04 AA14 AA37 AA56 BB02 BB28 DD04 DD09 DD11 FF01 FF05 FF09 FF61 JJ03 JJ05 JJ08 JJ26 NN06 QQ25 QQ36 QQ38 QQ43 RR02 RR08 UU04 UU05 3F059 AA20 BA02 BA10 CA05 DA02 DA09 DB04 DB09 DC08 DD01 DE03 FA03 FA10 FB12 FB22 CA13 FA03GA02A

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】対象物に設置されて該対象物の位置計測に
用いられるためのターゲットマーカであって、第1の色
に着色されたベースと、前記ベース上に配置され、少な
くとも一つは第2の色に、他の少なくとも一つは第3の
色にそれぞれ着色された3個以上のマークとを有するこ
とを特徴とするターゲットマーカ。
1. A target marker installed on an object and used for position measurement of the object, a base colored in a first color, and disposed on the base, at least one of which is provided on the base. A target marker having a second color and three or more marks each of which is at least one other colored in a third color.
【請求項2】第1の色に着色されたベース及び該ベース
上に配置され、少なくとも一つは第2の色に、他の少な
くとも一つは第3の色にそれぞれ着色された3個以上の
マークからなるターゲットマーカを位置決めの対象物に
設置し、前記ターゲットマーカを撮像してカラー画像を
取得するステップと、前記カラー画像中の前記第1乃至
第3の色の成分に基づいて前記対象物の位置計測を行う
位置計測ステップとを有することを特徴とする位置計測
方法。
2. A base colored on a first color and three or more colored bases disposed on the base, at least one of which is colored with a second color and at least one of which is colored with a third color. Placing a target marker composed of a mark on a positioning target, capturing the target marker to obtain a color image, and setting the target based on the first to third color components in the color image. A position measuring step of measuring a position of an object.
【請求項3】前記位置計測ステップは、前記カラー画像
中の前記第1の色の成分に基づいて前記対象物の粗位置
計測を行うステップと、前記カラー画像中の前記第1乃
至第3の色の成分に基づいて前記対象物の姿勢を含めた
精位置計測を行うステップとを含むことを特徴とする請
求項1記載の位置計測方法。
3. The method according to claim 1, wherein the position measuring step includes a step of measuring a coarse position of the object based on the first color component in the color image, and the first to third steps in the color image. Performing a precise position measurement including a posture of the object based on a color component.
【請求項4】対象物をロボットアームの先端で把持して
所定の作業を行うロボットシステムにおいて、前記対象
物に設置された第1の色に着色されたベース及び該ベー
ス上に配置され、少なくとも一つは第2の色に、他の少
なくとも一つは第3の色にそれぞれ着色された3個以上
のマークからなるターゲットマーカと、前記ロボットア
ームの先端近傍に設置され、前記ターゲットマーカを撮
像してカラー画像を取得するカラー視覚センサと、前記
カラー視覚センサにより取得されたカラー画像中の前記
第1乃至第3の色の成分に基づいて前記対象物の位置計
測を行うための画像処理部と、前記画像処理部による前
記対象物の位置計測結果に基づいて前記ロボットアーム
を駆動制御する駆動制御手段とを有することを特徴とす
るロボットシステム。
4. A robot system for performing a predetermined operation by gripping an object with the tip of a robot arm, wherein the base is provided on the object and is arranged on the base, the base being colored in a first color; One is a target marker composed of three or more marks colored in a second color and at least one is colored in a third color, and an image of the target marker is provided near the tip of the robot arm. A color visual sensor for obtaining a color image by performing the measurement, and an image processing unit for performing position measurement of the object based on the first to third color components in the color image obtained by the color visual sensor. And a drive control means for driving and controlling the robot arm based on a result of the position measurement of the object by the image processing unit. .
【請求項5】前記画像処理部は、前記カラー画像中の前
記第1の色の成分に基づいて前記対象物の粗位置計測を
行った後、前記カラー画像中の前記第1乃至第3の色の
成分に基づいて前記対象物の姿勢を含めた粗位置計測を
行い、前記駆動制御手段は、前記粗位置計測結果に基づ
いて前記ロボットアームの前記対象物を把持する把持部
の粗位置決めを行った後、前記精位置計測結果に基づい
て前記ロボットアームの精位置決めを行うように前記ロ
ボットアームを駆動制御することを特徴とするロボット
システム。
5. The image processing section, after performing a coarse position measurement of the object based on the component of the first color in the color image, sets the first to third positions in the color image. The coarse position measurement including the posture of the object is performed based on the color component, and the drive control unit performs coarse positioning of a gripper that grips the object of the robot arm based on the coarse position measurement result. After performing the operation, the robot system controls the driving of the robot arm so as to perform the precise positioning of the robot arm based on the result of the accurate position measurement.
JP2000263876A 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system Expired - Fee Related JP3626400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000263876A JP3626400B2 (en) 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000263876A JP3626400B2 (en) 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system

Publications (2)

Publication Number Publication Date
JP2002071313A true JP2002071313A (en) 2002-03-08
JP3626400B2 JP3626400B2 (en) 2005-03-09

Family

ID=18751366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000263876A Expired - Fee Related JP3626400B2 (en) 2000-08-31 2000-08-31 Method for measuring position of object using target marker and robot system

Country Status (1)

Country Link
JP (1) JP3626400B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062064A (en) * 2003-08-18 2005-03-10 National Aerospace Laboratory Of Japan Noncontact measuring device
JP2005337870A (en) * 2004-05-26 2005-12-08 Kyoto Univ Detection system and labeled object
WO2006082825A1 (en) * 2005-02-02 2006-08-10 Canon Kabushiki Kaisha Mark arrangement measuring method, positional posture estimating method, mark arrangement measuring apparatus and positional posture estimating apparatus
JP2006346790A (en) * 2005-06-15 2006-12-28 Toyota Motor Corp Robot, and interference discriminating method and interference discriminating device
JP2009139197A (en) * 2007-12-05 2009-06-25 Topcon Corp Color-coded target, color code extracting device and three-dimensional measuring system
JP2009216480A (en) * 2008-03-10 2009-09-24 Ihi Corp Three-dimensional position and attitude measuring method and system
JP2010078466A (en) * 2008-09-26 2010-04-08 Japan Atomic Energy Agency Method and system for automatic marker registration
JP2010243405A (en) * 2009-04-08 2010-10-28 Hiroshima Univ Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program
JP2012002761A (en) * 2010-06-18 2012-01-05 Canon Inc Position attitude measurement instrument, processing method thereof, and program
JP2012103076A (en) * 2010-11-09 2012-05-31 Denso Corp Apparatus and method for taking three-dimensional measurements
JP2013024586A (en) * 2011-07-15 2013-02-04 Univ Of Yamanashi Monospectral marker, method and device for detecting the same
JP2015510456A (en) * 2012-02-13 2015-04-09 ツェー・ベー・ウー・チェー・ベー・プラゼ・ファクルタ・ストロイニー Method for setting operation arm position on support frame, and support frame for positioning operation arm
CN105082133A (en) * 2014-05-08 2015-11-25 东芝机械株式会社 Picking apparatus and picking method
CN107367270A (en) * 2017-08-30 2017-11-21 中冶建工集团有限公司 For establishing the measurement module and its application method of interior net storey height measurement point
US10529074B2 (en) 2017-09-28 2020-01-07 Samsung Electronics Co., Ltd. Camera pose and plane estimation using active markers and a dynamic vision sensor
JP2020053008A (en) * 2018-09-26 2020-04-02 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd Positioning method, robot, and computer storage medium
US10839547B2 (en) 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062064A (en) * 2003-08-18 2005-03-10 National Aerospace Laboratory Of Japan Noncontact measuring device
JP2005337870A (en) * 2004-05-26 2005-12-08 Kyoto Univ Detection system and labeled object
JP4599184B2 (en) * 2005-02-02 2010-12-15 キヤノン株式会社 Index placement measurement method, index placement measurement device
WO2006082825A1 (en) * 2005-02-02 2006-08-10 Canon Kabushiki Kaisha Mark arrangement measuring method, positional posture estimating method, mark arrangement measuring apparatus and positional posture estimating apparatus
JP2006214832A (en) * 2005-02-02 2006-08-17 Canon Inc Method of measuring marker arrangement, method of assuming position/attitude, device for measuring marker arrangement, device for assuming position/attitude
US7664341B2 (en) 2005-02-02 2010-02-16 Canon Kabushiki Kaisha Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus
JP2006346790A (en) * 2005-06-15 2006-12-28 Toyota Motor Corp Robot, and interference discriminating method and interference discriminating device
JP2009139197A (en) * 2007-12-05 2009-06-25 Topcon Corp Color-coded target, color code extracting device and three-dimensional measuring system
JP2009216480A (en) * 2008-03-10 2009-09-24 Ihi Corp Three-dimensional position and attitude measuring method and system
JP2010078466A (en) * 2008-09-26 2010-04-08 Japan Atomic Energy Agency Method and system for automatic marker registration
JP2010243405A (en) * 2009-04-08 2010-10-28 Hiroshima Univ Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program
JP2012002761A (en) * 2010-06-18 2012-01-05 Canon Inc Position attitude measurement instrument, processing method thereof, and program
US9111177B2 (en) 2010-06-18 2015-08-18 Canon Kabushiki Kaisha Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium
JP2012103076A (en) * 2010-11-09 2012-05-31 Denso Corp Apparatus and method for taking three-dimensional measurements
JP2013024586A (en) * 2011-07-15 2013-02-04 Univ Of Yamanashi Monospectral marker, method and device for detecting the same
JP2015510456A (en) * 2012-02-13 2015-04-09 ツェー・ベー・ウー・チェー・ベー・プラゼ・ファクルタ・ストロイニー Method for setting operation arm position on support frame, and support frame for positioning operation arm
CN105082133A (en) * 2014-05-08 2015-11-25 东芝机械株式会社 Picking apparatus and picking method
JP2015213973A (en) * 2014-05-08 2015-12-03 東芝機械株式会社 Picking device and picking method
US9604364B2 (en) 2014-05-08 2017-03-28 Toshiba Kikai Kabushiki Kaisha Picking apparatus and picking method
CN107367270A (en) * 2017-08-30 2017-11-21 中冶建工集团有限公司 For establishing the measurement module and its application method of interior net storey height measurement point
CN107367270B (en) * 2017-08-30 2023-07-21 中冶建工集团有限公司 Measurement template for establishing indoor clear height measurement point and use method thereof
US10529074B2 (en) 2017-09-28 2020-01-07 Samsung Electronics Co., Ltd. Camera pose and plane estimation using active markers and a dynamic vision sensor
US10839547B2 (en) 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
JP2020053008A (en) * 2018-09-26 2020-04-02 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd Positioning method, robot, and computer storage medium

Also Published As

Publication number Publication date
JP3626400B2 (en) 2005-03-09

Similar Documents

Publication Publication Date Title
JP3626400B2 (en) Method for measuring position of object using target marker and robot system
US8447097B2 (en) Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US7280687B2 (en) Device for detecting position/orientation of object
EP2045772B1 (en) Apparatus for picking up objects
EP1555507A1 (en) Three-dimensional visual sensor
WO2015045834A1 (en) Marker image processing system
US11230011B2 (en) Robot system calibration
JP5045556B2 (en) Robot hand posture detection system
WO2019146201A1 (en) Information processing device, information processing method, and information processing system
EP3711908B1 (en) Calibration device for robot arm
JP2000094374A (en) Picking device
CN114341930A (en) Image processing device, imaging device, robot, and robot system
KR100564236B1 (en) Self-localization apparatus and method of mobile robot
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JP6807450B2 (en) Articulated robot parallelism determination method and articulated robot tilt adjustment device
JPH0626770B2 (en) Workpiece fitting method
WO2020157875A1 (en) Work coordinate generation device
JPH106264A (en) Robot arm condition sensing method and its system
JP2546037B2 (en) Target mark
WO2021210456A1 (en) Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
JP2616225B2 (en) Relative positioning method
CN107020545A (en) The apparatus and method for recognizing mechanical workpieces pose
CN116419827A (en) Robot control device and robot system
JP4825964B2 (en) Non-contact measuring device
JPH06147828A (en) Position/attitude measuring equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees