JP2000084876A - Robot arm visual chase method and system device - Google Patents

Robot arm visual chase method and system device

Info

Publication number
JP2000084876A
JP2000084876A JP10263096A JP26309698A JP2000084876A JP 2000084876 A JP2000084876 A JP 2000084876A JP 10263096 A JP10263096 A JP 10263096A JP 26309698 A JP26309698 A JP 26309698A JP 2000084876 A JP2000084876 A JP 2000084876A
Authority
JP
Japan
Prior art keywords
marker
robot arm
posture
texture
visual tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10263096A
Other languages
Japanese (ja)
Inventor
Koichi Yoshida
耕一 吉田
Masahiko Mikawa
正彦 三河
Mizuki Tanno
瑞紀 丹野
Michito Matsumoto
三千人 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10263096A priority Critical patent/JP2000084876A/en
Publication of JP2000084876A publication Critical patent/JP2000084876A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot arm visual chase method and system device which can chase the position.posture of a robot arm surely and properly without being affected to the background and luminosity of a robot work environment. SOLUTION: A template composition device 31 preserves plural texture patterns obtained by giving an affine conversion to various forms as a template to the texture of a marker 14. A marker position calculation device 32 can calculate respective marker positions for entire marker projection staying on the picture taken by a camera 2. An arm position.posture estimation calculation means 33 calculates the position.posture of the robot arm 12. A market/texture selection device 34 selects the marker projection of a higher rank prescribed number (at least four or more) most suitable for the observation at the present time and also for selecting the texture pattern with a prescribed number most suitable for coping with respectively the marker projection of the selected higher rank prescribed number from the templates.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットアーム視
覚追跡方法及びシステム装置に関し、詳しくは、ロボッ
ト作業に際してのロボットアームの位置・姿勢を、カメ
ラを用いて視覚的にオンラインで追跡するためのロボッ
トアーム視覚追跡方法、及びその実施に直接使用するロ
ボットアーム視覚追跡システム装置に係わる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for visually tracking a robot arm, and more particularly, to a robot for visually tracking the position and orientation of a robot arm during a robot operation online using a camera. The present invention relates to an arm visual tracking method and a robot arm visual tracking system device directly used for implementing the method.

【0002】[0002]

【従来の技術】従来、ロボット作業に際し、カメラを用
いながらロボットアームの位置・姿勢を視覚的に追跡す
る手法としては、例えば、カメラ画像平面に射影された
ロボットアーム本体のエッジ(背景との境界をなす当該
ロボットアーム本体の輪郭線)を検索するものがある。
2. Description of the Related Art Conventionally, as a method of visually tracking the position and orientation of a robot arm while using a camera during robot work, for example, an edge of a robot arm main body projected on a camera image plane (a boundary with a background) is used. (A contour line of the robot arm main body).

【0003】また、これ以外の手法として、ロボットア
ームの表面可視領域に事前に複数のLED(発光ダイオ
ード)等の光源をマーカーとして配置しておき、これら
LED等のマーカー射影をカメラ画像平面で2値化認識
した結果に基づいて、ロボットアームの位置・姿勢を追
跡するものがある。
As another technique, a plurality of light sources such as LEDs (light emitting diodes) are arranged in advance in the visible region of the surface of the robot arm as markers, and the projection of the markers such as these LEDs is performed on the camera image plane in two directions. In some cases, the position and orientation of the robot arm are tracked based on the result of the binarization recognition.

【0004】[0004]

【発明が解決しようとする課題】しかし、所要の視覚追
跡をロボットアーム本体のエッジを検索して行う手法で
は、例えば、電柱への通信ケーブルの架設作業のよう
に、所要のロボット作業を野外で行うことを想定した場
合、カメラ画像平面に射影されるロボットアーム本体の
背景は、自ずとロボット作業環境ごとに異なったものと
なるため、その背景が特に複雑な状況の下では、正確な
エッジ抽出が不可能になることがある。
However, in the technique of performing the required visual tracking by searching for the edge of the robot arm main body, the required robot work is performed in the field, such as the work of erection of a communication cable on a telephone pole. If it is assumed that the background of the robot arm projected on the camera image plane will naturally be different for each robot work environment, accurate edge extraction can be performed under particularly complicated situations. Sometimes it becomes impossible.

【0005】同様に、ロボット作業を野外で行うことを
想定した場合、所要の視覚追跡をLED等のマーカー射
影を用いる手法では、例えば、ロボット作業環境の光度
が天候等の影響により急激に明るくなったときなどに
は、カメラ画面上におけるマーカー射影の相対的な輝度
も急激に低下してしまい、このような状況に陥った際、
所要の2値化認識を適正に行うために、カメラ画像の輝
度を瞬時に調整するなどといったことは、技術的に極め
て困難なことである。
Similarly, if it is assumed that the robot work is performed outdoors, the required visual tracking using a marker projection such as an LED, for example, causes the luminous intensity of the robot work environment to suddenly become bright due to the influence of weather or the like. When, for example, the relative brightness of the marker projection on the camera screen also suddenly decreases, when falling into such a situation,
It is technically very difficult to instantly adjust the brightness of a camera image in order to properly perform the required binarization recognition.

【0006】ここにおいて、本発明の主要な目的は次の
とおりである。
Here, the main objects of the present invention are as follows.

【0007】即ち、本発明の第1の目的は、ロボット作
業環境の背景に左右されることなくロボットアームの位
置・姿勢を確実に追跡することの可能なロボットアーム
視覚追跡方法及びシステム装置を提供せんとするもので
ある。
That is, a first object of the present invention is to provide a robot arm visual tracking method and system apparatus capable of reliably tracking the position and orientation of a robot arm without being influenced by the background of the robot working environment. It is something you want to do.

【0008】本発明の第2の目的は、ロボット作業環境
の光度に左右されることなくロボットアームの位置・姿
勢を適正に追跡することの可能なロボットアーム視覚追
跡方法及びシステム装置を提供せんとするものである。
A second object of the present invention is to provide a robot arm visual tracking method and system capable of properly tracking the position and orientation of a robot arm without being affected by the light intensity of the robot working environment. Is what you do.

【0009】本発明の第3の目的は、所要のロボットア
ームの位置・姿勢のオンライン追跡を極めて安定的に行
い信頼性を高めることの可能なロボットアーム視覚追跡
方法及びシステム装置を提供せんとするものである。
A third object of the present invention is to provide a robot arm visual tracking method and a system device capable of extremely stably performing online tracking of a required position and orientation of a robot arm and improving reliability. Things.

【0010】本発明の他の目的は、明細書、図面、特に
特許請求の範囲の各請求項の記載から自ずと明らかとな
ろう。
[0010] Other objects of the present invention will become apparent from the description of the specification, drawings, and particularly from the claims.

【0011】[0011]

【課題を解決するための手段】本発明方法においては、
ロボットアームの位置・姿勢を視覚的にオンラインで追
跡するに当り、特定の形態の幾何模様からなるマーカー
を、事前にロボットアームの表面可視領域に配置してお
く一方、それら複数のマーカーをカメラで撮影したとき
に観測されうる種々のテクスチャパターンを、事前にテ
ンプレートとして用意しておき、ロボットアームに配置
された複数のマーカーのカメラ画像と、テンプレートと
して用意された種々のテクスチャパターンとの間で相関
をとることにより、上位所定数のマーカー射影について
の各マーカー位置を算出し、この各マーカー位置とロボ
ットアームにおける複数のマーカーの配置位置を示す既
知のマーカー配置データとに基づいて、ロボットアーム
の位置・姿勢を算出する手段を講じるという特徴を有す
る。
According to the method of the present invention,
To visually track the position and orientation of the robot arm online, markers consisting of a specific form of geometric pattern are placed in advance in the visible area of the surface of the robot arm, and the plurality of markers are captured with a camera. Various texture patterns that can be observed at the time of shooting are prepared in advance as templates, and the correlation between the camera images of the markers arranged on the robot arm and the various texture patterns prepared as templates is prepared. By calculating the position of the robot arm, the position of the robot arm is calculated based on each marker position and the known marker arrangement data indicating the arrangement positions of the plurality of markers on the robot arm. -It has the feature of taking measures to calculate the posture.

【0012】また、本発明システム装置においては、ロ
ボットアームの表面可視領域に配置された上記特定の形
態の幾何模様からなるマーカーと、これら複数のマーカ
ーを撮影するカメラと、マーカーのテクスチャにアフィ
ン変換を種々の形態に施して得た複数のテクスチャパタ
ーンを、上記テンプレートとして保存するテンプレート
合成装置と、複数のマーカーのカメラ画像とテンプレー
ト中の複数のテクスチャパターンとの間で相関演算を行
って、カメラ画像平面に存在する全てのマーカー射影に
ついての各マーカー位置を算出可能なマーカー位置演算
装置と、その算出された各マーカー位置と上記マーカー
配置データとに基づいて、ロボットアームの位置・姿勢
を算出するアーム位置・姿勢推定演算装置と、その算出
されたロボットアームの位置・姿勢に基づいて、現時点
で最も観測に適した上位所定数のマーカー射影を選択す
ると共に、上記相関演算に際し、その選択された上位所
定数のマーカー射影にそれぞれ対応させるのに最も適し
た所定数のテクスチャパターンをテンプレート中から選
択するマーカー/テクスチャ選択装置とを有する手法を
講じるという特徴を有する。
Also, in the system apparatus of the present invention, a marker formed of a geometric pattern of the above-described specific form, which is arranged in a visible region of the surface of the robot arm, a camera for photographing the plurality of markers, and an affine transformation to the texture of the marker A plurality of texture patterns obtained by performing the above in various forms, a template synthesizing apparatus that saves the plurality of texture patterns as the template, and a correlation operation between the camera images of the plurality of markers and the plurality of texture patterns in the template to perform camera correlation. A marker position calculating device capable of calculating each marker position for all marker projections present on the image plane, and calculating the position and orientation of the robot arm based on the calculated marker positions and the marker arrangement data. The arm position / posture estimation calculation device and the calculated robot Based on the position and orientation of the system, the top predetermined number of marker projections most suitable for observation at the present time are selected, and the correlation calculation is most suitable to correspond to the selected top predetermined number of marker projections, respectively. And a marker / texture selection device for selecting a predetermined number of texture patterns from the template.

【0013】さらに、具体的詳細に述べると、当該課題
の解決では、本発明が次に列挙する上位概念から下位概
念にわたる新規な特徴的構成手法を採用することによ
り、前記目的を達成するよう為される。
More specifically, in solving the problem, the present invention achieves the above object by adopting a novel characteristic configuration technique ranging from a high-level concept to a low-level concept listed below. Is done.

【0014】即ち、本発明方法の第1の特徴は、ロボッ
ト作業に際してのロボットアームの位置・姿勢を、カメ
ラを用いて視覚的にオンラインで追跡するに当り、特定
の形態の幾何模様からなるマーカーを、事前にロボット
アームの表面可視領域に配置して置く一方、当該複数の
マーカーを様々な角度から観測したときの幾何模様の見
え方に対応した種々のテクスチャパターンを、事前にテ
ンプレートとして用意して置き、さらに、ロボットアー
ムに配置された複数のマーカーのカメラの画像と、テン
プレートに用意された種々のテクスチャパターンとの間
で所定の相関演算を時系列的に行いつつ、その時々のロ
ボットアームの位置・姿勢を算出して逐次追跡してなる
ロボットアーム視覚追跡方法の構成採用にある。
That is, a first feature of the method of the present invention is that when the position and orientation of a robot arm during robot work are visually tracked online using a camera, a marker formed of a specific form of geometric pattern is used. Are placed in advance in the surface visible area of the robot arm, and various texture patterns corresponding to the appearance of the geometric pattern when the plurality of markers are observed from various angles are prepared as templates in advance. While performing a predetermined correlation operation in time series between the images of the cameras of the plurality of markers arranged on the robot arm and various texture patterns prepared in the template, Of the robot arm visual tracking method that calculates the position and orientation of the robot arm and sequentially tracks the robot.

【0015】本発明方法の第2の特徴は、ロボット作業
に際してのロボットアームの位置・姿勢を、カメラを用
いて視覚的にオンラインで追跡するに当り、特定の形態
の幾何模様からなるマーカーを、事前にロボットアーム
の表面可視領域に配置しておく一方、当該ロボットアー
ムに配置された複数のマーカーをカメラで撮影したとき
に観測されうる種々のテクスチャパターンを、事前にテ
ンプレートとして用意しておき、ロボットアームに配置
された複数のマーカーのカメラ画像と、テンプレートと
して用意された種々のテクスチャパターンとの間で所定
の相関演算を行うことにより、そのカメラ画像平面に存
在する全てのマーカー射影のうち現時点で最も観測に適
した上位所定数のマーカー射影についての各マーカー位
置を算出し、この算出された各マーカー位置と、ロボッ
トアームにおける複数のマーカーの配置位置を示す既知
のマーカー配置データとに基づいて、ロボットアームの
位置・姿勢を算出してなるロボットアーム視覚追跡方法
の構成採用にある。
A second feature of the method of the present invention is that when a robot arm is visually tracked online using a camera to determine the position and orientation of a robot arm, a marker having a specific form of geometric pattern is used. While pre-arranged in the surface visible area of the robot arm, various texture patterns that can be observed when a plurality of markers arranged on the robot arm are photographed with a camera are prepared in advance as templates, By performing a predetermined correlation operation between the camera images of a plurality of markers arranged on the robot arm and various texture patterns prepared as templates, the current position among all marker projections existing on the camera image plane is obtained. Calculate the marker positions for the top predetermined number of marker projections most suitable for observation The present invention is configured to adopt a robot arm visual tracking method that calculates the position and orientation of the robot arm based on the issued marker positions and known marker arrangement data indicating the arrangement positions of the plurality of markers on the robot arm. .

【0016】本発明方法の第3の特徴は、上記本発明方
法の第1又は第2の特徴におけるマーカーが、任意の倍
率で拡大したときのテクスチャの一部がその元のテクス
チャに一致する形態の幾何模様からなるものを用いる一
方、テクスチャパターンを、マーカーのテクスチャに拡
大・縮小変換及び平行移動変換を除くアフィン変換を種
々の形態に施して生成してなるロボットアーム視覚追跡
方法の構成採用にある。
A third feature of the method of the present invention is that the marker according to the first or second feature of the method of the present invention has a form in which a part of the texture when enlarged at an arbitrary magnification matches the original texture. In addition to using the geometric pattern of the above, a texture pattern is applied to the texture of the marker in various forms by performing affine transformations other than scaling / transformation transformations and translation transformations to generate a robot arm visual tracking method. is there.

【0017】本発明方法の第4の特徴は、上記本発明方
法の第1、第2又は第3の特徴における所定の相関演算
が、上位所定数のマーカー射影にそれぞれ対応させるの
に最も適した所定数のテクスチャパターンをテンプレー
ト中から選択し、上位所定数のマーカー射影の座標の近
傍において、対応する所定数のテクスチャパターンとの
間の濃淡データ差分の絶対値の総和を求めてなるロボッ
トアーム視覚追跡方法の構成採用にある。
A fourth feature of the method of the present invention is that the predetermined correlation operation in the first, second or third feature of the above-described method of the present invention is most suitable for associating each with a predetermined number of marker projections. A robot arm vision system that selects a predetermined number of texture patterns from the template and calculates the sum of absolute values of the grayscale data differences between the predetermined number of texture patterns and the corresponding predetermined number of texture patterns in the vicinity of the coordinates of the upper predetermined number of marker projections It consists in adopting the configuration of the tracking method.

【0018】本発明方法の第5の特徴は、上記本発明方
法の第4の特徴における所定の相関演算が、濃淡データ
差分の絶対値の総和が最小値を与える座標を各マーカー
位置として出力してなるロボットアーム視覚追跡方法の
構成採用にある。
According to a fifth feature of the method of the present invention, the predetermined correlation operation in the above-mentioned fourth feature of the method of the present invention outputs, as marker positions, coordinates at which the sum of absolute values of the grayscale data differences gives the minimum value. In the configuration adoption of the robot arm visual tracking method.

【0019】本発明方法の第6の特徴は、上記本発明方
法の第1、第2、第3、第4又は第5の特徴におけるロ
ボットアームの位置・姿勢の算出が、上位所定数のマー
カー射影の座標と各マーカー位置との間の誤差につき定
義された評価関数を用いてなるロボットアーム視覚追跡
方法の構成採用にある。
According to a sixth feature of the method of the present invention, the calculation of the position / posture of the robot arm in the first, second, third, fourth or fifth feature of the method of the present invention is performed by using a predetermined number of upper markers. An object of the present invention is to adopt a configuration of a robot arm visual tracking method using an evaluation function defined for an error between a projection coordinate and each marker position.

【0020】本発明方法の第7の特徴は、上記本発明方
法の第6の特徴におけるロボットアームの位置・姿勢の
算出が、評価関数に最小二乗法を適用して各マーカー位
置を最適化することにより、当該ロボットアームの位置
・姿勢を推定してなるロボットアーム視覚追跡方法の構
成採用にある。
According to a seventh feature of the method of the present invention, the calculation of the position and orientation of the robot arm in the sixth feature of the method of the present invention optimizes each marker position by applying the least square method to the evaluation function. Thus, a robot arm visual tracking method for estimating the position and orientation of the robot arm is employed.

【0021】本発明方法の第8の特徴は、上記本発明方
法の第1、第2、第3、第4、第5、第6又は第7の特
徴におけるロボットアームの位置・姿勢の算出に際し、
上位所定数のマーカー射影の中の任意の1つのマーカー
射影を基準マーカー射影とした際の残りのマーカー射影
についてのマーカー平行透視射影を、ロボットアームの
おおよその位置・姿勢に基づいて計算し、この計算され
たマーカー平行透視射影の各マーカー位置と、基準マー
カー射影のマーカー位置とを入力とする線型方程式を解
くことにより、ロボットアームの位置・姿勢を算出して
なるロボットアーム視覚追跡方法の構成採用にある。
An eighth feature of the method of the present invention is that the position / posture of the robot arm in the first, second, third, fourth, fifth, sixth or seventh feature of the method of the present invention is calculated. ,
A marker parallel perspective projection for the remaining marker projections when any one of the top predetermined number of marker projections is used as a reference marker projection is calculated based on the approximate position and posture of the robot arm. By adopting the configuration of a robot arm visual tracking method that calculates the position and orientation of the robot arm by solving a linear equation using the calculated marker positions of the parallel perspective projection and the marker positions of the reference marker projection as inputs. It is in.

【0022】本発明方法の第9の特徴は、上記本発明方
法の第8の特徴におけるロボットアームの位置・姿勢の
算出が、一旦出力されたロボットアームの位置・姿勢を
再び入力する処理を繰り返し行い、この繰り返し処理の
過程でその都度計算されるマーカー平行透視射影につい
ての各マーカー位置が、それぞれほぼ一定の座標に収束
したときに、ロボットアームの位置・姿勢を最終的な値
として出力してなる、ロボットアーム視覚追跡方法の構
成採用にある。
A ninth feature of the method of the present invention is that, in the calculation of the position and orientation of the robot arm in the eighth feature of the method of the present invention, the process of re-inputting the once output position and orientation of the robot arm is repeated. When the marker positions for the marker parallel perspective projection calculated each time in the process of this iterative process converge to almost constant coordinates, the position and posture of the robot arm are output as final values. In other words, the configuration of the robot arm visual tracking method is adopted.

【0023】本発明方法の第10の特徴は、上記本発明
方法の第1、第2、第3、第4、第5、第6、第7、第
8又は第9の特徴における上位所定数のマーカー射影
が、カメラ画像平面に存在する全てのマーカー射影のう
ち同一平面上にない少なくとも4つのマーカー射影を用
いてなるロボットアーム視覚追跡方法の構成採用にあ
る。
A tenth feature of the method of the present invention is that the predetermined predetermined number of the first, second, third, fourth, fifth, sixth, seventh, eighth or ninth features of the above-described method of the present invention. Is a configuration of a robot arm visual tracking method using at least four marker projections that are not on the same plane among all the marker projections present on the camera image plane.

【0024】本発明方法の第11の特徴は、上記本発明
方法の第1、第2、第3、第4、第5、第6、第7、第
8、第9又は第10の特徴におけるマーカーが、その中
央部に、自己の基準位置を示しうる幾何的特徴点を有し
てなるものを用いてなるロボットアーム視覚追跡方法の
構成採用にある。
An eleventh feature of the method of the present invention is the first, second, third, fourth, fifth, sixth, seventh, eighth, ninth, or tenth feature of the method of the present invention. An object of the present invention is to adopt a configuration of a robot arm visual tracking method using a marker having a geometric feature point which can indicate its own reference position in the center thereof.

【0025】本発明方法の第12の特徴は、上記本発明
方法の第11の特徴におけるマーカーが、2つの明色部
と2つの暗色部とを互い違いに周回配置して構成され、
この配置形態により生じる2つの明色部同士或いは2つ
の暗色部同士の対称点を幾何的特徴点としてなるものを
用いてなるロボットアーム視覚追跡方法の構成採用にあ
る。
A twelfth feature of the method of the present invention is that the marker according to the eleventh feature of the method of the present invention is configured such that two light-colored portions and two dark-colored portions are alternately arranged, and
An object of the present invention is to adopt a configuration of a robot arm visual tracking method using a symmetric point between two light-colored portions or two dark-colored portions generated by this arrangement as a geometric feature point.

【0026】本発明方法の第13の特徴は、上記本発明
方法の第12の特徴におけるマーカーが、明色部を白色
とし、暗色部を黒色としてなるものを用いてなるロボッ
トアーム視覚追跡方法の構成採用にある。
According to a thirteenth feature of the method of the present invention, a marker in the twelfth feature of the above-described method of the present invention is a method for visually tracking a robot arm using a marker in which a bright portion is white and a dark portion is black. In the configuration adoption.

【0027】本発明方法の第14の特徴は、上記本発明
方法の第1、第2、第3、第4、第5、第6、第7、第
8、第9、第10、第11、第12又は第13の特徴に
おけるマーカーが、全体を正方形状に形成されてなるも
のを用いてなるロボットアーム視覚追跡方法の構成採用
にある。
A fourteenth feature of the method of the present invention is that the first, second, third, fourth, fifth, sixth, seventh, eighth, ninth, tenth, and eleventh of the above-described method of the present invention. The twelfth or thirteenth feature is that the marker adopts a configuration of a robot arm visual tracking method using a marker having a square shape as a whole.

【0028】本発明方法の第15の特徴は、上記本発明
方法の第1、第2、第3、第4、第5、第6、第7、第
8、第9、第10、第11、第12、第13又は第14
の特徴におけるマーカーを、ロボットアームの作業点を
なす先端効果器の表面可視領域に集中的に配置してなる
ロボットアーム視覚追跡方法の構成採用にある。
A fifteenth feature of the method of the present invention is that the first, second, third, fourth, fifth, sixth, seventh, eighth, ninth, tenth, and eleventh of the method of the present invention are described. Twelfth, thirteenth or fourteenth
The present invention resides in the adoption of a configuration of a robot arm visual tracking method in which markers having the above characteristics are intensively arranged in the surface visible region of the end effector forming the working point of the robot arm.

【0029】一方、本発明システム装置の第1の特徴
は、ロボットアームの表面可視領域に配置され、任意の
倍率で拡大したときのテクスチャの一部がその元のテク
スチャに一致する形態の幾何模様からなるマーカーと、
ロボットアームに配置された複数のマーカーを撮影する
カメラと、マーカーのテクスチャに拡大・縮小変換及び
平行移動変換を除くアフィン変換を種々の形態に施して
複数のテクスチャパターンを生成したものを、テンプレ
ートとして保存するテンプレート合成装置と、ロボット
アームに配置された複数のマーカーをカメラで撮影して
得られたカメラ画像と、テンプレート合成装置に保存さ
れたテンプレート中の複数のテクスチャパターンとの間
で所定の相関演算を行って、そのカメラ画像平面に存在
する全てのマーカー射影についての各マーカー位置を算
出することの可能なマーカー位置演算装置と、このマー
カー位置演算装置で実際に算出された各マーカー位置
と、ロボットアームにおける複数のマーカーの配置位置
を示す既知のマーカー配置データとに基づいて、ロボッ
トアームの位置・姿勢を算出するアーム位置・姿勢推定
演算装置と、このアーム位置・姿勢推定演算装置で算出
されたロボットアームの位置・姿勢に基づいて、カメラ
画像平面に存在する全てのマーカー射影の中から、現時
点で最も観測に適した上位所定数のマーカー射影を選択
すると共に、マーカー位置演算装置で行われる所定の相
関演算に際し、その選択された上位所定数のマーカー射
影にそれぞれ対応させるのに最も適した所定数のテクス
チャパターンを、テンプレート合成装置に保存されたテ
ンプレート中から選択するマーカー/テクスチャ選択装
置とを有してなるロボットアーム視覚追跡システム装置
の構成採用にある。
On the other hand, a first feature of the system apparatus of the present invention is that a geometric pattern arranged in the surface visible area of the robot arm and having a part of the texture when enlarged at an arbitrary magnification matches the original texture is provided. And a marker consisting of
A camera that captures a plurality of markers placed on the robot arm and a template that generates a plurality of texture patterns by applying affine transformations to the marker textures in various forms except for scaling / transformation transformations and translation transformations as templates A predetermined correlation between a template synthesizing device to be stored, a camera image obtained by photographing a plurality of markers arranged on the robot arm with a camera, and a plurality of texture patterns in the template stored in the template synthesizing device. By performing a calculation, a marker position calculation device capable of calculating each marker position for all marker projections present on the camera image plane, and each marker position actually calculated by the marker position calculation device, Known markers indicating the positions of multiple markers on the robot arm An arm position / posture estimation calculating device for calculating the position / posture of the robot arm based on the arrangement data; and a camera image plane based on the position / posture of the robot arm calculated by the arm position / posture calculation device. From among all the marker projections present, a top predetermined number of marker projections most suitable for observation at the present time are selected, and at the time of a predetermined correlation operation performed by the marker position calculation device, the selected top predetermined number of A configuration adoption of a robot arm visual tracking system device including a marker / texture selection device for selecting a predetermined number of texture patterns most suitable for each of marker projections from templates stored in the template synthesis device. It is in.

【0030】本発明システム装置の第2の特徴は、上記
本発明システム装置の第1の特徴におけるマーカー位置
演算装置が、所定の相関演算として、マーカー/テクス
チャ選択装置で選択された上位所定数のマーカー射影の
座標の近傍において、同じくマーカー/テクスチャ選択
装置で選択された対応する所定数のテクスチャパターン
との間の濃淡データ差分の絶対値の総和を求める相関演
算自在に前記マーカー/テクスチャ選択装置と接続して
なるロボットアーム視覚追跡システム装置の構成採用に
ある。
A second feature of the system device of the present invention is that the marker position calculating device in the first feature of the above-described system device of the present invention performs, as a predetermined correlation operation, a predetermined number of upper ranks selected by the marker / texture selecting device. In the vicinity of the coordinates of the marker projection, the marker / texture selecting device and the marker / texture selecting device are operable to perform a correlation operation to obtain the sum of absolute values of the grayscale data differences between the corresponding predetermined number of texture patterns also selected by the marker / texture selecting device. The present invention resides in adoption of a configuration of a connected robot arm visual tracking system device.

【0031】本発明システム装置の第3の特徴は、上記
本発明システム装置の第2の特徴におけるマーカー位置
演算装置が、濃淡データ差分に関する相関演算を行った
ときに、当該濃淡データ差分の絶対値の総和が最小値を
与える座標を各マーカー位置として出力自在に前記アー
ム位置・姿勢推定演算装置に接続してなるロボットアー
ム視覚追跡システム装置の構成採用にある。
A third feature of the system device of the present invention is that, when the marker position calculating device in the second feature of the above-described system device of the present invention performs a correlation operation on the difference of gray data, the absolute value of the gray data difference is obtained. Of the robot arm visual tracking system device which is connected to the arm position / posture estimating arithmetic unit so as to freely output the coordinates at which the sum of the values gives the minimum value as each marker position.

【0032】本発明システム装置の第4の特徴は、上記
本発明システム装置の第1、第2又は第3の特徴におけ
るアーム位置・姿勢推定演算装置が、マーカー/テクス
チャ選択装置で選択された上位所定数のマーカー射影の
座標と、マーカー位置演算装置で算出された各マーカー
位置との間の誤差を表す評価関数を定義する機能を有し
てなるロボットアーム視覚追跡システム装置の構成採用
にある。
A fourth feature of the system device of the present invention is that the arithmetic unit for estimating the arm position / posture in the first, second or third feature of the system device of the present invention has a higher rank selected by the marker / texture selecting device. A robot arm visual tracking system device having a function of defining an evaluation function representing an error between a predetermined number of marker projection coordinates and each marker position calculated by the marker position calculation device is adopted.

【0033】本発明システム装置の第5の特徴は、上記
本発明システム装置の第4の特徴におけるアーム位置・
姿勢推定演算装置が、評価関数に最小二乗法を適用し
て、マーカー位置演算装置で算出された各マーカー位置
を最適化することにより、ロボットアームの位置・姿勢
を推定する機能を有してなるロボットアーム視覚追跡シ
ステム装置の構成採用にある。
The fifth feature of the system device of the present invention is that the arm position and the arm position in the fourth feature of the system device of the present invention described above.
The posture estimation calculation device has a function of estimating the position and posture of the robot arm by optimizing each marker position calculated by the marker position calculation device by applying the least square method to the evaluation function. It is in the configuration adoption of the robot arm visual tracking system device.

【0034】本発明システム装置の第6の特徴は、上記
本発明システム装置の第1、第2、第3、第4又は第5
の特徴におけるアーム位置・姿勢推定演算装置が、マー
カー/テクスチャ選択装置で選択された上位所定数のマ
ーカー射影の中の任意の1つのマーカー射影を基準マー
カー射影とした際の残りのマーカー射影についてのマー
カー平行透視射影を、アーム位置・姿勢推定演算装置で
算出されたロボットアームのおおよその位置・姿勢に基
づいて計算する平行透視変換装置と、この平行透視変換
装置で計算されたマーカー平行透視射影の各マーカー位
置と、基準マーカー射影のマーカー位置とを入力とする
線型方程式を解くことにより、ロボットアームの位置・
姿勢を算出する線形射影逆演算装置とを有してなるロボ
ットアーム視覚追跡システム装置の構成採用にある。
A sixth feature of the system device of the present invention is that the first, second, third, fourth or fifth of the system device of the present invention described above.
The arm position / posture estimating calculation device in the feature of (1) above, when any one of the predetermined number of marker projections selected by the marker / texture selection device is used as the reference marker projection, the remaining marker projections A parallel perspective transformation device that calculates the marker parallel perspective projection based on the approximate position and posture of the robot arm calculated by the arm position / posture estimation calculation device, and a marker parallel perspective projection calculated by the parallel perspective transformation device By solving a linear equation with the input of each marker position and the marker position of the reference marker projection, the position of the robot arm
Another object of the present invention is to adopt a configuration of a robot arm visual tracking system device having a linear projection inverse operation device for calculating a posture.

【0035】本発明システム装置の第7の特徴は、上記
本発明システム装置の第6の特徴におけるアーム位置・
姿勢推定演算装置が、線形射影逆演算装置から一旦出力
されたロボットアームの位置・姿勢を平行透視変換装置
へ再び入力する処理を繰り返し行い、この繰り返し処理
の過程で、平行透視変換装置でその都度計算されるマー
カー平行透視射影についての各マーカー位置がそれぞれ
ほぼ一定の座標に収束したときに、ロボットアームの位
置・姿勢を最終的な値として出力自在としてなるロボッ
トアーム視覚追跡システム装置の構成採用にある。
A seventh feature of the system device of the present invention is that the arm position and the arm position in the sixth feature of the system device of the present invention described above.
The posture estimation arithmetic unit repeatedly performs a process of re-inputting the position and orientation of the robot arm once output from the linear projection inverse arithmetic unit to the parallel perspective transformation device. When the calculated marker parallel perspective projections converge to almost constant coordinates, the robot arm position / posture can be freely output as final values. is there.

【0036】本発明システム装置の第8の特徴は、上記
本発明システム装置の第1、第2、第3、第4、第5、
第6又は第7の特徴におけるマーカー/テクスチャ選択
装置が、上位所定数のマーカー射影として、カメラ画像
平面に存在する全てのマーカー射影の中から、同一平面
上にない少なくとも4つのマーカー射影を選択する機能
を有してなるロボットアーム視覚追跡システム装置の構
成採用にある。
An eighth feature of the system device of the present invention is that the first, second, third, fourth, fifth,
The marker / texture selection device according to the sixth or seventh aspect selects at least four marker projections that are not on the same plane from among all marker projections present on the camera image plane as the predetermined number of marker projections. The present invention resides in adopting a configuration of a robot arm visual tracking system device having a function.

【0037】本発明システム装置の第9の特徴は、上記
本発明システム装置の第1、第2、第3、第4、第5、
第6、第7又は第8の特徴におけるマーカーが、その中
央部に、自己の基準位置を示しうる幾何的特徴点を有し
てなるロボットアーム視覚追跡システム装置の構成採用
にある。
A ninth feature of the system device of the present invention is that the first, second, third, fourth, fifth,
The sixth, seventh or eighth aspect of the present invention resides in the configuration adoption of a robot arm visual tracking system device having a geometrical feature point which can indicate its own reference position in the center of the marker.

【0038】本発明システム装置の第10の特徴は、上
記本発明システム装置の第9の特徴におけるマーカー
が、2つの明色部と2つの暗色部とを互い違いに周回配
置して構成され、この配置形態により生じる2つの明色
部同士或いは2つの暗色部同士の対称点を幾何的特徴点
としてなるロボットアーム視覚追跡システム装置の構成
採用にある。
A tenth feature of the system device of the present invention is that the marker according to the ninth feature of the system device of the present invention is configured such that two light-colored portions and two dark-colored portions are alternately arranged. An object of the present invention is to adopt a configuration of a robot arm visual tracking system device in which a symmetrical point between two light-colored portions or two dark-colored portions caused by an arrangement form is used as a geometric feature point.

【0039】本発明システム装置の第11の特徴は、上
記本発明システム装置の第10の特徴におけるマーカー
が、明色部を白色とし、暗色部を黒色としてなるロボッ
トアーム視覚追跡システム装置の構成採用にある。
An eleventh feature of the system device of the present invention resides in that the marker in the tenth feature of the above-described system device of the present invention adopts a configuration of a robot arm visual tracking system device in which a bright portion is white and a dark portion is black. It is in.

【0040】本発明システム装置の第12の特徴は、上
記本発明システム装置の第1、第2、第3、第4、第
5、第6、第7、第8、第9、第10又は第11の特徴
におけるマーカーが、全体を正方形状に形成されてなる
ロボットアーム視覚追跡システム装置の構成採用にあ
る。
A twelfth feature of the system device of the present invention is that the first, second, third, fourth, fifth, sixth, seventh, eighth, ninth, tenth, or tenth of the above-described system device of the present invention. The eleventh feature resides in the adoption of a configuration of a robot arm visual tracking system device in which the marker is formed in a square shape as a whole.

【0041】本発明システム装置の第13の特徴は、上
記本発明システム装置の第1、第2、第3、第4、第
5、第6、第7、第8、第9、第10、第11又は第1
2の特徴におけるマーカーが、ロボットアームの作業点
をなす先端効果器の表面可視領域に集中的に配置されて
なるロボットアーム視覚追跡システム装置の構成採用に
ある。
A thirteenth feature of the system device of the present invention is that the first, second, third, fourth, fifth, sixth, seventh, eighth, ninth, tenth, and tenth aspects of the system device of the present invention are described above. Eleventh or first
The second feature resides in the adoption of a configuration of a robot arm visual tracking system device in which the markers are intensively arranged in the surface visible region of the end effector forming the working point of the robot arm.

【0042】[0042]

【発明の実施の形態】以下、添付図面を参照しつつ、本
発明の実施の形態を、その装置例及びこれに対応する方
法例につき順に説明する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an embodiment of the present invention;

【0043】(装置例)図1は、本発明の装置例に係る
ロボットアーム視覚追跡システム装置の全体構成図であ
る。なお、本システム装置において想定しているロボッ
ト作業は、前述した電柱への通信ケーブルの架設作業で
あり、以下のシステム装置中に示す作業ロボットは、当
該架設作業に適応した形態をなすものである。
(Example of Apparatus) FIG. 1 is an overall configuration diagram of a robot arm visual tracking system apparatus according to an example of the apparatus of the present invention. The robot work assumed in the present system device is the work of laying the communication cable on the electric pole described above, and the work robot shown in the following system device has a form adapted to the work. .

【0044】同図に示すように、この装置例に係るロボ
ットアーム視覚追跡システム装置αは、電柱への通信ケ
ーブル(共に図示せず)の架設作業を行うために、路上
を運転走行可能なトラック等の車両台車部11に搭載す
る作業ロボット1に適用される。
As shown in the figure, the robot arm visual tracking system device α according to this example of the device is a truck that can be driven and run on a road in order to perform a work of laying a communication cable (both not shown) to a utility pole. The present invention is applied to the work robot 1 mounted on the vehicle bogie unit 11.

【0045】車両台車部11に搭載する作業ロボット1
にはロボットアーム12が搭載され、当該ロボットアー
ム12の先端には、実際に通信ケーブルの架設作業を行
うための先端効果器13が取り付けられ、さらに、当該
先端効果器13の表面可視領域には、任意の倍率で拡大
したときのテクスチャの一部がその元のテクスチャに一
致するの形態の幾何模様からなるマーカー14が配置さ
れる。
Work robot 1 mounted on vehicle bogie unit 11
A robot arm 12 is mounted on the end of the robot arm 12. At the tip of the robot arm 12, a tip effector 13 for actually performing the work of laying a communication cable is attached. , A marker 14 composed of a geometric pattern in which a part of the texture when enlarged at an arbitrary magnification matches the original texture is arranged.

【0046】なお、これら複数のマーカー14は、ロボ
ットアーム12の本体に配置してもよいが、本発明によ
って所要の効果を得るには、それらを、図示のように先
端効果器13の部分に集中的に配置することが好まし
い。
Although the plurality of markers 14 may be arranged on the main body of the robot arm 12, in order to obtain the required effect according to the present invention, they must be placed on the end effector 13 as shown. It is preferable to arrange them intensively.

【0047】トラック等の車両ルーフ部15には、ロボ
ットアーム12の先端効果器13に配置された複数のマ
ーカー14を撮影するためのカメラ2(モノラルカメラ
で可)が搭載され、そのカメラ画像が、作業ロボット1
内に搭載されるロボットアーム制御装置3に与えられ
る。
A camera 2 (monaural camera) for photographing a plurality of markers 14 arranged on the end effector 13 of the robot arm 12 is mounted on a vehicle roof 15 such as a truck. , Work robot 1
Provided to the robot arm control device 3 mounted in the inside.

【0048】そのロボットアーム制御装置3は、図示の
ように、テンプレート合成装置31と、マーカー位置演
算装置32と、アーム位置・姿勢推定演算装置33と、
マーカー/テクスチャ選択装置34とを有して構成さ
れ、これらのうち、テンプレート合成装置31が、マー
カー14のテクスチャに拡大・縮小変換及び平行移動変
換を除くアフィン変換を種々の形態に施して複数のテク
スチャパターンを生成したものを、テンプレートとして
保存する。なお、マーカー14の具体的なテクスチャ及
びテンプレートの詳細については、方法例において説明
する。
As shown in the figure, the robot arm control device 3 includes a template synthesizing device 31, a marker position calculating device 32, an arm position / posture estimating calculating device 33,
And a marker / texture selecting device 34. Of these, the template synthesizing device 31 performs a plurality of affine transformations on the texture of the marker 14 except for the enlargement / reduction transformation and the parallel movement transformation in various forms. The generated texture pattern is saved as a template. The specific texture of the marker 14 and the details of the template will be described in a method example.

【0049】マーカー位置演算装置32は、ロボットア
ーム12の先端効果器13に配置された複数のマーカー
14をカメラ2で撮影して得られたカメラ画像と、テン
プレート合成装置31に保存されたテンプレート中の複
数のテクスチャパターンとの間で所定の相関演算を行っ
て、そのカメラ画像平面に存在する全てのマーカー射影
についての各マーカー位置を算出可能に構成される。
The marker position calculating device 32 includes a camera image obtained by photographing a plurality of markers 14 arranged on the end effector 13 of the robot arm 12 with the camera 2 and a template image stored in the template synthesizing device 31. A predetermined correlation operation is performed between the plurality of texture patterns and the respective marker positions for all marker projections present on the camera image plane are calculated.

【0050】アーム位置・姿勢推定演算装置33は、マ
ーカー位置演算装置32で実際に算出された各マーカー
位置と、ロボットアーム12の先端効果器13における
複数のマーカー14の配置位置を示す既知のマーカー配
置データとに基づいて、ロボットアーム12(先端効果
器13)の位置・姿勢を算出する。なお、本アーム位置
・姿勢推定演算装置33の更なる具体的構成については
後述する。
The arm position / posture estimating arithmetic unit 33 is a known marker that indicates each marker position actually calculated by the marker position arithmetic unit 32 and the arrangement position of the plurality of markers 14 in the end effector 13 of the robot arm 12. The position and orientation of the robot arm 12 (tip effector 13) are calculated based on the arrangement data. A further specific configuration of the arm position / posture estimation calculating device 33 will be described later.

【0051】マーカー/テクスチャ選択装置34は、ア
ーム位置・姿勢推定演算装置33で算出されたロボット
アーム12の位置・姿勢に基づいて、カメラ画像平面に
存在する全てのマーカー射影の中から、現時点で最も観
測に適した上位所定数(少なくとも4つ以上)のマーカ
ー射影を選択すると共に、マーカー位置演算装置32で
行われる所定の相関演算に際し、その選択された上位所
定数のマーカー射影にそれぞれ対応させるのに最も適し
た所定数のテクスチャパターンを、テンプレート合成装
置31に保存されたテンプレート中から選択する。
The marker / texture selecting device 34 selects, based on the position / posture of the robot arm 12 calculated by the arm position / posture estimating operation device 33, from all marker projections present on the camera image plane at the present time. The uppermost predetermined number (at least four or more) of marker projections most suitable for observation are selected, and at the time of a predetermined correlation operation performed by the marker position calculation device 32, the selected uppermost predetermined number of marker projections are respectively corresponded. The most suitable number of texture patterns are selected from the templates stored in the template synthesizing device 31.

【0052】なお、以上のロボットアーム制御装置3の
各構成要素のうち、マーカー位置演算装置32は、所定
の相関演算として、マーカー/テクスチャ選択装置34
で選択された上位所定数のマーカー射影の座標の近傍に
おいて、同じくマーカー/テクスチャ選択装置34で選
択された対応する所定数のテクスチャパターンとの間の
濃淡データ差分の絶対値の総和を求める相関演算を行
い、当該濃淡データ差分の絶対値の総和が最小値を与え
る座標を各マーカー位置として出力するよう構成され
る。
The marker position calculator 32 among the constituent elements of the robot arm controller 3 performs a marker / texture selector 34 as a predetermined correlation calculation.
Correlation calculation for calculating the sum of absolute values of differences in grayscale data between the predetermined number of texture patterns correspondingly selected by the marker / texture selection device 34 in the vicinity of the coordinates of the predetermined number of marker projections selected in the above. And outputs the coordinates at which the sum of the absolute values of the grayscale data differences gives the minimum value as each marker position.

【0053】また、アーム位置・姿勢推定演算装置33
は、マーカー/テクスチャ選択装置34で選択された上
位所定数のマーカー射影の座標と、マーカー位置演算装
置32で算出された各マーカー位置との間の誤差を表す
評価関数を定義し、この評価関数に最小二乗法を適用す
るなどして、マーカー位置演算装置32で算出された各
マーカー位置を最適化することにより、ロボットアーム
の位置・姿勢を推定するよう構成される。
The arm position / posture estimating arithmetic unit 33
Defines an evaluation function representing an error between the coordinates of the predetermined number of upper-ranked marker projections selected by the marker / texture selection device 34 and each marker position calculated by the marker position calculation device 32, and this evaluation function The position / posture of the robot arm is estimated by optimizing each marker position calculated by the marker position calculation device 32 by applying the least square method to the marker position.

【0054】次に、以上のアーム位置・姿勢推定演算装
置33の更なる具体的構成について説明する。
Next, a further specific configuration of the above-described arm position / posture estimation calculating device 33 will be described.

【0055】図2は、アーム位置・姿勢推定演算装置3
3の機能構成図である。
FIG. 2 shows an arm position / posture estimation calculating device 3
3 is a functional configuration diagram of FIG.

【0056】同図に示すように、アーム位置・姿勢推定
演算装置33は、マーカー/テクスチャ選択装置34で
選択された上位所定数のマーカー射影の中の任意の1つ
のマーカー射影を基準マーカー射影とした際の残りのマ
ーカー射影についてのマーカー平行透視射影を、アーム
位置演算装置32で算出されたロボットアーム12のお
およその位置・姿勢(マーカー位置情報)に基づいて計
算する平行透視変換装置33aと、この平行透視変換装
置33aで計算されたマーカー平行透視射影の各マーカ
ー位置と、基準マーカー射影のマーカー位置とを入力と
する線型方程式を解くことにより、ロボットアーム12
の位置・姿勢を算出する線形射影逆演算装置33bとを
有して構成される。
As shown in the figure, the arm position / posture estimating arithmetic unit 33 sets an arbitrary one of the predetermined number of marker projections selected by the marker / texture selecting unit 34 as a reference marker projection. A parallel perspective transformation device 33a that calculates a marker parallel perspective projection for the remaining marker projections based on the approximate position / posture (marker position information) of the robot arm 12 calculated by the arm position calculation device 32; By solving a linear equation using the marker positions of the marker parallel perspective projection calculated by the parallel perspective transformation device 33a and the marker positions of the reference marker projection as inputs, the robot arm 12
And a linear projection inverse operation device 33b for calculating the position / posture of.

【0057】そして、当該アーム位置・姿勢推定演算装
置33では、線形射影逆演算装置33bから一旦出力さ
れたロボットアーム12の位置・姿勢を平行透視変換装
置33aへ再び入力する処理を繰り返し行い、この繰り
返し処理の過程で、平行透視変換装置33aでその都度
計算されるマーカー平行透視射影についての各マーカー
位置がそれぞれほぼ一定の座標に収束したとき(前回出
力結果との差分の絶対値が閾値を下回ったとき)に、ロ
ボットアーム12の位置・姿勢を最終的な値(アーム位
置・姿勢最終結果)として出力するよう機能する。
The arm position / posture estimating operation unit 33 repeats the process of inputting the position / posture of the robot arm 12 once output from the linear projection inverse operation unit 33b to the parallel perspective transformation unit 33a. In the course of the repetitive processing, when the marker positions for the marker parallel perspective projection calculated each time by the parallel perspective transformation device 33a converge to substantially constant coordinates (the absolute value of the difference from the previous output result falls below the threshold value). ), The position / posture of the robot arm 12 is output as a final value (final arm position / posture result).

【0058】(方法例)続いて、以上のように構成され
た装置例に係るロボットアーム視覚追跡システム装置α
に適用される方法例につき説明する。
(Example of Method) Subsequently, the robot arm visual tracking system device α according to the example of the device configured as described above.
An example of a method applied to the method will be described.

【0059】図3は、マーカー14の形態及びその先端
効果器13に対する配置形態並びにカメラ画像平面に表
示されたマーカー射影を示す図である。
FIG. 3 is a diagram showing the form of the marker 14, its arrangement with respect to the tip effector 13, and the projection of the marker displayed on the camera image plane.

【0060】同図に示すように、本方法例においては、
特定の形態の幾何模様からなるマーカー14として、全
体を正方形状に形成されてなり、かつ、任意の倍率で拡
大したときのテクスチャの一部がその元のテクスチャに
一致する形態の幾何模様からなるものを用いている。
As shown in the figure, in this example of the method,
As a marker 14 made of a geometric pattern of a specific form, the whole is formed in a square shape, and a part of the texture when enlarged at an arbitrary magnification is made of a geometric pattern of a form that matches the original texture. Use something.

【0061】即ち、ここで用いられるマーカー14は、
以上のテクスチャの条件を満たすため、その中央部に、
自己の基準位置を示しうる幾何的特徴点を有している必
要があり、このため本例では、2つの明色部と2つの暗
色部とを互い違いに周回配置して構成され、この配置形
態により生じる2つの明色部同士或いは2つの暗色部同
士の対称点を、所要の幾何的特徴点としてなるものを用
いている。なお、通常、当該マーカー14の明色部は白
色とすることが好ましく、暗色部については黒色とする
ことが好ましい。
That is, the marker 14 used here is:
In order to satisfy the above texture conditions,
It is necessary to have a geometric feature point capable of indicating its own reference position. For this reason, in this example, two light-colored portions and two dark-colored portions are alternately arranged in a circle. Are used as the required geometric feature points between the two bright-colored parts or the two symmetrical points caused by the above. In general, it is preferable that the light-colored portion of the marker 14 be white and the dark-colored portion be black.

【0062】[0062]

【外1】 [Outside 1]

【0063】[0063]

【外2】 [Outside 2]

【0064】[0064]

【外3】 [Outside 3]

【0065】[0065]

【外4】 [Outside 4]

【0066】[0066]

【外5】 [Outside 5]

【0067】以上のようにしてテンプレート合成装置3
1にテクスチャパタンが用意された状態において、所要
のロボットアーム12の位置・姿勢を算出し、その追跡
を行うために、ロボットアーム制御装置3の各装置で
は、順次、以下の処理を行う。
As described above, the template synthesizing device 3
In the state where the texture pattern is prepared in 1, the respective units of the robot arm control device 3 sequentially perform the following processing in order to calculate the required position and orientation of the robot arm 12 and to track the position.

【0068】[0068]

【外6】 [Outside 6]

【0069】[0069]

【外7】 [Outside 7]

【0070】[0070]

【外8】 [Outside 8]

【0071】[0071]

【外9】 [Outside 9]

【0072】[0072]

【外10】 [Outside 10]

【0073】[0073]

【外11】 [Outside 11]

【0074】[0074]

【外12】 [Outside 12]

【0075】なお、以上のアーム位置・姿勢推定演算装
置33の更なる具体的機能について説明すれば、以下の
ようになる。
The following is a description of further specific functions of the above-described arm position / posture estimation calculating device 33.

【0076】[0076]

【外13】 [Outside 13]

【0077】[0077]

【外14】 [Outside 14]

【0078】[0078]

【外15】 [Outside 15]

【0079】[0079]

【外16】 [Outside 16]

【0080】[0080]

【外17】 [Outside 17]

【0081】[0081]

【外18】 [Outside 18]

【0082】[0082]

【外19】 [Outside 19]

【0083】[0083]

【外20】 [Outside 20]

【0084】結局、以上のアーム位置・姿勢推定演算装
置33における一連の処理の流れをまとめれば、以下の
ようになる。
After all, the flow of a series of processes in the arm position / posture estimation calculation device 33 is summarized as follows.

【0085】[0085]

【外21】 [Outside 21]

【0086】以上、本発明の実施の形態につき説明した
が、本発明は、必ずしも上述した手段及び手法にのみ限
定されるものではなく、本発明にいう目的を達成し、後
述する効果を有する範囲内において、適宜、変更実施す
ることが可能なものである。
The embodiments of the present invention have been described above. However, the present invention is not necessarily limited to the above-described means and methods, but achieves the object of the present invention and has the following effects. Within this, it is possible to change and implement as appropriate.

【0087】[0087]

【発明の効果】以上説明したように、本発明によれば、
特定の形態の幾何模様からなるマーカーを、事前にロボ
ットアームの表面可視領域に配置しておく一方、それら
複数のマーカーを様々な角度から観測したときの幾何模
様の見え方に対応した種々のテクスチャパターンを、事
前にテンプレートとして用意しておき、さらに、ロボッ
トアームに配置された複数のマーカーのカメラ画像と、
テンプレートとして用意された種々のテクスチャパター
ンとの間で相関をとるようにしたことから、所要のロボ
ットアームの位置・姿勢のオンライン追跡を、極めて安
定した状態で行うことが可能となる。
As described above, according to the present invention,
Various markers corresponding to the appearance of the geometric pattern when a plurality of markers are observed from various angles are placed in advance in the visible area of the surface of the robot arm, while markers composed of a specific form of the geometric pattern are placed in advance. A pattern is prepared in advance as a template, and further, camera images of a plurality of markers arranged on the robot arm,
Since correlation is made between various texture patterns prepared as templates, it is possible to perform online tracking of the required position and orientation of the robot arm in an extremely stable state.

【0088】また、本発明によれば、所要の視覚追跡
を、従来のようなロボットアーム本体のエッジ検索やL
ED等のマーカー射影の2値化認識によっては行わず、
それを特定の形態の幾何模様からなるマーカーを用いて
行うようにしたことから、所要のロボットアームの位置
・姿勢のオンライン追跡を、ロボット作業環境の背景や
光度に殆ど左右されることなく確実かつ適正に行うこと
が可能となる。
Further, according to the present invention, the required visual tracking can be performed by the conventional edge search or L
Not performed by binarization recognition of marker projection such as ED,
Since this is done using markers consisting of specific forms of geometric patterns, online tracking of the position and orientation of the required robot arm is reliable and almost independent of the background and light intensity of the robot working environment. It can be performed properly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の装置例に係るロボットアーム視覚追跡
システム装置の全体構成図である。
FIG. 1 is an overall configuration diagram of a robot arm visual tracking system device according to a device example of the present invention.

【図2】アーム位置・姿勢推定演算装置の機能構成図で
ある。
FIG. 2 is a functional configuration diagram of an arm position / posture estimation calculation device.

【図3】マーカーの形態及びその先端効果器に対する配
置形態並びにカメラ画像平面に表示されたマーカー射影
を示す図である。
FIG. 3 is a view showing a form of a marker, an arrangement form of the marker with respect to a tip effector, and marker projection displayed on a camera image plane.

【図4】テンプレート合成装置に保存される種々のテク
スチャパターンを含むテンプレートを示す図である。
FIG. 4 is a diagram showing templates including various texture patterns stored in the template synthesizing apparatus.

【図5】アーム位置・推定演算装置で行われる演算を説
明するための透視投影モデルを示す図である。
FIG. 5 is a diagram showing a perspective projection model for explaining a calculation performed by an arm position / estimation calculation device.

【符号の説明】[Explanation of symbols]

α…ロボットアーム視覚追跡システム装置 1…作業ロボット 11…車両台車部 12…ロボットアーム 13…先端効果器 14…マーカー 15…車両ルーフ部 2…カメラ 3…ロボットアーム制御装置 31…テンプレート合成装置 32…マーカー位置演算装置 33…アーム位置・姿勢推定演算装置 33a…平行透視変換装置 33b…線形射影逆演算装置 34…マーカー/テクスチャ選択装置 α: Robot arm visual tracking system device 1: Work robot 11: Vehicle trolley unit 12: Robot arm 13: Tip effector 14: Marker 15: Vehicle roof unit 2: Camera 3: Robot arm control device 31: Template synthesizing device 32 ... Marker position calculation device 33 ... Arm position / posture estimation calculation device 33a ... Parallel perspective conversion device 33b ... Linear projection inverse calculation device 34 ... Marker / texture selection device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 丹野 瑞紀 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 松本 三千人 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 3F059 AA15 BB07 DA08 DB04 DB09 FB12 5H269 AB33 BB07 CC11 JJ09 QB15 5H303 AA10 BB03 FF13 GG14 HH04 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Mizuki Tanno 3-19-2 Nishi Shinjuku, Shinjuku-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Michito Matsumoto 3-19 Nishishinjuku, Shinjuku-ku, Tokyo No. 2 Nippon Telegraph and Telephone Corporation F term (reference) 3F059 AA15 BB07 DA08 DB04 DB09 FB12 5H269 AB33 BB07 CC11 JJ09 QB15 5H303 AA10 BB03 FF13 GG14 HH04

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】ロボット作業に際してのロボットアームの
位置・姿勢を、カメラを用いて視覚的にオンラインで追
跡するに当り、 特定の形態の幾何模様からなるマーカーを、事前に前記
ロボットアームの表面可視領域に配置して置く一方、 当該複数のマーカーを様々な角度から観測したときの幾
何模様の見え方に対応した種々のテクスチャパターン
を、事前にテンプレートとして用意して置き、 さらに、前記ロボットアームに配置された前記複数のマ
ーカーの前記カメラの画像と、前記テンプレートに用意
された種々の前記テクスチャパターンとの間で所定の相
関演算を時系列的に行いつつ、 その時々の前記ロボットアームの位置・姿勢を算出して
逐次追跡する、 ことを特徴とするロボットアーム視覚追跡方法。
When tracking the position / posture of a robot arm in a robot operation visually on-line using a camera, a marker made of a geometrical pattern of a specific form is previously visualized on the surface of the robot arm. While placing in the area, various texture patterns corresponding to the appearance of the geometric pattern when the plurality of markers are observed from various angles are prepared and placed in advance as templates, and further, the robot arm While performing a predetermined correlation operation in time series between the images of the cameras of the plurality of arranged markers and the various texture patterns prepared in the template, the position and the position of the robot arm at each time A robot arm visual tracking method, comprising: calculating a posture; and sequentially tracking the posture.
【請求項2】ロボット作業に際してのロボットアームの
位置・姿勢を、カメラを用いて視覚的にオンラインで追
跡するに当り、 特定の形態の幾何模様からなるマーカーを、事前に前記
ロボットアームの表面可視領域に配置しておく一方、 当該ロボットアームに配置された複数のマーカーを前記
カメラで撮影したときに観測されうる種々のテクスチャ
パターンを、事前にテンプレートとして用意しておき、 前記ロボットアームに配置された前記複数のマーカーの
カメラ画像と、前記テンプレートとして用意された前記
種々のテクスチャパターンとの間で所定の相関演算を行
うことにより、そのカメラ画像平面に存在する全てのマ
ーカー射影のうち現時点で最も観測に適した上位所定数
のマーカー射影についての各マーカー位置を算出し、 この算出された前記各マーカー位置と、前記ロボットア
ームにおける前記複数のマーカーの配置位置を示す既知
のマーカー配置データとに基づいて、前記ロボットアー
ムの位置・姿勢を算出する、 ことを特徴とするロボットアーム視覚追跡方法。
2. A method for visually tracking the position and orientation of a robot arm during a robot operation online using a camera, wherein a marker formed of a geometric pattern of a specific form is previously visualized on the surface of the robot arm. On the other hand, various texture patterns that can be observed when a plurality of markers arranged on the robot arm are photographed by the camera are prepared in advance as templates, and are arranged on the robot arm. By performing a predetermined correlation operation between the camera images of the plurality of markers and the various texture patterns prepared as the template, the most current projection of all marker projections present on the camera image plane is performed. Calculate the marker positions for a predetermined number of marker projections suitable for observation, Calculating a position and orientation of the robot arm based on the calculated marker positions and known marker arrangement data indicating arrangement positions of the plurality of markers on the robot arm. Visual tracking method.
【請求項3】前記マーカーは、 任意の倍率で拡大したときのテクスチャの一部がその元
のテクスチャに一致する形態の幾何模様からなるものを
用いる一方、 前記テクスチャパターンは、 前記マーカーのテクスチャに拡大・縮小変換及び平行移
動変換を除くアフィン変換を種々の形態に施して生成す
る、 ことを特徴とする請求項1又は2に記載のロボットアー
ム視覚追跡方法。
3. The marker uses a geometric pattern in which a part of the texture when enlarged at an arbitrary magnification matches the original texture, and the texture pattern is a texture of the marker. The robot arm visual tracking method according to claim 1, wherein an affine transformation excluding an enlargement / reduction transformation and a translation transformation is performed in various forms.
【請求項4】前記所定の相関演算は、 前記上位所定数のマーカー射影にそれぞれ対応させるの
に最も適した所定数のテクスチャパターンを前記テンプ
レート中から選択し、 前記上位所定数のマーカー射影の座標の近傍において、
対応する前記所定数のテクスチャパターンとの間の濃淡
データ差分の絶対値の総和を求める、 ことを特徴とする請求項1、2又は3に記載のロボット
アーム視覚追跡方法。
4. The predetermined correlation operation includes: selecting a predetermined number of texture patterns most suitable for respectively corresponding to the upper predetermined number of marker projections from the template; and coordinates of the upper predetermined number of marker projections In the vicinity of
The robot arm visual tracking method according to claim 1, wherein a sum of absolute values of grayscale data differences between the predetermined number of texture patterns and the corresponding number of texture patterns is obtained.
【請求項5】前記所定の相関演算は、 前記濃淡データ差分の絶対値の総和が最小値を与える座
標を前記各マーカー位置として出力する、 ことを特徴とする請求項4に記載のロボットアーム視覚
追跡方法。
5. The robot arm visual system according to claim 4, wherein in the predetermined correlation operation, coordinates at which the sum of absolute values of the grayscale data differences gives a minimum value are output as the marker positions. Tracking method.
【請求項6】前記ロボットアームの位置・姿勢の算出
は、 前記上位所定数のマーカー射影の座標と前記各マーカー
位置との間の誤差につき定義された評価関数を用いる、 ことを特徴とする請求項1、2、3、4又は5に記載の
ロボットアーム視覚追跡方法。
6. The calculation of the position / posture of the robot arm, wherein an evaluation function defined for an error between the coordinates of the predetermined number of marker projections and each of the marker positions is used. Item 6. The robot arm visual tracking method according to any one of Items 1, 2, 3, 4, and 5.
【請求項7】前記ロボットアームの位置・姿勢の算出
は、 前記評価関数に最小二乗法を適用して前記各マーカー位
置を最適化することにより、当該ロボットアームの位置
・姿勢を推定する、 ことを特徴とする請求項6に記載のロボットアーム視覚
追跡方法。
7. The position / posture of the robot arm is calculated by optimizing each marker position by applying a least squares method to the evaluation function, thereby estimating the position / posture of the robot arm. The method of claim 6, wherein:
【請求項8】前記ロボットアームの位置・姿勢の算出
は、 前記上位所定数のマーカー射影の中の任意の1つのマー
カー射影を基準マーカー射影とした際の残りのマーカー
射影についてのマーカー平行透視射影を、前記ロボット
アームのおおよその位置・姿勢に基づいて計算し、 この計算された前記マーカー平行透視射影の各マーカー
位置と、前記基準マーカー射影のマーカー位置とを入力
とする線型方程式を解くことにより、前記ロボットアー
ムの位置・姿勢を算出する、 ことを特徴とする請求項1、2、3、4、5、6又は7
に記載のロボットアーム視覚追跡方法。
8. A method according to claim 8, wherein the position and orientation of the robot arm are calculated by: parallel perspective projection of the remaining marker projections when any one of the predetermined number of marker projections is used as a reference marker projection. Is calculated based on the approximate position / posture of the robot arm, and by solving a linear equation that receives the calculated marker positions of the marker parallel perspective projection and the marker positions of the reference marker projection as inputs. And calculating the position and orientation of the robot arm.
4. The visual tracking method of a robot arm according to item 1.
【請求項9】前記ロボットアームの位置・姿勢の算出
は、 一旦出力された前記ロボットアームの位置・姿勢を再び
入力する処理を繰り返し行い、 この繰り返し処理の過程でその都度計算される前記マー
カー平行透視射影についての前記各マーカー位置が、そ
れぞれほぼ一定の座標に収束したときに、前記ロボット
アームの位置・姿勢を最終的な値として出力する、 ことを特徴とする請求項8に記載のロボットアーム視覚
追跡方法。
9. The calculation of the position / posture of the robot arm is repeated by repeatedly inputting the position / posture of the robot arm once output. 9. The robot arm according to claim 8, wherein when the marker positions for the perspective projection converge to substantially constant coordinates, the position and orientation of the robot arm are output as final values. 10. Visual tracking method.
【請求項10】前記上位所定数のマーカー射影は、 前記カメラ画像平面に存在する前記全てのマーカー射影
のうち同一平面上にない少なくとも4つのマーカー射影
を用いる、 ことを特徴とする請求項1、2、3、4、5、6、7、
8又は9に記載のロボットアーム視覚追跡方法。
10. The method according to claim 1, wherein the predetermined number of marker projections uses at least four marker projections that are not on the same plane among all the marker projections present on the camera image plane. 2, 3, 4, 5, 6, 7,
10. The visual tracking method for a robot arm according to 8 or 9.
【請求項11】前記マーカーは、 その中央部に、自己の基準位置を示しうる幾何的特徴点
を有してなるものを用いる、 ことを特徴とする請求項1、2、3、4、5、6、7、
8、9又は10に記載のロボットアーム視覚追跡方法。
11. The marker according to claim 1, wherein the marker has a geometric feature point at its central portion which can indicate its own reference position. , 6, 7,
11. The visual tracking method for a robot arm according to 8, 9, or 10.
【請求項12】前記マーカーは、 2つの明色部と2つの暗色部とを互い違いに周回配置し
て構成され、この配置形態により生じる前記2つの明色
部同士或いは前記2つの暗色部同士の対称点を前記幾何
的特徴点としてなるものを用いる、 ことを特徴とする請求項11に記載のロボットアーム視
覚追跡方法。
12. The marker comprises two light-colored portions and two dark-colored portions which are alternately circulated around the marker, and wherein the two light-colored portions or the two dark-colored portions generated by this arrangement form. The robot arm visual tracking method according to claim 11, wherein a symmetric point is used as the geometric feature point.
【請求項13】前記マーカーは、 前記明色部を白色とし、前記暗色部を黒色としてなるも
のを用いる、 ことを特徴とする請求項12に記載のロボットアーム視
覚追跡方法。
13. The robot arm visual tracking method according to claim 12, wherein the marker uses a color in which the bright portion is white and the dark portion is black.
【請求項14】前記マーカーは、 全体を正方形状に形成されてなるものを用いる、 ことを特徴とする請求項1、2、3、4、5、6、7、
8、9、10、11、12又は13に記載のロボットア
ーム視覚追跡方法。
14. The marker according to claim 1, wherein the marker is formed in a square shape as a whole.
14. The robot arm visual tracking method according to 8, 9, 10, 11, 12, or 13.
【請求項15】前記マーカーは、 前記ロボットアームの作業点をなす先端効果器の表面可
視領域に集中的に配置する、 ことを特徴とする請求項1、2、3、4、5、6、7、
8、9、10、11、12、13又は14に記載のロボ
ットアーム視覚追跡方法。
15. The device according to claim 1, wherein the markers are arranged intensively in a surface visible region of a tip effector forming a working point of the robot arm. 7,
The robot arm visual tracking method according to 8, 9, 10, 11, 12, 13, or 14.
【請求項16】ロボットアームの表面可視領域に配置さ
れ、任意の倍率で拡大したときのテクスチャの一部がそ
の元のテクスチャに一致する形態の幾何模様からなるマ
ーカーと、 前記ロボットアームに配置された複数のマーカーを撮影
するカメラと、 前記マーカーのテクスチャに拡大・縮小変換及び平行移
動変換を除くアフィン変換を種々の形態に施して複数の
テクスチャパターンを生成したものを、テンプレートと
して保存するテンプレート合成装置と、 前記ロボットアームに配置された前記複数のマーカーを
前記カメラで撮影して得られたカメラ画像と、前記テン
プレート合成装置に保存された前記テンプレート中の前
記複数のテクスチャパターンとの間で所定の相関演算を
行って、そのカメラ画像平面に存在する全てのマーカー
射影についての各マーカー位置を算出することの可能な
マーカー位置演算装置と、 このマーカー位置演算装置で実際に算出された前記各マ
ーカー位置と、前記ロボットアームにおける前記複数の
マーカーの配置位置を示す既知のマーカー配置データと
に基づいて、前記ロボットアームの位置・姿勢を算出す
るアーム位置・姿勢推定演算装置と、 このアーム位置・姿勢推定演算装置で算出された前記ロ
ボットアームの位置・姿勢に基づいて、前記カメラ画像
平面に存在する前記全てのマーカー射影の中から、現時
点で最も観測に適した上位所定数のマーカー射影を選択
すると共に、前記マーカー位置演算装置で行われる前記
所定の相関演算に際し、その選択された前記上位所定数
のマーカー射影にそれぞれ対応させるのに最も適した所
定数のテクスチャパターンを、前記テンプレート合成装
置に保存された前記テンプレート中から選択するマーカ
ー/テクスチャ選択装置とを有する、 ことを特徴とするロボットアーム視覚追跡システム装
置。
16. A marker which is arranged in a visible region of the surface of the robot arm and which is formed of a geometric pattern having a form in which a part of the texture when enlarged at an arbitrary magnification matches the original texture, is arranged on the robot arm. A camera that captures a plurality of markers, and a template composition that generates a plurality of texture patterns by applying affine transformations to the textures of the markers in various forms except for scaling / transformation and translation transformations, and saves them as templates. A predetermined number of images between the camera image obtained by photographing the plurality of markers arranged on the robot arm with the camera and the plurality of texture patterns in the template stored in the template synthesizing device; Of all marker projections existing in the camera image plane A marker position calculating device capable of calculating each of the marker positions, a known position indicating each of the marker positions actually calculated by the marker position calculating device, and an arrangement position of the plurality of markers on the robot arm. An arm position / posture estimation calculating device that calculates the position / posture of the robot arm based on the marker arrangement data; and, based on the position / posture of the robot arm calculated by the arm position / posture estimation calculation device, From among all the marker projections present on the camera image plane, and at the present time, selecting a top predetermined number of marker projections most suitable for observation, and at the time of the predetermined correlation calculation performed by the marker position calculation device, A predetermined number of texts most suitable to correspond to the selected predetermined number of marker projections, respectively. A marker / texture selecting device for selecting a cha pattern from the templates stored in the template synthesizing device.
【請求項17】前記マーカー位置演算装置は、 前記所定の相関演算として、前記マーカー/テクスチャ
選択装置で選択された前記上位所定数のマーカー射影の
座標の近傍において、同じく前記マーカー/テクスチャ
選択装置で選択された対応する前記所定数のテクスチャ
パターンとの間の濃淡データ差分の絶対値の総和を求め
る相関演算自在に前記マーカー/テクスチャ選択装置と
接続する、 ことを特徴とする請求項16に記載のロボットアーム視
覚追跡システム装置。
17. The marker position calculating device according to claim 1, wherein the predetermined correlation operation is performed by the marker / texture selecting device in the vicinity of the coordinates of the upper predetermined number of marker projections selected by the marker / texture selecting device. 17. The marker / texture selection device according to claim 16, wherein the marker / texture selection device is connected so as to be capable of performing a correlation operation for obtaining a sum of absolute values of grayscale data differences between the selected corresponding predetermined number of texture patterns. Robot arm visual tracking system device.
【請求項18】前記マーカー位置演算装置は、 前記濃淡データ差分に関する前記相関演算を行ったとき
に、当該濃淡データ差分の絶対値の総和が最小値を与え
る座標を前記各マーカー位置として出力自在に前記アー
ム位置・姿勢推定演算装置に接続する、 ことを特徴とする請求項17に記載のロボットアーム視
覚追跡システム装置。
18. The marker position calculating device, when performing the correlation operation on the grayscale data difference, outputs the coordinates at which the sum of absolute values of the grayscale data difference gives the minimum value as the respective marker positions. The robot arm visual tracking system device according to claim 17, wherein the robot arm visual tracking system device is connected to the arm position / posture estimation calculation device.
【請求項19】前記アーム位置・姿勢推定演算装置は、 前記マーカー/テクスチャ選択装置で選択された前記上
位所定数のマーカー射影の座標と、前記マーカー位置演
算装置で算出された前記各マーカー位置との間の誤差を
表す評価関数を定義する機能を有する、 ことを特徴とする請求項16、17又は18に記載のロ
ボットアーム視覚追跡システム装置。
19. The arm position / posture estimating calculation device includes: coordinates of the predetermined number of marker projections selected by the marker / texture selection device; and each of the marker positions calculated by the marker position calculation device. The robot arm visual tracking system device according to claim 16, which has a function of defining an evaluation function representing an error between the robot arm and the robot arm.
【請求項20】前記アーム位置・姿勢推定演算装置は、 前記評価関数に最小二乗法を適用して、前記マーカー位
置演算装置で算出された前記各マーカー位置を最適化す
ることにより、前記ロボットアームの位置・姿勢を推定
する機能を有する、 ことを特徴とする請求項19に記載のロボットアーム視
覚追跡システム装置。
20. The arm position / posture estimation calculating device, wherein the least square method is applied to the evaluation function to optimize each of the marker positions calculated by the marker position calculating device, so that the robot arm The robot arm visual tracking system device according to claim 19, further comprising a function of estimating the position and orientation of the robot arm.
【請求項21】前記アーム位置・姿勢推定演算装置は、 前記マーカー/テクスチャ選択装置で選択された前記上
位所定数のマーカー射影の中の任意の1つのマーカー射
影を基準マーカー射影とした際の残りのマーカー射影に
ついてのマーカー平行透視射影を、前記アーム位置・姿
勢推定演算装置で算出された前記ロボットアームのおお
よその位置・姿勢に基づいて計算する平行透視変換装置
と、 この平行透視変換装置で計算された前記マーカー平行透
視射影の各マーカー位置と、前記基準マーカー射影のマ
ーカー位置とを入力とする線型方程式を解くことによ
り、前記ロボットアームの位置・姿勢を算出する線形射
影逆演算装置とを有する、 ことを特徴とする請求項16、17、18、19又は2
0に記載のロボットアーム視覚追跡システム装置。
21. The arm position / posture estimating arithmetic unit, wherein an arbitrary one of the upper predetermined number of marker projections selected by the marker / texture selector is used as a reference marker projection. A parallel perspective transformation device for calculating a marker parallel perspective projection for the marker projection based on the approximate position / posture of the robot arm calculated by the arm position / posture estimation calculation device; and A linear projection inverse operation device for calculating the position and orientation of the robot arm by solving a linear equation using the marker positions of the obtained marker parallel perspective projection and the marker positions of the reference marker projection as inputs. The method according to claim 16, 17, 18, 19 or 2.
0. The robot arm visual tracking system device according to 0.
【請求項22】前記アーム位置・姿勢推定演算装置は、 前記線形射影逆演算装置から一旦出力された前記ロボッ
トアームの位置・姿勢を前記平行透視変換装置へ再び入
力する処理を繰り返し行い、この繰り返し処理の過程
で、前記平行透視変換装置でその都度計算される前記マ
ーカー平行透視射影についての前記各マーカー位置がそ
れぞれほぼ一定の座標に収束したときに、前記ロボット
アームの位置・姿勢を最終的な値として出力自在とす
る、 ことを特徴とする請求項21に記載のロボットアーム視
覚追跡システム装置。
22. The arm position / posture estimating operation device repeatedly performs a process of inputting the position / posture of the robot arm once output from the linear projection inverse operation device to the parallel perspective transformation device, and repeats this process. In the process, when the marker positions for the marker parallel perspective projection calculated each time by the parallel perspective transformation device converge to substantially constant coordinates, the position / posture of the robot arm is finally set. 22. The robot arm visual tracking system device according to claim 21, wherein the value is freely output as a value.
【請求項23】前記マーカー/テクスチャ選択装置は、 前記上位所定数のマーカー射影として、前記カメラ画像
平面に存在する前記全てのマーカー射影の中から、同一
平面上にない少なくとも4つのマーカー射影を選択する
機能を有する、 ことを特徴とする請求項16、17、18、19、2
0、21又は22に記載のロボットアーム視覚追跡シス
テム装置。
23. The marker / texture selection device, as the upper predetermined number of marker projections, selects at least four marker projections that are not on the same plane from among all the marker projections present on the camera image plane. 16. A function of performing the following:
23. The robot arm visual tracking system device according to 0, 21 or 22.
【請求項24】前記マーカーは、 その中央部に、自己の基準位置を示しうる幾何的特徴点
を有してなる、 ことを特徴とする請求項16、17、18、19、2
0、21、22又は23に記載のロボットアーム視覚追
跡システム装置。
24. The marker according to claim 16, wherein the marker has a geometrical feature point at its center, which can indicate its own reference position.
24. The robot arm visual tracking system device according to 0, 21, 22 or 23.
【請求項25】前記マーカーは、 2つの明色部と2つの暗色部とを互い違いに周回配置し
て構成され、この配置形態により生じる前記2つの明色
部同士或いは前記2つの暗色部同士の対称点を前記幾何
的特徴点としてなる、 ことを特徴とする請求項24に記載のロボットアーム視
覚追跡システム装置。
25. The marker comprises two light-colored portions and two dark-colored portions arranged alternately around the marker, and the marker is provided between the two light-colored portions or the two dark-colored portions generated by this arrangement. The robot arm visual tracking system device according to claim 24, wherein a symmetry point is used as the geometric feature point.
【請求項26】前記マーカーは、 前記明色部を白色とし、前記暗色部を黒色としてなる、 ことを特徴とする請求項25に記載のロボットアーム視
覚追跡システム装置。
26. The robot arm visual tracking system according to claim 25, wherein the marker has a white color in the light color portion and a black color in the dark color portion.
【請求項27】前記マーカーは、 全体を正方形状に形成されてなる、 ことを特徴とする請求項16、17、18、19、2
0、21、22、23、24、25又は26に記載のロ
ボットアーム視覚追跡システム装置。
27. The marker according to claim 16, wherein the marker is entirely formed in a square shape.
The robot arm visual tracking system device according to 0, 21, 22, 23, 24, 25 or 26.
【請求項28】前記マーカーは、 前記ロボットアームの作業点をなす先端効果器の表面可
視領域に集中的に配置されてなる、 ことを特徴とする請求項16、17、18、19、2
0、21、22、23、24、25、26又は27に記
載のロボットアーム視覚追跡システム装置。
28. The marker according to claim 16, wherein the markers are arranged intensively in a surface visible region of a tip effector forming a working point of the robot arm.
28. The robot arm visual tracking system device according to 0, 21, 22, 23, 24, 25, 26 or 27.
JP10263096A 1998-09-17 1998-09-17 Robot arm visual chase method and system device Pending JP2000084876A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10263096A JP2000084876A (en) 1998-09-17 1998-09-17 Robot arm visual chase method and system device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10263096A JP2000084876A (en) 1998-09-17 1998-09-17 Robot arm visual chase method and system device

Publications (1)

Publication Number Publication Date
JP2000084876A true JP2000084876A (en) 2000-03-28

Family

ID=17384781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10263096A Pending JP2000084876A (en) 1998-09-17 1998-09-17 Robot arm visual chase method and system device

Country Status (1)

Country Link
JP (1) JP2000084876A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185240A (en) * 2004-12-28 2006-07-13 Toshiba Corp Mobile robot device
JP2015510456A (en) * 2012-02-13 2015-04-09 ツェー・ベー・ウー・チェー・ベー・プラゼ・ファクルタ・ストロイニー Method for setting operation arm position on support frame, and support frame for positioning operation arm
WO2015182455A1 (en) * 2014-05-26 2015-12-03 Kyb株式会社 Work state detection system of work vehicle, and work vehicle
US9561594B2 (en) 2013-11-05 2017-02-07 Seiko Epson Corporation Robot, robot system, and robot control apparatus
JP2019000918A (en) * 2017-06-12 2019-01-10 日立Geニュークリア・エナジー株式会社 System and method for controlling arm attitude of working robot
KR20190070122A (en) * 2017-12-12 2019-06-20 한국기계연구원 Autonomous working machine and method of measuring displacement of rotating part of autonomous working machine
WO2023277095A1 (en) * 2021-07-02 2023-01-05 川崎重工業株式会社 Correction system and teaching data correction method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185240A (en) * 2004-12-28 2006-07-13 Toshiba Corp Mobile robot device
JP2015510456A (en) * 2012-02-13 2015-04-09 ツェー・ベー・ウー・チェー・ベー・プラゼ・ファクルタ・ストロイニー Method for setting operation arm position on support frame, and support frame for positioning operation arm
US9561594B2 (en) 2013-11-05 2017-02-07 Seiko Epson Corporation Robot, robot system, and robot control apparatus
WO2015182455A1 (en) * 2014-05-26 2015-12-03 Kyb株式会社 Work state detection system of work vehicle, and work vehicle
JP2015224875A (en) * 2014-05-26 2015-12-14 Kyb株式会社 Operation state detection system of work machine, and work machine
CN106104197A (en) * 2014-05-26 2016-11-09 Kyb株式会社 The duty detecting system of engineering machinery and engineering machinery
KR101854065B1 (en) * 2014-05-26 2018-05-02 케이와이비 가부시키가이샤 Operation state detection system of work machine and work machine
JP2019000918A (en) * 2017-06-12 2019-01-10 日立Geニュークリア・エナジー株式会社 System and method for controlling arm attitude of working robot
KR20190070122A (en) * 2017-12-12 2019-06-20 한국기계연구원 Autonomous working machine and method of measuring displacement of rotating part of autonomous working machine
KR102080578B1 (en) 2017-12-12 2020-02-24 한국기계연구원 Autonomous working machine and method of measuring displacement of rotating part of autonomous working machine
WO2023277095A1 (en) * 2021-07-02 2023-01-05 川崎重工業株式会社 Correction system and teaching data correction method

Similar Documents

Publication Publication Date Title
JP6560480B2 (en) Image processing system, image processing method, and program
US9047507B2 (en) Upper-body skeleton extraction from depth maps
JP5422735B2 (en) Computer-aided analysis method for real-time use of image sequences including variable postures
KR100974900B1 (en) Marker recognition apparatus using dynamic threshold and method thereof
JP5837508B2 (en) Posture state estimation apparatus and posture state estimation method
US8705868B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
CN112639846A (en) Method and device for training deep learning model
US20120219177A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US20040017472A1 (en) Method for video-based nose location tracking and hands-free computer input devices based thereon
US20100166259A1 (en) Object enumerating apparatus and object enumerating method
US10043279B1 (en) Robust detection and classification of body parts in a depth map
JP2004094491A (en) Face orientation estimation device and method and its program
WO2013145615A1 (en) Site estimation device, site estimation method, and site estimation program
Rambach et al. Learning 6dof object poses from synthetic single channel images
JPH10320588A (en) Picture processor and picture processing method
JP3894782B2 (en) Object recognition device
US20120219179A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8718325B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP2000084876A (en) Robot arm visual chase method and system device
JPH09237348A (en) Method for estimating posture of human body
Hoermann et al. Vehicle localization and classification using off-board vision and 3-D models
US11138807B1 (en) Detection of test object for virtual superimposition
JP2004054947A (en) Object collation system, object collation method and object collation program
CN102402687A (en) Method and device for detecting rigid body part direction based on depth information
US8705869B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040803