JPH03296604A - Distance and attitude measuring apparatus for moving body - Google Patents

Distance and attitude measuring apparatus for moving body

Info

Publication number
JPH03296604A
JPH03296604A JP9943190A JP9943190A JPH03296604A JP H03296604 A JPH03296604 A JP H03296604A JP 9943190 A JP9943190 A JP 9943190A JP 9943190 A JP9943190 A JP 9943190A JP H03296604 A JPH03296604 A JP H03296604A
Authority
JP
Japan
Prior art keywords
angle
target
target member
still image
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9943190A
Other languages
Japanese (ja)
Other versions
JP3056764B2 (en
Inventor
Koji Yamawaki
功次 山脇
Makoto Okamura
岡村 良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
National Space Development Agency of Japan
Original Assignee
Toshiba Corp
National Space Development Agency of Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, National Space Development Agency of Japan filed Critical Toshiba Corp
Priority to JP2099431A priority Critical patent/JP3056764B2/en
Publication of JPH03296604A publication Critical patent/JPH03296604A/en
Application granted granted Critical
Publication of JP3056764B2 publication Critical patent/JP3056764B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To measure with high accuracy the position and attitude angle of an object to a moving body by obtaining the position and attitude angle on the basis of the detecting values of the position of a target of the object and the angle of the object when a still image of the object is photographed. CONSTITUTION:The image data of an object 9 to be measured including a target member 10 which is photographed by a TV camera 2 is processed in a signal processing part 3 and displayed at a display part 4. An operating part 5 is manipulated then to output a still image instructing signal to the processing part 3. As a result, a still image of the image data is displayed at the display part 4. A cursor 4a is sequentially adjusted to three targets of the member 10 via a cursor generating part 6 and the cursor positional data is output to an operating part 7. A joint angle of a manipulator 1 is detected by a joint angle detecting sensor 8 at the same time when the still image instructing signal is output. The joint angle data is output to the operating part 7. In the operating part 7, the position and attitude angle are operated from the cursor positional data, and the operated values are synthesized with the joint angle data. Accordingly, the position and attitude angle of the object 9 to the manipulator 1 are obtained.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) この発明は、例えば宇宙空間等に構築されるマニピュレ
ータにテレビジョンカメラ(TVカメラ)を搭載し、そ
の撮像した画像より作業対象等の測定対象物との相互間
の位置及び姿勢を測定する移動体用距離及び姿勢測定装
置に関する。
[Detailed Description of the Invention] [Objective of the Invention] (Industrial Application Field) The present invention is directed to installing a television camera (TV camera) on a manipulator built in, for example, outer space, and performing operations based on images taken by the manipulator. The present invention relates to a distance and orientation measuring device for a moving body that measures the position and orientation of a measurement object such as an object.

(従来の技術) 最近、宇宙開発の分野においては、宇宙ステーション等
の有人宇宙計画が推進され、これにともない宇宙空間に
大形宇宙構造物を建設する計画がある。この大形宇宙構
造物建設計画にあっては、構造物の取付け・組立て作業
用として、マニピュレータシステムの利用が考えられて
いる。そして、このようなマニピュレータシステムにお
いて、要請されることは、特に、その安全性と共に、正
確な作業を簡便に行ない得るように構成することである
。そこで、この要請を満足するには、そのマニピュレー
タに対する測定対象物、例えば作業対象の位置及び姿勢
角を正確に把握する必要がある。
(Prior Art) Recently, in the field of space development, manned space programs such as space stations have been promoted, and along with this, there are plans to construct large space structures in outer space. In this large-scale space structure construction plan, the use of a manipulator system is being considered for the installation and assembly of the structure. What is required of such a manipulator system is, in particular, safety and a structure that allows accurate work to be performed easily. Therefore, in order to satisfy this requirement, it is necessary to accurately grasp the position and attitude angle of the object to be measured, such as the object to be worked on, with respect to the manipulator.

このような位置及び姿勢測定手段としては、レーザ光を
測定対象物に照射して、その反射光をCCD等の検出セ
ンサで検出する方法が考えられている。
As such a position and orientation measuring means, a method has been considered in which a laser beam is irradiated onto the object to be measured and the reflected light is detected by a detection sensor such as a CCD.

しかしながら、上記位置及び姿勢測定手段では、測定対
象物からの充分かつ安定した輝度の反射光を受光しなけ
れば、正確な測定が困難なために、測定対象物に測距用
のレーザ発射装置や反射鏡を備えなければならず、その
構成が複雑となると共に、重量が嵩むという問題を有し
ていた。
However, with the above-mentioned position and attitude measuring means, it is difficult to make accurate measurements unless reflected light of sufficient and stable brightness is received from the object to be measured. It is necessary to include a reflecting mirror, which has the problem of complicating the structure and increasing the weight.

係る事情は、宇宙用マニピュレータシステムに限ること
なく、重力環境で使用するマニピュレータシステムにお
いても同様のものである。
This situation is not limited to space manipulator systems, but also applies to manipulator systems used in gravitational environments.

(発明が解決しようとする課題) 以上述べたように、従来のマニピュレータと測定対象物
との位置及び姿勢を検出する測定手段では、構成が複雑
であると共に、重量か嵩むという問題を有していた。
(Problems to be Solved by the Invention) As described above, the conventional measuring means for detecting the position and orientation of the manipulator and the object to be measured has a problem that the structure is complicated and it is heavy and bulky. Ta.

この発明は上記の事情に鑑みてなされたもので、姿勢測
定装置を提供することを目的とする。
This invention has been made in view of the above circumstances, and an object thereof is to provide a posture measuring device.

[発明の構成コ (課題を解決するための手段) この発明は、測定対象物に設けられる一直線上に位置し
ない少なくとも3個の標的を有した標的部材と、マニピ
ュレータに設けられ、前記標的部材を撮像する撮像手段
と、この撮像手段で撮像した画像を表示する表示手段と
、この表示手段に前記撮像手段で撮像した前記標的部材
の画像を静止させる画像静止手段と、前記表示手段に表
示された標的部材の静止画像における標的にカーソルを
重畳して標的部材の標的の静止画像における位置を検出
する標的位置検出手段と、前記移動体の角度を検出する
角度検出手段と、前記標的位置検出手段で検出した前記
標的部材の標的の位置及び前記表示手段に表示された標
的部材の静止画像の撮像時における前記角度検出手段の
検出値を基に前記移動体に対する測定対象物との距離及
び姿勢角を求める演算手段とを備えて移動体用位置及び
姿勢測定装置を構成したものである。
[Structure of the Invention (Means for Solving the Problems) The present invention includes a target member provided on an object to be measured and having at least three targets that are not located in a straight line, and a manipulator provided with the target member. an imaging means for taking an image, a display means for displaying an image taken by the imaging means, an image stilling means for making the display means freeze an image of the target member taken by the imaging means, and an image displayed on the display means. target position detection means for detecting the position of the target of the target member in the still image by superimposing a cursor on the target in the still image of the target member; angle detection means for detecting the angle of the moving body; The distance and attitude angle of the object to be measured with respect to the moving object are determined based on the detected position of the target member and the detection value of the angle detecting means at the time of capturing a still image of the target member displayed on the display means. A moving body position and orientation measuring device is provided with calculating means for calculating the position and orientation of a moving body.

(作用) 上記構成によれば、移動体に対する測定対象物の位置及
び姿勢角は、標的部材の静止画像より検出した撮像手段
に対する標的部材の位置及び姿勢角と、その検出時にお
ける移動体の角度より求めた移動体の基部(取り付は部
)に対する移動体の先端部の撮像手段の位置及び姿勢角
とが合成されて求めることにより、移動体の基部(取付
は部)と標的部材との関係において求められる。従って
、移動体に付与されるバックラッシュ等による振動の影
響と無関係に正確な測定が行われることとなり、移動体
の測定対象物に対する正確な位置及び姿勢角を基にして
、移動体の正確にして、安全な操作制御が可能となる。
(Operation) According to the above configuration, the position and attitude angle of the object to be measured with respect to the moving object are determined by the position and attitude angle of the target member relative to the imaging means detected from a still image of the target member, and the angle of the moving object at the time of detection. By combining the position and attitude angle of the imaging means of the tip of the moving body with respect to the base of the moving body (the attachment is the part) determined by required in a relationship. Therefore, accurate measurements can be made regardless of the influence of vibrations caused by backlash etc. applied to the moving object, and accurate measurements can be made based on the accurate position and attitude angle of the moving object with respect to the object to be measured. This enables safe operation control.

また、これによれば、撮像手段を監視用テレビジョンカ
メラ等を兼用することが可能となることにより、可及的
に構成の簡略化と共に、小形・軽量化の促進に寄与でき
る。
Further, according to this, since it becomes possible to use the imaging means as a monitoring television camera or the like, it is possible to simplify the configuration as much as possible, and contribute to promoting miniaturization and weight reduction.

(実施例) 以下、この発明の実施例について、図面を参照して詳細
に説明する。
(Example) Hereinafter, an example of the present invention will be described in detail with reference to the drawings.

ピュレータ1には撮像手段として、監視用テレビジョン
(TV)カメラ2が搭載される。このTV左カメラは信
号処理部3を介して表示部4に接続される。信号処理部
3は操作部5を介して選択的にTV左カメラで撮像した
画像の静止画像を表示部4に表示する。また、表示部4
には、操作部5の操作に対応して、カーソル4aが表示
される。
A monitoring television (TV) camera 2 is mounted on the generator 1 as an imaging means. This TV left camera is connected to the display section 4 via the signal processing section 3. The signal processing section 3 selectively displays a still image of the image taken by the TV left camera on the display section 4 via the operation section 5 . In addition, the display section 4
A cursor 4a is displayed in response to an operation on the operation unit 5.

このカーソル4aは操作部5の操作に連動してカーソル
発生部6を介して移動設定され、その設定位置に対応し
てカーソル位置データを演算部7に出力する。この演算
部7は、マニピュレータ1に設けた関節角度検出センサ
8の出力端が接続されており、この関節角度検出センサ
8の検出信号が入力されている。
The cursor 4a is set to move via the cursor generating section 6 in conjunction with the operation of the operating section 5, and outputs cursor position data to the calculating section 7 in accordance with the set position. The calculation unit 7 is connected to the output end of a joint angle detection sensor 8 provided on the manipulator 1, and receives a detection signal from the joint angle detection sensor 8 as input.

一方、TV右カメラに撮像される測定対象物9には、測
定用標的部材10が所定の位置に取付けられる。この標
的部材10は、例えば第2図に示すように、−直線上に
位置しない略三角形の頂点に配置した3個の標的101
〜103で形成される。
On the other hand, a measurement target member 10 is attached to a predetermined position on the measurement object 9 imaged by the TV right camera. This target member 10, as shown in FIG.
~103.

上記構成において、マニピュレータ1に対する測定対象
物9の位置及び姿勢角を測定する場合は、先ず、TV右
カメラで撮像した標的部材10を含む測定対象物9の画
像データを信号処理部3で処理して表示部4に表示させ
る。次に、操作者は、標的部材10が表示部4に表示さ
れているのを確認した状態で、操作部5を操作して、静
止画像指令信号を信号処理部3に出力し、画像データの
静止画像を表示部4に表示させる。ここで、操作者は、
操作部5のカーソル操作部を操作してカーソル発生部6
を介してカーソル4aを標的部材10の標的101〜1
03に順に合せる。このカーソル4aか標的部材10の
標的101〜103に対応されると、操作部5は、その
カーソル位置データを演算部7に出力する。また、上記
の静止画像指令信号と同時刻に、関節角度検出センサ8
は、マニピュレータ1の関節角度を検出し、その関節角
度データを演算部7に出力する。演算部7は、先ずカー
ソル位置データから位置及び姿勢角を演算して求め、そ
の演算値にマニピュレータ1の関節角度データを合成し
てマニピュレータ1に対する測定対象物2の位置及び姿
勢角を後述するように求める。
In the above configuration, when measuring the position and attitude angle of the measurement object 9 with respect to the manipulator 1, first, the image data of the measurement object 9 including the target member 10 captured by the TV right camera is processed by the signal processing unit 3. displayed on the display section 4. Next, after confirming that the target member 10 is displayed on the display section 4, the operator operates the operation section 5 to output a still image command signal to the signal processing section 3, and outputs a still image command signal to the signal processing section 3, thereby converting the image data. A still image is displayed on the display unit 4. Here, the operator:
The cursor generating section 6 is activated by operating the cursor operating section of the operating section 5.
to move the cursor 4a to the targets 101-1 of the target member 10.
03 in order. When the cursor 4a corresponds to the targets 101 to 103 of the target member 10, the operation section 5 outputs the cursor position data to the calculation section 7. Also, at the same time as the above still image command signal, the joint angle detection sensor 8
detects the joint angle of the manipulator 1 and outputs the joint angle data to the calculation unit 7. The calculation unit 7 first calculates the position and attitude angle from the cursor position data, and synthesizes the joint angle data of the manipulator 1 with the calculated values to calculate the position and attitude angle of the object 2 to be measured with respect to the manipulator 1, as will be described later. to ask.

すなわち、カーソル位置データから静止画像指令送出時
刻における標的部材10の標的方向の単メラ基準座標X
M 、YM 、ZM (第2図参照)に対して求められ
る。例えば第3図に示すように、標的基準点P+  (
i−1,2,3)に対応する画像上のカーソル位置をx
、、y、とし、P、方向の単位ベクトルe +  T 
Vカメラ2の水平画角を2λ。(第3図中では、2 X
 oに対する角度に相当)、垂直画角2μ0 (第3図
中では、2Yoに対する角度に相当)とすると、点P1
の方位角λ、及び上下角μ、は 一方、測定対象物9に第2図及び第4図に示すような標
的部材10が取付けられているとすると、次の関係式 より求まる。従って、単位ベトルe、はが成立する。
That is, from the cursor position data, the single-mera reference coordinate X in the target direction of the target member 10 at the still image command sending time is determined.
M, YM, and ZM (see Figure 2). For example, as shown in FIG. 3, the target reference point P+ (
i-1, 2, 3) on the image corresponding to x
,,y, and the unit vector e + T in the P direction
The horizontal angle of view of V camera 2 is 2λ. (In Figure 3, 2
If the vertical angle of view is 2μ0 (corresponding to the angle with respect to 2Yo in Figure 3), then point P1
On the other hand, assuming that the target member 10 as shown in FIGS. 2 and 4 is attached to the measurement object 9, the azimuth angle λ and the vertical angle μ can be determined from the following relational expression. Therefore, the unit vectors e and ha hold true.

となる。また、標的101〜103の3点の位置して良
いものであるから、これらとel+62+e、とより、
以下に述べるように、カメラ基準座標に対する標的原点
10.(第4図参照)の位置と測定対象物9の姿勢角が
求められる。
becomes. Also, since the three points of targets 101 to 103 are well positioned, from these and el+62+e,
Target origin 10. relative to camera reference coordinates, as described below. (see FIG. 4) and the attitude angle of the object to be measured 9 are determined.

第5図は、座標軸Xt 、YT 、ZTからなる標2a
と標的101〜103を結ぶ単位ベクトル、Dl、I1
2.I3はカメラ基準点2aから標的101〜103ま
での各距離である。
Figure 5 shows a mark 2a consisting of coordinate axes Xt, YT, and ZT.
and the unit vector connecting targets 101 to 103, Dl, I1
2. I3 is each distance from the camera reference point 2a to the targets 101 to 103.

また、標的101〜103の相互関係を規定すr、・r
i −一定値 0、  j −1,2,3) ・・・(3) であり、第2図及び第4図に示した図示では、標軸xT
、y、、zTに沿った単位ベクトルを示すものである。
In addition, the mutual relationship between the targets 101 to 103 is defined as r,・r
i - constant value 0, j -1, 2, 3) ... (3) In the illustrations shown in Figs. 2 and 4, the reference axis xT
, y, , zT.

であり、これらの条件が付加されて、上記(2)式は、 ここで、rl、r3及びe I+  e I(スカラ積
)は、既知の値であり、11.I12.Isは、未知の
決定すべき値であり、また、e l 1  e Iは、
ベクトル7下と7下のなす角度φ1.の余弦と等しく1
゜即ち、 elajl−coSφ1(i− J−1゜ 2゜ 3) ・・・(6) で表わすことができる。
With these conditions added, the above equation (2) becomes: Here, rl, r3 and e I+ e I (scalar product) are known values, and 11. I12. Is is an unknown value to be determined, and e l 1 e I is
Angle φ1 between vectors 7 below and 7 below. equal to the cosine of 1
In other words, it can be expressed as elajl-coSφ1(i-J-1°2°3) (6).

一方、上記(5)式の解R1,I2.I13を求めるた
めには、 なる関数を導入して X+−11++δ1)t (i −1゜ 2゜ 3) ・・・(8) とすれば、 (7)式のIIiまわりのテーラ−展開より、 が得られる。ここで、f + *  gi +  hl
は、それぞれxlに関する導関数を意味する。上記(9
)式を行列形式に書き直すと、 (11) 式により導出した6g を用いて X、−δIt   X+ として再びδglを求めることにより、Xlは11に漸
近し、g、が求まることになる。
On the other hand, solutions R1, I2 of the above equation (5). In order to find I13, we introduce the following function and set it as is obtained. Here, f + * gi + hl
each means a derivative with respect to xl. Above (9
) is rewritten in matrix form. By using 6g derived from the equation (11) to find δgl again as X, -δIt X+, Xl asymptotically approaches 11, and g is found.

次に、(2)式に対して求めたglの値を代入すると、 このように (5)式の解11.Iz、1gの近傍の値
を設定して(7)式及び(9)式の係数を求めると、 
(10)式より (8)式によって表現される偏位量δ
11が求まることになる。即ち、となり、rl+r3は
カメラ・座標軸に対して、それらの成分が求められたこ
とになる。これにより、第5図に示した標的座標軸XT
 、YT 、Ztに沿となり、 標的座標軸への変換マトリックス(MTは、・・・(1
2) によって求まる。
Next, by substituting the obtained value of gl into equation (2), we get the following solution to equation (5): 11. Setting values near Iz and 1g and finding the coefficients of equations (7) and (9),
From equation (10), deviation amount δ expressed by equation (8)
11 will be found. That is, rl+r3 means that these components have been found for the camera/coordinate axis. As a result, the target coordinate axis XT shown in FIG.
, YT, and Zt, and the transformation matrix (MT is...(1
2) Determined by.

(15)式の行列の成分は、オイラ角に関係付けられる
ことによって、これにより通常の計算によって、回転順
序の定義にあったオイラ角を導出すれば良い。
The elements of the matrix in equation (15) are related to the Euler angle, so that the Euler angle that meets the definition of the rotation order can be derived by ordinary calculation.

一例としてオイラ角をカメラ基準座標に対し、方位角ψ
 (Yy軸) ピッチ角θ (Xt軸)、ロール角φ 
(ZM軸)の回転順序で定義すれば、CMTのij酸成
分C1とすれば、オイラ角はSθ 二 sin θ、 
  Cθ :cos θSψ: sinψ、  Cφ:
cosψSφ: sinφl  Cφ:cosφの式に
より求められる。
As an example, the Euler angle is expressed as the azimuth angle ψ with respect to the camera reference coordinates.
(Yy axis) Pitch angle θ (Xt axis), roll angle φ
If defined in terms of the rotation order of (ZM axis), if the ij acid component of CMT is C1, then the Euler angle is Sθ2 sin θ,
Cθ: cos θSψ: sinψ, Cφ:
It is determined by the formula cosψSφ: sinφl Cφ:cosφ.

ここで、座標変換マトリックス(MTとオイラ角の関係
は、 より求められる。
Here, the relationship between the coordinate transformation matrix (MT and Euler's angle) can be found as follows.

また、カメラ基準点2aから標的原点10aまでの位置
ベクトルLは、 L=I3e3  r3 ・・・(18) で与えられる。
Further, the position vector L from the camera reference point 2a to the target origin 10a is given by L=I3e3 r3 (18).

以上のように表示部4に表示された標的部材10の静止
画像より標的101〜103の静止画像における位置を
検出して、この標的101〜103の位置を基に演算部
7は、前述したた演算を実施して、各標的基準点の方向
(単位ベクトル)を求め、これと各標的基準点間の位置
関係(既知)を用いてめ、標的部材10の静止画化した
時刻におけるTV左カメラの基準点2aに対する標的部
材10の位置及び姿勢角を求める。
As described above, the positions of the targets 101 to 103 in the still image are detected from the still image of the target member 10 displayed on the display unit 4, and based on the positions of the targets 101 to 103, the calculation unit 7 calculates Perform calculations to find the direction (unit vector) of each target reference point, and use this and the positional relationship (known) between each target reference point to determine the direction of the TV left camera at the time when the target member 10 is made into a still image. The position and attitude angle of the target member 10 with respect to the reference point 2a are determined.

同時に、演算部7には、標的部材10の静止画化した時
刻におけるマニピュレータ1の関節角度が関節角度検出
センサ8より入力され、その値を基にマニピュレータ1
の取付は部(基部)laに対するアーム先端部のカメラ
基準点2aの位置及び姿勢角を求め、その求めた値と、
前述したように求めたTV左カメラの基準点2aに対す
る前記標的部材10の位置及び姿勢角とを合成してマニ
ピュレータ1の基部1aに対する標的部材10の位置及
び姿勢角を求める。
At the same time, the joint angle of the manipulator 1 at the time when the target member 10 is made into a still image is input to the calculation unit 7 from the joint angle detection sensor 8, and based on that value, the manipulator 1
For installation, find the position and attitude angle of the camera reference point 2a of the arm tip with respect to the part (base) la, and use the found values and
The position and attitude angle of the target member 10 relative to the reference point 2a of the TV left camera obtained as described above are combined to determine the position and attitude angle of the target member 10 relative to the base 1a of the manipulator 1.

例えば、第6図に示すような2自由度(2関節)のマニ
ピュレータ1の場合には、TV左カメラのカメラ基準点
2a及びカメラ基準座標軸(XM。
For example, in the case of a manipulator 1 with two degrees of freedom (two joints) as shown in FIG. 6, the camera reference point 2a of the TV left camera and the camera reference coordinate axis (XM.

YM、ZM)とすると、基準点2aから標的部材10の
標的原点10aまでの距離り及びカメラ基準座標軸に対
する標的座標軸(Xt 、 Yr 、  Zt )の姿
勢が と表される。但し、Lはカメラ座標軸に対するベクトル
成分で示しており、ψ、θ、φは、前記(16)式に示
すオイラ角である。また、マニピm L 、静止画化し
た時刻の関節角を第6図のようにrl+r’2とする。
YM, ZM), the distance from the reference point 2a to the target origin 10a of the target member 10 and the attitude of the target coordinate axes (Xt, Yr, Zt) with respect to the camera reference coordinate axis are expressed as follows. However, L is shown as a vector component with respect to the camera coordinate axis, and ψ, θ, and φ are Euler angles shown in equation (16) above. Furthermore, the joint angle of the manipulator m L at the time when the still image is made is rl+r'2 as shown in FIG.

このとき、マニピュレータ1の基部1aに対する標的部
材10の標的原点10mの位置L’s+m(Lx  、
LY  +LZ  )は、基部1aに固定した座標軸(
XB 、 YB 、  ZB )に対して・・・(20
) として求められる。また、基部1aを固定して座標軸(
Xs、Ya、Za)に対する標的部材10の標的座標軸
(Xt 、 YT 、  Zt )のオイラ角は、前記
(16)式と同様に定義すると、 ψ−r、+r2+α+β、θ−0.φ−0・・・(21
)として求められる。これにより、マニピュレータ1の
基部1aに対する標識部材10(測定対称物9)の位置
及び姿勢角が求められる。
At this time, the position L's+m (Lx,
LY +LZ ) is the coordinate axis (
For XB, YB, ZB)...(20
) is obtained as. In addition, the base 1a is fixed and the coordinate axis (
The Euler angle of the target coordinate axes (Xt, YT, Zt) of the target member 10 with respect to Xs, Ya, Za) is defined in the same manner as the above equation (16) as follows: ψ-r, +r2+α+β, θ-0. φ-0...(21
) is required. As a result, the position and attitude angle of the marker member 10 (object to be measured 9) with respect to the base 1a of the manipulator 1 are determined.

このように、上記マニピュレータ用距離及び姿勢測定装
置は、表示部4に標的部材10の静止画像を表示してこ
の静止画像より、その標的101〜103に対する静止
画像におけるカーソル位置を求めてTV左カメラに対す
る標的部材10の位置及び姿勢角を算出し、その検出時
におけるマニピュレータ1の関節角度よりマニピュレー
タ1の基部1aに対するアーム先端部のTV左カメラと
の位置及び姿勢角を求めて、これらの値を合成してマニ
ピュレータ1に対する標的部材10の位置及び姿勢角を
算出するように構成した。これによれば、マニピュレー
タ1の基部1aに対する標的部材10の位置及び姿勢角
を求めることができることにより、例えばマニピュレー
タ1の関節に対していわゆるバックラッシュ等による振
動が付与される状態においてもその振動と無関係に正確
な測定を行なうことができるため、マニピュレータ1の
正確にして、高精度な操作制御が可能となると共に、安
全性の向上が図れる。また、これによれば、TV左カメ
ラを監視操作用テレビジョンカメラを兼用することが可
能となることにより、可及的に構成の簡略化と共に、小
形・軽量化の促進に寄与できる。
In this manner, the manipulator distance and orientation measuring device displays a still image of the target member 10 on the display unit 4, determines the cursor position in the still image for the targets 101 to 103 from this still image, and then displays the position of the cursor in the still image with respect to the targets 101 to 103. The position and attitude angle of the target member 10 relative to the target member 10 are calculated, and the position and attitude angle of the arm tip with respect to the TV left camera with respect to the base 1a of the manipulator 1 are determined from the joint angle of the manipulator 1 at the time of detection, and these values are calculated. The configuration is such that the position and attitude angle of the target member 10 with respect to the manipulator 1 are calculated by combining them. According to this, the position and posture angle of the target member 10 with respect to the base 1a of the manipulator 1 can be determined, so that even when vibrations due to so-called backlash etc. are applied to the joints of the manipulator 1, the vibrations can be suppressed. Since accurate measurements can be made regardless of the situation, accurate and highly accurate operation control of the manipulator 1 is possible, and safety can be improved. Further, according to this, the TV left camera can also be used as a television camera for monitoring operation, thereby contributing to the simplification of the configuration as much as possible, and the promotion of miniaturization and weight reduction.

なお、上記実施例においては、説明の便宜上、2自由度
のマニピュレータを用いて説明したが、この自由度の数
のマニピュレータに限ることなく、適用可能で、その自
由度の数が増加した場合にも、同様に、周知のマニピュ
レータの順運動学解析により、求められる。
In addition, in the above embodiment, for convenience of explanation, a manipulator with two degrees of freedom was used, but the application is not limited to manipulators with this number of degrees of freedom, and when the number of degrees of freedom increases. is similarly determined by the known forward kinematics analysis of the manipulator.

また、上記実施例では、標的部材10として、標的10
1〜103を略三角形状の頂点に配置したものを用いて
説明したが、これに限ることなく、少なくとも3つの標
的を一直線上に位置しないように配置した複数の標的を
用いて構成することが可能である。
Further, in the above embodiment, the target 10 is used as the target member 10.
1 to 103 are arranged at the vertices of a substantially triangular shape. However, the present invention is not limited to this, and it is also possible to use a plurality of targets in which at least three targets are arranged not in a straight line. It is possible.

さらに、上記実施例では、マニピュレータ用として構成
した場合で説明したが、これに限ることなく、宇宙航行
体の測定対象物に対する位置及び姿勢を測定するように
構成することも可能である。
Further, in the above embodiment, the case where the device is configured for a manipulator has been described, but the configuration is not limited to this, and it is also possible to configure the device to measure the position and attitude of the spacecraft with respect to the object to be measured.

また、移動体としては、地上における自動車等の測定対
象物に対する位置及び姿勢を測定するように構成するこ
とも可能である。
Moreover, as a moving body, it is also possible to be configured to measure the position and orientation of a measurement target such as a car on the ground.

よって、この発明は上記実施例に限ることなく、その他
、この発明の要旨を逸脱しない範囲で種々の変形を実施
し得ることは勿論のことである。
Therefore, it goes without saying that the present invention is not limited to the above embodiments, and that various modifications can be made without departing from the spirit of the invention.

[発明の効果コ 以上詳述したように、この発明によれば、構測定装置を
提供することができる。
[Effects of the Invention] As detailed above, according to the present invention, a structure measuring device can be provided.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例に係るマニピュレータ用距
離及び姿勢測定装置を示すブロック図、第2図は第1図
の標的部材を成田して示す図、第3図乃至第6図は第1
図の動作を説明するために示した図である。 1・・・マニピュレータ、1a・・・基部、2・・・T
V左カメラ2a・・・カメラ基準点、3・・・信号処理
部、4・・・表示部、5・・・操作部、6・・・カーソ
ル発生部、7・・・演算部、8・・・関節角度検出セン
サ、9・・・測定対象物、10・・・標識部材、101
〜103・・・標的、10a・・・標的原点。
FIG. 1 is a block diagram showing a distance and attitude measuring device for a manipulator according to an embodiment of the present invention, FIG. 2 is a diagram showing the target member in FIG. 1
FIG. 3 is a diagram shown to explain the operation of the diagram. 1... Manipulator, 1a... Base, 2... T
V left camera 2a...Camera reference point, 3...Signal processing section, 4...Display section, 5...Operation section, 6...Cursor generation section, 7...Calculation section, 8. ...Joint angle detection sensor, 9...Measurement object, 10...Marking member, 101
~103...Target, 10a...Target origin.

Claims (1)

【特許請求の範囲】 測定対象物に設けられる一直線上に位置しない少なくと
も3個の標的を有した標的部材と、移動体に設けられ、
前記標的部材を撮像する撮像手段と、 この撮像手段で撮像した画像を表示する表示手段と、 この表示手段に前記撮像手段で撮像した前記標的部材の
画像を静止させる画像静止手段と、前記表示手段に表示
された標的部材の静止画像における標的にカーソルを重
畳して標的部材の標的の静止画像における位置を検出す
る標的位置検出手段と、 前記移動体の角度を検出する角度検出手段と、前記標的
位置検出手段で検出した前記標的部材の標的の位置及び
前記表示手段に表示された標的部材の静止画像の撮像時
における前記角度検出手段の検出値を基に前記移動体に
対する測定対象物との位置及び姿勢角を求める演算手段
とを具備したことを特徴とする移動体用位置及び姿勢測
定装置。
[Claims] A target member provided on an object to be measured and having at least three targets that are not located in a straight line, and provided on a moving body,
an imaging means for taking an image of the target member; a display means for displaying an image taken by the imaging means; an image stilling means for making the display means freeze the image of the target member taken by the imaging means; target position detection means for detecting the position of the target of the target member in the still image by superimposing a cursor on the target in the still image of the target member displayed on the target member; angle detection means for detecting the angle of the moving body; The position of the target member relative to the object to be measured with respect to the moving object based on the position of the target detected by the position detecting means and the detected value of the angle detecting means when capturing a still image of the target member displayed on the display means. and a calculation means for determining an attitude angle.
JP2099431A 1990-04-17 1990-04-17 Position and attitude measurement device for moving objects Expired - Fee Related JP3056764B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2099431A JP3056764B2 (en) 1990-04-17 1990-04-17 Position and attitude measurement device for moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2099431A JP3056764B2 (en) 1990-04-17 1990-04-17 Position and attitude measurement device for moving objects

Publications (2)

Publication Number Publication Date
JPH03296604A true JPH03296604A (en) 1991-12-27
JP3056764B2 JP3056764B2 (en) 2000-06-26

Family

ID=14247255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2099431A Expired - Fee Related JP3056764B2 (en) 1990-04-17 1990-04-17 Position and attitude measurement device for moving objects

Country Status (1)

Country Link
JP (1) JP3056764B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4693246B2 (en) * 1999-05-03 2011-06-01 アーオー テクノロジー アクチエンゲゼルシャフト Position detecting device having gravity vector direction calculation auxiliary means

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4693246B2 (en) * 1999-05-03 2011-06-01 アーオー テクノロジー アクチエンゲゼルシャフト Position detecting device having gravity vector direction calculation auxiliary means

Also Published As

Publication number Publication date
JP3056764B2 (en) 2000-06-26

Similar Documents

Publication Publication Date Title
US11408728B2 (en) Registration of three-dimensional coordinates measured on interior and exterior portions of an object
US10585167B2 (en) Relative object localization process for local positioning system
US6044308A (en) Method and device for robot tool frame calibration
EP2350562B1 (en) Positioning interface for spatial query
US20050131582A1 (en) Process and device for determining the position and the orientation of an image reception means
JP2000288968A (en) Teaching model producing device
JP2005300230A (en) Measuring instrument
JP6897396B2 (en) Control devices, robot systems and control methods
JP6922204B2 (en) Controls, robots and robot systems
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
JP2004050356A (en) Position and attitude sensor of movable structure
JP2009058503A (en) Method and system for noncontact coordinate measurement on object surface
WO2021210456A1 (en) Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
JPH05318361A (en) Method for manipulating object
Qiao Advanced sensor and target development to support robot accuracy degradation assessment
JPH05126521A (en) Position-measuring device for remote-controlled manipulator
JP3754340B2 (en) Position detection device
JPH03296604A (en) Distance and attitude measuring apparatus for moving body
US20230249341A1 (en) Robot teaching method and robot working method
JPH04300180A (en) System for positioning robot
JP3376029B2 (en) Robot remote control device
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
JPH0617795B2 (en) Three-dimensional position measuring device
JPH07129231A (en) Noncontact point teaching device
JPH03104572A (en) Method and device for controlling master slave manipulator

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees