JP2003106813A - ビデオメータを用いて空間内の剛体の状態値を決定するための方法 - Google Patents

ビデオメータを用いて空間内の剛体の状態値を決定するための方法

Info

Publication number
JP2003106813A
JP2003106813A JP2002181501A JP2002181501A JP2003106813A JP 2003106813 A JP2003106813 A JP 2003106813A JP 2002181501 A JP2002181501 A JP 2002181501A JP 2002181501 A JP2002181501 A JP 2002181501A JP 2003106813 A JP2003106813 A JP 2003106813A
Authority
JP
Japan
Prior art keywords
vector
control system
calculated
image sensor
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002181501A
Other languages
English (en)
Inventor
Roland Strietzel
シュトリーツェル ローラント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jena Optronik GmbH
Original Assignee
Jena Optronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jena Optronik GmbH filed Critical Jena Optronik GmbH
Publication of JP2003106813A publication Critical patent/JP2003106813A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • B64G1/646Docking or rendezvous systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 空間内で運動される物体の状態値を決定する
ための新たな可能性を見出すこと。 【解決手段】 画像センサを用い、少なくとも4つの発
光点を含む3次元のターゲット構造体の写像として光点
を撮影すること。画像センサの受信平面内に投影された
光点のxy座標を投影された画像点ベクトルの形式の測
定データとして決定すること。順次制御系(F)を用
い、運動される物体の状態値(s、q)を計算するこ
と。ここで、順次制御系(F)は逆関数(H−1)を利
用しながら夫々の光点の測定データを処理し、逆関数
(H−1)は画像センサの写像関数(H)を用いて制御
系のフィードバック部(R)内で実現化される。また、
計算された座標(s;q)を物体のための状態値
(s;q)の測定結果として出力すること。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、特に他の物体に対
する相対的な接近運動のために、空間内で運動される剛
体の相対的な位置と姿勢のような状態値を決定するため
の方法に関する。この方法は、有利にはランデブー及び
ドッキング・センサのための宇宙飛行技術並びに方向付
け及び組立を目的とするロボット技術において使用され
る。
【0002】
【従来の技術】周知の測定装置は、直接的にビデオカメ
ラの近傍に設けられているレーザ源を使い、定義されて
いる点に逆反射体(90°トリプルミラー)を有する目
標物体(ターゲット)を照明する。レーザ源によってビ
デオカメラの直接的な近傍で照明される逆反射体を有す
るターゲットの代わりに、自己発光式のターゲットも知
られていて、それによりビデオカメラの近傍ではレーザ
源が不必要となる。
【0003】理想的な接近運動のための目標姿勢におい
て全体として平面内に位置しないターゲットの光点は、
ビデオカメラの受信マトリックス上で平面(受信平面)
内において写像される。受信平面内の光点の座標は他の
評価のために決定される。光学的な写像では高解像度が
要求されるため、及び、光点の座標の精確な摘出のた
め、この種の装置は頻繁にビデオメータとも称される。
その際、測定される光点座標から、様々な方法に従い、
カメラにおける状態値、従ってカメラが取り付けられて
いる物体における状態値(位置ベクトルと姿勢ベクト
ル)が、ターゲットに対して決定される、又は、ターゲ
ットの状態値がカメラに対して決定される。
【0004】米国特許第5734736号明細書では、自律式
のランデブー及びドッキング・システム、並びに、目標
宇宙船上に装着されている反射式のターゲットの姿勢を
基礎にして2つの宇宙船間の相対的な位置が決定される
という方法が記載されている。これらのターゲット・反
射は、他の光点の強度、形状、大きさ、及び姿勢関係に
よって抽出される。このことは先ず第一に要求の多い画
像処理によって行われ、この画像処理ではターゲットが
異なる2つの波長を用いて照明され、これらの異なる波
長に対応する感度の異なる2つのCCDカメラで撮影さ
れる。その後、同時に撮影された異なる2つの画像から
差画像が生成され、並びに、次にスキャンされる画像内
のターゲットの光点を出来るだけ中央に再発見するため
に、発見されたターゲット・光点に対して適切な捕獲ア
ルゴリズムがカメラのフォローアップのために使用され
る。
【0005】この際、6つの自由度(位置ベクトルx、
y、z;ロール角、ピッチ角、ヨー角)のパラメータ
は、周知のターゲット・幾何学的配置、カメラの光学的
な伝達関数、及び、写像されたターゲット・ライトスポ
ットの中心画素の強度を基礎にし、第一次近似で導出さ
れる。それから、多次元ニュートン・ラフソン法を用い
て数値として解かれる空間座標のための非線形方程式セ
ットが結果として生じ、それから最終的に全ての6つの
状態ベクトル(x、y、z、ロール角、ピッチ角、ヨー
角)が導出される。その後、以前の画像の状態ベクトル
と現在の画像の状態ベクトルから、両方のCCDカメラ
のための次の検索窓を決定するための相対的なターゲッ
ト・運動が導出され得る。
【0006】この解決策の短所は、CCDカメラの単独
画像における撮影されたペアから状態ベクトルの帰納的
な単独推定だけが基本的に行われ、連続するスキャンの
結果が次の検索窓を導出するためだけに使用されるとい
うことにある。更に、一方における状態値と他方におけ
る光電子式のマトリックス・画像変換器上の光点の座標
との間の関係が非線形であるため、より高い次元の非線
形方程式セットの帰納的な解を介して状態値を精確に決
定するには(多数の複雑な操作の処理のために)極めて
手間がかかり、実時間における計算には適していない。
更にこの帰納法は、光点のノイズに対して(従って光点
座標の偏倚に対して)極めて敏感に反応する。
【0007】
【発明が解決しようとする課題】本発明の基礎を成す課
題は、空間内で運動される物体の状態値を決定するため
の新たな可能性を見出すことであり、この可能性によ
り、一方の物体上の画像センサ、及び、他方の物体上に
定義されているターゲット構造体を使用し、簡単な数学
的操作を用いた僅かなハードウェア及びソフトウェア・
消費により、他方の物体に対して相対的に一方の物体の
位置座標及び姿勢座標の実時間・決定が行われる。
【0008】
【課題を解決するための手段】この課題は、一方の物体
に設けられている画像センサによって提供される測定デ
ータを使用し、特に他方の物体に対する相対的な接近の
運動のために、空間内で運動される剛体の相対的な位置
と姿勢のような状態値を決定するための方法であって、
他方の物体にはターゲットの構造体が設けられていて、
ターゲットの発光点の測定データが、他方の物体の物体
固有の座標系に関して知られ、且つ、発光点の少なくと
も1つが接近運動に対して実質的に直交平面内に位置し
ないように選択されている方法において、本発明に従
い、以下のステップにより解決される:
【0009】− 画像センサを用い、少なくとも4つの
発光点を含む3次元のターゲット構造体の写像として光
点を撮影することであり、この際、画像センサの受信平
面内には3次元のターゲット構造体の2次元の投影像が
写像されること、 − 受信平面内に投影された光点のxy座標を、投影さ
れた画像点ベクトルの形式の測定データとして決定する
こと、 − 順次制御系を用い、運動される物体の状態値を計算
することであり、順次制御系が、画像撮影において投影
されたターゲット構造体の夫々の光点の測定データを、
運動される物体の状態値の所望の出力信号のために逆関
数を利用しながら処理し、この際、逆関数が、数学的に
モデル化されている画像センサの写像関数を用いてこの
制御系のフィードバック部内で実現化され、写像関数
が、選択されたターゲット構造体のために、位置と姿勢
の状態値と画像センサの受信平面内の光点の座標との間
の関係を記述すること、及び、 − 計算された座標を物体のための状態値の測定結果と
して出力することであり、この物体の物体固有の座標系
が計算の基準座標系として選択されたものであること。
【0010】有利には順次制御系は次のように作動す
る。即ち、ターゲット構造体の位置と姿勢のために推定
された開始値又は以前に計算された座標の結果から出発
し、計算される画像点ベクトルの、ターゲット構造体の
画像センサ・測定データに対して類似するデータセット
が、順次制御系のフィードバック内で実行されるフィー
ドバック演算子を用い、受信平面のための周知の光学的
な写像関数を基礎にして算出され、計算された画像点ベ
クトルの座標が、実際に撮影された光点の投影された画
像点ベクトルの座標と比較され、比較の結果、誤差ベク
トルが、以前に推定又は計算された状態値を修正するた
めに使用される。
【0011】順次制御系内では合目的には誤差ベクトル
が増幅マトリックスの形式の線形変換要素を用いて数値
決定され、この際、増幅マトリックスは、画像センサの
受信平面内の光点の姿勢の変化をターゲット構造体の位
置と姿勢の変化に依存して記述し且つ選択されたターゲ
ット構造体並びに画像センサとターゲットとの間の距離
に依存する感度マトリックスを基礎にして形成される。
【0012】この際、有利には、増幅マトリックスは、
先ず所定の距離のために計算され、順次制御部の制御プ
ロセスの実行中に、実際に検出される距離に依存して適
応される。
【0013】小さな変化に対する過剰感度を回避するた
めに、増幅マトリックスを1よりも僅かに小さいスカラ
ー係数で付勢することは有利である。このスカラー係数
は有利には0.9の大きさに位置する。
【0014】順次制御系(有利には、不連続の制御系=
スキャン制御系の形式)内では、増幅マトリックスの使
用後、有利には実行時間要素(遅延要素)又は中間蓄積
部が算出された状態ベクトルの反復のために使用され、
これは、他の誤差ベクトルの付加により結果を改善する
ことを基礎にし、これらの他の誤差ベクトルは、連続し
て新たに計算される状態ベクトルを、撮影された同一の
画像点ベクトルと比較することから生成され、増幅マト
リックスを用いて数値決定される。
【0015】順次制御系は、合目的には、定義されてい
る誤差ベクトルの残余誤差を下回る場合に反復を中断
し、運動される物体の状態値の測定値として結果を出力
する。
【0016】この状態は、有利には、順次制御系内にお
いて状態値の決定が、予め選択されて定義されている回
数の制御系の反復(サイクル)後、例えば7回の反復後
に中断される。
【0017】計算手間を減少するためには、増幅マトリ
ックスが設けられている順次制御系内の評価経路が、位
置ベクトルの反復及び姿勢ベクトルの反復のために別個
に使用され得て、この際、位置ベクトル及び姿勢ベクト
ルの反復サイクル(予め設定されている回数の反復サイ
クル=周期又はシーケンス)のために、完全な増幅マト
リックスの部分マトリックスである夫々異なる減少され
た増幅マトリックスが使用され、処理されていない状態
値が夫々変化されずにフィードバック演算子に供給され
る。
【0018】位置ベクトル及び姿勢ベクトルのための反
復サイクルは合目的には夫々シーケンシャルに切り換え
られ、この際、位置ベクトル及び姿勢ベクトルのための
別個の反復サイクルの回数は必ずしも規則的に交換しな
い。
【0019】この際、運動される物体の接近運動の開始
時に反復サイクルが位置ベクトルのためだけに使用さ
れ、接近の最終段階で初めて姿勢ベクトルのための反復
サイクルがスイッチオンされると有利である。
【0020】また、位置ベクトル及び姿勢ベクトルのた
めの反復のシーケンスの期間が異なる場合にも、反復サ
イクルが規則的に切り換えられ得る。
【0021】通常は逆反射体に起因する又は自己発光式
のターゲット点でもあり得る発光点の認識は、このこと
は本発明の解決策の実質的な要件ではないが、同様に、
位置と姿勢の開始推定を使って行われ、この開始推定か
ら、画像センサの受信平面内の光点の姿勢が予め計算さ
れる。許容し得る姿勢変化(ピッチ、ヨー、ロール)に
対して粗いものである標識認識アルゴリズムは、予め計
算されたターゲット構造体の発光点の分配に基づき、光
電子マトリックス画像変換器(例えばCCD)上のどの
光点が目標物体の発光点(例えば逆反射体)に属し、ど
の光点が目標物体の発光点に属しないかを確定する。
【0022】本発明による評価法を用い、空間内で運動
される物体の状態値を、一方の物体上の画像センサ、及
び、他方の物体上に定義されているターゲット構造体を
使用して決定することが可能であり、この際、僅かなハ
ードウェア及びソフトウェア・消費を伴う簡単な数学的
な操作で、他方の物体に対して相対的に運動される物体
の位置座標と姿勢座標の実時間・計算が行われる。
【0023】
【発明の実施の形態】次に、本発明を実施形態に基づい
て更に詳細に説明する。
【0024】カメラ位置c或いはs(基準座標系の選択
による)、画像センサに対する目標物体の相対的な姿勢
q、画像センサ(以下、カメラとも称する)の画像間隔
(焦点距離)、発光点T(ターゲット構造体K)から
成る目標物体のターゲットベクトルt、及び、画像変
換器上の光点L(夫々、インデックスi=1、…、n
で表す)の画像ベクトルpim(場所)、それらの間の
周知の関係から出発するものとする。
【0025】発光点Tとしては、以下、一般性の制限
を伴うことはないが(例えば宇宙飛行におけるように)
隔たりとしての距離が大きい場合に有利に使用される逆
反射体(90°角コーナーリフレクタ)が想定される。
【0026】画像センサの受信平面E内への逆反射体T
の写像は写像関数(カメラ機能)を用いて数学的に説
明される。この際、ターゲット・座標系(x y z)又
はカメラ・座標系(x***)が基準座標として測
定結果のために選択されるかは同様に有効である。
【0027】通常、ターゲットの座標系内で測定される
位置ベクトルc、又は、図1に描かれているように、カ
メラの座標系内で測定される位置ベクトルsは、デカル
ト座標内で表され、相対的な姿勢は姿勢ベクトルqとし
て4元数で表され、これらの4元数から所謂オイラー角
が計算される。位置ベクトル及び姿勢ベクトルは、通常
は列ベクトルであり、転換Tによって行ベクトルとして
表される:
【0028】
【数1】
【0029】カメラ・座標系(x)の起点
は、図1に従い、画像センサ(カメラ)のレンズ(光学
軸線を有する主平面の交点)内に位置し、光電子画像変
換器は、受信平面Eとして、x平面の形式で、カ
メラ・座標系(x )の起点から間隔z
dだけ離れて位置している。
【0030】ターゲット・座標系(x y z)の起点の
ためには、逆反射体Tの空間的なターゲット構造体K
内の1つの点、例えば、1つの平面内に位置する少なく
とも3つ(ここでは4つ)の逆反射体Tによってその
コーナー点が形成される平面図形の中心点、又は、その
ような平面の外に位置する逆反射体Tからの平面上の
垂線脚点が適している。
【0031】図1において、空間的な形成物、即ち規則
的な(ここでは正方形の)ピラミッド内における最後に
述べた両方の設定は一致していて、この際、そのように
定義されたターゲット構造体Kにおける底面は、カメラ
を支持する物体とターゲット構造体を支持する物体との
間において予期される(或いは意図される)接近運動の
方向に対して実質的に垂直に指向されている。
【0032】両方の座標系の間には基本的に2つの種類
の幾何学的な姿勢表現が存在する。ターゲット・基準・
システムでは、カメラが取り付けられている物体の位置
と姿勢を表現するためにターゲット・座標系が基礎とさ
れ、位置座標は位置ベクトルcでまとめられる。
【0033】カメラ・基準・システムでは、図1で選択
されているように、ターゲットが取り付けられている物
体の位置と姿勢を表現するためにカメラ・座標系が基礎
とされる。
【0034】ここで使用されているデカルト座標の代わ
りに他の座標系も使用され得る。例えば球座標が問題な
く使用され得る。
【0035】図1に従うカメラ・基準系を使用した場
合、見通しを獲得するために選択されていて間隔ベクト
ルv=s+Rを伴う逆反射体t=(x
の写像のため、従って、間隔ベクトルの画像ベ
クトルのためには、次の式が適用される:
【0036】
【数2】
【0037】
【数3】
【0038】更に、x、y、並びにzは、ターゲ
ット・座標系(x y z)内のターゲットベクトルt
によって逆反射体Tの姿勢を表し、Rは、カメラ・
座標系(x)に関するベクトルtの回転
を表す。
【0039】数2は、逆反射体Tとカメラ・座標系
(x)の起点との間の間隔を表す間隔ベク
トルvが、カメラ・座標系内に直線的に移行され、同じ
大きさであるが反対方向に指向される画像ベクトルp
を形成することを意味している。数3に従う投影され
た画像点ベクトルp1mは、画像ベクトルp が光電
子マトリックス変換器の受信平面Eを突き通る箇所を示
し、従って逆反射体Tによって写像された光点L
座標を含む。値d/z は写像係数を表し、この写像
係数は、特にカメラとターゲット構造体Kとの間の距離
が小さい場合、各光点Lのために異なり得る。
【0040】数2及び数3は、残りの全ての逆反射体T
からTに対して対応的に適応する。それらは次のベ
クトル方程式でまとめられる:
【0041】
【数4】
【0042】結果として生じる画像点ベクトルp(投
影された全ての画像点pimのまとまり)は、受信機画
像平面E内の光点Lの場所に関する全てのデータを含
む。
【0043】数2はターゲットベクトルtを画像ベク
トルp に移行させ、この際、両方の座標系(x y
z)と(x)の間の並進(トランスレーシ
ョン)と回転(ローテーション)が考慮される。この
際、回転はカメラ・座標系(x )において
次の姿勢マトリックスにより4元数q、q、q、q
に依存して表される:
【0044】
【数5】
【0045】数3は、長さ|v|>>dのために受信平
面Eを突き通る画像ベクトルp が如何に受信平面E
上に短縮され、それにより投影される画像点ベクトルp
1mが如何に生成されるかを記述する。数2及び数3は
sとqに関する非線形方程式である。
【0046】表1には、基準座標系の選択に依存し、可
能な写像関数が示されている。これらの写像関数は、画
像センサの受信平面E内への(即ち、光電子マトリック
ス画像変換器上、例えばCCDマトリックス上への)逆
反射体Tの写像を選択された基準システムに依存して
記述する。
【0047】表1には、数4に対して対等の関係がn個
の逆反射体Tのために一般化されて示されていて、タ
ーゲット座標内の結果を得たい場合には、列2から対応
する関係が取り出される。
【0048】
【表1】
【0049】図2には、所望の状態値を決定するための
信号伝達の様子が図示されている。カメラ(図1には受
信平面Eとしてだけ様式化されて描かれている)は、撮
影されたターゲット構造体Kのための実際の状態値s及
びqに依存し、投影される画像点ベクトルpを生成
し、この画像点ベクトルpから、引き続くデータ処理
により、投影される画像点ベクトルpに基礎を置く状
態値が再び検出される。
【0050】写像関数H(又は表1によると同様にH
)に対して逆関数H −1(又はH −1)が決定さ
れることにより、画像センサの写像から位置と姿勢を出
来るだけ合理的に決定する問題が図2において原理的に
描かれている。そのために本発明に従って制御系が使用
される。
【0051】この制御問題は順次制御系(カスケード制
御系)内の帰還ループによって解決される。ターゲット
ベクトルt、…、tはデータ処理のために知られて
いる。写像関数H又はH(以降、単に写像関数Hと
記す)は、容易に実行され、それらの逆関数H
−1(又はH −1)も同様である。この制御系内の
変数の総数は逆反射体Tの数に依存し、5つの逆反射
体TからTでは10である(通常:逆反射体T
2倍の変数)。逆関数H−1は、写像関数Hをフィード
バック演算子Rの形式で順次制御系Fのフィードバック
内に組み込むことにより形成される。
【0052】その際、図3では次の測定経過が得られ
る。
【0053】先ず、開始状態s、qが決定される。
ここでは、通常、それぞれの値、x =0、y=0、
=−r(r:ターゲットとカメラとの間の推定距
離)並びに、q=0、q=0、q=0、q=1
から出発することで十分である。時折(例えば、ロール
角が大きい場合には)qのための(ゼロとは異なる)
推定値を入力することが必要である。
【0054】その後、続く測定では、最後に算出された
測定結果s、qが次のサイクルのための開始値とし
て使用される。開始値が入力された場合、フィードバッ
ク演算子R内で実行される写像関数Hを使い、光点の座
標の推定値ベクトルpmrが計算される。同時にCCD
上の光点の座標pが読み出される。ブロックHは画像
センサ(カメラ)の実際の写像関数を表す。測定された
光点座標と計算された光点座標の比較が誤差ベクトルを
提供する:
【0055】
【数6】
【0056】誤差ベクトルeは、増幅マトリックスVを
用いて増幅され、開始状態を修正するため或いは以前の
反復の結果を修正するために使用される。つまり、十分
に精確な測定結果を得るため、即ち、誤差ベクトルを十
分に小さく(或いは順次制御の原理に従ってゼロに)す
るために、複数の循環が必要であり得る。ブロックIz
−1で表されている実行時間要素(遅延要素)Zは、サ
イクルに渡り、即ち、反復サイクルの期間に渡り、計算
された結果を蓄積する蓄積部を象徴化している。その
後、測定結果s、qは、a)誤差ベクトルeが許容
できる残余誤差値を下回った場合、又は、b)予め選択
されている総数を有するサイクルに基づき、誤差ベクト
ルeが十分に小さいことが確保されている場合に、カメ
ラ・読み出し毎に、ある回数の反復サイクルの後に出力
される。このことは、カメラ・読み出し及び反復周期
が、カメラのスキャンサイクル内でk回の反復サイクル
を有する1周期が経過するように同期されなくてはなら
ないことを意味する。図7では、例えば7サイクルを有
する反復が予め設定されている。ここでは、位置の値x
、y、及びzの経過、及び姿勢の値q、q
、及びqの経過が反復(サイクル)の回数に依存
している。既に3回の反復後には計算された状態値が実
際の状態値と実際に一致している。
【0057】この機能方式は図6におけるプログラム経
過プランにまとめられている。このプログラム経過プラ
ンは1サイクルのための作動方式を提供する。結果ベク
トルとして位置s及び姿勢qから成る新たな測定結
果は、数6により、現在計算されている(「開始・」)
値s、qに依存する誤差ベクトルeによって計算さ
れる。この際、pmr(s、q)は、現存する結果
、qから周知の写像関数H=Rを使って付属の画
像ベクトルpmrが決定されることを意味する。誤差ベ
クトルeは増幅マトリックスVと掛け合わされる。増幅
マトリックスVは、位置ベクトルs及び姿勢ベクトル
の修正に対する誤差成分の作用に関して誤差成分を
値づけする。
【0058】姿勢ベクトルの4元数qは、次の副次条
件を満たすために、各反復サイクル後にq、q、q
から計算される:
【0059】
【数7】
【0060】4元数及び上記の条件を定義するために
は、J.R.ウェルツ(J.R.Wertz)の「宇宙船 姿勢 決
定及び制御」(Spacecraft Attitude Determination and
Control)(クルワー・アカデミック・パブリッシャー
ス(Kluwer Academic Publishers)、ドルドレヒト、ボス
トン、ロンドン、1997年)から詳細な説明が得られ、こ
れらの説明がここでは基礎に置かれている。
【0061】本方法の同じ前提条件と形態はターゲット
・基準システムに対しても適していて、この際、H、
R、及びVは対応的に変更されなくてはならない。
【0062】このシステムの機能方式にとって決定的な
ことは増幅マトリックスVの決定である。増幅マトリッ
クスVは、位置の値及び姿勢の値に対する光点座標の偏
倚がどの影響を有するかを記述する。増幅マトリックス
Vは写像関数H(Hs或いはHc)の感度マトリックスS
から得られる。感度マトリックスSは、小さな位置変化
及び姿勢変化が受信平面E内の光点Lの座標にどのよ
うに影響するかを表す。このような感度マトリックス
は、ターゲット構造体Kとカメラとの間の距離r=|s
|に依存し、次のように定義される:
【0063】
【数8】
【0064】数8においてpimx及びpimy(i=
1、…、5)は、光点Lのx、y・座標を意味し、こ
れらの光点Lは、i番目の逆反射体Tに属し、マト
リックス画像変換器上(受信平面E内)で測定可能であ
り、ベクトルpにまとめられる。座標x、y、z
は位置を表し、4元数q、q、qは姿勢(ピッ
チ、ヨー、ロール)を表す。対応的なマトリックスは、
ターゲット・座標系に関する位置cのために定義され
る。
【0065】全系の粗さのため、通常は、次のような平
均的な作動点のための感度マトリックスを計算すること
で十分である:
【0066】x=0、y=0、z=−r、q
0、q=0、q=0
【0067】感度マトリックスSの要素は表2に従う距
離に依存する。
【0068】
【表2】
【0069】増幅マトリックスVは感度マトリックスS
の擬似逆数である。この擬似逆数は、重複決定された線
形方程式セットにおける最適の解の結果であり、その理
由は、例えば10回の光点移動(即ち、x方向及びy方
向における5個の光点Lの移動)から6回の位置変化
及び姿勢変化が計算され得るためである。感度マトリッ
クスSが距離rに依存するため、増幅マトリックスVは
同様に距離rの関数である。個々の成分のための高い増
幅値は、距離rが大きい場合に得られ、その理由は、こ
の場合には受信平面E内の写像が小さいためである。増
幅マトリックスVを現存する距離rに出来るだけ良好に
適合することは合目的である。距離rに依存する増幅マ
トリックスVの適応により、接近運動時には一定に良好
な収束が得られる。適切な方式で所定の距離rのための
増幅マトリックスVが計算され、その後、実施される測
定に依存してマトリックスの要素が変化される。
【0070】図示されている、5つの逆反射体Tから
を有するターゲット構造体Kにおいて増幅マトリッ
クスVは(6×10)マトリックスである。ノイズに対
する系の過剰感度を回避するために、増幅マトリックス
Vをスカラー定数b<1(例えばbがほぼ0.9に等し
い)と掛け合わせることが合目的であることが明らかに
なった。
【0071】フィードバック演算子Rが順次制御系のフ
ィードバック内で時間的に相前後して位置決定のために
1度、引き続いて姿勢決定のために使用されると、より
小さな夫々の増幅マトリックスV及びVが使用さ
れ、その理由は、順次制御系内で循環する値の数が減少
されるためである。
【0072】ターゲット・座標系(x y z)のxy平
面内に位置するピラミッド形状のターゲット構造体K
(この例は図1に従い予め選択されている)の底面の逆
反射体TからTの信号だけが位置決定のために使用
されると、(3×8)マトリックスVが得られ、この
マトリックスは完全な(6×10)増幅マトリックスV
の一部である。従って、成分数は減少され、これらの成
分を有する誤差ベクトルeが得られ、この減少数は増
幅マトリックスVに適合されている。この場合に有効
な順次制御系Fが図4に描かれている。順次制御系Fは
位置ベクトルsのためだけに閉じられている。この作動
段階には開始条件sr0及びqr0が有効である。この
際、位置パラメータsだけが変化される。この際、姿
勢パラメータqr0は変化されずに留まる。
【0073】位置決定に対応し、姿勢決定のための作動
段階時には、完全な増幅マトリックスVから、4元数q
、q、qが存在し且つゼロと異なる要素を有する
行と列だけが使用される。この方式で(図1に従い想定
されている)ターゲット構造体Kにおける姿勢決定のた
めに(3×6)マトリックスVが得られる。対応して
誤差ベクトルeの成分数が6に減少される。順次制御
系Fは4元数q、q 、qのためだけに閉じられて
いるので、各反復サイクル後には4元数qが数7を使
ってq、q、qから計算されて記憶される。
【0074】同一であるが異なって形成されている、位
置パラメータsのための図4による順次制御系Fと、
姿勢パラメータqのための図5による順次制御系F
が、実際の稼動では時間的な順番で交互に使用される。
【0075】調整過程のこのシーケンシャルの分解は次
の長所を有する。
【0076】一方では、処理すべきマトリックスの縮小
が本方法のより良い透明性を意味する。他方では、所定
の条件下(例えば接近操縦の開始時)で位置sに関す
る情報だけが必要とされ、姿勢ベクトルq(4元数)
の計算に完全に的を絞ってこれを排除することが可能で
ある。更に、シーケンシャルの稼動方式における本発明
による方法は位置決定及び姿勢決定のための他の方法と
組み合わされ得る。
【0077】(ターゲットを見失った後の)初期捕捉又
は再捕捉のためにはパターン認識(pattern recognitio
n)が使用される。このパターン認識は、受信平面E内
における逆反射体Tの光点Lの位置を確定するため
に用いられる。これは、状態値の推定から出発し、これ
らの状態値のために、提供されているターゲット構造体
Kにおいて光点Lの位置が予め計算されることによっ
て行われる。予め計算された光点Lの位置には不鮮明
さがあり、状態値の正確な値からの推定値の許される偏
倚が考慮される。このようにして生成されたパターン
は、使用されているターゲット構造体Kのピラミッド形
状において、コーナーにおける5つの小さな検索窓並び
に対角線交点のまわりのより大きな窓を有する正方形を
表していて、ターゲット構造体Kから受信平面E内に写
像された光点パターンを検索するために用いられる。こ
の際、この正方形の大きさは再び距離に依存する。
【0078】例1。
【0079】この例は図3の方式を使用し、次の想定を
利用する。
【0080】a)カメラ・基準・システムが基礎とされ
る。即ち、測定結果s、q(位置と姿勢)はカメラ
・座標系(x)に関連付けられる。負のz
軸は(図1に従い)ほぼターゲット構造体Kの方向を示
す。
【0081】b)画像センサはd=50mmの画像間隔
を有するビデオカメラである。
【0082】c)逆反射体TからTは、図1に描か
れているように、正確な正方形のピラミッドのコーナー
点上に位置し、ピラミッド頂点の方向に指向されてい
る。このピラミッドの底面の中心点にはターゲット・座
標系(x y z)の座標起点が位置する。このターゲッ
ト・座標系(x y z)のz軸はほぼビデオカメラの方
向を示している。
【0083】d)ターゲットベクトルtからtは次
の値を有する: t=(0.100) =(00.10) =(−0.100) =(0−0.10) =(000.1) ターゲットベクトルtからt内に含まれる距離はメ
ートルで表されている。それらの実際の長さ(ターゲッ
トベクトルの数値)はa=0.1mである。
【0084】e)ビデオカメラの視点からのターゲット
構造体Kの位置と姿勢は次のデータセットで記述され
る:
【0085】
【数9】
【0086】この場合、画像センサは画像点ベクトルを
測定する(mmで):
【0087】
【数10】
【0088】z成分は全ての5つの光点Lにおいて一
定でd=0.05mであるので、このz成分は省略され
た。
【0089】計算のための開始値として次のデータセッ
トが使用される:
【0090】
【数11】
【0091】増幅マトリックスVを計算するためには、
基準システムとしてのカメラ・座標系(表1、列3)に
基づき、数8による感度マトリックスが出発点とされ
る。偏導関数が次の作動点のために計算され、数13に
よる感度マトリックスSにまとめられた:
【0092】
【数12】
【0093】行には、値、p1mx、p1my、p
2mx、p2my、…、p5mx、p myが属する。
列には、値、x、y、z、q、q、qが属
する。
【0094】
【数13】
【0095】r=5mのためには例えば次の数値が得ら
れる:
【0096】
【数14】
【0097】増幅マトリックスVがS(r)の擬似逆数
として得られる:
【0098】
【数15】
【0099】ここで、A、B、C、Dは次のように表さ
れる:
【0100】
【数16】
【0101】a=0.1m、d=0.05m、及びr=5
mのために、A、B、C、Dは次の値を想定する:
【0102】
【数17】
【0103】図3による方法は以下のステップから成
る: − 画像センサ(ビデオカメラ)を用いてターゲット構
造体Kを画像撮影すること; − 受信平面Eに関し、画像点ベクトルpを読み出す
こと; − 開始値ベクトルs、qから、写像関数H(ここ
では表1の列3からのH )を介し、推定される画像ベ
クトルpmrを計算すること; − 測定された画像点ベクトルと計算(推定)された画
像点ベクトルとの間の差として誤差ベクトルe=p
mrを検出すること、及び、増幅マトリックスVとス
カラー値b=0.9を用いて乗算すること; − この結果を、開始値ベクトルs、q或いは以前
に形成された状態座標s 、qの推定値に加算するこ
と; − 誤差ベクトルeが所定の残余誤差をそれ以上超過し
ないまで、反復を続行すること; − 結果s、qを状態座標s、qの測定値として出
力すること。
【0104】次の表3の値を有する図7は、そのような
反復プロセスの結果を示している。
【0105】
【表3】
【0106】この実施形態の結果は、次のことを示して
いる: − 精確な値を決定するための収束が極めて迅速に行わ
れること、 − 距離rの設定において出来るだけ精確な値が有用で
あること、及び、 − 感度マトリックス及び増幅マトリックスの計算のた
めに、 x=0、y=0、z=−r、q=0、q
0、q=0、q=1 という作動点が標準レンズの視野において十分であるこ
と。
【0107】この方法のために基準システムとしてター
ゲット・座標系を選択した場合、同じような結果が得ら
れる。
【0108】例2:位置と姿勢を別個に決定。
【0109】例1におけるものと同じ前提条件と類似す
るデータが使用される。先ずは位置決定が行われる。有
効な増幅マトリックスVが、 x=0、y=0、z=−r、q=0、q
0、q=0、q=1 という既に上述した作動点のために感度マトリックスS
(r)を介して計算される。マトリックスS(r)の行に
は、値、p1mx、p1my、p2mx、p my
…、p4mx、p4myが属する。列には、値、x
、zが属する。次のS(r)が得られる:
【0110】
【数18】
【0111】更に、それから、擬似逆数のマトリックス
の形成により、次のマトリックスV (r)が得られる:
【0112】
【数19】
【0113】具体的なデータ、a=0.1m;d=0.0
5m;r=5mを用いて次の増幅マトリックスが得られ
る:
【0114】
【数20】
【0115】
【表4】
【0116】計算された位置データを用いて更に姿勢決
定が行われる。数12による作動点のための付属の感度
マトリックス及び増幅マトリックスは以下の通りであ
る:
【0117】
【数21】
【0118】
【数22】
【0119】具体的なデータ、a=0.1m;d=0.0
5m;r=5mを用いて次の増幅マトリックスが得られ
る:
【0120】
【数23】
【0121】それから結果として生じる、順次制御系F
を用いた姿勢決定の結果は、数9によるデータセットの
ための以下の表5(使用されている減衰係数b=0.9
を含め)に示されている。ここでは、ピッチ(4元数q
)及びヨー(4元数q)の運動が本発明による方法
の極めて良好な収束に導かれていることが見て取れる。
4元数q(表5の行6)が、初めの推定誤差或いは計
算誤差の後、既に3回目の反復で正確な値(ゼロ)に戻
されることが表5では示されている。(運動される物体
のピッチ運動とヨー運動のための)4元数qとq
は、既に4回目の反復で予め設定された値に到達す
る。
【0122】
【表5】
【0123】基礎に置かれた次のデータセットを用い、
表6は、ターゲット構造体Kが場合によってはピッチ運
動を実施しないという計算(b=0.9を用いる)を再
現する。
【0124】
【数24】
【0125】ここではヨー(4元数q)とロール(4
元数q)のために再び良好な収束が見て取れ、4元数
(ピッチ運動のため)は、初めの推定誤差(1回目
の反復ステップ)の後、5回目の反復で正確に正しい値
(ゼロ)に戻る。同じ反復ステップでq及びqもそ
れらの実際の値に到達する。
【0126】
【表6】
【0127】反復が以前の測定に基づいて実施される場
合、新たな測定結果は寧ろ既にステップ内に含まれ得
る。ロール角が比較的大きい場合、両方の部分プロセス
でロール角を考慮することが推奨される。
【図面の簡単な説明】
【図1】ビデオカメラの受信平面内にターゲット点を写
像する様子を示す原理図である。
【図2】本発明による状態値の計算のための信号伝達の
様子を示す図である。
【図3】カメラ・座標系内に位置ベクトルs及び姿勢ベ
クトルqを決定する場合の順次制御系の本発明による原
理を示す図である。
【図4】姿勢パラメータを固定した際に位置ベクトルを
決定する原理を示す図である。
【図5】位置パラメータを固定した際に姿勢ベクトルを
決定する原理を示す図である。
【図6】本発明による反復ループを示す原理図である。
【図7】本発明による測定プロセスの結果を示す図であ
る。
【符号の説明】
E 受信平面(検出器平面) F 順次制御系(順次制御回路) H 写像関数 K ターゲット構造体 L 光点(受信平面内) T 光点/逆反射体(ターゲットの) t ターゲットベクトル pim (投影された)画像点ベクトル pmr (計算された)画像点ベクトル d 受信平面の間隔 v 間隔ベクトル p 画像ベクトル(間隔ベクトルの) c、s、q 状態値(位置と姿勢) c 位置ベクトル(ターゲット・座標系
内) s 位置ベクトル(カメラ・座標系内) q、…、q 4元数(=ピッチ角、ヨー角、ロー
ル角のための姿勢ベクトル)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B 150P 180 180B Fターム(参考) 2F065 AA04 AA37 BB05 BB15 BB29 CC00 FF04 JJ03 JJ26 QQ31 UU05 5B057 AA05 AA14 BA02 DA07 DB02 DC05 DC08 DC22 DC30 DC32 DC36 5L096 BA05 CA04 DA02 FA14 FA66 FA67 FA69 HA04

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】一方の物体に設けられている画像センサに
    よって提供される測定データを使用し、特に他方の物体
    に対する相対的な接近の運動のために、空間内で運動さ
    れる剛体の相対的な位置と姿勢のような状態値を決定す
    るための方法であって、他方の物体には少なくとも4つ
    の発光点の構造体が設けられていて、これらの発光点の
    測定データが、他方の物体の物体固有の座標系に関して
    知られ、且つ、発光点の少なくとも1つが接近運動に対
    して実質的に直交平面内に位置しないように選択されて
    いる方法において、以下のステップにより特徴付けられ
    る方法: − 画像センサを用い、少なくとも4つの発光点
    (T)を含む3次元のターゲット構造体(K)の写像
    として光点(L)を撮影することであり、画像センサ
    の受信平面(E)内には3次元のターゲット構造体
    (K)の2次元の投影像が写像されること、 − 受信平面(E)内に投影された光点(L)のxy
    座標を、投影された画像点ベクトル(pim)の形式の
    測定データとして決定すること、 − 順次制御系(F)を用い、運動される物体の状態値
    (s、q)を計算することであり、順次制御系(F)
    が、画像撮影において投影されたターゲット構造体
    (K)の夫々の光点(L)の測定データを、運動され
    る物体の状態値の所望の出力信号(s、q)のため
    に逆関数(H−1)を利用しながら処理し、逆関数(H
    −1)が、数学的にモデル化されている画像センサの写
    像関数(H)を用いてこの制御系のフィードバック部
    (R)内で実現化され、写像関数(H)が、選択された
    ターゲット構造体(K)のために、位置と姿勢の状態値
    (s、q)と画像センサの受信平面(E)内の光点(L
    )の座標との間の関係を記述すること、及び、 − 計算された座標(s;q)を物体のための状態
    値(s;q)の測定結果として出力することであり、こ
    の物体の物体固有の座標系が計算の基準座標系として選
    択されたものであること。
  2. 【請求項2】順次制御系(F)内において、 − ターゲット構造体(K)の位置と姿勢のために推定
    された開始値(sr0;qr0)又は以前に計算された
    座標の結果(s;q)から出発し、計算される画像
    点ベクトル(pimr)の、ターゲット構造体(K)の
    画像センサ・測定データに対して類似するデータセット
    が、順次制御系(F)のフィードバック内で実行される
    フィードバック演算子(R)を用い、受信平面(E)の
    ための周知の光学的な写像関数(H)を基礎にして算出
    され、 − 計算された画像点ベクトル(pimr)の座標が、
    実際に撮影された光点(L)の投影された画像点ベク
    トル(p)の座標と比較され、及び、 − 比較の結果、誤差ベクトル(e)が、以前に推定又
    は計算された状態値(s r0、qr0;s、q)の
    座標を修正するために使用されることを特徴とする、請
    求項1に記載の方法。
  3. 【請求項3】順次制御系(F)内において、誤差ベクト
    ル(e)が増幅マトリックス(V)の形式の線形変換要
    素を用いて数値決定され、増幅マトリックス(V)が写
    像関数(H)の感度マトリックスを基礎にして形成さ
    れ、この感度マトリックスが、画像センサの受信平面内
    の光点の姿勢の変化をターゲット構造体の位置と姿勢の
    変化に依存して記述し且つ選択されたターゲット構造体
    並びに画像センサとターゲットとの間の距離に依存する
    ことを特徴とする、請求項2に記載の方法。
  4. 【請求項4】増幅マトリックス(V)が、先ず所定の距
    離のために計算され、順次制御部(F)の制御プロセス
    の実行中に、実際に検出される距離に依存して適応され
    ることを特徴とする、請求項3に記載の方法。
  5. 【請求項5】増幅マトリックス(V)が、小さな変化に
    対する過剰感度を回避するために、1よりも僅かに小さ
    いスカラー係数で付勢されることを特徴とする、請求項
    3に記載の方法。
  6. 【請求項6】スカラー係数が、0.9の大きさで選択さ
    れることを特徴とする、請求項5に記載の方法。
  7. 【請求項7】不連続の順次制御系(F)内において、増
    幅マトリックス(V)の使用後、算出された状態ベクト
    ル(s;q)の反復のための実行時間要素(Z)
    が、他の誤差ベクトル(e)の付加により結果を改善す
    ることを基礎にして使用され、これらの他の誤差ベクト
    ル(e)が、連続して新たに計算される状態ベクトル
    (s;q)を、撮影された同一の画像点ベクトル
    (p)と比較することから生成され、増幅マトリック
    スを用いて数値決定されることを特徴とする、請求項3
    に記載の方法。
  8. 【請求項8】不連続の順次制御系(F)内において、増
    幅マトリックス(V)の使用後、算出された状態ベクト
    ル(s;q)の反復のための中間蓄積部が、他の誤
    差ベクトル(e)の付加により結果を改善することを基
    礎にして使用され、これらの他の誤差ベクトル(e)
    が、連続して新たに計算される状態ベクトル(s;q
    )を、撮影された同一の画像点ベクトル(p)と比
    較することから生成され、増幅マトリックスを用いて数
    値決定されることを特徴とする、請求項3に記載の方
    法。
  9. 【請求項9】順次制御系(F)が、定義されている誤差
    ベクトル(e)の残余誤差を下回る場合に反復を中断
    し、運動される物体の状態値の測定値として結果を出力
    することを特徴とする、請求項7又は8に記載の方法。
  10. 【請求項10】順次制御系(F)内で、反復が、定義さ
    れている回数のサイクル(循環)後に中断され、反復の
    結果が、画像センサのスキャンの結果として、運動され
    る物体の状態値(s、q)の測定値として出力されるこ
    とを特徴とする、請求項7又は8に記載の方法。
  11. 【請求項11】順次制御系(F)内において、増幅マト
    リックス(V)を有する評価経路が、位置ベクトル(s
    ;c)の反復及び姿勢ベクトル(q)の反復のた
    めに別個に使用され、位置ベクトル(s;c)及び
    姿勢ベクトル(q)の反復サイクルのために、完全な
    増幅マトリックス(V)の部分マトリックスである夫々
    異なる減少された増幅マトリックス(V;V)が使
    用され、処理されていない状態値(q或いはs;c
    )が夫々変化されずにフィードバック演算子(R)に
    供給されることを特徴とする、請求項7又は8に記載の
    方法。
  12. 【請求項12】順次制御系(F)内において、位置ベク
    トル(s;c)及び姿勢ベクトル(q)のための
    反復サイクルが夫々シーケンシャルに切り換えられ、位
    置ベクトル(s;c)及び姿勢ベクトル(q)の
    ための別個の反復サイクルの回数が必ずしも規則的に交
    換しないことを特徴とする、請求項11に記載の方法。
  13. 【請求項13】反復サイクルが、運動される物体の相対
    的な接近運動の開始時に、位置ベクトル(s;c
    のためだけに使用され、接近の最終段階で初めて姿勢ベ
    クトル(q)のための反復サイクルがスイッチオンさ
    れることを特徴とする、請求項12に記載の方法。
  14. 【請求項14】位置ベクトル(s;c)及び姿勢ベ
    クトル(q)のためのシーケンスの期間が異なる場合
    に反復サイクルが規則的に切り換えられることを特徴と
    する、請求項12に記載の方法。
JP2002181501A 2001-06-22 2002-06-21 ビデオメータを用いて空間内の剛体の状態値を決定するための方法 Pending JP2003106813A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10130623.7 2001-06-22
DE10130623A DE10130623C1 (de) 2001-06-22 2001-06-22 Verfahren zur Bestimmung der Zustandsgrößen eines starren Körpers im Raum mittels eines Videometers

Publications (1)

Publication Number Publication Date
JP2003106813A true JP2003106813A (ja) 2003-04-09

Family

ID=7689399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002181501A Pending JP2003106813A (ja) 2001-06-22 2002-06-21 ビデオメータを用いて空間内の剛体の状態値を決定するための方法

Country Status (3)

Country Link
EP (1) EP1270410A3 (ja)
JP (1) JP2003106813A (ja)
DE (1) DE10130623C1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007322392A (ja) * 2006-06-05 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> 姿勢平滑化方法およびそのプログラム
JP2008506283A (ja) * 2004-06-22 2008-02-28 サーノフ コーポレーション カメラ・ポーズを決定する方法および装置
US11488320B2 (en) 2019-07-31 2022-11-01 Samsung Electronics Co., Ltd. Pose estimation method, pose estimation apparatus, and training method for pose estimation

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682181A (zh) * 2011-03-08 2012-09-19 鸿富锦精密工业(深圳)有限公司 离线编程量测系统及方法
DE202011105911U1 (de) 2011-09-21 2012-01-27 Rheinmetall Man Military Vehicles Gmbh Minensichere Sitzeinrichtung
CN104229161B (zh) * 2014-08-22 2016-08-24 北京控制工程研究所 一种基于制导脉冲的交会对接轨迹安全带确定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109345A (en) * 1990-02-20 1992-04-28 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Closed-loop autonomous docking system
JP2669223B2 (ja) * 1991-10-14 1997-10-27 三菱電機株式会社 ランデブードッキング用光学センサー装置
FR2688613B1 (fr) * 1992-03-16 1997-01-17 Aerospatiale Procede et dispositif pour la determination de la position et de la trajectoire relatives de deux vehicules spatiaux.
US5734736A (en) * 1994-06-17 1998-03-31 Trw Inc. Autonomous rendezvous and docking system and method therefor
US5490075A (en) * 1994-08-01 1996-02-06 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Global positioning system synchronized active light autonomous docking system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008506283A (ja) * 2004-06-22 2008-02-28 サーノフ コーポレーション カメラ・ポーズを決定する方法および装置
JP4772789B2 (ja) * 2004-06-22 2011-09-14 サーノフ コーポレーション カメラ・ポーズを決定する方法および装置
JP2007322392A (ja) * 2006-06-05 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> 姿勢平滑化方法およびそのプログラム
JP4759446B2 (ja) * 2006-06-05 2011-08-31 日本電信電話株式会社 姿勢平滑化方法およびそのプログラム
US11488320B2 (en) 2019-07-31 2022-11-01 Samsung Electronics Co., Ltd. Pose estimation method, pose estimation apparatus, and training method for pose estimation

Also Published As

Publication number Publication date
DE10130623C1 (de) 2003-02-06
EP1270410A3 (de) 2004-12-29
EP1270410A2 (de) 2003-01-02

Similar Documents

Publication Publication Date Title
US9025857B2 (en) Three-dimensional measurement apparatus, measurement method therefor, and computer-readable storage medium
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US20180066934A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
Chen et al. Active sensor planning for multiview vision tasks
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
Meng et al. Self-calibration of camera-equipped robot manipulators
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
US20210207957A1 (en) Methods and Systems for Calibrating Fiducial Markers Relative to an Object
Li Kinematic calibration of an active head-eye system
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
Van Pabst et al. Multisensor data fusion of points, line segments, and surface segments in 3D space
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2003106813A (ja) ビデオメータを用いて空間内の剛体の状態値を決定するための方法
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
Özgür et al. High speed parallel kinematic manipulator state estimation from legs observation
AU2020273372A1 (en) Methods and systems for registering a three-dimensional pose of an object
Gagnon et al. A computer-assisted range image registration system for nuclear waste cleanup
Xu et al. A fast and straightforward hand-eye calibration method using stereo camera
CN115311353B (zh) 一种多传感器多手柄控制器图优化紧耦合追踪方法及系统
Ude et al. Robot motion specification: A vision-based approach
Alkkiomaki et al. Multi-modal force/vision sensor fusion in 6-DOF pose tracking
Lippiello et al. A new method of image features pre-selection for real-time pose estimation based on Kalman filter
Park et al. Robot-based Object Pose Auto-annotation System for Dexterous Manipulation
Sheng et al. Visual servoing based on geometric features by surface structured light