JPH01112183A - 対象物の位置推定装置 - Google Patents

対象物の位置推定装置

Info

Publication number
JPH01112183A
JPH01112183A JP26972087A JP26972087A JPH01112183A JP H01112183 A JPH01112183 A JP H01112183A JP 26972087 A JP26972087 A JP 26972087A JP 26972087 A JP26972087 A JP 26972087A JP H01112183 A JPH01112183 A JP H01112183A
Authority
JP
Japan
Prior art keywords
target
information
equation
spacecraft
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP26972087A
Other languages
English (en)
Other versions
JP2514987B2 (ja
Inventor
Masayuki Ikeuchi
池内 正之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP62269720A priority Critical patent/JP2514987B2/ja
Publication of JPH01112183A publication Critical patent/JPH01112183A/ja
Application granted granted Critical
Publication of JP2514987B2 publication Critical patent/JP2514987B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) この発明は、例えば移動体を対象物に接近させるために
、移動体に搭載して対象物の位置を推定する対象物の位
置推定装置に関する。
(従来の技術) 近時、無人宇宙機によって宇宙空間に放置された物体を
回収するシステムの開発が進められているが、このよう
に直接操縦することのできない宇宙機を目標(回収物体
)に誘導するには、目標の位置検出が不可欠である。従
来ては、目標位置検出手段として第7図に示すようなシ
ステムが考えられている。
第7図において、Tは目標、Cは宇宙機である宇宙機C
はレーダ11及び自己の位置及び姿勢を検出する位置セ
ンサ12及び姿勢センサ13を搭載するレーダ11の検
出情報はデータ処理装置14に送られる。このデータ処
理装置14は入力したレーダ検出情報から目標Tの測角
及び目標Tまでの相対距離を測定する。
各測定情報は中央処理装置15に送られる。この中央処
理装置15はセンサ1.2.13で検出される自己の位
置及び姿勢情報を入力する。そして、自己の位置を原点
とし、自己の姿勢から進行方向を機軸とする座標系を形
成し、この座標系上に入力した測定情報に基づいて目標
Tの位置をプロットする。
これによって目標Tの位置を検出することができる。
しかしながら、上記のシステムでは、レーダ11の寸法
が宇宙機C本体の外側に搭載する機器の制約となり、か
つレーダ11の消費電力が宇宙機Cへの要求となり、し
かもその電力が宇宙機Cと目標Tとの相対距離に依存し
ているため、宇宙機Cは目標Tの位置に到達するまでに
相当な電力を発生しなければならない。
尚、宇宙機と目標との会合に限らず、規則的に運動する
対象物に移動体を誘導するシステムにおいても、レーダ
を使用する限り同様な問題を生じることになる。
(発明が解決しようとする問題点) 以上述べたように、従来の対象物の位置を検出する手段
では、レーダの使用によって、移動体に外部機器の搭載
を制約し、消費電力を増大するという問題を有している
ため、特に小型軽量化を要求される移動体には相当な負
担となる。
この発明は上記のような事情に鑑みなされたもので、レ
ーダのような測距機能がなくても対象物の位置を推定す
ることができ、これによって外部機器の搭載を制約せず
かつ極めて消費電力が少なく、被搭載移動体の小型軽量
化に供し得る対象物の位置推定装置を提供することを目
的とする。
[発明の構成] (問題点を解決するための手段) 上記目的を達成するためにこの発明に係る対象物の位置
推定装置は、移動体に搭載され、規則性をもって運動す
る対象物の位置を推定するものであって、前記移動体の
位置情報及び姿勢情報を検出する移動体の状態検出手段
と、前記対象物を画像として捕える画像センサと、前記
対象物のもつ規則性を表わす運動方程式を予め登録し、
複数回の観測時刻で、それぞれ前記画像センサの出力デ
ータからセンサ上に捕えられた対象物の方位及び仰角の
2次元の角度情報を算出し、この2次元の角度情報を位
置情報及び姿勢情報を基準にして前記運動方程式に代入
し、各観測時刻の運動方程式によって方程式中のパラメ
ータを求め、該パラメータを代入した運動方程式に任意
の時刻を代入することによって任意の時刻の対象物の位
置を推定する演算装置とを具備して構成される。
(作用) 上記構成による対象物の位置推定装置は、測距機能を有
するレーダの代りに小型で低消費電力が期待される画像
センサを用いて対象物を捕らえ、複数の観測時刻に画像
センサ上の対象物の方位角及び仰角の2次元角度情報を
算出し、同時に状態検出手段によって自己の位置及び姿
勢を検出する。
そして、各観測点で自己の位置及び姿勢を基準とする座
標系に上記2次元角度情報を置き換え、予め登録された
対象物の運動方程式に代入し、各観副時刻の運動方程式
によって方程式中のパラメータを求め、該パラメータを
代入した運動方程式に任意の時刻を代入することによっ
て任意の時刻の対象物の位置を推定する。
(実施例) 以下、第1図乃至第6図を参照してこの発明の一実施例
を説明する。
第1図は第7図の場合と同様に、宇宙機Cを目標Tに会
合させる場合を想定し、宇宙機Cにこの発明に係る位置
推定装置を搭載させた場合の構成を示すもので、21は
画像センサ、22はデータ処理装置、23は中央処理装
置、24は位置センサ、25は姿勢センサである。
画像センサ21は目標Tを画像として捕らえるもので、
このセンサ21から出力される画像データはデータ処理
装置22に送られる。このデータ処理装置22は入力デ
ータから第2図に示すセンサ21の視野上に捕えられた
目標Tの方位及び仰角の2次元の角度情報を算出するも
ので、この角度情報は中央処理装置23に送られる。
= 6− 位置センサ24は例えばGPS (グローバル・ポジシ
ョニング・システム)受信機によって構成される。この
GPS受信機は複数個の人口衛星から送られてくるGP
S信号を受信し、予め用意されているPNコード情報と
受信PNコード情報とのマツチングをとり、データを復
調することによって各衛星の位置情報及び各衛星からの
距離情報を算出し、画情報から幾何学的に自己の位置情
報を導出するものである。
姿勢センサ25はスターセンサ、地球センサ、太陽セン
サ等によって自己の進行方向と地球や太陽との相対的な
関係を検出するものである。
位置センサ24で検出された位置情報及び姿勢センサ2
5で検出された姿勢情報は中央処理装置23に人力され
る。
中央処理装置23はコマンド等による観測指令によって
データ処理装置22から目標Tの2次元角度情報、位置
センサ24からの位置情報、姿勢センサ25からの姿勢
情報を取り入れる。そして、入力した位置情報及び姿勢
情報から自己の位置を原点とし、自己の姿勢から進行方
向を機軸とする座標系を形成し、この座標系上にデータ
処理装置22からの2次元角度情報を置き換える。
この中央処理装置23は、位置推定用アルゴリズムを実
行するもので、予めこのアルゴリズムで使用する目標T
の運動方程式が登録されており、この運動方程式に各観
測点の座標変換を行った2次元角度情報を代入して、式
中のパラメータを求め、このパラメータから目標Tの位
置を推定する。
上記構成において、以下その動作原理についで説明する
まず、画像センサ21で目標Tを捕らえ、その出力デー
タによってセンサ21上の目標Tの方位角及び仰角を測
定する。一方、位置センサ24及び姿勢センサ25の出
力データによって宇宙機Cの軌道や位置を検出し、この
検出情報によって宇宙機Cの姿勢を軌道座標系で表現す
る。そして、この軌道座標系に目標Tの方位角及び仰角
を変換し、結果として目標Tの各角度情報を宇宙機Cの
速度方向ベクトルを基準に表現する。ここで得られた情
報を以下測角情報と称する。
この測角情報が得られても距離を推定できるとは限らな
い。推定できない例を第3図(a)に示し、推定できる
場合を同図(b)に示す。第3図(a)では、目標Tの
軌道と宇宙機Cの軌道が平行であり、目標T及び宇宙機
CがX輔に平行に正の方向へ等速運動している場合を想
定しており、時刻t。で目標TがXTOs宇宙機CがX
。o1時時刻、で目標TがXTI、宇宙機CがXljの
位置にある。この場合、宇宙機Cの各点で目標Tの測角
情報を得ても目標Tの位置及び速度推定ができないため
、相対的な距離を推定することはできない。
これに対し、第3図(b)では、宇宙機Cが時刻t1に
おいてZ軸方向に2.だけ平行位置から移動された場合
を示しており、その移動距離z1が視差となる。したが
って、この視差2.と測角情報φ0.φ2によって目標
Tまでの位置及び速度を推定することができ、さらには
相対的な距離まで測定することができる。
そこで、この実施例では地球上を一定の円軌道で周回す
る目標Tに対し、宇宙機Cを以下のように運用する。
まず、宇宙機Cを目標Tが見える領域に誘導L、画像セ
ンサ21で目標Tを捕らえた後、位置推定装置を動作さ
せ、目標Tの位置を求めて宇宙機Cを目標Tとの会合点
に誘導する。このとき、位置tit定を確実に行うため
に、宇宙機Cの軌道を11標′1゛の軌道(図中y軸方
向)に対して第4図に示すような楕円軌道とする。ここ
で、宇宙機Cがa、  cの範囲にあれば、宇宙機Cの
軌道が目標Tの軌道に平行でないので、目標Tの位置を
推定できるが、bの範囲にあるときには両者の軌道が略
平行になるので、上述したように良好な位置推定ができ
なくなる。そこで、aの範囲で時間をパラメータする目
標Tの運動方程式を求め、以下この運動方程式に任意の
時刻を代入することによって目標Tの位置を推定する。
以下、第5図を参照して目標Tの位置推定手段について
説明する。
まず、宇宙機Cと目標Tが第5図に示すような位置関係
にあるとする。宇宙機Cは座標系XC+Ycを位置セン
サ24によって設定する。ここでは例として、X、、X
oをそれぞれ地球中心と目標T1宇宙機Cを結ぶ方向に
設定し、Yo、Yoをそれぞれ目標T1宇宙機Cの進行
方向でかつXT。
Xcと垂直に設定する。この座標系を設定したうえで宇
宙機Cから目標Tへの仰角φ□を計測する。
尚、Xc+3’cは(XTIYT)座標系で見た宇宙機
Cの座標、XTI  yTは(Xc、Yc)座標系で見
た目標Tの座標、φc  (=φ□+δ)は宇宙機C側
の仰角、φ0は目標T側の仰角、RはTとCの相対距離
、δはTとCの地球中心角、ωは地球を中心とする目標
Tの周回レート(角速度:rad/秒)である。
目標Tは画像センサ21によって方位角と仰角としてそ
の存在が認識される。尚、説明を簡単にするため、第5
図では方位角を省略している。
さて、画像センサ21の出力データから求めた仰角は宇
宙機Cの本体を基準に計4(すしたものであるから、こ
のとき宇宙機Cが座標系Xc、Ycに対−11= してどのような姿勢であったかを知る必要がある。
これは姿勢センサ25によって計測する。この過程を経
ることにより、画像センサ21上の仰角は宇宙機Cの座
標系の仰角φ7に変換される。図示しないが方位角につ
いても同様である。
以上のことから、宇宙機Cを中心とする目標Tの位置は
、運動方程式により次のように表わすことができる。
XT = M (t 、  (Ll ) XTo   
  −(1,)ここで、 XT  =(XT +  Y T +  交□、 シT
)’TO−(xTO+  Y TO+  交TO+  
Y To)であり、灸、9はそれぞれx、yの時間微分
(速度)を表わす。XTOは目標Tの位置、速度の初期
値であり、M (t、ω)は4行4列の行列で、tはX
TOからの経過時間を表わし、ωは地球を中心とする目
標Tの周回レート(角速度: rad/秒)である。す
なわち、(1)式は次式のように表わすことができる。
この運動方程式の未知のパラメータを求めれば、所望の
時刻を代入することによって任意の時刻の目標Tの位置
を推定することができる。この推定は以下に説明する位
置推定用アルゴリズムによって求めることができる。
まず、もし推定初期値χ。0が真の初期値χ工。′であ
ったとすると、 φT” −arctan (xT” / yT’ )と
なり、これは観測値と一致するはずである。尚、XT’
−XT(XTO”+i+ ω) Vt’−YT (XTO”・ t・ ω)である。しか
し、位置推定中はχTo’は得られないので、これをχ
。0として推定する。
φT−arctan (XT / yT)は画像センサ
21を用いずに中央処理装置23によつて計算する。す
なわち、(1)式を用い、χ、 −M (t、ω)XT
を計算してχ1の要素XT、yTを取り出す。
次に、 δφ−φT8−φ。       ・・・(2)を計算
する。δφは観測値と推定値との差である。
ここで、 δχ−χ70 *X 7 。
とすると、 (2)式は次のように近似できる。
したがって、別々の時刻jl+  i2+  i3+ 
 i4でφ0.φ2.φ3.φ4を観測することにより
、次式を求めることができる。
δφ =  p (X′o、 t、、 t2.t3. 
t4)  δχ・・・(4) ここで、 (4〉式からδXO+  δ’/ o + 
 6女。。
δ夛。のうち未知のパラメータ(既知であればいずれも
O)だけについてδXを構成し、行列Pの要素のうちδ
χに対応した要素を選択して構成しめるのに必要な要素
を取り出してδφとすると、・・・(5) のように表現できる。 (5)式の未知のパラメータは
δχであるので、 δχ、、、p−1(χ。、t工、 t 2. t 3.
 t 4  )  δφ・・・(6) とする。先に述べた宇宙機Cの運動はP″1が計算し得
る運動である必要がある。結局、目標Tの真の位置の値
χTo”ゴ χ□。8 =χ1o十δX となる。実際は、χ、。8を求めるのに一回の計算で終
了するとは限らないので、 (χTo) N+1−(χTo) N十δχ、′(但し
N−1,2,3,・・・)   ・・・(7)として、
δφの絶対値1δφ1が十分小さくなるまで (6)式
の計算を繰返して行ない、その結果の(χTO) N+
1がχToxに等しいとして解とする。
上記位置推定用アルゴリズムを整理すると、以下のよう
に表される。
[ε、 Nmmx             設定]↓ [i+、  t2.  j3.  j4       
         1錠コ↓ [推定値XToよ(N−11設定] ↓ [φ、N−φ (、J’TONl   t +  ) 
           計算] j ≦1〜4 ;アル
ゴリズム↓ 上記位置推定用アルゴリズムは中央処理装置23に格納
される。以下、第6図を参照して、第1図に示した装置
の動作を説明する。
まず、コマンド指令によって位置推定用アルゴリズムに
目標Tの運動方程式((1)式)を登録する(ステップ
a)。次に観測時刻及びその回数Nを設定する(ステッ
プb)。
宇宙機Cが目標Tの可視領域に到達し、観測時刻になっ
たとき、画像センサ21の出力データから目標Tの2次
元角度情報(方位角及び仰角)を求め、同時に宇宙機C
の位置及び姿勢を観測する(ステップC)。観測した位
置及び姿勢から宇宙機Cの座標系を作成し、この座標系
に目標Tの2次元角度情報を変換する(ステップd)。
さらに変換した2次元角度情報を登録した運動方程式に
代入する(ステップe)。
上記ステップc −eをN回繰り返した後(ステップf
)、N個の運動方程式を位置推定用アルゴリズムにかけ
て未知のパラメータを求める(ステップg)。そして、
求めたパラメータを運動方程式に代入し、時刻と目標T
の推定位置との関係式を作成して、所望の観測時刻を代
入し、そのときの目標Tの位置を推定する(ステップh
)。
したがって、上記構成による位置推定装置を用いれば、
レーダのように特に4Il]距機能を有する機器を用い
なくても、いったん未知のパラメータを求めてしまえば
所望の時刻の目標の位置を推定することができる。さら
に観al11を継続してパラメータの算出値を更新すれ
ば、目標Tに近づくにつれ′C高精度の位置推定を行う
ことができる。このため、宇宙機Cには単に画像センサ
21を外側に取り付けるだけなので、外部機器の搭載を
ほとんど制約しない。また、画像センサ21を使用する
だけなので極めて消費電力が少なく、これによって被搭
載宇宙機Cの小型軽量化に供することができる。
尚、この発明は上記実施例に限定されるものではなく、
例えば電波を発して障害物を避ける自走ロボットや、自
動車の車線変更時の警告装置(自動車の斜め後方の自動
車が方向指示を行なったときにどこにいるかを推定して
、危険な位置にあれ−19= ばブザーを発して運転者に警告する)等に利用すること
ができる。その他、この発明を逸脱しない範囲で種々変
更しても同様に実施可能であることはいうまでもない。
[発明の効果コ 以上のべたようにこの発明によれば、レーダのような測
距機能がなくても対象物の位置を推定することができ、
これによって外部機器の搭載を制約せずかつ極めて消費
電力が少なく、被搭載移動体の小型軽量化に供し得る対
象物の位置推定装置を提供することができる。
【図面の簡単な説明】
第1図はこの発明に係る対象物の位置推定装置の一実施
例を示すブロック構成図、第2図は同実施例の画像セン
サで目標を捕らえた様子を示す図、第3図はこの発明の
動作原理を説明するための図、第4図は同実施例の宇宙
機のとる軌道を示す図、第5図は同実施例の宇宙機と目
標との位置関係を示す図、第6図は同実施例の動作を説
明するためのフローチャート、第7図は従来の目標位置
検出装置の構成を示すブロック図である。 C・・・宇宙機、T・・・目標、11・・・レーダ、1
2.24・・・位置センサ、13.25・・・姿勢セン
サ、14.22・・・データ処理装置、1.5.23・
・・中央処理装置。 出願人代理人 弁理士 鈴江武彦 )−U       l−(J

Claims (1)

    【特許請求の範囲】
  1. 移動体に搭載され、規則性をもって運動する対象物の位
    置を推定する対象物の位置推定装置において、前記移動
    体の位置情報及び姿勢情報を検出する移動体の状態検出
    手段と、前記対象物を画像として捕える画像センサと、
    前記対象物のもつ規則性を表わす運動方程式を予め登録
    し、複数回の観測時刻で、それぞれ前記画像センサの出
    力データからセンサ上に捕えられた対象物の方位及び仰
    角の2次元の角度情報を算出し、この2次元の角度情報
    を位置情報及び姿勢情報を基準にして前記運動方程式に
    代入し、各観測時刻の運動方程式によって方程式中のパ
    ラメータを求め、該パラメータを代入した運動方程式に
    任意の時刻を代入することによって、任意の時刻の対象
    物の位置を推定する演算装置とを具備する対象物の位置
    推定装置。
JP62269720A 1987-10-26 1987-10-26 対象物の位置推定装置 Expired - Lifetime JP2514987B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62269720A JP2514987B2 (ja) 1987-10-26 1987-10-26 対象物の位置推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62269720A JP2514987B2 (ja) 1987-10-26 1987-10-26 対象物の位置推定装置

Publications (2)

Publication Number Publication Date
JPH01112183A true JPH01112183A (ja) 1989-04-28
JP2514987B2 JP2514987B2 (ja) 1996-07-10

Family

ID=17476225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62269720A Expired - Lifetime JP2514987B2 (ja) 1987-10-26 1987-10-26 対象物の位置推定装置

Country Status (1)

Country Link
JP (1) JP2514987B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7327854B2 (en) * 2003-03-18 2008-02-05 Fujitsu Limited Capture device
JP2014059719A (ja) * 2012-09-18 2014-04-03 Ihi Corp 移動体の相対姿勢計測方法と装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7327854B2 (en) * 2003-03-18 2008-02-05 Fujitsu Limited Capture device
JP2014059719A (ja) * 2012-09-18 2014-04-03 Ihi Corp 移動体の相対姿勢計測方法と装置

Also Published As

Publication number Publication date
JP2514987B2 (ja) 1996-07-10

Similar Documents

Publication Publication Date Title
US20230194266A1 (en) Vision-aided inertial navigation
US6409687B1 (en) Motion tracking system
US6489922B1 (en) Passive/ranging/tracking processing method for collision avoidance guidance and control
Doer et al. An ekf based approach to radar inertial odometry
US20040158354A1 (en) Robot localization system
US7792330B1 (en) System and method for determining range in response to image data
Hesch et al. An indoor localization aid for the visually impaired
CN108827321B (zh) 一种多星协同动目标自适应测向定位与跟踪方法
JP3179355B2 (ja) 多目標追尾方法及び多目標追尾装置
Araguás et al. Quaternion-based orientation estimation fusing a camera and inertial sensors for a hovering UAV
JP2736122B2 (ja) 目標物の位置推定装置
Pavlasek et al. Invariant extended kalman filtering using two position receivers for extended pose estimation
Huang et al. Multi-Radar Inertial Odometry for 3D State Estimation using mmWave Imaging Radar
JP2797681B2 (ja) 位置検出装置
Michalczyk et al. Radar-inertial state-estimation for UAV motion in highly agile manoeuvres
JPH01112183A (ja) 対象物の位置推定装置
Márton et al. Robust trilateration based indoor localization method for omnidirectional mobile robots
JPH11325951A (ja) 宇宙航行体の姿勢センサによる軌道決定方法および軌道決定装置
George et al. Visual and inertial odometry for a disaster recovery humanoid
Ha et al. Trajectory estimation of a tracked mobile robot using the sigma-point Kalman filter with an IMU and optical encoder
Zhang et al. Research on mobile robot localization algorithm based on multi-sensor fusion
Hu et al. Square-Root Inverse Filter-based GNSS-Visual-Inertial Navigation
JPH1185284A (ja) 監視装置
Wang et al. Developments in Mobile Robot Localization Research
De Almeida et al. Multi-sensor integration for mobile robot navigation