JPWO2016063923A1 - 非協力接近に関する誘導方法 - Google Patents

非協力接近に関する誘導方法 Download PDF

Info

Publication number
JPWO2016063923A1
JPWO2016063923A1 JP2016555264A JP2016555264A JPWO2016063923A1 JP WO2016063923 A1 JPWO2016063923 A1 JP WO2016063923A1 JP 2016555264 A JP2016555264 A JP 2016555264A JP 2016555264 A JP2016555264 A JP 2016555264A JP WO2016063923 A1 JPWO2016063923 A1 JP WO2016063923A1
Authority
JP
Japan
Prior art keywords
target
trajectory
maneuver
camera
spacecraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016555264A
Other languages
English (en)
Inventor
光信 岡田
光信 岡田
木村 真一
真一 木村
智博 鳴海
智博 鳴海
塚本 大輔
大輔 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ASTROSCALE JAPAN INC.
Tokyo University of Science
Original Assignee
ASTROSCALE JAPAN INC.
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ASTROSCALE JAPAN INC., Tokyo University of Science filed Critical ASTROSCALE JAPAN INC.
Publication of JPWO2016063923A1 publication Critical patent/JPWO2016063923A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本開示は、宇宙空間においてチェイサー(宇宙機)がスペースデブリ等の非協力対象に接近するための誘導方法を含む。この誘導方法は、例えば、カメラとオンボードコンピュータとを備えるチェイサーにおいて実行され、宇宙空間において、カメラにより、非協力対象であるターゲットを含む画像を複数取得する観測フェーズと、取得された複数の画像上に写るターゲットの、観測画像における座標位置に基づいて、ターゲットの軌道を推定する軌道推定フェーズと、推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ実行フェーズと、を含む。

Description

関連出願の相互参照
本出願は、2014年10月24日に出願された日本出願番号2014−217833号に基づくもので、ここにその記載内容を援用する。
本開示は、宇宙空間における非協力接近技術に関する。
地球の周回軌道上には、過去に打ち上げられて任務を終えたり破損したりした人工衛星及びその破片やロケットの上段等の残骸が、スペースデブリ(以下「デブリ」という。)と呼ばれる宇宙ゴミとして存在する。かかるデブリは、任務遂行中の正常な宇宙ステーションや人工衛星に衝突して危害を加える虞があることから、周回軌道から離脱させて焼却したり回収したりする技術が種々提案されている。デブリ除去の手法の1つとして、デブリを捕獲するための除去衛星(以下「チェイサー」という。)を用いてデブリの軌道を変えることで大気圏に再突入させることが検討されているが、そのためには、チェイサーをターゲットとなるデブリに接近させる必要がある。
ターゲットとなるデブリは、リフレクタや通信機器などが存在しない非協力対象であり、ターゲットからチェイサーに通信することはできない。チェイサーはターゲットの協力なく、チェイサー側で一方的にターゲットの位置を判断して、ターゲットに接近しなければならない。これを非協力接近技術といい、デブリ除去には不可欠である。
宇宙空間において2機以上の宇宙船が互いに接近する技術はランデブー技術と呼ばれている。従来のランデブー技術では、ターゲットの位置情報をターゲット自体から取ることは想定されておらず、地上から観測して取得した位置情報を用いるため誤差が大きい。チェイサーが大型衛星であれば、高精度で飛距離のある大型の観測機器、高度な計算機、豊富な燃料等を用いて非協力接近を実現させるための方法論として、例えばangles-only navigationという手法が知られている(非特許文献1参照)。しかし、この手法による実績の資料があまり公開されていない上、大型の観測機器を搭載できない小型衛星で非協力接近を実現するためには、別の手法が求められる。
Gaias G., D’Amico S., and Ardaens J.-S.、「Angles-Only Navigation to a Non-Cooperative Satellite using Relative Orbital Elements」、Astrodynamics Specialists Conference AAS、2012年8月(以下のURLから参照可能[2014年10月24日検索]<http://elib.dlr.de/81062/>)
ところで、チェイサーによるターゲットへの接近は、大きく4段階に分けられる。第1段階は、GPS絶対航法(GPS absolute navigation)、すなわち、GPS(Global Positioning System)による接近である。ターゲットが遠方にあるとき、2行軌道要素形式(TLE:Two Line Elements)というフォーマットで書かれた軌道情報を用いてターゲットの軌道位置を取得し、TLEの値をもとにチェイサーに搭載されるGPSで航法を行う。ターゲットのTLE情報をもとに所定の計算をすれば、ターゲットの軌道と位置が求まるが、TLE情報をもとに計算した軌道は一般的には数百m〜数十km程度の誤差を含む。よって、接近の安全を考慮すると、第1段階は、数kmから数十kmまでの接近とするのが望ましい。なお、TLE情報とは、アメリカ戦略軍 宇宙統合機能構成部隊統合宇宙作戦センター(US Strategic Command, Joint Functional Component Command for Space, Joint Space Operations Center / USSTRATCOM, JFCC SPACE, JSpOC)が測定し公表している、宇宙物体毎の軌道情報であり、www.space-track.orgから配布されている。
第2段階は、チェイサーからターゲットまでの距離が数十kmから数百mまでの接近に用いられる、相対航法(Relative navigation)である。第2段階で必要とされる軌道推定誤差は、安全を考慮して数十mから数百m程度を目標とする。第3段階は、ターゲットの相対位置や姿勢を計測して数kmから数十mまで接近するフライアラウンド(Fly-around)であり、第4段階は、数百mから約数cmまで接近するプレドッキングフェーズ(Pre-docking phase)である。第2段階以降も重要な段階であるが、これまでほとんど研究が報告されていない。なお、上述した計算誤差や第1段階から第4段階までの各段階を切り替える相対距離などの数値は、センサの性能や状況により大きく変化し得るものであり、本明細書に示す数値は、あくまで一例にすぎない。
本開示は、主に第2段階における非協力接近に関する誘導技術を提供しようとするものである。
本開示の所定の実施態様に係る宇宙機は、宇宙空間において、非協力対象であるターゲットを含む画像を撮影するカメラと、カメラによって撮影された画像を複数取得する観測画像取得部と、取得された複数の画像上に写るターゲットの、観測画像における座標位置に基づいて、ターゲットの軌道を推定する軌道推定部と、推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ処理部と、を備える。
宇宙機は、観測画像取得部において画像を複数取得する処理と、軌道推定部においてターゲットの軌道を推定する処理と、前記マヌーバ処理部においてマヌーバ方法を実行する処理とを、繰り返し実行することによって、前記ターゲットに所定距離まで接近するものとすることができる。
本開示の所定の実施形態に係る誘導方法は、地上局から宇宙機を誘導する方法であり、宇宙空間において、非協力対象であるターゲットへの接近を図る宇宙機から、ターゲットに関する推定された軌道を、地上局で受信するステップと、受信されたターゲットに関する推定された軌道に基づいて決定されたマヌーバ方法を、地上局から宇宙機に送信するステップと、を備える。
また、本開示の所定の実施形態に係る誘導方法は、カメラとオンボードコンピュータとを備える宇宙機において実行される誘導方法である。この誘導方法は、宇宙空間において、カメラにより、非協力対象であるターゲットを含む画像を複数取得する観測フェーズと、取得された複数の画像上に写るターゲットの、画像における座標位置に基づいて、ターゲットの軌道を推定する軌道推定フェーズと、推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ実行フェーズと、を含むものとすることができる。
本開示の所定の実施形態に係るプログラムは、上記誘導方法の各ステップをコンピュータに実行させることを特徴とする。本開示のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。
なお、本明細書等において、手段ないし部とは、単に物理的手段ないし部分を意味するものではなく、その手段ないし部分が有する機能をソフトウェアによって実現する場合も含む。また、1つの手段ないし部分が有する機能が2つ以上の物理的手段ないし部分により実現されても、2つ以上の手段ないし部分の機能が1つの物理的手段ないし部分により実現されてもよい。
本開示に係る所定の実施態様によれば、第2段階における非協力接近に関する誘導技術を実現できる。
本開示については、添付の図面を参照しながら下記の詳細な記述により、より明確になる。
図1は、第1の実施形態に係る誘導システム1の概略構成を示す図である。 図2は、第1の実施形態に係るチェイサー10の機能構成を示す概略図である。 図3は、第1の実施形態における接近処理の処理フローを示す図である。 図4は、第1の実施形態における軌道推定処理の流れを示す図である。 図5は、第2の実施形態に係るチェイサー10の機能構成を示す概略図である。 図6は、第2の実施形態における接近処理の処理フローを示す図である。
以下、本発明の実施の形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。図面の寸法比率は、図示の比率に限定されるものではない。また、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。さらに、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る非協力接近に関する誘導システム1の概略構成を示す図である。まず、前提として、非協力対象であるターゲット50が地球60の上空の宇宙空間を軌道70で周回している。これに対し、本実施形態における誘導システム1は、宇宙空間に位置するチェイサー(宇宙機)10と地球上の地上局20を含んで構成される。
チェイサー10は、例えば、ターゲット50に接近させようとしている人工衛星である。チェイサー10は、小型の人工衛星であることが好ましいが、これに限られない。ここでは、GPS絶対航法による接近の第1段階を経て、チェイサー10は、ターゲット50までの距離が数十km程度かそれよりも近くまで接近しているものとする。チェイサー10は、地球60上の地上局20と交信し、チェイサー10が収集ないし分析したデータ等を地上局20に送信し、また、地上局20からマヌーバ方法などの誘導データ等を受信することができるように構成されている。
図2は、第1の実施形態に係るチェイサー10の機能構成を示す概略図である。同図に示すように、チェイサー10は、カメラ11と、オンボードコンピュータ(OBC:On Board Computer)12と、送信機13と、受信機14と、推進器15と、GPS受信機16とを含む。OBC12はさらに、ハードウェア又はソフトウェアによって実現される機能的な構成として、観測画像取得部121と、軌道推定部122と、マヌーバ処理部124とを含む。
カメラ11は、例えば光学カメラを用いることができる。開発コストや開発期間の観点から、チェイサー10は、上述のとおり小型衛星であることが好ましい。しかし、小さな衛星に高精度で飛距離のある大型の観測機器を搭載することは難しい。そこで、本実施形態では、ターゲット50の位置を推定するための情報を収集するための手段として、カメラ11を使用し、カメラ11から取得される画像情報から、ターゲット50の軌道を推定する。なお、カメラ11の向きは、チェイサー10の進行方向に一致することが好ましいが、これに限られない。
カメラ11の焦点距離が長いと画角が狭いため、撮影した画像にターゲット50が写らない可能性がある。他方、焦点距離が短いと(例えば5mm)、画角が広がるが、画像上の変化が少ないため、推定精度に限界が生じ得る。そこで、カメラ11として、焦点距離の異なる複数種類の光学カメラを併用し、まずは焦点距離が短いものを使ってターゲット50に近づき、距離が縮まったら焦点距離が長いものに変更するようにしてもよい。例えば、チェイサー10からターゲットまでの距離が5km程度以下になったら焦点距離の長いカメラに切り替え、さらに2km程度以下に近づいたら、焦点距離がより長いカメラに切り替えることも可能である。
また、カメラ11として、赤外線カメラや他の任意の撮像機器を用いることもできる。赤外線カメラを使用する場合、感度が落ちる可能性はあるが、光学条件に左右されないという利点がある。そこで、例えば光学カメラと赤外線カメラなど複数種類のカメラを用意しておき、観測条件に応じて、適宜カメラを切り替えるようにしてもよい。
OBC12は、チェイサー10に搭載されるコンピュータであり、プロセッサやメモリを含む。本実施形態において、OBC12は、カメラ11、送信機13、受信機14、推進器15及びGPS受信機16の動作や処理を制御し、また、各種の演算や処理を実行することを含む。
送信機13は、チェイサー10が取得ないし演算したデータを地上局20に送信する。また、受信機14は、地上局20から送られてくるターゲット50のTLE情報やチェイサー10のマヌーバ方法、その他必要なデータを受信する。推進器15は、チェイサーの軌道を変えるためのスラスタ等によって構成される。
GPS受信機16は、GPSを受信してチェイサー10の位置を測定する。これにより、チェイサー10の軌道を取得することができる。本実施形態では、GPS受信機16により、チェイサー10の軌道6要素を得ることができる。GPSを用いて測定される軌道の精度は、TLE情報よりも高精度であり、誤差は数メートル程度である。
観測画像取得部121は、カメラ11を制御して画像を撮影し、観測された画像を取得する処理を行う。また、取得された画像を処理して、ターゲット50の輝点を抽出する処理を行う。軌道推定部122は、観測画像取得部121によって取得された複数の画像を基に、ターゲット50の軌道を推定する演算を行う。マヌーバ処理部124は、推定された軌道に基づいて決定されたマヌーバ方法を実行するための処理を行う。
また、図示省略するが、地上局20は、チェイサー10からの信号を受信するための受信機と、受信した信号に基づいて処理ないし演算を行うプロセッサと、処理ないし演算の結果得られた制御データ等を、チェイサー10に送信するための送信機とを備える。また、チェイサー10は、ターゲット50のTLE情報を地上局20から受信する。
次に、このように構成されるチェイサー10を含む誘導システム1による非協力対象への接近処理について説明する。
図3は、第1の実施形態に係る第2段階における接近処理の処理フローを示す図である。第2段階に先立ち、ターゲット50とチェイサー10の位置が図1に示すような状態まで、第1段階のGPS絶対航法による接近をして、チェイサー10からターゲット50までの距離が、例えば数kmから数十km程度のところまで近づける。この状態から、第2段階による接近処理を実施する。
本実施形態では、バッチ処理である微分補正(differential correction)による軌道推定を行う。これは、ターゲットの動きを所定期間観測し、カメラ11が撮影した画像上に移るターゲット50の座標位置を観測量とすることで、軌道の推定をする。そして、軌道を推定した後の周回でマヌーバをかけてターゲット50に少しずつ接近する。軌道を観測するフェーズとマヌーバにより接近するフェーズを繰り返すことで、徐々にターゲット50へと近づいていく。このときの接近方法はVbar接近やRBar接近等を採用可能である。以下説明する。なお、バッチ処理で軌道推定することにより、リアルタイムで軌道推定する手法に比べて、軌道推定の精度を向上させることができる。
(観測フェーズ)
第2段階では、まず、複数時点における観測画像を取得する観測フェーズを実施する(ステップS31)。ここで、観測画像とは、カメラ11によって撮影された画像またはこれに所定の画像処理を施した画像を含む。本実施形態では、第2段階において、カメラ11を用いた相対航法を行う。カメラ11によって撮影された画像には複数の輝点が含まれる。これらのうちいくつかは星に対応するものであり、いくつかはデブリなどに対応するものである。
そこで、カメラ11によって撮影された画像から、星に対応する輝点を除外する画像処理を行い、ターゲット50に対応する輝点を抽出することが好ましい。例えば、カメラ11が撮影した画像から、ヒッパルコス星表を利用して、星に対応する輝点を除外する処理を行うことによって、ターゲット50を含む星以外の輝点を抽出した画像を得ることができる。また、カメラ11が撮影した画像には、月・太陽・地球などが写りこむ可能性も高いので、必要に応じて、それらの影響を除去する処理を実施する。
ところで、ある時点でカメラ11が撮影した画像から抽出したターゲット50の輝点について、当該輝点の観測画像平面上の位置を観測するだけでは非可観測であり、ターゲット50の軌道6要素を求めることはできない。そこで、本実施形態では、例えば、所定時間ごとにカメラ11で撮影を行い、多点時系列の観測画像を取得することで、エポック、すなわち、ある時点における軌道6要素に係る状態量を高精度に推定可能としている。
例えば、観測画像取得部121は、15秒毎など所定時間毎に、カメラ11による撮影を行い、観測画像を取得する。撮影した画像をそのまま観測画像としてもよいが、上述のとおり不要な輝点を除外して、ターゲット50に対応する輝点を抽出したものを観測画像としてもよい。観測画像はOBC12上のメモリまたはOBC12に接続された記憶装置に格納される。チェイサー10の軌道高度にも依存するが、仮に1周の周期が100分であれば、1周で約400程度の観測画像を収集できる。
1回の観測フェーズを実施する時間は任意であるが、例えば、ターゲット50が軌道70上を1周回する時間を観測フェーズに充てることが考えられる。観測フェーズの期間は1周回分に限定されないが、観測期間が短すぎると精度が低くなり、長すぎても軌道計算の誤差が影響してきて精度が落ちるため、丁度良い適度な期間を設定することが好ましい。
また、可観測性向上のためにマヌーバ実行を含めた期間を観測フェーズとすることも可能である。例えば、ターゲット50とチェイサー10の距離が近付くと、ターゲット50の輝点があまり大きく動かなくなる。そこで、チェイサー10がマヌーバを実行して、輝点の位置を敢えてずらし、マヌーバの量と輝点のずれた量を含めたデータに基づいて軌道推定を行うようにしてもよい。なお、後述する軌道推定演算は、マヌーバ実行を含めた期間を観測フェーズとする場合にも適用可能である。
(軌道推定フェーズ)
このようにして、ターゲット50に対応する輝点が含まれる観測画像を、複数の時点にわたり取得した後、軌道要素を推定する軌道推定フェーズに移行する(ステップS32)。本実施形態では、カメラ11から多時点で取得した観測画像を複数ためてから、OBC12上でバッチ処理により軌道推定演算を行う。軌道推定フェーズは、数分から数十分で行われることが好ましいが、これに限られない。なお、従来の軌道推定演算は、リアルタイム処理で行われていたのに対し、本実施形態では、多時点の観測画像をためてからバッチ処理を行う。これにより、OBC12の負荷及び計算時間を抑えることが期待できる。
この軌道推定フェーズでは、軌道推定部122が、最小二乗法等を用いて、ターゲット50のより正確な軌道を推定する。本実施形態において、軌道推定部122は、ターゲット50のTLE情報と、GPS受信機16により測定されたチェイサー10の軌道要素と、カメラ11によって取得された複数の観測画像とに基づいて、ターゲット50のエポックにおける平均軌道要素をTLE情報よりも高精度に推定する。ターゲット50の軌道がより正確に算出されると、それ以降の予測軌道も、より高い精度で推定できるようになる。
例えば、計算開始時におけるエポックでの軌道要素はTLEによるものとし、その値を用いて算出された軌道から推定される観測量とカメラ11から得られた画像に基づく実観測量とを比較し、誤差が最小となるような軌道要素の修正量を算出するという作業を繰り返すことで最適値に収束させる。なお、本実施例では、収束計算の安定性のために正則化項を導入し、異常値に対するロバスト性向上のためにフーバー損失を用いるものとしたが、推定演算の手法はこれに限られるものではない。
また、軌道を推定する際に、地球の非球体性、大気抵抗、太陽輻射圧、太陽と月の引力、短周期の振動現象などの摂動を考慮することが好ましい。これらを考慮することによって、ターゲット50の軌道をより正確に予測することが可能となる。さらに、ターゲット50の輝点の位置をより正確に観測するために、地球60の陰で輝点として映らないなどの日照条件や、他の光学条件も要素にいれてもよい。
(交信)
軌道6要素が推定された後、チェイサー10と地上局20との間で交信を行う(ステップS33)。このとき、チェイサー10からは、送信機13を介して、軌道推定フェーズで推定された軌道6要素を送信し、地上局20はこれを受信する。地上局20では、受信した軌道6要素を確認し、マヌーバ方法を自動ないし手動で決定する。決定されたマヌーバ方法は、地上局20からチェイサー10に送信され、チェイサー10は受信機14を介してこれを受信する。マヌーバ方法を決定する処理としては、任意の手法を採用し得る。
(マヌーバ実行フェーズ)
その後、チェイサー10は、受信したマヌーバ方法に基づいてマヌーバ処理部124が推進器15を制御することによって、マヌーバを実行し、ターゲット50に近づく(ステップS34)。なお、マヌーバとは、スラスタ等の推進力を用いて人工衛星等の宇宙機の軌道を変更または誘導する処理を含むものである。
決定されたマヌーバ方法によるマヌーバを実行した後、チェイサー10からターゲット50までの距離を計測し、第2段階で目標とされる所定距離まで、例えば1kmまで、チェイサー10がターゲット50に接近したか否かを判断し、接近していなければステップS31に戻り、観測フェーズから処理を繰り返す。これを何度が繰り返して、所定距離まで接近させる。つまり、チェイサー10は、ターゲット50までの距離が所定距離に近づくまで、ステップS31からS34までの観測、軌道推定及びマヌーバ処理を繰り返し、所定距離まで近づいたら、第2段階を終了し、第3段階へ移行する。
(軌道推定演算の実施例)
図4は、軌道推定フェーズ(S32)における軌道推定処理の流れを示す図である。
カメラ11によって観測された画像には、ターゲット50は輝点、すなわち、点として写る。この観測画像から得られる情報は、チェイサー10からターゲット50への方向情報のみであり、1枚の観測画像からターゲット50の位置情報を取得することは困難である。そこで、本実施形態における軌道推定フェーズでは、精密な軌道計算式と、それから得られるカメラ画像上での座標位置とを比較することで、ターゲット50の位置の推定を行う。本実施形態において、推定は、リアルタイム推定ではなく、オフライン推定によるバッチ処理で行われる。
図4において、X ̄は状態量ベクトルであり、軌道6要素[a,e,i,Ω,ω,m]によって表される。軌道推定演算の最初の状態では、X ̄として、TLE情報から取得されたターゲット50の軌道6要素が入力される。観測方程式hは軌道6要素から画像上の座標に変換する関数であり、これにより推定観測値ベクトルZ ̄=(Z ̄,Z ̄)が得られる。この推定観測値ベクトルZ ̄は、ターゲット50がX ̄によって表される軌道である場合に推定される観測量である。Z ̄と実観測値ベクトルZの差分をとれば、ΔZを導出できる。本実施形態において実観測値ベクトルZは、カメラ11によって取得された複数の観測画像から得られる。なお、Z ̄とZはともに観測画像の横方向(u方向)および縦方向(v方向)の座標値である1次元ベクトルである。なお、本文中で使用できる文字種が限られているため、図4等においてアルファベット(X,Z)の上側に表記されるバー( ̄)を、本文中ではアルファベットの右側に表記しているが、両者は同じものを指している。例えば、次の数式(数1)のとおりである。
Figure 2016063923
このとき、感度行列Hは次式(数2)となる。なお、ΔXは各6要素の感度刻みである。また、Z ̄’ua,Z ̄’vaは、状態量ベクトルX ̄のパラメータaを微小量Δa変動させたとき、すなわち、軌道6要素が[a+Δa,e,i,Ω,ω,m]のときのカメラ座標位置、つまりチェイサー10の位置を表す。
Figure 2016063923
このようにして求めた感度行列Hと観測値誤差共分散行列Wから状態量誤差共分散行列Pを導出することで状態量ベクトルの修正量ΔX ̄が計算される。求めた修正量ΔX ̄をX ̄に加え、この値を新たな状態量ベクトルX ̄として再度同様の計算を行う。こうして、ΔX ̄が収束するまで演算を繰り返す。収束したときの状態量ベクトルX ̄が、ターゲット50の軌道の推定値を表している。
なお、本実施形態では、収束演算を実施する際に、観測値誤差共分散行列Wとして、最小二乗法を利用する代わりに、誤差が閾値よりも小さいときは最小二乗法を利用し、誤差が閾値よりも大きい時は最小絶対偏差を利用するフーバー損失関数を用いてもよい。また、状態量誤差共分散行列Pを正則化して、行列Pを安定化させることが好ましい。正則化の手法としては、例えばティホノフ(Tikhonov)正則化を用いることができるが、他の任意の正則化手法を採用可能である。
なお、宇宙空間では、地球を周回する衛星の軌道6要素が分かれば、当該衛星の軌道を特定することができ、ひいては、ある日時における当該衛星の位置を特定することができる。ここで、軌道6要素とは、例えば、次の6つのパラメータが含まれる。
半長径「a」(Semi-major Axis)(単位:km)
離心率「e」(Eccentricity)(単位無し)
軌道傾斜角「i」(Inclination)(単位:度)
昇交点赤経「Ω」(RAAN:Right Ascension of Ascending Node)(単位:度)
近地点離角「ω」(Argument of Perigee)(単位:度)
平均近点角「m」(Mean Anomaly)(単位:度)
(第2の実施形態)
次に、本発明の他の実施形態について説明する。
図5は、第2の実施形態に係るチェイサー10の機能構成を示す概略図である。第1の実施形態に係るチェイサー10(図2)と比較すると、マヌーバ方法決定部123が追加されている。
図6は、第2の実施形態に係る第2段階における接近処理の処理フローを示す図である。第1の実施形態に係る接近処理の処理フロー(図3)と比べると、観測フェーズ(S31、S61)、軌道推定フェーズ(S32、S62)、マヌーバ実行フェーズ(S34、S64)及びその繰り返し処理であることは共通する。しかし、軌道推定フェーズで軌道を推定した後、第1の実施形態では地上局20と交信して、地上局20側でマヌーバ方法を決定するのに対し、第2の実施形態ではOBC12上で自律的にマヌーバ方法を決定する(ステップS63)。
このように、第2の実施形態では、チェイサー10は、必要に応じて最初にターゲット50のTLE情報を受信するが、その後、地上局20と交信する必要がなく、チェイサー10が自律的にターゲット50への接近処理を実行するものであるほかは、第1の実施形態と共通する。
なお、本発明は、上記した実施の形態に限定されるものではなく、様々な変形例をも包含する。加えて、上述の実施形態のうちの任意の一要素や、複数の要素の種々の組み合わせ等も、本開示の範疇や思想範囲に入るものである。したがって、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述の各処理ステップないし各処理フェーズは処理内容に矛盾を生じない範囲で任意に順番を変更して又は並列に実行することができる。また、本開示においては、第2段階における非協力接近の手法として上述の実施形態を説明したが、本手法ないし本手法の考え方は、第2段階における非協力接近に限らず、他の段階における非協力接近にも適用可能である。

Claims (8)

  1. 宇宙空間において、非協力対象であるターゲットを含む画像を撮影するカメラと、
    前記カメラによって撮影された画像を複数取得する観測画像取得部と、
    前記取得された複数の画像上に写る前記ターゲットの、前記画像における座標位置に基づいて、前記ターゲットの軌道を推定する軌道推定部と、
    前記推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ処理部と、
    を備える宇宙機。
  2. 前記観測画像取得部において画像を複数取得する処理と、前記軌道推定部において前記ターゲットの軌道を推定する処理と、前記マヌーバ処理部においてマヌーバ方法を実行する処理とを、繰り返し実行することによって、前記ターゲットに所定距離まで接近する請求項1記載の宇宙機。
  3. 前記マヌーバ方法は、地上局において決定されるものである、請求項1又は2記載の宇宙機。
  4. 前記推定された軌道に基づいてマヌーバ方法を決定するマヌーバ方法決定部をさらに備え、前記マヌーバ処理部は、前記マヌーバ方法決定部によって決定された前記マヌーバ方法を実行するものである、請求項1又は2記載の宇宙機。
  5. 宇宙空間において、非協力対象であるターゲットへの接近を図る宇宙機から、前記ターゲットに関する推定された軌道を、地上局で受信することと、
    前記受信された前記ターゲットに関する推定された軌道に基づいて決定されたマヌーバ方法を、前記地上局から前記宇宙機に送信することと、
    を含む誘導方法。
  6. カメラとオンボードコンピュータとを備える宇宙機において実行される誘導方法であって、
    宇宙空間において、前記カメラにより、非協力対象であるターゲットを含む画像を複数取得する観測フェーズと、
    前記取得された複数の画像上に写る前記ターゲットの、前記画像における座標位置に基づいて、前記ターゲットの軌道を推定する軌道推定フェーズと、
    前記推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ実行フェーズと、
    を含む誘導方法。
  7. 前記観測フェーズと、前記軌道推定フェーズと、前記マヌーバ実行フェーズとを、繰り返し実行することによって、前記ターゲットに所定距離まで接近する請求項6記載の誘導方法。
  8. 請求項6又は7に記載の誘導方法を前記オンボードコンピュータに実行させるためのプログラム。
JP2016555264A 2014-10-24 2015-10-21 非協力接近に関する誘導方法 Pending JPWO2016063923A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014217833 2014-10-24
JP2014217833 2014-10-24
PCT/JP2015/079747 WO2016063923A1 (ja) 2014-10-24 2015-10-21 非協力接近に関する誘導方法

Publications (1)

Publication Number Publication Date
JPWO2016063923A1 true JPWO2016063923A1 (ja) 2017-09-21

Family

ID=55760954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016555264A Pending JPWO2016063923A1 (ja) 2014-10-24 2015-10-21 非協力接近に関する誘導方法

Country Status (2)

Country Link
JP (1) JPWO2016063923A1 (ja)
WO (1) WO2016063923A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202017101831U1 (de) * 2017-02-24 2018-02-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. System zur Bestimmung und/oder Vorhersage einer Position und/oder einer Flugbahn von orbitalen Objekten im Weltraum
CN108917772A (zh) * 2018-04-04 2018-11-30 北京空间飞行器总体设计部 基于序列图像的非合作目标相对导航运动估计方法
CN108803346B (zh) * 2018-07-25 2021-07-23 西北工业大学 一种针对空间非合作目标自主逼近控制方法
CN109696084B (zh) * 2019-01-04 2020-09-15 北京邮电大学 一种多卫星博弈围捕策略
JP7349945B2 (ja) * 2020-03-24 2023-09-25 三菱電機株式会社 観測システム、通信衛星および地上設備
CN111504330B (zh) * 2020-05-07 2022-04-15 中国人民解放军63768部队 一种基于实测数据的低轨航天器准实时轨道机动检测方法
JP7403403B2 (ja) 2020-07-22 2023-12-22 三菱電機株式会社 宇宙状況監視事業装置、監視装置、および、地上設備
JP7455018B2 (ja) * 2020-07-27 2024-03-25 三菱電機株式会社 宇宙物体管理システム、地上設備、宇宙物体管理装置および監視衛星
JP7394724B2 (ja) * 2020-08-26 2023-12-08 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備
US11834203B2 (en) 2020-09-03 2023-12-05 Mitsubishi Electric Research Laboratories Inc. Drift-based rendezvous control
KR102618579B1 (ko) * 2021-10-12 2023-12-27 엘아이지넥스원 주식회사 우주물체 감시 방법 및 시스템
CN116954075B (zh) * 2023-07-20 2024-04-19 中国人民解放军战略支援部队航天工程大学 非合作连续推力航天器推力参数辨识方法、系统和设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000025700A (ja) * 1998-07-16 2000-01-25 Nec Corp 単点観測による宇宙デブリ検出装置および検出方法
JP2002029500A (ja) * 2000-07-19 2002-01-29 Mitsubishi Heavy Ind Ltd 軌道上作業機の誘導システム
JP2011218834A (ja) * 2010-04-02 2011-11-04 Ihi Corp スペースデブリ観測方法
JP2013512145A (ja) * 2009-11-25 2013-04-11 ポウロス エアー アンド スペース 不安定なスペース・デブリスの安定化
WO2013065795A1 (ja) * 2011-11-02 2013-05-10 株式会社Ihi スペースデブリ除去装置及びスペースデブリ除去方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101733746A (zh) * 2009-12-22 2010-06-16 哈尔滨工业大学 空间机器人非合作目标自主识别与捕获方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000025700A (ja) * 1998-07-16 2000-01-25 Nec Corp 単点観測による宇宙デブリ検出装置および検出方法
JP2002029500A (ja) * 2000-07-19 2002-01-29 Mitsubishi Heavy Ind Ltd 軌道上作業機の誘導システム
JP2013512145A (ja) * 2009-11-25 2013-04-11 ポウロス エアー アンド スペース 不安定なスペース・デブリスの安定化
JP2011218834A (ja) * 2010-04-02 2011-11-04 Ihi Corp スペースデブリ観測方法
WO2013065795A1 (ja) * 2011-11-02 2013-05-10 株式会社Ihi スペースデブリ除去装置及びスペースデブリ除去方法

Also Published As

Publication number Publication date
WO2016063923A1 (ja) 2016-04-28

Similar Documents

Publication Publication Date Title
WO2016063923A1 (ja) 非協力接近に関する誘導方法
Christian et al. Onboard image-processing algorithm for a spacecraft optical navigation sensor system
Caballero et al. Vision-based odometry and SLAM for medium and high altitude flying UAVs
D’Amico et al. Noncooperative rendezvous using angles-only optical navigation: system design and flight results
Bhaskaran Autonomous navigation for deep space missions
Du et al. Pose measurement of large non-cooperative satellite based on collaborative cameras
Woffinden et al. Relative angles-only navigation and pose estimation for autonomous orbital rendezvous
US9020748B2 (en) Scheduler for monitoring objects orbiting earth using satellite-based telescopes
US20080195316A1 (en) System and method for motion estimation using vision sensors
EP2112630A1 (en) Method and system for real-time visual odometry
CN106850051B (zh) 一种基于微小卫星的空间碎片清理系统及方法
Sabatini et al. A low-cost vision based navigation system for small size unmanned aerial vehicle applications
Ivanov et al. Relative pose and inertia determination of unknown satellite using monocular vision
McCarthy et al. OSIRIS-REx Landmark Optical Navigation Performance During Orbital and Close Proximity Operations at Asteroid Bennu
US20150323305A1 (en) Observation supporting apparatus and observation supporting method
Brandonisio et al. Deep reinforcement learning spacecraft guidance with state uncertainty for autonomous shape reconstruction of uncooperative target
Reeves et al. Proximity operations for the robotic boulder capture option for the asteroid redirect mission
Cucci et al. On raw inertial measurements in dynamic networks
Borisenko et al. On the rapid orbital attitude control of manned and cargo spacecraft Soyuz MS and Progress MS
Hashimoto et al. Vision-based guidance, navigation, and control of Hayabusa spacecraft-Lessons learned from real operation
Walker Automated proximity operations using image-based relative navigation
Girrbach et al. Towards robust sensor fusion for state estimation in airborne applications using GNSS and IMU
Mazzucato et al. Stereoscopic vision-based relative navigation for spacecraft proximity operations
Van Pham et al. Fusion of visual odometry and landmark constellation matching for spacecraft absolute navigation: analysis and experiments
JP7403403B2 (ja) 宇宙状況監視事業装置、監視装置、および、地上設備

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181009