WO2016063923A1 - 非協力接近に関する誘導方法 - Google Patents

非協力接近に関する誘導方法 Download PDF

Info

Publication number
WO2016063923A1
WO2016063923A1 PCT/JP2015/079747 JP2015079747W WO2016063923A1 WO 2016063923 A1 WO2016063923 A1 WO 2016063923A1 JP 2015079747 W JP2015079747 W JP 2015079747W WO 2016063923 A1 WO2016063923 A1 WO 2016063923A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
maneuver
trajectory
camera
chaser
Prior art date
Application number
PCT/JP2015/079747
Other languages
English (en)
French (fr)
Inventor
光信 岡田
木村 真一
智博 鳴海
塚本 大輔
Original Assignee
株式会社アストロスケール
学校法人東京理科大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アストロスケール, 学校法人東京理科大学 filed Critical 株式会社アストロスケール
Priority to JP2016555264A priority Critical patent/JPWO2016063923A1/ja
Publication of WO2016063923A1 publication Critical patent/WO2016063923A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions

Definitions

  • This disclosure relates to non-cooperative approach technology in outer space.
  • debris On the Earth's orbit, artificial satellites that have been launched in the past or have been damaged or broken, such as debris and debris such as the upper stage of the rocket, are space debris (hereinafter referred to as “debris”).
  • debris Exists. Since such debris may collide with a normal space station or artificial satellite that is performing a mission and cause harm, various techniques have been proposed for incineration and recovery after leaving the orbit.
  • As one of the debris removal methods it is considered to re-enter the atmosphere by changing the orbit of the debris using a removal satellite (hereinafter referred to as “chaser”) to capture the debris. Requires the chaser to approach the target debris.
  • chaser removal satellite
  • the target debris is a non-cooperation target that does not have reflectors or communication devices, and cannot communicate with the chaser from the target.
  • the chaser must approach the target by unilaterally determining the position of the target on the chaser side without the cooperation of the target. This is called non-cooperative approach technology and is indispensable for debris removal.
  • rendezvous technology The technology in which two or more spaceships approach each other in outer space is called rendezvous technology.
  • the conventional rendezvous technology it is not assumed that the position information of the target is taken from the target itself, and the error is large because the position information obtained by observation from the ground is used.
  • the chaser is a large satellite
  • angles-only navigation for example, can be used as a methodology for realizing non-cooperative approach using large-scale observation equipment with high precision and long distance, advanced computers, and abundant fuel. It is known (see Non-Patent Document 1).
  • another method is required to achieve non-cooperative approach with small satellites that cannot be equipped with large observation equipment.
  • the approach to the target by the chaser is roughly divided into four stages.
  • the first stage is GPS absolute navigation, that is, approach by GPS (Global Positioning System).
  • the trajectory information of the target is obtained using trajectory information written in the format of two-line trajectory element format (TLE: Two Line Elements), and mounted on the chaser based on the value of TLE Navigation with GPS. If a predetermined calculation is performed based on the TLE information of the target, the trajectory and position of the target can be obtained, but the trajectory calculated based on the TLE information generally includes an error of about several hundred m to several tens km. . Therefore, in consideration of safety of approach, it is desirable that the first stage is an approach from several kilometers to several tens of kilometers.
  • the TLE information is measured and published by the US Strategic Army Space Integration Function Configuration Unit Integrated Space Operations Center (US Strategic Command, Joint Functional Component Command for Space, Joint Space Operations Center / USSTRATCOM, JFCC SPACE, JSpOC). , Orbital information for each space object, distributed from www.space-track.org.
  • the second stage is relative navigation, which is used for approaching from the chaser to the target from several tens of kilometers to several hundreds of meters.
  • the trajectory estimation error required in the second stage is targeted at several tens of meters to several hundreds of meters in consideration of safety.
  • the third stage is a fly-around approaching from several kilometers to several tens of meters by measuring the relative position and orientation of the target, and the fourth stage is a pre-stage approaching from several hundred meters to about several centimeters. It is a docking phase (Pre-docking phase).
  • the second and subsequent stages are also important stages, but few studies have been reported so far. It should be noted that the numerical values such as the calculation error and the relative distance for switching each stage from the first stage to the fourth stage can vary greatly depending on the performance and situation of the sensor, and the numerical values shown in this specification are only It is only an example.
  • This disclosure is mainly intended to provide guidance technology related to non-cooperative approach in the second stage.
  • a spacecraft is acquired in a space, a camera that captures an image including a target that is a non-cooperation target, and an observation image acquisition unit that acquires a plurality of images captured by the camera.
  • a trajectory estimation unit that estimates the trajectory of the target based on the coordinate position in the observation image of the target that appears on the plurality of images, a maneuver processing unit that executes the maneuver method determined based on the estimated trajectory, Is provided.
  • the spacecraft repeatedly executes a process of acquiring a plurality of images in the observation image acquisition unit, a process of estimating the trajectory of the target in the trajectory estimation unit, and a process of executing the maneuver method in the maneuver processing unit,
  • the target can be approached to a predetermined distance.
  • a guidance method is a method of guiding a spacecraft from a ground station, and an estimated orbit related to a target from a spacecraft that approaches a target that is a non-cooperation target in space. And transmitting the maneuver method determined based on the estimated trajectory for the received target from the ground station to the spacecraft.
  • the guidance method is a guidance method that is executed in a spacecraft including a camera and an on-board computer.
  • This guidance method is based on an observation phase in which a plurality of images including a target that is a non-cooperation target is acquired by a camera in outer space, and a coordinate position in the image of the target that appears on the acquired plurality of images.
  • a trajectory estimation phase for estimating the trajectory of the target and a maneuver execution phase for executing the maneuver method determined based on the estimated trajectory.
  • a program according to a predetermined embodiment of the present disclosure is characterized by causing a computer to execute each step of the guidance method.
  • the program of the present disclosure can be installed or loaded on a computer through various recording media such as an optical disk such as a CD-ROM, a magnetic disk, and a semiconductor memory, or via a communication network.
  • the means or units do not simply mean physical means or parts, but also include cases where the functions of the means or parts are realized by software. Further, the function of one means or part may be realized by two or more physical means or parts, or the function of two or more means or parts may be realized by one physical means or part.
  • FIG. 1 is a diagram illustrating a schematic configuration of a guidance system 1 according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating a functional configuration of the chaser 10 according to the first embodiment.
  • FIG. 3 is a diagram illustrating a process flow of the approach process according to the first embodiment.
  • FIG. 4 is a diagram illustrating a flow of trajectory estimation processing in the first embodiment.
  • FIG. 5 is a schematic diagram illustrating a functional configuration of the chaser 10 according to the second embodiment.
  • FIG. 6 is a diagram illustrating a process flow of the approach process according to the second embodiment.
  • FIG. 1 is a diagram showing a schematic configuration of a guidance system 1 related to non-cooperative approach according to the first embodiment of the present invention.
  • the target 50 that is a non-cooperating target orbits the outer space above the earth 60 in the orbit 70.
  • the guidance system 1 in this embodiment includes a chaser (spacecraft) 10 located in outer space and a ground station 20 on the earth.
  • the chaser 10 is an artificial satellite that is about to approach the target 50, for example.
  • the chaser 10 is preferably a small artificial satellite, but is not limited thereto.
  • the chaser 10 communicates with the ground station 20 on the earth 60, transmits data collected or analyzed by the chaser 10 to the ground station 20, and receives guidance data such as a maneuver method from the ground station 20. It is configured to be able to.
  • FIG. 2 is a schematic diagram showing a functional configuration of the chaser 10 according to the first embodiment.
  • the chaser 10 includes a camera 11, an on-board computer (OBC) 12, a transmitter 13, a receiver 14, a propulsion device 15, and a GPS receiver 16.
  • OBC 12 further includes an observation image acquisition unit 121, a trajectory estimation unit 122, and a maneuver processing unit 124 as functional configurations realized by hardware or software.
  • the camera 11 can be an optical camera, for example.
  • the chaser 10 is preferably a small satellite as described above.
  • the camera 11 is used as a means for collecting information for estimating the position of the target 50, and the trajectory of the target 50 is estimated from image information acquired from the camera 11.
  • the direction of the camera 11 corresponds with the advancing direction of the chaser 10, it is not restricted to this.
  • the focal length of the camera 11 is long, the angle of view is narrow, so there is a possibility that the target 50 is not shown in the captured image.
  • the focal length is short (for example, 5 mm)
  • the angle of view is widened, but there is little change on the image, so that the estimation accuracy may be limited. Therefore, a plurality of types of optical cameras having different focal lengths may be used together as the camera 11, and first, the one with a short focal length may be used to approach the target 50, and the distance may be changed to a longer focal length. .
  • the distance from the chaser 10 to the target is about 5 km or less, it is possible to switch to a camera with a long focal distance, and when the distance approaches about 2 km or less, it is possible to switch to a camera with a longer focal distance.
  • an infrared camera or any other imaging device can be used.
  • the sensitivity may be lowered, but there is an advantage that it is not affected by optical conditions. Therefore, for example, a plurality of types of cameras such as an optical camera and an infrared camera may be prepared, and the cameras may be switched as appropriate according to observation conditions.
  • the OBC 12 is a computer mounted on the chaser 10 and includes a processor and a memory.
  • the OBC 12 controls operations and processes of the camera 11, the transmitter 13, the receiver 14, the propulsion unit 15, and the GPS receiver 16, and includes performing various calculations and processes.
  • the transmitter 13 transmits the data acquired or calculated by the chaser 10 to the ground station 20. Further, the receiver 14 receives the TLE information of the target 50, the maneuver method of the chaser 10 and other necessary data sent from the ground station 20.
  • the propulsion device 15 is configured by a thruster or the like for changing the path of the chaser.
  • the GPS receiver 16 receives GPS and measures the position of the chaser 10. Thereby, the trajectory of the chaser 10 can be acquired. In the present embodiment, the GPS receiver 16 can obtain the orbital 6 elements of the chaser 10. The accuracy of the trajectory measured using GPS is higher than that of TLE information, and the error is about several meters.
  • the observed image acquisition unit 121 controls the camera 11 to take an image and performs processing for acquiring the observed image. Further, the acquired image is processed to extract a bright spot of the target 50.
  • the trajectory estimation unit 122 performs a calculation for estimating the trajectory of the target 50 based on the plurality of images acquired by the observation image acquisition unit 121.
  • the maneuver processing unit 124 performs a process for executing the maneuver method determined based on the estimated trajectory.
  • the ground station 20 includes a receiver for receiving a signal from the chaser 10, a processor for performing processing or calculation based on the received signal, and control data obtained as a result of the processing or calculation. Etc. to the chaser 10.
  • the chaser 10 receives TLE information of the target 50 from the ground station 20.
  • FIG. 3 is a diagram showing a process flow of the approach process in the second stage according to the first embodiment.
  • the distance from the chaser 10 to the target 50 is, for example, several kilometers after the approach of the first stage GPS absolute navigation until the position of the target 50 and the chaser 10 is as shown in FIG. Move closer to several tens of kilometers. From this state, the approach process in the second stage is performed.
  • trajectory estimation is performed by differential correction which is batch processing.
  • the movement of the target is observed for a predetermined period, and the trajectory is estimated by using the coordinate position of the target 50 moving on the image captured by the camera 11 as an observation amount.
  • the maneuver is applied in the orbit after estimating the trajectory, and the target 50 is approached little by little.
  • the target 50 is gradually approached.
  • Vbar approach, RBar approach or the like can be adopted. This will be described below. Note that by estimating the trajectory by batch processing, the accuracy of trajectory estimation can be improved as compared to the method of estimating the trajectory in real time.
  • observation phase In the second stage, first, an observation phase for acquiring observation images at a plurality of time points is performed (step S31).
  • the observation image includes an image taken by the camera 11 or an image obtained by performing predetermined image processing on the image.
  • relative navigation using the camera 11 is performed in the second stage.
  • An image photographed by the camera 11 includes a plurality of bright spots. Some of these correspond to stars, and some correspond to debris.
  • image processing that excludes the bright spot corresponding to the star from the image photographed by the camera 11 and extract the bright spot corresponding to the target 50.
  • image processing that excludes the bright spot corresponding to the star from the image photographed by the camera 11 and extract the bright spot corresponding to the target 50.
  • processing for removing the influence is performed as necessary.
  • the state quantity related to the epoch that is, the orbital six elements at a certain point in time can be obtained with high accuracy. Can be estimated.
  • the observation image acquisition unit 121 captures images by the camera 11 at predetermined time intervals such as every 15 seconds, and acquires observation images.
  • the captured image may be used as an observation image as it is, but as described above, an unnecessary bright spot may be excluded and a bright spot corresponding to the target 50 may be extracted as an observation image.
  • the observation image is stored in a memory on the OBC 12 or a storage device connected to the OBC 12. Although depending on the orbital altitude of the chaser 10, if the period of one round is 100 minutes, about 400 observation images can be collected in one round.
  • the time for performing one observation phase is arbitrary, for example, it can be considered that the time for the target 50 to make one round on the orbit 70 is allocated to the observation phase.
  • the period of the observation phase is not limited to one round, but if the observation period is too short, the accuracy will be low, and if it is too long, the accuracy of the trajectory will be affected and the accuracy will be reduced. Is preferred. It is also possible to set the period including maneuver execution as the observation phase in order to improve observability. For example, when the distance between the target 50 and the chaser 10 approaches, the bright spot of the target 50 does not move much. Therefore, the chaser 10 may execute maneuver to deviate the position of the bright spot and perform the trajectory estimation based on the data including the amount of maneuver and the bright spot. The trajectory estimation calculation described later can also be applied when a period including maneuver execution is set as the observation phase.
  • the process proceeds to the trajectory estimation phase for estimating the trajectory element (step S32).
  • the trajectory estimation phase is preferably performed from several minutes to several tens of minutes, but is not limited thereto.
  • the conventional trajectory estimation calculation is performed by real-time processing, whereas in the present embodiment, batch processing is performed after collecting observation images at multiple points in time. Thereby, it can be expected to reduce the load and calculation time of the OBC 12.
  • the trajectory estimation unit 122 estimates a more accurate trajectory of the target 50 using a least square method or the like.
  • the trajectory estimation unit 122 uses the target 50 based on the TLE information of the target 50, the trajectory elements of the chaser 10 measured by the GPS receiver 16, and the plurality of observation images acquired by the camera 11.
  • the average orbital element in the epoch is estimated with higher accuracy than the TLE information. If the trajectory of the target 50 is calculated more accurately, the predicted trajectory after that can be estimated with higher accuracy.
  • the trajectory element in the epoch at the start of calculation is assumed to be based on TLE, and the observed amount estimated from the trajectory calculated using the value is compared with the actual observed amount based on the image obtained from the camera 11, By repeating the process of calculating the correction amount of the trajectory element so that the error is minimized, it is converged to the optimum value.
  • a regularization term is introduced for stability of convergence calculation, and Hoover loss is used to improve robustness against outliers.
  • the estimation calculation method is limited to this. is not.
  • step S33 After the six orbit elements are estimated, communication is performed between the chaser 10 and the ground station 20 (step S33). At this time, the chaser 10 transmits the orbit 6 element estimated in the orbit estimation phase via the transmitter 13, and the ground station 20 receives it. The ground station 20 confirms the received six orbit elements and automatically or manually determines the maneuver method. The determined maneuver method is transmitted from the ground station 20 to the chaser 10, and the chaser 10 receives this via the receiver 14. As a process for determining the maneuver method, any method can be adopted.
  • the chaser 10 executes the maneuver by the maneuver processing unit 124 controlling the propulsion unit 15 based on the received maneuver method, and approaches the target 50 (step S34).
  • the maneuver includes a process of changing or guiding the orbit of a spacecraft such as an artificial satellite using a thrust force such as a thruster.
  • the distance from the chaser 10 to the target 50 is measured, and whether or not the chaser 10 has approached the target 50 up to a predetermined distance targeted in the second stage, for example, 1 km. If it is not approaching, the process returns to step S31, and the process is repeated from the observation phase. This is repeated many times to approach a predetermined distance. That is, the chaser 10 repeats the observation, trajectory estimation, and maneuver process from step S31 to S34 until the distance to the target 50 approaches the predetermined distance. When the distance reaches the predetermined distance, the chaser 10 ends the second stage and the third stage. Migrate to
  • FIG. 4 is a diagram showing a flow of the trajectory estimation process in the trajectory estimation phase (S32).
  • the target 50 appears as a bright point, that is, a point.
  • the information obtained from this observation image is only the direction information from the chaser 10 to the target 50, and it is difficult to obtain the position information of the target 50 from one observation image. Therefore, in the trajectory estimation phase in the present embodiment, the position of the target 50 is estimated by comparing a precise trajectory calculation formula with the coordinate position on the camera image obtained therefrom. In the present embodiment, the estimation is performed not by real time estimation but by batch processing by offline estimation.
  • X - 0 is a state vector
  • track 6 elements [a, e, i, ⁇ , ⁇ , m] is represented by.
  • the estimated observed value vector Z ⁇ are observed amount estimated when a trajectory target 50 is represented by X - 0.
  • ⁇ Z can be derived by taking the difference between Z ⁇ and the actual observed value vector Z.
  • the actual observation value vector Z is obtained from a plurality of observation images acquired by the camera 11.
  • Z ⁇ and Z are both one-dimensional vectors that are coordinate values in the horizontal direction (u direction) and vertical direction (v direction) of the observed image.
  • the bar ( ⁇ ) indicated above the alphabet (X, Z) is indicated on the right side of the alphabet in the text. Both refer to the same thing. For example, it is as the following numerical formula (Formula 1).
  • the sensitivity matrix H is expressed by the following equation (Equation 2).
  • ⁇ X is a sensitivity increment of 6 elements.
  • Z ⁇ 'ua, Z ⁇ ' va is when the parameter a of the state vector X - 0 is a small amount .DELTA.a variation, i.e., track 6 elements [a + ⁇ a, e, i , ⁇ , ⁇ , m]
  • the camera coordinate position at T that is, the position of the chaser 10 is represented.
  • the state quantity vector correction amount ⁇ X ⁇ 0 is calculated by deriving the state quantity error covariance matrix P from the sensitivity matrix H and the observation value error covariance matrix W thus obtained. Adding correction amount DerutaX 0 determined in X - 0, it performed again similar calculate this value as a new state vector X - 0. In this way, repeat the operation until the ⁇ X ⁇ 0 converges. State vector X - 0 when the convergence represents an estimate of the trajectory of the target 50.
  • the least square method when the convergence calculation is performed, instead of using the least square method as the observed value error covariance matrix W, the least square method is used when the error is smaller than the threshold, and the error is When it is larger than the threshold value, a Hoover loss function using the minimum absolute deviation may be used. Further, it is preferable to stabilize the matrix P by regularizing the state quantity error covariance matrix P. As a regularization technique, for example, Tikhonov regularization can be used, but any other regularization technique can be adopted.
  • the orbit 6 element includes, for example, the following six parameters.
  • FIG. 5 is a schematic diagram showing a functional configuration of the chaser 10 according to the second embodiment. Compared with the chaser 10 (FIG. 2) according to the first embodiment, a maneuver method determination unit 123 is added.
  • FIG. 6 is a diagram showing a process flow of the approach process in the second stage according to the second embodiment.
  • the observation phase S31, S61
  • the trajectory estimation phase S32, S62
  • the maneuver execution phase S34, S64
  • the first embodiment communicates with the ground station 20 and determines the maneuver method on the ground station 20 side
  • the second embodiment autonomously operates on the OBC 12. Then, the maneuver method is determined (step S63).
  • the chaser 10 first receives the TLE information of the target 50 as necessary, but does not need to communicate with the ground station 20 after that, and the chaser 10 autonomously targets.
  • 50 is common to the first embodiment except that the approaching process to 50 is executed.
  • this invention is not limited to above-described embodiment, Various modifications are included.
  • any one of the above-described embodiments, various combinations of a plurality of elements, and the like fall within the scope and spirit of the present disclosure. Therefore, the said embodiment is only a mere illustration in all points, and is not interpreted limitedly.
  • the above-described processing steps or processing phases can be executed in any order or in parallel within a range that does not contradict the processing contents.
  • the above-described embodiment has been described as the non-cooperative approach in the second stage.
  • the idea of the present technique or the present technique is not limited to the non-cooperative approach in the second stage, but in other stages. It can also be applied to non-cooperative approaches.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

 本開示は、宇宙空間においてチェイサー(宇宙機)がスペースデブリ等の非協力対象に接近するための誘導方法を含む。この誘導方法は、例えば、カメラとオンボードコンピュータとを備えるチェイサーにおいて実行され、宇宙空間において、カメラにより、非協力対象であるターゲットを含む画像を複数取得する観測フェーズと、取得された複数の画像上に写るターゲットの、観測画像における座標位置に基づいて、ターゲットの軌道を推定する軌道推定フェーズと、推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ実行フェーズと、を含む。

Description

非協力接近に関する誘導方法 関連出願の相互参照
 本出願は、2014年10月24日に出願された日本出願番号2014-217833号に基づくもので、ここにその記載内容を援用する。
 本開示は、宇宙空間における非協力接近技術に関する。
 地球の周回軌道上には、過去に打ち上げられて任務を終えたり破損したりした人工衛星及びその破片やロケットの上段等の残骸が、スペースデブリ(以下「デブリ」という。)と呼ばれる宇宙ゴミとして存在する。かかるデブリは、任務遂行中の正常な宇宙ステーションや人工衛星に衝突して危害を加える虞があることから、周回軌道から離脱させて焼却したり回収したりする技術が種々提案されている。デブリ除去の手法の1つとして、デブリを捕獲するための除去衛星(以下「チェイサー」という。)を用いてデブリの軌道を変えることで大気圏に再突入させることが検討されているが、そのためには、チェイサーをターゲットとなるデブリに接近させる必要がある。
 ターゲットとなるデブリは、リフレクタや通信機器などが存在しない非協力対象であり、ターゲットからチェイサーに通信することはできない。チェイサーはターゲットの協力なく、チェイサー側で一方的にターゲットの位置を判断して、ターゲットに接近しなければならない。これを非協力接近技術といい、デブリ除去には不可欠である。
 宇宙空間において2機以上の宇宙船が互いに接近する技術はランデブー技術と呼ばれている。従来のランデブー技術では、ターゲットの位置情報をターゲット自体から取ることは想定されておらず、地上から観測して取得した位置情報を用いるため誤差が大きい。チェイサーが大型衛星であれば、高精度で飛距離のある大型の観測機器、高度な計算機、豊富な燃料等を用いて非協力接近を実現させるための方法論として、例えばangles-only navigationという手法が知られている(非特許文献1参照)。しかし、この手法による実績の資料があまり公開されていない上、大型の観測機器を搭載できない小型衛星で非協力接近を実現するためには、別の手法が求められる。
Gaias G., D’Amico S., and Ardaens J.-S.、「Angles-Only Navigation to a Non-Cooperative Satellite using Relative Orbital Elements」、Astrodynamics Specialists Conference AAS、2012年8月(以下のURLから参照可能[2014年10月24日検索]<http://elib.dlr.de/81062/>)
 ところで、チェイサーによるターゲットへの接近は、大きく4段階に分けられる。第1段階は、GPS絶対航法(GPS absolute navigation)、すなわち、GPS(Global Positioning System)による接近である。ターゲットが遠方にあるとき、2行軌道要素形式(TLE:Two Line Elements)というフォーマットで書かれた軌道情報を用いてターゲットの軌道位置を取得し、TLEの値をもとにチェイサーに搭載されるGPSで航法を行う。ターゲットのTLE情報をもとに所定の計算をすれば、ターゲットの軌道と位置が求まるが、TLE情報をもとに計算した軌道は一般的には数百m~数十km程度の誤差を含む。よって、接近の安全を考慮すると、第1段階は、数kmから数十kmまでの接近とするのが望ましい。なお、TLE情報とは、アメリカ戦略軍 宇宙統合機能構成部隊統合宇宙作戦センター(US Strategic Command, Joint Functional Component Command for Space, Joint Space Operations Center / USSTRATCOM, JFCC SPACE, JSpOC)が測定し公表している、宇宙物体毎の軌道情報であり、www.space-track.orgから配布されている。
 第2段階は、チェイサーからターゲットまでの距離が数十kmから数百mまでの接近に用いられる、相対航法(Relative navigation)である。第2段階で必要とされる軌道推定誤差は、安全を考慮して数十mから数百m程度を目標とする。第3段階は、ターゲットの相対位置や姿勢を計測して数kmから数十mまで接近するフライアラウンド(Fly-around)であり、第4段階は、数百mから約数cmまで接近するプレドッキングフェーズ(Pre-docking phase)である。第2段階以降も重要な段階であるが、これまでほとんど研究が報告されていない。なお、上述した計算誤差や第1段階から第4段階までの各段階を切り替える相対距離などの数値は、センサの性能や状況により大きく変化し得るものであり、本明細書に示す数値は、あくまで一例にすぎない。
 本開示は、主に第2段階における非協力接近に関する誘導技術を提供しようとするものである。
 本開示の所定の実施態様に係る宇宙機は、宇宙空間において、非協力対象であるターゲットを含む画像を撮影するカメラと、カメラによって撮影された画像を複数取得する観測画像取得部と、取得された複数の画像上に写るターゲットの、観測画像における座標位置に基づいて、ターゲットの軌道を推定する軌道推定部と、推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ処理部と、を備える。
 宇宙機は、観測画像取得部において画像を複数取得する処理と、軌道推定部においてターゲットの軌道を推定する処理と、前記マヌーバ処理部においてマヌーバ方法を実行する処理とを、繰り返し実行することによって、前記ターゲットに所定距離まで接近するものとすることができる。
 本開示の所定の実施形態に係る誘導方法は、地上局から宇宙機を誘導する方法であり、宇宙空間において、非協力対象であるターゲットへの接近を図る宇宙機から、ターゲットに関する推定された軌道を、地上局で受信するステップと、受信されたターゲットに関する推定された軌道に基づいて決定されたマヌーバ方法を、地上局から宇宙機に送信するステップと、を備える。
 また、本開示の所定の実施形態に係る誘導方法は、カメラとオンボードコンピュータとを備える宇宙機において実行される誘導方法である。この誘導方法は、宇宙空間において、カメラにより、非協力対象であるターゲットを含む画像を複数取得する観測フェーズと、取得された複数の画像上に写るターゲットの、画像における座標位置に基づいて、ターゲットの軌道を推定する軌道推定フェーズと、推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ実行フェーズと、を含むものとすることができる。
 本開示の所定の実施形態に係るプログラムは、上記誘導方法の各ステップをコンピュータに実行させることを特徴とする。本開示のプログラムは、CD-ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。
 なお、本明細書等において、手段ないし部とは、単に物理的手段ないし部分を意味するものではなく、その手段ないし部分が有する機能をソフトウェアによって実現する場合も含む。また、1つの手段ないし部分が有する機能が2つ以上の物理的手段ないし部分により実現されても、2つ以上の手段ないし部分の機能が1つの物理的手段ないし部分により実現されてもよい。
 本開示に係る所定の実施態様によれば、第2段階における非協力接近に関する誘導技術を実現できる。
 本開示については、添付の図面を参照しながら下記の詳細な記述により、より明確になる。
図1は、第1の実施形態に係る誘導システム1の概略構成を示す図である。 図2は、第1の実施形態に係るチェイサー10の機能構成を示す概略図である。 図3は、第1の実施形態における接近処理の処理フローを示す図である。 図4は、第1の実施形態における軌道推定処理の流れを示す図である。 図5は、第2の実施形態に係るチェイサー10の機能構成を示す概略図である。 図6は、第2の実施形態における接近処理の処理フローを示す図である。
 以下、本発明の実施の形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。図面の寸法比率は、図示の比率に限定されるものではない。また、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。さらに、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。
(第1の実施形態)
 図1は、本発明の第1の実施形態に係る非協力接近に関する誘導システム1の概略構成を示す図である。まず、前提として、非協力対象であるターゲット50が地球60の上空の宇宙空間を軌道70で周回している。これに対し、本実施形態における誘導システム1は、宇宙空間に位置するチェイサー(宇宙機)10と地球上の地上局20を含んで構成される。
 チェイサー10は、例えば、ターゲット50に接近させようとしている人工衛星である。チェイサー10は、小型の人工衛星であることが好ましいが、これに限られない。ここでは、GPS絶対航法による接近の第1段階を経て、チェイサー10は、ターゲット50までの距離が数十km程度かそれよりも近くまで接近しているものとする。チェイサー10は、地球60上の地上局20と交信し、チェイサー10が収集ないし分析したデータ等を地上局20に送信し、また、地上局20からマヌーバ方法などの誘導データ等を受信することができるように構成されている。
 図2は、第1の実施形態に係るチェイサー10の機能構成を示す概略図である。同図に示すように、チェイサー10は、カメラ11と、オンボードコンピュータ(OBC:On Board Computer)12と、送信機13と、受信機14と、推進器15と、GPS受信機16とを含む。OBC12はさらに、ハードウェア又はソフトウェアによって実現される機能的な構成として、観測画像取得部121と、軌道推定部122と、マヌーバ処理部124とを含む。
 カメラ11は、例えば光学カメラを用いることができる。開発コストや開発期間の観点から、チェイサー10は、上述のとおり小型衛星であることが好ましい。しかし、小さな衛星に高精度で飛距離のある大型の観測機器を搭載することは難しい。そこで、本実施形態では、ターゲット50の位置を推定するための情報を収集するための手段として、カメラ11を使用し、カメラ11から取得される画像情報から、ターゲット50の軌道を推定する。なお、カメラ11の向きは、チェイサー10の進行方向に一致することが好ましいが、これに限られない。
 カメラ11の焦点距離が長いと画角が狭いため、撮影した画像にターゲット50が写らない可能性がある。他方、焦点距離が短いと(例えば5mm)、画角が広がるが、画像上の変化が少ないため、推定精度に限界が生じ得る。そこで、カメラ11として、焦点距離の異なる複数種類の光学カメラを併用し、まずは焦点距離が短いものを使ってターゲット50に近づき、距離が縮まったら焦点距離が長いものに変更するようにしてもよい。例えば、チェイサー10からターゲットまでの距離が5km程度以下になったら焦点距離の長いカメラに切り替え、さらに2km程度以下に近づいたら、焦点距離がより長いカメラに切り替えることも可能である。
 また、カメラ11として、赤外線カメラや他の任意の撮像機器を用いることもできる。赤外線カメラを使用する場合、感度が落ちる可能性はあるが、光学条件に左右されないという利点がある。そこで、例えば光学カメラと赤外線カメラなど複数種類のカメラを用意しておき、観測条件に応じて、適宜カメラを切り替えるようにしてもよい。
 OBC12は、チェイサー10に搭載されるコンピュータであり、プロセッサやメモリを含む。本実施形態において、OBC12は、カメラ11、送信機13、受信機14、推進器15及びGPS受信機16の動作や処理を制御し、また、各種の演算や処理を実行することを含む。
 送信機13は、チェイサー10が取得ないし演算したデータを地上局20に送信する。また、受信機14は、地上局20から送られてくるターゲット50のTLE情報やチェイサー10のマヌーバ方法、その他必要なデータを受信する。推進器15は、チェイサーの軌道を変えるためのスラスタ等によって構成される。
 GPS受信機16は、GPSを受信してチェイサー10の位置を測定する。これにより、チェイサー10の軌道を取得することができる。本実施形態では、GPS受信機16により、チェイサー10の軌道6要素を得ることができる。GPSを用いて測定される軌道の精度は、TLE情報よりも高精度であり、誤差は数メートル程度である。
 観測画像取得部121は、カメラ11を制御して画像を撮影し、観測された画像を取得する処理を行う。また、取得された画像を処理して、ターゲット50の輝点を抽出する処理を行う。軌道推定部122は、観測画像取得部121によって取得された複数の画像を基に、ターゲット50の軌道を推定する演算を行う。マヌーバ処理部124は、推定された軌道に基づいて決定されたマヌーバ方法を実行するための処理を行う。
 また、図示省略するが、地上局20は、チェイサー10からの信号を受信するための受信機と、受信した信号に基づいて処理ないし演算を行うプロセッサと、処理ないし演算の結果得られた制御データ等を、チェイサー10に送信するための送信機とを備える。また、チェイサー10は、ターゲット50のTLE情報を地上局20から受信する。
 次に、このように構成されるチェイサー10を含む誘導システム1による非協力対象への接近処理について説明する。
 図3は、第1の実施形態に係る第2段階における接近処理の処理フローを示す図である。第2段階に先立ち、ターゲット50とチェイサー10の位置が図1に示すような状態まで、第1段階のGPS絶対航法による接近をして、チェイサー10からターゲット50までの距離が、例えば数kmから数十km程度のところまで近づける。この状態から、第2段階による接近処理を実施する。
 本実施形態では、バッチ処理である微分補正(differential correction)による軌道推定を行う。これは、ターゲットの動きを所定期間観測し、カメラ11が撮影した画像上に移るターゲット50の座標位置を観測量とすることで、軌道の推定をする。そして、軌道を推定した後の周回でマヌーバをかけてターゲット50に少しずつ接近する。軌道を観測するフェーズとマヌーバにより接近するフェーズを繰り返すことで、徐々にターゲット50へと近づいていく。このときの接近方法はVbar接近やRBar接近等を採用可能である。以下説明する。なお、バッチ処理で軌道推定することにより、リアルタイムで軌道推定する手法に比べて、軌道推定の精度を向上させることができる。
(観測フェーズ)
 第2段階では、まず、複数時点における観測画像を取得する観測フェーズを実施する(ステップS31)。ここで、観測画像とは、カメラ11によって撮影された画像またはこれに所定の画像処理を施した画像を含む。本実施形態では、第2段階において、カメラ11を用いた相対航法を行う。カメラ11によって撮影された画像には複数の輝点が含まれる。これらのうちいくつかは星に対応するものであり、いくつかはデブリなどに対応するものである。
 そこで、カメラ11によって撮影された画像から、星に対応する輝点を除外する画像処理を行い、ターゲット50に対応する輝点を抽出することが好ましい。例えば、カメラ11が撮影した画像から、ヒッパルコス星表を利用して、星に対応する輝点を除外する処理を行うことによって、ターゲット50を含む星以外の輝点を抽出した画像を得ることができる。また、カメラ11が撮影した画像には、月・太陽・地球などが写りこむ可能性も高いので、必要に応じて、それらの影響を除去する処理を実施する。
 ところで、ある時点でカメラ11が撮影した画像から抽出したターゲット50の輝点について、当該輝点の観測画像平面上の位置を観測するだけでは非可観測であり、ターゲット50の軌道6要素を求めることはできない。そこで、本実施形態では、例えば、所定時間ごとにカメラ11で撮影を行い、多点時系列の観測画像を取得することで、エポック、すなわち、ある時点における軌道6要素に係る状態量を高精度に推定可能としている。
 例えば、観測画像取得部121は、15秒毎など所定時間毎に、カメラ11による撮影を行い、観測画像を取得する。撮影した画像をそのまま観測画像としてもよいが、上述のとおり不要な輝点を除外して、ターゲット50に対応する輝点を抽出したものを観測画像としてもよい。観測画像はOBC12上のメモリまたはOBC12に接続された記憶装置に格納される。チェイサー10の軌道高度にも依存するが、仮に1周の周期が100分であれば、1周で約400程度の観測画像を収集できる。
 1回の観測フェーズを実施する時間は任意であるが、例えば、ターゲット50が軌道70上を1周回する時間を観測フェーズに充てることが考えられる。観測フェーズの期間は1周回分に限定されないが、観測期間が短すぎると精度が低くなり、長すぎても軌道計算の誤差が影響してきて精度が落ちるため、丁度良い適度な期間を設定することが好ましい。
 また、可観測性向上のためにマヌーバ実行を含めた期間を観測フェーズとすることも可能である。例えば、ターゲット50とチェイサー10の距離が近付くと、ターゲット50の輝点があまり大きく動かなくなる。そこで、チェイサー10がマヌーバを実行して、輝点の位置を敢えてずらし、マヌーバの量と輝点のずれた量を含めたデータに基づいて軌道推定を行うようにしてもよい。なお、後述する軌道推定演算は、マヌーバ実行を含めた期間を観測フェーズとする場合にも適用可能である。
(軌道推定フェーズ)
 このようにして、ターゲット50に対応する輝点が含まれる観測画像を、複数の時点にわたり取得した後、軌道要素を推定する軌道推定フェーズに移行する(ステップS32)。本実施形態では、カメラ11から多時点で取得した観測画像を複数ためてから、OBC12上でバッチ処理により軌道推定演算を行う。軌道推定フェーズは、数分から数十分で行われることが好ましいが、これに限られない。なお、従来の軌道推定演算は、リアルタイム処理で行われていたのに対し、本実施形態では、多時点の観測画像をためてからバッチ処理を行う。これにより、OBC12の負荷及び計算時間を抑えることが期待できる。
 この軌道推定フェーズでは、軌道推定部122が、最小二乗法等を用いて、ターゲット50のより正確な軌道を推定する。本実施形態において、軌道推定部122は、ターゲット50のTLE情報と、GPS受信機16により測定されたチェイサー10の軌道要素と、カメラ11によって取得された複数の観測画像とに基づいて、ターゲット50のエポックにおける平均軌道要素をTLE情報よりも高精度に推定する。ターゲット50の軌道がより正確に算出されると、それ以降の予測軌道も、より高い精度で推定できるようになる。
 例えば、計算開始時におけるエポックでの軌道要素はTLEによるものとし、その値を用いて算出された軌道から推定される観測量とカメラ11から得られた画像に基づく実観測量とを比較し、誤差が最小となるような軌道要素の修正量を算出するという作業を繰り返すことで最適値に収束させる。なお、本実施例では、収束計算の安定性のために正則化項を導入し、異常値に対するロバスト性向上のためにフーバー損失を用いるものとしたが、推定演算の手法はこれに限られるものではない。
 また、軌道を推定する際に、地球の非球体性、大気抵抗、太陽輻射圧、太陽と月の引力、短周期の振動現象などの摂動を考慮することが好ましい。これらを考慮することによって、ターゲット50の軌道をより正確に予測することが可能となる。さらに、ターゲット50の輝点の位置をより正確に観測するために、地球60の陰で輝点として映らないなどの日照条件や、他の光学条件も要素にいれてもよい。
(交信)
 軌道6要素が推定された後、チェイサー10と地上局20との間で交信を行う(ステップS33)。このとき、チェイサー10からは、送信機13を介して、軌道推定フェーズで推定された軌道6要素を送信し、地上局20はこれを受信する。地上局20では、受信した軌道6要素を確認し、マヌーバ方法を自動ないし手動で決定する。決定されたマヌーバ方法は、地上局20からチェイサー10に送信され、チェイサー10は受信機14を介してこれを受信する。マヌーバ方法を決定する処理としては、任意の手法を採用し得る。
(マヌーバ実行フェーズ)
 その後、チェイサー10は、受信したマヌーバ方法に基づいてマヌーバ処理部124が推進器15を制御することによって、マヌーバを実行し、ターゲット50に近づく(ステップS34)。なお、マヌーバとは、スラスタ等の推進力を用いて人工衛星等の宇宙機の軌道を変更または誘導する処理を含むものである。
 決定されたマヌーバ方法によるマヌーバを実行した後、チェイサー10からターゲット50までの距離を計測し、第2段階で目標とされる所定距離まで、例えば1kmまで、チェイサー10がターゲット50に接近したか否かを判断し、接近していなければステップS31に戻り、観測フェーズから処理を繰り返す。これを何度が繰り返して、所定距離まで接近させる。つまり、チェイサー10は、ターゲット50までの距離が所定距離に近づくまで、ステップS31からS34までの観測、軌道推定及びマヌーバ処理を繰り返し、所定距離まで近づいたら、第2段階を終了し、第3段階へ移行する。
(軌道推定演算の実施例)
 図4は、軌道推定フェーズ(S32)における軌道推定処理の流れを示す図である。
 カメラ11によって観測された画像には、ターゲット50は輝点、すなわち、点として写る。この観測画像から得られる情報は、チェイサー10からターゲット50への方向情報のみであり、1枚の観測画像からターゲット50の位置情報を取得することは困難である。そこで、本実施形態における軌道推定フェーズでは、精密な軌道計算式と、それから得られるカメラ画像上での座標位置とを比較することで、ターゲット50の位置の推定を行う。本実施形態において、推定は、リアルタイム推定ではなく、オフライン推定によるバッチ処理で行われる。
 図4において、X ̄は状態量ベクトルであり、軌道6要素[a,e,i,Ω,ω,m]によって表される。軌道推定演算の最初の状態では、X ̄として、TLE情報から取得されたターゲット50の軌道6要素が入力される。観測方程式hは軌道6要素から画像上の座標に変換する関数であり、これにより推定観測値ベクトルZ ̄=(Z ̄,Z ̄)が得られる。この推定観測値ベクトルZ ̄は、ターゲット50がX ̄によって表される軌道である場合に推定される観測量である。Z ̄と実観測値ベクトルZの差分をとれば、ΔZを導出できる。本実施形態において実観測値ベクトルZは、カメラ11によって取得された複数の観測画像から得られる。なお、Z ̄とZはともに観測画像の横方向(u方向)および縦方向(v方向)の座標値である1次元ベクトルである。なお、本文中で使用できる文字種が限られているため、図4等においてアルファベット(X,Z)の上側に表記されるバー( ̄)を、本文中ではアルファベットの右側に表記しているが、両者は同じものを指している。例えば、次の数式(数1)のとおりである。
Figure JPOXMLDOC01-appb-M000001
 このとき、感度行列Hは次式(数2)となる。なお、ΔXは各6要素の感度刻みである。また、Z ̄’ua,Z ̄’vaは、状態量ベクトルX ̄のパラメータaを微小量Δa変動させたとき、すなわち、軌道6要素が[a+Δa,e,i,Ω,ω,m]のときのカメラ座標位置、つまりチェイサー10の位置を表す。
Figure JPOXMLDOC01-appb-M000002
 このようにして求めた感度行列Hと観測値誤差共分散行列Wから状態量誤差共分散行列Pを導出することで状態量ベクトルの修正量ΔX ̄が計算される。求めた修正量ΔX ̄をX ̄に加え、この値を新たな状態量ベクトルX ̄として再度同様の計算を行う。こうして、ΔX ̄が収束するまで演算を繰り返す。収束したときの状態量ベクトルX ̄が、ターゲット50の軌道の推定値を表している。
 なお、本実施形態では、収束演算を実施する際に、観測値誤差共分散行列Wとして、最小二乗法を利用する代わりに、誤差が閾値よりも小さいときは最小二乗法を利用し、誤差が閾値よりも大きい時は最小絶対偏差を利用するフーバー損失関数を用いてもよい。また、状態量誤差共分散行列Pを正則化して、行列Pを安定化させることが好ましい。正則化の手法としては、例えばティホノフ(Tikhonov)正則化を用いることができるが、他の任意の正則化手法を採用可能である。
 なお、宇宙空間では、地球を周回する衛星の軌道6要素が分かれば、当該衛星の軌道を特定することができ、ひいては、ある日時における当該衛星の位置を特定することができる。ここで、軌道6要素とは、例えば、次の6つのパラメータが含まれる。
半長径「a」(Semi-major Axis)(単位:km)
離心率「e」(Eccentricity)(単位無し)
軌道傾斜角「i」(Inclination)(単位:度)
昇交点赤経「Ω」(RAAN:Right Ascension of Ascending Node)(単位:度)
近地点離角「ω」(Argument of Perigee)(単位:度)
平均近点角「m」(Mean Anomaly)(単位:度)
(第2の実施形態)
 次に、本発明の他の実施形態について説明する。
 図5は、第2の実施形態に係るチェイサー10の機能構成を示す概略図である。第1の実施形態に係るチェイサー10(図2)と比較すると、マヌーバ方法決定部123が追加されている。
 図6は、第2の実施形態に係る第2段階における接近処理の処理フローを示す図である。第1の実施形態に係る接近処理の処理フロー(図3)と比べると、観測フェーズ(S31、S61)、軌道推定フェーズ(S32、S62)、マヌーバ実行フェーズ(S34、S64)及びその繰り返し処理であることは共通する。しかし、軌道推定フェーズで軌道を推定した後、第1の実施形態では地上局20と交信して、地上局20側でマヌーバ方法を決定するのに対し、第2の実施形態ではOBC12上で自律的にマヌーバ方法を決定する(ステップS63)。
 このように、第2の実施形態では、チェイサー10は、必要に応じて最初にターゲット50のTLE情報を受信するが、その後、地上局20と交信する必要がなく、チェイサー10が自律的にターゲット50への接近処理を実行するものであるほかは、第1の実施形態と共通する。
 なお、本発明は、上記した実施の形態に限定されるものではなく、様々な変形例をも包含する。加えて、上述の実施形態のうちの任意の一要素や、複数の要素の種々の組み合わせ等も、本開示の範疇や思想範囲に入るものである。したがって、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述の各処理ステップないし各処理フェーズは処理内容に矛盾を生じない範囲で任意に順番を変更して又は並列に実行することができる。また、本開示においては、第2段階における非協力接近の手法として上述の実施形態を説明したが、本手法ないし本手法の考え方は、第2段階における非協力接近に限らず、他の段階における非協力接近にも適用可能である。
 

Claims (8)

  1.  宇宙空間において、非協力対象であるターゲットを含む画像を撮影するカメラと、
     前記カメラによって撮影された画像を複数取得する観測画像取得部と、
     前記取得された複数の画像上に写る前記ターゲットの、前記画像における座標位置に基づいて、前記ターゲットの軌道を推定する軌道推定部と、
     前記推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ処理部と、
    を備える宇宙機。
  2.  前記観測画像取得部において画像を複数取得する処理と、前記軌道推定部において前記ターゲットの軌道を推定する処理と、前記マヌーバ処理部においてマヌーバ方法を実行する処理とを、繰り返し実行することによって、前記ターゲットに所定距離まで接近する請求項1記載の宇宙機。
  3.  前記マヌーバ方法は、地上局において決定されるものである、請求項1又は2記載の宇宙機。
  4.  前記推定された軌道に基づいてマヌーバ方法を決定するマヌーバ方法決定部をさらに備え、前記マヌーバ処理部は、前記マヌーバ方法決定部によって決定された前記マヌーバ方法を実行するものである、請求項1又は2記載の宇宙機。
  5.  宇宙空間において、非協力対象であるターゲットへの接近を図る宇宙機から、前記ターゲットに関する推定された軌道を、地上局で受信することと、
     前記受信された前記ターゲットに関する推定された軌道に基づいて決定されたマヌーバ方法を、前記地上局から前記宇宙機に送信することと、
    を含む誘導方法。
  6.  カメラとオンボードコンピュータとを備える宇宙機において実行される誘導方法であって、
     宇宙空間において、前記カメラにより、非協力対象であるターゲットを含む画像を複数取得する観測フェーズと、
     前記取得された複数の画像上に写る前記ターゲットの、前記画像における座標位置に基づいて、前記ターゲットの軌道を推定する軌道推定フェーズと、
     前記推定された軌道に基づいて決定されたマヌーバ方法を実行するマヌーバ実行フェーズと、
    を含む誘導方法。
  7.  前記観測フェーズと、前記軌道推定フェーズと、前記マヌーバ実行フェーズとを、繰り返し実行することによって、前記ターゲットに所定距離まで接近する請求項6記載の誘導方法。
  8.  請求項6又は7に記載の誘導方法を前記オンボードコンピュータに実行させるためのプログラム。
PCT/JP2015/079747 2014-10-24 2015-10-21 非協力接近に関する誘導方法 WO2016063923A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016555264A JPWO2016063923A1 (ja) 2014-10-24 2015-10-21 非協力接近に関する誘導方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014217833 2014-10-24
JP2014-217833 2014-10-24

Publications (1)

Publication Number Publication Date
WO2016063923A1 true WO2016063923A1 (ja) 2016-04-28

Family

ID=55760954

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079747 WO2016063923A1 (ja) 2014-10-24 2015-10-21 非協力接近に関する誘導方法

Country Status (2)

Country Link
JP (1) JPWO2016063923A1 (ja)
WO (1) WO2016063923A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108803346A (zh) * 2018-07-25 2018-11-13 西北工业大学 一种针对空间非合作目标自主逼近控制方法
CN108917772A (zh) * 2018-04-04 2018-11-30 北京空间飞行器总体设计部 基于序列图像的非合作目标相对导航运动估计方法
CN109696084A (zh) * 2019-01-04 2019-04-30 北京邮电大学 一种多卫星博弈围捕策略
CN111504330A (zh) * 2020-05-07 2020-08-07 中国人民解放军63768部队 一种基于实测数据的低轨航天器准实时轨道机动检测方法
AT16975U1 (de) * 2017-02-24 2021-01-15 Deutsch Zentr Luft & Raumfahrt System zur Bestimmung und/oder Vorhersage einer Position und/oder einer Flugbahn von orbitalen Objekten im Weltraum
JP2021151810A (ja) * 2020-03-24 2021-09-30 三菱電機株式会社 観測システム、通信衛星および地上設備
JP2022023368A (ja) * 2020-07-27 2022-02-08 三菱電機株式会社 宇宙物体管理システム、地上設備、宇宙物体管理装置および監視衛星
JP2022038459A (ja) * 2020-08-26 2022-03-10 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備
KR20230052000A (ko) * 2021-10-12 2023-04-19 엘아이지넥스원 주식회사 우주물체 감시 방법 및 시스템
CN116954075A (zh) * 2023-07-20 2023-10-27 中国人民解放军战略支援部队航天工程大学 非合作连续推力航天器推力参数辨识方法、系统和设备
JP7403403B2 (ja) 2020-07-22 2023-12-22 三菱電機株式会社 宇宙状況監視事業装置、監視装置、および、地上設備
JP7479330B2 (ja) 2020-09-03 2024-05-08 三菱電機株式会社 ドリフトベースのランデブー制御

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000025700A (ja) * 1998-07-16 2000-01-25 Nec Corp 単点観測による宇宙デブリ検出装置および検出方法
JP2002029500A (ja) * 2000-07-19 2002-01-29 Mitsubishi Heavy Ind Ltd 軌道上作業機の誘導システム
CN101733746A (zh) * 2009-12-22 2010-06-16 哈尔滨工业大学 空间机器人非合作目标自主识别与捕获方法
JP2011218834A (ja) * 2010-04-02 2011-11-04 Ihi Corp スペースデブリ観測方法
WO2013065795A1 (ja) * 2011-11-02 2013-05-10 株式会社Ihi スペースデブリ除去装置及びスペースデブリ除去方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112012012615A2 (pt) * 2009-11-25 2019-09-24 Poulos Air & Space estabilização de detritos espaciais instáveis.

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000025700A (ja) * 1998-07-16 2000-01-25 Nec Corp 単点観測による宇宙デブリ検出装置および検出方法
JP2002029500A (ja) * 2000-07-19 2002-01-29 Mitsubishi Heavy Ind Ltd 軌道上作業機の誘導システム
CN101733746A (zh) * 2009-12-22 2010-06-16 哈尔滨工业大学 空间机器人非合作目标自主识别与捕获方法
JP2011218834A (ja) * 2010-04-02 2011-11-04 Ihi Corp スペースデブリ観測方法
WO2013065795A1 (ja) * 2011-11-02 2013-05-10 株式会社Ihi スペースデブリ除去装置及びスペースデブリ除去方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISAO KAWANO: "Engineering Test Satellite VII(ETS-VII). Space Robot and Rendezvous- Docking Experiments. Rendezvous-Docking Experiment of ETS-VII. Future Strategy of Rendezvous Docking Technology.", JOURNAL OF THE SOCIETY OF INSTRUMENT AND CONTROL ENGINEERS, vol. 38, no. 11, November 1999 (1999-11-01), pages 710 - 712 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT16975U1 (de) * 2017-02-24 2021-01-15 Deutsch Zentr Luft & Raumfahrt System zur Bestimmung und/oder Vorhersage einer Position und/oder einer Flugbahn von orbitalen Objekten im Weltraum
CN108917772A (zh) * 2018-04-04 2018-11-30 北京空间飞行器总体设计部 基于序列图像的非合作目标相对导航运动估计方法
CN108803346A (zh) * 2018-07-25 2018-11-13 西北工业大学 一种针对空间非合作目标自主逼近控制方法
CN109696084A (zh) * 2019-01-04 2019-04-30 北京邮电大学 一种多卫星博弈围捕策略
JP7349945B2 (ja) 2020-03-24 2023-09-25 三菱電機株式会社 観測システム、通信衛星および地上設備
JP2021151810A (ja) * 2020-03-24 2021-09-30 三菱電機株式会社 観測システム、通信衛星および地上設備
CN111504330A (zh) * 2020-05-07 2020-08-07 中国人民解放军63768部队 一种基于实测数据的低轨航天器准实时轨道机动检测方法
JP7403403B2 (ja) 2020-07-22 2023-12-22 三菱電機株式会社 宇宙状況監視事業装置、監視装置、および、地上設備
JP2022023368A (ja) * 2020-07-27 2022-02-08 三菱電機株式会社 宇宙物体管理システム、地上設備、宇宙物体管理装置および監視衛星
JP7455018B2 (ja) 2020-07-27 2024-03-25 三菱電機株式会社 宇宙物体管理システム、地上設備、宇宙物体管理装置および監視衛星
JP2022038459A (ja) * 2020-08-26 2022-03-10 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備
JP7394724B2 (ja) 2020-08-26 2023-12-08 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備
JP7479330B2 (ja) 2020-09-03 2024-05-08 三菱電機株式会社 ドリフトベースのランデブー制御
KR20230052000A (ko) * 2021-10-12 2023-04-19 엘아이지넥스원 주식회사 우주물체 감시 방법 및 시스템
KR102618579B1 (ko) 2021-10-12 2023-12-27 엘아이지넥스원 주식회사 우주물체 감시 방법 및 시스템
CN116954075A (zh) * 2023-07-20 2023-10-27 中国人民解放军战略支援部队航天工程大学 非合作连续推力航天器推力参数辨识方法、系统和设备
CN116954075B (zh) * 2023-07-20 2024-04-19 中国人民解放军战略支援部队航天工程大学 非合作连续推力航天器推力参数辨识方法、系统和设备

Also Published As

Publication number Publication date
JPWO2016063923A1 (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
WO2016063923A1 (ja) 非協力接近に関する誘導方法
Caballero et al. Vision-based odometry and SLAM for medium and high altitude flying UAVs
Christian et al. Onboard image-processing algorithm for a spacecraft optical navigation sensor system
Trawny et al. Vision‐aided inertial navigation for pin‐point landing using observations of mapped landmarks
Du et al. Pose measurement of large non-cooperative satellite based on collaborative cameras
US9944412B2 (en) Spacecraft system for debris disposal and other operations and methods pertaining to the same
Woffinden et al. Relative angles-only navigation and pose estimation for autonomous orbital rendezvous
EP2112630A1 (en) Method and system for real-time visual odometry
US20080195316A1 (en) System and method for motion estimation using vision sensors
CN106850051B (zh) 一种基于微小卫星的空间碎片清理系统及方法
Johnson et al. Real-time terrain relative navigation test results from a relevant environment for Mars landing
Noteborn et al. Flight results from the PRISMA optical line of sight based autonomous rendezvous experiment
Ivanov et al. Relative pose and inertia determination of unknown satellite using monocular vision
McCarthy et al. Osiris-rex landmark optical navigation performance during orbital and close proximity operations at asteroid Bennu
Smith et al. Operational constraint analysis of terrain relative navigation for landing applications
US20080004758A1 (en) Apparatus and method for tracking an orbital body relative to a planetary body using a single sensor
Brandonisio et al. Deep reinforcement learning spacecraft guidance with state uncertainty for autonomous shape reconstruction of uncooperative target
Reeves et al. Proximity operations for the robotic boulder capture option for the asteroid redirect mission
Indelman et al. Navigation aiding based on coupled online mosaicking and camera scanning
Walker Automated proximity operations using image-based relative navigation
Hashimoto et al. Vision-based guidance, navigation, and control of Hayabusa spacecraft-Lessons learned from real operation
Girrbach et al. Towards robust sensor fusion for state estimation in airborne applications using GNSS and IMU
Mazzucato et al. Stereoscopic vision-based relative navigation for spacecraft proximity operations
Van Pham et al. Fusion of visual odometry and landmark constellation matching for spacecraft absolute navigation: analysis and experiments
Sasaki et al. Robust Relative Trajectory Design considering Passive Abort Safety under Sensor Failure Situation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15852262

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016555264

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15852262

Country of ref document: EP

Kind code of ref document: A1