WO2023062765A1 - 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム - Google Patents

形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム Download PDF

Info

Publication number
WO2023062765A1
WO2023062765A1 PCT/JP2021/037983 JP2021037983W WO2023062765A1 WO 2023062765 A1 WO2023062765 A1 WO 2023062765A1 JP 2021037983 W JP2021037983 W JP 2021037983W WO 2023062765 A1 WO2023062765 A1 WO 2023062765A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
shape
model
unit
curve
Prior art date
Application number
PCT/JP2021/037983
Other languages
English (en)
French (fr)
Inventor
貴雄 遠藤
仁深 尾野
俊行 安藤
多伸 福田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2021/037983 priority Critical patent/WO2023062765A1/ja
Priority to JP2022500658A priority patent/JP7038940B1/ja
Publication of WO2023062765A1 publication Critical patent/WO2023062765A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles

Definitions

  • the present disclosure relates to a shape/posture estimation device, a shape/posture estimation method, and a shape/posture estimation system.
  • the monitoring system includes a database that stores a plurality of luminance change patterns (hereinafter referred to as "registered luminance change patterns") that indicate temporal changes in luminance of a target object.
  • the registered luminance change pattern is associated with each of the shape and orientation of the target object.
  • the monitoring system observes a luminance change pattern (hereinafter referred to as an "observed luminance change pattern”) indicating a temporal change in luminance of a target object, and observes the observed luminance change pattern and a plurality of registered luminance changes stored in a database. Perform pattern matching with a pattern.
  • the monitoring system outputs, as an estimation result, each of the shape and orientation associated with the registered brightness change pattern that has the highest degree of matching with the observed brightness change pattern among the plurality of registered brightness change patterns.
  • the present disclosure has been made in order to solve the above-described problems, and is a shape and posture capable of estimating each of the shape and posture of a moving object without storing the registered luminance change pattern of the moving object in a database.
  • An object of the present invention is to obtain an estimation device and a shape/posture estimation method.
  • a shape/orientation estimation apparatus includes a light curve acquisition unit that acquires a first light curve indicating a temporal change in light intensity from a light measurement device that measures the light intensity of a moving object to be monitored;
  • a captured image acquisition unit for acquiring an image of a moving object captured by the imaging device from a flying object mounted with an imaging device for imaging; a captured image of the moving object acquired by the captured image acquisition unit;
  • a model generation unit that generates a model of a moving object using feature data indicating characteristics of an object that may be in contact with the object;
  • a light curve calculation unit that simulates a temporal change in the luminous intensity of the model when irradiated and outputs a second light curve indicating the temporal change in the luminous intensity of the model; Based on the first light curve and the second light curve output from the light curve calculation unit, the shape and attitude of the model are adjusted, and the shape and attitude of the moving body are estimated from the adjusted model. and a shape/orientation estimator.
  • FIG. 1 is a configuration diagram showing a shape/orientation estimation system according to Embodiment 1;
  • FIG. 1 is a configuration diagram showing a photometric device 10 included in the shape/orientation estimation system according to Embodiment 1.
  • FIG. 2 is a configuration diagram showing a planning device 30 included in the shape/orientation estimation system according to Embodiment 1.
  • FIG. 2 is a configuration diagram showing ground station 40 included in the shape/posture estimation system according to Embodiment 1.
  • FIG. 1 is a configuration diagram showing shape/posture estimation apparatus 50 according to Embodiment 1.
  • FIG. 2 is a hardware configuration diagram showing hardware of the shape/orientation estimation apparatus 50 according to Embodiment 1.
  • FIG. 2 is a hardware configuration diagram of a computer when the shape/posture estimation device 50 is realized by software, firmware, or the like.
  • FIG. FIG. 2 is an explanatory diagram showing the positional relationship among a moving object 1, a flying object 2, a light intensity measuring device 10, a planning device 30, a ground station 40, and a shape/posture estimating device 50;
  • 4 is a flow chart showing calculation processing for position and luminous intensity by the processing device 21, and the like.
  • FIG. 5 is a flowchart showing a shape/posture estimation method, which is a processing procedure of the shape/posture estimation device 50; 5 is a flowchart showing a shape/posture estimation method, which is a processing procedure of the shape/posture estimation device 50; 5 is an explanatory diagram showing the processing contents of the shape/posture estimation device 50.
  • FIG. FIG. 2 is an explanatory diagram showing the positional relationship among a moving object 1, a flying object 2, a light intensity measuring device 10, a planning device 30, a ground station 40, and a shape/posture estimating device 50;
  • FIG. 11 is an explanatory diagram showing the processing contents of the shape/orientation estimation device 50 according to the second embodiment;
  • FIG. 1 is a configuration diagram showing a shape/orientation estimation system according to Embodiment 1. As shown in FIG. The shape and attitude estimation system shown in FIG.
  • the mobile object 1 is a target to be monitored by the shape/posture estimation device 50, and moves on a known orbit.
  • the moving object 1 include meteorites, debris, artificial satellites, rockets, solar panels, multi-layer insulation materials, and satellite materials such as screws that are moving in outer space around the earth.
  • the moving object 1 Unlike a fixed star, the moving object 1 generally does not emit light by itself, and therefore often glows when illuminated by an illumination light source such as the sun.
  • the flying object 2 is equipped with an imaging device 3 and transmits image data representing an image of the moving object 1 captured by the imaging device 3 to the ground station 40 .
  • the flying object 2 is, for example, an artificial satellite that moves on a known orbit.
  • the imaging device 3 is video equipment that images the moving body 1 .
  • FIG. 2 is a configuration diagram showing the photometric device 10 included in the shape/orientation estimation system according to the first embodiment.
  • the photometric device 10 shown in FIG. 2 is connected to a communication line 74, which will be described later.
  • the light intensity measuring device 10 measures the light intensity of the moving object 1 to be monitored, and outputs the light intensity measurement result to the shape/orientation estimation device 50 via the communication line 74 .
  • the photometric measurement device 10 includes a condensing device 11 , a light selection section 12 , a light shielding device 13 , a position detector 14 , a time calibration section 15 , a counter 16 , a control device 17 , an orientation device 18 and an analysis device 19 .
  • the condensing device 11 is realized by, for example, a refractive telescope that utilizes refraction of light.
  • the light collecting device 11 collects the emitted light from the moving body 1 or the reflected light from the moving body 1 .
  • the radiated light of the moving body 1 means light emitted by the moving body 1 itself, and the reflected light of the moving body 1 means, for example, light emitted by a fixed star such as the sun and reflected by the moving body 1 .
  • the shape/orientation estimation system shown in FIG. 1 shows an example in which the condensing device 11 is realized by a refractive telescope.
  • the condensing device 11 may be realized by, for example, a reflecting telescope that utilizes reflection of light, or a refracting telescope and a reflecting telescope. may be realized by both of
  • the light selector 12 is implemented by, for example, a filter wheel.
  • a filter wheel is realized by one or more wavelength filters or one or more polarization filters.
  • the light selector 12 acquires a selection signal indicating the wavelength to be selected or the polarization to be selected from the control device 17 .
  • the light selector 12 selects light having a wavelength indicated by the selection signal or polarized light indicated by the selection signal from the light collected by the light collecting device 11 .
  • the shape/posture estimation system shown in FIG. 1 shows an example in which the light selector 12 is implemented by a filter wheel. However, this is only an example, and the light selector 12 is realized by, for example, an ND (Neutral Density) filter that partially absorbs unnecessary light contained in the light condensed by the condensing device 11. or it may be implemented by a wavelength filter that selectively removes unnecessary light.
  • ND Neutral Density
  • the shading device 13 has, for example, a mechanical shutter or an electronic shutter.
  • the shutter of the light shielding device 13 is opened and closed according to the control signal output from the control device 17 .
  • By opening and closing the shutter according to the exposure time of the position detector 14, blocking of light selected by the light selector 12 and transmission of light are alternately repeated.
  • the position detector 14 is realized by, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the position detector 14 detects the light transmitted through the light shielding device 13 and picks up a light intensity image in which the moving body 1 is reflected.
  • the position detector 14 is realized by a CCD image sensor or a CMOS image sensor, if the moving body 1 is within the field of view of the position detector 14, the moving body 1 is shifted from the center position of the field of view.
  • the moving body 1 can be detected even if it exists at the position. Therefore, there is an advantage that the directivity direction of the condensing device 11 can be easily controlled.
  • the position detector 14 when the position detector 14 is realized by a CCD image sensor or the like, it is possible to detect in which direction the moving body 1 is moving, out of the vertical direction of the field of view or the horizontal direction of the field of view. It can be seen from the light intensity image. Moreover, if a star is in the field of view, there is the advantage that the position of the star and the luminosity of the star can also be known from the light intensity image.
  • the shape/orientation estimation system shown in FIG. 1 shows an example in which the position detector 14 is implemented by a CCD image sensor or the like. However, this is only an example, and the position detector 14 may be provided with a readout circuit, memory, and the like in addition to the CCD image sensor and the like.
  • the time calibration unit 15 acquires the reference time from the reference signal source 71 via the communication device 22 .
  • the counter 16 is implemented by, for example, a clock.
  • the time of the counter 16 is calibrated by the time calibrating section 15 .
  • the counter 16 counts the elapsed time from the head time of the time slot indicated by time slot information, which will be described later, and outputs the elapsed time to the control device 17 and the analysis device 19, respectively.
  • the control device 17 is realized by, for example, a semiconductor integrated circuit mounting a CPU (Central Processing Unit) or a program substrate such as an FPGA (Field-Programmable Gate Array). Based on the elapsed time output from the counter 16, the control device 17 outputs a control signal indicating the orientation direction of the light collecting device 11 to the directing device 18, and also outputs a control signal indicating the opening/closing time of the shutter to the light blocking device 13. and outputs a control signal indicating the imaging time of the light intensity image to the position detector 14 . The control device 17 also outputs a selection signal indicating the wavelength to be selected or the polarization to be selected to the light selector 12 .
  • a control signal indicating the orientation direction of the light collecting device 11 to the directing device 18
  • FPGA Field-Programmable Gate Array
  • the pointing device 18 is realized by, for example, a rotating stage having one or more rotating axes.
  • the rotating stage includes, for example, an altazimuth mount or an equatorial mount.
  • the directing device 18 controls the directing direction of the condensing device 11 according to the control signal output from the control device 17 .
  • a light collecting device 11 is mounted on a rotating stage, and a motor or the like attached to the rotating stage is driven according to a control signal output from a control device 17, thereby controlling the pointing direction of the light collecting device 11. .
  • the analysis device 19 includes a recording device 20 , a processing device 21 and a communication device 22 .
  • the recording device 20 is realized by, for example, a RAM (Random Access Memory) or a hard disk.
  • the recording device 20 stores, for example, the light intensity image captured by the position detector 14, the elapsed time output from the counter 16 when the light intensity image was captured by the position detector 14, and the time calculated by the processing device 21. The position of the moving body 1 on the image and the light intensity of the moving body 1 are recorded.
  • the processing device 21 is implemented by, for example, a semiconductor integrated circuit mounting a CPU or a program substrate such as an FPGA.
  • the processing device 21 calculates the position of the moving body 1 on the image and the light intensity of the moving body 1 from the light intensity image captured by the position detector 14 .
  • the position of the moving body 1 on the image corresponds to the angle at which the moving body 1 is viewed from the telescope that implements the condensing device 11 .
  • the light intensity of the moving body 1 corresponds to the amount of light received by the position detector 14 .
  • a temporal change in the luminous intensity of the moving object 1 corresponds to the first luminous intensity curve.
  • the position detector 14 can detect the signal light of the specific wavelength. Therefore, the light received by the position detector 14 becomes light of a specific wavelength, and the light intensity image captured by the position detector 14 is generated by the light of the specific wavelength.
  • the communication device 22 receives the reference time from the reference signal source 71 via the communication line 74 and outputs the reference time to the time calibration section 15 .
  • the communication device 22 also outputs the first light curve to the shape/posture estimation device 50 via the communication line 74 .
  • FIG. 3 is a configuration diagram showing the planning device 30 included in the shape/posture estimation system according to the first embodiment.
  • the planning device 30 shown in FIG. 3 includes a communication device 31 , a trajectory calculation device 32 and an operation plan setting device 33 .
  • the communication device 31 is connected with the communication line 74 .
  • the communication device 31 receives the orbit of the mobile object 1 whose orbit is determined among the mobile objects existing in outer space from the on-orbit object data storage unit 72 via the communication line 74.
  • Receive trajectory data includes position data indicating the position of the moving body 1 at a plurality of past observation times and velocity data indicating the velocity of the moving body 1 at a plurality of past observation times.
  • the communication device 31 also receives second trajectory data indicating the trajectory of the flying object 2 in outer space whose trajectory is determined from the on-orbit object data storage unit 72 via the communication line 74 .
  • the second trajectory data includes position data indicating the position of the flying object 2 at a plurality of observation times and velocity data indicating the velocity of the flying object 2 at a plurality of observation times.
  • the second trajectory data also includes positions and velocities at a plurality of times in the future trajectory.
  • the communication device 31 receives, from the fixed star data storage unit 73 via the communication line 74, fixed star information indicating the position of fixed stars at a plurality of times and the brightness of light in a specific wavelength band emitted from the fixed stars.
  • the communication device 31 transmits the command created by the operation plan setting device 33 to the ground station 40 .
  • the trajectory calculation device 32 is realized by, for example, a semiconductor integrated circuit mounting a CPU or a program board such as an FPGA.
  • the trajectory calculation device 32 calculates the future trajectory of the mobile object 1 based on the first trajectory data received by the communication device 31 .
  • the orbit calculation device 32 identifies the orbit of the sun included in the fixed star based on the fixed star information received by the communication device 31 .
  • the trajectory calculation device 32 uses the trajectory of the sun, the future trajectory of the moving body 1, and the future trajectory of the flying body 2 indicated by the second trajectory data to calculate the trajectory of the sun and the moving body 1 at a plurality of future times. A geometrical arrangement with the flying object 2 is specified.
  • the trajectory calculation device 32 calculates, for example, a future time when the light from the sun is blocked by the earth and the light from the sun is not applied to the moving body 1 based on the geometric arrangement at a plurality of times in the future. do.
  • the trajectory calculation device 32 sets an operation plan for future trajectory data indicating the future trajectory of the moving body 1, second trajectory data, and time information indicating a future time when the moving body 1 is not irradiated with light from the sun. Output to device 33 .
  • the operation plan setting device 33 is realized by, for example, a semiconductor integrated circuit mounting a CPU or a program board such as an FPGA.
  • the operation plan setting device 33 acquires future trajectory data, second trajectory data, and time information from the trajectory calculation device 32 .
  • the operation plan setting device 33 creates a command for controlling the flying object 2 based on the future trajectory data, the second trajectory data, and the time information, and outputs the command to the communication device 31 .
  • FIG. 4 is a configuration diagram showing the ground station 40 included in the shape/posture estimation system according to the first embodiment.
  • the communication device 41 receives commands from the communication device 31 of the planning device 30 and outputs the commands to the signal transmission unit 42 and the control device 46, respectively.
  • the communication device 41 transmits the image data recorded in the recording device 45 to the shape/posture estimation device 50 via the communication device 31 of the planning device 30 .
  • the communication device 41 transmits image data to the shape/posture estimation device 50 via the communication device 31 of the planning device 30 .
  • the signal transmission unit 42 generates a transmission signal indicating the command by performing modulation processing or the like on the command output from the communication device 41 . If, for example, the X band or the S band is determined as the wavelength band in which communication with the flying object 2 is possible, the signal transmission unit 42 transmits the X band radio wave transmission signal or the S band radio wave. Generate a transmit signal. Modulation processing and the like for commands include, for example, coding processing and amplification processing in addition to so-called modulation processing. In the ground station 40 shown in FIG. 4, the signal transmitter 42 generates a radio wave transmission signal. However, this is only an example, and the signal transmitter 42 may generate an optical transmission signal.
  • Antenna 43 is realized by, for example, a parabolic antenna.
  • the antenna 43 radiates the radio wave transmission signal generated by the signal transmission unit 42 toward the flying object 2 . If an optical transmission signal is generated by the signal transmitter 42 , a light collecting device is used instead of the antenna 43 .
  • the antenna 43 receives, from the flying object 2 , radio waves related to image data representing an image of the moving object 1 captured by the imaging device 3 , and outputs a reception signal of the radio waves to the signal receiving section 44 .
  • the signal receiving unit 44 demodulates the image data representing the captured image of the moving body 1 from the received signal of the radio waves output from the antenna 43 and outputs the image data to the recording device 45 .
  • the recording device 45 records the image data output from the signal receiving section 44 .
  • the control device 46 is realized by, for example, a semiconductor integrated circuit mounting a CPU or a program board such as an FPGA.
  • the control device 46 outputs a control signal indicating the pointing direction of the antenna 43 to the pointing device 47 in accordance with the command output from the communication device 41 .
  • the control device 46 also controls the transmission timing of the signal transmission section 42 and the reception timing of the signal reception section 44 .
  • the directing device 47 is realized by, for example, a rotating stage having one or more rotating axes.
  • the directional device 47 controls the directional direction of the antenna 43 according to the control signal output from the control device 46 .
  • An antenna 43 is mounted on a rotating stage, and a motor or the like attached to the rotating stage is driven in accordance with a control signal output from a control device 47 to control the pointing direction of the antenna 43 .
  • FIG. 5 is a configuration diagram showing shape/posture estimation apparatus 50 according to Embodiment 1.
  • FIG. 6 is a hardware configuration diagram showing hardware of the shape/posture estimation apparatus 50 according to the first embodiment. 5 includes a material data storage unit 51, a shape data storage unit 52, a characteristic data storage unit 53, a light curve acquisition unit 54, a captured image acquisition unit 55, a model generation unit 56, and a light curve calculation unit. 57 and a shape/orientation estimation unit 58 .
  • the shape/posture estimation device 50 estimates the shape and posture of the moving object 1 .
  • the material data storage unit 51 is implemented by, for example, a material data storage circuit 61 shown in FIG.
  • the material data storage unit 51 stores material data indicating the characteristics of the material of the object as feature data indicating the characteristics of an object that may exist in outer space. If the object is an artificial object such as an artificial satellite, for example, data indicating the physical property values of the material forming the surface of the artificial object is stored in the material data storage unit 51 as material data. Physical property values of materials include, for example, spectral reflectance, emissivity, scattering properties, and density of materials. If the object is a natural object, and the natural object is, for example, a meteorite or a metal, data indicating physical property values of the meteorite or metal is stored as material data in the material data storage unit 51 .
  • the shape data storage unit 52 is implemented by, for example, a shape data storage circuit 62 shown in FIG.
  • the shape data storage unit 52 stores shape data indicating the shape of an object as feature data indicating the characteristics of an object that may exist in outer space. If the object is an artificial object such as an artificial satellite, data indicating the shape of the artificial object created in the past is stored as shape data in the shape data storage unit 52 . Artifacts may also decompose or shatter in orbit. Therefore, the shape data storage unit 52 stores not only the shape data indicating the overall shape of the artifact, but also the shape data indicating the shape of each of the plurality of parts included in the artifact.
  • the characteristic data storage unit 53 is implemented by, for example, a characteristic data storage circuit 63 shown in FIG.
  • the characteristic data storage unit 53 stores known orbits among objects existing in outer space, although their orbits are not fixed, as feature data indicating characteristics of objects that may exist in outer space. It stores property data of objects that may correspond to .
  • the property data of the object includes, for example, data indicating shape, property, image, or light curve.
  • the shape/posture estimation device 50 shown in FIG. is only an example, and each of the material data storage unit 51, the shape data storage unit 52, and the characteristic data storage unit 53 may be installed outside the shape/orientation estimation device 50.
  • the shape/posture estimation device 50 may acquire the feature data stored in the material data storage unit 51, the shape data storage unit 52, and the characteristic data storage unit 53 via the communication device.
  • the light curve acquisition unit 54 is implemented by, for example, a light curve acquisition circuit 64 shown in FIG.
  • the light curve acquisition unit 54 has a communication device 54 a connected to the communication line 74 .
  • the light curve acquisition unit 54 uses the communication device 54a to acquire the first light curve indicating temporal changes in the light intensity of the moving body 1 recorded in the recording device 20 of the photometry device 10 .
  • the light curve acquisition unit 54 outputs the first light curve to the shape/posture estimation unit 58 .
  • the light curve acquisition unit 54 includes a communication device 54a. However, this is only an example, and the communication device 54 a may be provided outside the light curve acquisition unit 54 .
  • the captured image acquisition unit 55 is implemented by, for example, a captured image acquisition circuit 65 shown in FIG.
  • the captured image acquisition unit 55 includes a communication device 55 a connected to the communication line 74 .
  • the captured image acquisition unit 55 uses the communication device 55a to acquire image data representing an image of the moving object 1 captured by the imaging device 3 and recorded in the recording device 45 of the ground station 40 .
  • the captured image acquisition unit 55 outputs the acquired image data to the model generation unit 56 .
  • the captured image acquisition unit 55 includes a communication device 55a.
  • the communication device 55 a may be provided outside the captured image acquisition section 55 .
  • the model generation unit 56 is realized by, for example, a model generation circuit 66 shown in FIG.
  • the model generation unit 56 acquires image data from the captured image acquisition unit 55 .
  • the model generation unit 56 acquires feature data indicating features of objects that may exist in outer space from each of the material data storage unit 51, the shape data storage unit 52, and the property data storage unit 53. .
  • the model generation unit 56 generates a model of the mobile object 1 using the captured image of the mobile object 1 indicated by the image data and the feature data.
  • the model of the mobile object 1 is, for example, a three-dimensional model in which the shape and reflection characteristics of the mobile object 1 are simulated.
  • the model generation unit 56 outputs the model of the moving body 1 to the light curve calculation unit 57 and the shape/posture estimation unit 58, respectively.
  • the light curve calculator 57 is implemented by, for example, a light curve calculator 67 shown in FIG.
  • the luminous intensity curve calculator 57 simulates temporal changes in the luminous intensity of the model of the mobile body 1 generated by the model generator 56 when the model is irradiated with light from the illumination light source. That is, the light curve calculation unit 57 assumes the posture of the model of the moving body 1 as an illumination condition, and also determines the illumination light source that irradiates the model of the moving body 1 with light and the model that is illuminated by the illumination light source. Assume an arrangement with a flying object 2 that observes .
  • the luminous intensity curve calculator 57 simulates the temporal change in the luminous intensity of the model irradiated with light under the lighting conditions described above.
  • the light curve calculation unit 57 outputs to the shape/posture estimation unit 58 a second light curve that indicates the temporal change in the light intensity of the model.
  • the shape/posture estimation unit 58 is realized by, for example, a shape/posture estimation circuit 68 shown in FIG.
  • the shape/posture estimation unit 58 acquires the first light curve from the light curve acquisition unit 54 and acquires the second light curve from the light curve calculation unit 57 .
  • the shape/posture estimation unit 58 acquires the model of the moving object 1 from the model generation unit 56 .
  • the shape/posture estimation unit 58 adjusts the shape and posture of the model of the moving object 1 based on the first light curve and the second light curve. That is, the shape/posture estimation unit 58 adjusts the shape and posture of the model of the moving body 1 so that the second light curve approaches the first light curve.
  • the shape/posture estimation unit 58 estimates the shape and posture of the mobile object 1 from the adjusted model.
  • the reference signal source 71 has, for example, a GPS receiver that receives GPS signals transmitted from a plurality of GPS (Global Positioning System) satellites, and obtains the time included in the GPS signals.
  • the reference signal source 71 has a radio-controlled clock that receives standard radio waves, and obtains the time included in the standard radio waves.
  • the reference signal source 71 acquires the time using a protocol for time synchronization of network devices represented by NTP (Network Time Protocol).
  • NTP Network Time Protocol
  • the on-orbit object data storage unit 72 is implemented by, for example, a RAM or a hard disk.
  • the on-orbit object data storage unit 72 stores first trajectory data indicating the trajectory of the moving body 1 whose trajectory is fixed among the moving bodies existing in outer space.
  • the on-orbit object data storage unit 72 also stores second orbit data indicating the orbit of the flying object 2 in outer space whose orbit is fixed.
  • the star data storage unit 73 is implemented by, for example, a RAM or a hard disk.
  • the fixed star data storage unit 73 stores fixed star information indicating the positions of fixed stars at a plurality of times and the brightness of light in a specific wavelength band emitted from the fixed stars.
  • each of the on-orbit object data storage unit 72 and the fixed star data storage unit 73 is provided outside the shape/attitude estimation system.
  • the communication line 74 is implemented by, for example, a telephone line, the Internet, or a LAN (Local Area Network).
  • a communication line 74 connects the light intensity measuring device 10 , the planning device 30 , the shape/attitude estimating device 50 , the reference signal source 71 , the on-orbit object data storage section 72 and the fixed star data storage section 73 .
  • the curve calculator 57 and the shape/orientation estimator 58 are each realized by dedicated hardware as shown in FIG. That is, the shape/orientation estimation device 50 includes a material data storage circuit 61, a shape data storage circuit 62, a characteristic data storage circuit 63, a light curve acquisition circuit 64, a captured image acquisition circuit 65, a model generation circuit 66, a light curve calculation circuit 67, and a It is assumed to be implemented by the shape and pose estimation circuit 68 .
  • each of the material data storage circuit 61, the shape data storage circuit 62, and the characteristic data storage circuit 63 is, for example, a RAM, a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically non-volatile or volatile semiconductor memories such as Erasable Programmable Read Only Memory), magnetic disks, flexible disks, optical disks, compact disks, mini-disks, or DVDs (Digital Versatile Discs).
  • each of the light curve acquisition circuit 64, the captured image acquisition circuit 65, the model generation circuit 66, the light curve calculation circuit 67, and the shape/orientation estimation circuit 68 is, for example, a single circuit, a composite circuit, a programmed processor, or a parallel program. processor, ASIC (Application Specific Integrated Circuit), FPGA, or a combination thereof.
  • the components of the shape/orientation estimation device 50 are not limited to those realized by dedicated hardware, and the shape/orientation estimation device 50 may be realized by software, firmware, or a combination of software and firmware. There may be.
  • Software or firmware is stored as a program in a computer's memory.
  • a computer means hardware that executes a program, and includes, for example, a CPU, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, or a DSP (Digital Signal Processor).
  • FIG. 7 is a hardware configuration diagram of a computer when the shape/orientation estimation apparatus 50 is realized by software, firmware, or the like.
  • a material data storage unit 51 When the shape/posture estimation device 50 is realized by software, firmware, or the like, a material data storage unit 51, a shape data storage unit 52, and a characteristic data storage unit 53 are configured on the memory 81 of the computer.
  • a memory 81 stores programs for causing a computer to execute respective processing procedures in the light curve acquisition unit 54 , the captured image acquisition unit 55 , the model generation unit 56 , the light curve calculation unit 57 , and the shape/orientation estimation unit 58 .
  • the processor 82 of the computer then executes the program stored in the memory 81 .
  • FIG. 6 shows an example in which each component of the shape/orientation estimation device 50 is realized by dedicated hardware
  • FIG. 7 shows an example in which the shape/orientation estimation device 50 is realized by software, firmware, or the like. ing.
  • this is only an example, and some components of the shape/orientation estimation apparatus 50 may be implemented by dedicated hardware, and the remaining components may be implemented by software, firmware, or the like.
  • FIG. 8 is an explanatory diagram showing the positional relationship among the moving object 1, the flying object 2, the light intensity measuring device 10, the planning device 30, the ground station 40, and the shape/attitude estimating device 50.
  • FIG. FIG. 8 additionally shows a light intensity image obtained by the photometric device 10 and a captured image obtained by the ground station 40 .
  • the shape of the moving body 1 shown in FIG. 8 is a rectangular parallelepiped. However, this is only an example, and it goes without saying that the shape of the moving body 1 may be a shape other than a rectangular parallelepiped. In the example of FIG.
  • the moving body 1 does not emit light by itself, and therefore it shines when illuminated by an illumination light source such as the sun.
  • an illumination light source such as the sun
  • the vehicle 1 is illuminated by blackbody radiation at approximately 5800K.
  • the angle ⁇ formed by the line segment connecting the illumination light source and the moving body 1 and the line segment connecting the moving body 1 and the photometric device 10 is represented by a phase angle, if the phase angle is 0 degrees, the illumination Since the light source, the moving body 1, and the photometric device 10 are arranged in a row, the reflection of light from the moving body 1 increases. Therefore, it is assumed that the closer the phase angle is to 0 degrees, the higher the luminous intensity of the moving object 1 measured by the luminous intensity measuring device 10 .
  • the earth on which the photometric device 10 is installed may block the sunlight, which is the illumination light source, so that the sunlight does not illuminate the moving object 1 . Therefore, the light intensity measuring device 10 needs to measure the light intensity of the moving body 1 when the sunlight is shining on the moving body 1 without blocking the sunlight from the earth where the light measuring device 10 is installed. .
  • the communication device 31 of the planning device 30 transmits first trajectory data indicating the trajectory of the moving object 1 and second trajectory data indicating the trajectory of the flying object 2 from the on-orbit object data storage unit 72 via the communication line 74 .
  • trajectory data and The communication device 31 also receives, from the fixed star data storage unit 73 via the communication line 74, fixed star information indicating the position of the fixed star and the brightness of light in a specific wavelength band emitted from the fixed star.
  • the communication device 31 outputs each of the first orbit data, the second orbit data, and the fixed star information to the orbit calculation device 32 .
  • the orbit calculation device 32 acquires each of the first orbit data, the second orbit data, and the fixed star information from the communication device 31 .
  • the trajectory calculation device 32 calculates the position x 1 (t n ), y 1 (t n ), z 1 (t n ).
  • the prediction processing itself of the positions x 1 (t n ), y 1 (t n ), and z 1 (t n ) of the moving body 1 is a known technique, and detailed description thereof will be omitted.
  • the trajectory calculation device 32 calculates the positions x 2 (t n ), y 2 (t n ), z 2 ( t n ).
  • the second trajectory data includes positions x 2 (t n ), y 2 (t n ), and z 2 (t n ) of the flying object 2 at time t n .
  • the trajectory calculation device 32 identifies positions x 3 (t n ), y 3 (t n ), and z 3 (t n ) of the illumination light sources at time t n based on the fixed star information.
  • the illumination source is the sun, and the sun is included in fixed stars.
  • the trajectory calculation device 32 calculates the positions x 1 (t n ), y 1 (t n ), and z 1 (t n ) of the moving object 1 at time t n and the positions x 3 (t n ) of the illumination light source at time t n . ), y 3 (t n ), z 3 (t n ) and the position of the earth at time t n , x 4 (t n ), y 4 (t n ), z 4 (t n ), the time t n , it is determined whether or not the sunlight shines on the moving body 1 without the earth blocking the sunlight.
  • the earth's position x 4 (t), y 4 (t) and z 4 (t) at time t n are given values.
  • the orbit calculation device 32 calculates the scheduled observation time tn if the earth blocks the sunlight and the sunlight does not shine on the moving body 1 at the time tn. The time is changed to the time when sunlight illuminates the moving body 1 .
  • the trajectory calculation device 32 may change the time tn to the time when the phase angle, which is the angle ⁇ , becomes close to 0 degrees even if the time tn is the time when the sunlight illuminates the moving body 1 . However, the time when the phase angle approaches 0 degrees must be the time when the sunlight illuminates the moving body 1 .
  • the trajectory calculation device 32 predicts again the positions x1 ( tn ), y1 ( tn ), and z1 ( tn ) of the moving body 1 at the time tn . , the positions x 3 (t n ), y 3 (t n ), and z 3 (t n ) of the illumination sources at time t n are again specified.
  • the trajectory calculation device 32 outputs to the communication device 31 and the operation plan setting device 33, time zone information indicating the scheduled observation time tn and the time zone T including the scheduled observation time tn .
  • Time period T is, for example, a time period from time (t 1 -t 0 ) to time t 5 .
  • t 0 is, for example, the time required for the pointing device 18 to control the pointing direction ⁇ n . t 0 may be stored in the internal memory of the trajectory calculation device 32 or may be given from the outside of the planning device 30 .
  • the trajectory calculation device 32 also outputs the first trajectory data and the second trajectory data to the operation plan setting device 33 .
  • the operation plan setting device 33 acquires the first trajectory data, the second trajectory data, and the time zone information from the trajectory calculation device 32 .
  • the operation plan setting device 33 determines the positions x 1 (t n ), y 1 (t n ), and z of the moving body 1 at time t n based on the first orbit data, the second orbit data, and the time zone information. 1 (t n ) and the positions x 2 (t n ), y 2 (t n ), and z 2 (t n ) of the projectile 2 at time t n are identified.
  • the operation plan setting device 33 creates commands for controlling the flying object 2 and the like based on the geometrical arrangement of the moving object 1 and the flying object 2 at time tn .
  • the operation plan setting device 33 is configured so that the imaging device 3 mounted on the flying object 2 can photograph the moving object 1 based on the geometric arrangement at each time tn .
  • a command at imaging time t n (n 1, .
  • the operation plan setting device 33 outputs the command at the imaging time tn to the communication device 31 .
  • the communication device 31 transmits the time period information and the first trajectory data output from the trajectory calculation device 32 to the photometric device 10 via the communication line 74 .
  • the light intensity measurement device 10 performs light intensity measurement processing of the moving object 1 .
  • the light intensity measurement process by the light intensity measuring device 10 will be specifically described below.
  • the communication device 22 of the photometric device 10 receives the time period information and the first trajectory data from the planning device 30 via the communication line 74 .
  • the communication device 22 outputs the time period information to the counter 16 and outputs the first trajectory data to the control device 17 .
  • the communication device 22 also receives the reference time from the reference signal source 71 via the communication line 74 and outputs the reference time to the time calibration unit 15 .
  • the communication device 22 receives stellar information from the stellar data storage unit 73 via the communication line 74 and outputs the stellar information to the control device 17 .
  • the time calibration unit 15 acquires the reference time from the communication device 22 .
  • the time calibration unit 15 calibrates the time of the counter 16 based on the reference time.
  • the counter 16 acquires time zone information from the communication device 22 .
  • the counter 16 counts the elapsed time E from the time t 1 -t 0 at the beginning of the time period T indicated by the time period information.
  • the counter 16 outputs the elapsed time E to each of the control device 17 and the analysis device 19 and outputs the time period information to the control device 17 .
  • the control device 17 acquires the first trajectory data from the communication device 22 and acquires the elapsed time E and the time zone information from the counter 16 .
  • the elapsed time E reaches t 0 , t 0 +t 2 ⁇ t 1 , t 0 +t 3 ⁇ t 1 , t 0 +t 4 ⁇ t 1 , t 0 +t 5 ⁇ t 1 , .
  • the control device 17 controls the positions x 1 (t n ), y 1 (t n ), and z 1 (t n ) of the moving body 1 at the observation time t n indicated by the first orbital data, and the luminous intensity at the observation time t n .
  • the positions x 5 (t n ), y 5 (t n ), and z 5 (t n ) of the photometric device 10 at the observation time t n are the existing values.
  • the control device 17 adjusts the pointing direction ⁇ n of the light collecting device 11 so that the pointing direction of the light collecting device 11 faces the moving body 1 at the observation time tn . set.
  • the control device 17 outputs a control signal indicating the directivity direction ⁇ n of the condensing device 11 to the directing device 18 .
  • the control device 17 also outputs a selection signal indicating the wavelength to be selected or the polarization to be selected to the light selector 12 .
  • the light selection unit 12 selects a filter capable of transmitting light in the same wavelength band as the wavelength band of light emitted from stars stored in the fixed star data storage unit 73, so that the processing device 21 , the luminous intensity of the light in the wavelength band can be calculated accurately. Therefore, based on the star information output from the communication device 22, the control device 17 generates a selection signal for selecting a filter that transmits light in the same wavelength band as the light emitted from the star.
  • the control device 17 outputs a selection signal to the light selection section 12 .
  • the directing device 18 acquires a control signal indicating the directing direction ⁇ n of the condensing device 11 from the control device 17 .
  • the directing device 18 controls the directing direction ⁇ n of the condensing device 11 by driving a motor or the like attached to the rotating stage according to the control signal. That is, the light collecting device 11 has a function of projecting the object plane of the moving body 1 onto the image plane, and has a reference optical axis.
  • the pointing direction of the condensing device 11 is controlled by matching the pointing direction ⁇ n indicated by the control signal output from the device 17 .
  • the light collecting device 11 collects the light reflected by the moving object 1 at the stage when the control of the pointing direction ⁇ n by the pointing device 18 is completed.
  • the light collector 11 outputs the collected light reflected by the moving body 1 to the light selector 12 .
  • the light collecting device 11 collects the emitted light from the moving body 1 .
  • the light selection unit 12 selects light having a wavelength indicated by a selection signal output from the control device 17 or polarized light indicated by the selection signal from the light collected by the light collecting device 11 .
  • the light selector 12 outputs the light of the selected wavelength or the selected polarized light to the light blocking device 13 .
  • the filters used by the light selector 12 may be, for example, color filters commonly used by cameras, such as red-blue-green, the well-known Johnson filter, or the SDSS (Sloan Digitized Sky Survey). It may be a filter.
  • the shutter of the light shielding device 13 is opened and closed according to the control signal output from the control device 17 .
  • the orientation device 18 controls the orientation direction ⁇ n of the light collecting device 11, so that the relative speed between the photometric device 10 and the moving body 1 can be reduced.
  • the pointing device 18 can, for example, control the relative velocity to be equivalent to 1 to 3 arcseconds of atmospheric fluctuations of the earth.
  • the light shielding device 13 can set an exposure time that does not cause saturation by changing the opening time of the shutter.
  • the controller 17 compares the luminous intensity of a frame with a short shutter open time and the luminous intensity of a frame with a long shutter open time, and sets the open time of the frame that is not saturated as the exposure time. do it.
  • the photometric device 10 may adjust the amplification factor of the light selected by the light selector 12 within a range in which the image of the moving object 1 is not saturated. Since the luminous intensity is energy, it can be obtained by counting the number of electrons if the position detector 14 is a semiconductor detector such as a CCD. However, since the exposure time of the position detector 14 is determined by the shutter open time, the accuracy of the light intensity measurement depends on the accuracy of the shutter open time. Further, the opening/closing time of the shutter depends on the determination accuracy of the position of the moving body 1 .
  • the position detector 14 detects the light transmitted through the light shielding device 13 at the imaging time tn indicated by the control signal output from the control device 17, and picks up a light intensity image of the moving body 1. do. If the imaging times tn are, for example, t1 , t2 , t3 , t4 , and t5 , the position detector 14 detects the light at the imaging times t1 , t2 , t3 , t4 , and t5 . An intensity image is captured, and the light intensity images at image capturing times t 1 , t 2 , t 3 , t 4 , and t 5 are output to the processing device 21 . FIG. 8 shows light intensity images at imaging times t 1 , t 2 , t 3 , t 4 and t 5 .
  • the processing device 21 acquires light intensity images at imaging times t 1 , . . . , t N from the position detector 14 .
  • the processing device 21 calculates the position of the moving body 1 on the image and the light intensity of the moving body 1 from the light intensity image after preprocessing.
  • the position of the moving body 1 on the image corresponds to the angle at which the moving body 1 is viewed from the telescope that implements the condensing device 11 .
  • the luminous intensity of the moving body 1 corresponds to the amount of light received by the position detector 14 .
  • the processing device 21 causes the recording device 20 to record the preprocessed light intensity image, the position of the moving body 1 on the image, and the light intensity of the moving body 1 . Further, the processing device 21 receives from the control device 17, as first status information, a control signal indicating the orientation direction of the light collecting device 11, a control signal indicating opening/closing time of the shutter, and a light intensity image capturing time. Acquire control signals and The processing device 21 causes the recording device 20 to record the first status information together with the preprocessed light intensity image.
  • FIG. 9 is a flow chart showing calculation processing of position and luminous intensity by the processing device 21, and the like.
  • the processing device 21 assumes that the orientation direction of the light collecting device 11 is the center of the field of view of the position detector 14, and sets the viewing angle of the position detector 14 to (Step ST1 in FIG. 9).
  • the viewing angle of the position detector 14 in the horizontal direction can be calculated by multiplying the viewing angle ⁇ per pixel by the number of pixels in the horizontal direction of the light intensity image.
  • a group of one or more bright points (hereinafter referred to as a "bright point group”) may represent the moving object 1, but if a fixed star appears in the light intensity image as the background of the moving object 1, it is bright.
  • the point cloud could also represent stars. Therefore, each of a plurality of bright point groups included in the light intensity image corresponds to either the moving object 1 or a fixed star.
  • the processing device 21 detects, as a group of bright spots, a group of pixels having a pixel value equal to or greater than a threshold among a plurality of pixels included in the light intensity image at the imaging time tn .
  • the processing device 21 obtains the position and luminous intensity of the pixel group, which is the bright point group (step ST2 in FIG. 9).
  • the threshold is a value greater than 0 and less than the maximum pixel value. If the size of the condensing device 11 is finite, the spread of the bright spot group included in the light intensity image at the imaging time tn has spread at the diffraction limit. Actually, in addition to the spread due to atmospheric fluctuations, there is also the spread due to the influence of seeing.
  • the processing device 21 obtains, for example, the position of the center of gravity of the spread as the position of the bright point group.
  • the processing device 21 also obtains the sum of the pixel values of a plurality of pixels included in the spread as the light intensity of the bright point group.
  • the pointing direction of the position detector 14 and the apparent size of the bright spot group are obtained. Therefore, if the phase in the vertical direction of the light intensity image, the phase in the horizontal direction of the light intensity image, and the phase in the rotation direction of the light intensity image are obtained, the coordinates on the light intensity image and the position in outer space can be obtained. It is possible to obtain the positional relationship with the celestial coordinates that indicate the position of the fixed star. Celestial coordinates include, for example, an equatorial coordinate system based on the celestial equator, a horizontal coordinate system based on the observer's horizon, or a galactic coordinate system based on the plane of the galaxy. may be used. The position on the light intensity image can be represented by the position of celestial coordinates, right ascension and declination, or angles such as azimuth and elevation.
  • the processing device 21 converts the position of the bright point group included in the light intensity image into the coordinate system of the fixed star position indicated by the fixed star information stored in the fixed star data storage unit 73 . If the brightness of the fixed star indicated by the fixed star information stored in the fixed star data storage unit 73 is represented by the catalog magnitude, the processing device 21 converts the brightness of the bright point group into the brightness of the catalog magnitude.
  • the catalog magnitude is defined to be a -5 magnitude for a 100-fold increase in brightness. Therefore, if the luminous intensity of the bright spot group is F, the catalog magnitude is m, and the exposure time is T, the catalog magnitude m is expressed by the following formula (1) or formula (2).
  • each of m_zero and m_zero' is the mechanical grade. The difference between the formulas (1) and (2) is that the zero point is shifted in consideration of the influence of the exposure time T.
  • the mechanical grade m_zero is represented by the following equation (4) or (5).
  • m_zero ⁇ v - 2.5 log 10 (F) >
  • m_zero ⁇ v - m > (5)
  • ⁇ > is a mathematical symbol that means the process of calculating the average of ⁇ .
  • the mechanical grade m_zero is calculated by performing the average calculation process.
  • this is only an example, and for example, the mechanical grade m_zero may be calculated by performing the median calculation process.
  • the processing device 21 compares the position of the bright spot group after the coordinate conversion with the position of the fixed star, and compares the luminosity of the bright spot group after the luminosity conversion with the luminosity of the fixed star.
  • the process itself for specifying the bright point group corresponding to the fixed star is a known process.
  • Examples of the process for identifying the bright point group include the SSD (Sum of Squared Difference) method, the SAD (Sum of Absolute Difference) method, the Cross Correlation method, and the Normalized Cross Correlation (NCC) method.
  • SSD Sud of Squared Difference
  • SAD Sud of Absolute Difference
  • NCC Normalized Cross Correlation
  • Zero means Normalized Cross Correlation (ZNCC) method
  • POC Phase-Only Correlation
  • the recording device 20 is caused to record the position of the bright point group as the position of the moving body 1 on the image.
  • the processing device 21 calculates the luminous intensity of the light-intensity-converted bright-point group corresponding to the moving body 1 among the plurality of bright-point groups included in the light intensity image at the imaging time tn .
  • a light intensity of 1 is recorded in the recording device 20 (step ST4 in FIG. 9).
  • the luminous intensity of the moving object 1 at the imaging times t 1 .
  • FIG. 9 The luminous intensity of the moving object 1 at the imaging times t 1 , .
  • the communication device 41 outputs the command at the imaging time tn to each of the signal transmission section 42 and the control device 46 .
  • the signal transmission unit 42 generates a transmission signal indicating the command at the imaging time tn by performing modulation processing or the like on the command at the imaging time tn .
  • the wavelength band in which communication with the flying object 2 is possible is, for example, the X band or the S band
  • the signal transmission unit 42 generates an X band transmission signal or an S band transmission signal.
  • the signal transmission unit 42 outputs the transmission signal at the imaging time tn to the antenna 43 .
  • the control device 46 outputs a control signal indicating the pointing direction of the antenna 43 to the pointing device 47 according to the command at the imaging time tn .
  • the directing device 47 controls the directing direction of the antenna 43 by driving a motor or the like attached to the rotating stage according to the control signal output from the control device 46 .
  • the antenna 43 radiates toward the flying object 2 radio waves related to the transmission signal output from the signal transmission unit 42 at the imaging time tn .
  • the flying object 2 receives the radio wave emitted from the antenna 43, it demodulates the transmission signal from the radio wave, and according to the command indicated by the transmission signal at the imaging time tn , the orientation of the imaging device 3 is determined as the attitude of the flying object 2.
  • Control direction That is, the flying object 2 orients the imaging device 3 in the direction in which the moving object 1 exists according to the command at the imaging time tn . After that, the imaging device 3 images the moving object 1 at time tn .
  • the flying object 2 transmits, to the ground station 40, radio waves related to image data representing an image captured at the image capturing time tn , as shown in FIG.
  • the antenna 43 receives from the flying object 2 radio waves related to the image data representing the captured image at the imaging time tn , and outputs the received signal of the radio waves to the signal receiving section 44 .
  • the signal receiver 44 acquires the received signal output from the antenna 43 .
  • the signal receiving unit 44 demodulates the image data representing the image captured at the image capturing time tn from the received signal, and causes the recording device 45 to record the image data.
  • the signal receiving unit 44 causes the recording device 45 to record second status information indicating the pointing direction of the imaging device 3 and the imaging time of the imaging device 3 together with the image data.
  • the communication device 41 transmits each of the image data and the second status information recorded in the recording device 45 to the shape/orientation estimation device 50 via the communication device 31 of the planning device 30 .
  • the shape/posture estimation device 50 performs a process of estimating the shape and posture of a moving body.
  • 10 and 11 are flowcharts showing a shape/posture estimation method, which is a processing procedure of the shape/posture estimation device 50.
  • FIG. FIG. 12 is an explanatory diagram showing the processing contents of the shape/orientation estimation device 50. As shown in FIG. The shape and posture estimation processing by the shape and posture estimation device 50 will be specifically described below.
  • the light curve acquiring unit 54 acquires the first light curve from the recording device 20 of the photometric device 10 using the communication device 54a (step ST11 in FIG. 10).
  • the light curve acquisition unit 54 outputs the first light curve to the shape/posture estimation unit 58 .
  • the communication device 55a of the captured image acquisition unit 55 receives the image data and the second status information transmitted from the communication device 41 of the ground station 40 (step ST12 in FIG. 10).
  • the image data is, as shown in FIG. 8, data representing an image captured by the imaging device 3 at the time tn when the moving object 1 was captured.
  • the captured image acquisition unit 55 outputs each of the image data and the second status information to the model generation unit 56 .
  • the captured image acquisition unit 55 uses the communication device 55a to transfer the first trajectory data indicating the trajectory of the moving object 1 and the and second trajectory data indicative of a trajectory.
  • the captured image acquisition unit 55 receives the fixed star information from the fixed star data storage unit 73 via the communication line 74 using the communication device 55a.
  • the captured image acquisition unit 55 outputs each of the first orbit data, the second orbit data, and the fixed star information to the model generation unit 56 .
  • the model generation unit 56 acquires each of the image data and the second status information from the captured image acquisition unit 55 .
  • the model generation unit 56 also acquires the first orbit data, the second orbit data, and the fixed star information from the captured image acquisition unit 55 .
  • the model generation unit 56 uses the captured image of the moving object 1 indicated by the image data (hereinafter referred to as the "acquired captured image") and the feature data indicating the features of an object that may exist in outer space, A model of the moving object 1 is generated. Model generation processing by the model generation unit 56 will be specifically described below.
  • the model generation unit 56 calculates, for example, the movement shown in the acquired captured image at the imaging time t1 indicated by the image data, among the shapes of the object indicated by the plurality of shape data stored in the shape data storage unit 52. Search for the shape of the object that is most similar to the shape of body 1. Since the object shape search process itself is a known technique, detailed description thereof will be omitted.
  • the model generating unit 56 searches for the shape of the object that is most similar to the shape of the moving body 1 appearing in the captured image obtained at the capturing time t1 , among the shapes of the object indicated by the plurality of shape data. are doing.
  • model generating unit 56 determines the shape of the object that is most similar to the shape of the moving object 1 shown in the captured image acquired at the capturing time t2 , among the shapes of the object indicated by the plurality of shape data.
  • shape of an object that is most similar to the shape of the moving body 1 appearing in the acquired captured image at time t3 may be retrieved.
  • the model generation unit 56 acquires shape data indicating the shape of an object that is most similar to the shape of the moving body 1 from the shape data storage unit 52 (step ST13 in FIG. 10). In addition, the model generation unit 56 acquires material data indicating properties of the material of an arbitrary object from the material data storage unit 51 . The model generating unit 56 tentatively generates a model of the moving body 1 using each of the obtained shape data and material data (step ST14 in FIG. 10). The shape of the model is tentatively generated according to the shape data, and the material of the model is tentatively generated according to the material data.
  • the model generation unit 56 calculates the position x 1 ( t n ), y 1 (t n ), z 1 (t n ). Further, the model generation unit 56 calculates the positions x 2 (t n ), y 2 (t n ), and z 2 (t n ) of the flying object 2 at the imaging time t n of the imaging device 3 based on the second trajectory data. ). The model generation unit 56 also identifies the positions x 3 (t n ), y 3 (t n ), and z 3 (t n ) of the illumination light sources at the imaging time t n based on the fixed star information.
  • the model generation unit 56 converts the illumination light sources existing at positions x 3 (t n ), y 3 (t n ), and z 3 (t n ) to positions x 1 (t n ), y 1 ( t n ) and z 1 (t n ), an illumination condition is set such that a model of the moving body 1 existing at z 1 (t n ) is illuminated with light.
  • the model generation unit 56 moves the flying object 2 existing at the positions x 2 (t n ), y 2 (t n ), and z 2 (t n ) under the lighting conditions described above.
  • a lighting analysis process for simulating a captured image (hereinafter referred to as a “simulated captured image”) in which a model of the body 1 is captured is performed (step ST15 in FIG. 10).
  • the illumination analysis process is a computer simulation that simulates a captured image when the illumination light source irradiates the moving object 1 with light.
  • Processing (hereinafter referred to as "posture adjustment processing") is performed to adjust the posture and shape of the model of the moving body 1 so as to match the posture of the moving body 1 being captured (step ST16 in FIG. 10).
  • the model generation unit 56 adjusts the shape of the model so that the normal line of the solar panel mounted on the satellite faces the direction of the sun, and mounts it on the satellite. Adjust the attitude of the model so that the pointing direction of the attached antenna points toward the center of the earth.
  • a part of the moving body 1 may be shadowed depending on the arrangement of the .
  • the model generating unit 56 may temporarily generate a model of the moving body 1 using characteristic data of another moving body whose trajectory is fixed.
  • the characteristic data of another moving object includes, for example, data indicating the shape of another moving object or image data indicating another moving object. can be used.
  • the model generating unit 56 generates image capturing devices 3 for the flying object 2 existing at positions x 2 (t n ), y 2 (t n ), and z 2 (t n ) under the lighting conditions described above. performs lighting analysis processing in which the model after posture adjustment processing is imaged.
  • the model generating unit 56 calculates the degree of correlation
  • the model generating unit 56 performs a known log-polar conversion or a known Fourier-Mellin transform on the simulated captured image, and then the acquired captured image and the converted simulated captured image.
  • the model generator 56 may perform correlation processing of pixel images.
  • any correlation processing for example, the SSD method, the SAD method, the cross-correlation method, the NCC method, the ZNCC method, or the POC method can be used as the method of calculating the degree of correlation.
  • the threshold may be stored in the internal memory of the model generation unit 56 or may be given from outside the shape/posture estimation device 50 . If the degree of correlation between the acquired captured image at the captured time tn and the simulated captured image of the model after posture adjustment processing is equal to or less than the threshold (step ST18 in FIG. 10: NO), the model generation unit 56 It is determined that the correlation between the acquired captured image of n and the simulated captured image of the model after posture adjustment processing is low.
  • the model generation unit 56 determines that the correlation between the captured image acquired at the imaging time tn and the simulated captured image of the model after the posture adjustment processing is low, the model generation unit 56 changes the material of the model after the posture adjustment processing at the imaging time tn . (step ST19 in FIG. 10).
  • the model generation unit 56 performs lighting analysis processing, posture adjustment processing, and correlation degree calculation processing until the degree of correlation between the captured image acquired at the imaging time tn and the simulated captured image of the model after the posture adjustment processing becomes greater than a threshold value. , correlation determination processing and material change processing are repeatedly performed (steps ST15 to ST19 in FIG. 10).
  • the model generation unit 56 determines that there is a high correlation between the captured image acquired at the imaging time tn and the simulated captured image of the model after the attitude adjustment process, the model after the material change at the imaging time tn (hereinafter referred to as the “generation model ) are output to the light curve calculation unit 57 and the shape/posture estimation unit 58, respectively.
  • the model generation unit 56 calculates the positions x 1 (t n ), y 1 (t n ), and z 1 (t n ) of the moving object 1 at the imaging time t n and the position x 1 (t n ) of the illumination light source at the imaging time t n . 3 (t n ), y 3 (t n ), and z 3 (t n ) are output to the light curve calculator 57 .
  • the light curve calculator 57 acquires the generative model of the imaging time tn from the model generator 56 . Further, the light curve calculation unit 57 obtains from the model generation unit 56 the positions x 1 (t n ), y 1 (t n ), and z 1 (t n ) of the moving body 1 at the imaging time t n and the imaging time t Obtain the illumination source positions x 3 (t n ), y 3 (t n ), z 3 (t n ) at n . The light curve calculating unit 57 calculates a second light curve indicating the time change of the light intensity of the moving body 1 using the generative model of the imaging time tn (step ST20 in FIG. 11). The calculation process of the second light curve by the light curve calculator 57 will be specifically described below.
  • the light intensity curve calculation unit 57 calculates the positions x 3 ( t n ) , y 3 (t n ), and z 3 (t n ) of the illumination light sources at the image capturing time t n and the position x of the light intensity measuring device 10 at the image capturing time t n . 5 (t n ), y 5 (t n ), and z 5 (t n ) are set as illumination conditions.
  • the light curve calculation unit 57 sets the illumination condition such that light from the illumination light source reaches the model of the moving object 1 at the positions x 1 (t n ), y 1 (t n ), and z 1 (t n ). Set the conditions for irradiation.
  • the positions x 5 (t n ), y 5 (t n ) and z 5 (t n ) of the photometric device 10 are given values.
  • the luminous intensity curve calculator 57 simulates the temporal change in the luminous intensity of the generative model when the generative model at the imaging time tn is irradiated with light from the illumination light source under the above lighting conditions. That is, the light intensity curve calculation unit 57 calculates a light intensity image (hereinafter referred to as “simulated light intensity image ) is performed.
  • the shape/posture estimation unit 58 acquires the first light curve from the light curve acquisition unit 54 and acquires the second light curve from the light curve calculation unit 57 . Also, the shape/posture estimation unit 58 acquires the generative model at the imaging time tn from the model generation unit 56 . The shape/posture estimation unit 58 adjusts the shape, posture, and material of the generative model at the imaging time tn so that the second light curve approaches the first light curve. Here, the shape/posture estimation unit 58 adjusts the shape, posture, and material of the generative model. Since the second light curve should be closer to the first light curve, the shape/orientation estimator 58 may change any one of the shape, orientation, and material of the generative model. . Alternatively, the shape/orientation estimator 58 may adjust the shape and orientation of the generative model without adjusting the materials of the generative model. The shape, posture, and material adjustment processing by the shape/posture estimation unit 58 will be specifically described below.
  • the shape of the generative model, the posture of the generative model, or the material of the generative model at the imaging time tn is changed (step ST23 in FIG. 11).
  • the threshold Th L may be stored in the internal memory of the shape/posture estimation unit 58 or may be given from outside the shape/posture estimation device 50 . More specifically, (1) the light curve may have sub-peaks, which are small peaks. The subpeaks are likely derived from the shape of the generative model. For example, there is a high possibility that it originates from the structure of an antenna or the like. Therefore, the shape/posture estimation unit 58 preferentially adjusts the shape of the generative model. (2) The peak of the light curve may shift left and right.
  • the shape/posture estimation unit 58 preferentially adjusts the posture of the generative model. (3) If each of the overall peak and sub-peaks match, the shape/posture estimator 58 adjusts the material of the generative model. (4) Finally, the shape/orientation estimator 58 fine-tunes the shape, orientation, and material of the generative model.
  • the processing itself for changing the shape of the generative model, the posture of the generative model, or the material of the generative model at the imaging time tn is a known technology, so detailed description will be omitted.
  • a process of changing the shape of the generated model to the shape of another object stored in the shape data storage unit 52 can be used.
  • processing for changing the orientation of the generated model for example, processing for changing the pointing direction, which is the orientation of the generated model, by a preset angle can be used.
  • process of changing the material of the generative model for example, a process of changing the material of the generative model to the material of another object stored in the material data storage unit 51 can be used.
  • the shape/orientation estimating unit 58 calculates the luminous intensity L 2 (t n ) of the moving body 1 at the imaging time t n so that the luminous intensity L 2 (t n ) of the moving object 1 at the imaging time t n becomes small. , change the shape of the generative model, the pose of the generative model, or the material of the generative model.
  • the shape/posture estimation unit 58 calculates the luminous intensity L 2 (t n ) of the moving object 1 at the imaging time t n so that the luminous intensity L 2 (t n ) of the moving object 1 at the imaging time t n increases. , change the shape of the generative model, the pose of the generative model, or the material of the generative model.
  • the second light curve calculation process, the difference calculation process, the comparison process, and the model change process are repeatedly performed until the absolute value of the difference ⁇ L(t n ) becomes equal to or less than the threshold Th L (steps ST20 to 11 in FIG. 11). ST23).
  • the shape/orientation estimation unit 58 completes the process of changing the generative model at the imaging time t n .
  • the shape/posture estimation unit 58 estimates the shape and posture of the moving body 1 from the generated model for which the change processing has been completed (step ST24 in FIG. 11).
  • the shape/orientation estimation unit 58 outputs, for example, shape data indicating the shape of the generative model at the imaging time tn for which the change processing has been completed, as an estimation result of the shape of the moving object 1 at the imaging time tn.
  • the shape/posture estimation unit 58 outputs, as a result of estimating the posture of the moving body 1 at the imaging time tn , posture data representing the posture of the generative model at the imaging time tn for which the change processing has been completed.
  • the shape/attitude estimation unit 58 determines the pointing direction of the antenna mounted on the mobile object 1 or the normal direction of the solar panel mounted on the mobile object 1 as follows: It may be the posture of the model. The pointing direction of the antenna and the like can be found by analyzing the image of the model.
  • the shape/posture estimation unit 58 may use the direction of the center of gravity of the meteorite as the posture of the model. The direction of the meteorite's center of gravity can be found by analyzing the model image.
  • the light curve acquisition unit 54 acquires the first light curve indicating the temporal change in light intensity from the light intensity measuring device 10 that measures the light intensity of the moving object 1 to be monitored, and the moving object A captured image acquisition unit 55 that acquires an image of the moving object 1 captured by the imaging device 3 from the flying object 2 mounted with the imaging device 3 that captures the moving object 1, and the image of the moving object 1 acquired by the captured image acquisition unit 55.
  • the shape/orientation estimation device 50 includes a model generation unit 56 that generates a model of the moving object 1 using the captured image and feature data indicating the features of an object that may exist in outer space. configured.
  • the shape/posture estimation apparatus 50 simulates temporal changes in the luminous intensity of the model generated by the model generation unit 56 when the model of the moving object 1 is irradiated with light from the illumination light source.
  • a light curve calculator 57 that outputs a second light curve that indicates temporal changes in light intensity; and a shape/attitude estimator 58 that adjusts the shape and attitude of the model based on the light curve and estimates the shape and attitude of the moving body 1 from the adjusted model. Therefore, the shape/posture estimation device 50 can estimate the shape and posture of the moving body 1 without storing the registered luminance change pattern of the moving body 1 in the database.
  • Embodiment 2 In the photometric device 10 shown in FIG. 2, the light selector 12 selects one wavelength of light or one polarized light from the light collected by the light collecting device 11 . In Embodiment 2, the light selector 12 selects M (M is an integer equal to or greater than 2) wavelength lights or M polarized lights from the light collected by the light collecting device 11. The photometric measurement device 10 will be described.
  • the configuration of the shape/posture estimation system according to Embodiment 2 is the same as the configuration of the shape/posture estimation system according to Embodiment 1, and the configuration diagram showing the shape/posture estimation system according to Embodiment 2 is shown in FIG. be.
  • the configuration of the photometric device 10 included in the shape and orientation estimation system according to the second embodiment is the same as the configuration of the photometric device 10 included in the shape and orientation estimation system according to the first embodiment.
  • FIG. 2 is a configuration diagram showing the light intensity measurement device 10 included in the shape/orientation estimation system.
  • the configuration of the planning device 30 included in the shape/posture estimation system according to the second embodiment is the same as the configuration of the planning device 30 included in the shape/posture estimation system according to the first embodiment.
  • FIG. 3 is a block diagram showing the planning device 30 included in the posture estimation system.
  • the configuration of the ground station 40 included in the shape and attitude estimation system according to Embodiment 2 is the same as the configuration of the ground station 40 included in the shape and attitude estimation system according to Embodiment 1.
  • FIG. 4 is a block diagram showing the ground station 40 included in the attitude estimation system.
  • the configuration of the shape/posture estimation device 50 according to Embodiment 2 is the same as the configuration of the shape/posture estimation device 50 according to Embodiment 1, and the configuration diagram showing the shape/posture estimation device 50 according to Embodiment 2 is as follows: FIG. 5 .
  • FIG. 13 is an explanatory diagram showing the positional relationship among the moving object 1, the flying object 2, the light intensity measuring device 10, the planning device 30, the ground station 40, and the shape/posture estimating device 50.
  • FIG. 14 is an explanatory diagram showing the processing contents of the shape/orientation estimation apparatus 50 according to the second embodiment.
  • the illumination light source for illuminating the moving body 1 orbiting in outer space around the earth is usually the sun.
  • the control device 17 of the photometric device 10 determines M wavelengths to be selected from light of a plurality of wavelengths contained in sunlight, and selects M wavelengths. A selection signal indicating the wavelength of is output to the light selector 12 .
  • the light selection unit 12 sequentially selects light of M wavelengths indicated by a selection signal output from the control device 17 from light of a plurality of wavelengths contained in sunlight, and selects each of the selected wavelengths. of light is output to the position detector 14 via the light blocking device 13 .
  • the position detector 14 detects light of each wavelength transmitted through the light shielding device 13 and picks up a light intensity image in which the moving body 1 is reflected.
  • the recording device 20 records the luminous intensity of the bright spot group after luminous intensity conversion as the luminous intensity of the moving body 1 .
  • the operation plan setting device 33 of the planning device 30 When creating a command for controlling the flying object 2, the operation plan setting device 33 of the planning device 30 includes a selection signal indicating M wavelengths in the command, and outputs the command including the selection signal to the communication device 31. do. Communication device 31 outputs a command including a selection signal to ground station 40 .
  • the antenna 43 of the ground station 40 radiates toward the flying object 2 radio waves related to the transmission signal at the imaging time tn .
  • the flying object 2 receives the radio wave emitted from the antenna 43, it demodulates the transmission signal from the radio wave, and according to the command indicated by the transmission signal at the imaging time tn , the orientation of the imaging device 3 is determined as the attitude of the flying object 2.
  • Control direction. The imaging device 3 images the moving object 1 at time tn .
  • the imaging device 3 has, for example, a filter wheel.
  • the filter wheel modifies the wavelengths of light it passes according to the selection signal contained in the command.
  • the imaging device 3 uses a filter wheel to generate M captured images represented by light of respective wavelengths from the captured image at the imaging time tn .
  • the flying object 2 transmits to the ground station 40 radio waves related to image data representing M captured images at the imaging time tn .
  • the recording device 45 of the ground station 40 records image data representing M captured images at the imaging time tn
  • the degree of correlation between the image and the simulated captured image of the wavelength m at the imaging time tn is calculated.
  • the model generation unit 56 determines that the correlation between the captured image of the wavelength m at the imaging time tn and the simulated captured image of the wavelength m at the imaging time tn is low, the model generating unit 56 generates the material of the temporarily generated model of the moving body 1. change.
  • the model generation unit 56 performs illumination analysis processing, attitude adjustment processing, correlation until the degree of correlation between the acquired captured image with wavelength m at imaging time tn and the simulated captured image with wavelength m at imaging time tn becomes greater than a threshold value. Degree calculation processing, correlation determination processing, and material change processing are repeated.
  • the model generating unit 56 determines that the correlation between the captured image of the wavelength m and the simulated captured image of the wavelength m is high, the model of the moving body 1 when the correlation is high is generated by the light curve calculating unit 57 and the shape/posture estimating unit. 58.
  • the present disclosure is suitable for a shape/posture estimation device, a shape/posture estimation method, and a shape/posture estimation system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

監視対象の移動体(1)の光度を測定する光度測定装置(10)から、光度の時間的な変化を示す第1の光度曲線を取得する光度曲線取得部(54)と、移動体(1)を撮像する撮像装置(3)を実装している飛翔体(2)から、撮像装置(3)による移動体(1)の撮像画像を取得する撮像画像取得部(55)と、撮像画像取得部(55)により取得された移動体(1)の撮像画像と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、移動体(1)のモデルを生成するモデル生成部(56)とを備えるように、形状姿勢推定装置(50)を構成した。また、形状姿勢推定装置(50)は、モデル生成部(56)により生成された移動体(1)のモデルに対して照明光源からの光が照射されたときのモデルの光度の時間的な変化をシミュレーションし、モデルの光度の時間的な変化を示す第2の光度曲線を出力する光度曲線算出部(57)と、光度曲線取得部(54)により取得された第1の光度曲線と光度曲線算出部(57)から出力された第2の光度曲線とに基づいて、モデルの形状及び姿勢のそれぞれを調整し、調整後のモデルから、移動体(1)の形状及び姿勢のそれぞれを推定する形状姿勢推定部(58)とを備えている。

Description

形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム
 本開示は、形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システムに関するものである。
 宇宙空間を移動する目標対象物の形状及び姿勢のそれぞれを推定する監視システムがある(特許文献1を参照)。当該監視システムは、目標対象物の輝度の時間的な変化を示す複数の輝度変化パターン(以下「登録輝度変化パターン」という)を記憶しているデータベースを備えている。登録輝度変化パターンは、目標対象物の形状及び姿勢のそれぞれと対応付けられている。
 当該監視システムは、目標対象物の輝度の時間的な変化を示す輝度変化パターン(以下「観測輝度変化パターン」という)を観測し、観測輝度変化パターンとデータベースに記憶されている複数の登録輝度変化パターンとのパターンマッチングを行う。当該監視システムは、複数の登録輝度変化パターンの中で、観測輝度変化パターンとの一致度が最も高い登録輝度変化パターンに対応付けられている形状及び姿勢のそれぞれを推定結果として出力する。
特開2015-202809号公報
 特許文献1に開示されている監視システムでは、観測輝度変化パターンと一致度が高い登録輝度変化パターンが、データベースに記憶されていなければ、監視システムによる形状等の推定精度が劣化してしまうという課題があった。
 本開示は、上記のような課題を解決するためになされたもので、移動体の登録輝度変化パターンをデータベースに記憶させることなく、移動体の形状及び姿勢のそれぞれを推定することができる形状姿勢推定装置及び形状姿勢推定方法を得ることを目的とする。
 本開示に係る形状姿勢推定装置は、監視対象の移動体の光度を測定する光度測定装置から、光度の時間的な変化を示す第1の光度曲線を取得する光度曲線取得部と、移動体を撮像する撮像装置を実装している飛翔体から、撮像装置による移動体の撮像画像を取得する撮像画像取得部と、撮像画像取得部により取得された移動体の撮像画像と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、移動体のモデルを生成するモデル生成部と、モデル生成部により生成された移動体のモデルに対して照明光源からの光が照射されたときのモデルの光度の時間的な変化をシミュレーションし、モデルの光度の時間的な変化を示す第2の光度曲線を出力する光度曲線算出部と、光度曲線取得部により取得された第1の光度曲線と光度曲線算出部から出力された第2の光度曲線とに基づいて、モデルの形状及び姿勢のそれぞれを調整し、調整後のモデルから、移動体の形状及び姿勢のそれぞれを推定する形状姿勢推定部とを備えるものである。
 本開示によれば、移動体の登録輝度変化パターンをデータベースに記憶させることなく、移動体の形状及び姿勢のそれぞれを推定することができる。
実施の形態1に係る形状姿勢推定システムを示す構成図である。 実施の形態1に係る形状姿勢推定システムに含まれる光度測定装置10を示す構成図である。 実施の形態1に係る形状姿勢推定システムに含まれる計画装置30を示す構成図である。 実施の形態1に係る形状姿勢推定システムに含まれる地上局40を示す構成図である。 実施の形態1に係る形状姿勢推定装置50を示す構成図である。 実施の形態1に係る形状姿勢推定装置50のハードウェアを示すハードウェア構成図である。 形状姿勢推定装置50が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。 移動体1と飛翔体2と光度測定装置10と計画装置30と地上局40と形状姿勢推定装置50との位置関係を示す説明図である。 処理装置21による位置及び光度におけるそれぞれの算出処理等を示すフローチャートである。 形状姿勢推定装置50の処理手順である形状姿勢推定方法を示すフローチャートである。 形状姿勢推定装置50の処理手順である形状姿勢推定方法を示すフローチャートである。 形状姿勢推定装置50の処理内容を示す説明図である。 移動体1と飛翔体2と光度測定装置10と計画装置30と地上局40と形状姿勢推定装置50との位置関係を示す説明図である。 実施の形態2に係る形状姿勢推定装置50の処理内容を示す説明図である。
 以下、本開示をより詳細に説明するために、本開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る形状姿勢推定システムを示す構成図である。
 図1に示す形状姿勢推定システムは、光度測定装置10、計画装置30、地上局40及び形状姿勢推定装置50を備えている。
 移動体1は、形状姿勢推定装置50による監視対象であり、既知の軌道上を移動する。
 移動体1としては、例えば、地球周辺の宇宙空間を移動している隕石、デブリ、人工衛星、ロケット、太陽電池パネル、多層断熱材、又は、ねじ等の衛星材料がある。移動体1は、恒星と異なり、一般的には、自ら発光しないため、太陽等の照明光源によって照らされることで輝きを生じることが多い。
 飛翔体2は、撮像装置3を実装しており、撮像装置3による移動体1の撮像画像を示す画像データを地上局40に送信する。
 飛翔体2としては、例えば、既知の軌道上を移動する人工衛星がある。
 撮像装置3は、移動体1を撮像する映像機器である。
 図2は、実施の形態1に係る形状姿勢推定システムに含まれる光度測定装置10を示す構成図である。
 図2に示す光度測定装置10は、後述する通信線路74と接続されている。
 光度測定装置10は、監視対象の移動体1の光度を測定し、通信線路74を介して、光度の測定結果を形状姿勢推定装置50に出力する。
 光度測定装置10は、集光装置11、光選択部12、遮光装置13、位置検出器14、時刻校正部15、カウンタ16、制御装置17、指向装置18及び解析装置19を備えている。
 集光装置11は、例えば、光の屈折を利用する屈折型の望遠鏡によって実現される。
 集光装置11は、移動体1の放射光、又は、移動体1の反射光を集光する。
 移動体1の放射光は、移動体1が自ら発光する光を意味し、移動体1の反射光は、例えば、太陽等の恒星が発する光が移動体1に反射された光を意味する。 図1に示す形状姿勢推定システムでは、移動体1の反射光は、移動体1の散乱光を含むものである。
 図1に示す形状姿勢推定システムでは、集光装置11が屈折型の望遠鏡によって実現される例を示している。しかし、これは一例に過ぎず、集光装置11が、例えば、光の反射を利用する反射型の望遠鏡によって実現されているものであってもよいし、屈折型の望遠鏡と反射型の望遠鏡との双方によって実現されているものであってもよい。
 光選択部12は、例えば、フィルタホイールによって実現される。フィルタホイールは、1つ以上の波長フィルタ、又は、1つ以上の偏光フィルタによって実現される。
 光選択部12は、制御装置17から、選択対象の波長、又は、選択対象の偏光を示す選択信号を取得する。
 光選択部12は、集光装置11により集光された光のうち、選択信号が示す波長の光、又は、選択信号が示す偏光を選択する。
 図1に示す形状姿勢推定システムでは、光選択部12がフィルタホイールによって実現される例を示している。しかし、これは一例に過ぎず、光選択部12が、例えば、集光装置11により集光された光に含まれている不必要な光を部分的に吸収するND(Neutral Density)フィルタによって実現されているものであってもよいし、不要な光を選択的に取り除く波長フィルタによって実現されているものであってもよい。
 遮光装置13は、例えば、機械的なシャッタ、又は、電子的なシャッタを備えている。
 遮光装置13のシャッタは、制御装置17から出力された制御信号に従って開閉される。シャッタが位置検出器14の露光時間に応じて開閉されることで、光選択部12によって選択された光の遮断と光の透過とが交互に繰り返される。
 位置検出器14は、例えば、CCD(Charge Coupled Device)イメージセンサ、又は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサによって実現される。
 位置検出器14は、遮光装置13を透過してきた光を検出して、移動体1が映っている光強度画像を撮像する。
 位置検出器14が、CCDイメージセンサ、又は、CMOSイメージセンサによって実現されている場合、移動体1が位置検出器14の視野内に入っていれば、移動体1が視野の中心位置からずれた位置に存在していたとしても、移動体1を検出することができる。このため、集光装置11の指向方向の制御が容易になる利点がある。また、位置検出器14が、CCDイメージセンサ等によって実現されている場合、視野の上下方向、又は、視野の左右方向のうち、どちらの方向に向かって、移動体1が移動しているのかが光強度画像から分かる。また、視野内に恒星が入っていれば、恒星の位置及び恒星の光度のそれぞれも光強度画像から分かる利点がある。
 図1に示す形状姿勢推定システムでは、位置検出器14が、CCDイメージセンサ等によって実現される例を示している。しかし、これは一例に過ぎず、位置検出器14が、CCDイメージセンサ等のほかに、読み出し回路及びメモリ等を備えていてもよい。
 時刻校正部15は、基準信号源71から、通信装置22を介して、基準時刻を取得する。
 時刻校正部15は、取得した基準時刻に基づいて、カウンタ16の時刻を校正する。
 例えば、恒星は、日周運動によって、一秒間で15秒角(=15/3600度)ほど移動する。このため、位置の決定に秒角の精度が必要である場合、時刻校正部15は、少なくともサブ秒で時刻を校正する必要がある。
 カウンタ16は、例えば、時計によって実現される。
 カウンタ16の時刻は、時刻校正部15によって校正される。
 カウンタ16は、後述する時間帯情報が示す時間帯の先頭の時刻からの経過時間をカウントし、経過時間を制御装置17及び解析装置19のそれぞれに出力する。
 制御装置17は、例えば、CPU(Central Processing Unit)を実装している半導体集積回路、あるいは、FPGA(Field-Programmable Gate Array)のようなプログラム基板によって実現される。
 制御装置17は、カウンタ16から出力された経過時間に基づいて、集光装置11の指向方向を示す制御信号を指向装置18に出力するほか、シャッタの開閉時刻を示す制御信号を遮光装置13に出力し、光強度画像の撮像時刻を示す制御信号を位置検出器14に出力する。
 また、制御装置17は、選択対象の波長、又は、選択対象の偏光を示す選択信号を光選択部12に出力する。
 指向装置18は、例えば、一軸以上の回転軸を有する回転ステージによって実現される。回転ステージとしては、例えば、経緯台、又は、赤道儀がある。
 指向装置18は、制御装置17から出力された制御信号に従って、集光装置11の指向方向を制御する。
 集光装置11が回転ステージに実装されており、回転ステージに付加されているモータ等が、制御装置17から出力された制御信号に従って駆動することで、集光装置11の指向方向が制御される。
 解析装置19は、記録装置20、処理装置21及び通信装置22を備えている。
 記録装置20は、例えば、RAM(Random Access Memory)、又は、ハードディスクによって実現される。
 記録装置20は、例えば、位置検出器14により撮像された光強度画像と、位置検出器14により光強度画像が撮像されたときにカウンタ16から出力された経過時間と、処理装置21により算出された移動体1の画像上の位置及び移動体1の光度とを記録する。
 処理装置21は、例えば、CPUを実装している半導体集積回路、あるいは、FPGAのようなプログラム基板によって実現される。
 処理装置21は、位置検出器14により撮像された光強度画像から、移動体1の画像上の位置と、移動体1の光度とを算出する。移動体1の画像上の位置は、集光装置11を実現している望遠鏡から移動体1を見た角度に相当する。移動体1の光度は、位置検出器14により受光された光の量に相当する。移動体1の光度の時間的な変化は、第1の光度曲線に相当する。
 光選択部12が、集光装置11により集光された光のうち、選択信号が示す波長の光を選択するため、位置検出器14は、特定の波長の信号光を検出することができる。したがって、位置検出器14により受光された光は、特定の波長の光になり、位置検出器14により撮像された光強度画像は、特定の波長の光によって生成される。
 通信装置22は、基準信号源71から、通信線路74を介して、基準時刻を受信し、基準時刻を時刻校正部15に出力する。
 また、通信装置22は、第1の光度曲線を、通信線路74を介して、形状姿勢推定装置50に出力する。
 図3は、実施の形態1に係る形状姿勢推定システムに含まれる計画装置30を示す構成図である。
 図3に示す計画装置30は、通信装置31、軌道計算装置32及び運用計画設定装置33を備えている。
 通信装置31は、通信線路74と接続されている。
 通信装置31は、軌道上物体データ記憶部72から、通信線路74を介して、宇宙空間に存在している移動体の中で、軌道が確定している移動体1の軌道を示す第1の軌道データを受信する。第1の軌道データは、複数の過去の観測時刻における移動体1の位置を示す位置データと、複数の過去の観測時刻における移動体1の速度を示す速度データとを含んでいる。
 また、通信装置31は、軌道上物体データ記憶部72から、通信線路74を介して、軌道が確定している宇宙空間内の飛翔体2の軌道を示す第2の軌道データを受信する。第2の軌道データは、複数の観測時刻における飛翔体2の位置を示す位置データと、複数の観測時刻における飛翔体2の速度を示す速度データとを含んでいる。また、第2の軌道データは、将来の軌道における複数の時刻の位置及び速度のそれぞれを含んでいる。
 通信装置31は、恒星データ記憶部73から、通信線路74を介して、複数の時刻における恒星の位置及び恒星から発せられる特定の波長帯の光の明るさのそれぞれを示す恒星情報を受信する。
 通信装置31は、運用計画設定装置33により作成されたコマンドを地上局40に送信する。
 軌道計算装置32は、例えば、CPUを実装している半導体集積回路、あるいは、FPGAのようなプログラム基板によって実現される。
 軌道計算装置32は、通信装置31により受信された第1の軌道データに基づいて、移動体1の将来の軌道を算出する。
 軌道計算装置32は、通信装置31により受信された恒星情報に基づいて、恒星に含まれる太陽の軌道を特定する。
 軌道計算装置32は、太陽の軌道と、移動体1の将来の軌道と、第2の軌道データが示す飛翔体2の将来の軌道とから、将来の複数の時刻における、太陽と移動体1と飛翔体2との幾何学的な配置を特定する。
 軌道計算装置32は、将来の複数の時刻における幾何学的な配置に基づいて、例えば、太陽からの光が地球に遮られて、太陽からの光が移動体1に照射されない将来の時刻を算出する。
 軌道計算装置32は、移動体1の将来の軌道を示す将来軌道データと、第2の軌道データと、太陽からの光が移動体1に照射されない将来の時刻を示す時刻情報とを運用計画設定装置33に出力する。
 運用計画設定装置33は、例えば、CPUを実装している半導体集積回路、あるいは、FPGAのようなプログラム基板によって実現される。
 運用計画設定装置33は、軌道計算装置32から、将来軌道データと第2の軌道データと時刻情報とを取得する。
 運用計画設定装置33は、将来軌道データと第2の軌道データと時刻情報とに基づいて、飛翔体2を制御するためのコマンドを作成し、コマンドを通信装置31に出力する。
 図4は、実施の形態1に係る形状姿勢推定システムに含まれる地上局40を示す構成図である。
 図4に示す地上局40は、通信装置41、信号送信部42、アンテナ43、信号受信部44、記録装置45、制御装置46及び指向装置47を備えている。
 通信装置41は、計画装置30の通信装置31からコマンドを受信し、コマンドを信号送信部42及び制御装置46のそれぞれに出力する。
 通信装置41は、記録装置45に記録された画像データを、計画装置30の通信装置31を介して、形状姿勢推定装置50に送信する。
 図4に示す地上局40では、通信装置41が、画像データを、計画装置30の通信装置31を介して、形状姿勢推定装置50に送信している。しかし、これは一例に過ぎず、通信装置41が、画像データを形状姿勢推定装置50に直接送信するようにしてもよい。
 信号送信部42は、通信装置41から出力されたコマンドに対する変調処理等を実施することで、コマンドを示す送信信号を生成する。飛翔体2との通信が可能な波長帯として、例えば、Xバンド、又は、Sバンドが決められていれば、信号送信部42は、Xバンドの電波の送信信号、又は、Sバンドの電波の送信信号を生成する。コマンドに対する変調処理等としては、いわゆる変調処理のほかに、例えば、符号化処理及び増幅処理がある。
 図4に示す地上局40では、信号送信部42が、電波の送信信号を生成している。しかし、これは一例に過ぎず、信号送信部42が、光の送信信号を生成するようにしてもよい。
 アンテナ43は、例えば、パラボラアンテナによって実現される。
 アンテナ43は、信号送信部42により生成された電波の送信信号を飛翔体2に向けて放射する。信号送信部42により光の送信信号が生成されていれば、アンテナ43の代わりに集光装置が用いられる。
 アンテナ43は、飛翔体2から、撮像装置3による移動体1の撮像画像を示す画像データに係る電波を受信し、電波の受信信号を信号受信部44に出力する。
 信号受信部44は、アンテナ43から出力された電波の受信信号から、移動体1の撮像画像を示す画像データを復調し、画像データを記録装置45に出力する。
 記録装置45は、信号受信部44から出力された画像データを記録する。
 制御装置46は、例えば、CPUを実装している半導体集積回路、あるいは、FPGAのようなプログラム基板によって実現される。
 制御装置46は、通信装置41から出力されたコマンドに従ってアンテナ43の指向方向を示す制御信号を指向装置47に出力する。
 また、制御装置46は、信号送信部42の送信タイミング及び信号受信部44の受信タイミングのそれぞれを制御する。
 指向装置47は、例えば、一軸以上の回転軸を有する回転ステージによって実現される。
 指向装置47は、制御装置46から出力された制御信号に従って、アンテナ43の指向方向を制御する。
 アンテナ43が回転ステージに実装されており、回転ステージに付加されているモータ等が、制御装置47から出力された制御信号に従って駆動することで、アンテナ43の指向方向が制御される。
 図5は、実施の形態1に係る形状姿勢推定装置50を示す構成図である。
 図6は、実施の形態1に係る形状姿勢推定装置50のハードウェアを示すハードウェア構成図である。
 図5に示す形状姿勢推定装置50は、材料データ記憶部51、形状データ記憶部52、特性データ記憶部53、光度曲線取得部54、撮像画像取得部55、モデル生成部56、光度曲線算出部57及び形状姿勢推定部58を備えている。
 形状姿勢推定装置50は、移動体1の形状及び姿勢のそれぞれを推定する。
 材料データ記憶部51は、例えば、図6に示す材料データ記憶回路61によって実現される。
 材料データ記憶部51は、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとして、当該物体の材料の特性を示す材料データを記憶している。
 当該物体が人工衛星等の人工物であれば、例えば、人工物の表面を形成している材料の物性値を示すデータが、材料データとして材料データ記憶部51に記憶される。材料の物性値としては、例えば、材料の分光反射率、放射率、散乱特性、又は、密度がある。
 当該物体が自然物であり、自然物が、例えば、隕石又は金属であれば、隕石の物性値を示すデータ又は金属の物性値を示すデータが、材料データとして材料データ記憶部51に記憶される。
 形状データ記憶部52は、例えば、図6に示す形状データ記憶回路62によって実現される。
 形状データ記憶部52は、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとして、当該物体の形状を示す形状データを記憶している。
 当該物体が人工衛星等の人工物であれば、過去に作成された人工物の形状を示すデータが、形状データとして形状データ記憶部52に記憶される。人工物は、軌道上で分解又は破砕されることもある。このため、人工物の全体の形状を示す形状データだけでなく、人工物に含まれている複数の部品のそれぞれの形状を示す形状データについても形状データ記憶部52に記憶される。
 特性データ記憶部53は、例えば、図6に示す特性データ記憶回路63によって実現される。
 特性データ記憶部53は、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとして、宇宙空間に存在している物体の中で、軌道が確定していないものの、既知の軌道と対応している可能性のある物体の特性データを記憶している。当該物体の特性データとしては、例えば、形状、特性、画像、又は、光度曲線を示すデータがある。
 図5に示す形状姿勢推定装置50は、材料データ記憶部51、形状データ記憶部52及び特性データ記憶部53を備えている。しかし、これは一例に過ぎず、材料データ記憶部51、形状データ記憶部52及び特性データ記憶部53のそれぞれが、形状姿勢推定装置50の外部に設置されていてもよい。この場合、形状姿勢推定装置50が、通信装置を介して、材料データ記憶部51、形状データ記憶部52及び特性データ記憶部53のそれぞれに記憶されている特徴データを取得すればよい。
 光度曲線取得部54は、例えば、図6に示す光度曲線取得回路64によって実現される。
 光度曲線取得部54は、通信線路74と接続されている通信装置54aを備えている。
 光度曲線取得部54は、通信装置54aを用いて、光度測定装置10の記録装置20に記録されている、移動体1の光度の時間的な変化を示す第1の光度曲線を取得する。
 光度曲線取得部54は、第1の光度曲線を形状姿勢推定部58に出力する。
 図5に示す形状姿勢推定装置50では、光度曲線取得部54が通信装置54aを備えている。しかし、これは一例に過ぎず、通信装置54aが、光度曲線取得部54の外部に設けられていてもよい。
 撮像画像取得部55は、例えば、図6に示す撮像画像取得回路65によって実現される。
 撮像画像取得部55は、通信線路74と接続されている通信装置55aを備えている。
 撮像画像取得部55は、通信装置55aを用いて、地上局40の記録装置45に記録されている、撮像装置3による移動体1の撮像画像を示す画像データを取得する。
 撮像画像取得部55は、取得した画像データをモデル生成部56に出力する。
 図5に示す形状姿勢推定装置50では、撮像画像取得部55が通信装置55aを備えている。しかし、これは一例に過ぎず、通信装置55aが、撮像画像取得部55の外部に設けられていてもよい。
 モデル生成部56は、例えば、図6に示すモデル生成回路66によって実現される。
 モデル生成部56は、撮像画像取得部55から画像データを取得する。
 また、モデル生成部56は、材料データ記憶部51、形状データ記憶部52及び特性データ記憶部53のそれぞれから、宇宙空間に存在している可能性のある物体の特徴を示す特徴データを取得する。
 モデル生成部56は、画像データが示す移動体1の撮像画像と特徴データとを用いて、移動体1のモデルを生成する。移動体1のモデルは、例えば、移動体1の形状及び反射特性等のそれぞれが模擬されている3次元モデルである。
 モデル生成部56は、移動体1のモデルを光度曲線算出部57及び形状姿勢推定部58のそれぞれに出力する。
 光度曲線算出部57は、例えば、図6に示す光度曲線算出回路67によって実現される。
 光度曲線算出部57は、モデル生成部56により生成された移動体1のモデルに対して照明光源からの光が照射されたときのモデルの光度の時間的な変化をシミュレーションする。
 即ち、光度曲線算出部57は、照明条件として、移動体1のモデルの姿勢を仮定するほか、移動体1のモデルに対して光を照射する照明光源と、照明光源により光が照射されるモデルを観測する飛翔体2との配置を仮定する。
 光度曲線算出部57は、上記の照明条件の下で、光が照射されるモデルの光度の時間変化をシミュレーションする。
 光度曲線算出部57は、モデルの光度の時間変化を示す第2の光度曲線を形状姿勢推定部58に出力する。
 形状姿勢推定部58は、例えば、図6に示す形状姿勢推定回路68によって実現される。
 形状姿勢推定部58は、光度曲線取得部54から第1の光度曲線を取得し、光度曲線算出部57から第2の光度曲線を取得する。
 形状姿勢推定部58は、モデル生成部56から、移動体1のモデルを取得する。
 形状姿勢推定部58は、第1の光度曲線と第2の光度曲線とに基づいて、移動体1のモデルの形状及び姿勢のそれぞれを調整する。即ち、形状姿勢推定部58は、第2の光度曲線が第1の光度曲線に近づくように、移動体1のモデルの形状及び姿勢のそれぞれを調整する。
 形状姿勢推定部58は、調整後のモデルから、移動体1の形状及び姿勢のそれぞれを推定する。
 基準信号源71は、例えば、複数のGPS(Global Positioning System)衛星から発信されるGPS信号を受信するGPS受信器を備え、GPS信号に含まれている時刻を取得する。あるいは、基準信号源71は、標準電波を受信する電波時計を備え、標準電波に含まれている時刻を取得する。あるいは、基準信号源71は、NTP(Network Time Protocol)に代表されるネットワーク機器の時刻同期のためのプロトコルを利用して時刻を取得する。
 基準信号源71は、取得した時刻を基準時刻として、光度測定装置10の通信装置22に出力する。
 軌道上物体データ記憶部72は、例えば、RAM、又は、ハードディスクによって実現される。
 軌道上物体データ記憶部72は、宇宙空間に存在している移動体の中で、軌道が確定している移動体1の軌道を示す第1の軌道データを記憶している。
 また、軌道上物体データ記憶部72は、軌道が確定している宇宙空間内の飛翔体2の軌道を示す第2の軌道データを記憶している。
 恒星データ記憶部73は、例えば、RAM、又は、ハードディスクによって実現される。
 恒星データ記憶部73は、複数の時刻における恒星の位置及び恒星から発せられる特定の波長帯の光の明るさのそれぞれを示す恒星情報を記憶している。
 図1に示す形状姿勢推定システムでは、軌道上物体データ記憶部72及び恒星データ記憶部73のそれぞれが、当該形状姿勢推定システムの外部に設けられている。しかし、これは一例に過ぎず、軌道上物体データ記憶部72及び恒星データ記憶部73のそれぞれが、当該形状姿勢推定システムの内部に設けられていてもよい。
 通信線路74は、例えば、電話回線、インターネット、又は、LAN(Local Area Network )によって実現される。
 通信線路74は、光度測定装置10、計画装置30、形状姿勢推定装置50、基準信号源71、軌道上物体データ記憶部72及び恒星データ記憶部73とを結んでいる。
 図5では、形状姿勢推定装置50の構成要素である材料データ記憶部51、形状データ記憶部52、特性データ記憶部53、光度曲線取得部54、撮像画像取得部55、モデル生成部56、光度曲線算出部57及び形状姿勢推定部58のそれぞれが、図6に示すような専用のハードウェアによって実現されるものを想定している。即ち、形状姿勢推定装置50が、材料データ記憶回路61、形状データ記憶回路62、特性データ記憶回路63、光度曲線取得回路64、撮像画像取得回路65、モデル生成回路66、光度曲線算出回路67及び形状姿勢推定回路68によって実現されるものを想定している。
 ここで、材料データ記憶回路61、形状データ記憶回路62及び特性データ記憶回路63のそれぞれは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVD(Digital Versatile Disc)が該当する。
 また、光度曲線取得回路64、撮像画像取得回路65、モデル生成回路66、光度曲線算出回路67及び形状姿勢推定回路68のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA、又は、これらを組み合わせたものが該当する。
 形状姿勢推定装置50の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、形状姿勢推定装置50が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
 ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
 図7は、形状姿勢推定装置50が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。
 形状姿勢推定装置50が、ソフトウェア又はファームウェア等によって実現される場合、材料データ記憶部51、形状データ記憶部52及び特性データ記憶部53がコンピュータのメモリ81上に構成される。光度曲線取得部54、撮像画像取得部55、モデル生成部56、光度曲線算出部57及び形状姿勢推定部58におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムがメモリ81に格納される。そして、コンピュータのプロセッサ82がメモリ81に格納されているプログラムを実行する。
 また、図6では、形状姿勢推定装置50の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図7では、形状姿勢推定装置50がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、形状姿勢推定装置50における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
 次に、図1に示す形状姿勢推定システムの動作について説明する。
 図8は、移動体1と飛翔体2と光度測定装置10と計画装置30と地上局40と形状姿勢推定装置50との位置関係を示す説明図である。
 図8には、光度測定装置10により得られる光強度画像と、地上局40により得られる撮像画像とが付記されている。
 図8に示されている移動体1の形状は、直方体である。しかし、これは一例に過ぎず、移動体1の形状が直方体以外の形状であってもよいことは言うまでもない。
 図8の例では、光度測定装置10からは、直方体の側面S,S,S,Sのうち、側面S,Sが見えている。また、飛翔体2からは、直方体の側面S,S,S,Sのうち、側面S,Sが見えている。
 図1に示す形状姿勢推定システムでは、光度測定装置10の位置検出器14が、時刻t(n=1,・・・,N)のときに移動体1を撮像し、飛翔体2に実装されている撮像装置3が、時刻tのときに移動体1を撮像するものとする。Nは、2以上の整数である。図8は、N=5の例を示している。
 図8の例では、移動体1は、自ら発光しないため、太陽等の照明光源によって照らされることで輝きを生じる。照明光源が太陽であれば、移動体1は、約5800Kの黒体放射によって照明される。照明光源と移動体1とを結ぶ線分と、移動体1と光度測定装置10とを結ぶ線分とのなす角θが位相角で表されるとき、位相角が0度であれば、照明光源と移動体1と光度測定装置10とが一列に並ぶため、移動体1による光の反射が多くなる。そのため、位相角が0度に近い程、光度測定装置10により測定される移動体1の光度が大きくなることが想定される。しかし、光度測定装置10が設置されている地球が、照明光源である太陽光を遮断することで、太陽光が移動体1を照らさないこともある。
 よって、光度測定装置10は、光度測定装置10が設置されている地球が太陽光を遮断することなく、太陽光が移動体1を照らしているとき、移動体1の光度を測定する必要がある。
 まず、計画装置30の通信装置31は、軌道上物体データ記憶部72から、通信線路74を介して、移動体1の軌道を示す第1の軌道データと、飛翔体2の軌道を示す第2の軌道データとを受信する。
 また、通信装置31は、恒星データ記憶部73から、通信線路74を介して、恒星の位置及び恒星から発せられる特定の波長帯の光の明るさのそれぞれを示す恒星情報を受信する。
 通信装置31は、第1の軌道データ、第2の軌道データ及び恒星情報のそれぞれを軌道計算装置32に出力する。
 軌道計算装置32は、通信装置31から、第1の軌道データ、第2の軌道データ及び恒星情報のそれぞれを取得する。
 軌道計算装置32は、第1の軌道データに基づいて、将来観測を予定している時刻t(n=1,・・・,N)における移動体1の位置x(t),y(t),z(t)を予測する。移動体1の位置x(t),y(t),z(t)の予測処理自体は、公知の技術であるため詳細な説明を省略する。
 また、軌道計算装置32は、第2の軌道データに基づいて、将来観測を予定している時刻tにおける飛翔体2の位置x(t),y(t),z(t)を特定する。第2の軌道データは、時刻tにおける飛翔体2の位置x(t),y(t),z(t)を含んでいる。
 軌道計算装置32は、恒星情報に基づいて、時刻tにおける照明光源の位置x(t),y(t),z(t)を特定する。
 図1に示す形状姿勢推定システムでは、照明光源が太陽であり、太陽は、恒星に含まれる。
 軌道計算装置32は、時刻tにおける移動体1の位置x(t),y(t),z(t)と、時刻tにおける照明光源の位置x(t),y(t),z(t)と、時刻tにおける地球の位置x(t),y(t),z(t)とから、時刻tのときに、地球が太陽光を遮断することなく、太陽光が移動体1を照らすか否かを判定する。時刻tにおける地球の位置x(t),y(t),z(t)は、既値である。
 軌道計算装置32は、時刻tのとき、地球が太陽光を遮断して、太陽光が移動体1を照らさなければ、観測の予定時刻tを、地球が太陽光を遮断することなく、太陽光が移動体1を照らす時刻に変更する。軌道計算装置32は、時刻tが、太陽光が移動体1を照らす時刻であっても、なす角θである位相角が0度に近くなる時刻に変更するようにしてもよい。ただし、位相角が0度に近くなる時刻は、太陽光が移動体1を照らす時刻である必要がある。
 軌道計算装置32は、観測の予定時刻tを変更すれば、時刻tにおける移動体1の位置x(t),y(t),z(t)を再度予測し、時刻tにおける照明光源の位置x(t),y(t),z(t)を再度特定する。
 軌道計算装置32は、観測の予定時刻tと、観測の予定時刻tを含む時間帯Tとを示す時間帯情報を通信装置31及び運用計画設定装置33のそれぞれに出力する。時間帯Tは、例えば、時刻(t-t)から時刻tに至る時間帯である。tは、例えば、指向装置18による指向方向θの制御に要する時間である。tは、軌道計算装置32の内部メモリに格納されていてもよいし、計画装置30の外部から与えられるものであってもよい。
 また、軌道計算装置32は、第1の軌道データ及び第2の軌道データのそれぞれを運用計画設定装置33に出力する。
 運用計画設定装置33は、軌道計算装置32から、第1の軌道データ、第2の軌道データ及び時間帯情報のそれぞれを取得する。
 運用計画設定装置33は、第1の軌道データ、第2の軌道データ及び時間帯情報に基づいて、時刻tにおける移動体1の位置x(t),y(t),z(t)と、時刻tにおける飛翔体2の位置x(t),y(t),z(t)との幾何学的な配置を特定する。
 運用計画設定装置33は、移動体1及び飛翔体2におけるそれぞれの時刻tでの幾何学的な配置に基づいて、飛翔体2等を制御するためのコマンドを作成する。
 即ち、運用計画設定装置33は、それぞれの時刻tでの幾何学的な配置に基づいて、飛翔体2に実装されている撮像装置3が、移動体1を撮影することができるように、飛翔体2の姿勢及びアンテナ43の指向方向のそれぞれを制御するための撮像時刻t(n=1,・・・,N)のときのコマンドを作成する。
 運用計画設定装置33は、撮像時刻tのときのコマンドを通信装置31に出力する。
 通信装置31は、軌道計算装置32から出力された時間帯情報及び第1の軌道データのそれぞれを、通信線路74を介して、光度測定装置10に送信する。
 また、通信装置31は、運用計画設定装置33により作成された撮像時刻t(n=1,・・・,N)のときのコマンドを地上局40に送信する。
 光度測定装置10は、移動体1の光度の測定処理を実施する。
 以下、光度測定装置10による光度の測定処理を具体的に説明する。
 光度測定装置10の通信装置22は、計画装置30から、通信線路74を介して、時間帯情報及び第1の軌道データのそれぞれを受信する。
 通信装置22は、時間帯情報をカウンタ16に出力し、第1の軌道データを制御装置17に出力する。
 また、通信装置22は、基準信号源71から、通信線路74を介して、基準時刻を受信し、基準時刻を時刻校正部15に出力する。
 さらに、通信装置22は、恒星データ記憶部73から、通信線路74を介して、恒星情報を受信し、恒星情報を制御装置17に出力する。
 時刻校正部15は、通信装置22から、基準時刻を取得する。
 時刻校正部15は、基準時刻に基づいて、カウンタ16の時刻を校正する。
 カウンタ16は、通信装置22から、時間帯情報を取得する。
 カウンタ16は、時刻校正部15によって時刻が校正されたのち、時間帯情報が示す時間帯Tの先頭の時刻t-tからの経過時間Eをカウントする。
 カウンタ16は、経過時間Eを制御装置17及び解析装置19のそれぞれに出力し、時間帯情報を制御装置17に出力する。
 制御装置17は、通信装置22から第1の軌道データを取得し、カウンタ16から経過時間E及び時間帯情報のそれぞれを取得する。
 制御装置17は、経過時間Eが、t,t+t-t,t+t-t,t+t-t,t+t-t,・・・になると、現在の時刻tが、観測時刻t(n=1,・・・,N)よりも時刻tだけ前の時刻であると判定する。
 制御装置17は、第1の軌道データが示す観測時刻tにおける移動体1の位置x(t),y(t),z(t)と、観測時刻tにおける光度測定装置10の位置x(t),y(t),z(t)との幾何学的な配置を特定する。観測時刻tにおける光度測定装置10の位置x(t),y(t),z(t)は、既値である。
 制御装置17は、特定した幾何学的な配置に基づいて、観測時刻tのときに、集光装置11の指向方向が移動体1を向くように、集光装置11の指向方向θを設定する。
 制御装置17は、集光装置11の指向方向θを示す制御信号を指向装置18に出力する。
 制御装置17は、現在の時刻tが、観測時刻t(n=1,・・・,N)よりも時刻tだけ前の時刻になると、シャッタの開時刻tを示す制御信号を遮光装置13に出力し、光強度画像の撮像時刻tを示す制御信号を位置検出器14に出力する。
 また、制御装置17は、現在の時刻tが、観測時刻tからΔtの時刻だけ経過すると、シャッタの閉時刻t+Δt,t+Δt,t+Δt,t+Δt,t+Δtを示す制御信号を遮光装置13に出力する。Δtは、シャッタの開時間である。例えば、Δt=(t-t)/2=(t-t)/2=(t-t)/2=(t-t)/2である。
 また、制御装置17は、選択対象の波長、又は、選択対象の偏光を示す選択信号を光選択部12に出力する。
 例えば、光選択部12が、恒星データ記憶部73に記憶されている恒星から発せられる光の波長帯と同じ波長帯の光を透過させることが可能なフィルタを選択することで、処理装置21が、当該波長帯の光の光度を正確に算出することができる。このため、制御装置17は、通信装置22から出力された恒星情報に基づいて、恒星から発せられる光の波長帯と同じ波長帯の光を透過させるフィルタを選択するための選択信号を生成する。
 制御装置17は、選択信号を光選択部12に出力する。
 指向装置18は、制御装置17から、集光装置11の指向方向θを示す制御信号を取得する。
 指向装置18は、制御信号に従って回転ステージに付加されているモータ等を駆動することで、集光装置11の指向方向θを制御する。
 即ち、集光装置11は、移動体1の物体面を像面に射影する機能を有し、基準となる光軸を備えているので、指向装置18は、集光装置11の光軸を制御装置17から出力された制御信号が示す指向方向θに合わせることで、集光装置11の指向方向を制御する。
 集光装置11は、指向装置18による指向方向θの制御が完了した段階で、移動体1の反射光を集光する。
 集光装置11は、集光した移動体1の反射光を光選択部12に出力する。
 図1に示す光度測定装置10では、集光装置11が、移動体1の反射光を集光している。しかし、移動体1が、自ら光を発している物体であれば、集光装置11が、移動体1の放射光を集光する。
 光選択部12は、集光装置11により集光された光のうち、制御装置17から出力された選択信号が示す波長の光、又は、当該選択信号が示す偏光を選択する。
 光選択部12は、選択した波長の光、又は、選択した偏光を遮光装置13に出力する。
 光選択部12により用いられるフィルタは、例えば、カメラによって一般的に使用される、赤青緑のようなカラーフィルタであってもよいし、公知のジョンソンフィルタ、又は、SDSS(Sloan Digitized Sky Survey)フィルタであってもよい。
 遮光装置13のシャッタは、制御装置17から出力された制御信号に従って開閉される。シャッタが位置検出器14の露光時間に応じて開閉されることで、光選択部12によって選択された光の遮断と光の透過とが交互に繰り返される。
 光度測定装置10では、移動体1の明るさが分からないため、位置検出器14により検出される移動体1の像が飽和しないように、遮光装置13によって適切な時間Δtだけシャッタが開放される。
 指向装置18が、集光装置11の指向方向θを制御することで、光度測定装置10と移動体1との相対速度を小さくすることができる。指向装置18は、例えば、相対速度を地球の大気揺らぎである1~3秒角と同等の大きさに制御することができる。したがって、遮光装置13は、シャッタの開放時間を変えることで、飽和しないような露光時間を設定することができる。
 具体的には、制御装置17が、シャッタの開放時間が短いフレームの光度と、シャッタの開放時間が長いフレームの光度とを比較し、飽和していない方のフレームの開放時間を露光時間に設定すればよい。
 なお、光度測定装置10は、移動体1の像が飽和しない範囲で、光選択部12によって選択された光の増幅率を調整するようにしてもよい。
 光度は、エネルギーであるため、位置検出器14がCCDのような半導体検出器であれば、電子の数を数えることで得られる。しかしながら、位置検出器14が光にさらされる時間は、シャッタの開放時間によって決まるため、光度の測定精度は、シャッタの開放時間の精度に依存する。また、シャッタの開閉時刻は、移動体1の位置の決定精度に依存する。
 位置検出器14は、制御装置17から出力された制御信号が示す撮像時刻tのときに、遮光装置13を透過してきた光を検出して、移動体1が映っている光強度画像を撮像する。
 撮像時刻tが、例えば、t,t,t,t,tであれば、位置検出器14は、撮像時刻t,t,t,t,tの光強度画像を撮像し、撮像時刻t,t,t,t,tの光強度画像を処理装置21に出力する。図8には、撮像時刻t,t,t,t,tの光強度画像が示されている。
 処理装置21は、位置検出器14から、撮像時刻t,・・・,tの光強度画像を取得する。
 処理装置21は、撮像時刻t(n=1,・・・,N)の光強度画像に含まれているノイズを除去する等の前処理を実施する。処理装置21は、前処理後の光強度画像から、移動体1の画像上の位置と、移動体1の光度とを算出する。移動体1の画像上の位置は、集光装置11を実現している望遠鏡から移動体1を見た角度に相当する。移動体1の光度は、位置検出器14により受光した光の量に相当する。
 処理装置21は、前処理後の光強度画像と、移動体1の画像上の位置と、移動体1の光度とを記録装置20に記録させる。
 また、処理装置21は、制御装置17から、第1のステータス情報として、集光装置11の指向方向を示す制御信号と、シャッタの開閉時刻を示す制御信号と、光強度画像の撮像時刻を示す制御信号とを取得する。処理装置21は、前処理後の光強度画像と一緒に、第1のステータス情報を記録装置20に記録させる。
 以下、処理装置21による位置及び光度におけるそれぞれの算出処理等を具体的に説明する。
 図9は、処理装置21による位置及び光度におけるそれぞれの算出処理等を示すフローチャートである。
 まず、処理装置21は、撮像時刻t(n=1,・・・,N)の光強度画像に対する前処理として、光強度画像に含まれている暗転流ノイズ及び背景光ノイズのそれぞれを除去する処理のほか、周辺光量の減衰等を補正する処理を実施する。
 処理装置21は、撮像時刻tの光強度画像に対する前処理を実施した後、集光装置11の指向方向が位置検出器14の視野中心であると仮定し、位置検出器14の視野角を求める(図9のステップST1)。
 位置検出器14の1画素当りの視野角αは、撮像時刻tの光強度画像における1画素の大きさpと、集光装置11の焦点距離fとから算出できる。α=tan-1(p/f)
 したがって、位置検出器14の上下方向の視野角は、1画素当りの視野角αを光強度画像の上下方向の画素数倍することで算出できる。また、位置検出器14の左右方向の視野角は、1画素当りの視野角αを光強度画像の左右方向の画素数倍することで算出できる。
 次に、処理装置21は、撮像時刻t(n=1,・・・,N)の光強度画像に含まれている点像である明点を抽出する。
 1つ以上の明点の集まり(以下「明点群」という)は、移動体1を表している可能性があるものの、移動体1の背景として恒星が光強度画像に映っていれば、明点群は、恒星を表している可能性もある。したがって、光強度画像に含まれている複数の明点群のそれぞれは、移動体1又は恒星のいずれかと対応している。
 処理装置21は、明点群として、撮像時刻tの光強度画像に含まれている複数の画素の中で、画素値が閾値以上である画素の集まりである画素群を検出する。処理装置21は、明点群である画素群の位置と光度とを求める(図9のステップST2)。閾値は、0よりも大きく、画素値の最大値よりも小さい値である。
 撮像時刻tの光強度画像に含まれている明点群の広がりは、集光装置11の大きさが有限であれば、回折限界で広がりを有する。実際には、大気の揺らぎによる広がりのほかに、シーイングの影響による広がりがあるため、移動体1が小さい場合に写る明点群は、回折限界よりも広がる。
 このように明点群は、広がりを有するため、処理装置21は、明点群の位置として、例えば、広がりの重心位置を求める。また、処理装置21は、明点群の光度として、広がりに含まれている複数の画素の画素値の和を求める。
 位置検出器14の視野中心と視野角とが求まると、位置検出器14の指向方向と、明点群の見かけの大きさとが求まる。このため、光強度画像の上下方向の位相と、光強度画像の左右方向の位相と、光強度画像の回転方向の位相とが求まれば、光強度画像上の座標と、宇宙空間に存在している恒星の位置を示す天球座標との位置関係を求めることができる。天球座標としては、例えば、天の赤道を基準とする赤道座標系、観測者の地平線を基準とする地平座標系、又は、銀河面を基準とする銀河座標系があるが、いずれの座標系を用いてもよい。光強度画像上の位置は、天球座標の位置、赤経及び赤緯、あるいは、方位角及び仰角等の角度で、表すことができる。
 処理装置21は、光強度画像に含まれている明点群の位置を、恒星データ記憶部73に記憶されている恒星情報が示す恒星の位置の座標系に変換する。
 また、処理装置21は、恒星データ記憶部73に記憶されている恒星情報が示す恒星の明るさがカタログ等級で表されていれば、明点群の光度をカタログ等級の明るさに変換する。
 カタログ等級は、明るさが100倍になると、-5等級になることが定義されている。このため、明点群の光度がF、カタログ等級がm、露光時間がTであるとすれば、カタログ等級mは、以下の式(1)又は式(2)のように表される。
m=-2.5log10(F/T)+m_zero  (1)
m=-2.5log10(F)+m_zero’   (2)
m_zero’=m_zero+2.5log10(T) (3)
 式(1)及び式(2)において、m_zero及びm_zero’のそれぞれは、機械等級である。
 式(1)と式(2)との違いは、露光時間Tの影響を考慮して、ゼロ点がシフトされているだけの違いである。
 恒星情報に記録されている恒星の明るさを示す等級vの単位時間当りの光度と、当該恒星に対応する明点群の光度Fの単位時間当りの光度とが、大気吸収のない条件下では、同じになることを利用すると、機械等級m_zeroは、以下の式(4)又は式(5)のように表される。
m_zero = < v-2.5log10(F)>  (4)
m_zero = < v-m >         (5)
 式(4)及び式(5)において、<□>は、□の平均の算出処理を意味する数学記号である。
 ここでは、平均の算出処理を行うことで、機械等級m_zeroが算出されている。しかし、これは一例に過ぎず、例えば、中央値の算出処理を行うことで、機械等級m_zeroが算出されるものであってもよい。
 そして、処理装置21は、座標変換後の明点群の位置と恒星の位置とを比較し、光度変換後の明点群の光度と恒星の光度とを比較する。
 処理装置21は、位置の比較結果及び光度の比較結果のそれぞれに基づいて、恒星に対応している明点群を特定することで、移動体1に対応している明点群を特定する(図9のステップST3)。
 即ち、処理装置21は、撮像時刻t(n=1,・・・,N)の光強度画像に含まれている複数の明点群の中で、恒星に対応している明点群以外の明点群を、移動体1に対応している明点群とする。
 恒星に対応している明点群を特定する処理自体は、公知の処理である。明点群を特定する処理としては、例えば、SSD(Sum of Squared Difference)法、SAD(Sum of Absolute Difference)法、相互相関法(Cross Correlation)、正規化相互相関(NCC:Normalized Cross Correlation)法、零平均正規化相互相関(ZNCC:Zero means Normalized Cross Correlation)法、又は、位相限定相関(POC:Phase-Only Correlation)法を用いることができる。
 処理装置21は、撮像時刻t(n=1,・・・,N)の光強度画像に含まれている複数の明点群の中で、移動体1に対応している座標変換後の明点群の位置を、移動体1の画像上の位置として、記録装置20に記録させる。
 また、処理装置21は、撮像時刻tの光強度画像に含まれている複数の明点群の中で、移動体1に対応している光度変換後の明点群の光度を、移動体1の光度として、記録装置20に記録させる(図9のステップST4)。記録装置20に記録される移動体1における撮像時刻t,・・・,tの光度は、移動体1の光度の時間的な変化を示す第1の光度曲線に相当する。
 図8の例では、撮像時刻t,t,t,t,tにおける5つの光強度画像が得られているので、5つの光強度画像のそれぞれに含まれている明点群のうち、移動体1に対応している明点群の光度が、移動体1の光度として、記録装置20に記録される。
 地上局40の通信装置41は、計画装置30から、撮像時刻t(n=1,・・・,N)のときのコマンドを受信する。
 通信装置41は、撮像時刻tのときのコマンドを信号送信部42及び制御装置46のそれぞれに出力する。
 信号送信部42は、通信装置41から、撮像時刻t(n=1,・・・,N)のときのコマンドを取得する。
 信号送信部42は、撮像時刻tのときのコマンドに対する変調処理等を実施することで、撮像時刻tのときのコマンドを示す送信信号を生成する。飛翔体2との通信が可能な波長帯が、例えば、Xバンド、又は、Sバンドであれば、信号送信部42は、Xバンドの送信信号、又は、Sバンドの送信信号を生成する。
 信号送信部42は、撮像時刻tのときの送信信号をアンテナ43に出力する。
 制御装置46は、通信装置41から、撮像時刻t(n=1,・・・,N)のときのコマンドを取得する。
 制御装置46は、撮像時刻tのときのコマンドに従ってアンテナ43の指向方向を示す制御信号を指向装置47に出力する。
 指向装置47は、制御装置46から出力された制御信号に従って回転ステージに付加されているモータ等を駆動することで、アンテナ43の指向方向を制御する。
 アンテナ43は、信号送信部42から出力された撮像時刻tのときの送信信号に係る電波を飛翔体2に向けて放射する。
 飛翔体2は、アンテナ43から放射された電波を受信すると、電波から送信信号を復調し、撮像時刻tのときの送信信号が示すコマンドに従って、飛翔体2の姿勢として、撮像装置3の指向方向を制御する。
 即ち、飛翔体2は、撮像時刻tのときのコマンドに従って、撮像装置3を移動体1が存在している方向に向ける。
 その後、撮像装置3は、時刻がtのときに、移動体1を撮像する。飛翔体2は、図8に示すような、撮像時刻tの撮像画像を示す画像データに係る電波を地上局40に送信する。
 アンテナ43は、飛翔体2から、撮像時刻tの撮像画像を示す画像データに係る電波を受信し、電波の受信信号を信号受信部44に出力する。
 信号受信部44は、アンテナ43から出力された受信信号を取得する。
 信号受信部44は、受信信号から、撮像時刻tの撮像画像を示す画像データを復調し、画像データを記録装置45に記録させる。また、信号受信部44は、画像データと一緒に、撮像装置3の指向方向及び撮像装置3の撮像時刻のそれぞれを示す第2のステータス情報を記録装置45に記録させる。
 通信装置41は、記録装置45に記録された画像データ及び第2のステータス情報のそれぞれを、計画装置30の通信装置31を介して、形状姿勢推定装置50に送信する。
 形状姿勢推定装置50は、移動体の形状及び姿勢の推定処理を実施する。
 図10及び図11は、形状姿勢推定装置50の処理手順である形状姿勢推定方法を示すフローチャートである。
 図12は、形状姿勢推定装置50の処理内容を示す説明図である。
 以下、形状姿勢推定装置50による形状及び姿勢の推定処理を具体的に説明する。
 光度曲線取得部54は、通信装置54aを用いて、光度測定装置10の記録装置20から、第1の光度曲線を取得する(図10のステップST11)。
 光度曲線取得部54は、第1の光度曲線を形状姿勢推定部58に出力する。
 撮像画像取得部55の通信装置55aは、地上局40の通信装置41から送信された、画像データ及び第2のステータス情報のそれぞれを受信する(図10のステップST12)。当該画像データは、図8に示すように、撮像装置3による移動体1の撮像時刻tの撮像画像を示すデータである。
 撮像画像取得部55は、画像データ及び第2のステータス情報のそれぞれをモデル生成部56に出力する。
 また、撮像画像取得部55は、通信装置55aを用いて、軌道上物体データ記憶部72から、通信線路74を介して、移動体1の軌道を示す第1の軌道データと、飛翔体2の軌道を示す第2の軌道データとを受信する。さらに、撮像画像取得部55は、通信装置55aを用いて、恒星データ記憶部73から、通信線路74を介して、恒星情報を受信する。
 撮像画像取得部55は、第1の軌道データ、第2の軌道データ及び恒星情報のそれぞれをモデル生成部56に出力する。
 モデル生成部56は、撮像画像取得部55から、画像データ及び第2のステータス情報のそれぞれを取得する。また、モデル生成部56は、撮像画像取得部55から、第1の軌道データ、第2の軌道データ及び恒星情報のそれぞれを取得する。
 モデル生成部56は、画像データが示す移動体1の撮像画像(以下「取得撮像画像」という)と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、移動体1のモデルを生成する。
 以下、モデル生成部56によるモデルの生成処理を具体的に説明する。
 まず、モデル生成部56は、形状データ記憶部52に記憶されている複数の形状データが示す物体の形状の中で、例えば、画像データが示す撮像時刻tの取得撮像画像に映っている移動体1の形状と最も類似している物体の形状を検索する。物体の形状の検索処理自体は、公知の技術であるため詳細な説明を省略する。
 ここでは、モデル生成部56が、複数の形状データが示す物体の形状の中で、撮像時刻tの取得撮像画像に映っている移動体1の形状と最も類似している物体の形状を検索している。しかし、これは一例に過ぎず、モデル生成部56が、複数の形状データが示す物体の形状の中で、例えば、撮像時刻tの取得撮像画像に映っている移動体1の形状と最も類似している物体の形状を検索してもよいし、撮像時刻tの取得撮像画像に映っている移動体1の形状と最も類似している物体の形状を検索してもよい。
 モデル生成部56は、形状データ記憶部52から、移動体1の形状と最も類似している物体の形状を示す形状データを取得する(図10のステップST13)。
 また、モデル生成部56は、材料データ記憶部51から、任意の物体の材料の特性を示す材料データを取得する。
 モデル生成部56は、取得した形状データ及び材料データのそれぞれを用いて、移動体1のモデルを仮生成する(図10のステップST14)。モデルの形状は、形状データに従って仮生成され、モデルの材料は、材料データに従って仮生成される。
 モデル生成部56は、第1の軌道データに基づいて、第2のステータス情報が示す撮像装置3の撮像時刻t(n=1,・・・,N)における移動体1の位置x(t),y(t),z(t)を予測する。
 また、モデル生成部56は、第2の軌道データに基づいて、撮像装置3の撮像時刻tにおける飛翔体2の位置x(t),y(t),z(t)を特定する。
 また、モデル生成部56は、恒星情報に基づいて、撮像時刻tにおける照明光源の位置x(t),y(t),z(t)を特定する。
 次に、モデル生成部56は、位置x(t),y(t),z(t)に存在している照明光源から、位置x(t),y(t),z(t)に存在している移動体1のモデルに光が照射されるという照明条件を設定する。
 モデル生成部56は、上記の照明条件の下で、位置x(t),y(t),z(t)に存在している飛翔体2の撮像装置3によって、移動体1のモデルが撮像される撮像画像(以下「模擬撮像画像」という)を模擬する照明解析処理を行う(図10のステップST15)。照明解析処理は、照明光源が光を移動体1に照射しているときに、撮像画像を模擬するコンピュータシミュレーションである。
 次に、モデル生成部56は、撮像時刻t(n=1,・・・,N)の模擬撮像画像に映っている移動体1のモデルの姿勢が、撮像時刻tの取得撮像画像に映っている移動体1の姿勢と一致するように、移動体1のモデルの姿勢及びモデルの形状のそれぞれを調整する処理(以下「姿勢調整処理」という)を行う(図10のステップST16)。
 モデル生成部56は、移動体1が例えば人工衛星であれば、人工衛星に実装されている太陽電池パネルの法線が太陽の方向を向くように、モデルの形状を調整し、人工衛星に実装されているアンテナの指向方向が地球の中心方向を向くように、モデルの姿勢を調整する。
 移動体1の位置x(t),y(t),z(t)と照明光源の位置x(t),y(t),z(t)との配置によっては、移動体1の一部に影が生じてしまうことがある。移動体1の一部に影が生じている場合、移動体1の一部が取得撮像画像に映らないため、移動体1の全景が分からないことがある。このような場合、モデル生成部56は、軌道が確定している別の移動体の特性データを用いて、移動体1のモデルを仮生成するようにしてもよい。別の移動体の特性データとしては、例えば、別の移動体の形状を示すデータ、又は、別の移動体を示す画像データがあり、特性データ記憶部53により記憶されている物体の特性データを用いることができる。
 ここでは、モデル生成部56が、第1の軌道データに基づいて、第2のステータス情報が示す撮像装置3の撮像時刻tにおける移動体1の位置x(t),y(t),z(t)を予測している。モデル生成部56が、例えば、第1の軌道データを得ることができないような場合、移動体1の見かけの位置を求めるようにしてもよい。
 即ち、モデル生成部56は、第2のステータス情報が示す撮像装置3の指向方向が撮像装置3の視野中心であると仮定し、撮像装置3の視野角を求める。撮像装置3の視野角は、位置検出器14の視野角と同様に求められる。モデル生成部56は、撮像装置3の視野角が分かれば、移動体1の見かけの位置を求めることができる。この場合、モデル生成部56は、撮像時刻t(n=1,・・・,N)の模擬撮像画像に映っている移動体1のモデルの姿勢が、見かけの位置に存在している移動体1の姿勢と一致するように、姿勢調整処理を行う。
 次に、モデル生成部56は、上記の照明条件の下で、位置x(t),y(t),z(t)に存在している飛翔体2の撮像装置3によって、姿勢調整処理後のモデルが撮像される照明解析処理を行う。
 次に、モデル生成部56は、画像データが示す撮像時刻t(n=1,・・・,N)の取得撮像画像と、撮像時刻tにおける姿勢調整処理後のモデルの模擬撮像画像との相関度を算出する(図10のステップST17)。
 モデル生成部56による相関度の算出に際し、モデル生成部56が、模擬撮像画像に対する公知のlog-polar変換、あるいは、公知のFourier-Mellin変換を行い、その後、取得撮像画像と変換後の模擬撮像画像との相関処理を行えば、模擬撮像画像の回転及び倍率のそれぞれを算出することができる。並進に関しては、モデル生成部56が、ピクセル画像の相関処理を行えばよい。いずれの相関処理においても、相関度の算出処理方法としては、例えば、SSD法、SAD法、相互相関法、NCC法、ZNCC法、又は、POC法を用いることができる。
 モデル生成部56は、撮像時刻t(n=1,・・・,N)の取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関度が閾値よりも大きければ(図10のステップST18:YESの場合)、撮像時刻tの取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関が高いと判定する。閾値は、モデル生成部56の内部メモリに格納されていてもよいし、形状姿勢推定装置50の外部から与えられるものであってもよい。
 モデル生成部56は、撮像時刻tの取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関度が閾値以下であれば(図10のステップST18:NOの場合)、撮像時刻tの取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関が低いと判定する。
 モデル生成部56は、撮像時刻tの取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関が低いと判定すれば、撮像時刻tにおける姿勢調整処理後のモデルの材料を変更する(図10のステップST19)。
 モデル生成部56は、撮像時刻tの取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関度が閾値よりも大きくなるまで、照明解析処理、姿勢調整処理、相関度の算出処理、相関の判定処理及び材料変更処理を繰り返し行う(図10のステップST15~ST19)。
 モデル生成部56は、撮像時刻tの取得撮像画像と姿勢調整処理後のモデルの模擬撮像画像との相関が高いと判定すれば、撮像時刻tにおける材料変更後のモデル(以下「生成モデル」という)を光度曲線算出部57及び形状姿勢推定部58のそれぞれに出力する。
 また、モデル生成部56は、撮像時刻tにおける移動体1の位置x(t),y(t),z(t)と、撮像時刻tにおける照明光源の位置x(t),y(t),z(t)とを光度曲線算出部57に出力する。
 光度曲線算出部57は、モデル生成部56から、撮像時刻tの生成モデルを取得する。
 また、光度曲線算出部57は、モデル生成部56から、撮像時刻tにおける移動体1の位置x(t),y(t),z(t)と、撮像時刻tにおける照明光源の位置x(t),y(t),z(t)とを取得する。
 光度曲線算出部57は、撮像時刻tの生成モデル等を用いて、移動体1の光度の時間変化を示す第2の光度曲線を算出する(図11のステップST20)。
 以下、光度曲線算出部57による第2の光度曲線の算出処理を具体的に説明する。
 光度曲線算出部57は、撮像時刻tにおける照明光源の位置x(t),y(t),z(t)と、撮像時刻tにおける光度測定装置10の位置x(t),y(t),z(t)との幾何学的な配置を照明条件に設定する。また、光度曲線算出部57は、照明条件として、照明光源から位置x(t),y(t),z(t)に存在している移動体1のモデルに光が照射されるという条件を設定する。光度測定装置10の位置x(t),y(t),z(t)は、既値である。
 光度曲線算出部57は、上記の照明条件において、撮像時刻tの生成モデルに対して照明光源からの光が照射されたときの生成モデルの光度の時間的な変化をシミュレーションする。即ち、光度曲線算出部57は、上記の照明条件において、生成モデルに対して照明光源からの光が照射されたときに、光度測定装置10により撮像される光強度画像(以下「模擬光強度画像」という)を模擬する照明解析処理を実施する。
 光度曲線算出部57は、撮像時刻t(n=1,・・・,N)の模擬光強度画像に映っている移動体1の光度を算出する。光度曲線算出部57による光度の算出処理としては、例えば、処理装置21による光度の算出処理を用いることができる。
 t=t,・・・tについてのN個の光度の時間変化は、第2の光度曲線に相当する。
 光度曲線算出部57は、第2の光度曲線を形状姿勢推定部58に出力する。
 形状姿勢推定部58は、光度曲線取得部54から第1の光度曲線を取得し、光度曲線算出部57から第2の光度曲線を取得する。
 また、形状姿勢推定部58は、モデル生成部56から、撮像時刻tの生成モデルを取得する。
 形状姿勢推定部58は、第2の光度曲線が第1の光度曲線に近づくように、撮像時刻tの生成モデルの形状、姿勢及び材料のそれぞれを調整する。
 ここでは、形状姿勢推定部58が、生成モデルの形状、姿勢及び材料のそれぞれを調整している。第2の光度曲線が第1の光度曲線に近づけばよいため、形状姿勢推定部58が、生成モデルの形状、姿勢、又は、材料のうちのいずれか1つを変更するものであってもよい。また、形状姿勢推定部58が、生成モデルの材料を調整せずに、生成モデルの形状及び姿勢のそれぞれを調整するものであってもよい。
 以下、形状姿勢推定部58による形状、姿勢及び材料の調整処理を具体的に説明する。
 形状姿勢推定部58は、以下の式(6)に示すように、第1の光度曲線に含まれている撮像時刻t(n=1,・・・,N)の移動体1の光度L(t)と、第2の光度曲線に含まれている撮像時刻tの移動体1の光度L(t)との差分ΔL(t)を算出する(図11のステップST21)。
ΔL(t)=L(t)-L(t)      (6)
 形状姿勢推定部58は、差分ΔL(t)の絶対値と閾値Thとを比較し、差分ΔL(t)の絶対値が閾値Thよりも大きければ(図11のステップST22:YESの場合)、撮像時刻tにおける生成モデルの形状、生成モデルの姿勢、又は、生成モデルの材料を変更する(図11のステップST23)。閾値Thは、形状姿勢推定部58の内部メモリに格納されていてもよいし、形状姿勢推定装置50の外部から与えられるものであってもよい。
 より具体的には、(1)光度曲線に小さい山であるサブピークがあることがある。サブピークは、生成モデルの形状に由来する可能性が高い。例えば、アンテナ等の構造に由来する可能性が高い。このため、形状姿勢推定部58は、生成モデルの形状を優先的に調整する。
(2)光度曲線のピークが左右にずれていることがある。左右のずれは、生成モデルの姿勢に由来する可能性が高い。このため、形状姿勢推定部58は、生成モデルの姿勢を優先的に調整する。
(3)全体的なピーク及びサブピークのそれぞれが一致したら、形状姿勢推定部58は、生成モデルの材料を調整する。
(4)最後に、形状姿勢推定部58は、生成モデルの形状、姿勢及び材料のそれぞれを微調整する。
 撮像時刻tにおける生成モデルの形状、生成モデルの姿勢、又は、生成モデルの材料を変更する処理自体は、公知の技術であるため詳細な説明を省略するが、生成モデルの形状の変更処理としては、例えば、生成モデルの形状を、形状データ記憶部52に記憶されている他の物体の形状に変更する処理を用いることができる。また、生成モデルの姿勢の変更処理としては、例えば、生成モデルの姿勢である指向方向を、事前に設定されている角度だけ変更する処理を用いることができる。また、生成モデルの材料の変更処理としては、例えば、生成モデルの材料を、材料データ記憶部51に記憶されている他の物体の材料に変更する処理を用いることができる。
 形状姿勢推定部58は、L(t)>L(t)であれば、撮像時刻tの移動体1の光度L(t)が小さくなるように、撮像時刻tにおける生成モデルの形状、生成モデルの姿勢、又は、生成モデルの材料を変更する。
 形状姿勢推定部58は、L(t)<L(t)であれば、撮像時刻tの移動体1の光度L(t)が大きくなるように、撮像時刻tにおける生成モデルの形状、生成モデルの姿勢、又は、生成モデルの材料を変更する。
 差分ΔL(t)の絶対値が閾値Th以下になるまで、第2の光度曲線の算出処理、差分の算出処理、比較処理及びモデルの変更処理が繰り返し行われる(図11のステップST20~ST23)。
 形状姿勢推定部58は、差分ΔL(t)の絶対値が閾値Th以下であれば(図11のステップST22:NOの場合)、撮像時刻tの生成モデルの変更処理を完了する。
 形状姿勢推定部58は、変更処理が完了した生成モデルから、移動体1の形状及び姿勢のそれぞれを推定する(図11のステップST24)。
 形状姿勢推定部58は、例えば、撮像時刻tにおける移動体1の形状の推定結果として、変更処理が完了した撮像時刻tの生成モデルの形状を示す形状データを外部に出力する。
 形状姿勢推定部58は、例えば、撮像時刻tにおける移動体1の姿勢の推定結果として、変更処理が完了した撮像時刻tの生成モデルの姿勢を示す姿勢データを外部に出力する。
 移動体1が例えば人工衛星であれば、形状姿勢推定部58が、移動体1に実装されているアンテナの指向方向、あるいは、移動体1に実装されている太陽電池パネルの法線方向を、モデルの姿勢としてもよい。アンテナの指向方向等は、モデルの画像を解析することで求まる。
 また、移動体1が例えば隕石であれば、形状姿勢推定部58が、隕石の重心線の方向を、モデルの姿勢としてもよい。隕石の重心線の方向は、モデルの画像を解析することで求まる。
 以上の実施の形態1では、監視対象の移動体1の光度を測定する光度測定装置10から、光度の時間的な変化を示す第1の光度曲線を取得する光度曲線取得部54と、移動体1を撮像する撮像装置3を実装している飛翔体2から、撮像装置3による移動体1の撮像画像を取得する撮像画像取得部55と、撮像画像取得部55により取得された移動体1の撮像画像と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、移動体1のモデルを生成するモデル生成部56とを備えるように、形状姿勢推定装置50を構成した。また、形状姿勢推定装置50は、モデル生成部56により生成された移動体1のモデルに対して照明光源からの光が照射されたときのモデルの光度の時間的な変化をシミュレーションし、モデルの光度の時間的な変化を示す第2の光度曲線を出力する光度曲線算出部57と、光度曲線取得部54により取得された第1の光度曲線と光度曲線算出部57から出力された第2の光度曲線とに基づいて、モデルの形状及び姿勢のそれぞれを調整し、調整後のモデルから、移動体1の形状及び姿勢のそれぞれを推定する形状姿勢推定部58とを備えている。したがって、形状姿勢推定装置50は、移動体1の登録輝度変化パターンをデータベースに記憶させることなく、移動体1の形状及び姿勢のそれぞれを推定することができる。
実施の形態2.
 図2に示す光度測定装置10では、光選択部12が、集光装置11により集光された光の中から、1つの波長の光、又は、1つの偏光を選択している。
 実施の形態2では、光選択部12が、集光装置11により集光された光の中から、M(Mは、2以上の整数)個の波長の光、又は、M個の偏光を選択する光度測定装置10について説明する。
 実施の形態2に係る形状姿勢推定システムの構成は、実施の形態1に係る形状姿勢推定システムの構成と同様であり、実施の形態2に係る形状姿勢推定システムを示す構成図は、図1である。
 実施の形態2に係る形状姿勢推定システムに含まれる光度測定装置10の構成は、実施の形態1に係る形状姿勢推定システムに含まれる光度測定装置10の構成と同様であり、実施の形態2に係る形状姿勢推定システムに含まれる光度測定装置10を示す構成図は、図2である。
 実施の形態2に係る形状姿勢推定システムに含まれる計画装置30の構成は、実施の形態1に係る形状姿勢推定システムに含まれる計画装置30の構成と同様であり、実施の形態2に係る形状姿勢推定システムに含まれる計画装置30を示す構成図は、図3である。
 実施の形態2に係る形状姿勢推定システムに含まれる地上局40の構成は、実施の形態1に係る形状姿勢推定システムに含まれる地上局40の構成と同様であり、実施の形態2に係る形状姿勢推定システムに含まれる地上局40を示す構成図は、図4である。
 実施の形態2に係る形状姿勢推定装置50の構成は、実施の形態1に係る形状姿勢推定装置50の構成と同様であり、実施の形態2に係る形状姿勢推定装置50を示す構成図は、図5である。
 図13は、移動体1と飛翔体2と光度測定装置10と計画装置30と地上局40と形状姿勢推定装置50との位置関係を示す説明図である。
 図14は、実施の形態2に係る形状姿勢推定装置50の処理内容を示す説明図である。
 地球の周囲における宇宙空間を周回する移動体1に光を照射する照明光源は、通常、太陽である。太陽光は、複数の波長の光を含んでいる。このため、太陽光に含まれている複数の波長の光の中から、M個の波長の光をそれぞれ選択すれば、時刻t(n=1,・・・,N)において、位置検出器14が、それぞれの波長の光が照射されている光強度画像をM個撮像することができる。
 実施の形態2に係る形状姿勢推定システムでは、光度測定装置10の制御装置17は、太陽光に含まれている複数の波長の光の中から、選択対象の波長をM個決定し、M個の波長を示す選択信号を光選択部12に出力する。
 光選択部12は、太陽光に含まれている複数の波長の光の中から、制御装置17から出力された選択信号が示すM個の波長の光を順番に選択し、選択したそれぞれの波長の光を、遮光装置13を介して、位置検出器14に出力する。
 位置検出器14は、遮光装置13を透過してきたそれぞれの波長の光を検出して、移動体1が映っている光強度画像を撮像する。
 処理装置21は、撮像時刻t(n=1,・・・,N)における、M個の光強度画像のそれぞれに含まれている複数の明点群の中で、移動体1に対応している光度変換後の明点群の光度を、移動体1の光度として、記録装置20に記録させる。撮像時刻t,・・・,tにおける波長m(m=1,・・・,M)の光度は、移動体1における波長mの光度の時間的な変化を示す第1の光度曲線に相当する。したがって、記録装置20には、図14に示すように、M本の第1の光度曲線が記録される。図13及び図14では、M=4の例が示されている。
 計画装置30の運用計画設定装置33は、飛翔体2を制御するためのコマンドを作成する際、M個の波長を示す選択信号を当該コマンドに含め、選択信号を含むコマンドを通信装置31に出力する。
 通信装置31は、選択信号を含むコマンドを地上局40に出力する。
 地上局40のアンテナ43は、撮像時刻tのときの送信信号に係る電波を飛翔体2に向けて放射する。
 飛翔体2は、アンテナ43から放射された電波を受信すると、電波から送信信号を復調し、撮像時刻tのときの送信信号が示すコマンドに従って、飛翔体2の姿勢として、撮像装置3の指向方向を制御する。
 撮像装置3は、時刻がtのときに、移動体1を撮像する。
 撮像装置3は、例えば、フィルタホイールを備えている。フィルタホイールは、コマンドに含まれている選択信号に従って、通過させる波長の光を変更する。撮像装置3は、フィルタホイールを用いて、撮像時刻tの撮像画像から、それぞれの波長の光で表されている撮像画像をM個生成する。
 飛翔体2は、図13に示すように、撮像時刻tにおけるM個の撮像画像を示す画像データに係る電波を地上局40に送信する。
 これにより、地上局40の記録装置45には、撮像時刻tにおけるM個の撮像画像を示す画像データが記録される。
 形状姿勢推定装置50のモデル生成部56は、飛翔体2の撮像装置3によって、時刻t(n=1,・・・,N)で撮像される撮像画像を模擬する照明解析処理を行う。照明解析処理の照射条件として、M個の波長の光をそれぞれ照射するものとして、モデル生成部56が、波長m(m=1,・・・,M)の模擬撮像画像を取得する。
 モデル生成部56は、地上局40の記録装置45に記録されている撮像時刻t(n=1,・・・,N)における波長m(m=1,・・・,M)の取得撮像画像と、撮像時刻tにおける波長mの模擬撮像画像との相関度を算出する。
 モデル生成部56は、撮像時刻tにおける波長mの取得撮像画像と撮像時刻tにおける波長mの模擬撮像画像との相関が低いと判定すれば、仮生成した移動体1のモデルの材料を変更する。
 モデル生成部56は、撮像時刻tにおける波長mの取得撮像画像と撮像時刻tにおける波長mの模擬撮像画像との相関度が閾値よりも大きくなるまで、照明解析処理、姿勢調整処理、相関度の算出処理、相関の判定処理及び材料変更処理を繰り返し行う。
 モデル生成部56は、波長mの取得撮像画像と波長mの模擬撮像画像との相関が高いと判定すれば、相関が高いときの移動体1のモデルを光度曲線算出部57及び形状姿勢推定部58のそれぞれに出力する。
 光度曲線算出部57は、図14に示すように、撮像時刻t(n=1,・・・,N)のモデル等を用いて、移動体1の光度の時間変化を示す波長m(m=1,・・・,M)の第2の光度曲線を算出する。
 形状姿勢推定部58は、図14に示すように、波長m(m=1,・・・,M)の第2の光度曲線が波長mの第1の光度曲線に近づくように、移動体1のモデルの形状、姿勢及び材料のそれぞれを調整する。
 撮像時刻t(n=1,・・・,N)における移動体1の形状は、光の波長が異なっても、変化しない。しかし、光の波長が異なれば、移動体1における光の反射率が異なるため、撮像時刻t(n=1,・・・,N)におけるM個の取得撮像画像に映っている移動体1の形状は、互いに異なることがある。このため、波長m毎に、モデルの材料を変更することで、移動体1のモデルを高精度に生成することができる。
 なお、本開示は、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 本開示は、形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システムに適している。
1 移動体、2 飛翔体、3 撮像装置、10 光度測定装置、11 集光装置、12 光選択部、13 遮光装置、14 位置検出器、15 時刻校正部、16 カウンタ、17 制御装置、18 指向装置、19 解析装置、20 記録装置、21 処理装置、22 通信装置、30 計画装置、31 通信装置、32 軌道計算装置、33 運用計画設定装置、40 地上局、41 通信装置、42 信号送信部、43 アンテナ、44 信号受信部、45 記録装置、46 制御装置、47 指向装置、50 形状姿勢推定装置、51 材料データ記憶部、52 形状データ記憶部、53 特性データ記憶部、54 光度曲線取得部、55 撮像画像取得部、56 モデル生成部、57 光度曲線算出部、58 形状姿勢推定部、61 材料データ記憶回路、62 形状データ記憶回路、63 特性データ記憶回路、64 光度曲線取得回路、65 撮像画像取得回路、66 モデル生成回路、67 光度曲線算出回路、68 形状姿勢推定回路、71 基準信号源、72 軌道上物体データ記憶部、73 恒星データ記憶部、74 通信線路、81 メモリ、82 プロセッサ。

Claims (6)

  1.  監視対象の移動体の光度を測定する光度測定装置から、前記光度の時間的な変化を示す第1の光度曲線を取得する光度曲線取得部と、
     前記移動体を撮像する撮像装置を実装している飛翔体から、前記撮像装置による前記移動体の撮像画像を取得する撮像画像取得部と、
     前記撮像画像取得部により取得された移動体の撮像画像と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、前記移動体のモデルを生成するモデル生成部と、
     前記モデル生成部により生成された移動体のモデルに対して照明光源からの光が照射されたときの前記モデルの光度の時間的な変化をシミュレーションし、前記モデルの光度の時間的な変化を示す第2の光度曲線を出力する光度曲線算出部と、
     前記光度曲線取得部により取得された第1の光度曲線と前記光度曲線算出部から出力された第2の光度曲線とに基づいて、前記モデルの形状及び姿勢のそれぞれを調整し、調整後のモデルから、前記移動体の形状及び姿勢のそれぞれを推定する形状姿勢推定部と
     を備えた形状姿勢推定装置。
  2.  前記形状姿勢推定部は、
     前記光度曲線算出部から出力された第2の光度曲線が前記光度曲線取得部により取得された第1の光度曲線に近づくように、前記モデルの形状及び姿勢のそれぞれを調整することを特徴とする請求項1記載の形状姿勢推定装置。
  3.  前記形状姿勢推定部は、
     前記第2の光度曲線が前記第1の光度曲線に近づくように、前記モデルの形状、姿勢及び材料のそれぞれを調整することを特徴とする請求項2記載の形状姿勢推定装置。
  4.  光度曲線取得部が、監視対象の移動体の光度を測定する光度測定装置から、前記光度の時間的な変化を示す第1の光度曲線を取得し、
     撮像画像取得部が、前記移動体を撮像する撮像装置を実装している飛翔体から、前記撮像装置による前記移動体の撮像画像を取得し、
     モデル生成部が、前記撮像画像取得部により取得された移動体の撮像画像と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、前記移動体のモデルを生成し、
     光度曲線算出部が、前記モデル生成部により生成された移動体のモデルに対して照明光源からの光が照射されたときの前記モデルの光度の時間的な変化をシミュレーションし、前記モデルの光度の時間的な変化を示す第2の光度曲線を出力し、
     形状姿勢推定部が、前記光度曲線取得部により取得された第1の光度曲線と前記光度曲線算出部から出力された第2の光度曲線とに基づいて、前記モデルの形状及び姿勢のそれぞれを調整し、調整後のモデルから、前記移動体の形状及び姿勢のそれぞれを推定する
     形状姿勢推定方法。
  5.  監視対象の移動体の光度を測定する光度測定装置と、
     前記移動体の形状及び姿勢のそれぞれを推定する形状姿勢推定装置とを備え、
     前記形状姿勢推定装置は、
     前記光度測定装置から、前記光度の時間的な変化を示す第1の光度曲線を取得する光度曲線取得部と、
     前記移動体を撮像する撮像装置を実装している飛翔体から、前記撮像装置による前記移動体の撮像画像を取得する撮像画像取得部と、
     前記撮像画像取得部により取得された移動体の撮像画像と、宇宙空間に存在している可能性のある物体の特徴を示す特徴データとを用いて、前記移動体のモデルを生成するモデル生成部と、
     前記モデル生成部により生成された移動体のモデルに対して照明光源からの光が照射されたときの前記モデルの光度の時間的な変化をシミュレーションし、前記モデルの光度の時間的な変化を示す第2の光度曲線を出力する光度曲線算出部と、
     前記光度曲線取得部により取得された第1の光度曲線と前記光度曲線算出部から出力された第2の光度曲線とに基づいて、前記モデルの形状及び姿勢のそれぞれを調整し、調整後のモデルから、前記移動体の形状及び姿勢のそれぞれを推定する形状姿勢推定部とを備えている
     ことを特徴とする形状姿勢推定システム。
  6.  前記光度測定装置は、
     前記移動体からの光のうち、光度を測定する波長の光、又は、光度を測定する偏光を選択する光選択部を備えており、前記光選択部により選択された波長の光、又は、前記光選択部により選択された偏光の光度を測定することを特徴とする請求項5記載の形状姿勢推定システム。
PCT/JP2021/037983 2021-10-14 2021-10-14 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム WO2023062765A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/037983 WO2023062765A1 (ja) 2021-10-14 2021-10-14 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム
JP2022500658A JP7038940B1 (ja) 2021-10-14 2021-10-14 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/037983 WO2023062765A1 (ja) 2021-10-14 2021-10-14 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム

Publications (1)

Publication Number Publication Date
WO2023062765A1 true WO2023062765A1 (ja) 2023-04-20

Family

ID=81213705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037983 WO2023062765A1 (ja) 2021-10-14 2021-10-14 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム

Country Status (2)

Country Link
JP (1) JP7038940B1 (ja)
WO (1) WO2023062765A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015202809A (ja) * 2014-04-15 2015-11-16 三菱重工業株式会社 監視システムおよび監視方法
JP2017072888A (ja) * 2015-10-05 2017-04-13 三菱電機株式会社 移動体識別装置及び移動体識別方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015202809A (ja) * 2014-04-15 2015-11-16 三菱重工業株式会社 監視システムおよび監視方法
JP2017072888A (ja) * 2015-10-05 2017-04-13 三菱電機株式会社 移動体識別装置及び移動体識別方法

Also Published As

Publication number Publication date
JPWO2023062765A1 (ja) 2023-04-20
JP7038940B1 (ja) 2022-03-18

Similar Documents

Publication Publication Date Title
US8072581B1 (en) Laser range finding system using variable field of illumination flash lidar
US20140293266A1 (en) Local Alignment and Positioning Device and Method
US5654549A (en) Satellite focal plane array imager
Luthi et al. Stereoscopic passive millimeter-wave imaging and ranging
JP6546658B2 (ja) 衛星信号受信装置、衛星信号受信方法及びプログラム
CN109100876A (zh) 多光轴平行调节装置及多光轴平行调节方法
CN109444977B (zh) 毫米波/太赫兹波成像设备及对人体或物品的检测方法
SA518391255B1 (ar) طريقة لمعايرة مرايا عاكسة للأشعة
Chauvin et al. Cloud motion estimation using a sky imager
CN108230374B (zh) 通过地理配准增强原始传感器图像的方法和装置
JP2023514141A (ja) 物体上の位置を測定するための装置、方法、及びシステム
JP2018139105A (ja) 地理登録を通じた生センサ画像強化のための方法および装置
JP6529411B2 (ja) 移動体識別装置及び移動体識別方法
WO2023062765A1 (ja) 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム
JP2017208016A (ja) 移動体検出装置、観測システム及び移動体検出方法
WO2024116361A1 (ja) 形状姿勢推定装置、形状姿勢推定方法及び形状姿勢推定システム
CN101173984A (zh) 星载太阳观察盲区目标探测跟踪相机
CN103134664B (zh) 一种基于凸面反射镜的在轨光学卫星相机mtf测量方法
CN109444978B (zh) 毫米波/太赫兹波成像设备及对人体或物品的检测方法
JP6906732B1 (ja) 移動体撮像システム、運用計画設定装置および移動体撮像方法
Tominaga et al. High-resolution imaging system for omnidirectional illuminant estimation
WO2022013948A1 (ja) 軌道算出装置、軌道算出方法及び軌道算出システム
Blais et al. Intelligent variable-resolution laser scanner for the space vision system
Jenniskens et al. CAMSS: A spectroscopic survey of meteoroid elemental abundances
Cremer et al. Stand-off Thermal IR Minefield Survey: System concept and experimental results

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2022500658

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21960623

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE