JP7829828B2 - Coordinate determination device, coordinate determination method, program, and recording medium for low orbit objects. - Google Patents

Coordinate determination device, coordinate determination method, program, and recording medium for low orbit objects.

Info

Publication number
JP7829828B2
JP7829828B2 JP2026501916A JP2026501916A JP7829828B2 JP 7829828 B2 JP7829828 B2 JP 7829828B2 JP 2026501916 A JP2026501916 A JP 2026501916A JP 2026501916 A JP2026501916 A JP 2026501916A JP 7829828 B2 JP7829828 B2 JP 7829828B2
Authority
JP
Japan
Prior art keywords
narrow
field
image data
wide
field image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2026501916A
Other languages
Japanese (ja)
Other versions
JPWO2025196854A1 (en
Inventor
拓朗 土川
貴雄 遠藤
秀伸 辻
厚視 木邊
敦史 澤
隆 高根澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2025196854A1 publication Critical patent/JPWO2025196854A1/ja
Application granted granted Critical
Publication of JP7829828B2 publication Critical patent/JP7829828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • B64G1/68Arrangements or adaptations of apparatus or instruments, not otherwise provided for of meteoroid or space debris detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Studio Devices (AREA)

Description

本開示は、スペースデブリなどの低軌道物体の座標位置を決定する低軌道物体の座標決定装置、座標決定方法、プログラム、および記録媒体に関する。This disclosure relates to a coordinate determination device, coordinate determination method, program, and recording medium for determining the coordinate position of low orbit objects such as space debris.

地球近傍の周回軌道または遠方の静止軌道において、衛星間衝突またはスペースデブリとの衝突を回避するために、地上からの観測によりスペースデブリまたは流星等の飛翔物の軌道を事前に把握する飛翔物の検出方法が特許文献1に示されている。Patent Document 1 describes a method for detecting flying objects that, in order to avoid inter-satellite collisions or collisions with space debris in near-Earth orbit or distant geostationary orbit, allows for the prior determination of the trajectory of space debris or flying objects such as meteors through ground-based observations.

特許文献1に示された線像検出方法は、望遠鏡に設置されたCCD撮像素子を備えたカメラによって撮影された天空のCCD画像である平面画像の画像データを複数の互いに平行な列状画像データに分割する分割処理と、各列状画像データについて求めた中央値を当該列状画像データの代表値とする代表値選定処理とから成る画像データ処理を平面画像のすべての方向について行い、その後、各列状画像データの代表値が有意値であるか否かを検出する有意値検出処理と、代表値が有意値を示す列状画像データの列位置を線像位置とする線像位置特定処理とから成る解析処理を行う。The line image detection method described in Patent Document 1 involves performing image data processing for all directions of the planar image, which consists of a division process that divides the image data of a planar image, which is a CCD image of the sky taken by a camera equipped with a CCD image sensor installed on a telescope, into a plurality of parallel columnar image data, and a representative value selection process that sets the median value obtained for each columnar image data as the representative value of that columnar image data. Subsequently, an analysis process is performed, which consists of a significance value detection process that detects whether or not the representative value of each columnar image data is a significant value, and a line image position identification process that sets the column position of the columnar image data in which the representative value is a significant value as the line image position.

特開2003-132357号公報Japanese Patent Publication No. 2003-132357

特許文献1に示された線像検出方法は、以上のように構成されているので、カメラによって撮影された天空のCCD画像である平面画像の画像データを基に、総当たり的に飛翔物の運動の向きを仮定し画像処理を行うため、画像処理に対するコストが高くなるという課題があった。The line image detection method described in Patent Document 1 is configured as described above, and therefore, it has the problem of high image processing costs because it performs image processing by brute-force assuming the direction of motion of flying objects based on planar image data, which is a CCD image of the sky captured by a camera.

本開示は上記した点に鑑みてなされたものであり、衛星、スペースデブリ、または流星等の軌道上物体、つまり、低軌道物体の位置座標決定が容易である低軌道物体の座標決定装置を得ることを目的とする。This disclosure has been made in view of the above-mentioned points, and aims to provide a low-Earth orbit object coordinate determination device that facilitates the determination of the position coordinates of orbital objects such as satellites, space debris, or meteors, i.e., low-Earth orbit objects.

本開示に係る低軌道物体の座標決定装置は、視野角が狭く、解像度が高い狭視野結像光学系、前記狭視野結像光学系により集光される光から低軌道物体からの光を選択するための狭視野用光選択手段、および狭視野用光選択手段により選択される光を狭視野画像データとして出力する狭視野用イメージセンサを有する狭視野光学望遠鏡と、狭視野結像光学系より視野角が広く、解像度が低く、狭視野結像光学系の指向方向と同じ指向方向にされる広視野結像光学系、広視野結像光学系により集光される光から恒星からの光を選択するための広視野用光選択手段、および広視野用光選択手段により選択される光を広視野画像データとして出力する広視野用イメージセンサを有する広視野光学望遠鏡と、狭視野用イメージセンサからの狭視野画像データから検出した低軌道物体の検出位置座標を広視野用イメージセンサからの広視野画像データから検出した恒星の検出位置座標を用いて低軌道物体の天球座標を同定する低軌道物体の位置座標演算装置と、を備える。The low-Earth orbit object coordinate determination device according to this disclosure comprises: a narrow-field optical telescope having a narrow-field imaging optical system with a narrow field of view and high resolution; a narrow-field light selection means for selecting light from low-Earth orbit objects from the light focused by the narrow-field imaging optical system; and a narrow-field image sensor that outputs the light selected by the narrow-field light selection means as narrow-field image data; a wide-field optical telescope having a wide-field imaging optical system with a wider field of view and lower resolution than the narrow-field imaging optical system and directed in the same direction as the direction of the narrow-field imaging optical system; a wide-field light selection means for selecting light from stars from the light focused by the wide-field imaging optical system; and a wide-field image sensor that outputs the light selected by the wide-field light selection means as wide-field image data; and a low-Earth orbit object position coordinate calculation device that identifies the celestial coordinates of low-Earth orbit objects using the detected position coordinates of low-Earth orbit objects detected from narrow-field image data from the narrow-field image sensor and the detected position coordinates of stars detected from wide-field image data from the wide-field image sensor.

本開示によれば、低軌道物体の位置座標決定が容易になる。According to this disclosure, determining the position coordinates of low orbit objects becomes easier.

実施の形態1に係る低軌道物体の座標決定装置を示す構成図である。This is a configuration diagram showing a coordinate determination device for low orbit objects according to Embodiment 1. 実施の形態1に係る低軌道物体の座標決定装置における追尾制御機能を示すフローチャートである。This flowchart shows the tracking control function in the coordinate determination device for low orbit objects according to Embodiment 1. 実施の形態1に係る低軌道物体の座標決定装置におけるデータ取得用制御機能を示すフローチャートである。This flowchart shows the data acquisition control function in the coordinate determination device for low orbit objects according to Embodiment 1. 実施の形態1に係る低軌道物体の座標決定装置における位置座標演算機能を示すフローチャートである。This is a flowchart showing the position coordinate calculation function in the coordinate determination device for low orbit objects according to Embodiment 1. 実施の形態1に係る低軌道物体の座標決定装置における位置座標演算装置のハード構成を示す構成図である。This is a configuration diagram showing the hardware configuration of the position coordinate calculation device in the coordinate determination device for low orbit objects according to Embodiment 1. 実施の形態2に係る低軌道物体の座標決定装置を示す構成図である。This is a configuration diagram showing a coordinate determination device for low orbit objects according to Embodiment 2. 実施の形態2に係る低軌道物体の座標決定装置における位置座標演算機能を示すフローチャートである。This is a flowchart showing the position coordinate calculation function in the coordinate determination device for low orbit objects according to Embodiment 2.

実施の形態1.
実施の形態1に係る低軌道物体の座標決定装置を図1から図5を用いて説明する。
実施の形態1に係る低軌道物体の座標決定装置は、地球近傍の周回軌道および遠方の静止軌道において、衛星、スペースデブリ、または流星等の軌道上物体、つまり、低軌道物体を高感度な主望遠鏡で追尾し、主望遠鏡と指向方向が同じである視野の広い副望遠鏡で捉えた恒星の位置から、低軌道物体の位置座標を同定する低軌道物体の位置測定装置である。
Embodiment 1.
A coordinate determination device for low orbit objects according to Embodiment 1 will be described with reference to Figures 1 to 5.
The low Earth orbit object coordinate determination device according to Embodiment 1 is a low Earth orbit object position measurement device that tracks orbital objects such as satellites, space debris, or meteors, i.e., low Earth orbit objects, in near-Earth orbit and distant geostationary orbit using a highly sensitive primary telescope, and identifies the position coordinates of the low Earth orbit object from the position of a star captured by a secondary telescope with a wide field of view that has the same pointing direction as the primary telescope.

実施の形態1に係る低軌道物体の座標決定装置は、低軌道物体の追尾モードでは解像度の低い副望遠鏡を用いて低軌道物体を暗い線像として検出するが、低軌道物体の追尾を高感度な主望遠鏡により行うことで低軌道物体を明るい点像として検出可能とし、一方で、低軌道物体の追尾において、低軌道物体の位置決定の基準となる恒星を視野の広い副望遠鏡を用いて低軌道物体と同時に観測して明るい恒星を視野内に導入する。The coordinate determination device for low-Earth orbit objects according to Embodiment 1 detects low-Earth orbit objects as faint line images using a low-resolution secondary telescope in the tracking mode. However, by performing tracking of the low-Earth orbit objects with a highly sensitive primary telescope, it becomes possible to detect low-Earth orbit objects as bright point images. On the other hand, during tracking of low-Earth orbit objects, a star that serves as a reference for determining the position of the low-Earth orbit objects is observed simultaneously with the low-Earth orbit objects using a secondary telescope with a wide field of view, and a bright star is brought into the field of view.

実施の形態1に係る低軌道物体の座標決定装置は狭視野光学望遠鏡10と広視野光学望遠鏡20と光軸調整装置30と駆動装置40と位置座標演算装置50とデータベース60を備える。
狭視野光学望遠鏡10は低軌道物体を追尾するための高感度な主望遠鏡であり、視野角が狭く、解像度が高い望遠鏡である。
The coordinate determination device for low orbit objects according to Embodiment 1 comprises a narrow-field optical telescope 10, a wide-field optical telescope 20, an optical axis adjustment device 30, a drive device 40, a position coordinate calculation device 50, and a database 60.
The narrow-field optical telescope 10 is a highly sensitive primary telescope for tracking low-orbit objects, and it has a narrow field of view and high resolution.

狭視野光学望遠鏡10は低軌道物体から望遠鏡へと届く光を高いシグナルノイズ比で観測することを目的とした装置である。
低軌道物体からの光とは、太陽光が低軌道物体で反射または散乱した光、地上から発射したレーザー光が低軌道物体で反射または散乱した光、あるいは低軌道物体自身が放つ光を総称して低軌道物体からの光を言う。
The narrow-field optical telescope 10 is designed to observe light arriving at the telescope from low-orbit objects with a high signal-to-noise ratio.
Light from low-orbit objects refers to a general term encompassing light that is reflected or scattered by low-orbit objects from sunlight, light that is reflected or scattered by low-orbit objects from laser light emitted from the ground, or light emitted by low-orbit objects themselves.

狭視野光学望遠鏡10は狭視野結像光学系11と狭視野用光選択手段12と狭視野用イメージセンサ13を有する。
狭視野結像光学系11は視野角が狭く、解像度が高い光学系であり、受光した光を効率よく導く。
The narrow-field optical telescope 10 includes a narrow-field imaging optical system 11, a narrow-field light selection means 12, and a narrow-field image sensor 13.
The narrow-field imaging optical system 11 is an optical system with a narrow field of view and high resolution, and efficiently guides the received light.

狭視野結像光学系11は反射鏡およびレンズを有し、開口に入射した平面波光を1点に集光する機能を持つ。
集光位置が開口への入射角に依存し、狭視野結像光学系11は、狭視野結像光学系11から焦点距離だけ離れた光軸方向に垂直な平面(焦点面)上に像を形成する。
狭視野結像光学系11は、暗い低軌道物体まで、つまり、低軌道物体からの微弱な光を高いシグナルノイズ比で検出することを目的としているため、より多くの光を集光可能な大きな開口を持つ光学系としている。
The narrow-field imaging optical system 11 has a reflecting mirror and a lens, and has the function of focusing plane wave light incident on the aperture to a single point.
The focusing position depends on the angle of incidence to the aperture, and the narrow-field imaging optical system 11 forms an image on a plane (focal plane) perpendicular to the optical axis direction, which is located at a distance equal to the focal length from the narrow-field imaging optical system 11.
The narrow-field imaging optical system 11 is designed to detect even faint low-orbit objects, that is, weak light from low-orbit objects, with a high signal-to-noise ratio. Therefore, it has an optical system with a large aperture capable of focusing more light.

狭視野結像光学系11を構成する反射鏡およびレンズ並びに反射鏡およびレンズを支持する支持材は熱変形するため、狭視野結像光学系11による集光位置は温度にも依存する。
したがって、狭視野結像光学系11から焦点面とする狭視野用イメージセンサ13の受光面までの距離の微調整を行う距離微調整機構を狭視野光学望遠鏡10は有する。
距離微調整機構は、狭視野結像光学系11と狭視野用イメージセンサ13の距離の微調整を自動で行う機構もしくは手動で行う機構いずれでもよい。
Since the mirrors and lenses that constitute the narrow-field imaging optical system 11, as well as the support material that supports the mirrors and lenses, are subject to thermal deformation, the focusing position of the narrow-field imaging optical system 11 also depends on temperature.
Therefore, the narrow-field optical telescope 10 has a distance fine-adjustment mechanism that fine-tunes the distance from the narrow-field imaging optical system 11 to the light-receiving surface of the narrow-field image sensor 13, which serves as the focal plane.
The distance fine-adjustment mechanism may be either a mechanism that automatically or manually adjusts the distance between the narrow-field imaging optical system 11 and the narrow-field image sensor 13.

狭視野用光選択手段12は狭視野結像光学系11に接続され、狭視野結像光学系11によって集光された光を選択し、選択した光を狭視野用イメージセンサ13の受光面に導く。
狭視野用光選択手段12により選択する光は主として低軌道物体からの光である。
狭視野用光選択手段12は複数の光フィルタとフィルタホイールとを有する。
The narrow-field light selection means 12 is connected to the narrow-field imaging optical system 11, selects the light focused by the narrow-field imaging optical system 11, and guides the selected light to the light-receiving surface of the narrow-field image sensor 13.
The light selected by the narrow-field light selection means 12 is primarily light from low-orbit objects.
The narrow-field light selection means 12 includes a plurality of light filters and a filter wheel.

狭視野用光選択手段12はフィルタホイールからの光フィルタの選択に際し、フィルタの選択、狭視野用光選択手段12を介して入射される狭視野結像光学系11からの光に対する露光開始のタイミング、およびフレームレートを制御部52から制御情報として入力され、制御部52により制御される。When the narrow-field light selection means 12 selects an optical filter from the filter wheel, it receives control information from the control unit 52 regarding the filter selection, the timing of the exposure start for the light from the narrow-field imaging optical system 11 incident via the narrow-field light selection means 12, and the frame rate, and is controlled by the control unit 52.

狭視野用光選択手段12に制御部52から制御情報として入力される、フィルタの選択、狭視野結像光学系11からの光に対する露光開始のタイミング、およびフレームレートを示す制御情報を、以下、狭視野用フィルタ選択情報という。
光フィルタの選択を示す情報はフィルタホイールからのいずれの光フィルタを選択するかの情報である。
狭視野結像光学系11からの光に対する露光開始のタイミングを示す情報は、狭視野光学望遠鏡10が観測モードにおいて低軌道物体を検出し、検出した低軌道物体を目標として追尾を開始するタイミングに相当する。
The control information input to the narrow-field light selection means 12 from the control unit 52 as control information, which indicates the filter selection, the timing of exposure start for light from the narrow-field imaging optical system 11, and the frame rate, will be hereinafter referred to as narrow-field filter selection information.
The information indicating the selection of an optical filter is the information about which optical filter to select from the filter wheel.
The information indicating the timing of the start of exposure for light from the narrow-field imaging optical system 11 corresponds to the timing when the narrow-field optical telescope 10 detects a low-Earth orbit object in observation mode and begins tracking the detected low-Earth orbit object as a target.

狭視野用光選択手段12は制御部52からの狭視野用フィルタ選択情報における露光開始のタイミングを示す情報を受け、制御部52からの狭視野用フィルタ選択情報におけるフィルタの選択を示す情報により、光フィルタを選択する。
また、狭視野用光選択手段12は制御部52からの狭視野用フィルタ選択情報におけるフレームレートを示す情報を受け、フレームレートに従って制御部52からの狭視野用フィルタ選択情報におけるフィルタの選択を示す情報により光フィルタを選択する。
The narrow-field light selection means 12 receives information from the control unit 52 indicating the timing of exposure start in the narrow-field filter selection information, and selects a light filter based on the information from the control unit 52 indicating the filter selection in the narrow-field filter selection information.
Furthermore, the narrow-field light selection means 12 receives information indicating the frame rate in the narrow-field filter selection information from the control unit 52, and selects an optical filter according to the frame rate based on the information indicating the filter selection in the narrow-field filter selection information from the control unit 52.

なお、フレームレートを示す情報は狭視野用フィルタ選択情報に含んでいなくともよく、制御部52が保持し、制御部52からフレームレートに従って、フィルタの選択を示す情報を受けて光フィルタの選択を行うようにしてもよい。
また、露光開始のタイミングを示す情報を受けフィルタの選択を示す情報より選択した光フィルタを目標とした低軌道物体の追尾期間中、同じものとする場合も、フレームレートを示す制御情報は狭視野用フィルタ選択情報に含んでいなくともよい。
Note that information indicating the frame rate does not necessarily have to be included in the narrow-field filter selection information. The control unit 52 may hold this information and select the optical filter based on the frame rate by receiving information indicating the filter selection from the control unit 52.
Furthermore, even if the optical filter selected based on information indicating the timing of exposure commencement and information indicating filter selection is to be the same throughout the tracking period of the target low-orbit object, the control information indicating the frame rate does not need to be included in the narrow-field filter selection information.

光フィルタは波長フィルタまたは偏光フィルタのいずれか、もしくは両者である。
波長フィルタとして、特定の波長のみを透過する機能を有するもの、特定の波長のみ透過しない機能を有するもの、波長に対して透過率が連続的に変化するものなどである。
波長フィルタを用いる場合、例えば、Sloan/SDSSシステム、Johnsonシステムなどのワイドバンドフィルタ、またはレーザー光の波長のみを透過するナローバンドフィルタなどを用いる。
An optical filter is either a wavelength filter or a polarization filter, or both.
Wavelength filters include those that transmit only specific wavelengths, those that block only specific wavelengths, and those whose transmittance changes continuously with respect to wavelength.
When using wavelength filters, for example, wideband filters such as the Sloan/SDSS system or Johnson system, or narrowband filters that transmit only the wavelength of laser light are used.

また、偏光フィルタを用いる場合、特定の方向の直線偏光成分のみを透過するPLフィルタ、または特定の方向の円偏光成分のみを透過するC-PLフィルタを用いる。
低軌道物体からの光を効率よく選択するために、低軌道物体からの光の波長および偏光成分に合わせて波長フィルタおよび偏光フィルタを準備する。
Furthermore, when using a polarizing filter, a PL filter that transmits only linearly polarized components in a specific direction, or a C-PL filter that transmits only circularly polarized components in a specific direction, is used.
To efficiently select light from low-orbit objects, wavelength filters and polarization filters are prepared to match the wavelength and polarization components of the light from these objects.

フィルタホイールは複数枚の光フィルタが設置され、手動、もしくは制御部52からの狭視野用フィルタ選択情報により自動で設置された複数枚の光フィルタから所望の光フィルタを選択する。
例えば、フィルタホイールは制御部52からの狭視野用フィルタ選択情報におけるフィルタの選択情報であるフィルタホイールにおけるフィルタースロットの番号を受け、回転させるなどして、指定のフィルタースロットが狭視野結像光学系11の光軸上に来るようにする。
フィルタホイールにより選択された光フィルタが狭視野結像光学系11によって集光された光から所望の光を選択して狭視野用イメージセンサ13の受光面に導く。
The filter wheel has multiple optical filters installed, and the desired optical filter is selected from the multiple installed optical filters either manually or automatically based on narrow-field filter selection information from the control unit 52.
For example, the filter wheel receives the filter selection information from the control unit 52, which is the filter slot number on the filter wheel, and rotates it so that the specified filter slot is on the optical axis of the narrow-field imaging optical system 11.
The light filter selected by the filter wheel selects the desired light from the light focused by the narrow-field imaging optical system 11 and guides it to the light-receiving surface of the narrow-field image sensor 13.

狭視野用イメージセンサ13は狭視野用光選択手段12に接続され、受光面が狭視野結像光学系11によって集光される焦点面上に設置される。
狭視野用イメージセンサ13は受光面における2次元に広がった多数画素それぞれに対し、入射した光量または光強度をデジタル値に変換して2次元画像データである狭視野画像データとして出力する。
The narrow-field image sensor 13 is connected to the narrow-field light selection means 12 and is positioned on the focal plane where the light-receiving surface is focused by the narrow-field imaging optical system 11.
The narrow-field image sensor 13 converts the amount or intensity of incident light into a digital value for each of the numerous pixels spread in two dimensions on the light-receiving surface and outputs it as narrow-field image data, which is two-dimensional image data.

狭視野用イメージセンサ13は、狭視野画像データの取得に際し、狭視野用光選択手段12を介して入射される狭視野結像光学系11からの光に対する露光開始のタイミング、露光時間、フレームレート、ゲイン、読み出しを行う画素などのセンサパラメータを制御部52から制御情報として入力され、制御部52により制御される。When acquiring narrow-field image data, the narrow-field image sensor 13 receives sensor parameters such as the exposure start timing, exposure time, frame rate, gain, and pixels to be read out as control information from the control unit 52, and is controlled by the control unit 52.

狭視野用イメージセンサ13は低軌道物体からの微弱な光を高いシグナルノイズ比で検出するために、長時間の露光時間が設定されている。
狭視野用イメージセンサ13に制御部52から制御情報として入力される、狭視野結像光学系11からの光に対する露光開始のタイミング、露光時間、フレームレート、ゲイン、読み出しを行う画素などのセンサパラメータを示す制御情報を、以下、狭視野用光制御情報という。
The narrow-field image sensor 13 is set to have a long exposure time in order to detect weak light from low-orbit objects with a high signal-to-noise ratio.
The control information input to the narrow-field image sensor 13 from the control unit 52, which indicates sensor parameters such as the timing of exposure start for light from the narrow-field imaging optical system 11, exposure time, frame rate, gain, and pixels to be read out, is hereinafter referred to as narrow-field optical control information.

狭視野用イメージセンサ13は制御部52からの狭視野用光制御情報における露光開始のタイミングを示す情報を受けて追尾モードの撮像を開始する。
狭視野用イメージセンサ13は制御部52からの狭視野用光制御情報におけるフレームレートを示す情報を受け、追尾モードの終了までフレームレートに従って狭視野用光制御情報における露光時間による撮像を連続的に行う。
The narrow-field image sensor 13 receives information from the control unit 52 indicating the timing of exposure start in the narrow-field light control information and starts imaging in tracking mode.
The narrow-field image sensor 13 receives information indicating the frame rate in the narrow-field optical control information from the control unit 52, and continuously performs imaging according to the frame rate and exposure time in the narrow-field optical control information until the end of the tracking mode.

なお、フレームレートを示す制御情報は狭視野用光制御情報に含んでいなくともよく、制御部52がフレームレートを保持し、制御部52からのフレームレートに従って、制御部52から撮像を行う情報を受けて撮像を行うようにしてもよい。Furthermore, control information indicating the frame rate does not necessarily have to be included in the optical control information for the narrow field of view. The control unit 52 may hold the frame rate and perform imaging based on the frame rate received from the control unit 52.

狭視野用光制御情報と狭視野用フィルタ選択情報は同期がとられており、狭視野用光選択手段12と狭視野用イメージセンサ13は狭視野用フィルタ選択情報と狭視野用光制御情報により同期をとられて制御される。
狭視野用光制御情報と狭視野用フィルタ選択情報の同期をとることにより、制御部52からの狭視野用光制御情報におけるフレームレートに従って狭視野画像データを取得するごとに使用するフィルタの変更を行うこともできる。
The narrow-field light control information and the narrow-field filter selection information are synchronized, and the narrow-field light selection means 12 and the narrow-field image sensor 13 are controlled in synchronization with the narrow-field filter selection information and the narrow-field light control information.
By synchronizing the narrow-field optical control information and the narrow-field filter selection information, it is also possible to change the filter used each time narrow-field image data is acquired according to the frame rate in the narrow-field optical control information from the control unit 52.

狭視野用イメージセンサ13は熱型のセンサまたは量子型センサを用いる。
熱型のセンサを用いる場合、各素子(各画素に相当)に入射する光強度を熱に変換したのち、電圧値として読み出すボロメータまたはサーモパイルなどのセンサを用いる。
また、量子型センサを用いる場合、CCDセンサまたはCMOSセンサの可視光帯のセンサ、あるいはnGaAsセンサ、InSbセンサ、またはHgCdTeセンサの赤外線帯のセンサなど半導体素子を用いて内部光電効果により光子を電子に変換して読み出すセンサを用いる。
The narrow-field image sensor 13 uses either a thermal sensor or a quantum sensor.
When using a thermal sensor, a sensor such as a bolometer or thermopile is used, which converts the light intensity incident on each element (corresponding to each pixel) into heat, and then reads it out as a voltage value.
Furthermore, when using quantum sensors, sensors are used that convert photons into electrons through the internal photoelectric effect using semiconductor elements such as visible light sensors such as CCD sensors or CMOS sensors, or infrared sensors such as nGaAs sensors, InSb sensors, or HgCdTe sensors.

広視野光学望遠鏡20は狭視野光学望遠鏡10と同時観測し、低軌道物体の位置決定の基準となる恒星を視野内に導入するための視野の広い副望遠鏡であり、狭視野光学望遠鏡10より視野角が広く、解像度が低い望遠鏡である。
広視野光学望遠鏡20は低軌道物体の周辺に位置する多数の明るい恒星から望遠鏡へと届く光を観測することを目的とした装置である。
The wide-field optical telescope 20 is a secondary telescope with a wide field of view that is used to introduce stars into the field of view, which serve as a reference for determining the position of low-orbit objects, and is used for simultaneous observation with the narrow-field optical telescope 10. It has a wider field of view and lower resolution than the narrow-field optical telescope 10.
The wide-field optical telescope 20 is designed to observe light reaching the telescope from numerous bright stars located around low-orbit objects.

広視野光学望遠鏡20は広視野結像光学系21と広視野用光選択手段22と広視野用イメージセンサ23を有する。
広視野結像光学系21は狭視野結像光学系11と指向方向が同じになるように光軸調整装置30により狭視野結像光学系11に接続される。
The wide-field optical telescope 20 includes a wide-field imaging optical system 21, a wide-field light selection means 22, and a wide-field image sensor 23.
The wide-field imaging optical system 21 is connected to the narrow-field imaging optical system 11 by an optical axis adjustment device 30 so that its direction of focus is the same as that of the narrow-field imaging optical system 11.

広視野結像光学系21は狭視野結像光学系11に搭載され、光軸調整装置30における2か所の3点保持機構により狭視野結像光学系11に固定される。
光軸調整装置30における3点保持機構のねじを押し引きねじとして使用し、狭視野結像光学系11に対する広視野結像光学系21の指向方向のずれを3点保持機構のねじにより二軸で調整する。
The wide-field imaging optical system 21 is mounted on the narrow-field imaging optical system 11 and fixed to the narrow-field imaging optical system 11 by two three-point holding mechanisms in the optical axis adjustment device 30.
The screws of the three-point holding mechanism in the optical axis adjustment device 30 are used as push-pull screws, and the misalignment of the directional direction of the wide-field imaging optical system 21 relative to the narrow-field imaging optical system 11 is adjusted in two axes using the screws of the three-point holding mechanism.

その結果、狭視野結像光学系11の指向方向と広視野結像光学系21の指向方向を光軸調整装置30により一致させることができる。
すなわち、広視野結像光学系21の光軸は狭視野結像光学系11の光軸と光軸調整装置30により平行にされる。
要するに、光軸調整装置30が広視野結像光学系21の指向方向と狭視野結像光学系11の指向方向との指向方向差を二軸で調整可能に広視野結像光学系21を狭視野結像光学系11に固定する。
As a result, the directional direction of the narrow-field imaging optical system 11 and the directional direction of the wide-field imaging optical system 21 can be aligned using the optical axis adjustment device 30.
In other words, the optical axis of the wide-field imaging optical system 21 is made parallel to the optical axis of the narrow-field imaging optical system 11 by the optical axis adjustment device 30.
In short, the optical axis adjustment device 30 fixes the wide-field imaging optical system 21 to the narrow-field imaging optical system 11 so that the difference in direction of direction between the wide-field imaging optical system 21 and the narrow-field imaging optical system 11 can be adjusted on two axes.

広視野結像光学系21は狭視野結像光学系11より視野角が広く、解像度が低い光学系であり、広い視野からの光を集光可能な光学系である。
広視野結像光学系21は広い視野からの光を集光可能な光学系であるので、解像度が低くとも、低軌道物体の周辺に位置する多数の明るい恒星をなるべく多く視野内に検出することが可能である。
The wide-field imaging optical system 21 has a wider field of view and lower resolution than the narrow-field imaging optical system 11, and is an optical system capable of collecting light from a wide field of view.
Since the wide-field imaging optical system 21 is an optical system capable of collecting light from a wide field of view, it is possible to detect as many bright stars as possible located around low-orbit objects within the field of view, even with low resolution.

広視野結像光学系21は反射鏡およびレンズを有し、開口に入射した平面波光を1点に集光する機能を持つ。
集光位置が開口への入射角に依存し、広視野結像光学系21は、広視野結像光学系21から焦点距離だけ離れた光軸方向に垂直な平面(焦点面)上に像を形成する。
The wide-field imaging optical system 21 has a reflecting mirror and a lens, and has the function of focusing plane wave light incident on the aperture to a single point.
The focusing position depends on the angle of incidence to the aperture, and the wide-field imaging optical system 21 forms an image on a plane (focal plane) perpendicular to the optical axis direction, which is located at a distance equal to the focal length from the wide-field imaging optical system 21.

広視野結像光学系21を構成する反射鏡およびレンズ並びに反射鏡およびレンズを支持する支持材は熱変形するため、広視野結像光学系21による集光位置は温度にも依存する。
したがって、広視野結像光学系21から焦点面とする広視野用イメージセンサ23の受光面までの距離の微調整を行う距離微調整機構を広視野光学望遠鏡20は有する。
距離微調整機構は、広視野結像光学系21と広視野用イメージセンサ23の距離の微調整を自動で行う機構もしくは手動で行う機構いずれでもよい。
Since the mirrors and lenses that constitute the wide-field imaging optical system 21, as well as the support material that supports the mirrors and lenses, are subject to thermal deformation, the focusing position of the light produced by the wide-field imaging optical system 21 also depends on temperature.
Therefore, the wide-field optical telescope 20 has a distance fine-adjustment mechanism that fine-tunes the distance from the wide-field imaging optical system 21 to the light-receiving surface of the wide-field image sensor 23, which is the focal plane.
The distance fine-adjustment mechanism may be either a mechanism that automatically or manually adjusts the distance between the wide-field imaging optical system 21 and the wide-field image sensor 23.

広視野用光選択手段22は広視野結像光学系21に接続され、広視野結像光学系21によって集光された光を選択し、選択した光を広視野結像光学系21の受光面に導く。
広視野用光選択手段22により選択する光は主として低軌道物体の周辺に位置する恒星からの光である。
The wide-field light selection means 22 is connected to the wide-field imaging optical system 21, selects the light focused by the wide-field imaging optical system 21, and guides the selected light to the light-receiving surface of the wide-field imaging optical system 21.
The light selected by the wide-field light selection means 22 is mainly light from stars located around low-orbit objects.

広視野用光選択手段22は複数の光フィルタとフィルタホイールとを有する。
広視野用光選択手段22はフィルタホイールからの光フィルタの選択に際し、フィルタの選択、広視野結像光学系21からの光に対する露光開始のタイミング、およびフレームレートを制御部52から制御情報として入力され、制御部52により制御される。
広視野用光選択手段22に制御部52から制御情報として入力される、フィルタの選択、広視野結像光学系21からの光に対する露光開始のタイミング、およびフレームレートを示す制御情報を、以下、広視野用フィルタ選択情報という。
The wide-field light selection means 22 includes a plurality of light filters and a filter wheel.
When the wide-field light selection means 22 selects an optical filter from the filter wheel, it receives control information from the control unit 52, including the filter selection, the timing of the exposure start for light from the wide-field imaging optical system 21, and the frame rate, and is controlled by the control unit 52.
The control information input to the wide-field light selection means 22 from the control unit 52 as control information, which indicates the filter selection, the timing of exposure start for light from the wide-field imaging optical system 21, and the frame rate, is hereinafter referred to as wide-field filter selection information.

制御部52からの広視野用フィルタ選択情報における広視野結像光学系21からの光に対する露光開始のタイミングを示す情報およびフレームレートを示す情報は、狭視野用フィルタ選択情報における狭視野結像光学系11からの光に対する露光開始のタイミングを示す情報およびフレームレートを示す情報と同じである。The information indicating the timing of exposure start for light from the wide-field imaging optical system 21 and the frame rate in the wide-field filter selection information from the control unit 52 are the same as the information indicating the timing of exposure start for light from the narrow-field imaging optical system 11 and the frame rate in the narrow-field filter selection information.

広視野用光選択手段22は制御部52からの広視野用フィルタ選択情報における露光開始のタイミングを示す情報を受け、制御部52からの広視野用フィルタ選択情報におけるフィルタの選択を示す情報により、光フィルタを選択する。
また、広視野用光選択手段22は制御部52からの広視野用フィルタ選択情報におけるフレームレートを示す情報を受け、制御部52からの広視野用フィルタ選択情報におけるフィルタの選択を示す情報によりフレームレートに従って光フィルタを選択する。
The wide-field light selection means 22 receives information from the control unit 52 indicating the timing of exposure start in the wide-field filter selection information, and selects a light filter based on the information from the control unit 52 indicating the filter selection in the wide-field filter selection information.
Furthermore, the wide-field light selection means 22 receives information indicating the frame rate in the wide-field filter selection information from the control unit 52, and selects an optical filter according to the frame rate based on the information indicating the filter selection in the wide-field filter selection information from the control unit 52.

なお、フレームレートを示す情報は広視野用フィルタ選択情報に含んでいなくともよく、制御部52がフレームレートを保持し、制御部52からフレームレートに従って、フィルタの選択を示す情報を受けて光フィルタの選択を行うようにしてもよい。
また、露光開始のタイミングを示す情報を受けフィルタの選択を示す情報より選択した光フィルタを目標とした低軌道物体の追尾期間中、追尾期間と同じものとする場合も、フレームレートを示す制御情報は広視野用フィルタ選択情報に含んでいなくともよい。
Note that information indicating the frame rate does not necessarily have to be included in the wide-field filter selection information. The control unit 52 may hold the frame rate and receive information indicating the filter selection from the control unit 52 according to the frame rate to select the optical filter.
Furthermore, even if the optical filter selected based on information indicating the timing of exposure commencement and filter selection is to be the same as the tracking period for the low-orbit object being tracked, the control information indicating the frame rate does not need to be included in the wide-field filter selection information.

光フィルタは、狭視野用光選択手段12における光フィルタと同様に、波長フィルタまたは偏光フィルタのいずれか、もしくは両者である。
光フィルタとして波長フィルタを用いる場合、例えば、Sloan/SDSSシステム、Johnsonシステムなどのワイドバンドフィルタ、またはレーザー光の波長のみを透過するナローバンドフィルタなどを用いる。
また、光フィルタとして偏光フィルタを用いる場合、PLフィルタまたはC-PLフィルタを用いる。
The optical filter is either a wavelength filter or a polarization filter, or both, similar to the optical filter in the narrow-field light selection means 12.
When using wavelength filters as optical filters, for example, wideband filters such as the Sloan/SDSS system or Johnson system, or narrowband filters that transmit only the wavelength of laser light, are used.
Furthermore, when using a polarizing filter as an optical filter, a PL filter or a C-PL filter should be used.

恒星からの光を効率よく選択するために、恒星からの光の波長および偏光成分に合わせて波長フィルタおよび偏光フィルタを準備する。
フィルタホイールは複数枚の光フィルタが設置され、手動、もしくは制御部52からの広視野用フィルタ選択情報により自動で設置された複数枚の光フィルタから所望の光フィルタを選択する。
To efficiently select light from stars, wavelength filters and polarization filters are prepared to match the wavelength and polarization components of the light from the stars.
The filter wheel has multiple optical filters installed, and the desired optical filter is selected from the multiple optical filters installed manually or automatically based on wide-field filter selection information from the control unit 52.

例えば、フィルタホイールは制御部52からの広視野用フィルタ選択情報におけるフィルタの選択情報であるフィルタホイールにおけるフィルタースロットの番号を受け、回転させるなどして、指定のフィルタースロットが広視野結像光学系21の光軸上に来るようにする。
フィルタホイールにより選択された光フィルタが広視野結像光学系21によって集光された光から所望の光を選択して広視野用イメージセンサ23の受光面に導く。
For example, the filter wheel receives the filter selection information from the control unit 52, which is the filter slot number on the filter wheel, and rotates it so that the specified filter slot is on the optical axis of the wide-field imaging optical system 21.
The light filter selected by the filter wheel selects the desired light from the light focused by the wide-field imaging optical system 21 and guides it to the light-receiving surface of the wide-field image sensor 23.

広視野用イメージセンサ23は広視野用光選択手段22に接続され、受光面が広視野結像光学系21によって集光される焦点面上に設置される。
広視野用イメージセンサ23は受光面における2次元に広がった多数画素それぞれに対し、入射した光量または光強度をデジタル値に変換して2次元画像データである広視野画像データとして出力する。
The wide-field image sensor 23 is connected to the wide-field light selection means 22 and is positioned on the focal plane where the light-receiving surface is focused by the wide-field imaging optical system 21.
The wide-field image sensor 23 converts the amount or intensity of incident light into a digital value for each of the numerous pixels spread in two dimensions on the light-receiving surface and outputs it as wide-field image data, which is two-dimensional image data.

広視野用イメージセンサ23は広視野画像データの取得に際し、広視野用光選択手段22を介して入射される広視野結像光学系21からの光に対する露光開始のタイミング、露光時間、フレームレート、ゲイン、読み出しを行う画素などのセンサパラメータを制御部52から制御情報として入力され、制御部52により制御される。When acquiring wide-field image data, the wide-field image sensor 23 receives sensor parameters such as the exposure start timing, exposure time, frame rate, gain, and pixels to be read out as control information from the control unit 52 for light from the wide-field imaging optical system 21 incident via the wide-field light selection means 22, and is controlled by the control unit 52.

広視野用イメージセンサ23に制御部52から制御情報として入力される、広視野結像光学系21からの光に対する露光開始のタイミング、露光時間、フレームレート、ゲイン、読み出しを行う画素などのセンサパラメータを示す制御情報を、以下、広視野用光制御情報という。The control information input to the wide-field image sensor 23 from the control unit 52, which indicates sensor parameters such as the timing of exposure start for light from the wide-field imaging optical system 21, exposure time, frame rate, gain, and pixels to be read out, is hereinafter referred to as wide-field optical control information.

広視野用イメージセンサ23は制御部52からの広視野用光制御情報における露光開始のタイミングを示す情報を受けて追尾モードの撮像を開始する。
広視野用イメージセンサ23は制御部52からの広視野用光制御情報におけるフレームレートを示す情報を受け、追尾モードの終了まで、フレームレートに従って広視野用光制御情報における露光時間による撮像を連続的に行う。
The wide-field image sensor 23 receives information from the control unit 52 indicating the timing of exposure start in the wide-field optical control information and starts imaging in tracking mode.
The wide-field image sensor 23 receives information indicating the frame rate in the wide-field optical control information from the control unit 52, and continuously performs imaging according to the frame rate and exposure time in the wide-field optical control information until the end of the tracking mode.

なお、フレームレートを示す制御情報は広視野用光制御情報に含んでいなくともよく、制御部52が保持し、制御部52からのフレームレートに従って、制御部52から撮像を行う情報を受けて撮像を行うようにしてもよい。Furthermore, control information indicating the frame rate does not necessarily have to be included in the wide-field optical control information. The control unit 52 may hold this information and perform imaging based on the frame rate received from the control unit 52.

広視野用光制御情報と広視野用フィルタ選択情報は同期がとられており、広視野用光選択手段22と広視野用イメージセンサ23は広視野用フィルタ選択情報と広視野用光制御情報により同期をとられて制御される。
広視野用光制御情報と広視野用フィルタ選択情報の同期をとることにより、制御部52からの広視野用光制御情報におけるフレームレートに従って広視野画像データを取得するごとに使用するフィルタの変更を行うこともできる。
また、広視野用光制御情報と広視野用フィルタ選択情報は狭視野用光制御情報と狭視野用フィルタ選択情報と同期がとられている。
The wide-field optical control information and the wide-field filter selection information are synchronized, and the wide-field optical selection means 22 and the wide-field image sensor 23 are controlled in synchronization with the wide-field filter selection information and the wide-field optical control information.
By synchronizing the wide-field optical control information and the wide-field filter selection information, it is also possible to change the filter used each time wide-field image data is acquired according to the frame rate in the wide-field optical control information from the control unit 52.
Furthermore, the wide-field optical control information and wide-field filter selection information are synchronized with the narrow-field optical control information and narrow-field filter selection information.

広視野用イメージセンサ23は、狭視野用イメージセンサ13と同様に熱型のセンサまたは量子型センサを用いる。
広視野用イメージセンサ23として熱型のセンサを用いる場合、ボロメータまたはサーモパイルなどのセンサを用いる。
また、広視野用イメージセンサ23として量子型センサを用いる場合、CCDセンサまたはCMOSセンサの可視光帯のセンサ、あるいはInGaAsセンサ、InSbセンサ、またはHgCdTeセンサの赤外線帯のセンサなど半導体素子を用いて内部光電効果により光子を電子に変換して読み出すセンサを用いる。
The wide-field image sensor 23 uses a thermal or quantum sensor, similar to the narrow-field image sensor 13.
When using a thermal sensor as the wide-field image sensor 23, a sensor such as a bolometer or thermopile is used.
Furthermore, when a quantum-type sensor is used as the wide-field image sensor 23, a sensor is used that converts photons into electrons by the internal photoelectric effect using semiconductor elements such as a visible light band sensor of a CCD sensor or CMOS sensor, or an infrared band sensor of an InGaAs sensor, InSb sensor, or HgCdTe sensor.

狭視野結像光学系11は駆動装置40に搭載される。
狭視野用光選択手段12は狭視野結像光学系11に接続され、狭視野用イメージセンサ13は狭視野用光選択手段12に接続されるので、狭視野用光選択手段12と狭視野用イメージセンサ13も、結果として駆動装置40に搭載される。
要するに、狭視野光学望遠鏡10が駆動装置40に搭載される。
The narrow-field imaging optical system 11 is mounted on the drive unit 40.
The narrow-field light selection means 12 is connected to the narrow-field imaging optical system 11, and the narrow-field image sensor 13 is connected to the narrow-field light selection means 12. As a result, both the narrow-field light selection means 12 and the narrow-field image sensor 13 are mounted on the drive unit 40.
In short, the narrow-field optical telescope 10 is mounted on the drive unit 40.

広視野結像光学系21は狭視野結像光学系11に搭載されて固定されるので、結果として駆動装置40に搭載される。
広視野用光選択手段22は広視野結像光学系21に接続され、広視野用イメージセンサ23は広視野用光選択手段22に接続されるので、広視野用光選択手段22と広視野用イメージセンサ23も、結果として駆動装置40に搭載される。
要するに、広視野光学望遠鏡20が駆動装置40に搭載され、狭視野光学望遠鏡10と一体に駆動される。
Since the wide-field imaging optical system 21 is mounted and fixed on the narrow-field imaging optical system 11, it is consequently mounted on the drive unit 40.
The wide-field light selection means 22 is connected to the wide-field imaging optical system 21, and the wide-field image sensor 23 is connected to the wide-field light selection means 22. As a result, both the wide-field light selection means 22 and the wide-field image sensor 23 are mounted on the drive unit 40.
In short, the wide-field optical telescope 20 is mounted on the drive unit 40 and driven together with the narrow-field optical telescope 10.

駆動装置40は、制御部52からの二軸駆動量を示す入力値に応じて、搭載された狭視野光学望遠鏡10を、狭視野結像光学系11の指向方向を二軸で変更するように自動で駆動させる。
駆動装置40は狭視野光学望遠鏡10を二軸で自動で駆動させることにより、狭視野光学望遠鏡10における狭視野結像光学系11の指向方向を低軌道物体に追尾させることができる。
駆動装置40は二軸の回転軸を持つ、例えば、ドイツ式赤道儀、フォーク式赤道儀、または経緯台である。
The drive unit 40 automatically drives the mounted narrow-field optical telescope 10 to change the direction of the narrow-field imaging optical system 11 in two axes, according to the input value from the control unit 52 indicating the amount of drive in two axes.
The drive unit 40 automatically drives the narrow-field optical telescope 10 on two axes, thereby allowing the direction of the narrow-field imaging optical system 11 in the narrow-field optical telescope 10 to track low-orbit objects.
The drive unit 40 is a dual-axis rotating mount, such as a German equatorial mount, a fork equatorial mount, or an altazimuth mount.

低軌道物体の位置座標演算装置50は、低軌道物体の天球座標を得る位置座標演算機能と、狭視野光学望遠鏡10と広視野光学望遠鏡20に対して画像データの取得を制御するデータ取得用制御機能と、低軌道物体を追尾するために駆動装置40の駆動制御を行う追尾制御機能を有する。
位置座標演算装置50は追尾軌道決定部51と制御部52と画像記録部53と前処理部54と静止物体検出部55と移動物体検出部56と恒星座標比較部57と低軌道物体の位置座標決定部58を備える。
The low orbit object position coordinate calculation device 50 has a position coordinate calculation function to obtain the celestial coordinates of the low orbit object, a data acquisition control function to control the acquisition of image data from the narrow-field optical telescope 10 and the wide-field optical telescope 20, and a tracking control function to control the drive of the drive device 40 in order to track the low orbit object.
The position coordinate calculation device 50 includes a tracking trajectory determination unit 51, a control unit 52, an image recording unit 53, a preprocessing unit 54, a stationary object detection unit 55, a moving object detection unit 56, a stellar coordinate comparison unit 57, and a low-orbit object position coordinate determination unit 58.

位置座標演算装置50における位置座標演算機能は、狭視野光学望遠鏡10における狭視野用イメージセンサ13からの狭視野画像データと広視野光学望遠鏡20における広視野用イメージセンサ23からの広視野画像データが入力され、広視野用イメージセンサ23からの広視野画像データから検出した恒星の検出位置座標を取得し、狭視野用イメージセンサ13からの狭視野画像データから検出した低軌道物体の検出位置座標を取得し、取得した低軌道物体の検出位置座標を、取得した恒星の検出位置座標を用いて低軌道物体の天球座標を決定する機能である。The position coordinate calculation function in the position coordinate calculation device 50 receives narrow-field image data from the narrow-field image sensor 13 of the narrow-field optical telescope 10 and wide-field image data from the wide-field image sensor 23 of the wide-field optical telescope 20 as input. It acquires the detected position coordinates of stars detected from the wide-field image data from the wide-field image sensor 23, acquires the detected position coordinates of low-orbit objects detected from the narrow-field image data from the narrow-field image sensor 13, and uses the acquired detected position coordinates of stars to determine the celestial coordinates of the low-orbit objects.

位置座標演算装置50における位置座標演算機能は、画像記録部53と前処理部54と静止物体検出部55と移動物体検出部56と恒星座標比較部57と低軌道物体の位置座標決定部58により達成される。
画像記録部53は狭視野用イメージセンサ13からの狭視野画像データと広視野用イメージセンサ23からの広視野画像データが入力され、狭視野画像データに制御部52による狭視野用光制御情報が紐づけされた狭視野画像データと、広視野画像データに制御部52による広視野用光制御情報が紐づけされた広視野画像データを格納する。
The position coordinate calculation function in the position coordinate calculation device 50 is achieved by the image recording unit 53, the preprocessing unit 54, the stationary object detection unit 55, the moving object detection unit 56, the stellar coordinate comparison unit 57, and the position coordinate determination unit 58 for low orbital objects.
The image recording unit 53 receives narrow-field image data from the narrow-field image sensor 13 and wide-field image data from the wide-field image sensor 23, and stores narrow-field image data in which narrow-field optical control information from the control unit 52 is linked to the narrow-field image data, and wide-field image data in which wide-field optical control information from the control unit 52 is linked to the wide-field image data.

なお、狭視野画像データおよび広視野画像データは光制御情報が紐づけされた情報でなくてもよい。
また、画像記録部53にデータを格納することなく、狭視野用イメージセンサ13からの狭視野画像データと広視野用イメージセンサ23からの広視野画像データが前処理部54に直接入力されるものでもよい。
Furthermore, the narrow-field image data and wide-field image data do not necessarily have to be linked to optical control information.
Alternatively, the narrow-field image data from the narrow-field image sensor 13 and the wide-field image data from the wide-field image sensor 23 may be directly input to the preprocessor 54 without storing the data in the image recording unit 53.

前処理部54は画像記録部53に格納された狭視野画像データを取得し、狭視野画像データに対する暗電流の減算と狭視野画像データ内の感度むらの補正である前処理を行う。
前処理部54における暗電流の減算の前処理は、狭視野画像データからデータベースに格納されている暗電流画像データを差し引く処理である。
The preprocessing unit 54 acquires the narrow-field image data stored in the image recording unit 53 and performs preprocessing, which involves subtracting the dark current from the narrow-field image data and correcting for sensitivity unevenness within the narrow-field image data.
The preprocessing for dark current subtraction in the preprocessing unit 54 is the process of subtracting the dark current image data stored in the database from the narrow-field image data.

また、前処理部54における感度むらの補正の前処理は、狭視野画像データからデータベースに格納されているフラット画像データを用いて行う処理であり、狭視野画像データから暗電流画像データを減算した狭視野画像データにフラット画像データにより除算する処理である。Furthermore, the preprocessing for correcting sensitivity unevenness in the preprocessing unit 54 is performed using flat image data stored in the database from the narrow-field image data, and involves dividing the narrow-field image data obtained by subtracting the dark current image data from the narrow-field image data by the flat image data.

暗電流画像データは狭視野用イメージセンサ13に光を照射せず、狭視野画像データを得る際の狭視野用イメージセンサ13における動作温度および露光時間が同じ条件で事前に測定を行った画像データである。
フラット画像データは狭視野用イメージセンサ13の受光面上を光強度が一様に照射する条件で事前に測定を行った画像データである。
暗電流画像データおよびフラット画像データはデータベース60に格納される。
Dark current image data is image data obtained by pre-measuring the operating temperature and exposure time of the narrow-field image sensor 13 under the same conditions as when obtaining narrow-field image data, without irradiating the narrow-field image sensor 13 with light.
The flat image data is image data measured in advance under conditions in which the light-receiving surface of the narrow-field image sensor 13 is uniformly illuminated with light intensity.
Dark current image data and flat image data are stored in database 60.

また、前処理部54は画像記録部53に格納された広視野画像データを取得し、狭視野画像データに対する前処理と同様に広視野画像データに対し暗電流の減算と狭視野画像データ内の感度むらの補正である前処理を行ってもよい。
この場合も、広視野用イメージセンサ23に光を照射せず、広視野画像データを得る際の広視野用イメージセンサ23における動作温度および露光時間が同じ条件で事前に測定した暗電流画像データをデータベース60に格納する。
Furthermore, the preprocessing unit 54 may acquire wide-field image data stored in the image recording unit 53 and perform preprocessing on the wide-field image data, similar to the preprocessing for narrow-field image data, which involves subtracting dark current and correcting sensitivity unevenness within the narrow-field image data.
In this case as well, the wide-field image sensor 23 is not irradiated with light, and the dark current image data, which was measured in advance under the same operating temperature and exposure time conditions as when obtaining wide-field image data, is stored in the database 60.

広視野用イメージセンサ23の受光面上を光強度が一様に照射する条件で事前に測定したフラット画像データをデータベース60に格納する。
前処理部54はデータベース60に格納された暗電流画像データおよびフラット画像データそれぞれにより前処理を施した広視野画像データを得る。
Flat image data, measured in advance under conditions where the light-receiving surface of the wide-field image sensor 23 is uniformly illuminated with light intensity, is stored in the database 60.
The preprocessing unit 54 obtains wide-field image data by preprocessing the dark current image data and flat image data stored in the database 60, respectively.

静止物体検出部55は、前処理部54により前処理が施された狭視野画像データから点像を検出し、検出された点像の中心座標を低軌道物体の検出位置座標とする。
低軌道物体の検出位置座標は、狭視野用イメージセンサ13における画素それぞれを一つの位置座標と見做した複数の画素による座標群として表される。
The stationary object detection unit 55 detects point images from the narrow-field image data that has been preprocessed by the preprocessing unit 54, and uses the center coordinates of the detected point images as the detection position coordinates of the low-orbit object.
The detected position coordinates of low-orbit objects are represented as a group of coordinates consisting of multiple pixels, where each pixel in the narrow-field image sensor 13 is considered to be a single position coordinate.

静止物体検出部55における点像を検出するアルゴリズムは、周辺のスカイ領域の値のばらつきに対して十分に大きい値を持った連結画素を抽出し、抽出された連結画素の内、大気揺らぎの典型的な画像ボケサイズである5秒角を含む3秒角から10秒角の半値幅を持ち、連結画素の長軸と短軸の比が1.5以下の点像の中心座標を低軌道物体の検出位置座標とする。The algorithm for detecting point images in the stationary object detection unit 55 extracts connected pixels with values sufficiently large compared to the variation in values in the surrounding sky region. Among the extracted connected pixels, the center coordinates of the point image having a half-width of 3 to 10 arcseconds, including 5 arcseconds which is a typical image blur size for atmospheric turbulence, and having a ratio of the major axis to the minor axis of the connected pixel of 1.5 or less, are used as the detection position coordinates of the low orbit object.

狭視野用イメージセンサ13により得られる狭視野画像データは、追尾モードにおいて、暗い低軌道物体を検出するために1秒程度の露光を行った結果得られた狭視野画像データであるので、低軌道物体の典型的な速度を30分角/秒と仮定すると、狭視野画像データに恒星による線像が現れたとしても恒星による線像は30分角の長さを持つ線像として映るため、静止物体検出部55は狭視野画像データから恒星による線像を検出することはない。The narrow-field image data obtained by the narrow-field image sensor 13 is obtained as a result of exposure of about 1 second in tracking mode to detect faint low-orbit objects. Assuming that the typical velocity of low-orbit objects is 30 arcminutes/second, even if a stellar line image appears in the narrow-field image data, the stellar line image will appear as a line image with a length of 30 arcminutes. Therefore, the stationary object detection unit 55 will not detect a stellar line image from the narrow-field image data.

なお、追尾モードにおいて、狭視野用イメージセンサ13における露光時間として1秒程度の例を示したが、露光時間を0.01秒と短くしてもよい。
露光時間を0.01秒とした場合、狭視野画像データに恒星による線像が現れたとしても恒星による線像は18秒角の長さをもつ線像として映るため、典型的な大気揺らぎによる像拡がり5秒角と比べて十分長く、3秒角から10秒角の半値幅を持つ点像を検出対象としている静止物体検出部55は狭視野画像データから恒星による線像を検出することはない。
In tracking mode, an example of an exposure time of about 1 second for the narrow-field image sensor 13 was shown, but the exposure time may be shortened to 0.01 seconds.
If the exposure time is 0.01 seconds, even if a stellar line image appears in the narrow-field image data, the stellar line image will appear as a line image with a length of 18 arcseconds. This is considerably longer than the typical image broadening of 5 arcseconds due to atmospheric turbulence, and the stationary object detection unit 55, which detects point images with a full width at half maximum of 3 to 10 arcseconds, will not detect a stellar line image from the narrow-field image data.

したがって、3秒角から10秒角の半値幅を持ち、連結画素の長軸と短軸の比が1.5以下の点像を検出対象としている静止物体検出部55は狭視野画像データから低軌道物体による点像を精度高く検出できる。Therefore, the stationary object detection unit 55, which detects point images with a half-width of 3 arcseconds to 10 arcseconds and a ratio of the major axis to the minor axis of the connected pixels of 1.5 or less, can accurately detect point images caused by low-orbiting objects from narrow-field image data.

移動物体検出部56は、広視野用イメージセンサ23からの広視野画像データから線像を検出し、検出された線像の中心座標を恒星の検出位置座標とする。
恒星の検出位置座標は、広視野用イメージセンサ23における画素それぞれを一つの位置座標と見做した複数の画素による座標群として表される。
なお、移動物体検出部56が恒星の検出位置座標を検出するために用いる広視野画像データは前処理部54により前処理が施された広視野用イメージセンサ23からの広視野画像データでもよい。
The moving object detection unit 56 detects a line image from the wide-field image data from the wide-field image sensor 23, and uses the center coordinates of the detected line image as the detected position coordinates of the star.
The detected position coordinates of a star are represented as a group of coordinates consisting of multiple pixels, where each pixel in the wide-field image sensor 23 is considered to have a single position coordinate.
The wide-field image data used by the moving object detection unit 56 to detect the position coordinates of a star may also be wide-field image data from the wide-field image sensor 23 that has been pre-processed by the pre-processing unit 54.

移動物体検出部56における線像を検出するアルゴリズムは、静止物体検出部55の点像の検出と同様に、周辺のスカイ領域の値のばらつきに対して十分に大きい値を持った連結画素を抽出し、抽出された連結画素の内、連結画素の長軸が大気揺らぎの典型的な画像ボケサイズである5秒角よりも大きい10秒角以上の半値幅を持ち、連結画素の長軸と短軸の比が2以上の線像の中心座標を恒星の検出位置座標とする。The algorithm for detecting line images in the moving object detection unit 56, similar to the detection of point images in the stationary object detection unit 55, extracts connected pixels with values sufficiently large relative to the variation in values in the surrounding sky region. Among the extracted connected pixels, the center coordinates of the line image where the major axis of the connected pixel has a full width at half maximum of 10 arcseconds or more (larger than the typical image blur size of atmospheric turbulence, which is 5 arcseconds), and the ratio of the major axis to the minor axis of the connected pixel is 2 or more, are used as the detected position coordinates of the star.

広視野用イメージセンサ23により得られる広視野画像データは、追尾モードにおいて、0.01秒の露光時間を行った結果得られた広視野画像データであり、低軌道物体の典型的な速度を30分角/秒と仮定すると、恒星による線像が18秒角サイズの線像として映るため、10秒角以上の半値幅を持つ線像を検出対象としている移動物体検出部56は、広視野画像データから恒星による線像を検出でき、低軌道物体による点像を検出することはない。The wide-field image data obtained by the wide-field image sensor 23 is obtained as a result of an exposure time of 0.01 seconds in tracking mode. Assuming a typical velocity of low-orbit objects is 30 arcminutes/second, the line images from stars appear as line images with a size of 18 arcseconds. Therefore, the moving object detection unit 56, which detects line images with a half-width of 10 arcseconds or more, can detect line images from stars from the wide-field image data and will not detect point images from low-orbit objects.

したがって、10秒角以上の半値幅を持ち、長軸と短軸の比が2以上の線像を検出対象としている移動物体検出部56は広視野画像データから恒星による線像を精度高く検出できる。
なお、追尾モードにおいて、広視野用イメージセンサ23における露光時間を0.01秒以上にしたとしても、広視野画像データから得られる恒星による線像は長くなるのみで画素当たりのシグナルノイズ比がよくなるわけではない。
Therefore, the moving object detection unit 56, which detects line images with a full width at half maximum of 10 arcseconds or more and a ratio of major axis to minor axis of 2 or more, can accurately detect line images caused by stars from wide-field image data.
Furthermore, even if the exposure time for the wide-field image sensor 23 is increased to 0.01 seconds or more in tracking mode, the line images of stars obtained from the wide-field image data only become longer, and the signal-to-noise ratio per pixel does not improve.

ゆえに、広視野用イメージセンサ23における露光時間を短く、狭視野用イメージセンサ13における露光時間を広視野用イメージセンサ23における露光時間より長くするのが好ましい。
また、移動物体検出部56における検出対象としての線像の長軸と短軸の比の閾値は、低軌道物体の速度および広視野用イメージセンサ23における露光時間に依存した線像の長さを考慮して設定すればよい。
Therefore, it is preferable to shorten the exposure time for the wide-field image sensor 23 and lengthen the exposure time for the narrow-field image sensor 13 compared to the exposure time for the wide-field image sensor 23.
Furthermore, the threshold value for the ratio of the major axis to the minor axis of the line image as the object to be detected in the moving object detection unit 56 should be set considering the length of the line image, which depends on the velocity of the low-orbit object and the exposure time in the wide-field image sensor 23.

恒星座標比較部57は移動物体検出部56により得られた恒星の検出位置座標とデータベース60に格納された既知の恒星の天球座標データを比較し、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係を得る。
恒星における座標間の対応関係は、広視野用イメージセンサ23における画素の位置座標を天球座標系の天球座標に対応づけた座標間の対応関係を示す。
既知の恒星の天球座標データはUCAC4カタログなどのスターカタログ記載のデータであり、赤道座標系(赤経赤緯)または銀河座標系(銀経銀緯)により表わされる。
The stellar coordinate comparison unit 57 compares the detected position coordinates of the star obtained by the moving object detection unit 56 with the celestial coordinate data of known stars stored in the database 60, and obtains the correspondence between the detected position coordinates of the star and the celestial coordinate data of the star.
The correspondence between coordinates in a star represents the correspondence between coordinates obtained by mapping the position coordinates of pixels in the wide-field image sensor 23 to celestial coordinates in the celestial coordinate system.
The celestial coordinate data for known stars is the data listed in star catalogs such as the UCAC4 catalog, and is expressed in either the equatorial coordinate system (right ascension and declination) or the galactic coordinate system (galactic longitude and latitude).

恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係は、例えば、次のようにして得ている。
恒星の天球座標データは赤経および赤緯または方位および高度など主に角度を用いてあらわされる。
一方、恒星の検出位置座標は、広視野用イメージセンサ23における画素それぞれを一つの位置座標と見做した画素の位置、つまりx座標とy座標の二次元平面による座標により表される。
The correspondence between the celestial sphere coordinate data of a star and the detected position coordinates of the star is obtained, for example, as follows:
The celestial coordinate data of a star is expressed primarily using angles, such as right ascension and declination, or azimuth and altitude.
On the other hand, the detected position coordinates of a star are represented by the position of each pixel in the wide-field image sensor 23, which is considered as a single position coordinate, that is, by coordinates in a two-dimensional plane of x and y coordinates.

したがって、広視野用イメージセンサ23における広視野画像データの二次元平面により表される座標と恒星の天球座標データとの対応関係を例えば対応関係テーブルとして予め得ておく。
恒星座標比較部57は移動物体検出部56により得られた恒星の検出位置座標を対応関係テーブルを用いて恒星の天球座標データと比較することにより、恒星が映っている画素の位置座標が天球面上でどの方角に対応しているかがわかる。
その結果、広視野画像データの各画素が天球面上でどの方角に対応しているかわかる。
Therefore, the correspondence between the coordinates represented by the two-dimensional plane of the wide-field image data from the wide-field image sensor 23 and the celestial coordinate data of the stars is obtained in advance, for example, as a correspondence table.
The stellar coordinate comparison unit 57 compares the detected position coordinates of the star obtained by the moving object detection unit 56 with the celestial sphere coordinate data of the star using a correspondence table, thereby determining which direction on the celestial sphere corresponds to the position coordinates of the pixels in which the star is reflected.
As a result, it becomes possible to determine which direction each pixel of the wide-field image data corresponds to on the celestial sphere.

低軌道物体の位置座標決定部58は静止物体検出部55による低軌道物体の検出位置座標を恒星座標比較部57の比較結果、つまり恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係に基づき低軌道物体の天球座標を同定する。
位置座標決定部58は、静止物体検出部55による低軌道物体の検出位置座標と、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係と、データベース60に格納された、狭視野用イメージセンサ13における狭視野画像データに対する画素の位置座標と広視野用イメージセンサ23における広視野画像データに対する画素の位置座標との画像データにおける座標間の対応関係とを用い、低軌道物体の検出位置座標を恒星における座標間の対応関係および光学系の画像データ座標間の対応関係に基づき低軌道物体の天球座標を決定する。
The low-orbit object position coordinate determination unit 58 identifies the celestial coordinates of the low-orbit object based on the comparison result of the stellar coordinate comparison unit 57, that is, the correspondence between the detected position coordinates of the stellar object and the celestial coordinate data of the stellar object.
The position coordinate determination unit 58 uses the position coordinates detected by the stationary object detection unit 55, the correspondence between the detected position coordinates of the stars and the celestial sphere coordinate data of the stars, and the correspondence between the position coordinates of the pixels in the image data stored in the database 60, specifically the position coordinates of the pixels in the narrow-field image data from the narrow-field image sensor 13 and the position coordinates of the pixels in the wide-field image data from the wide-field image sensor 23, to determine the celestial sphere coordinates of the detected position coordinates of the low-orbit objects based on the correspondence between the coordinates in the stars and the correspondence between the image data coordinates of the optical system.

光学系の画像データ座標間の対応関係は、広視野結像光学系21を光軸調整装置30により光軸調整して狭視野結像光学系11に固定する際に、狭視野用イメージセンサ13における狭視野画像データに対する画素の位置座標と広視野用イメージセンサ23における広視野画像データに対する画素の位置座標を測定したデータに基づく。
光学系の画像データ座標間の対応関係のデータはデータベース60に格納される。
The correspondence between image data coordinates in the optical system is based on data measured when the wide-field imaging optical system 21 is fixed to the narrow-field imaging optical system 11 by adjusting its optical axis using the optical axis adjustment device 30, specifically the position coordinates of pixels in the narrow-field image sensor 13 relative to the narrow-field image data and the position coordinates of pixels in the wide-field image sensor 23 relative to the wide-field image data.
The data representing the correspondence between image data coordinates of the optical system is stored in the database 60.

測定した光学系の画像データ座標間の対応関係は、狭視野用イメージセンサ13からの狭視野画像データと広視野用イメージセンサ23からの広視野画像データの座標間の対応関係に相当する。
光学系の画像データ座標間の対応関係は、例えば、目標となる低軌道物体を視野中心として視野0.5deg×0.5degの狭視野光学望遠鏡と視野8deg×8deg程度の広視野光学望遠鏡において、狭視野用イメージセンサ13における狭視野画像データと広視野用イメージセンサ23における広視野画像データとの座標間の対応関係である。
The correspondence between the coordinates of the measured optical system's image data corresponds to the correspondence between the coordinates of the narrow-field image data from the narrow-field image sensor 13 and the wide-field image data from the wide-field image sensor 23.
The correspondence between image data coordinates in an optical system is, for example, the correspondence between the coordinates of narrow-field image data from the narrow-field image sensor 13 and wide-field image data from the wide-field image sensor 23 in a narrow-field optical telescope with a field of view of 0.5 deg × 0.5 deg and a wide-field optical telescope with a field of view of approximately 8 deg × 8 deg, with the target low-orbit object as the center of the field of view.

低軌道物体の位置座標決定部58による低軌道物体の天球座標の同定、つまり、低軌道物体の天球座標の具体的な決定は、例えば、以下のように行われる。
光学系の画像データ座標間の対応関係、つまり、狭視野画像データと広視野画像データとの座標間の対応関係と、広視野画像データの座標と恒星の天球座標データとの対応関係を基に、狭視野画像データの座標と天球座標データとの対応関係を決定する。
The identification of the celestial coordinates of the low-orbit object by the low-orbit object position coordinate determination unit 58, that is, the specific determination of the celestial coordinates of the low-orbit object, is performed, for example, as follows.
Based on the correspondence between image data coordinates in the optical system, that is, the correspondence between the coordinates of narrow-field image data and wide-field image data, and the correspondence between the coordinates of the wide-field image data and the celestial sphere coordinate data of stars, the correspondence between the coordinates of the narrow-field image data and the celestial sphere coordinate data is determined.

次に、静止物体検出部55による低軌道物体の検出位置座標を、狭視野画像データの座標と天球座標データとの対応関係を用いて天球座標データと比較することにより、低軌道物体の天球座標を決定する。Next, the celestial coordinates of the low-orbit object are determined by comparing the detected position coordinates of the low-orbit object by the stationary object detection unit 55 with the celestial coordinate data using the correspondence between the coordinates of the narrow-field image data and the celestial coordinate data.

位置座標演算装置50におけるデータ取得用制御機能は、狭視野光学望遠鏡10における広視野用光選択手段22および狭視野用イメージセンサ13と広視野光学望遠鏡20における広視野用光選択手段22および広視野用イメージセンサ23を制御し、狭視野用イメージセンサ13から低軌道物体による点像を取得しやすい狭視野画像データを、広視野用イメージセンサ23から恒星の線像を取得しやすい広視野画像データを得る制御機能である。The data acquisition control function in the position coordinate calculation device 50 controls the wide-field light selection means 22 and narrow-field image sensor 13 in the narrow-field optical telescope 10, and the wide-field light selection means 22 and wide-field image sensor 23 in the wide-field optical telescope 20, thereby obtaining narrow-field image data that is easily acquired from the narrow-field image sensor 13 as point images of low-orbital objects, and wide-field image data that is easily acquired from the wide-field image sensor 23 as line images of stars.

位置座標演算装置50におけるデータ取得用制御機能は制御部52により達成される。
制御部52は狭視野用光選択手段12に対して狭視野用フィルタ選択情報を与え、狭視野結像光学系11からの光に対する露光開始のタイミングにおいて狭視野用光選択手段12に適切なフィルタを選択させる。
制御部52は狭視野用イメージセンサ13に対して狭視野用光制御情報を与え、狭視野結像光学系11からの光に対する露光開始のタイミング、フレームレートおよび露光時間において狭視野用イメージセンサ13から低軌道物体を明るい点像として検出可能な狭視野画像データを出力させる。
The data acquisition control function in the position coordinate calculation device 50 is achieved by the control unit 52.
The control unit 52 provides narrow-field light selection means 12 with narrow-field filter selection information, causing the narrow-field light selection means 12 to select an appropriate filter at the timing of the start of exposure for light from the narrow-field imaging optical system 11.
The control unit 52 provides narrow-field light control information to the narrow-field image sensor 13, causing the narrow-field image sensor 13 to output narrow-field image data that can detect low-orbit objects as bright point images, based on the timing of exposure start, frame rate, and exposure time for light from the narrow-field imaging optical system 11.

制御部52は広視野用光選択手段22に対して広視野用フィルタ選択情報を与え、広視野結像光学系21からの光に対する露光開始のタイミングにおいて広視野用光選択手段22に適切なフィルタを選択させる。
制御部52は広視野用イメージセンサ23に対して広視野用光制御情報を与え、広視野結像光学系21からの光に対する露光開始のタイミング、フレームレートおよび露光時間において広視野用イメージセンサ23から恒星の位置を広い視野において検出可能な広視野画像データを出力させる。
制御部52は狭視野用イメージセンサ13と狭視野用イメージセンサ13と広視野用光選択手段22と広視野用イメージセンサ23を同期して制御する。
The control unit 52 provides wide-field light selection means 22 with wide-field filter selection information, causing the wide-field light selection means 22 to select an appropriate filter at the timing of exposure start for light from the wide-field imaging optical system 21.
The control unit 52 provides wide-field optical control information to the wide-field image sensor 23, causing the wide-field image sensor 23 to output wide-field image data capable of detecting the position of stars over a wide field of view, based on the timing of exposure start, frame rate, and exposure time for light from the wide-field imaging optical system 21.
The control unit 52 synchronously controls the narrow-field image sensor 13, the wide-field light selection means 22, and the wide-field image sensor 23.

位置座標演算装置50における追尾制御機能は目標となる低軌道物体の情報により低軌道物体の予想軌道を推定し、推定した予想軌道および駆動装置40からの現在の狭視野結像光学系11の指向方向により二軸駆動量を算出し、算出した二軸駆動量を駆動装置40に与え、駆動装置40を二軸駆動量により制御して狭視野結像光学系11の指向方向を低軌道物体の予想軌道に合わせる機能である。The tracking control function in the position coordinate calculation device 50 estimates the predicted trajectory of the target low-orbit object based on information about the low-orbit object, calculates the two-axis drive amount based on the estimated predicted trajectory and the current directional direction of the narrow-field imaging optical system 11 from the drive device 40, provides the calculated two-axis drive amount to the drive device 40, and controls the drive device 40 by the two-axis drive amount to adjust the directional direction of the narrow-field imaging optical system 11 to match the predicted trajectory of the low-orbit object.

位置座標演算装置50における追尾制御機能は制御部52および追尾軌道決定部51により達成される。
追尾軌道決定部51は目標となる低軌道物体の情報により低軌道物体における時系列の予想軌道座標を推定する。
The tracking control function in the position coordinate calculation device 50 is achieved by the control unit 52 and the tracking trajectory determination unit 51.
The tracking trajectory determination unit 51 estimates the time-series predicted trajectory coordinates of the target low Earth orbit object based on information about the low Earth orbit object.

目標となる低軌道物体の情報は、観測モードにおいて、狭視野光学望遠鏡10による狭視野画像データから観測された低軌道物体における狭視野画像データの座標系における観測位置の座標位置情報である。
低軌道物体における時系列の予想軌道座標は座標系における観測位置の座標位置情報を中心とした天球座標に変換した情報である。
The information about the target low Earth orbit object is, in observation mode, the coordinate position information of the observation position in the coordinate system of the narrow-field image data of the low Earth orbit object, as observed from the narrow-field image data obtained by the narrow-field optical telescope 10.
The time-series predicted orbital coordinates for low-Earth orbit objects are information converted into celestial coordinates centered on the coordinate information of the observed position in the coordinate system.

観測位置は観測者が観測を行う位置における緯度、経度、高度を意味する。
一方、目標となる低軌道物体の情報における予想軌道座標は、低軌道物体が実際に通過することが予想される位置における緯度、経度、高度をもとに低軌道物体の通過が観測される天球座標値に変換された座標である。
The observation location refers to the latitude, longitude, and altitude of the position where the observer is conducting the observation.
On the other hand, the predicted orbital coordinates in the information of the target low Earth orbit object are coordinates that have been converted from the latitude, longitude, and altitude of the position where the low Earth orbit object is expected to actually pass through to celestial coordinate values where the passage of the low Earth orbit object will be observed.

目標となる低軌道物体の情報を地心座標系におけるケプラー軌道要素の情報を含む二行軌道要素(Two-line Elements:TLE)とした場合、追尾軌道決定部51は二行軌道要素を基に観測された低軌道物体の予想軌道の計算を行う。
追尾軌道決定部51は得られた予想軌道座標を観測された低軌道物体における観測位置の座標位置情報を中心とした天球座標に変換し、観測された低軌道物体における時系列の予想軌道座標を推定する。
If the information of the target low Earth orbit object is defined as two-line elements (TLEs) that include information of Kepler orbital elements in the geocentric coordinate system, the tracking trajectory determination unit 51 calculates the predicted trajectory of the low Earth orbit object based on the observed two-line elements.
The tracking trajectory determination unit 51 converts the obtained predicted trajectory coordinates into celestial sphere coordinates centered on the coordinate information of the observed position of the low Earth orbit object, and estimates the time-series predicted trajectory coordinates of the observed low Earth orbit object.

時系列の予想軌道座標は、例えば、時刻tから時刻tまでのN回、時系列に推定される座標とする。Nは2以上の自然数である。
時刻tは、観測モードにおいて、狭視野光学望遠鏡10による狭視野画像データから低軌道物体による点像が観測された時刻tから1フレーム進んだ時刻であり、時刻tは追尾軌道決定部51による予想軌道座標が狭視野光学望遠鏡10による低軌道物体の観測可能な範囲を超える直前の時刻である。
The predicted trajectory coordinates in the time series are, for example, the coordinates estimated in the time series N times from time t1 to time tN , where N is a natural number greater than or equal to 2.
Time t1 is the time one frame after time t0 , when a point image of a low-orbit object was observed from the narrow-field image data obtained by the narrow-field optical telescope 10 in observation mode, and time tN is the time just before the predicted orbit coordinates determined by the tracking orbit determination unit 51 exceed the observable range of the low-orbit object by the narrow-field optical telescope 10.

時刻t(n=1~N)の間隔はフレームレートに従った間隔である。
追尾軌道決定部51により用いられる計算アルゴリズムはSGP4(Simplified General Perturbations Satellite Orbit Model 4)である。
なお、予想軌道座標における時系列に推定される座標をフレームレートに従った間隔としているが、フレームレートに従った間隔の整数分の1でもよい。
The interval between time points t and n (n = 1 to N) is determined by the frame rate.
The calculation algorithm used by the tracking trajectory determination unit 51 is SGP4 (Simplified General Perturbations Satellite Orbit Model 4).
Note that while the time-series estimated coordinates in the predicted orbit coordinates are given intervals according to the frame rate, they may also be integer fractions of the interval according to the frame rate.

制御部52は、追尾軌道決定部51からの予想軌道座標と駆動装置40からの狭視野結像光学系11の指向方向を基に、予想軌道座標を推定した時刻毎の二軸駆動量を計算し、計算した二軸駆動量を示す駆動制御信号を駆動装置40に与える。
時刻t毎の二軸駆動量は、時刻tに追尾軌道決定部51からの予想軌道座標において予想された低軌道物体の位置座標と駆動装置40からの狭視野結像光学系11の指向方向の位置座標の差分により得られる離隔の情報に基づき演算された二軸駆動量である。
The control unit 52 calculates the two-axis drive amount for each time step in estimating the predicted trajectory coordinates based on the predicted trajectory coordinates from the tracking trajectory determination unit 51 and the directional direction of the narrow-field imaging optical system 11 from the drive unit 40, and provides the drive control signal indicating the calculated two-axis drive amount to the drive unit 40.
The two-axis drive amount at each time tn is calculated based on separation information obtained from the difference between the position coordinates of the low-orbit object predicted in the predicted orbit coordinates from the tracking orbit determination unit 51 at time tn and the position coordinates of the narrow-field imaging optical system 11 in the direction of direction from the drive device 40.

制御部52は二軸駆動量を示す駆動制御信号を駆動装置40に与えることにより、駆動装置40が狭視野結像光学系11の指向方向を目標となる低軌道物体を追尾させる制御を行う。
なお、時刻tにおいて、駆動制御信号により制御された駆動装置40の駆動により、狭視野用イメージセンサ13による狭視野画像データから低軌道物体による点像が外れてしまう場合、追尾軌道決定部51からの予想軌道座標において予想された低軌道物体の位置座標にオフセットを設けて離隔の情報をオフセット量分変更して二軸駆動量を変更し、低軌道物体が狭視野用イメージセンサ13における受光面内に入るようにする。
The control unit 52 provides the drive device 40 with a drive control signal indicating the amount of two-axis drive, thereby controlling the drive device 40 to track the target low-orbit object in the direction of the narrow-field imaging optical system 11.
Furthermore, at time tn , if the drive of the drive device 40 controlled by the drive control signal causes the point image of a low-orbit object to move out of the narrow-field image data from the narrow-field image sensor 13, an offset is added to the predicted position coordinates of the low-orbit object in the predicted trajectory coordinates from the tracking trajectory determination unit 51, and the separation information is changed by the offset amount to change the two-axis drive amount so that the low-orbit object enters the light-receiving surface of the narrow-field image sensor 13.

駆動装置40は制御部52からの駆動制御信号である二軸駆動量を二つの駆動軸の駆動角度量として駆動する。駆動装置40は時刻tから時刻tまで二つの駆動軸の駆動角度量の操作を連続的に行うことで、狭視野結像光学系11による目標となる低軌道物体の追尾が行われる。
最終的に、追尾軌道決定部51からの予想軌道座標が狭視野結像光学系11による観測可能な範囲を超えた際に駆動装置40の駆動による狭視野結像光学系11による目標となる低軌道物体の追尾が終了する。
The drive unit 40 drives the two drive axes using the drive control signals from the control unit 52 as drive angle amounts for the two drive axes. The drive unit 40 continuously manipulates the drive angle amounts for the two drive axes from time t1 to time tN , thereby enabling the narrow-field imaging optical system 11 to track the target low-orbit object.
Finally, when the predicted trajectory coordinates from the tracking trajectory determination unit 51 exceed the observable range of the narrow-field imaging optical system 11, the tracking of the target low-orbit object by the narrow-field imaging optical system 11, driven by the drive device 40, ends.

次に、実施の形態1に係る低軌道物体の座標決定装置の動作について図2から図4を用いて説明する。
図2に示すように、事前準備として、ステップST01において、狭視野結像光学系11の光軸と広視野結像光学系21の光軸を光軸調整装置30により調整し、狭視野結像光学系11の光軸と広視野結像光学系21の光軸を光軸調整装置30により平行にして広視野光学望遠鏡20を狭視野光学望遠鏡10に固定する。
広視野光学望遠鏡20の光軸を調整し、広視野光学望遠鏡20を狭視野光学望遠鏡10に固定した際に狭視野光学望遠鏡10の視野と広視野光学望遠鏡20の視野を測定したことによる光学系における視野間の対応関係をデータベース60に保存する。
Next, the operation of the coordinate determination device for low orbit objects according to Embodiment 1 will be explained using Figures 2 to 4.
As shown in Figure 2, as a preliminary step, in step ST01, the optical axis of the narrow-field imaging optical system 11 and the optical axis of the wide-field imaging optical system 21 are adjusted using the optical axis adjustment device 30, and the optical axis of the narrow-field imaging optical system 11 and the optical axis of the wide-field imaging optical system 21 are made parallel using the optical axis adjustment device 30, and the wide-field optical telescope 20 is fixed to the narrow-field optical telescope 10.
The optical axis of the wide-field optical telescope 20 is adjusted, and when the wide-field optical telescope 20 is fixed to the narrow-field optical telescope 10, the field of view of the narrow-field optical telescope 10 and the field of view of the wide-field optical telescope 20 are measured, and the correspondence between the fields of view in the optical system is stored in the database 60.

ステップST02において、狭視野光学望遠鏡10が観測モードにおいて低軌道物体を検出すると、追尾軌道決定部51が目標となる低軌道物体の時系列の予想軌道座標を推定する。
ステップST01およびステップST02が終了すると、位置座標演算装置50における追尾制御機能、データ取得用制御機能、および位置座標演算機能の処理がなされる。
In step ST02, when the narrow-field optical telescope 10 detects a low-Earth orbit object in observation mode, the tracking trajectory determination unit 51 estimates the time-series predicted trajectory coordinates of the target low-Earth orbit object.
Once steps ST01 and ST02 are completed, the tracking control function, data acquisition control function, and position coordinate calculation function of the position coordinate calculation device 50 are processed.

追尾制御機能は、ループ開始(loop start)により、時刻tにおける駆動装置40に対する二軸駆動量の算出を開始する。
ステップST11において、制御部52が時刻tにおける追尾軌道決定部51が推定した目標となる低軌道物体の時系列の予想軌道座標と駆動装置40からの現在の指向方向の座標との差分を計算し、時刻tにおける駆動装置40に対する二軸駆動量を算出する。
The tracking control function starts calculating the two-axis drive amount for the drive unit 40 at time t1 when the loop starts.
In step ST11, the control unit 52 calculates the difference between the time-series predicted trajectory coordinates of the target low-orbit object estimated by the tracking trajectory determination unit 51 at time t1 and the coordinates of the current direction of orientation from the drive unit 40, and calculates the two-axis drive amount for the drive unit 40 at time t1 .

ステップST12において、駆動装置40は、制御部52からの駆動制御信号である二軸駆動量を示す入力値に応じて駆動され、搭載された狭視野光学望遠鏡10を狭視野結像光学系11の指向方向を二軸で変更するようにして目標となる低軌道物体を自動で追尾させる。
ステップST12において、時刻tにおける駆動装置40に対する駆動が終了すると、ループ終了(loop end)に進み、時刻tは追尾軌道決定部51からの予想軌道座標が狭視野結像光学系11による観測可能な範囲を超えた時刻ではないので、ループ開始(loop start)に戻り、ステップST11およびステップST12による駆動装置40の駆動制御を、時刻tが追尾軌道決定部51からの予想軌道座標が狭視野結像光学系11による観測可能な範囲を超える直前の時刻tまで繰り返し行われる。
In step ST12, the drive device 40 is driven according to an input value indicating the two-axis drive amount, which is a drive control signal from the control unit 52, and the mounted narrow-field optical telescope 10 automatically tracks a target low-orbit object by changing the direction of the narrow-field imaging optical system 11 on two axes.
In step ST12, when the drive to the drive device 40 at time t1 is completed, the process proceeds to the end of the loop. Since time t1 is not the time when the predicted trajectory coordinates from the tracking trajectory determination unit 51 exceed the observable range of the narrow-field imaging optical system 11, the process returns to the start of the loop. The drive control of the drive device 40 in steps ST11 and ST12 is repeated until time tN , just before time tn exceeds the observable range of the narrow-field imaging optical system 11.

時刻tにおけるステップST11およびステップST12による駆動装置40の駆動制御が終了すると、ループ終了(loop end)において、位置座標演算装置50における追尾制御機能が終了される。
ループ開始(loop start)において、追尾制御機能が開始すると、位置座標演算装置50におけるデータ取得用制御機能が開始する。
When the drive control of the drive unit 40 by steps ST11 and ST12 at time t N is completed, the tracking control function of the position coordinate calculation unit 50 is terminated at the end of the loop.
When the loop starts, the tracking control function is initiated, and the data acquisition control function in the position coordinate calculation device 50 is initiated.

図3に示すように、狭視野光学望遠鏡10による狭視野画像データから低軌道物体による点像が観測された時刻tから、狭視野光学望遠鏡10および広視野光学望遠鏡20が追尾モードにおける撮影を開始する。
追尾制御機能が開始しデータ取得用制御機能により撮影開始になると、ステップST21において、制御部52が、狭視野用光選択手段12に対する狭視野用フィルタ選択情報、狭視野用イメージセンサ13に対する狭視野用光制御情報、広視野用光選択手段22に対する広視野用フィルタ選択情報、および広視野用イメージセンサ23に対する広視野用光制御情報を設定する。
As shown in Figure 3, from time t0 when a point image of a low-orbit object is observed from the narrow-field optical telescope 10's narrow-field image data, the narrow-field optical telescope 10 and the wide-field optical telescope 20 begin imaging in tracking mode.
When the tracking control function starts and the data acquisition control function starts shooting, in step ST21, the control unit 52 sets narrow-field filter selection information for the narrow-field light selection means 12, narrow-field light control information for the narrow-field image sensor 13, wide-field filter selection information for the wide-field light selection means 22, and wide-field light control information for the wide-field image sensor 23.

制御部52は、観測モードにおいて、狭視野光学望遠鏡10による狭視野画像データから低軌道物体による点像が観測された、撮像を行う直前の時刻tにおいて、狭視野用光選択手段12に対して狭視野用フィルタ選択情報におけるフィルタの選択を示す情報を与える。
狭視野用光選択手段12はフィルタの選択を示す情報に基づいた光フィルタを選択し、選択した光フィルタが狭視野結像光学系11の光軸上に来るようにする。
In observation mode, at time t0 immediately before imaging, when a point image of a low-orbit object is observed from the narrow-field image data obtained by the narrow-field optical telescope 10, the control unit 52 provides the narrow-field light selection means 12 with information indicating the selection of a filter in the narrow-field filter selection information.
The narrow-field light selection means 12 selects an optical filter based on information indicating filter selection, and ensures that the selected optical filter is on the optical axis of the narrow-field imaging optical system 11.

同様に、制御部52は、時刻tにおいて、広視野用光選択手段22に対して広視野用フィルタ選択情報におけるフィルタの選択を示す情報を与える。
広視野用光選択手段22はフィルタの選択を示す情報に基づいた光フィルタを選択し、選択した光フィルタが広視野結像光学系21の光軸上に来るようにする。
Similarly, at time t0 , the control unit 52 provides the wide-field light selection means 22 with information indicating the selection of a filter in the wide-field filter selection information.
The wide-field light selection means 22 selects an optical filter based on information indicating filter selection, and ensures that the selected optical filter is on the optical axis of the wide-field imaging optical system 21.

制御部52は、時刻tにおいて、狭視野用イメージセンサ13に対して狭視野用光制と御情報におけるセンサパラメータを示す情報を与える。
狭視野用イメージセンサ13はセンサパラメータを示す情報によりゲインおよび読み出しを行う画素などが設定される。
同様に、制御部52は、時刻tにおいて、広視野用イメージセンサ23に対して広視野用光制御情報におけるセンサパラメータを示す情報を与える。
広視野用イメージセンサ23はセンサパラメータを示す情報によりゲインおよび読み出しを行う画素などが設定される。
At time t0 , the control unit 52 provides the narrow-field image sensor 13 with information indicating sensor parameters for narrow-field optical control.
The narrow-field image sensor 13 has its gain and readout pixels set based on information indicating sensor parameters.
Similarly, at time t0 , the control unit 52 provides the wide-field image sensor 23 with information indicating the sensor parameters in the wide-field optical control information.
The wide-field image sensor 23 has its gain and readout pixels set based on information indicating sensor parameters.

設定が終了するとステップST22において、制御部52からの狭視野用光制御情報に従って狭視野用イメージセンサ13が設定された露光時間による撮像を行う。
狭視野用光制御情報が示すフレームレートに従ってステップST21に戻り、ステップST21およびステップST22を追尾軌道決定部51からの予想軌道座標が狭視野結像光学系11による観測可能な範囲を超える直前の時刻tまで繰り返し、狭視野用イメージセンサ13はN枚の狭視野画像データを出力する。
Once the settings are complete, in step ST22, the narrow-field image sensor 13 performs imaging with the set exposure time according to the narrow-field light control information from the control unit 52.
The process returns to step ST21 according to the frame rate indicated by the narrow-field optical control information, and steps ST21 and ST22 are repeated until time tN just before the predicted trajectory coordinates from the tracking trajectory determination unit 51 exceed the observable range of the narrow-field imaging optical system 11, and the narrow-field image sensor 13 outputs N narrow-field image data.

また、ステップST22において、制御部52からの広視野用光制御情報に従って広視野用イメージセンサ23が設定された露光時間による撮像を行う。
広視野用光制御情報が示すフレームレートに従ってステップST21に戻り、ステップST21およびステップST22を時刻tまで繰り返し、広視野用イメージセンサ23はN枚の広視野画像データを出力する。
Furthermore, in step ST22, the wide-field image sensor 23 performs imaging with a set exposure time according to the wide-field optical control information from the control unit 52.
The process returns to step ST21 according to the frame rate indicated by the wide-field optical control information, and steps ST21 and ST22 are repeated until time tN , during which the wide-field image sensor 23 outputs N wide-field image data.

目標とする低軌道物体を追尾している期間、狭視野用イメージセンサ13からの狭視野画像データおよび広視野用イメージセンサ23からの広視野画像データが出力され、追尾している期間が終了すると、狭視野光学望遠鏡10および広視野光学望遠鏡20が追尾モードにおける撮影を終了する。During the period of tracking the target low-orbit object, narrow-field image data is output from the narrow-field image sensor 13 and wide-field image data is output from the wide-field image sensor 23. When the tracking period ends, the narrow-field optical telescope 10 and the wide-field optical telescope 20 cease imaging in tracking mode.

狭視野用イメージセンサ13からの狭視野画像データおよび広視野用イメージセンサ23からの広視野画像データが出力されると、図4に示すように、位置座標演算装置50における位置座標演算機能が開始する。
ステップST31において、狭視野用イメージセンサ13からの狭視野画像データおよび広視野用イメージセンサ23からの広視野画像データが位置座標演算装置50に入力されると、狭視野画像データに狭視野用光制御情報が紐づけされた狭視野画像データとして、広視野画像データに広視野用光制御情報が紐づけされた広視野画像データとして画像記録部53に格納される。
When narrow-field image data from the narrow-field image sensor 13 and wide-field image data from the wide-field image sensor 23 are output, the position coordinate calculation function in the position coordinate calculation device 50 starts, as shown in Figure 4.
In step ST31, when the narrow-field image data from the narrow-field image sensor 13 and the wide-field image data from the wide-field image sensor 23 are input to the position coordinate calculation device 50, the narrow-field image data is stored in the image recording unit 53 as narrow-field image data with narrow-field optical control information linked to it, and the wide-field image data is stored in the image recording unit 53 as wide-field image data with wide-field optical control information linked to it.

なお、位置座標演算装置50に入力されるそれぞれが連続的に撮影されたN枚の画像データからなる狭視野画像データおよび広視野画像データは、時刻t毎に位置座標演算装置50に入力されてもよく、時刻tから時刻tまでのN枚の画像データが一括して位置座標演算装置50に入力されてもよい。
要するに、目標とする低軌道物体を追尾している期間内に撮影された狭視野画像データおよび広視野画像データすべてが画像記録部53に格納されればよい。
The narrow-field image data and wide-field image data, each consisting of N images captured in succession and input to the position coordinate calculation device 50, may be input to the position coordinate calculation device 50 at time t n intervals, or the N images from time t 0 to time t N may be input to the position coordinate calculation device 50 all at once.
In short, all narrow-field and wide-field image data captured during the period of tracking the target low-orbit object should be stored in the image recording unit 53.

ステップST32において、前処理部54は画像記録部53に格納された狭視野画像データを取得し、狭視野画像データに対し暗電流画像データを基に暗電流の差し引きと、フラット画像データを基に狭視野画像データ内の感度むらの補正である前処理を行う。
同様に、前処理部54は画像記録部53に格納された広視野画像データに対し暗電流画像データを基に暗電流の差し引きと、フラット画像データを基に狭視野画像データ内の感度むらの補正である前処理を行う。
In step ST32, the preprocessing unit 54 acquires the narrow-field image data stored in the image recording unit 53 and performs preprocessing on the narrow-field image data, which involves subtracting the dark current based on the dark current image data and correcting the sensitivity unevenness within the narrow-field image data based on the flat image data.
Similarly, the preprocessing unit 54 performs preprocessing on the wide-field image data stored in the image recording unit 53, which involves subtracting the dark current based on the dark current image data and correcting the sensitivity unevenness within the narrow-field image data based on the flat image data.

ステップST32は、前処理部54が狭視野画像データおよび広視野画像データそれぞれに対し暗電流の差し引きと感度むらの補正を行う前処理ステップである。
前処理ステップST32が終了すると、前処理済の狭視野画像データはステップST33において処理され、前処理済の広視野画像データはステップST34において処理される。
Step ST32 is a preprocessing step in which the preprocessing unit 54 performs a dark current subtraction and sensitivity unevenness correction for both the narrow-field image data and the wide-field image data, respectively.
Once the preprocessing step ST32 is completed, the preprocessed narrow-field image data is processed in step ST33, and the preprocessed wide-field image data is processed in step ST34.

ステップST33において、静止物体検出部55が前処理部54により前処理が施された狭視野画像データから点像を検出し、静止物体検出部55が狭視野画像データ内における検出された点像の中心座標を低軌道物体の検出位置座標とする。
ステップST34において、移動物体検出部56が前処理部54により前処理が施された広視野画像データから線像を検出し、移動物体検出部56が広視野画像データ内における検出された線像の中心座標を恒星の検出位置座標とする。
In step ST33, the stationary object detection unit 55 detects a point image from the narrow-field image data that has been preprocessed by the preprocessing unit 54, and the stationary object detection unit 55 uses the center coordinates of the detected point image within the narrow-field image data as the detection position coordinates of the low-orbit object.
In step ST34, the moving object detection unit 56 detects a line image from the wide-field image data that has been preprocessed by the preprocessing unit 54, and the moving object detection unit 56 uses the center coordinates of the detected line image within the wide-field image data as the detected position coordinates of the star.

ステップST35において、恒星座標比較部57が移動物体検出部56により得られた恒星の検出位置座標とデータベース60に格納された既知の恒星の天球座標データとを比較し、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係を得る。In step ST35, the stellar coordinate comparison unit 57 compares the detected position coordinates of the star obtained by the moving object detection unit 56 with the celestial coordinate data of known stars stored in the database 60, and obtains the correspondence between the detected position coordinates of the star and the celestial coordinate data of the star.

ステップST36において、静止物体検出部55が得た低軌道物体の検出位置座標と、恒星座標比較部57が得た恒星における座標間の対応関係と、データベース60に格納された狭視野結像光学系11と広視野結像光学系21における光学系の画像データ座標間の対応関係を基に、目標とする低軌道物体の検出位置座標から目標とする低軌道物体の天球座標を得る。In step ST36, the celestial coordinates of the target low-Earth orbit object are obtained from the detection position coordinates of the target low-Earth orbit object, based on the correspondence between the detected position coordinates of the low-Earth orbit object obtained by the stationary object detection unit 55, the correspondence between the coordinates on the star obtained by the stellar coordinate comparison unit 57, and the correspondence between the image data coordinates of the optical systems in the narrow-field imaging optical system 11 and the wide-field imaging optical system 21 stored in the database 60.

すなわち、ステップST36は光学系の画像データ座標間の対応関係と恒星における座標間の対応関係とにより、狭視野画像データの座標と天球座標データとの対応関係を決定する。
次いで、ステップST36は狭視野画像データの座標と天球座標データとの対応関係を用いて低軌道物体の検出位置座標に対する天球座標を決定する。
ステップST36は、位置座標決定部58が前記恒星における座標間の対応関係に基づき前記低軌道物体の検出位置座標から低軌道物体の天球座標を同定するステップである。
In other words, step ST36 determines the correspondence between the coordinates of the narrow-field image data and the celestial coordinate data based on the correspondence between the image data coordinates of the optical system and the correspondence between the coordinates in the stars.
Next, step ST36 determines the celestial coordinates for the detected position coordinates of the low orbit object using the correspondence between the coordinates of the narrow-field image data and the celestial coordinate data.
Step ST36 is a step in which the position coordinate determination unit 58 identifies the celestial coordinates of the low-orbit object from the detected position coordinates of the low-orbit object based on the correspondence between coordinates in the star.

低軌道物体の天球座標を得たことにより、位置座標演算装置50における位置座標演算機能は終了する。
位置座標決定部58により得られた低軌道物体の天球座標は表示手段(図示せず)に出力される。
Having obtained the celestial coordinates of the low-orbit object, the position coordinate calculation function of the position coordinate calculation device 50 is terminated.
The celestial coordinates of the low-orbit object obtained by the position coordinate determination unit 58 are output to a display means (not shown).

位置座標演算装置50はコンピュータによるハードウェア構成により実現され、図5に示すように、CPU(Central Processing Unit)50Aと、大容量の半導体メモリ(RAM:Random Access Memory)50Bと、ハードディスク装置又はSSD装置などの不揮発性記録装置などの記憶装置(ROM:Read only memory)50Cと、入力インタフェース部50Dと、出力インタフェース部50Eと、信号路(バス)50Fを備える。The position coordinate calculation device 50 is implemented using a computer hardware configuration, and as shown in Figure 5, it comprises a CPU (Central Processing Unit) 50A, a large-capacity semiconductor memory (RAM: Random Access Memory) 50B, a storage device (ROM: Read-only memory) 50C such as a hard disk drive or SSD, an input interface unit 50D, an output interface unit 50E, and a signal path (bus) 50F.

CPU50AはRAM50BとROM50Cと入力インタフェース部50Dと出力インタフェース部50Eを制御、管理する。
CPU50AはROM50Cに記憶されたプログラムをRAM50Bにロードし、CPU1AがRAMにロードされたプログラムに基づき各種処理を実行する。
The CPU 50A controls and manages the RAM 50B, ROM 50C, input interface unit 50D, and output interface unit 50E.
CPU 50A loads the program stored in ROM 50C into RAM 50B, and CPU 1A executes various processes based on the program loaded into RAM.

追尾軌道決定部51と制御部52と前処理部54と静止物体検出部55と移動物体検出部56と恒星座標比較部57と位置座標決定部58はそれぞれ、CPU50AはRAM50BとROM50Cにより構成される。
画像記録部53はRAM50Bにより構成される。
なお、データベース60RAM50BとROM50Cにより構成されてもよい。
The tracking trajectory determination unit 51, the control unit 52, the preprocessing unit 54, the stationary object detection unit 55, the moving object detection unit 56, the stellar coordinate comparison unit 57, and the position coordinate determination unit 58 are each composed of a CPU 50A, RAM 50B, and ROM 50C.
The image recording unit 53 is composed of RAM 50B.
The database 60 may be composed of RAM 50B and ROM 50C.

ROM50Cに記憶された、CPU50Aに実行させる目標とする低軌道物体の位置座標を決定する座標決定プログラムは、視野角が狭く、解像度が高い狭視野結像光学系11を有する狭視野光学望遠鏡10からの狭視野画像データから点像を検出し、低軌道物体の検出位置座標とする手順と、狭視野結像光学系11より視野角が広く、解像度が低く、狭視野結像光学系11の指向方向と同じ指向方向にされる広視野結像光学系21を有する広視野光学望遠鏡20からの広視野画像データから線像を検出し、恒星の検出位置座標とする手順と、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係を得る手順と、恒星における座標間の対応関係に基づき低軌道物体の検出位置座標から低軌道物体の天球座標を同定する手順とを備える。The coordinate determination program stored in ROM 50C, which determines the position coordinates of a target low-Earth orbit object to be executed by CPU 50A, includes the following steps: detecting point images from narrow-field image data from a narrow-field optical telescope 10 having a narrow-field imaging optical system 11 with a narrow field of view and high resolution, and using these as the detected position coordinates of the low-Earth orbit object; detecting line images from wide-field image data from a wide-field optical telescope 20 having a wide-field imaging optical system 21 with a wider field of view than the narrow-field imaging optical system 11, lower resolution, and directed in the same direction as the narrow-field imaging optical system 11, and using these as the detected position coordinates of a star; obtaining the correspondence between the detected position coordinates of a star and the celestial coordinate data of the star; and identifying the celestial coordinates of the low-Earth orbit object from the detected position coordinates of the low-Earth orbit object based on the correspondence between the coordinates of the star.

実施の形態1に係る低軌道物体の座標決定装置は、視野角が狭く、解像度が高い狭視野結像光学系11を有する狭視野光学望遠鏡10と、狭視野結像光学系11より視野角が広く、解像度が低く、狭視野結像光学系11の指向方向と同じ指向方向にされる広視野結像光学系21を有する広視野光学望遠鏡20を備え、狭視野光学望遠鏡10における狭視野用イメージセンサ13からの狭視野画像データから検出した低軌道物体の検出位置座標を取得し、広視野光学望遠鏡20における広視野用イメージセンサ23からの広視野画像データから検出した恒星の検出位置座標を取得し、取得した低軌道物体の検出位置座標を、取得した恒星の検出位置座標を用いて低軌道物体の天球座標を同定する低軌道物体の位置座標演算装置50を備えたので、目標とする低軌道物体の位置座標を容易に決定でき、低軌道物体の天球座標を精度高く容易に得ることができる。The low-orbit object coordinate determination device according to Embodiment 1 comprises a narrow-field optical telescope 10 having a narrow-field imaging optical system 11 with a narrow field of view and high resolution, and a wide-field optical telescope 20 having a wide-field imaging optical system 21 with a wider field of view and lower resolution than the narrow-field imaging optical system 11, and directed in the same direction as the narrow-field imaging optical system 11. The device acquires the detected position coordinates of low-orbit objects from narrow-field image data from a narrow-field image sensor 13 in the narrow-field optical telescope 10, and the detected position coordinates of stars from a wide-field image data from a wide-field image sensor 23 in the wide-field optical telescope 20. The device includes a low-orbit object position coordinate calculation device 50 that uses the acquired detected position coordinates of stars to identify the celestial coordinates of the low-orbit objects. As a result, the position coordinates of a target low-orbit object can be easily determined, and the celestial coordinates of the low-orbit object can be easily obtained with high accuracy.

実施の形態2.
実施の形態2に係る低軌道物体の座標決定装置を図6および図7を用いて説明する。
実施の形態1に係る低軌道物体の座標決定装置が狭視野光学望遠鏡10から出力された1つの狭視野画像データを用いて、目標とする低軌道物体の天球座標を同定している。
これに対して実施の形態2に係る低軌道物体の座標決定装置は、狭視野光学望遠鏡10から出力された2つの狭視野画像データを用いて、目標とする低軌道物体の天球座標を同定している点が相違し、その他の点は同じである。
したがって、実施の形態1に係る低軌道物体の座標決定装置との相違点を中心に以下に説明する。
図6中、図1に付した符号と同一符号は同一または相当部分を示す。
Embodiment 2.
The coordinate determination device for low orbit objects according to Embodiment 2 will be explained with reference to Figures 6 and 7.
The low-Earth orbit object coordinate determination device according to Embodiment 1 identifies the celestial coordinates of a target low-Earth orbit object using a single narrow-field image data output from the narrow-field optical telescope 10.
In contrast, the coordinate determination device for low orbital objects according to Embodiment 2 differs in that it identifies the celestial coordinates of the target low orbital object using two narrow-field image data outputs from the narrow-field optical telescope 10, but is otherwise the same.
Therefore, the differences from the low-orbit object coordinate determination device according to Embodiment 1 will be explained below.
In Figure 6, the same reference numerals as those used in Figure 1 indicate the same or corresponding parts.

実施の形態2に係る低軌道物体の座標決定装置は狭視野光学望遠鏡10と広視野光学望遠鏡20と光軸調整装置30と駆動装置40と位置座標演算装置50とデータベース60を備える。
狭視野光学望遠鏡10は狭視野結像光学系11と狭視野用光選択手段12と第1の狭視野用イメージセンサ13と第2の狭視野用イメージセンサ14を有する。
狭視野用光選択手段12は狭視野用光選択手段12により集光される光から低軌道物体からの光を光フィルタにより選択し、光フィルタにより選択された光を互いに異なる波長情報もしくは偏光情報を持つ二光束に分岐する。
The coordinate determination device for low orbit objects according to Embodiment 2 comprises a narrow-field optical telescope 10, a wide-field optical telescope 20, an optical axis adjustment device 30, a drive device 40, a position coordinate calculation device 50, and a database 60.
The narrow-field optical telescope 10 includes a narrow-field imaging optical system 11, a narrow-field light selection means 12, a first narrow-field image sensor 13, and a second narrow-field image sensor 14.
The narrow-field light selection means 12 selects light from low-orbit objects using an optical filter from the light focused by the narrow-field light selection means 12, and splits the light selected by the optical filter into two beams having different wavelength information or polarization information.

狭視野用光選択手段12から分岐される二光束の光の内の一方の光は第1の光路により第1の狭視野用イメージセンサ13の受光面に導かれる。
狭視野用光選択手段12から分岐される二光束の光の内の他方の光は第1の光路とは異なる第2の光路により第2の狭視野用イメージセンサ14の受光面に導かれる。
One of the two beams of light branched from the narrow-field light selection means 12 is guided by the first optical path to the light-receiving surface of the first narrow-field image sensor 13.
The other of the two beams of light branched from the narrow-field light selection means 12 is guided to the light-receiving surface of the second narrow-field image sensor 14 by a second optical path different from the first optical path.

狭視野用光選択手段12は、互いに異なる波長情報を持つ二光束に分岐する場合はダイクロイックミラーを用いる。
ダイクロイックミラーは特定の波長帯の光を透過し、それ以外の波長帯の光は反射する機能を有するので、互いに異なる波長情報を持つ透過した光と反射した光に分岐することができる。
The narrow-field light selection means 12 uses a dichroic mirror when splitting into two light beams having different wavelength information.
Dichroic mirrors transmit light in a specific wavelength range and reflect light in other wavelength ranges, thus splitting light into transmitted and reflected light, each carrying different wavelength information.

狭視野用光選択手段12は、互いに異なる偏光情報を持つ二光束に分岐する場合は偏光ビームスプリッタを用いる。
偏光ビームスプリッタはP偏光の光を透過し、S偏光の光を反射させる、つまりP偏光とS偏光に分離する機能を有するので、互いに異なる偏光情報を持つP偏光の光とS偏光の光に分岐することができる。
狭視野用光選択手段12における光フィルタの選択は、実施の形態1における狭視野用光選択手段12と同じである。
The narrow-field light selection means 12 uses a polarizing beam splitter when splitting into two light beams having different polarization information.
A polarizing beam splitter transmits P-polarized light and reflects S-polarized light, meaning it separates P-polarized and S-polarized light. Therefore, it can split P-polarized and S-polarized light, which have different polarization information.
The selection of the optical filter in the narrow-field optical selection means 12 is the same as in the narrow-field optical selection means 12 in Embodiment 1.

第1の狭視野用イメージセンサ13は、受光面が二光束の光の内の一方の光が集光される焦点面上に設置される。
第1の狭視野用イメージセンサ13は受光面における2次元に広がった多数画素それぞれに対し、入射した光量または光強度をデジタル値に変換して2次元画像データである第1の狭視野画像データとして出力する。
The first narrow-field image sensor 13 has its light-receiving surface positioned on the focal plane where one of the two light beams is focused.
The first narrow-field image sensor 13 converts the amount or intensity of incident light into a digital value for each of the numerous pixels spread in two dimensions on the light-receiving surface and outputs it as the first narrow-field image data, which is two-dimensional image data.

第2の狭視野用イメージセンサ14は、受光面が二光束の光の内の他方の光が集光される焦点面上に設置される。
第2の狭視野用イメージセンサ14は受光面における2次元に広がった多数画素それぞれに対し、入射した光量または光強度をデジタル値に変換して2次元画像データである第2の狭視野画像データとして出力する。
The second narrow-field image sensor 14 has its light-receiving surface positioned on the focal plane where the light from the other of the two light beams is focused.
The second narrow-field image sensor 14 converts the amount or intensity of incident light into a digital value for each of the numerous pixels spread in two dimensions on the light-receiving surface and outputs it as a second narrow-field image data, which is two-dimensional image data.

第1の狭視野用イメージセンサ13および第2の狭視野用イメージセンサ14は実施の形態1における狭視野用イメージセンサ13に対応し、実施の形態1における狭視野用イメージセンサ13が制御部52により制御されると同様に第1の狭視野用イメージセンサ13および第2の狭視野用イメージセンサ14それぞれは制御部52により制御され、狭視野用光選択手段12により選択され、分岐された光を追尾モードにおける第1の狭視野画像データおよび第2の狭視野画像データそれぞれとして出力する。The first narrow-field image sensor 13 and the second narrow-field image sensor 14 correspond to the narrow-field image sensor 13 in Embodiment 1. Similar to how the narrow-field image sensor 13 in Embodiment 1 is controlled by the control unit 52, the first narrow-field image sensor 13 and the second narrow-field image sensor 14 are each controlled by the control unit 52, and the light selected and branched by the narrow-field light selection means 12 is output as the first narrow-field image data and the second narrow-field image data, respectively, in tracking mode.

第1の狭視野用イメージセンサ13と第2の狭視野用イメージセンサ14は制御部52からの同じ狭視野用光制御情報にて制御される。
したがって、第1の狭視野画像データと第2の狭視野画像データは同期し、同じタイミングで同時に取得される。
第1の狭視野用イメージセンサ13および第2の狭視野用イメージセンサ14それぞれは実施の形態1における狭視野用イメージセンサ13と同様のセンサが用いられる。
The first narrow-field image sensor 13 and the second narrow-field image sensor 14 are controlled by the same narrow-field optical control information from the control unit 52.
Therefore, the first narrow-field image data and the second narrow-field image data are synchronized and acquired simultaneously at the same time.
The first narrow-field image sensor 13 and the second narrow-field image sensor 14 are the same sensors as the narrow-field image sensor 13 in Embodiment 1.

広視野光学望遠鏡20と光軸調整装置30と駆動装置40はそれぞれ、実施の形態1における広視野光学望遠鏡20と光軸調整装置30と駆動装置40それぞれと同じであるので、説明を省略する。The wide-field optical telescope 20, the optical axis adjustment device 30, and the drive device 40 are the same as those in Embodiment 1, so their descriptions are omitted.

低軌道物体の位置座標演算装置50は、低軌道物体の天球座標を得る位置座標演算機能と、狭視野光学望遠鏡10と広視野光学望遠鏡20に対して画像データの取得を制御するデータ取得用制御機能と、低軌道物体を追尾するために駆動装置40の駆動制御を行う追尾制御機能を有する。
位置座標演算装置50は追尾軌道決定部51と制御部52と画像記録部53と前処理部54と除算処理部541と静止物体検出部551と移動物体検出部561と恒星座標比較部57と低軌道物体の位置座標決定部58を備える。
The low orbit object position coordinate calculation device 50 has a position coordinate calculation function to obtain the celestial coordinates of the low orbit object, a data acquisition control function to control the acquisition of image data from the narrow-field optical telescope 10 and the wide-field optical telescope 20, and a tracking control function to control the drive of the drive device 40 in order to track the low orbit object.
The position coordinate calculation device 50 includes a tracking trajectory determination unit 51, a control unit 52, an image recording unit 53, a preprocessing unit 54, a division processing unit 541, a stationary object detection unit 551, a moving object detection unit 561, a stellar coordinate comparison unit 57, and a low-orbit object position coordinate determination unit 58.

位置座標演算装置50におけるデータ取得用制御機能と追尾制御機能それぞれは、実施の形態1における位置座標演算装置50におけるデータ取得用制御機能と追尾制御機能それぞれと同じであるので、説明を省略する。
位置座標演算装置50における位置座標演算機能は、画像記録部53と前処理部54と除算処理部541と静止物体検出部551と移動物体検出部561と恒星座標比較部57と低軌道物体の位置座標決定部58により達成される。
The data acquisition control function and tracking control function in the position coordinate calculation device 50 are the same as those in the position coordinate calculation device 50 in Embodiment 1, so their explanation will be omitted.
The position coordinate calculation function in the position coordinate calculation device 50 is achieved by the image recording unit 53, the preprocessing unit 54, the division processing unit 541, the stationary object detection unit 551, the moving object detection unit 561, the stellar coordinate comparison unit 57, and the position coordinate determination unit 58 for low orbital objects.

画像記録部53は第1の狭視野用イメージセンサ13からの第1の狭視野画像データと第2の狭視野用イメージセンサ14からの第2の狭視野画像データと広視野用イメージセンサ23からの広視野画像データが入力され、第1の狭視野画像データおよび第2の狭視野画像データそれぞれに制御部52による第1の狭視野用光制御情報および第2の狭視野用光制御情報それぞれが紐づけされた第1の狭視野画像データおよび第2の狭視野画像データと、広視野画像データに制御部52による広視野用光制御情報が紐づけされた広視野画像データを格納する。The image recording unit 53 receives first narrow-field image data from the first narrow-field image sensor 13, second narrow-field image data from the second narrow-field image sensor 14, and wide-field image data from the wide-field image sensor 23. The unit stores first narrow-field image data and second narrow-field image data, each associated with first narrow-field optical control information and second narrow-field optical control information from the control unit 52, respectively, as well as wide-field image data, each associated with wide-field optical control information from the control unit 52.

前処理部54は画像記録部53に格納された第1の狭視野画像データおよび第2の狭視野画像データそれぞれを取得し、第1の狭視野画像データおよび第2の狭視野画像データそれぞれに対する暗電流の減算と狭視野画像データ内の感度むらの補正である前処理を行う。
第1の狭視野画像データおよび第2の狭視野画像データそれぞれに対する前処理は実施の形態1における狭視野画像データに対する前処理と同じである。
The preprocessing unit 54 acquires the first narrow-field image data and the second narrow-field image data stored in the image recording unit 53, and performs preprocessing on the first narrow-field image data and the second narrow-field image data, respectively, which involves subtracting the dark current and correcting the sensitivity unevenness within the narrow-field image data.
The preprocessing for the first narrow-field image data and the second narrow-field image data is the same as the preprocessing for narrow-field image data in Embodiment 1.

また、前処理部54は画像記録部53に格納された広視野画像データを取得し、第1の狭視野画像データおよび第2の狭視野画像データそれぞれに対する前処理と同様に広視野画像データに対し暗電流の減算と狭視野画像データ内の感度むらの補正である前処理を行ってもよい。Furthermore, the preprocessing unit 54 may acquire wide-field image data stored in the image recording unit 53 and perform preprocessing on the wide-field image data, similar to the preprocessing performed on the first narrow-field image data and the second narrow-field image data, which involves subtracting the dark current and correcting the sensitivity unevenness within the narrow-field image data.

除算処理部541は、前処理部54により前処理が施された第1の狭視野画像データと第2の狭視野画像データを取得し、第1の狭視野画像データと第2の狭視野画像データ同士の除算を行い、除算結果である画像データを点像検出用の狭視野画像データとして得る。
第1の狭視野画像データおよび第2の狭視野画像データは第1の狭視野用イメージセンサ13および第2の狭視野用イメージセンサ14が同じタイミングにより取得した狭視野画像データである。
The division processing unit 541 acquires the first narrow-field image data and the second narrow-field image data that have been preprocessed by the preprocessing unit 54, performs division between the first narrow-field image data and the second narrow-field image data, and obtains the resulting image data as narrow-field image data for point image detection.
The first narrow-field image data and the second narrow-field image data are narrow-field image data acquired by the first narrow-field image sensor 13 and the second narrow-field image sensor 14 at the same time.

目標とする低軌道物体が周囲の空と異なる波長特性または偏光特性を持っていた場合、狭視野用光選択手段12によって波長特性または偏光特性を持って分岐された光による第1の狭視野用イメージセンサ13からの第1の狭視野画像データと第2の狭視野用イメージセンサ14からの第2の狭視野画像データに対して除算処理部541により得られる点像検出用の狭視野画像データは空間的な空の揺らぎが除去される。
その結果、点像検出用の狭視野画像データはシグナルノイズ比が高い。
If the target low-orbit object has different wavelength or polarization characteristics from the surrounding sky, the narrow-field image data for point image detection obtained by the division processing unit 541 from the first narrow-field image sensor 13 and the second narrow-field image data from the second narrow-field image sensor 14, which are obtained by the narrow-field light selection means 12 with light that has different wavelength or polarization characteristics, will have spatial fluctuations of the sky removed.
As a result, narrow-field image data used for point image detection has a high signal-to-noise ratio.

特に、地上から発射したレーザー光が低軌道物体で反射した光を観測する場合、狭視野用光選択手段12としてレーザー波長のみを透過し、その周辺波長のみを反射するものとする。
透過したレーザー波長の光による第1の狭視野用イメージセンサ13からの第1の狭視野画像データとレーザー波長の周辺の波長を反射した光による第2の狭視野用イメージセンサ14からの第2の狭視野画像データに対して除算処理部541により点像検出用の狭視野画像データを得る。
In particular, when observing light reflected by a low-orbit object from a laser beam emitted from the ground, the narrow-field light selection means 12 is designed to transmit only the laser wavelength and reflect only the surrounding wavelengths.
A division processing unit 541 obtains narrow-field image data for point image detection from a first narrow-field image sensor 13 using light of the transmitted laser wavelength and a second narrow-field image data from a second narrow-field image sensor 14 using light of wavelengths around the laser wavelength.

除算処理部541により得られた点像検出用の狭視野画像データは、レーザー反射が起こる低軌道物体の領域が、その外側の空領域と異なる値を持ち、かつ帯域を大きく絞っていることで大部分の太陽放射反射光の影響を受けない。
その結果、点像検出用の狭視野画像データから高いシグナルノイズ比で目標の低軌道物体を検出することができる。
The narrow-field image data for point image detection obtained by the division processing unit 541 has a different value for the region of low-orbit objects where laser reflection occurs compared to the surrounding empty area, and the bandwidth is significantly narrowed, so it is largely unaffected by reflected solar radiation.
As a result, target low-orbit objects can be detected with a high signal-to-noise ratio from narrow-field image data used for point image detection.

静止物体検出部551は、除算処理部541により得られた点像検出用の狭視野画像データから点像を検出し、検出された点像の中心座標を低軌道物体の検出位置座標とする。
静止物体検出部551による点像検出用の狭視野画像データからの点像の検出は、実施の形態1における静止物体検出部55による狭視野画像データからの点像の検出と同様に行なわれる。
The stationary object detection unit 551 detects a point image from the narrow-field image data for point image detection obtained by the division processing unit 541, and uses the center coordinates of the detected point image as the detection position coordinates of the low-orbit object.
The detection of point images from narrow-field image data for point image detection by the stationary object detection unit 551 is performed in the same manner as the detection of point images from narrow-field image data by the stationary object detection unit 55 in Embodiment 1.

ところで、実施の形態1において、フレームレートに従って露光する露光時間として0.01秒程度、目標とする低軌道物体の移動速度が30分角/秒程度の例について説明したが、0.01秒より短い露光時間により狭視野光学望遠鏡10が撮影した場合、または目標とする低軌道物体の移動速度が30分角/秒よりかなり低速で移動する場合、点像検出用の狭視野画像データからの点像の検出において、実施の形態1において説明した条件では低軌道物体による点像であるか、恒星による線像か区別がつかない場合がある。By the way, in Embodiment 1, an example was described in which the exposure time according to the frame rate was about 0.01 seconds and the movement speed of the target low-orbit object was about 30 arcminutes/second. However, when the narrow-field optical telescope 10 takes an image with an exposure time shorter than 0.01 seconds, or when the movement speed of the target low-orbit object is considerably slower than 30 arcminutes/second, under the conditions described in Embodiment 1, it may be impossible to distinguish whether a point image is caused by a low-orbit object or a line image caused by a star when detecting a point image from the narrow-field image data for point image detection.

この場合、さらに、次のような条件を加えて、点像検出用の狭視野画像データからの点像を検出する。
すなわち、追尾期間中に連続的に撮影されたN枚の第1の狭視野画像データとN枚の第2の狭視野画像データから得られたN枚の点像検出用の狭視野画像データ間において、位置座標が同じである点像を低軌道物体による点像であるとして検出する。
一方、N枚の点像検出用の狭視野画像データ間において、位置座標が移動する点像はN枚の点像検出用の狭視野画像データにおける線像と見做し、低軌道物体による点像ではないとする。
In this case, the following conditions are added to detect point images from narrow-field image data used for point image detection.
In other words, among the N first narrow-field image data and N second narrow-field image data obtained from the tracking period, point images with the same position coordinates are detected as point images caused by low-orbit objects.
On the other hand, a point image whose position coordinates move between N narrow-field image data for point image detection is considered a line image in the N narrow-field image data for point image detection and is not considered a point image caused by a low-orbit object.

要するに、N枚の点像検出用の狭視野画像データ間において、位置座標が変化せず静止している点像であるか、位置座標が変化して移動している点像であるかにより、低軌道物体による点像であるか否かを識別する。
したがって、静止物体検出部551は、N枚の点像検出用の狭視野画像データから恒星による点像(線像)を検出することはない。
In short, the system identifies whether a point image is caused by a low-orbit object based on whether it is a stationary point image with a constant position coordinate or a moving point image with a changing position coordinate.
Therefore, the stationary object detection unit 551 does not detect point images (line images) caused by stars from the N narrow-field image data for point image detection.

移動物体検出部561は、広視野用イメージセンサ23からの広視野画像データから線像を検出し、検出された線像の中心座標を恒星の検出位置座標とする。
移動物体検出部561による広視野画像データからの線像の検出は、実施の形態1における移動物体検出部56による広視野画像データからの線像の検出と同様に行なわれる。
The moving object detection unit 561 detects a line image from the wide-field image data from the wide-field image sensor 23, and uses the center coordinates of the detected line image as the detected position coordinates of the star.
The detection of line images from wide-field image data by the moving object detection unit 561 is performed in the same manner as the detection of line images from wide-field image data by the moving object detection unit 56 in Embodiment 1.

ところで、0.01秒より短い露光時間により広視野光学望遠鏡20が撮影した場合、または目標とする低軌道物体の移動速度が30分角/秒よりかなり低速で移動する場合、広視野画像データからの線像の検出において、実施の形態1において説明した条件では恒星による線像が判別できない場合がある。However, when the wide-field optical telescope 20 takes images with an exposure time shorter than 0.01 seconds, or when the target low-orbit object moves at a speed considerably slower than 30 arcminutes/second, the line images from the wide-field image data may not be discernible under the conditions described in Embodiment 1.

この場合、さらに、次のような条件を加えて、広視野画像データからの線像を検出する。
すなわち、追尾期間中に連続的に撮影されたN枚の広視野画像データ間において、位置座標が移動する点像はN枚の広視野画像データにおける線像と見做し、恒星による線像であるとして検出する。
一方、N枚の広視野画像データ間において、位置座標が同じである点像はN枚の広視野画像データにおける点像とし、恒星による線像ではないとする。
In this case, the following conditions are added to detect line images from wide-field image data.
In other words, a point image whose position coordinates move between N wide-field image data frames captured continuously during the tracking period is treated as a line image in the N wide-field image data frames and detected as a line image caused by a star.
On the other hand, point images with the same position coordinates across N wide-field image data are considered point images in the N wide-field image data and are not line images caused by stars.

要するに、N枚の広視野画像データ間において、位置座標が変化して移動している点像であるか、位置座標が変化せず静止している点像であるかにより、恒星による線像であるか否かを識別する。
したがって、移動物体検出部561は、N枚の広視野画像データから低軌道物体による点像を検出することはない。
In short, the method for identifying whether an image is a line image caused by a star depends on whether the point image is moving with changing position coordinates or stationary with unchanging position coordinates across N wide-field image data frames.
Therefore, the moving object detection unit 561 does not detect point images caused by low-trajectory objects from the N wide-field image data.

恒星座標比較部57は実施の形態1における恒星座標比較部57と同様に機能、動作し、移動物体検出部561により得られた恒星の検出位置座標とデータベース60に格納された既知の恒星の天球座標データを比較し、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係を得る。The stellar coordinate comparison unit 57 functions and operates in the same manner as the stellar coordinate comparison unit 57 in Embodiment 1. It compares the detected position coordinates of the star obtained by the moving object detection unit 561 with the celestial coordinate data of known stars stored in the database 60, and obtains the correspondence between the detected position coordinates of the star and the celestial coordinate data of the star.

すなわち、広視野用イメージセンサ23における広視野画像データの二次元平面により表される座標と恒星の天球座標データとの対応関係を例えば対応関係テーブルとして予め得ておく。
恒星座標比較部57は移動物体検出部56により得られた恒星の検出位置座標を対応関係テーブルを用いて恒星の天球座標データと比較することにより、恒星が映っている画素の位置座標が天球面上でどの方角に対応しているかがわかる。
その結果、広視野画像データの各画素が天球面上でどの方角に対応しているかわかる。
In other words, the correspondence between the coordinates represented by the two-dimensional plane of the wide-field image data from the wide-field image sensor 23 and the celestial coordinate data of the stars is obtained in advance, for example, as a correspondence table.
The stellar coordinate comparison unit 57 compares the detected position coordinates of the star obtained by the moving object detection unit 56 with the celestial sphere coordinate data of the star using a correspondence table, thereby determining which direction on the celestial sphere corresponds to the position coordinates of the pixels in which the star is reflected.
As a result, it becomes possible to determine which direction each pixel of the wide-field image data corresponds to on the celestial sphere.

低軌道物体の位置座標決定部58は実施の形態1における位置座標決定部58と同様に機能、動作し、静止物体検出部551による低軌道物体の検出位置座標を恒星座標比較部57の比較結果、つまり恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係に基づき低軌道物体の天球座標を同定する。The low-orbit object position coordinate determination unit 58 functions and operates similarly to the position coordinate determination unit 58 in Embodiment 1, and identifies the celestial coordinates of the low-orbit object based on the comparison result of the stellar coordinate comparison unit 57, that is, the correspondence between the detected position coordinates of the star and the celestial coordinate data of the star, using the position coordinates detected by the stationary object detection unit 551.

すなわち、光学系の画像データ座標間の対応関係、つまり、狭視野画像データと広視野画像データとの座標間の対応関係と、広視野画像データの座標と恒星の天球座標データとの対応関係を基に、狭視野画像データの座標と天球座標データとの対応関係を決定する。
次に、静止物体検出部55による低軌道物体の検出位置座標を、狭視野画像データの座標と天球座標データとの対応関係を用いて天球座標データと比較することにより、低軌道物体の天球座標を決定する。
In other words, the correspondence between the coordinates of the image data in the optical system, that is, the correspondence between the coordinates of the narrow-field image data and the celestial coordinate data, is determined based on the correspondence between the coordinates of the wide-field image data and the celestial coordinate data of the stars.
Next, the celestial coordinates of the low-orbit object are determined by comparing the detected position coordinates of the low-orbit object by the stationary object detection unit 55 with the celestial coordinate data using the correspondence between the coordinates of the narrow-field image data and the celestial coordinate data.

次に、実施の形態2に係る低軌道物体の座標決定装置の動作について図6を用いて説明する。
事前準備としてのステップST01およびステップST02、追尾制御機能としてのステップST11およびステップST12、およびデータ取得用制御機能としてのステップST21およびステップST22は、実施の形態1におけるステップST01およびステップST02、ステップST11およびステップST12、およびステップST21およびステップST22と同じであるので、説明を省略する。
なお、ステップST21およびステップST22における狭視野用イメージセンサ13を第1の狭視野用イメージセンサ13および第2の狭視野用イメージセンサ14と読み替えるものとする。
Next, the operation of the coordinate determination device for low orbit objects according to Embodiment 2 will be explained with reference to Figure 6.
Steps ST01 and ST02 as preliminary steps, steps ST11 and ST12 as tracking control functions, and steps ST21 and ST22 as data acquisition control functions are the same as steps ST01 and ST02, steps ST11 and ST12, and steps ST21 and ST22 in Embodiment 1, so their explanation will be omitted.
Note that the narrow-field image sensor 13 in steps ST21 and ST22 shall be read as the first narrow-field image sensor 13 and the second narrow-field image sensor 14.

位置座標演算装置50における位置座標演算機能による動作を図7を用いて説明する。
ステップST31Aにおいて、第1の狭視野用イメージセンサ13からの第1の狭視野画像データ、第2の狭視野用イメージセンサ14からの第2の狭視野画像データ、および広視野用イメージセンサ23からの広視野画像データが位置座標演算装置50に入力されると、第1の狭視野画像データおよび第2の狭視野画像データに狭視野用光制御情報が紐づけされた第1の狭視野画像データおよび第2の狭視野画像データとして、広視野画像データに広視野用光制御情報が紐づけされた広視野画像データとして画像記録部53に格納される。
ステップST31Aは実施の形態1におけるステップST31に相当する。
The operation of the position coordinate calculation function in the position coordinate calculation device 50 will be explained using Figure 7.
In step ST31A, when the first narrow-field image data from the first narrow-field image sensor 13, the second narrow-field image data from the second narrow-field image sensor 14, and the wide-field image data from the wide-field image sensor 23 are input to the position coordinate calculation device 50, the first narrow-field image data and the second narrow-field image data are linked to the first narrow-field image data and the second narrow-field image data, and the wide-field image data is linked to the wide-field image data, and these are stored in the image recording unit 53 as wide-field image data.
Step ST31A corresponds to step ST31 in Embodiment 1.

ステップST32Aにおいて、前処理部54は画像記録部53に格納された第1の狭視野画像データおよび第2の狭視野画像データを取得し、第1の狭視野画像データおよび第2の狭視野画像データそれぞれに対し暗電流画像データを基に暗電流の差し引きと、フラット画像データを基に狭視野画像データ内の感度むらの補正である前処理を行う。
同様に、前処理部54は画像記録部53に格納された広視野画像データに対し暗電流画像データを基に暗電流の差し引きと、フラット画像データを基に狭視野画像データ内の感度むらの補正である前処理を行う。
ステップST32Aは実施の形態1におけるステップST32に相当する。
In step ST32A, the preprocessing unit 54 acquires the first narrow-field image data and the second narrow-field image data stored in the image recording unit 53, and performs preprocessing on the first narrow-field image data and the second narrow-field image data, respectively, which involves subtracting the dark current based on the dark current image data and correcting the sensitivity unevenness within the narrow-field image data based on the flat image data.
Similarly, the preprocessing unit 54 performs preprocessing on the wide-field image data stored in the image recording unit 53, which involves subtracting the dark current based on the dark current image data and correcting the sensitivity unevenness within the narrow-field image data based on the flat image data.
Step ST32A corresponds to step ST32 in Embodiment 1.

ステップST32Bにおいて、除算処理部541は、前処理部54により前処理が施された第1の狭視野画像データと第2の狭視野画像データを同時に取得、つまり、第1の狭視野画像データと第2の狭視野画像データが同期された状態で取得し、第1の狭視野画像データと第2の狭視野画像データ同士の除算を行い、除算結果である画像データを点像検出用の狭視野画像データとして得る。In step ST32B, the division processing unit 541 simultaneously acquires the first narrow-field image data and the second narrow-field image data that have been preprocessed by the preprocessing unit 54, that is, it acquires the first narrow-field image data and the second narrow-field image data in a synchronized state, performs division between the first narrow-field image data and the second narrow-field image data, and obtains the resulting image data as narrow-field image data for point image detection.

ステップST33Aにおいて、静止物体検出部551が除算処理部541により得た点像検出用の狭視野画像データから点像(静止点像)を検出し、静止物体検出部551が点像検出用の狭視野画像データ内における検出された点像の中心座標を低軌道物体の検出位置座標とする。
ステップST33Aは実施の形態1におけるステップST33に相当する。
In step ST33A, the stationary object detection unit 551 detects a point image (stationary point image) from the narrow-field image data for point image detection obtained by the division processing unit 541, and the stationary object detection unit 551 uses the center coordinates of the detected point image within the narrow-field image data for point image detection as the detection position coordinates of the low-orbit object.
Step ST33A corresponds to step ST33 in Embodiment 1.

ステップST34Aにおいて、移動物体検出部561が前処理部54により前処理が施された広視野画像データから線像(移動点像)を検出し、移動物体検出部561が広視野画像データ内における検出された線像の中心座標を恒星の検出位置座標とする。
ステップST34Aは実施の形態1におけるステップST34に相当する。
In step ST34A, the moving object detection unit 561 detects a line image (moving point image) from the wide-field image data that has been preprocessed by the preprocessing unit 54, and the moving object detection unit 561 uses the center coordinates of the detected line image within the wide-field image data as the detected position coordinates of the star.
Step ST34A corresponds to step ST34 in Embodiment 1.

ステップST35Aにおいて、恒星座標比較部57が移動物体検出部561により得られた恒星の検出位置座標とデータベース60に格納された既知の恒星の天球座標データとを比較し、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係を得る。
ステップST35Aは実施の形態1におけるステップST35に相当する。
In step ST35A, the stellar coordinate comparison unit 57 compares the detected position coordinates of the star obtained by the moving object detection unit 561 with the celestial coordinate data of known stars stored in the database 60 to obtain the correspondence between the detected position coordinates of the star and the celestial coordinate data of the star.
Step ST35A corresponds to step ST35 in Embodiment 1.

ステップST36Aにおいて、静止物体検出部551が得た低軌道物体の検出位置座標と、恒星座標比較部57が得た恒星における座標間の対応関係と、データベース60に格納された狭視野結像光学系11と広視野結像光学系21における光学系の画像データ座標間の対応関係を基に、目標とする低軌道物体の検出位置座標から目標とする低軌道物体の天球座標を得る。
ステップST36Aは実施の形態1におけるステップST36に相当する。
In step ST36A, the celestial coordinates of the target low-Earth orbit object are obtained from the detection position coordinates of the target low-Earth orbit object, based on the correspondence between the detected position coordinates of the low-Earth orbit object obtained by the stationary object detection unit 551, the correspondence between the coordinates on the star obtained by the stellar coordinate comparison unit 57, and the correspondence between the image data coordinates of the optical systems in the narrow-field imaging optical system 11 and the wide-field imaging optical system 21 stored in the database 60.
Step ST36A corresponds to step ST36 in Embodiment 1.

位置座標演算装置50は実施の形態1における位置座標演算装置50と同様に図5に示すコンピュータによるハードウェア構成により実現される。
追尾軌道決定部51と制御部52と前処理部54と除算処理部541と静止物体検出部551と移動物体検出部561と恒星座標比較部57と位置座標決定部58はそれぞれ、CPU50AはRAM50BとROM50Cにより構成される。
画像記録部53はRAM50Bにより構成される。
The position coordinate calculation device 50 is implemented using a computer-based hardware configuration as shown in Figure 5, similar to the position coordinate calculation device 50 in Embodiment 1.
The tracking trajectory determination unit 51, the control unit 52, the preprocessing unit 54, the division processing unit 541, the stationary object detection unit 551, the moving object detection unit 561, the stellar coordinate comparison unit 57, and the position coordinate determination unit 58 are each composed of a CPU 50A, RAM 50B, and ROM 50C.
The image recording unit 53 is composed of RAM 50B.

ROM50Cに記憶された、CPU50Aに実行させる目標とする低軌道物体の位置座標を決定する座標決定プログラムは、視野角が狭く、解像度が高い狭視野結像光学系11を有する狭視野光学望遠鏡10からの第1の狭視野画像データと第1の狭視野画像データと異なる波長または偏光を持つ第2の狭視野画像データとの除算を行い、除算結果である狭視野画像データを点像検出用の狭視野画像データとして得る手順と、点像検出用の狭視野画像データから点像を検出し、検出された点像の座標を低軌道物体の検出位置座標とする手順と、狭視野結像光学系11より視野角が広く、解像度が低く、狭視野結像光学系11の指向方向と同じ指向方向にされる広視野結像光学系21を有する広視野光学望遠鏡20からの広視野画像データから線像を検出し、恒星の検出位置座標とする手順と、恒星の天球座標データに対する恒星の検出位置座標の恒星における座標間の対応関係を得る手順と、恒星における座標間の対応関係に基づき低軌道物体の検出位置座標から低軌道物体の天球座標を同定する手順とを備える。The coordinate determination program stored in ROM 50C, which is to be executed by CPU 50A to determine the position coordinates of a target low-orbit object, performs a division between a first narrow-field image data from a narrow-field optical telescope 10 having a narrow-field imaging optical system 11 with a narrow field of view and high resolution, and a second narrow-field image data having a different wavelength or polarization from the first narrow-field image data, thereby obtaining the resulting narrow-field image data as narrow-field image data for point image detection. It then detects point images from the narrow-field image data for point image detection and determines the coordinates of the detected point images as low-orbit objects. The method comprises the steps of: obtaining the detected position coordinates of an object; detecting a line image from wide-field image data from a wide-field optical telescope 20 having a wide-field imaging optical system 21 that has a wider field of view and lower resolution than the narrow-field imaging optical system 11 and is directed in the same direction as the narrow-field imaging optical system 11, and obtaining the detected position coordinates of a star; obtaining the correspondence between the coordinates of the detected position coordinates of a star and the celestial coordinate data of the star; and identifying the celestial coordinates of a low-orbit object from the detected position coordinates of a low-orbit object based on the correspondence between the coordinates of the star.

実施の形態2に係る低軌道物体の座標決定装置は、視野角が狭く、解像度が高い狭視野結像光学系11を有する狭視野光学望遠鏡10と、狭視野結像光学系11より視野角が広く、解像度が低く、狭視野結像光学系11の指向方向と同じ指向方向にされる広視野結像光学系21を有する広視野光学望遠鏡20を備え、狭視野光学望遠鏡10における第1の狭視野用イメージセンサ13からの第1狭視野画像データと第2の狭視野用イメージセンサ14からの第1の狭視野画像データと異なる波長または偏光を持つ第2の狭視野画像データとの除算結果である点像検出用の狭視野画像データから検出した低軌道物体の検出位置座標を取得し、広視野光学望遠鏡20における広視野用イメージセンサ23からの広視野画像データから検出した恒星の検出位置座標を取得し、取得した低軌道物体の検出位置座標を、取得した恒星の検出位置座標を用いて低軌道物体の天球座標を同定する低軌道物体の位置座標演算装置50を備えたので、点像検出用の狭視野画像データはシグナルノイズ比が高高く、目標とする低軌道物体の位置座標を容易に決定でき、低軌道物体の天球座標を精度高く容易に得ることができる。The coordinate determination device for low orbital objects according to Embodiment 2 comprises a narrow-field optical telescope 10 having a narrow-field imaging optical system 11 with a narrow field of view and high resolution, and a wide-field optical telescope 20 having a wide-field imaging optical system 21 with a wider field of view and lower resolution than the narrow-field imaging optical system 11, and directed in the same direction as the narrow-field imaging optical system 11. The device calculates the coordinates of a low orbital object based on the division result of a first narrow-field image data from a first narrow-field image sensor 13 in the narrow-field optical telescope 10 and a second narrow-field image data from a second narrow-field image sensor 14 having a different wavelength or polarization than the first narrow-field image data. The system includes a low-orbit object position coordinate calculation device 50 that obtains the detected position coordinates of a low-orbit object from narrow-field image data for point image detection, obtains the detected position coordinates of a star from wide-field image data from a wide-field image sensor 23 in a wide-field optical telescope 20, and uses the obtained detected position coordinates of the star to identify the celestial coordinates of the low-orbit object. As a result, the narrow-field image data for point image detection has a high signal-to-noise ratio, making it easy to determine the position coordinates of the target low-orbit object, and allowing for the accurate and easy acquisition of the celestial coordinates of the low-orbit object.

なお、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。Furthermore, it is possible to freely combine the embodiments, modify any component of each embodiment, or omit any component in each embodiment.

本開示に係る低軌道物体の座標決定装置は、地上からの観測により衛星、スペースデブリ、または流星等の低軌道物体の軌道を事前に把握する低軌道物体位置測定装置に好適である。The low Earth orbit object coordinate determination device according to this disclosure is suitable for low Earth orbit object position measurement devices that determine the orbit of low Earth orbit objects such as satellites, space debris, or meteors in advance by observation from the ground.

10 狭視野光学望遠鏡、11 狭視野結像光学系、12 狭視野用光選択手段、13 狭視野用イメージセンサ、20 広視野光学望遠鏡、21 広視野結像光学系、22 広視野用光選択手段、23 広視野用イメージセンサ、30 光軸調整装置、40 駆動装置、50 位置座標演算装置、51 追尾軌道決定部、52 制御部、53 画像記録部、54 前処理部、541 除算処理部、55、551 静止物体検出部、56、561 移動物体検出部、57 恒星座標比較部、58 位置座標決定部。10 Narrow-field optical telescope, 11 Narrow-field imaging optical system, 12 Light selection means for narrow field, 13 Narrow-field image sensor, 20 Wide-field optical telescope, 21 Wide-field imaging optical system, 22 Light selection means for wide field, 23 Wide-field image sensor, 30 Optical axis adjustment device, 40 Drive device, 50 Position coordinate calculation device, 51 Tracking trajectory determination unit, 52 Control unit, 53 Image recording unit, 54 Preprocessing unit, 541 Division processing unit, 55, 551 Stationary object detection unit, 56, 561 Moving object detection unit, 57 Star coordinate comparison unit, 58 Position coordinate determination unit.

Claims (16)

視野角が狭く、解像度が高い狭視野結像光学系、前記狭視野結像光学系により集光される光から低軌道物体からの光を選択するための狭視野用光選択手段、および前記狭視野用光選択手段により選択される光を狭視野画像データとして出力する狭視野用イメージセンサを有する狭視野光学望遠鏡と、
前記狭視野結像光学系より視野角が広く、解像度が低く、前記狭視野結像光学系の指向方向と同じ指向方向にされる広視野結像光学系、前記広視野結像光学系により集光される光から恒星からの光を選択するための広視野用光選択手段、および前記広視野用光選択手段により選択される光を広視野画像データとして出力する広視野用イメージセンサを有する広視野光学望遠鏡と、
前記狭視野用イメージセンサからの狭視野画像データから検出した低軌道物体の検出位置座標を前記広視野用イメージセンサからの広視野画像データから検出した恒星の検出位置座標を用いて低軌道物体の天球座標を同定する低軌道物体の位置座標演算装置と、
を備える低軌道物体の座標決定装置。
A narrow-field optical telescope having a narrow field of view and high resolution narrow-field imaging optical system, a narrow-field light selection means for selecting light from low-orbit objects from the light focused by the narrow-field imaging optical system, and a narrow-field image sensor for outputting the light selected by the narrow-field light selection means as narrow-field image data,
A wide-field optical telescope having a wide field of view and lower resolution than the narrow-field imaging optical system, and a wide-field imaging optical system that points in the same direction as the narrow-field imaging optical system, a wide-field light selection means for selecting light from stars from the light collected by the wide-field imaging optical system, and a wide-field image sensor that outputs the light selected by the wide-field light selection means as wide-field image data,
A low-Earth orbit object position coordinate calculation device that identifies the celestial coordinates of a low-Earth orbit object using the detected position coordinates of a low-Earth orbit object detected from narrow-field image data from the narrow-field image sensor and the detected position coordinates of a star detected from wide-field image data from the wide-field image sensor,
A coordinate determination device for low orbit objects equipped with the following features.
前記広視野結像光学系の指向方向と前記狭視野結像光学系の指向方向との指向方向差を二軸で調整可能に前記広視野結像光学系を前記狭視野結像光学系に固定する光軸調整装置をさらに備える請求項1に記載の低軌道物体の座標決定装置。 The coordinate determination device for low-orbit objects according to claim 1, further comprising an optical axis adjustment device for fixing the wide-field imaging optical system to the narrow-field imaging optical system so that the difference in direction of direction between the direction of the wide-field imaging optical system and the direction of the narrow-field imaging optical system can be adjusted in two axes. 前記狭視野結像光学系が搭載され、前記狭視野結像光学系の指向方向を二軸で変更する駆動装置をさらに備える請求項1または請求項2に記載の低軌道物体の座標決定装置。 The coordinate determination device for low-orbit objects according to claim 1 or 2, further comprising the narrow-field imaging optical system and a drive device for changing the direction of the narrow-field imaging optical system on two axes. 前記位置座標演算装置は、目標となる低軌道物体の情報により低軌道物体における時系列の予想軌道座標を推定する追尾軌道決定部と、前記追尾軌道決定部により推定された予想軌道座標と前記駆動装置からの前記狭視野結像光学系の指向方向を基に前記駆動装置の駆動を制御する駆動制御信号を与える制御部とを有する請求項1または請求項2に記載の低軌道物体の座標決定装置。 The position coordinate calculation device comprises a tracking trajectory determination unit that estimates the time-series predicted trajectory coordinates of a target low orbit object based on information of the low orbit object, and a control unit that provides a drive control signal to control the driving of the drive unit based on the predicted trajectory coordinates estimated by the tracking trajectory determination unit and the directional direction of the narrow-field imaging optical system from the drive unit, as described in claim 1 or claim 2 . 前記位置座標演算装置は、前記狭視野用光選択手段に対して前記狭視野結像光学系からの光に対する露光開始のタイミングおよびフィルタの選択情報を含む狭視野用フィルタ選択情報を与え、前記狭視野用イメージセンサに対して前記狭視野結像光学系からの光に対する露光開始のタイミングおよび露光時間を含む狭視野用光制御情報を与え、前記広視野用光選択手段に対して前記広視野結像光学系からの光に対する露光開始のタイミングおよびフィルタの選択を含む広視野用フィルタ選択情報を与え、前記広視野用イメージセンサに対して前記広視野結像光学系からの光に対する露光開始のタイミングおよび露光時間を含む広視野用光制御情報を与え、前記狭視野用フィルタ選択情報、前記狭視野用光制御情報、前記広視野用フィルタ選択情報、および前記広視野用光制御情報が同期された情報である制御部を有する請求項1または請求項2に記載の低軌道物体の座標決定装置。 The position coordinate calculation device provides the narrow-field light selection means with narrow-field filter selection information including the timing of exposure start for light from the narrow-field imaging optical system and filter selection information; provides the narrow-field light control information including the timing of exposure start for light from the narrow-field imaging optical system and exposure time to the narrow-field image sensor; provides the wide-field light selection means with wide-field filter selection information including the timing of exposure start for light from the wide-field imaging optical system and filter selection information; provides the wide-field light control information including the timing of exposure start for light from the wide-field imaging optical system and exposure time to the wide-field image sensor; and has a control unit in which the narrow-field filter selection information, the narrow-field light control information, the wide-field filter selection information , and the wide-field light control information are synchronized information. 前記位置座標演算装置は静止物体検出部、移動物体検出部、恒星座標比較部、および低軌道物体の位置座標決定部を有し、
低軌道物体の検出位置座標の検出は前記静止物体検出部が前記狭視野画像データから点像を検出し、検出された点像の中心座標を低軌道物体の検出位置座標として検出し、
恒星の検出位置座標の検出は前記移動物体検出部が前記広視野画像データから線像を検出し、検出された線像の中心座標を恒星の検出位置座標として検出し、
低軌道物体の天球座標の同定は、前記恒星座標比較部が前記移動物体検出部による恒星の検出位置座標と既知の恒星の位置座標を比較し、前記低軌道物体の位置座標決定部が前記静止物体検出部による低軌道物体の検出位置座標を前記恒星座標比較部の比較結果に基づき同定する、
請求項1または請求項2に低軌道物体の座標決定装置。
The position coordinate calculation device includes a stationary object detection unit, a moving object detection unit, a stellar coordinate comparison unit, and a position coordinate determination unit for low orbit objects.
The detection of the detection position coordinates of a low-orbit object is performed by the stationary object detection unit detecting a point image from the narrow-field image data, and detecting the center coordinates of the detected point image as the detection position coordinates of the low-orbit object.
The detection of the star's detection position coordinates is performed by the moving object detection unit detecting a line image from the wide-field image data, and detecting the center coordinates of the detected line image as the star's detection position coordinates.
The identification of the celestial coordinates of a low-Earth orbit object is performed by the stellar coordinate comparison unit comparing the detected position coordinates of a star by the moving object detection unit with the position coordinates of a known star, and the low-Earth orbit object position coordinate determination unit identifying the detected position coordinates of the low-Earth orbit object by the stationary object detection unit based on the comparison results of the stellar coordinate comparison unit.
A coordinate determination device for a low orbit object according to claim 1 or claim 2 .
前記静止物体検出部により点像を検出する狭視野画像データは、暗電流画像データおよびフラット画像データそれぞれにより前処理が施された前記狭視野用イメージセンサから出力される狭視野画像データである請求項6に記載の低軌道物体の座標決定装置。 The coordinate determination device for low-orbit objects according to claim 6, wherein the narrow-field image data detected as a point image by the stationary object detection unit is narrow-field image data output from the narrow-field image sensor, which has been preprocessed with dark-current image data and flat-field image data, respectively. 前記静止物体検出部により検出する点像は、前記狭視野画像データから得られる連結画素の内、3秒角から10秒角の半値幅を持ち、連結画素の長軸と短軸の比が1.5以下の点像である請求項6に記載の低軌道物体の座標決定装置。 The coordinate determination device for a low-orbit object according to claim 6, wherein the point image detected by the stationary object detection unit is a point image obtained from the narrow-field image data, having a half-width of 3 arcseconds to 10 arcseconds, and having a ratio of the major axis to the minor axis of the connected pixels of 1.5 or less. 前記移動物体検出部により検出する線像は、前記広視野画像データから得られる連結画素の内、10秒角以上の半値幅を持ち、連結画素の長軸と短軸の比が2以上の線像である請求項8に記載の低軌道物体の座標決定装置。 The coordinate determination device for low-trajectory objects according to claim 8, wherein the line image detected by the moving object detection unit is a line image obtained from the wide-field image data, having a half-width of 10 arcseconds or more, and having a ratio of the major axis to the minor axis of the connected pixels of 2 or more. 前記狭視野用光選択手段は選択した光を互いに異なる波長または偏光を持つ二光束に分岐し、
前記狭視野用イメージセンサは前記狭視野用光選択手段から分岐された一方の光束を第1の狭視野画像データとして出力する第1の狭視野用イメージセンサ、および前記狭視野用光選択手段から分岐された他方の光束を第2の狭視野画像データとして出力する第2の狭視野用イメージセンサを有し、
前記位置座標演算装置が取得する低軌道物体の検出位置座標は、前記第1の狭視野用イメージセンサからの第1の狭視野画像データと前記第2の狭視野用イメージセンサからの第2の視野画像データ同士の除算結果である狭視野画像データから検出した検出位置座標である、
請求項1または請求項2に記載の低軌道物体の座標決定装置。
The aforementioned narrow-field light selection means splits the selected light into two beams having different wavelengths or polarizations.
The narrow-field image sensor comprises a first narrow-field image sensor that outputs one light beam branched from the narrow-field light selection means as first narrow-field image data, and a second narrow-field image sensor that outputs the other light beam branched from the narrow-field light selection means as second narrow-field image data.
The detected position coordinates of the low-orbit object acquired by the position coordinate calculation device are the detected position coordinates obtained from the narrow-field image data, which is the result of dividing the first narrow-field image data from the first narrow-field image sensor and the second field-of-view image data from the second narrow-field image sensor.
A coordinate determination device for a low orbit object according to claim 1 or claim 2 .
前記狭視野用光選択手段は選択した光を互いに異なる波長または偏光を持つ二光束に分岐し、
前記狭視野用イメージセンサは前記狭視野用光選択手段から分岐された一方の光束を第1の狭視野画像データとして出力する第1の狭視野用イメージセンサ、および前記狭視野用光選択手段から分岐された他方の光束を第2の狭視野画像データとして出力する第2の狭視野用イメージセンサを有し、
前記位置座標演算装置は除算処理部、静止物体検出部、移動物体検出部、恒星座標比較部、および低軌道物体の位置座標決定部を有し、
前記除算処理部が前記第1の狭視野画像データと前記第2の狭視野画像データ同士の除算を行い、除算結果である狭視野画像データを点像検出用の狭視野画像データとして得、
低軌道物体の検出位置座標の検出は前記静止物体検出部が前記点像検出用の狭視野画像データから点像を検出し、検出された点像の中心座標を低軌道物体の検出位置座標として検出し、
恒星の検出位置座標の検出は前記移動物体検出部が前記広視野画像データから線像を検出し、検出された線像の中心座標を恒星の検出位置座標として検出し、
低軌道物体の天球座標の同定は、前記恒星座標比較部が前記移動物体検出部による恒星の検出位置座標と既知の恒星の位置座標を比較し、前記低軌道物体の位置座標決定部が前記静止物体検出部による低軌道物体の検出位置座標を前記恒星座標比較部の比較結果に基づき同定する、
請求項1または請求項2に低軌道物体の座標決定装置。
The aforementioned narrow-field light selection means splits the selected light into two beams having different wavelengths or polarizations.
The narrow-field image sensor comprises a first narrow-field image sensor that outputs one light beam branched from the narrow-field light selection means as first narrow-field image data, and a second narrow-field image sensor that outputs the other light beam branched from the narrow-field light selection means as second narrow-field image data.
The position coordinate calculation device includes a division processing unit, a stationary object detection unit, a moving object detection unit, a stellar coordinate comparison unit, and a position coordinate determination unit for low orbital objects.
The division processing unit performs division between the first narrow-field image data and the second narrow-field image data, and obtains the resulting narrow-field image data as narrow-field image data for point image detection.
The detection of the detection position coordinates of a low-orbit object is performed by the stationary object detection unit detecting a point image from the narrow-field image data for point image detection, and detecting the center coordinates of the detected point image as the detection position coordinates of the low-orbit object.
The detection of the star's detection position coordinates is performed by the moving object detection unit detecting a line image from the wide-field image data, and detecting the center coordinates of the detected line image as the star's detection position coordinates.
The identification of the celestial coordinates of a low-Earth orbit object is performed by the stellar coordinate comparison unit comparing the detected position coordinates of a star by the moving object detection unit with the position coordinates of a known star, and the low-Earth orbit object position coordinate determination unit identifying the detected position coordinates of the low-Earth orbit object by the stationary object detection unit based on the comparison results of the stellar coordinate comparison unit.
A coordinate determination device for a low orbit object according to claim 1 or claim 2 .
前記第1の狭視野画像データと前記第2の狭視野画像データはそれぞれ、同じタイミングにより連続的に撮影された複数の狭視野画像データからなり、
前記点像検出用の狭視野画像データは、同時に取得した前記第1の狭視野画像データと前記第2の狭視野画像データの除算結果である複数の狭視野画像データをからなり、
前記静止物体検出部は前記点像検出用の狭視野画像データにおける複数の狭視野画像データ間において、位置座標が同じである点像を低軌道物体による点像であるとして検出し、
前記広視野画像データは連続的に撮影された複数の広視野画像データからなり、
前記移動物体検出部は前記広視野画像データにおける複数の広視野画像データにおいて、位置座標が移動する点像は前記広視野画像データにおける線像と見做し、恒星による線像であるとして検出する、
請求項11に記載の低軌道物体の座標決定装置。
The first narrow-field image data and the second narrow-field image data each consist of a plurality of narrow-field image data captured sequentially at the same time.
The narrow-field image data for point image detection consists of a plurality of narrow-field image data obtained by dividing the first narrow-field image data and the second narrow-field image data acquired simultaneously.
The stationary object detection unit detects point images with the same position coordinates among multiple narrow-field image data in the narrow-field image data for point image detection as point images caused by low-orbit objects.
The aforementioned wide-field image data consists of multiple wide-field image data captured in sequence.
The moving object detection unit considers point images whose position coordinates are moving in the multiple wide-field image data to be line images in the wide-field image data, and detects them as line images caused by stars.
The coordinate determination device for low orbit objects according to claim 11.
視野角が狭く、解像度が高い狭視野結像光学系を有する狭視野光学望遠鏡からの狭視野画像データと、前記狭視野結像光学系より視野角が広く、解像度が低く、前記狭視野結像光学系の指向方向と同じ指向方向にされる広視野結像光学系を有する広視野光学望遠鏡からの広視野画像データにより、目標とする低軌道物体の位置座標を決定する方法であって、
静止物体検出部が前記狭視野画像データから点像を検出し、検出された点像の座標を低軌道物体の検出位置座標とするステップと、
移動物体検出部が前記広視野画像データから線像を検出し、検出された線像の座標を恒星の検出位置座標とするステップと、
恒星座標比較部が恒星の天球座標データに対する前記恒星の検出位置座標の恒星における座標間の対応関係を得るステップと、
位置座標決定部が前記恒星における座標間の対応関係に基づき前記低軌道物体の検出位置座標から低軌道物体の天球座標を同定するステップと、
を備える低軌道物体の座標決定方法。
A method for determining the position coordinates of a target low-orbit object, comprising: narrow-field image data from a narrow-field optical telescope having a narrow-field imaging optical system with a narrow field of view and high resolution; and wide-field image data from a wide-field optical telescope having a wide-field imaging optical system with a wider field of view and lower resolution than the narrow-field imaging optical system, and directed in the same direction as the narrow-field imaging optical system;
The stationary object detection unit detects a point image from the narrow-field image data, and the coordinates of the detected point image are used as the detected position coordinates of the low-orbit object.
The moving object detection unit detects a line image from the wide-field image data, and the coordinates of the detected line image are used as the detected position coordinates of the star.
The stellar coordinate comparison unit obtains the correspondence between the detected position coordinates of the star and the celestial sphere coordinate data of the star,
The position coordinate determination unit identifies the celestial coordinates of the low-orbit object from the detected position coordinates of the low-orbit object based on the correspondence between coordinates in the star,
A method for determining the coordinates of a low-orbit object, comprising [a specific feature/equipment].
前記狭視野光学望遠鏡からの狭視野画像データは互いに異なる波長または偏光を持つ二光束に分岐された第1の狭視野画像データおよび第2の狭視野画像データであり、
除算処理部が前記第1の狭視野画像データと前記第2の狭視野画像データ同士の除算を行い、除算結果である狭視野画像データを点像検出用の狭視野画像データとして得るステップをさらに備え、
前記狭視野画像データからの点像の検出は前記静止物体検出部が前記点像検出用の狭視野画像データから点像を検出する、
を請求項13に記載の低軌道物体の座標決定方法。
The narrow-field image data from the aforementioned narrow-field optical telescope consists of a first narrow-field image data and a second narrow-field image data, which are split into two beams of light having different wavelengths or polarizations.
The process further includes a step in which a division processing unit performs division between the first narrow-field image data and the second narrow-field image data, and obtains the resulting narrow-field image data as narrow-field image data for point image detection.
The detection of point images from the narrow-field image data is performed by the stationary object detection unit detecting point images from the narrow-field image data for point image detection.
The method for determining the coordinates of a low orbit object according to claim 13.
視野角が狭く、解像度が高い狭視野結像光学系を有する狭視野光学望遠鏡からの狭視野画像データと、前記狭視野結像光学系より視野角が広く、解像度が低く、前記狭視野結像光学系の指向方向と同じ指向方向にされる広視野結像光学系を有する広視野光学望遠鏡からの広視野画像データにより、目標とする低軌道物体の位置座標を決定する座標決定プログラムであって、
前記狭視野画像データから点像を検出し、低軌道物体の検出位置座標とする手順と、
前記広視野画像データから線像を検出し、恒星の検出位置座標とする手順と、
恒星の天球座標データに対する前記恒星の検出位置座標の恒星における座標間の対応関係を得る手順と、
前記恒星における座標間の対応関係に基づき前記低軌道物体の検出位置座標から低軌道物体の天球座標を同定する手順と、
をコンピュータに実行させる低軌道物体の座標決定プログラム。
A coordinate determination program for determining the position coordinates of a target low-orbit object, using narrow-field image data from a narrow-field optical telescope having a narrow-field imaging optical system with a narrow field of view and high resolution, and wide-field image data from a wide-field optical telescope having a wide-field imaging optical system with a wider field of view and lower resolution than the narrow-field imaging optical system, and directed in the same direction as the narrow-field imaging optical system.
A procedure for detecting point images from the aforementioned narrow-field image data and using them as the detected position coordinates of low-orbit objects,
A procedure for detecting line images from the aforementioned wide-field image data and using them as the detected position coordinates of a star,
A procedure for obtaining the correspondence between the coordinates of the detected position coordinates of a star and the celestial sphere coordinate data of the star,
A procedure for identifying the celestial coordinates of a low-Earth orbit object from the detected position coordinates of the low-Earth orbit object based on the correspondence between coordinates in the aforementioned star,
A program that uses a computer to determine the coordinates of low-Earth orbit objects.
視野角が狭く、解像度が高い狭視野結像光学系を有する狭視野光学望遠鏡からの狭視野画像データと、前記狭視野結像光学系より視野角が広く、解像度が低く、前記狭視野結像光学系の指向方向と同じ指向方向にされる広視野結像光学系を有する広視野光学望遠鏡からの広視野画像データにより、目標とする低軌道物体の位置座標を決定するプログラムを記憶してある記録媒体であって、
前記狭視野画像データから点像を検出し、低軌道物体の検出位置座標とする手順と、
前記広視野画像データから線像を検出し、恒星の検出位置座標とする手順と、
恒星の天球座標データに対する前記恒星の検出位置座標の恒星における座標間の対応関係を得る手順と、
前記恒星における座標間の対応関係に基づき前記低軌道物体の検出位置座標から低軌道物体の天球座標を同定する手順と、
をコンピュータに実行させるプログラムを記憶してある記録媒体。
A recording medium storing a program for determining the position coordinates of a target low-orbit object using narrow-field image data from a narrow-field optical telescope having a narrow-field imaging optical system with a narrow field of view and high resolution, and wide-field image data from a wide-field optical telescope having a wide-field imaging optical system with a wider field of view and lower resolution than the narrow-field imaging optical system, and directed in the same direction as the narrow-field imaging optical system,
A procedure for detecting point images from the aforementioned narrow-field image data and using them as the detected position coordinates of low-orbit objects,
A procedure for detecting line images from the aforementioned wide-field image data and using them as the detected position coordinates of a star,
A procedure for obtaining the correspondence between the coordinates of the detected position coordinates of a star and the celestial sphere coordinate data of the star,
A procedure for identifying the celestial coordinates of a low-Earth orbit object from the detected position coordinates of the low-Earth orbit object based on the correspondence between coordinates in the aforementioned star,
A storage medium that stores a program that causes a computer to execute a command.
JP2026501916A 2024-03-18 2024-03-18 Coordinate determination device, coordinate determination method, program, and recording medium for low orbit objects. Active JP7829828B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2024/010396 WO2025196854A1 (en) 2024-03-18 2024-03-18 Device for determining coordinates of low earth orbit object, method for determining coordinates, program, and recording medium

Publications (2)

Publication Number Publication Date
JPWO2025196854A1 JPWO2025196854A1 (en) 2025-09-25
JP7829828B2 true JP7829828B2 (en) 2026-03-13

Family

ID=97138848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2026501916A Active JP7829828B2 (en) 2024-03-18 2024-03-18 Coordinate determination device, coordinate determination method, program, and recording medium for low orbit objects.

Country Status (2)

Country Link
JP (1) JP7829828B2 (en)
WO (1) WO2025196854A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132357A (en) 2001-10-25 2003-05-09 National Aerospace Laboratory Of Japan Line image detection method for planar images
JP2005140867A (en) 2003-11-04 2005-06-02 Seiko Epson Corp Optical equipment
JP6906732B1 (en) 2020-12-24 2021-07-21 三菱電機株式会社 Mobile imaging system, operation plan setting device and mobile imaging method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132357A (en) 2001-10-25 2003-05-09 National Aerospace Laboratory Of Japan Line image detection method for planar images
JP2005140867A (en) 2003-11-04 2005-06-02 Seiko Epson Corp Optical equipment
JP6906732B1 (en) 2020-12-24 2021-07-21 三菱電機株式会社 Mobile imaging system, operation plan setting device and mobile imaging method

Also Published As

Publication number Publication date
JPWO2025196854A1 (en) 2025-09-25
WO2025196854A1 (en) 2025-09-25

Similar Documents

Publication Publication Date Title
US8294073B1 (en) High angular rate imaging system and related techniques
JP2598820Y2 (en) Image navigation support system for satellite with camera
US8218013B1 (en) Star sensing for an earth imaging sensor
CN101236091B (en) Visible light navigation sensor
CA2804991C (en) Optical watch system for a space watch system for near space monitoring
US5525793A (en) Optical head having an imaging sensor for imaging an object in a field of view and a tracking sensor for tracking a star off axis to the field of view of the imaging sensor
JP6632468B2 (en) Moving object detecting device, observation system and moving object detecting method
US5319968A (en) Apparatus for determining 3-axis space craft attitude
Lloyd-Hart et al. First results of an on-line adaptive optics system with atmospheric wavefront sensing by an artificial neural network
Schildknecht et al. Photometric monitoring of non-resolved space debris and databases of optical light curves
US9297880B2 (en) Two axis interferometer tracking device and method
US5319969A (en) Method for determining 3-axis spacecraft attitude
EP0589387B1 (en) Method and system for determining 3-axis spacecraft attitude
JP7829828B2 (en) Coordinate determination device, coordinate determination method, program, and recording medium for low orbit objects.
Copeland et al. Adaptive optics for satellite and debris imaging in LEO and GEO
EP4205406A1 (en) Process for the acquisition of images of a space object in terrestrial orbit by a spacecraft in terrestrial orbit
Lederer et al. NASA's Optical Program on Ascension Island: Bringing MCAT to Life as the Eugene Stansbery-Meter Class Autonomous Telescope (ES-MCAT)
Delaite et al. Performance of an Optical COTS Station for the wide-field Detection of Resident Space Objects
JPH04343010A (en) Apparatus for determining attitude of celestial- body orbit spacecraft of artificial satellite with respect to clestial body
Kudak et al. QHY-174M-GPS camera as the device for photometry of artificial satellites
CA2775621C (en) Scanning multispectral telescope comprising wavefront analysis means
Silha et al. Optical light curve observations to determine attitude states of space debris
Skuljan Astrometric and photometric measurements of GEO satellites in proximity operations over the Pacific
Marois et al. TRIDENT: an infrared camera optimized for the detection of methanated substellar companions around nearby stars
Hart et al. Image restoration from sodium guide star observations in daylight

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20260115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20260115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20260115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20260203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20260303

R150 Certificate of patent or registration of utility model

Ref document number: 7829828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150