JP2014085721A - Moving celestial body detection apparatus and control method thereof - Google Patents

Moving celestial body detection apparatus and control method thereof Download PDF

Info

Publication number
JP2014085721A
JP2014085721A JP2012232111A JP2012232111A JP2014085721A JP 2014085721 A JP2014085721 A JP 2014085721A JP 2012232111 A JP2012232111 A JP 2012232111A JP 2012232111 A JP2012232111 A JP 2012232111A JP 2014085721 A JP2014085721 A JP 2014085721A
Authority
JP
Japan
Prior art keywords
image data
moving
detection
data
celestial body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012232111A
Other languages
Japanese (ja)
Inventor
Kazuhiro Yahata
和浩 矢幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012232111A priority Critical patent/JP2014085721A/en
Publication of JP2014085721A publication Critical patent/JP2014085721A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To detect a moving celestial body more properly in images of multiple frames captured by changing a direction of an imaging apparatus according to diurnal motion, in consideration of noise characteristics or influence of weather.SOLUTION: A moving celestial body detection apparatus for detecting a moving celestial body imaged in a line segment-shape in image data captured by changing a direction of an imaging apparatus according to diurnal motion includes: acquisition means for acquiring image data; calculation means for calculating a sky level and noise standard deviation in the image data for each partial region obtained by dividing the image data; normalization means for normalizing the image data for each partial region, on the basis of the sky level and the noise standard deviation; and detection means for detecting a moving celestial body imaged in a line segment-shape in the image data normalized by the normalization means.

Description

本発明は、天空を撮影した画像から、移動する天体を検出する技術に関する。   The present invention relates to a technique for detecting a moving celestial body from an image obtained by photographing a sky.

地上から200kmから36000km程度の宇宙空間において、寿命を過ぎた人工衛星や使用済みロケット、およびそれらが衝突して砕けた破片などの存在が問題となっている。これら人工の移動天体はスペースデブリあるいは宇宙ゴミなどと呼ばれている。スペースデブリは宇宙空間において高速で飛行している。このスペースデブリが稼働中の人工衛星や宇宙ステーションに衝突し、必要な人工衛星や宇宙ステーションが破壊されてしまうという深刻な問題がある。このような問題を避けるため、地上から望遠鏡で宇宙空間を観測してスペースデブリを検出し、それらを監視することが望まれている。   In space from about 200 km to 36000 km from the ground, the existence of artificial satellites and used rockets that have passed their lifetimes, and broken pieces that collided with them has become a problem. These artificial moving objects are called space debris or space debris. Space debris is flying at high speed in outer space. There is a serious problem that the space debris collides with an operating satellite or space station, and the necessary satellite or space station is destroyed. In order to avoid such problems, it is desired to observe space from the ground with a telescope to detect space debris and monitor them.

スペースデブリのような移動天体の観測方法として、恒星などの静止天体の日周運動に合わせて撮像装置の方向を変え、画像を撮影する方法が知られている。このとき画像において、移動天体は線状の像として観測される。特許文献1では、複数のフレームに渡って検出したい対象物の運動軌跡を仮定して計算し、軌跡上の画像データを加算にすることにより対象物を特定する方法が開示されている。   As a method for observing a moving celestial object such as space debris, a method of taking an image by changing the direction of the imaging device in accordance with the diurnal motion of a stationary celestial object such as a star is known. At this time, the moving celestial body is observed as a linear image in the image. Patent Document 1 discloses a method for specifying a target object by calculating a motion trajectory of an object to be detected over a plurality of frames and adding image data on the trajectory.

特開2002−220098号公報Japanese Patent Laid-Open No. 2002-220098

しかしながら天体を観測した画像データは、霧や雲などによる影響や撮像素子によるノイズにより適切に移動天体を検出できない場合がある。特許文献1に開示された方法では、前述のような画像データにおいて発生した望ましくない成分について考慮せずに、運動軌跡を算出しているため、移動天体を正しく検出できない場合がある。そこで本発明は、日周運動に合わせて撮像装置の方向を変えて撮影した複数フレームの画像において、ノイズ特性や天候の影響を考慮して、より適切に移動天体の検出することを目的とする。   However, image data obtained by observing a celestial object may not be able to detect a moving celestial object appropriately due to the influence of fog, clouds, etc. or noise from an image sensor. In the method disclosed in Patent Document 1, since the motion trajectory is calculated without considering the undesired components generated in the image data as described above, the moving celestial object may not be detected correctly. Therefore, the present invention has an object to more appropriately detect a moving celestial object in consideration of noise characteristics and the influence of weather in a plurality of frames of images taken by changing the direction of the imaging device in accordance with the diurnal motion. .

上記課題を解決するために本発明は、日周運動に合わせて撮像装置の方向を変えて撮影した画像データにおいて、線分状に写る移動天体を検出する移動天体検出装置であって、画像データを取得する取得手段と、前記画像データを分割して得られる部分領域ごとに、前記画像データにおけるスカイレベルとノイズの標準偏差とを算出する算出手段と、前記スカイレベルと前記ノイズの標準偏差とに基づいて、前記画像データを前記部分領域ごとに正規化処理をする正規化処理手段と前記正規化処理手段により正規化処理を施された画像データに対して、線分状に写る移動天体を検出する検出手段とを有することを特徴とする。   In order to solve the above-described problems, the present invention provides a moving celestial body detection device that detects a moving celestial body that is captured in a line segment in image data that is taken by changing the direction of the imaging device in accordance with the diurnal motion, Obtaining means for obtaining, for each partial region obtained by dividing the image data, calculating means for calculating a sky level and a noise standard deviation in the image data, the sky level and the noise standard deviation, A normalization processing means for normalizing the image data for each of the partial areas, and a moving celestial object that is imaged in a line segment with respect to the image data that has been normalized by the normalization processing means. And detecting means for detecting.

本発明により、日周運動に合わせて撮像装置の方向を変えて撮影した複数フレームの画像において、ノイズ特性や天候の影響を考慮して、より適切に移動天体の検出   According to the present invention, in a multi-frame image captured by changing the direction of the imaging device in accordance with the diurnal motion, it is possible to more appropriately detect a moving celestial object in consideration of noise characteristics and the influence of weather.

移動天体検出装置のブロック図Block diagram of moving object detection device 画像データ補正処理部の詳細な構成を示すブロック図Block diagram showing the detailed configuration of the image data correction processing unit 移動天体検出処理用データ生成部の詳細な構成を示すブロック図Block diagram showing the detailed configuration of the data generation unit for moving celestial object detection processing 移動天体検出処理用データの生成処理を表すフローチャートFlowchart showing generation processing of moving object detection processing data 検出フィルタの例Example of detection filter 雲が出ている時が天体も観測できる場合の天空の写真A photograph of the sky when you can observe celestial bodies when clouds are appearing 減光処理の原理を説明する図Diagram explaining the principle of dimming processing 移動天体の端点の配置例Example of arrangement of end points of moving objects 移動天体検出部の詳細な構成を示すブロック図Block diagram showing the detailed configuration of the moving object detection unit 画素毎検出データを生成する処理のフローチャートFlow chart of processing for generating detection data for each pixel 正規化処理部の詳細な構成を示すブロック図Block diagram showing the detailed configuration of the normalization processing unit 正規化処理の流れを表すフローチャートFlow chart showing the flow of normalization processing フレーム内統合処理部の詳細な構成を示すブロック図Block diagram showing the detailed configuration of the intra-frame integration processing unit 画素毎検出データを統合しフレーム内検出データを生成する処理のフローチャートA flowchart of processing for generating detection data in a frame by integrating detection data for each pixel フレーム間統合処理部の詳細を示すブロック図Block diagram showing details of interframe integration processor フレーム内検出データを統合し移動天体検出データを生成する処理のフローチャートA flowchart of processing for generating detection data of moving objects by integrating in-frame detection data 同一性判定部の詳細を示すブロック図Block diagram showing details of identity determination unit フレーム内検出データと移動天体検出データの同一天体性を判断する処理のフローチャートFlowchart of processing for determining the same celestial nature of the in-frame detection data and the moving celestial detection data

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, the structure shown in the following Examples is only an example, and this invention is not limited to the structure shown in figure.

<第1実施形態>
●移動天体検出処理の概要
まず、流星やスペースデブリなどの移動天体を検出する移動天体検出処理全体の構成を説明する。移動天体検出処理は、移動天体を検出するために必要な各種データを生成する前処理と、移動天体を検出する検出処理からなる。
<First Embodiment>
● Outline of Moving Object Detection Process First, the configuration of the entire moving object detection process for detecting moving objects such as meteors and space debris will be described. The moving celestial object detection process includes pre-processing for generating various data necessary for detecting the moving celestial object and detection processing for detecting the moving celestial object.

前処理において生成されるデータは、撮像して得た画像に対してセンサや光学系の特性に応じて補正するための補正処理用データと、移動天体を検出するための検出処理用データである。補正処理用データは、輝度一定面を撮影したフラット補正用データ、シャッターを閉じ、光のない状態において撮影したバイアス補正用データ、露光時間0で撮影したダーク補正用データ、歪曲収差などの収差を表す収差データからなる。補正処理用データは、移動天体を観測する前にあらかじめ取得される。ただし観測条件が変化した場合には、必要に応じて観測を中断し、再度前処理を行って補正処理用データを取得する。検出処理用データは、検出処理に用いるフィルタ、非移動天体をマスクするためのマスクデータ、検出判定用の閾値などからなる。詳細については後述する。   Data generated in the preprocessing includes correction processing data for correcting an image obtained by imaging according to the characteristics of the sensor and the optical system, and detection processing data for detecting a moving celestial body. . Data for correction processing includes flat correction data obtained by photographing a surface with constant luminance, bias correction data obtained by closing the shutter and no light, dark correction data obtained by exposure time 0, and aberrations such as distortion aberration. It consists of representing aberration data. The correction processing data is acquired in advance before observing the moving object. However, if the observation conditions change, the observation is interrupted as necessary, and preprocessing is performed again to obtain correction processing data. The detection processing data includes a filter used for the detection processing, mask data for masking non-moving objects, a threshold value for detection determination, and the like. Details will be described later.

本実施形態では、天空を撮影する際、露光時間を移動天体の移動量が1画素よりも十分長くかつ画像一辺の長さよりも短くなるように調整し、日周運動に合わせて撮像装置の向きを変えながら撮影する。このような撮影方法は恒星追尾モードなどと呼ばれ、1つの画像データにおいて移動天体は線分として写り、かつその線分が複数のフレームにまたがって写る。   In the present embodiment, when photographing the sky, the exposure time is adjusted so that the moving amount of the moving celestial body is sufficiently longer than one pixel and shorter than the length of one side of the image, and the orientation of the imaging device is adjusted according to the diurnal motion. Shoot while changing. Such a photographing method is called a star tracking mode or the like, and a moving celestial body is captured as a line segment in one image data, and the line segment is captured over a plurality of frames.

このように線分として写る移動天体を検出する検出処理は、主に3段階からなる。第1段階では、あるフレームに対して、画素毎に移動天体を検出する。具体的には、処理対象のフレーム(画像データ)において、移動天体と考えられる線分を構成する画素を検出する。以後、第1段階の処理により得られるデータを画素毎検出データと呼ぶ。   The detection process for detecting a moving celestial object reflected as a line segment in this way mainly consists of three stages. In the first stage, a moving celestial object is detected for each pixel in a certain frame. Specifically, pixels constituting a line segment that is considered to be a moving celestial object are detected in a processing target frame (image data). Hereinafter, data obtained by the first stage processing is referred to as pixel-by-pixel detection data.

第2段階では、あるフレームに対して検出された画素毎検出データのうち、同じ移動天体の軌道と考えられるものを統合する。つまり、画素毎検出データを統合して一つの線分を検出する。第2段階において得られるデータをフレーム内検出データと呼ぶ。1つのフレームにおいて、複数の移動天体が出現する場合、フレームごとに複数のフレーム内検出データが算出される。   In the second stage, among the detection data for each pixel detected for a certain frame, the data considered to be the trajectory of the same moving object is integrated. That is, one line segment is detected by integrating detection data for each pixel. Data obtained in the second stage is called intra-frame detection data. When a plurality of moving objects appear in one frame, a plurality of in-frame detection data is calculated for each frame.

最後に第3段階では、フレームごとに算出した複数のフレーム内検出データのうち、さらに同じ移動天体のものと考えられるものを統合する。つまり、複数のフレームにまたがって存在する線分を統合し、時刻とともに移動する線分として移動天体を検出する。以後第3段階において得られるデータを移動天体検出データと呼ぶ。   Finally, in the third stage, among the plurality of in-frame detection data calculated for each frame, data that is considered to be of the same moving object is integrated. In other words, line segments that exist across a plurality of frames are integrated, and a moving celestial object is detected as a line segment that moves with time. Hereinafter, data obtained in the third stage is referred to as moving object detection data.

一連の動画を構成するフレームの中で、複数の移動天体が検出される可能性がある。一連の動画において複数の移動天体が観測されている場合、それに対応して移動天体検出データも複数存在する。このようにして得られる移動天体検出データと撮像した画像を解析することにより、宇宙空間における移動天体の位置、速度、光度などを解析できる。解析の結果、得られた移動天体の位置や速度から移動天体の軌道を推測することができる。   There is a possibility that a plurality of moving celestial bodies are detected in a frame constituting a series of moving images. When a plurality of moving celestial objects are observed in a series of moving images, there are a plurality of moving celestial body detection data correspondingly. By analyzing the moving object detection data and the captured image obtained in this way, the position, velocity, luminous intensity, etc. of the moving object in outer space can be analyzed. As a result of the analysis, the trajectory of the moving object can be estimated from the position and speed of the moving object.

以上のように本実施形態では、まず前処理を行って各種データを生成し、次に撮影ないしは動画の入力によって次々と得られるフレームに対して処理を行い、移動天体を検する。   As described above, in the present embodiment, first, preprocessing is performed to generate various data, and then processing is performed on frames obtained one after another by photographing or moving image input to detect moving celestial bodies.

●装置の構成
図1は、第1の実施形態に適用可能な検出装置を示すブロック図である。
Apparatus Configuration FIG. 1 is a block diagram showing a detection apparatus applicable to the first embodiment.

図1において、操作部108はユーザーからデータの入力、解析、出力などの指示を受け取り、その指示に対応した信号をCPU102に送る。CPU102は、RAM103をワークメモリとして使用し、ROM104に格納されたOSや各種プログラムを実行する。各処理部間におけるデータや信号の送受信は、バス105を通して行われる。   In FIG. 1, an operation unit 108 receives an instruction such as data input, analysis, and output from a user, and sends a signal corresponding to the instruction to the CPU 102. The CPU 102 uses the RAM 103 as a work memory and executes an OS and various programs stored in the ROM 104. Data and signals are transmitted and received between the processing units through the bus 105.

画像データ入力部101は、望遠鏡やデジタルカメラなどを用いて撮影した動画のフレーム(画像データ)を入力するためのインターフェースである。また、移動天体検出処理を行う対象となる天空を撮影した画像データに加え、画像データを補正するためのフラット補正用データ、バイアス補正用データ、ダーク補正用データも入力される。   The image data input unit 101 is an interface for inputting a frame (image data) of a moving image shot using a telescope or a digital camera. Further, in addition to the image data obtained by photographing the sky to be subjected to the moving object detection process, flat correction data, bias correction data, and dark correction data for correcting the image data are also input.

画像データ補正処理部109は、画像データ入力部より入力された画像データに対して、固定パターンノイズの低減処理や歪曲収差など光学系の各種収差の補正を行う。以後、画像データ補正処理部109で処理された後のデータを補正画像データとする。つまり画像データの補正処理部109は、より精度よく移動天体を検出するために、移動天体検出対象の画像データを補正する。   The image data correction processing unit 109 corrects various aberrations of the optical system such as fixed pattern noise reduction processing and distortion aberration on the image data input from the image data input unit. Hereinafter, data processed by the image data correction processing unit 109 is referred to as corrected image data. That is, the image data correction processing unit 109 corrects the moving object detection target image data in order to detect the moving object more accurately.

移動天体検出処理用データ生成部110は、補正画像データを読み込み、移動天体検出処理に必要な検出処理用データを生成する。ここでは、検出処理用データとして、検出用フィルタ、マスクデータ、平均画像データを生成する。   The moving celestial object detection processing data generation unit 110 reads the corrected image data and generates detection processing data necessary for the moving celestial object detection process. Here, a detection filter, mask data, and average image data are generated as detection processing data.

移動天体検出部111は、検出処理用データを用いて、補正画像データにおいて移動天体を示す可能性の高い線分を構成する画素を検出する。移動天体検出部111は、画素毎検出データを生成する。前述した移動天体検出処理における第1段階に相当する。   The moving celestial body detection unit 111 uses the detection processing data to detect pixels constituting a line segment that is highly likely to indicate a moving celestial body in the corrected image data. The moving celestial body detection unit 111 generates detection data for each pixel. This corresponds to the first stage in the moving object detection process described above.

フレーム内統合処理部112は、移動天体検出部111で生成された画素毎検出データから、フレーム内検出データを生成する。処理対象のフレームにおいて、同じ移動天体を示すと考えられる線分を統合する。もし移動天体が観測されていなければ、フレーム内検出データは生成されない。処理対象のフレームにおいて、1つ以上の移動天体が検出されていれば、移動天体ごとに1つ以上のフレーム内検出データが生成される。前述の移動天体検出処理における第2段階に相当する。   The intra-frame integration processing unit 112 generates intra-frame detection data from the detection data for each pixel generated by the moving celestial body detection unit 111. In a frame to be processed, line segments that are considered to represent the same moving object are integrated. If no moving object is observed, no intra-frame detection data is generated. If one or more moving objects are detected in the processing target frame, one or more in-frame detection data is generated for each moving object. This corresponds to the second stage in the aforementioned moving celestial body detection process.

フレーム間統合処理部113は、同じ移動天体を示すと考えられる各フレームのフレーム内検出データを、フレーム間で統合し、移動天体検出データを生成する。前述の移動天体検出処理における第3段階に相当する。   The inter-frame integration processing unit 113 integrates the intra-frame detection data of each frame considered to indicate the same moving celestial object between the frames to generate moving celestial object detection data. This corresponds to the third stage in the aforementioned moving object detection process.

出力部106は、ハードディスクや外部メモリ、ネットワークなどに各種データを出力するインターフェースである。具体的には、移動天体検出データを始め、画像データ、補正画像データ、検出処理用データ、画素毎検出データ、フレーム内検出データなどを出力する。これらのデータを保存するかどうかはユーザーが操作部108を介して事前に設定しておけばよい。   The output unit 106 is an interface that outputs various data to a hard disk, an external memory, a network, and the like. Specifically, it outputs moving object detection data, image data, corrected image data, detection processing data, pixel-by-pixel detection data, in-frame detection data, and the like. Whether or not to store these data may be set in advance by the user via the operation unit 108.

以降、各処理について詳細に説明する。   Hereinafter, each process will be described in detail.

●画像データ補正処理の詳細
図2は画像データ補正処理部109の詳細な構成を示すブロック図である。センサノイズ低減処理部201は、画像データにおけるセンサ特有のノイズパターンを低減する処理を行う。センサノイズ低減処理には、RAM103内部の補正処理用データ記憶部202よりあらかじめ取得しておいたフラット補正データ、バイアス補正用データ、ダーク補正用データを用いる。その後、センサノイズが低減された画像データに対して収差補正部203は、収差特性記憶部204より画像データを撮像した装置の収差特性を読み込み、歪曲収差などの収差補正処理を行う。収差特性記憶部204は、補正画像データを出力する。補正画像データを保存するように設定されている場合は、収差補正部203は補正画像データ記憶部205に補正画像データを保存する。補正画像データは、移動天体検出処理用データ生成部110および移動天体検出部111に送られる。
Details of Image Data Correction Processing FIG. 2 is a block diagram showing a detailed configuration of the image data correction processing unit 109. The sensor noise reduction processing unit 201 performs processing for reducing a noise pattern specific to the sensor in the image data. For the sensor noise reduction process, flat correction data, bias correction data, and dark correction data acquired in advance from the correction processing data storage unit 202 in the RAM 103 are used. After that, the aberration correction unit 203 reads the aberration characteristics of the device that captured the image data from the aberration characteristic storage unit 204 for the image data with reduced sensor noise, and performs aberration correction processing such as distortion aberration. The aberration characteristic storage unit 204 outputs corrected image data. When the correction image data is set to be stored, the aberration correction unit 203 stores the correction image data in the correction image data storage unit 205. The corrected image data is sent to the moving celestial body detection processing data generation unit 110 and the moving celestial body detection unit 111.

●検出処理用データ生成処理の詳細
図3は、移動天体検出処理用データ生成部110の詳細な構成を示すブロック図である。移動天体検出処理用データ生成部110は検出処理用データとして、移動天体検出処理に用いられる平均画像データ、マスクデータおよび検出フィルタを生成する。平均画像生成部301、マスクデータ生成部302、検出フィルタ生成部303はそれぞれ、検出パラメータ記憶部305から必要な検出パラメータを受け取り、平均画像データ、マスクデータ、検出フィルタを生成する。
Details of Detection Processing Data Generation Processing FIG. 3 is a block diagram showing a detailed configuration of the moving object detection processing data generation unit 110. The moving celestial body detection processing data generation unit 110 generates average image data, mask data, and a detection filter used for the moving celestial body detection processing as detection processing data. Each of the average image generation unit 301, the mask data generation unit 302, and the detection filter generation unit 303 receives necessary detection parameters from the detection parameter storage unit 305, and generates average image data, mask data, and detection filters.

平均画像データは、処理対象となる複数の補正画像データを平均化し、平均画像データを生成する。この平均画像データは、処理対象の補正画像データそれぞれに含まれるランダムなノイズを低減したデータである。   The average image data averages a plurality of corrected image data to be processed, and generates average image data. This average image data is data in which random noise contained in each of the corrected image data to be processed is reduced.

マスクデータは、星や星雲、銀河など、移動せず明るい天体が存在する位置に対応する領域や、画像データに欠陥がある領域を示すデータである。マスクデータは、特定の領域に対して移動天体の検出を行わないようにするために用いられる。ここでは、明るい天体や欠陥がある領域における画素の画素値を0とし、それ以外の画素の画素値は1とする。画素値が0であれば天体検出の対象外としてマスクする。   The mask data is data indicating a region corresponding to a position where a bright celestial body that does not move, such as a star, a nebula, or a galaxy, or a region in which image data is defective. The mask data is used in order not to detect a moving celestial object in a specific area. Here, the pixel value of a pixel in a bright celestial or defective area is set to 0, and the pixel values of other pixels are set to 1. If the pixel value is 0, it is masked out of celestial object detection.

検出フィルタは、移動天体を検出するために補正画像データに施されるフィルタ処理に用いられる。検出フィルタの生成は、限界等級算出部304において算出される限界等級と、検出パラメータを必要とする。なお、ここで生成される検出フィルタを用いたフィルタ処理結果の有意性を判定するための閾値も検出フィルタと合わせて生成される。検出フィルタについての詳細は後述する。   The detection filter is used for a filter process performed on the corrected image data in order to detect a moving celestial body. The generation of the detection filter requires a limit grade calculated by the limit grade calculation unit 304 and a detection parameter. A threshold for determining the significance of the filter processing result using the detection filter generated here is also generated together with the detection filter. Details of the detection filter will be described later.

移動天体検出処理用データ生成部110は、補正画像データを1つ以上読み込んで処理を行う。   The moving celestial body detection processing data generation unit 110 reads and processes one or more corrected image data.

図4は、移動天体検出処理用データ生成部110における移動天体検出処理用データ生成処理のフローチャートを示す。まずステップS401において平均画像生成部301は、検出パラメータ記憶部305から検出パラメータとして、処理対象のフレームを取得する。   FIG. 4 is a flowchart of the moving celestial object detection processing data generation process in the moving celestial object detection process data generation unit 110. First, in step S <b> 401, the average image generation unit 301 acquires a processing target frame from the detection parameter storage unit 305 as a detection parameter.

次にステップS402において平均画像生成部301は複数フレームから得られたそれぞれの補正画像データを読み取り、複数の補正画像データを画素毎に平均化することにより、1つの平均画像データを生成する。ここで言う「平均」とは、単純な画素毎の算術平均でもよいが、中央値などはずれ値に対してロバストな統計量を採用するとよい。なぜなら、宇宙空間を飛び交う高エネルギーの放射線である宇宙線などがセンサに衝突することによって、衝突した画素の周辺の輝度値が高くなる現象が稀に起こるためである。算術平均は外れ値の影響を受けやすく、この現象が起こった場合の算術平均は実際の平均値よりも大きな値となりやすい。一方中央値を用いた場合、そのようなはずれ値の影響を受けにくく、より良好な平均画像データを得ることができる。   In step S402, the average image generating unit 301 reads each corrected image data obtained from a plurality of frames, and averages the plurality of corrected image data for each pixel to generate one average image data. The “average” referred to here may be a simple arithmetic average for each pixel, but it is preferable to employ a statistic that is robust with respect to the median or the like. This is because a phenomenon in which the brightness value around the collided pixel increases is rarely caused by collision of cosmic rays, which are high-energy radiation flying in outer space, with the sensor. The arithmetic average is easily affected by outliers, and the arithmetic average when this phenomenon occurs tends to be larger than the actual average value. On the other hand, when the median is used, it is difficult to be influenced by such outliers, and better average image data can be obtained.

次にステップS403において平均画像生成部301は、生成した平均画像データをRAM103内部にある平均画像記憶部306に保存する。   In step S <b> 403, the average image generation unit 301 stores the generated average image data in the average image storage unit 306 in the RAM 103.

次に、ステップS404においてマスクデータ生成部302は、予め検出の対象から外したい天体等をマスク処理するためのマスクデータを生成する。まずマスクデータ生成部302は、マスクデータ生成に使用するパラメータを検出パラメータ記憶部305から取得する。マスクデータの具体的な生成法としては、従来天文学で用いられる高精度な天体検出手法を用いて検出対象としない恒星などを検出し、マスクデータを生成すればよい。あるいは簡易な方法として、平均画像データにおいて、所定の閾値を超える画素値を持つ画素を処理対象画素の領域としてマスクすればよい。これは、平均画像データにおいて突出した画素値を持つ画素は、恒星などの静止天体である可能性が高いためである。もしあからさまなはずれ値などがない事が目視などで確認できるのであれば、補正画像データに閾値処理を施してマスクデータを生成する事も可能である。これらの処理に必要なパラメータは検出パラメータ記憶部に格納しておく。   Next, in step S404, the mask data generation unit 302 generates mask data for masking a celestial body or the like that is to be excluded from the detection target in advance. First, the mask data generation unit 302 acquires parameters used for mask data generation from the detection parameter storage unit 305. As a specific method for generating mask data, a mask data may be generated by detecting a star that is not a detection target using a highly accurate astronomical object detection method conventionally used in astronomy. Alternatively, as a simple method, in the average image data, a pixel having a pixel value exceeding a predetermined threshold may be masked as a processing target pixel region. This is because a pixel having a protruding pixel value in the average image data is likely to be a stationary object such as a star. If it is possible to visually confirm that there is no obvious outlier, it is possible to generate mask data by performing threshold processing on the corrected image data. Parameters necessary for these processes are stored in the detection parameter storage unit.

また、画像データにおいて欠陥があると想定される領域の位置も、あらかじめ検出パラメータ記憶部305に保存しておく。ステップS405においてマスクデータ生成部302は、取得した検出パラメータと平均画像データとからマスクデータを生成する。   Further, the position of a region that is assumed to be defective in the image data is also stored in the detection parameter storage unit 305 in advance. In step S405, the mask data generation unit 302 generates mask data from the acquired detection parameters and average image data.

ステップS406において生成したマスクデータは、RAM103内部のマスクデータ記憶部307に保存される。   The mask data generated in step S406 is stored in the mask data storage unit 307 in the RAM 103.

次にステップS407において限界等級算出部304は、画像データ補正処理部109からいずれか一つの補正画像データを取得する。限界等級算出部304はマスクデータと望遠鏡の撮影方角情報を用いて、補正画像データに写っている明るさが既知の標準星を同定し、限界等級を算出する。   In step S <b> 407, the limit grade calculation unit 304 acquires any one corrected image data from the image data correction processing unit 109. The limit grade calculation unit 304 identifies a standard star whose brightness is known in the corrected image data using the mask data and the shooting direction information of the telescope, and calculates the limit grade.

ステップS408においてフィルタ生成部303は限界等級算出部304から限界等級と検出フィルタを生成するための検出パラメータを検出パラメータ記憶部305から取得する。検出フィルタ生成に用いられる検出パラメータは、目標とする移動天体の等級および誤検出率の目標値などが挙げられる。   In step S <b> 408, the filter generation unit 303 acquires the detection parameters for generating the limit grade and the detection filter from the limit grade calculation unit 304 from the detection parameter storage unit 305. Examples of the detection parameters used for generating the detection filter include a target moving celestial body class and a target value of a false detection rate.

そしてステップS409においてフィルタ生成部303は取得した検出パタメータから観測時の状況に適した検出フィルタと、フィルタ処理の結果において検出の有意性を統計学的に判定するための閾値を生成する。   In step S409, the filter generation unit 303 generates a detection filter suitable for the situation at the time of observation from the acquired detection parameter and a threshold value for statistically determining the significance of detection in the result of the filter processing.

ステップS410において検出フィルタは検出フィルタ記憶部308に、閾値は閾値記憶部309にそれぞれ保存される。検出フィルタとその生成法の詳細は以下に検出処理全体の原理ともに述べる。   In step S410, the detection filter is stored in the detection filter storage unit 308, and the threshold is stored in the threshold storage unit 309. Details of the detection filter and its generation method are described below together with the principle of the entire detection process.

●移動天体検出の原理
それぞれの補正画像データから移動天体を検出する原理について説明する。はじめに補正画像データの補正誤差が十分小さい場合を例に説明する。なお補正画像データにおいて、水平方向および垂直方向の画素位置をそれぞれx、yとする。また、補正画像データのもととなる画像データを撮影した撮影時刻をtとする。そして撮影時刻tに撮影された画像データを補正して得られる補正画像データにおいて、画素位置x、yの画素値をI(x、y、t)と表す。補正画像データにおける画素値I(x、y、t)は、主に移動しない静止天体からの成分Os(x、y、t)、移動天体からの成分Om(x、y、t)、夜光などの空自体の明るさ(スカイレベルと呼ぶ)の成分S(x、y、t)、ランダムなノイズ成分N(x、y、t)からなる。撮影は、日周運動に合わせて望遠鏡やデジタルカメラの撮影方向を変えながら行われる。このとき、パルサーなどの稀な天体を除くと、静止天体からの成分Os(x、y、t)は撮影時刻tに対して変動しない。また、空からの成分S(x、y、t)も、霧や雲が出ている場合を除けば、数分程度の撮影時間中には殆ど変化しない。そのため、空からの成分S(x、y、t)も撮影時刻tに対しての変動は無視できる。よって、補正データの画素値を以下のように表現することができる。
● Principle of moving celestial object detection The principle of detecting a moving celestial object from each corrected image data will be explained. First, a case where the correction error of the corrected image data is sufficiently small will be described as an example. In the corrected image data, the horizontal and vertical pixel positions are x and y, respectively. Also, t is the shooting time when the image data that is the basis of the corrected image data is shot. In the corrected image data obtained by correcting the image data photographed at the photographing time t, the pixel values at the pixel positions x and y are represented as I (x, y, t). The pixel value I (x, y, t) in the corrected image data is mainly a component Os (x, y, t) from a stationary object that does not move, a component Om (x, y, t) from a moving object, night light, etc. Of the sky itself (called sky level) component S (x, y, t) and random noise component N (x, y, t). Shooting is performed while changing the shooting direction of the telescope or digital camera according to the diurnal motion. At this time, except for a rare celestial body such as a pulsar, the component Os (x, y, t) from the stationary celestial body does not vary with respect to the photographing time t. Also, the component S (x, y, t) from the sky hardly changes during the photographing time of about several minutes, except in the case where fog or clouds are present. Therefore, the fluctuation of the component S (x, y, t) from the sky with respect to the photographing time t can be ignored. Therefore, the pixel value of the correction data can be expressed as follows.

I(x、y、t)
=Os(x、y)+S(x、y)+Om(x、y、t)+N(x、y、t) (1)
平均画像データは、撮影時間中における複数の補正画像データを時間tについて平均化したものである。平均画像データにおいて、静止天体からの成分と空からの成分は、これらが撮影時刻tに依存しないためそれぞれOs(x、y)とS(x,y)と等しくなる。一方、平均画像データにおける移動天体の成分とノイズ成分は、これらが時間tによって変化するため、補正データの移動天体の成分Om(x、y、t)とノイズ成分N(x、y、t)をそれぞれ平均化したものとなる。
I (x, y, t)
= Os (x, y) + S (x, y) + Om (x, y, t) + N (x, y, t) (1)
The average image data is obtained by averaging a plurality of corrected image data during the photographing time with respect to time t. In the average image data, the component from the stationary object and the component from the sky are equal to Os (x, y) and S (x, y), respectively, because they do not depend on the photographing time t. On the other hand, since the moving celestial component and the noise component in the average image data change with time t, the moving celestial component Om (x, y, t) and the noise component N (x, y, t) of the correction data. Are averaged.

まず移動天体の成分Om(x、y、t)について述べる。移動天体の出現は稀であるから、ほとんどの撮影時刻tにおいてOm(x、y、t)は0である。すなわち、ある画素位置x、yに着目すると、どのフレームにおいても全く移動天体が存在していない場合が多い。移動天体が存在しない場合、移動天体の成分Om(x、y、t)の平均値は、算術平均であっても中央値であっても0となる。また、複数の補正画像データにおいてある1つの補正画像データにおけるOm(x、y、t)のみ値Kを持っている場合、平均は、算術平均の場合はKをフレーム数Nfで割った値になり、中央値の場合フレーム数Nf≧2であれば0となる。十分な数の補正画像データを使って平均を計算すると、平均画像データ中の移動天体の成分Om(x、y、t)は全ての画素位置においてほぼ0にすることができる。   First, the moving object om (x, y, t) will be described. Since the appearance of a moving celestial object is rare, Om (x, y, t) is 0 at most imaging times t. That is, when attention is paid to certain pixel positions x and y, there are many cases in which no moving object exists in any frame. When there is no moving object, the average value of the components Om (x, y, t) of the moving object is 0 regardless of whether it is an arithmetic average or a median value. In addition, when only one of the corrected image data Om (x, y, t) has a value K, the average is the value obtained by dividing K by the number of frames Nf in the case of an arithmetic average. In the case of the median value, if the number of frames Nf ≧ 2, the value is 0. When the average is calculated using a sufficient number of corrected image data, the component Om (x, y, t) of the moving celestial body in the average image data can be substantially zero at all pixel positions.

次に、ノイズ成分N(x、y、t)について述べる。ある補正画像データにおけるノイズ成分N(x、y、t)の分散をσ2(x、y)とする。フレーム数Nfの算術平均を計算すると、平均後のノイズ成分N(x、y、t)の平均値は0、分散はσ2(x、y)/Nfとなる。また、算術平均の代わりに中央値を用いると、平均後のノイズ成分N(x、y、t)の平均値は0、分散は1.2×σ2(x、y)/Nf程度になる事が知られている。よって、平均画像データ中のノイズ成分N(x、y、t)も十分な枚数のフレームを用いることにより、ほとんどの画素位置において0にする事ができる。その結果、平均画像データJ(x、y)は、以下のように表現できる。   Next, the noise component N (x, y, t) will be described. The variance of the noise component N (x, y, t) in certain corrected image data is assumed to be σ2 (x, y). When the arithmetic average of the number of frames Nf is calculated, the average value of the noise components N (x, y, t) after averaging is 0, and the variance is σ2 (x, y) / Nf. If the median is used instead of the arithmetic mean, the average value of the noise component N (x, y, t) after averaging is 0, and the variance is about 1.2 × σ 2 (x, y) / Nf. It has been known. Therefore, the noise component N (x, y, t) in the average image data can be set to 0 at most pixel positions by using a sufficient number of frames. As a result, the average image data J (x, y) can be expressed as follows.

J(x、y)=Os(x、y)+S(x,y)+N’(x,y) (2)
ここで、N’(x、y)は、平均化によりその分散がσ2(x、y)より小さいσ’2(x、y)となったノイズ成分である。
J (x, y) = Os (x, y) + S (x, y) + N ′ (x, y) (2)
Here, N ′ (x, y) is a noise component whose variance is σ ′ 2 (x, y) smaller than σ 2 (x, y) by averaging.

移動天体を効率よく検出するためには、静止天体からの成分Os(x、y)を取り除くとよい。取り除く方法はいくつか考えられるが、ここでは検出対象とする補正画像データから、平均画像データを差し引く例を示す。差し引いた後の画像データをA(x、y、t)とすると、
A(x,y、t)= I(x、y、t)− J(x、y)
=Om(x、y、t)+N(x、y、t)−N’(x,y)
=Om(x、y、t)+N’’(x、y、t) (3)
となる。ここで、N’’(x、y、t)は、N(x、y、t)とN’(x,y)を合成して得られるノイズ成分であり、その分散は分散の加法性よりσ2(x、y)+σ’2(x、y)となる。このように、補正画像データから平均画像データを差し引いた後の画像データは、移動天体成分Om(x、y、t)にランダムなノイズ成分N’’(x、y、t)が足されたものとなることがわかる。従って、補正画像データに移動天体が含まれなければOm(x、y、t)は0であるため、ノイズ成分のみの画像となる。
In order to efficiently detect a moving celestial body, it is preferable to remove the component Os (x, y) from the stationary celestial body. Several methods can be considered for removal. Here, an example is shown in which average image data is subtracted from corrected image data to be detected. If the image data after subtraction is A (x, y, t),
A (x, y, t) = I (x, y, t)-J (x, y)
= Om (x, y, t) + N (x, y, t) -N '(x, y)
= Om (x, y, t) + N '' (x, y, t) (3)
It becomes. Here, N ″ (x, y, t) is a noise component obtained by synthesizing N (x, y, t) and N ′ (x, y), and its variance is based on the additiveity of the variance. σ2 (x, y) + σ′2 (x, y). As described above, in the image data after subtracting the average image data from the corrected image data, a random noise component N ″ (x, y, t) is added to the moving celestial component Om (x, y, t). It turns out that it becomes a thing. Therefore, if the moving image is not included in the corrected image data, since Om (x, y, t) is 0, the image has only a noise component.

なお、静止天体からの成分Os(x、y)を取り除く別の方法としては、マスクデータによるマスク処理が挙げられる。マスクデータは静止天体が存在しない位置x、yにおいて値が1である。つまりOs(x、y)が0である点x、yにおいて値が1であるから、マスクデータが1である画素のみを解析対象とする事により、事実上Os(x、y)を取り除く事ができる。この場合はスカイレベルS(x、y)は依然残ったままであるが、スカイレベルS(x、y)を別途消去する事によって解析する事は可能である。このため、本発明において平均画像データを生成する事は必須の要件ではない事を述べておく。   As another method for removing the component Os (x, y) from the stationary celestial body, mask processing using mask data can be cited. The mask data has a value of 1 at positions x and y where no static object exists. In other words, since the value is 1 at the point x, y where Os (x, y) is 0, only the pixel whose mask data is 1 is analyzed, so that Os (x, y) is effectively removed. Can do. In this case, the sky level S (x, y) still remains, but it is possible to analyze it by deleting the sky level S (x, y) separately. For this reason, it should be noted that it is not an essential requirement to generate average image data in the present invention.

ここで分散の平方根である標準偏差σ’’(x、y、t)で画像データA(x、y、t)を画素ごとに割った画像データC(x,y,t)を考える。移動天体が存在しない場合、この画像データC(x、y、t)は画素値の平均が0、分散が1に正規化された画像データに変換される。移動天体が存在する場合は、その移動天体の輝度値をに応じた値を持った。以後、画像データC(x、y、t)を正規化画像データと呼ぶ。   Here, consider image data C (x, y, t) obtained by dividing image data A (x, y, t) for each pixel by a standard deviation σ ″ (x, y, t), which is the square root of the variance. When there is no moving object, the image data C (x, y, t) is converted into image data in which the average pixel value is 0 and the variance is normalized to 1. When there was a moving celestial body, it had a value corresponding to the luminance value of the moving celestial body. Hereinafter, the image data C (x, y, t) is referred to as normalized image data.

以下、この正規化画像データC(x、y、t)に対して、移動天体を検出する例を説明する。流星やスペースデブリなどの移動天体は露光時間中にも天体が移動しているため、星の様な点ではなく線分として画像データに写る。移動天体検出は、この線分を検出する。   Hereinafter, an example in which a moving celestial object is detected from the normalized image data C (x, y, t) will be described. Since moving objects such as meteors and space debris move during the exposure time, they appear in the image data as line segments instead of stars. The moving object detection detects this line segment.

正規化画像データC(x、y、t)上の画素(x0、y0)近傍で線分を検出するために、画素(x0、y0)とその近傍画素に対して線分検出のためのフィルタ処理をする。図5は、線分を検出するための検出フィルタの一例を示す。黒く塗りつぶされた画素が注目画素であり、斜線が描かれた注目画素を含む領域が参照する線分領域である。フィルタ処理では、注目画素(x0、y0)とその近傍画素を線分状に参照し、線分領域に含まれる画素の画素値の和(加算値)を算出する。図5に示す通り、参照する線分領域の方向は複数種類設定する、つまり複数の検出フィルタを用いる。この例では、参照する領域の幅Wが2画素、長さLが8画素であり、方向Dが(a)から(h)まで8種類存在する。図5に示すフィルタはいずれも、参照領域を示す斜線部に含まれるフィルタ係数は、1、それ以外の領域におけるフィルタ係数は0である。なお、参照領域に対応する画素のフィルタ係数は1ではなく重みづけされていてもよく、参照領域に含まれる画素の画素値の和に重みづけされた値が加算値として算出される。それぞれ8パターンの参照領域の画素値の和を算出した結果、8つの総和(加算値)が得られる。8つの加算値における最大値を画素(x0、y0)の選択値Hとして選択し、選択値Hが統計学的に設定されるある閾値Thを超えていれば、画素(x0、y0)近傍には、フィルタ処理の結果最大値を得た線分領域の方向に沿って、移動天体が存在するとみなすことができる。   In order to detect a line segment in the vicinity of the pixel (x0, y0) on the normalized image data C (x, y, t), a filter for line segment detection on the pixel (x0, y0) and its neighboring pixels Process. FIG. 5 shows an example of a detection filter for detecting a line segment. Pixels painted in black are target pixels, and regions including target pixels drawn with diagonal lines are line segment regions to be referred to. In the filter processing, the pixel of interest (x0, y0) and its neighboring pixels are referenced in a line segment shape, and the sum (addition value) of the pixel values of the pixels included in the line segment region is calculated. As shown in FIG. 5, a plurality of types of directions of the line segment area to be referred to are set, that is, a plurality of detection filters are used. In this example, the width W of the reference area is 2 pixels, the length L is 8 pixels, and there are 8 types of directions D from (a) to (h). In all the filters shown in FIG. 5, the filter coefficient included in the shaded portion indicating the reference area is 1, and the filter coefficient in the other areas is 0. Note that the filter coefficient of the pixel corresponding to the reference area may be weighted instead of 1, and a value weighted to the sum of the pixel values of the pixels included in the reference area is calculated as an addition value. As a result of calculating the sum of the pixel values of the eight reference areas, eight totals (added values) are obtained. The maximum value among the eight added values is selected as the selection value H of the pixel (x0, y0), and if the selection value H exceeds a certain threshold Th set statistically, the pixel (x0, y0) is near. Can be considered that a moving celestial body exists along the direction of the line segment region where the maximum value is obtained as a result of the filtering process.

なお、線分状の参照領域の幅は、検出しようとする移動天体の幅、すなわち光学系の点像分布関数(Point Spread Functionともいい、以下PSFと記す)の大きさに設定するのがよい。幅Wを移動天体の幅よりも広くすると、その分ノイズを多く拾うため検出精度が下がる。また、検出処理の速度を上げるため、参照領域は小さい方がよい。そのため、光学系のPSFの大きさが2画素ないしは3画素となるように光学系とセンサの画素ピッチをあらかじめ設計しておくことが望ましい。参照領域の長さLは、観測時の天候や湿度など気象状況で変化する限界等級と、検出しようとする移動天体の明るさに応じて決定する。例えば、その観測時における限界等級が15等級であり、17.5等級の移動天体を検出したい場合を考える。等級mの天体と輝度Iの天体のとの間にはI∝10^(−0.4×m)という関係があり、等級が2.5等暗い場合この天体は10倍暗い。概算すると、n倍暗い天体を同じ有意性で検出するためにはn^2倍の画素からなる参照領域が必要となる。従って、幅WがPSFの幅に設定されている場合の長さLは、幅Wの100倍程度大きな値にするとよい。領域の長さLをより大きくするとより暗い移動天体を検出することができる。しかしながら、参照領域が大きくなると検出処理が遅くなる上、長さLよりも短い線分に対する検出精度が落ちてしまう。よって、領域の長さLは、目標とする等級を有する天体を検出できるだけの長さに留めておく方がよい。従って、本発明では観測時の限界等級に応じて検出フィルタを生成する。方向Dは、検出する方向にとびが無いように設定すべきであり、3L/2W程度以上の種類があるとよい。   Note that the width of the line-shaped reference region is preferably set to the width of the moving celestial body to be detected, that is, the size of the point spread function of the optical system (also referred to as Point Spread Function, hereinafter referred to as PSF). . If the width W is wider than the width of the moving celestial body, more noise is picked up and the detection accuracy decreases. Also, the reference area should be small in order to increase the speed of the detection process. Therefore, it is desirable to design the pixel pitch of the optical system and the sensor in advance so that the PSF size of the optical system is 2 pixels or 3 pixels. The length L of the reference area is determined according to a limit grade that changes depending on weather conditions such as weather and humidity at the time of observation, and the brightness of the moving celestial body to be detected. For example, consider a case where the limit grade at the time of observation is 15 and it is desired to detect a moving object of 17.5 grade. There is a relationship of I∝10 ^ (−0.4 × m) between a celestial body of magnitude m and a celestial body of luminance I, and this celestial body is 10 times darker when the magnitude is 2.5 mag. Approximately, in order to detect a celestial object that is n times darker with the same significance, a reference area consisting of n ^ 2 times as many pixels is required. Accordingly, the length L when the width W is set to the width of the PSF is preferably set to a value about 100 times larger than the width W. A darker moving object can be detected by increasing the length L of the region. However, when the reference area becomes large, the detection process is delayed and the detection accuracy for a line segment shorter than the length L is lowered. Therefore, it is better to keep the length L of the region long enough to detect a celestial body having a target grade. Therefore, in the present invention, the detection filter is generated according to the limit grade at the time of observation. The direction D should be set so that there is no jump in the direction to be detected, and there should be a type of about 3L / 2W or more.

移動天体が存在すると判断するための閾値Thは、以下の観点から決定する。参照した線分状領域の画素数をPとする。図5の例ではP=16である。移動天体が存在しない場合、16画素の画素値の和Tは、平均値0、分散1を持つノイズ分布からランダムにP個の画素を選び、その画素値の和を取ったものと統計的にほぼ同じように振る舞う。従って、画素値の和Tの平均値は0であり、分散がPとみなせる。選択値Hは、異なるD種類の線分状領域における画素の画素値の和Tを計算し、その中の最大値により求められる。従って、選択値Hの統計的な振舞いは、前述の平均値0、分散Pのノイズ分布からD個のサンプルを取得したときの最大値が従う振舞いとほぼ一致する。具体的には、ノイズ成分N(x、y、t)がガウス分布に従う場合、選択値Hの確率分布関数PL(H)は以下のようになる。   The threshold value Th for determining that a moving celestial body exists is determined from the following viewpoints. Let P be the number of pixels in the referenced line segment region. In the example of FIG. 5, P = 16. When there is no moving celestial object, the sum T of 16 pixel values is statistically the sum of the pixel values obtained by randomly selecting P pixels from a noise distribution having an average value of 0 and a variance of 1. Behave in much the same way. Therefore, the average value of the sum T of pixel values is 0, and the variance can be regarded as P. The selection value H is obtained by calculating the sum T of the pixel values of the pixels in different D types of line segment regions, and calculating the maximum value among them. Therefore, the statistical behavior of the selected value H is almost the same as the behavior that the maximum value follows when D samples are acquired from the noise distribution with the average value 0 and the variance P described above. Specifically, when the noise component N (x, y, t) follows a Gaussian distribution, the probability distribution function PL (H) of the selection value H is as follows.

ここで、πは円周率、erfは誤差関数である。この選択値Hの確率分布関数を鑑みて、選択値Hが移動天体が存在していること(正確には移動天体が存在していないという仮説を棄却すること)を示しているかどうかを判定するための閾値Thを設定する。ここでは統計学的な検定法にならい、ある棄却確率Pdを設定し、選択値Hが閾値Thを超える確率がPdよりも小さければ、そこに移動天体がないという仮説を棄却し、移動天体があると結論づける。一般的な統計学的な検定法では、棄却確率Pdは5%程度に設定される事が多いが、移動天体検出の場合それよりも小さい方が望ましい。それは、理論上棄却確率Pd程度で誤検出が起こるためである。仮に数百万画素からなる画像データの場合、棄却確率Pdを5%程度に設定すると、1つの補正画像データにつき10万個ほどの誤検出が起こる計算になり、以後の処理が困難になる。棄却確率Pdは、誤検出の個数がおよそ1つの補正画像データにつき数個ないしは数百個以内となるように設定した方がよい。例えば、補正画像データが数百万画素からなるデータであれば、棄却確率Pdを画素数の逆数の10マイナス4乗から10マイナス6乗程度に設定すればよい。そしてこの棄却確率に対応するKを閾値Thとする。具体的には、以下の式を満たすKを閾値Thとする。   Here, π is a circular ratio, and erf is an error function. In view of the probability distribution function of the selection value H, it is determined whether or not the selection value H indicates that a moving celestial object exists (exactly, a hypothesis that no moving celestial object exists) is rejected. The threshold value Th for this is set. Here, following a statistical test method, a certain rejection probability Pd is set, and if the probability that the selected value H exceeds the threshold Th is smaller than Pd, the hypothesis that there is no moving object is rejected, and the moving object is I conclude that there is. In a general statistical test method, the rejection probability Pd is often set to about 5%, but in the case of moving celestial object detection, a smaller one is desirable. This is because false detection occurs theoretically with a rejection probability Pd. In the case of image data consisting of several million pixels, if the rejection probability Pd is set to about 5%, about 100,000 erroneous detections occur for each corrected image data, and subsequent processing becomes difficult. The rejection probability Pd is preferably set so that the number of erroneous detections is within a few or a few hundred per corrected image data. For example, if the corrected image data is data composed of several million pixels, the rejection probability Pd may be set to about 10 minus 4 to about 10 minus 6 to the reciprocal of the number of pixels. And let K corresponding to this rejection probability be threshold value Th. Specifically, K satisfying the following expression is set as the threshold Th.

確率分布関数PL(H)に従う選択値Hの期待値は、線分状領域のパターン数Dにも依存するが、画素数Pの平方根の2倍から3倍程度になる。上式から定められる閾値Thは、少なくとも選択値Hの期待値よりも大きな値であるはずである。通常は閾値Thは画素数Pの平方根の5倍程度以上であり、これよりも小さな値である場合は、棄却確率Pdが大きすぎるか、計算に誤りがあるとみてよい。逆に言えば、閾値Thを画素数Pの平方根の5倍以上の大きな値に設定する事で、誤検出を十分抑えて移動天体を検出する事が可能である。   The expected value of the selection value H according to the probability distribution function PL (H) is about two to three times the square root of the number of pixels P, although it depends on the number of patterns D in the line segment region. The threshold value Th determined from the above equation should be at least larger than the expected value of the selection value H. Normally, the threshold Th is about five times the square root of the number of pixels P. If the threshold Th is smaller than this, it may be considered that the rejection probability Pd is too large or the calculation is incorrect. In other words, by setting the threshold Th to a large value that is five times or more the square root of the number of pixels P, it is possible to detect a moving celestial object while sufficiently suppressing erroneous detection.

以上の解析により、正規化画像データC(x、y、t)上の画素(x0、y0)を通る移動天体の有無と、移動天体が有る場合にはその方向が得られる。この処理を複数の画素位置で行う事により、画素毎の検出結果が得られる。   By the above analysis, the presence / absence of a moving celestial object passing through the pixel (x0, y0) on the normalized image data C (x, y, t) and the direction of the moving celestial object are obtained. By performing this process at a plurality of pixel positions, a detection result for each pixel can be obtained.

以上は補正画像データの補正誤差が十分小さい場合の例であった。次に、実際には補正誤差が無視できない場合や、薄い雲が存在するために誤検出が非常に多くなってしまう場合に対応するための処理を説明する。またこの処理は、補正画像データから平均画像データを差し引く処理をせず、補正画像データにスカイレベルS(x、y)が存在している場合でも上述の検出処理を可能とするものでもある。補正誤差が無視できない例としては、天候の影響により空が一様でなかったり、センサにおいて熱や電源などによりノイズが発生したりする場合がある。さらに天候による影響やセンサのノイズ特性は得られた画像データの領域ごとに異なるため、平均値やノイズ分散も画像データにおける領域によって異なる。この場合、前述のように画像データA(x、y、t)をある単一の標準偏差で割る正規化処理を施しただけでは正規化画像データにはならない。つまり正規化処理の結果、必ずしも十分に正規化された画像データが得られるとは限らない。そこで本実施形態では、画像データ全体を分割して部分領域を定義し、その領域毎に平均値と標準偏差とを求めて正規化する。部分領域は、例えばセンサの読み出しチャンネルなどに応じて分割すればよい。図6は、撮像したフレームにおいて薄い雲が出ている例を示す。なお薄い雲が出ている場合とスカイレベルS(x,y)が存在している場合は検出の原理的にはほぼ等価な状況である。   The above is an example where the correction error of the corrected image data is sufficiently small. Next, a process for dealing with a case where the correction error cannot be ignored in practice or a case where the number of false detections becomes very large due to the presence of a thin cloud will be described. Further, this process does not perform the process of subtracting the average image data from the corrected image data, and enables the above-described detection process even when the sky level S (x, y) exists in the corrected image data. As examples where the correction error cannot be ignored, there are cases where the sky is not uniform due to the influence of the weather, or noise is generated in the sensor due to heat or power. Furthermore, since the influence of the weather and the noise characteristics of the sensor differ for each area of the obtained image data, the average value and the noise variance also differ depending on the area of the image data. In this case, as described above, the normalized image data is not obtained simply by performing the normalization process of dividing the image data A (x, y, t) by a single standard deviation. That is, as a result of the normalization process, sufficiently normalized image data is not always obtained. Therefore, in this embodiment, the entire image data is divided to define partial areas, and an average value and a standard deviation are obtained and normalized for each area. The partial area may be divided according to, for example, a sensor reading channel. FIG. 6 shows an example in which a thin cloud appears in the captured frame. In the case where a thin cloud is present and the sky level S (x, y) exists, the detection principle is almost equivalent.

ただし、分割して得られる部分領域は、小さくし過ぎてしまうと、正規化処理の過程で移動天体の信号を弱めてしまい検出感度が下がってしまう。この検出感度の低下を回避するため、正規化処理を三段、ないしは二段階に分けるのがよい。三段階の場合は、第一に画像全体で第一正規化処理を行う。第一正規化処理により正規化処理された画像データに対して、センサ特性に応じて分割した部分領域毎に十分に正規化されているかどうかを確認し、正規化できていない場合に限り部分領域毎の第二正規化処理をする。そして、第二正規化処理により正規化処理された画像データに対して、部分領域をさらに細かく分割した小領域毎に十分に正規化されているかどうかを確認し、正規化できていない場合に限り小領域毎に第三正規化処理を施す。なお、第三正規化処理における小領域の大きさは、その一辺の長さが検出しようとする線分の倍程度以上になるようにしておく。二段階で正規化処理をする場合には、全体の正規化処理をスキップして、最初から任意に設定した部分領域毎の正規化から行えばよい。これら一連の操作により、画像データに無視できない補正誤差や薄い雲などが存在しても、各領域では適切に正規化された正規化画像データC(x、y、t)を得ることができる。なお、マスクデータM(x、y、t)を使用する場合には正規化処理はこれを考慮して行う。つまり、領域毎の平均値と標準偏差を算出する際には、マスクデータM(x、y、t)が処理対象外とすることを示す画素を無視して算出する。   However, if the partial area obtained by dividing is too small, the signal of the moving celestial body is weakened during the normalization process, and the detection sensitivity is lowered. In order to avoid this decrease in detection sensitivity, the normalization process is preferably divided into three stages or two stages. In the case of the three stages, first, the first normalization process is performed on the entire image. For the image data normalized by the first normalization process, check whether each partial area divided according to the sensor characteristics is fully normalized, and only if the partial area is not normalized The second normalization process is performed every time. Then, for the image data that has been normalized by the second normalization process, check whether it is sufficiently normalized for each small area obtained by further dividing the partial area. A third normalization process is performed for each small area. Note that the size of the small area in the third normalization process is set so that the length of one side is about twice or more of the line segment to be detected. When normalization processing is performed in two stages, the entire normalization processing may be skipped, and normalization for each partial region arbitrarily set from the beginning may be performed. Through these series of operations, even if there is a correction error or a thin cloud that cannot be ignored in the image data, it is possible to obtain normalized image data C (x, y, t) appropriately normalized in each region. Note that when the mask data M (x, y, t) is used, the normalization process is performed in consideration of this. That is, when calculating the average value and the standard deviation for each region, the calculation is performed by ignoring the pixels indicating that the mask data M (x, y, t) is not subject to processing.

この正規化処理をした後、減光処理を行う。減光処理とは、正規化画像データC(x、y、t)において、予め定められた閾値Th2を超える画素値を所定値に置換する処理である。所定値は、置換する画素の画素値よりも小さく、かつ0以上の値である。例えば、閾値Th2、所定値ともに3とした場合、画素値が3を超える画素は、画素値を3に置換される。なお、画像データにおけるスカイレベルが0ではない場合、所定値はスカイレベル以上であることが望ましい。このような減光処理により、宇宙線などによる輝点の誤検出を減らすことができる。   After this normalization process, a dimming process is performed. The dimming process is a process of replacing a pixel value exceeding a predetermined threshold Th2 with a predetermined value in the normalized image data C (x, y, t). The predetermined value is smaller than the pixel value of the pixel to be replaced and is a value of 0 or more. For example, when the threshold value Th2 and the predetermined value are both 3, a pixel value exceeding 3 is replaced with 3. When the sky level in the image data is not 0, the predetermined value is desirably equal to or higher than the sky level. Such light reduction processing can reduce false detection of bright spots due to cosmic rays or the like.

図7は、減光処理による効果を示す概念図である。前述したように、移動天体を示す線分を検出するためのフィルタ処理は、線分状の参照領域における画素値の和を算出する。そして、その和に基づく選択値を判定することにより移動天体を検出する。減光処理を行わなかった場合、線分状の参照領域内に非常に明るい画素が1画素だけでも存在すると、算出される画素値の和は大きくなるために移動天体を示す線分として検出されてしまう場合が起こりうる。しかし1、2画素しかない明るい画素がない輝点は、宇宙線などの何らかのノイズによる値であることが殆どであり、線分ではないので、移動天体としては誤検出である。そこで前述の減光処理を行うことにより、明るい輝点である画素を表す画素値は小さい画素値に置換され、フィルタ処理をしても線分は検出されない。   FIG. 7 is a conceptual diagram showing the effect of the dimming process. As described above, the filter processing for detecting the line segment indicating the moving celestial object calculates the sum of the pixel values in the line segment-like reference region. Then, a moving object is detected by determining a selection value based on the sum. When the light reduction process is not performed, if even one very bright pixel exists in the line-shaped reference area, the sum of the calculated pixel values becomes large and is detected as a line segment indicating a moving object. May occur. However, a bright spot having no bright pixels having only one or two pixels is almost always a value due to some noise such as cosmic rays, and is not a line segment, so it is a false detection as a moving object. Therefore, by performing the above-described dimming process, a pixel value representing a pixel that is a bright luminescent spot is replaced with a small pixel value, and no line segment is detected even if the filtering process is performed.

一方、非常に明るい画素値をもつ画素を0に置換すると、非常に明るい移動天体を検出できなくなってしまう。図7が示す通り明るい線分は、減光処理により多くの画素の画素値が小さくなるものの、フィルタ処理により線分として検出される。   On the other hand, if a pixel having a very bright pixel value is replaced with 0, a very bright moving object cannot be detected. As shown in FIG. 7, the bright line segment is detected as a line segment by the filter process, although the pixel values of many pixels are reduced by the dimming process.

このように減光処理を行うことにより、一回の判定で異常に明るい輝点の誤検出を防ぐことができる。正規化された画像データに対して減光処理を行い、かつ減光処理の後に判定部904が行うフィルタ処理に用いられる検出フィルタの幅がPSFと同等である場合、所定値は、閾値Thを検出フィルタの画素数Pで割った値か、それより1割程大きな値とすればよい。このように設定することにより、減光処理によって暗くなった移動天体の選択値が閾値Thを超えやすくなり、検出が可能となる。   By performing the dimming process in this way, it is possible to prevent erroneous detection of an abnormally bright luminescent spot with a single determination. When the normalized image data is dimmed and the width of the detection filter used for the filter process performed by the determination unit 904 after the dimming process is equal to the PSF, the predetermined value is the threshold Th. A value obtained by dividing by the number of pixels P of the detection filter may be set to a value that is approximately 10% larger than that. By setting in this way, the selection value of the moving celestial body darkened by the dimming process is likely to exceed the threshold Th, and detection is possible.

例えば、閾値Thが画素数Pの平方根の6倍である場合、所定値は6をPの平方根で割った値となる。画素数Pが図5の様に16である場合、所定値は1.5かそれより1割程度大きな1.65とする。あるいは、検出フィルタの半分の長さでしか写ってない明るい移動天体を検出したければ、その倍の3.3程度としてもよい。閾値Thは24となるから、移動天体が2×4=8画素で写っていれば検出される。   For example, when the threshold Th is 6 times the square root of the number of pixels P, the predetermined value is a value obtained by dividing 6 by the square root of P. When the number of pixels P is 16, as shown in FIG. 5, the predetermined value is 1.5 or 1.65 which is about 10% larger than that. Alternatively, if it is desired to detect a bright moving celestial object that is captured only at half the length of the detection filter, it may be about 3.3. Since the threshold value Th is 24, it is detected if the moving celestial object is captured with 2 × 4 = 8 pixels.

また、検出フィルタの幅がPSFより大きい場合は、所定値を、検出フィルタの長さWにPSFの幅を掛けた値で割った値付近以上にすればよい。これは、移動天体の幅はおおよそPSFの幅であり、減光処理によって暗くなった移動天体が存在する場合の加算値が、おおよそ所定値×PSFの幅×検出フィルタ長さLとなるからである。このように、所定値は検出フィルタの画素数Pや閾値Thに応じて決めればよい。   If the width of the detection filter is larger than the PSF, the predetermined value may be equal to or greater than a value obtained by dividing the detection filter length W by the width of the PSF. This is because the width of the moving celestial body is approximately the width of the PSF, and the added value when there is a moving celestial body darkened by the dimming process is approximately the predetermined value × the width of the PSF × the detection filter length L. is there. As described above, the predetermined value may be determined according to the number of pixels P of the detection filter and the threshold value Th.

一方、ノイズの標準偏差から所定値を決定してもよい。通常、限界等級はノイズの標準偏差の5倍ないしは10倍の輝度を持つ天体の明るさとして定められる。所定値がノイズの標準偏差の5倍より大きい場合、その値は1画素だけで有意な天体が存在するとみなせるほどの値である。このような大きさの輝度が加算されて加算値が算出されると、移動天体が存在しなくとも加算値が閾値Thを超えてしまい誤検出をしてしまう確率が高まる。移動天体の誤検出を避けるためには、1画素では光が微弱過ぎて検出とは見なせず、しかしながらその微弱な光が線分状に並んでいる場合には統計的に天体が存在するとみなせるような値に所定値を設定する必要がある。すなわち、少なくともノイズの標準偏差の5倍よりは小さくなくてはならず、さらに、ノイズの標準偏差よりは大きい必要がある。所定値が標準偏差より小さくなると、加算値が閾値を超えにくくなり検出できなくなる。好ましくは、ノイズの標準偏差の4倍以下の値に所定値を設定する。   On the other hand, the predetermined value may be determined from the standard deviation of noise. Usually, the limit grade is defined as the brightness of a celestial body having a brightness 5 to 10 times the standard deviation of noise. When the predetermined value is larger than five times the standard deviation of noise, the value is such a value that it can be considered that a significant celestial body exists with only one pixel. If the luminance of such a magnitude is added and the added value is calculated, the probability that the added value exceeds the threshold value Th even if there is no moving celestial object and false detection is increased. In order to avoid erroneous detection of moving celestial bodies, one pixel cannot be regarded as detection because the light is too weak. However, if the weak light is lined up in a line, it can be considered that the celestial body exists statistically. It is necessary to set a predetermined value to such a value. That is, it must be at least smaller than 5 times the standard deviation of noise, and more than the standard deviation of noise. When the predetermined value is smaller than the standard deviation, the added value is difficult to exceed the threshold and cannot be detected. Preferably, the predetermined value is set to a value not more than four times the standard deviation of noise.

以上の処理によって、移動天体を画素毎に方向情報とともに高精度で検出することができる。なお、画像全体、あるいは区画や部分領域毎のスカイレベル(平均値)とノイズの標準偏差が分かっていれば、画像全体を正規化した正規化画像を生成せずとも数式的には等価な処理をすることが可能である。従って平均値と標準偏差(ないしは分散)を導出する必要はあるが、正規化画像を生成するかどうかは本発明を限定するものではない。   Through the above processing, the moving celestial object can be detected with high accuracy along with the direction information for each pixel. If the sky level (average value) and the standard deviation of noise are known for the entire image, or for each section or partial area, mathematically equivalent processing is possible without generating a normalized image that normalizes the entire image. It is possible to Therefore, although it is necessary to derive the average value and the standard deviation (or variance), whether or not to generate a normalized image does not limit the present invention.

次に、この画素毎の検出結果を統合する。移動天体は線分として写っているため、ある画素で移動天体が検出されている場合、ほとんどの場合はその方向に沿った複数の画素において、同じ移動天体が検出されている。これらを一つの移動天体としてまとめ、複数の画素位置情報を、線分の2つの端点の座標へとデータ形式を変換する。これが画素毎の検出結果の統合である。   Next, the detection results for each pixel are integrated. Since the moving celestial object is shown as a line segment, when the moving celestial object is detected at a certain pixel, in most cases, the same moving celestial object is detected at a plurality of pixels along the direction. These are collected as one moving celestial body, and the data format is converted into the coordinates of the two end points of the line segment from a plurality of pixel position information. This is the integration of detection results for each pixel.

以下、処理を具体的に述べる。移動天体が検出された画素は、移動天体の方向データを含んでいる。そこで、移動天体が検出された方向に沿って、他に方向がほぼ同じである移動天体が検出されないかを探し、見つかれば同じ移動天体であると判定する。そして、新たに見つかった移動天体に対して、同じ操作を再帰的に繰り返す。これにより、同じ移動天体に属する画素毎の検出情報(画素位置と方向)を結びつけることができる。複数の画素位置が同じ移動天体であるとして結び付けられると、線分状にならんだ画素位置の点群が得られる。この点群から、線分の端点を算出する。端点の算出方法はいくつか考えられる。例えば得られた点群からそれを近似する直線を求め、近似した直線に各点を射影して端点を探すと安定な結果が得られる。なお、移動天体の天球上での速度が遅く線分の長さが短い場合には、結び付けられる画素の数が1〜3画素程度しか存在せず、点群から近似直線を精度よく求めるのは難しい。この場合は、直線の方向は画素毎の検出結果から決定し、切片のみ求めればよい。より高速に線分の端点を求める必要がある場合は、点群の中から水平あるいは垂直方向の最大値と最小値を求め、それに対応する垂直あるいは水平方向の画素位置を抜き出してもよい。   The processing will be specifically described below. The pixel in which the moving celestial object is detected includes direction data of the moving celestial object. Therefore, along with the direction in which the moving celestial object is detected, a search is made for other moving celestial objects having substantially the same direction, and if they are found, they are determined to be the same moving celestial object. Then, the same operation is recursively repeated for newly found moving objects. Thereby, the detection information (pixel position and direction) for each pixel belonging to the same moving object can be linked. When a plurality of pixel positions are combined as being the same moving celestial body, a point group of pixel positions aligned in a line segment shape is obtained. From this point group, the end point of the line segment is calculated. There are several methods for calculating the end points. For example, when a straight line that approximates the obtained point group is obtained and each point is projected onto the approximated straight line to find an end point, a stable result can be obtained. In addition, when the speed of the moving celestial body on the celestial sphere is slow and the length of the line segment is short, there are only about 1 to 3 pixels to be connected, and an approximate straight line is accurately obtained from the point group. difficult. In this case, the direction of the straight line is determined from the detection result for each pixel, and only the intercept may be obtained. When it is necessary to obtain the end points of the line segment at higher speed, the horizontal and vertical maximum and minimum values may be obtained from the point group, and the corresponding vertical or horizontal pixel positions may be extracted.

最後にフレーム間で移動天体の検出結果を統合する。通常、移動天体は消失するか視野外に出るまでの間、複数のフレームにまたがって写っている。上述の処理によりフレーム毎に線分として検出された移動天体に対し、フレーム間で線分の対応を取って同一の移動天体であるものを結びつけて統合する。このように統合された検出結果がフレーム間検出結果である。このフレーム間における統合処理により、ある移動天体が出現して消失するまでのフレーム番号と移動天体の軌跡が得られる。なお、フレーム内で検出された移動天体に対して、前後数フレームでは統合すべき移動天体が見つからない場合もある。これは誤検出の可能性が高く、その後の解析も困難であるため、フレーム間において統合すべき移動天体がない検出結果は、破棄した方がよい。   Finally, the detection results of moving objects are integrated between frames. Normally, moving objects are shown across multiple frames until they disappear or go out of sight. The moving celestial bodies detected as line segments for each frame by the above-described processing are integrated by linking the same moving celestial bodies by taking correspondence between the line segments between the frames. The detection result integrated in this way is the inter-frame detection result. By the integration process between the frames, a frame number and a trajectory of the moving celestial object until a certain moving celestial object appears and disappears are obtained. Note that there are cases where the moving celestial bodies to be integrated cannot be found in several frames before and after the moving celestial bodies detected within the frame. Since this is highly likely to be erroneously detected and subsequent analysis is difficult, it is better to discard the detection results that have no moving celestial bodies to be integrated between frames.

あるフレームで検出された移動天体と別のフレームで検出された移動天体の同一性は、以下に示すような複数の条件を満たすかどうかにより判定される。最初の条件は、2つの線分の方向が同じであるかどうかである。ここで方向が全く異なれば別々の移動天体だと判定する。次の条件は、2つの移動天体が直線上に並んでいるかどうかである。ここで2つの線分が全く直線上に並んでいなければ、これらは別々の移動天体であると判定する。逆に2つの線分が直線上に並んでおり、さらにまだ一度も他のフレーム内検出データと対応がついていない場合はこの時点で同一の移動天体であると判定してもよい。これは、厳密には異なる移動天体が直線上に同時に発生する可能性は非常に低く、異なる移動天体が直線上に同時に発生する可能性を無視することができるためである。もし、誤検出も含めて移動天体の画素毎検出の頻度が多く、2つの移動天体が線分状に発生する可能性が無視できない場合には、2つの移動天体の間隔に対して追加で条件を課して判定すればよい。例えば2つの線分の間隔が、あるフレームにおける線分の長さよりも3倍以上大きいときには別々の天体だと判定する。これは移動天体が天球上で急激に加速する事が物理的にありえないために可能な判断である。ただし、あるフレームの露光と次のフレームの露光の間の時間が長い場合にはそれに応じて、線分の間隔に対する閾値をより大きくする必要がある。   The identity of a moving celestial object detected in one frame and a moving celestial object detected in another frame is determined by whether or not a plurality of conditions as shown below are satisfied. The first condition is whether the two line segments have the same direction. If the directions are completely different, it is determined that they are separate moving objects. The next condition is whether or not two moving objects are aligned on a straight line. Here, if the two line segments are not aligned on a straight line, it is determined that they are separate moving objects. Conversely, if two line segments are arranged on a straight line and have not yet been associated with other in-frame detection data, it may be determined that they are the same moving object at this point. Strictly speaking, this is because the possibility that different moving celestial objects occur simultaneously on a straight line is very low, and the possibility that different moving celestial objects occur simultaneously on a straight line can be ignored. If the frequency of detection of moving celestial objects, including false detections, is high and the possibility that two moving celestial objects are generated in a line segment cannot be ignored, additional conditions are added to the interval between the two moving celestial objects. You can determine by imposing. For example, when the interval between two line segments is more than three times larger than the length of the line segment in a certain frame, it is determined that they are separate celestial bodies. This is a possible decision because a moving object cannot physically accelerate on the celestial sphere. However, if the time between the exposure of one frame and the exposure of the next frame is long, the threshold for the interval between line segments needs to be increased accordingly.

すでにいずれかのフレーム内検出と対応がついている場合は、精度を上げるためにさらに非逆行性の条件を課して同一性の判定を行う。非逆行性とは移動天体が天球上で逆向きに進まない性質を指す。一度フレーム間で移動天体の対応がつくと、1つのフレームの検出結果では判り得ない移動天体の進行方向が判る。具体的には、2つの線分の端点の座標を比較する事で移動天体の始点と終点を判別する事ができる。例えば図8(a)ではフレームfの移動天体とフレームf+1の移動天体を統合すると、端点Aが始点であり、端点Dが終点となる。一方、図8(b)では、フレームfの移動天体とフレームf+1の移動天体を統合すると、端点Bが始点であり端点Cが終点となる。すでに2つのフレームで対応がついた移動天体に対し、3つめ以降のフレームで対応をつける際も同様の方法で可能である。このように求められた移動天体の進行方向を用いることで非逆行性の判定が可能となる。具体的には、すでに対応が取れて進行方向が判明している移動天体の始点と終点、ならびにこれから対応をつけようとしているフレーム内検出データの2つの端点を用いて行う。始点と終点の座標をそれぞれ(xi,yi),(xf,yf)とし、前記フレーム内検出データの端点の座標を(x1,y1), (x2,y2)として、以下の条件式を満たすかどうかで判定する。   If any one of the intra-frame detections is already associated, the non-retrograde condition is further imposed to determine the identity in order to increase the accuracy. Non-retrograde means the property that a moving celestial body does not travel backwards on the celestial sphere. Once the correspondence of the moving celestial object is established between the frames, the traveling direction of the moving celestial object that cannot be understood from the detection result of one frame is known. Specifically, the start point and end point of the moving object can be determined by comparing the coordinates of the end points of two line segments. For example, in FIG. 8A, when the moving object of the frame f and the moving object of the frame f + 1 are integrated, the end point A is the start point and the end point D is the end point. On the other hand, in FIG. 8B, when the moving object of the frame f and the moving object of the frame f + 1 are integrated, the end point B is the start point and the end point C is the end point. A similar method can be used when a moving object that has already been handled in two frames is assigned a correspondence in the third and subsequent frames. By using the traveling direction of the moving celestial body thus obtained, it is possible to determine non-retroversion. Specifically, this is performed using the start and end points of a moving celestial body that has already been dealt with and whose traveling direction is known, and two end points of the in-frame detection data to be matched. Whether the coordinates of the start point and the end point are (xi, yi) and (xf, yf), respectively, and the coordinates of the end points of the detection data in the frame are (x1, y1) and (x2, y2) Judge by how.

{( xi < xf < max( x1, x2 ) ) or ( xi > xf > min( x1, x2 ) ) }
かつ {( yi < yf < max( y1, y2 ) ) or ( yi > yf > min( y1, y2 ) ) } (6)
この式が満たされている場合、移動天体のx座標とy座標は単調に増加ないしは減少しており、逆行をしていないといえる。なお、検出対象としている移動天体が人工衛星やスペースデブリなど、尾を引かない移動天体に限定している場合は、以下のさらに厳しい条件式を課すことができる。
{(Xi <xf <max (x1, x2)) or (xi>xf> min (x1, x2))}
And {(yi <yf <max (y1, y2)) or or (yi>yf> min (y1, y2))} (6)
When this equation is satisfied, it can be said that the x coordinate and y coordinate of the moving celestial body are monotonously increasing or decreasing and are not retrograde. In addition, when the moving celestial object to be detected is limited to a moving celestial object such as an artificial satellite or space debris, the following more severe conditional expression can be imposed.

{( xi < xf ≦ min( x1, x2 ) ) or ( xi > xf ≧ max( x1, x2 ) ) } かつ {( yi < yf ≦ min( y1, y2 ) ) or ( yi > yf ≧ max( y1, y2 ) ) } (7)
この非逆行性の判定を加えることにより、異なる移動天体を同じ物として対応づけてしまう誤判定が減らし、フレーム内検出データの信頼度を上げることができる。
{(Xi <xf ≦ min (x1, x2)) or (xi> xf ≧ max (x1, x2))} and {(yi <yf ≦ min (y1, y2)) or (yi> yf ≧ y (y , Y2))}} (7)
By adding this non-retrograde determination, it is possible to reduce erroneous determination that associates different moving celestial bodies as the same object, and to increase the reliability of the in-frame detection data.

以上の原理に基づいて、複数のフレームからなる画像データに対して移動天体を検出し、さらに移動天体が観測され始めたフレームと観測し終わったフレームと移動天体の始点と終点などを得ることができる。   Based on the above principle, it is possible to detect a moving celestial object from image data consisting of a plurality of frames, and further obtain a frame in which the moving celestial object is observed, a frame in which the moving celestial object has been observed, a start point and an end point of the moving celestial object it can.

以下、移動天体検出部111、フレーム内統合処理部112、およびフレーム間統合処理部113での処理の詳細を順に示す。   Hereinafter, details of processing in the moving object detection unit 111, the intra-frame integration processing unit 112, and the inter-frame integration processing unit 113 will be sequentially shown.

●移動天体検出部111の詳細
図9は、移動天体検出部111の詳細な構成を示すブロック図である。移動天体検出部111は、差分画像生成部901、正規化処理部902、減光処理部903、判定部904を有する。図10は、移動天体検出部111における動作の流れを示すフローチャートである。また、図11は、移動天体検出部111における正規化処理部902のさらに詳細な構成を示すブロック図である。また、図12は、正規化処理部902における正規化処理の流れを示すフローチャートである。以下、図9から図12を用いて、移動天体検出部111における動作を説明する。
Details of Moving Object Detection Unit 111 FIG. 9 is a block diagram showing a detailed configuration of the moving object detection unit 111. The moving celestial body detection unit 111 includes a difference image generation unit 901, a normalization processing unit 902, a light reduction processing unit 903, and a determination unit 904. FIG. 10 is a flowchart showing a flow of operations in the moving celestial body detection unit 111. FIG. 11 is a block diagram showing a more detailed configuration of the normalization processing unit 902 in the moving celestial body detection unit 111. FIG. 12 is a flowchart showing the flow of normalization processing in the normalization processing unit 902. Hereinafter, the operation of the moving object detection unit 111 will be described with reference to FIGS. 9 to 12.

まずステップS801において差分画像生成部901は、画像データ補正処理部109で処理された補正画像データと平均画像記憶部305に記憶された平均画像データとを読み込む。次に、ステップS802において差分画像生成部901は補正画像データから平均画像データを差し引き、差分画像データを生成する。   First, in step S <b> 801, the difference image generation unit 901 reads the corrected image data processed by the image data correction processing unit 109 and the average image data stored in the average image storage unit 305. Next, in step S802, the difference image generation unit 901 generates difference image data by subtracting the average image data from the corrected image data.

ステップS803において正規化処理部902は、マスクデータ記憶部306からマスクデータを読み込む。さらにステップS804において正規化処理部902は、差分画像データに対してマスク処理をした後、差分画像データを正規化する。   In step S <b> 803, the normalization processing unit 902 reads mask data from the mask data storage unit 306. Further, in step S804, the normalization processing unit 902 performs mask processing on the difference image data, and then normalizes the difference image data.

ここでは差分画像データを2段階に分けて正規化する例を図11と図12を用いて示す。まずステップS1201において平均分散計算部1101は、センサ特性に基づいてあらかじめ決められた区画を示すパラメータを分割方法記憶部906から取得する。そして平均分散計算部1101は、差分画像データに対してその区画毎に平均値と分散値を計算する。ステップS1202において第一正規化処理部1102は、平均分散計算部1101によって計算された平均値と分散値に基づいて、区画毎に差分画像データの正規化を行う。   Here, an example of normalizing the difference image data in two stages will be described with reference to FIGS. First, in step S <b> 1201, the average variance calculation unit 1101 acquires from the division method storage unit 906 a parameter indicating a predetermined segment based on sensor characteristics. Then, the average variance calculation unit 1101 calculates an average value and a variance value for each section of the difference image data. In step S1202, the first normalization processing unit 1102 normalizes the difference image data for each section based on the average value and the variance value calculated by the average variance calculation unit 1101.

次に、雲などの存在により正規化処理が阻害されていないかどうかを判定する。まず、ステップS1203において平均分散再計算部1103は、該区画よりもさらに細かな部分領域に差分画像データ分割し、部分領域ごとに平均値と分散値を計算する。そしてステップS1204において、この平均値と分散値を基に、第一正規化結果判定部1104における正規化処理が成功したかどうかを判定する。具体的にはこの平均値が有意にスカイレベル(第一正規化処理により0)から外れていないかという観点と、この分散が元の区画の分散(第一正規化処理により1)よりも有意に大きくなってはいないかという観点で判断を行う。例えば平均値のずれはt検定、分散のずれはF検定で判断できる。この判定によって正規化に失敗していると判断されれば、ステップS1205に進み、平均分散再計算部1103にて算出された平均値と標準偏差を用いて、再正規化処理部1105は各部分領域を正規化し正規化画像データを生成する。正規化に成功している場合には再正規化処理は行わず、このフローを終了する。   Next, it is determined whether or not the normalization process is hindered by the presence of a cloud or the like. First, in step S1203, the average variance recalculation unit 1103 divides the difference image data into partial areas that are finer than the section, and calculates an average value and a variance value for each partial area. In step S1204, based on the average value and the variance value, it is determined whether the normalization process in the first normalization result determination unit 1104 is successful. Specifically, the average value is not significantly different from the sky level (0 by the first normalization process), and this variance is more significant than the original partition variance (1 by the first normalization process). Judgment is made from the viewpoint of whether it is larger. For example, the deviation of the average value can be judged by the t test, and the deviation of the variance can be judged by the F test. If it is determined by this determination that normalization has failed, the process proceeds to step S1205, and the renormalization processing unit 1105 uses the average value and the standard deviation calculated by the average variance recalculation unit 1103. Normalize the region and generate normalized image data. If normalization is successful, renormalization processing is not performed and this flow is terminated.

以下、図9と図10に戻り説明を続ける。ステップS805において減光処理部903は、宇宙線などによる輝点を線分と誤検出しないため、検出パラメータ記憶部305から閾値Th2と所定値を取得し、減光処理を行う。   Hereinafter, the description will be continued returning to FIG. 9 and FIG. In step S805, the light reduction processing unit 903 obtains the threshold value Th2 and a predetermined value from the detection parameter storage unit 305 and performs light reduction processing in order not to erroneously detect a bright spot such as a cosmic ray as a line segment.

ステップS806において判定部904は検出パラメータ記憶部から検出した線分が移動天体を示すかどうかを判定するのに必要な閾値Thを取得し、さらに出フィルタ記憶部308から検出フィルタ群を読み込む。   In step S <b> 806, the determination unit 904 acquires a threshold Th necessary for determining whether or not the detected line segment indicates a moving object from the detection parameter storage unit, and further reads a detection filter group from the output filter storage unit 308.

ステップS807において判定部904は、画素毎に線分を検出する処理を行う。まず、注目画素に検出フィルタ群をそれぞれ適用してフィルタ処理をする。ここで施されるフィルタ処理では、注目画素を含む線分状の参照領域における各画素値の和を算出する。フィルタ処理により算出した複数の和のうち最大となる線分方向を探索し、その最大の和を選択値として選択する。   In step S807, the determination unit 904 performs processing for detecting a line segment for each pixel. First, filter processing is performed by applying the detection filter group to each pixel of interest. In the filtering process performed here, the sum of the pixel values in the line-segment reference region including the target pixel is calculated. The maximum line segment direction is searched from among the plurality of sums calculated by the filter processing, and the maximum sum is selected as a selection value.

そしてステップS808において、算出した選択値と閾値Thを比較し移動天体の有無を判定する。移動天体があると判定された場合にはステップS809に、移動天体がないと判定された場合にはステップS810に進む。ステップS809においては、移動天体として判定された選択値とその選択値に対応する線分の方向を記録する。   In step S808, the calculated selection value is compared with the threshold Th to determine the presence or absence of a moving object. If it is determined that there is a moving celestial object, the process proceeds to step S809. If it is determined that there is no moving celestial object, the process proceeds to step S810. In step S809, the selection value determined as the moving object and the direction of the line segment corresponding to the selection value are recorded.

ステップS810において処理対象の補正画像データにおいて全ての画素に対して処理を行ったか判定し、判定すべき画素が残っていればステップS807に戻る。判定すべき画素がなければステップS811に進む。   In step S810, it is determined whether processing has been performed for all pixels in the corrected image data to be processed. If there are remaining pixels to be determined, the process returns to step S807. If there is no pixel to be determined, the process proceeds to step S811.

このように処理対象の補正画像データにおける全ての画素に対してステップS807からステップS809までの処理を繰り返し行い、画素毎検出データを得る。そしてステップS811において、画素毎検出データを画素毎検出データ記憶部905に保存するよう設定されているか判定する。ステップS811において保存するよう設定されていると判定された場合は、ステップS812に進み、画素毎検出データを画素毎検出データ記憶部905に保存する。以上が移動天体検出部111における処理である。   In this way, the processing from step S807 to step S809 is repeated for all the pixels in the corrected image data to be processed to obtain detection data for each pixel. In step S 811, it is determined whether or not the pixel-by-pixel detection data is set to be stored in the pixel-by-pixel detection data storage unit 905. If it is determined in step S811 that the setting is made to save, the process advances to step S812 to save the pixel-by-pixel detection data in the pixel-by-pixel detection data storage unit 905. The above is the process in the moving celestial body detection unit 111.

●フレーム内統合処理部112の詳細
図13はフレーム内統合処理部112の詳細な構成を示すブロック図である。フレーム内統合処理部112は、検出画素統合部1301、端点算出部1302、輝度値算出部1303を有する。図14は、フレーム内統合処理部112におけるフレーム内統合処理の流れを示すフローチャートである。
Details of Intraframe Integration Processing Unit 112 FIG. 13 is a block diagram showing a detailed configuration of the intraframe integration processing unit 112. The intra-frame integration processing unit 112 includes a detection pixel integration unit 1301, an end point calculation unit 1302, and a luminance value calculation unit 1303. FIG. 14 is a flowchart showing the flow of the intra-frame integration processing in the intra-frame integration processing unit 112.

まず、ステップS1401において検出画素統合部1301は、検出パラメータ記憶部305から統合に必要な各パラメータを取得する。具体的には、移動天体検出部110によって付加される方向情報に対応する同一移動天体の探索範囲と、方向が同じであるかどうかを判定するための閾値を検出パラメータとして取得する。方向情報に対応する探索範囲としては様々な例が考えられるが、移動天体の画素毎の検出に使用した検出フィルタ群の形状が適している。   First, in step S1401, the detection pixel integration unit 1301 acquires each parameter necessary for integration from the detection parameter storage unit 305. Specifically, a threshold for determining whether the direction is the same as the search range of the same moving object corresponding to the direction information added by the moving object detection unit 110 is acquired as a detection parameter. Various examples of the search range corresponding to the direction information are conceivable, but the shape of the detection filter group used for detecting each pixel of the moving celestial body is suitable.

検出パラメータ取得後、ステップS1402において検出画素統合部1301は、画素を順番に調べ、移動天体が検出されたかどうかを判定する。移動天体が検出されている場合、その移動天体を示す線分の方向に沿って、他にも線分が検出された画素が存在するか探索する。   After obtaining the detection parameters, in step S1402, the detection pixel integration unit 1301 examines the pixels in order and determines whether a moving celestial object has been detected. When a moving celestial object is detected, a search is made for other pixels in which the line segment is detected along the direction of the line segment indicating the moving celestial object.

ステップS1403において探索先の画素他の線分があるかを調べる。ステップS1403においてまだ統合されていない移動天体が見つかった場合、ステップS1404に進み、ステップS1404においてそれが同一の移動天体であるかどうかを方向の同一性から判定する。   In step S1403, it is checked whether there is a line segment other than the search target pixel. If a moving celestial object that has not yet been integrated is found in step S1403, the process proceeds to step S1404. In step S1404, it is determined from the identity of the direction whether or not it is the same moving celestial object.

ステップS1405において同一の移動天体であれば情報を統合し、さらに再帰的に探索を行う。同一の移動天体でなければ何もせず次に進む。   If they are the same moving object in step S1405, the information is integrated, and the search is further performed recursively. If it is not the same moving object, do nothing and proceed.

ステップS1406において全ての周辺領域を探索したか判定し、未探索の画素があればステップS1403に戻り、全ての周辺領域を探索している場合は処理を終了する。なお、ステップS1405の再帰的に探索とは、ステップS1404で同一と判定された移動天体に対し、ステップS1403からステップS1406の処理を繰り返して探索することである。この再帰的探索により、処理対象フレームにおいて同一の移動天体に属する画素毎検出データが統合される。   In step S1406, it is determined whether all the surrounding areas have been searched. If there are unsearched pixels, the process returns to step S1403. If all the surrounding areas have been searched, the process ends. Note that the recursive search in step S1405 is to search the moving celestial bodies determined to be the same in step S1404 by repeating the processing from step S1403 to step S1406. By this recursive search, detection data for each pixel belonging to the same moving object in the processing target frame is integrated.

ここで、ステップS1407において、統合されたある移動天体が複数の画素で検出されたものであるかどうかを調べる。移動天体が複数の画素で検出されたものでなかった場合には、ステップS1411に進み、その画素は誤検出であると判断する。移動天体が複数の画素で検出されたものであればステップS1408進み、統合した結果を端点算出部1302に送る。端点算出部1302は統合した画素毎の検出結果から移動天体の端点を求める。ステップS1409において輝度値算出部1303は、画像データ前処理部109から補正画像データを取得し、移動天体毎に輝度値を算出する。   Here, in step S1407, it is checked whether an integrated moving celestial body is detected by a plurality of pixels. If the moving celestial object is not detected by a plurality of pixels, the process proceeds to step S1411 and it is determined that the pixel is erroneously detected. If a moving celestial object is detected by a plurality of pixels, the process advances to step S1408, and the result of integration is sent to the endpoint calculation unit 1302. The end point calculation unit 1302 calculates the end point of the moving celestial object from the integrated detection result for each pixel. In step S1409, the luminance value calculation unit 1303 acquires the corrected image data from the image data preprocessing unit 109, and calculates the luminance value for each moving object.

ステップS1410において、算出した端点と輝度値とともに検出画素数やフレーム番号も加えた情報を、フレーム内検出データとしてフレーム内検出データ記憶部1304に追加記録する。   In step S1410, information in which the number of detected pixels and the frame number are added together with the calculated end point and luminance value is additionally recorded in the intra-frame detection data storage unit 1304 as intra-frame detection data.

ステップS1412において、処理対象フレームにおける全ての画素に対して処理したかを判定し、未処理の画素が存在する場合はステップS1402に戻り、全ての画素に対して処理されている場合は画素毎検出データの統合処理が完了となる。   In step S1412, it is determined whether all pixels in the processing target frame have been processed. If there are unprocessed pixels, the process returns to step S1402, and if all pixels have been processed, pixel-by-pixel detection is performed. The data integration process is complete.

以上のようなフレーム内統合処理によって、フレーム内に存在する移動天体の数だけフレーム内検出データが生成される。   Through the intra-frame integration process as described above, the intra-frame detection data is generated for the number of moving objects existing in the frame.

●フレーム間統合処理部113の詳細
図15はフレーム間統合処理部113の詳細な構成を示すブロック図である。フレーム間統合処理部113は、同一性判定部1501、移動天体検出データバッファ1502、検出情報算出部1503を有する。
Details of Interframe Integration Processing Unit 113 FIG. 15 is a block diagram showing a detailed configuration of the interframe integration processing unit 113. The inter-frame integration processing unit 113 includes an identity determination unit 1501, a moving celestial body detection data buffer 1502, and a detection information calculation unit 1503.

図16は、フレーム間統合処理部113が行うフレーム間統合処理の流れを示すフローチャートである。   FIG. 16 is a flowchart showing a flow of interframe integration processing performed by the interframe integration processing unit 113.

同一性判定部1501はフレーム内検出データ記憶部1304または後述する移動天体検出データバッファから、移動天体を示すデータを2つ取得し、それぞれが示す移動天体が同一あるかどうかを判定する。図17はこの同一性判定部1501のさらなる詳細を示すブロック図である。同一性判定部1501は方向一致判定部1701、同一直線判定部1702、非逆行性判定部1703、移動天体検出データ更新部1704を有する。   The identity determination unit 1501 acquires two pieces of data indicating moving celestial bodies from the in-frame detection data storage unit 1304 or a moving celestial body detection data buffer described later, and determines whether the moving celestial bodies indicated by each are the same. FIG. 17 is a block diagram showing further details of the identity determination unit 1501. The identity determination unit 1501 includes a direction coincidence determination unit 1701, an identical line determination unit 1702, a non-retrograde determination unit 1703, and a moving celestial body detection data update unit 1704.

方向一致判定部1701は、2つの移動天体の方向が一致するかどうかを判定する。また、同一直線判定部1702は、方向一致判定部1701が判定した2つの移動天体が同一直線上に存在するかどうかを判定する。非逆行性判定部1703はさらに、判定対象の2つの移動天体が逆行していないかどうかを判定する。2つの移動天体が同一であると判定された場合、移動天体検出データ更新部1704は、移動天体検出データを更新する。移動天体検出データとは、フレーム間統合処理して得られるデータである。つまり、異なるフレームそれぞれのフレーム内検出データから移動天体を示す線分を統合したデータである。本実施形態では始めに、フレーム内検出データが示す移動天体とそれとは別のフレーム内検出データが示す移動天体が同一の場合、統合して移動天体検出データにする。その後、随時移動天体検出データに、さらに統合すべきフレーム内検出データがないか判定いし、移動天体検出データを更新していく。移動天体検出データバッファ1502は、複数ある移動天体検出データを一時的に記憶しておくバッファである。検出情報算出部1503は、移動天体検出データに移動天体の速度などの情報を付加する。   The direction coincidence determination unit 1701 determines whether the directions of the two moving objects coincide. The same straight line determination unit 1702 determines whether the two moving objects determined by the direction coincidence determination unit 1701 exist on the same straight line. The non-retrograde determination unit 1703 further determines whether the two moving objects to be determined are not retrograde. When it is determined that the two moving objects are the same, the moving object detection data update unit 1704 updates the moving object detection data. The moving celestial body detection data is data obtained by inter-frame integration processing. That is, it is data obtained by integrating the line segments indicating the moving celestial bodies from the in-frame detection data of different frames. In the present embodiment, first, when the moving celestial object indicated by the intra-frame detection data and the moving celestial object indicated by the different intra-frame detection data are the same, they are integrated into the moving celestial object detection data. Thereafter, it is determined at any time whether there is any in-frame detection data to be integrated in the moving celestial body detection data, and the moving celestial body detection data is updated. The moving object detection data buffer 1502 is a buffer for temporarily storing a plurality of moving object detection data. The detection information calculation unit 1503 adds information such as the speed of the moving object to the moving object detection data.

フレーム間統合処理は以下のように進む。まずステップS1601において同一性判定部1501は、フレーム内検出データ記憶部1304または移動天体検出データバッファ1502から、移動天体を示すデータを2つ取得する。同一性判定部1501は、検出パラメータ記憶部305から、処理対象の移動天体が同一であるかどうかを判定するためのパラメータを取得し、方向一致判定部1701、同一直線判定部1702、非逆行性判定部1703に格納する。このパラメータは、具体的には2つの移動天体が同じ方向であるとみなすための閾値や、直線状に並んでいるとみなすための閾値などである。   The interframe integration process proceeds as follows. First, in step S1601, the identity determination unit 1501 acquires two pieces of data indicating a moving celestial object from the in-frame detection data storage unit 1304 or the moving celestial object detection data buffer 1502. The identity determination unit 1501 acquires parameters for determining whether or not the processing target moving celestial bodies are the same from the detection parameter storage unit 305, and the direction match determination unit 1701, collinear line determination unit 1702, non-retrograde property The data is stored in the determination unit 1703. Specifically, this parameter is a threshold value for considering that two moving celestial bodies are in the same direction, a threshold value for considering that two moving objects are arranged in a straight line, and the like.

ステップS1602において同一性判定部1501は、フレーム内検出データ記憶部1304から、一つのフレーム内検出データを取得する。なお、フレーム内検出データはフレームの早い順に取得するものとする。   In step S1602, the identity determination unit 1501 obtains one intra-frame detection data from the intra-frame detection data storage unit 1304. It is assumed that the in-frame detection data is acquired in the order of the frames.

ステップS1603において同一性判定部1501は、移動天体検出データバッファ1502に格納された移動天体検出データがあるか確認し、なければステップS1610に進む。移動天体検出データがあればステップS1604に進み、一つ取得する。そしてステップ1605においてフレーム内検出データと移動天体検出データが同一の移動天体であるかどうかを判定する。   In step S1603, the identity determination unit 1501 checks whether there is moving object detection data stored in the moving object detection data buffer 1502, and if not, the process proceeds to step S1610. If there is moving object detection data, the process proceeds to step S1604 to acquire one. In step 1605, it is determined whether the in-frame detection data and the moving object detection data are the same moving object.

同一の移動天体であるかどうか判定の詳細は図18のフローチャートに示すとおりである。まずステップS1801において方向一致判定部1701は、二つの移動天体の進行方向があらかじめ決められた範囲内で一致するかどうかを判定する。   The details of determining whether or not they are the same moving object are as shown in the flowchart of FIG. First, in step S1801, the direction coincidence determination unit 1701 determines whether or not the traveling directions of the two moving objects coincide within a predetermined range.

方向が一致すると判定された場合、ステップS1802において同一直線判定部1702は2つの移動天体があらかじめ決められた範囲内で同一直線上にあるか判定する。ステップS1801あるいはステップS1802が否定された場合は、二つの移動天体は同一ではないと判定され、ステップS1803に進む。   If it is determined that the directions match, in step S1802, the same straight line determination unit 1702 determines whether the two moving celestial bodies are on the same straight line within a predetermined range. If step S1801 or step S1802 is negative, it is determined that the two moving objects are not the same, and the process proceeds to step S1803.

ステップS1802で同一直線上にあると判定された場合、ステップS1804において非逆行性判定部1703は、移動天体検出データが複数のフレームにまたがったものかどうか判定する。具体的には、移動天体検出データに含まれる開始フレーム番号と終了フレーム番号が一致しないことを確認すればよい。   If it is determined in step S1802 that they are on the same straight line, in step S1804, the non-retrograde determination unit 1703 determines whether the moving celestial body detection data extends over a plurality of frames. Specifically, it may be confirmed that the start frame number and the end frame number included in the moving object detection data do not match.

複数フレームにまたがったものである場合、ステップS1805に進み、判定対象であるフレーム内移動天体検出データの端点または移動天体検出データの始点と終点の座標に基づいて、同一の移動天体とみなした場合に移動天体が逆行する事にならないか判定を行う。   If it is across multiple frames, the process proceeds to step S1805, and it is considered as the same moving object based on the end point of the moving object detection data in the frame to be determined or the coordinates of the start point and end point of the moving object detection data. Judge whether the moving object will go backwards.

逆行している場合、ステップS1803に進み2つの移動天体は同一ではないと判断され、逆行していなければステップS1806において同一の移動天体であると判定される。ステップS1804にて移動天体検出データが複数のフレームにまたがったものでない場合には始点と終点が不明であるため、同一天体であると判断する。   If it is retrograde, the process proceeds to step S1803, where it is determined that the two moving celestial bodies are not the same. If it is not retrograde, it is determined in step S1806 that they are the same moving celestial object. If the moving celestial body detection data does not extend over a plurality of frames in step S1804, the start point and the end point are unknown, and it is determined that they are the same celestial body.

以下、図16に戻り、フレーム間統合処理の詳細の説明を続ける。   Hereinafter, returning to FIG. 16, the detailed description of the inter-frame integration processing will be continued.

ステップS1605にてフレーム内検出データと移動天体検出データが同一天体であると判断された場合、ステップS1606において移動天体検出データと統合して移動天体の始点と終点および終了フレーム番号の値などを更新する。   If it is determined in step S1605 that the in-frame detection data and the moving celestial body detection data are the same celestial body, in step S1606, the moving celestial body detection data is integrated to update the values of the start and end points of the moving celestial body and the end frame number. To do.

次にステップS1607においてフレーム内検出データ記憶部1304に未判定のフレーム内検出データがないか判定する。未判定のフレーム内検出データが存在する場合は、ステップS1602に戻る。ステップS1605にてフレーム内検出データと移動天体検出データが同一の天体のものではないと判断された場合、ステップS1608に進み、移動天体検出データの終了フレーム番号がフレーム内検出データのフレームよりも一定数以上過去のものであるかどうかを調べる。一定数以上過去のものでなければ何もせずステップS1603に戻るが、一定数以上過去のものであればすでにその移動天体は消失したか視野外に出たと判定し、移動天体検出データを確定する処理を行う。   In step S1607, it is determined whether there is undecided intra-frame detection data in the intra-frame detection data storage unit 1304. If undetected intra-frame detection data exists, the process returns to step S1602. If it is determined in step S1605 that the in-frame detection data and the moving object detection data are not the same object, the process proceeds to step S1608, and the end frame number of the moving object detection data is more constant than the frame of the in-frame detection data. Find out if it is more than a few years old. If it is not more than a certain number in the past, nothing is done and the process returns to step S1603, but if it is in the past for a certain number or more, it is determined that the moving object has already disappeared or has gone out of the field of view, and the moving object detection data is determined. Process.

ステップS1609において、確定する移動天体検出データに対応する移動天体検出データバッファ1502中の該当データは削除し、確定する移動天体検出データを検出情報算出部1603に送る。検出情報算出部1603は移動天体の始点、終点、開始フレーム、終了フレームに加え、天球面上での速度などの追加検出情報を算出して、移動天体検出データ記憶部1504に追加記録する。ただしこのとき、移動天体が複数フレームにまたがって検出されているのでなければ、誤検出の可能性があるので破棄するのが好ましい。ステップS1609の後、ステップS1603に戻り、移動天体検出データバッファ1502に格納された次の移動天体検出データとの比較を続ける。   In step S1609, the corresponding data in the moving object detection data buffer 1502 corresponding to the moving object detection data to be confirmed is deleted, and the moving object detection data to be confirmed is sent to the detection information calculation unit 1603. The detection information calculation unit 1603 calculates additional detection information such as the velocity on the celestial sphere in addition to the start point, end point, start frame, and end frame of the moving celestial object, and additionally records them in the moving celestial object detection data storage unit 1504. However, at this time, if the moving celestial object is not detected across a plurality of frames, it is preferably discarded because there is a possibility of erroneous detection. After step S1609, the process returns to step S1603, and the comparison with the next moving object detection data stored in the moving object detection data buffer 1502 is continued.

ステップS1603にて移動天体検出データバッファ1502に未判定の移動天体検出データが存在しない場合、ステップS1610において、ステップS1602で読み込んだフレーム内検出データを移動天体検出データに変換し、移動天体検出データバッファ1502に追加する。なお、この時点では移動天体の始点と終点は不明であるため、フレーム内検出データの端点をそれぞれ始点と終点に割り当てて記録しておく。また、開始フレーム番号と終了フレーム番号はフレーム内検出データのフレーム番号を割り当てる。   If there is no undetermined moving object detection data in the moving object detection data buffer 1502 in step S1603, the in-frame detection data read in step S1602 is converted into moving object detection data in step S1610, and the moving object detection data buffer is obtained. Add to 1502. At this point in time, since the start point and end point of the moving celestial body are unknown, the end points of the in-frame detection data are assigned to the start point and end point, respectively, and recorded. The start frame number and the end frame number are assigned with the frame number of the detection data in the frame.

このように処理を進めて、ステップS1607にて未判定のフレーム内移動天体検出データがなくなった場合、移動天体検出データバッファ1502に残る未確定の移動天体検出データを全て検出情報算出部1503に送る。検出情報算出部1503は、送られた移動天体検出データのそれぞれに対し、複数フレームにまたがっていないものは破棄し、またがっているものは追加検出情報を算出してその結果を移動天体検出データ記憶部1504に記録する。   When the process proceeds in this manner and there is no undetermined moving object detection data in the frame in step S1607, all unconfirmed moving object detection data remaining in the moving object detection data buffer 1502 is sent to the detection information calculation unit 1503. . The detection information calculation unit 1503 discards data that does not extend over a plurality of frames with respect to each of the transmitted moving object detection data, and calculates additional detection information for those that extend over and stores the result as the moving object detection data storage. Recorded in section 1504.

以上の一連の処理により、天空を撮像して得られる画像データに対して、領域毎に平均値やノイズ分散も画像データにおける領域ごとに異なる場合を考慮して正規化処理を施した。これにより、より適切に画像データを正規化することができる。また本実施例では、正規化処理を行う処理単位となる領域は、段階的に定めた。これにより、領域ごとに正規化処理をするために検出感度が低下するのを出来るだけ防ぐことができる。   Through the above series of processing, normalization processing was performed on the image data obtained by imaging the sky taking into account the case where the average value and noise variance differ for each region in the image data. Thereby, the image data can be normalized more appropriately. In the present embodiment, the region that is the processing unit for performing the normalization processing is determined in stages. Thereby, since the normalization process is performed for each region, it is possible to prevent the detection sensitivity from being lowered as much as possible.

<その他の実施形態>
本発明は、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)がコンピュータが読み取り可能に記憶媒体に格納されたコンピュータプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。
<Other embodiments>
The present invention can also be realized by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. In this case, the computer (or CPU or MPU) of the system or apparatus reads out and executes the computer program code stored in the storage medium so that the computer can read the functions of the above-described embodiments.

Claims (9)

日周運動に合わせて撮像装置の方向を変えて撮影した画像データにおいて、線分状に写る移動天体を検出する移動天体検出装置であって、
画像データを取得する取得手段と、
前記画像データを分割して得られる部分領域ごとに、前記画像データにおけるスカイレベルとノイズの標準偏差とを算出する算出手段と、
前記スカイレベルと前記ノイズの標準偏差とに基づいて、前記画像データを前記部分領域ごとに正規化処理をする正規化処理手段と
前記正規化処理手段により正規化処理を施された画像データに対して、線分状に写る移動天体を検出する検出手段とを有することを特徴とする移動天体検出装置。
A moving celestial body detection device that detects a moving celestial body that appears in a line segment in image data taken by changing the direction of the imaging device according to the diurnal motion,
Acquisition means for acquiring image data;
For each partial region obtained by dividing the image data, calculating means for calculating the sky level and noise standard deviation in the image data;
Based on the sky level and the standard deviation of the noise, normalization processing means for normalizing the image data for each of the partial regions, and image data subjected to normalization processing by the normalization processing means And a detecting means for detecting a moving celestial object reflected in a line segment.
さらに前記画像データに対して、前記部分領域よりも小さい小領域ごとに、十分に正規化されているかどうかを判定する判定手段を有し、
前記判定手段により前記画像データが十分に正規化されていないと判定された場合には、前記小領域ごとに前記画像データを正規化処理する第二正規化処理手段とを有し、
前記検出手段は、前記第二正規化処理手段により正規化処理を施された画像データに対して、移動天体を検出することを特徴とする請求項1に記載の移動天体検出装置。
Further, the image data has a determination unit that determines whether each of the small areas smaller than the partial area is sufficiently normalized,
A second normalization processing unit that normalizes the image data for each small region when the determination unit determines that the image data is not sufficiently normalized;
The moving celestial body detection apparatus according to claim 1, wherein the detection unit detects a moving celestial body from the image data subjected to the normalization processing by the second normalization processing unit.
前記部分領域又は前記小領域のいずれかは、前記画像データを撮像したセンサの特性に応じて設定されていることを特徴とする請求項1または2に記載の移動天体検出装置。   The moving object detection apparatus according to claim 1, wherein either the partial area or the small area is set according to a characteristic of a sensor that has captured the image data. 前記部分領域又は前記小領域のいずれかは、前記画像データを撮像した際の天候に応じて設定されていることを特徴とする請求項1または2に記載の移動天体検出装置。   The mobile celestial body detection device according to claim 1, wherein either the partial region or the small region is set according to the weather when the image data is captured. 前記小領域は、前記検出手段が検出する移動天体を示す線部の長さの倍以上の辺からなる矩形であることを特徴とする請求項2乃至4の何れか一項に記載の移動天体検出装置。   The moving celestial body according to any one of claims 2 to 4, wherein the small area is a rectangle having sides longer than a length of a line portion indicating the moving celestial body detected by the detecting means. Detection device. さらに、前記画像データに対して処理対象としない領域をマスクするマスク処理を有し、
前記正規化処理手段は、前記マスク処理された画像データに対して正規化処理をすることを特徴とする請求項1乃至5の何れか一項に記載の移動天体検出装置。
Further, the image data has a mask process for masking a region not to be processed,
The moving object detection apparatus according to claim 1, wherein the normalization processing unit performs normalization processing on the masked image data.
前記取得手段は、前記天空を撮影して得られる複数の画像データを取得し、
前記複数の画像データの対応する画素位置の各画素を表す画素値を平均化することにより、平均画像データを生成する平均画像生成手段と、
前記複数の画像データのうち、処理対象の画像データから前記平均画像データを画素毎に差し引いて差分画像データを生成する差分画像生成手段とを有し、
前記正規化処理手段は、前記差分画像データに対して処理をすることを特徴とする請求項1乃至6の何れか一項に記載の移動天体検出装置。
The acquisition means acquires a plurality of image data obtained by photographing the sky,
Average image generation means for generating average image data by averaging pixel values representing respective pixels at corresponding pixel positions of the plurality of image data;
Among the plurality of image data, a difference image generation unit that generates difference image data by subtracting the average image data for each pixel from the image data to be processed,
The mobile celestial body detection apparatus according to claim 1, wherein the normalization processing unit performs processing on the difference image data.
コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至7の何れか一項に記載された移動天体検出装置として機能させることを特徴とするコンピュータプログラム。   A computer program for causing a computer to function as the moving celestial body detection device according to any one of claims 1 to 7 by being read and executed by a computer. 日周運動に合わせて撮像装置の方向を変えて撮影した画像データにおいて、線分状に写る移動天体を検出する移動天体検出方法であって、
画像データを取得し、
前記画像データを分割して得られる部分領域ごとに、前記画像データにおけるスカイレベルとノイズの標準偏差とを算出し、
前記スカイレベルと前記ノイズの標準偏差とに基づいて、前記画像データを前記部分領域ごとに正規化処理をし、
前記正規化処理手段により正規化処理を施された画像データに対して、線分状に写る移動天体を検出することを特徴とする移動天体検出方法。
A moving celestial body detection method for detecting a moving celestial body imaged in a line segment in image data taken by changing the direction of the imaging device according to the diurnal motion,
Get image data,
For each partial region obtained by dividing the image data, calculate the sky level and noise standard deviation in the image data,
Based on the sky level and the standard deviation of the noise, the image data is normalized for each partial region,
A moving celestial object detection method, comprising: detecting a moving celestial object appearing in a line segment from the image data subjected to normalization processing by the normalization processing unit.
JP2012232111A 2012-10-19 2012-10-19 Moving celestial body detection apparatus and control method thereof Pending JP2014085721A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012232111A JP2014085721A (en) 2012-10-19 2012-10-19 Moving celestial body detection apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012232111A JP2014085721A (en) 2012-10-19 2012-10-19 Moving celestial body detection apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2014085721A true JP2014085721A (en) 2014-05-12

Family

ID=50788754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012232111A Pending JP2014085721A (en) 2012-10-19 2012-10-19 Moving celestial body detection apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2014085721A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101583036B1 (en) * 2014-12-24 2016-01-06 한국항공우주연구원 Method detecting interest object by generating and removing isolated points from celestial image
CN111429479A (en) * 2020-03-26 2020-07-17 中国科学院长春光学精密机械与物理研究所 Space target identification method based on image integral mean value

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101583036B1 (en) * 2014-12-24 2016-01-06 한국항공우주연구원 Method detecting interest object by generating and removing isolated points from celestial image
CN111429479A (en) * 2020-03-26 2020-07-17 中国科学院长春光学精密机械与物理研究所 Space target identification method based on image integral mean value
CN111429479B (en) * 2020-03-26 2022-10-11 中国科学院长春光学精密机械与物理研究所 Space target identification method based on image integral mean value

Similar Documents

Publication Publication Date Title
JP6509275B2 (en) Method and apparatus for updating a background model used for image background subtraction
US9230175B2 (en) System and method for motion detection in a surveillance video
KR101191844B1 (en) Image processing apparatus and image processing method
CN108062763B (en) Target tracking method and device and storage medium
KR101891225B1 (en) Method and apparatus for updating a background model
RU2748763C1 (en) Method for detection and auto-tracking of objects of target designation by optical-electronic system of aunmanned aerial vehicle
US10692225B2 (en) System and method for detecting moving object in an image
JPWO2015146111A1 (en) Detection device, detection method, and computer program
JP6080487B2 (en) Moving object detection apparatus and control method thereof
Miller et al. Person tracking in UAV video
Verma et al. Analysis of moving object detection and tracking in video surveillance system
JP2014085721A (en) Moving celestial body detection apparatus and control method thereof
US20210089818A1 (en) Deposit detection device and deposit detection method
US9286664B2 (en) System and method for blind image deconvolution
CN110414430B (en) Pedestrian re-identification method and device based on multi-proportion fusion
US20130021342A1 (en) Noise reduction and focusing algorithms for gmapd
JP2014085719A (en) Moving celestial body detection apparatus and control method thereof
KR101595334B1 (en) Method and apparatus for movement trajectory tracking of moving object on animal farm
JP2014085722A (en) Moving celestial body detection apparatus and control method thereof
CN111325073A (en) Monitoring video abnormal behavior detection method based on motion information clustering
JP6716769B1 (en) Image inspection method, image inspection apparatus, and image inspection program
US11145040B2 (en) Dynamic background clutter suppression
CN112102365A (en) Target tracking method based on unmanned aerial vehicle pod and related device
CN111144312B (en) Image processing method, device, equipment and medium
JP2013206262A (en) Method and program for separating two or more subject area