JP6934386B2 - Moving object tracking device and its program - Google Patents

Moving object tracking device and its program Download PDF

Info

Publication number
JP6934386B2
JP6934386B2 JP2017193646A JP2017193646A JP6934386B2 JP 6934386 B2 JP6934386 B2 JP 6934386B2 JP 2017193646 A JP2017193646 A JP 2017193646A JP 2017193646 A JP2017193646 A JP 2017193646A JP 6934386 B2 JP6934386 B2 JP 6934386B2
Authority
JP
Japan
Prior art keywords
area
moving object
aircraft
sensitivity mode
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017193646A
Other languages
Japanese (ja)
Other versions
JP2019068325A (en
Inventor
隼 浅野
隼 浅野
渡部 悟
悟 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017193646A priority Critical patent/JP6934386B2/en
Publication of JP2019068325A publication Critical patent/JP2019068325A/en
Application granted granted Critical
Publication of JP6934386B2 publication Critical patent/JP6934386B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動体追尾装置及びそのプログラムに関する。 The present invention relates to a moving object tracking device and a program thereof.

従来より、航空機が空港を離発着する様子をロボットカメラで自動追尾しながら撮影する発明が提案されている(例えば、特許文献1,2)。
特許文献1に記載の発明は、航空機が発するADS-B(Automatic Dependent Surveillance-Broadcast)信号を用いて、航空機の進入路や滑走方向を特定し、特定した方向にロボットカメラを向け、テンプレートマッチングにより航空機を追尾するものである。
また、特許文献2に記載の発明は、風向きや風速の計測データから航空機の進入路や滑走方向を予測し、特定した方向にロボットカメラを向け、テンプレートマッチングにより航空機を追尾するものである。
Conventionally, inventions have been proposed in which an aircraft takes off and landing at an airport while being automatically tracked by a robot camera (for example, Patent Documents 1 and 2).
The invention described in Patent Document 1 uses an ADS-B (Automatic Dependent Surveillance-Broadcast) signal emitted by an aircraft to identify the approach path and gliding direction of the aircraft, points the robot camera in the specified direction, and performs template matching. It tracks an aircraft.
Further, the invention described in Patent Document 2 predicts the approach path and the gliding direction of the aircraft from the measurement data of the wind direction and the wind speed, points the robot camera in the specified direction, and tracks the aircraft by template matching.

特許第5858741号公報Japanese Patent No. 5858741 特開2013−119328号公報Japanese Unexamined Patent Publication No. 2013-119328

しかし、特許文献1,2に記載の発明では、テンプレートマッチングを用いるので、夜間だと航空機が映りにくく、航空機の検出精度が低下するという問題がある。さらに、特許文献1に記載の発明では、ADS−B信号を発しない航空機の追尾が困難である。 However, in the inventions described in Patent Documents 1 and 2, since template matching is used, there is a problem that the aircraft is difficult to be reflected at night and the detection accuracy of the aircraft is lowered. Further, in the invention described in Patent Document 1, it is difficult to track an aircraft that does not emit an ADS-B signal.

そこで、本発明は、昼夜を問わずに様々な動体を追尾できる動体追尾装置及びそのプログラムを提供することを課題とする。 Therefore, an object of the present invention is to provide a moving object tracking device capable of tracking various moving objects day and night and a program thereof.

前記した課題に鑑みて、本発明にかかる動体追尾装置は、センサカメラで動体を撮影したセンサ映像を用いて、追尾対象となる動体を追尾する動体追尾装置であって、差分画像生成手段と、差分領域検出手段と、記憶手段と、動体検出手段と、追尾手段と、を備える構成とした。 In view of the above-mentioned problems, the moving object tracking device according to the present invention is a moving object tracking device that tracks a moving object to be tracked by using a sensor image obtained by photographing the moving object with a sensor camera, and is a differential image generation means. The configuration includes a difference area detecting means, a storage means, a moving object detecting means, and a tracking means.

かかる動体追尾装置によれば、差分画像生成手段は、センサ映像から差分画像を生成する。また、差分領域検出手段は、低感度モード及び低感度モードより検出感度が高い高感度モードのそれぞれで、差分画像から差分領域を検出する。 According to such a moving object tracking device, the difference image generation means generates a difference image from the sensor image. Further, the difference region detecting means detects the difference region from the difference image in each of the low sensitivity mode and the high sensitivity mode in which the detection sensitivity is higher than the low sensitivity mode.

また、記憶手段は、低感度モードにおいて、センサ映像内で動体を追尾対象として特定するための追尾対象特定エリア及び追尾対象が通過しないマスクエリアと、高感度モードにおいて、追尾対象の検出エリア誤りを防止するための誤検出防止エリアとを表すエリア情報を予め記憶する。 Further, the storage means detects a tracking target identification area for identifying a moving object as a tracking target in the sensor image in the low-sensitivity mode, a mask area through which the tracking target does not pass, and a detection area error of the tracking target in the high-sensitivity mode. Area information indicating an erroneous detection prevention area for prevention is stored in advance.

また、動体検出手段は、予め設定されたフレーム数以上にわたり位置が変化する差分領域を抽出し、エリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、検出した動体の位置及び所属エリアを表す動体検出情報を生成する。そして、追尾手段は、動体検出情報に基づいて動体毎にスコアを算出し、算出したスコアに基づいて追尾対象を決定する。 Further, the moving body detecting means extracts a difference region whose position changes over a preset number of frames or more, refers to the area information, detects the moving body based on the position and detection sensitivity of the extracted difference region, and detects the moving body. Generates motion detection information that represents the position and affiliation area. Then, the tracking means calculates a score for each moving object based on the moving object detection information, and determines the tracking target based on the calculated score.

このように、動体追尾装置は、センサ映像を用いるので、ADS−B信号を発しない航空機などの様々な追尾対象を追尾できる。さらに、動体追尾装置は、テンプレートマッチングを使用せず、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、夜間においても正確に追尾できる。 In this way, since the moving object tracking device uses the sensor image, it is possible to track various tracking targets such as an aircraft that does not emit an ADS-B signal. Further, since the moving object tracking device does not use template matching, it detects the moving object by the difference between frames and determines the tracking target by the area information, so that it can be accurately tracked even at night.

本発明によれば、以下のような効果を奏する。
本発明にかかる動体追尾装置は、センサ映像を用いると共に、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、昼夜を問わずに様々な動体を追尾することができる。
According to the present invention, the following effects are obtained.
Since the moving object tracking device according to the present invention uses the sensor image, detects the moving object based on the difference between frames, and determines the tracking target based on the area information, it can track various moving objects day and night.

本発明の実施形態にかかる航空機追尾撮影システムの全体構成図である。It is an overall block diagram of the aircraft tracking photography system which concerns on embodiment of this invention. 図1のセンサカメラの設置を説明する説明図である。It is explanatory drawing explaining the installation of the sensor camera of FIG. 図2のセンサ映像の拡大図である。It is an enlarged view of the sensor image of FIG. 図1の航空機追尾撮影システムの構成を示すブロック図である。It is a block diagram which shows the structure of the aircraft tracking photography system of FIG. 図3の右側のセンサ映像において、低感度モードで設定するエリア情報の説明図である。In the sensor image on the right side of FIG. 3, it is explanatory drawing of the area information set in the low sensitivity mode. 図3の右側のセンサ映像において、高感度モードで設定するエリア情報の説明図である。In the sensor image on the right side of FIG. 3, it is explanatory drawing of the area information set in a high-sensitivity mode. 図3の右側のセンサ映像において、夜間に設定するエリア情報の説明図である。In the sensor image on the right side of FIG. 3, it is explanatory drawing of the area information set at night. 図3の中央のセンサ映像において、低感度モードで設定するエリア情報の説明図である。FIG. 5 is an explanatory diagram of area information set in the low sensitivity mode in the sensor image in the center of FIG. 図3の中央のセンサ映像において、高感度モードで設定するエリア情報の説明図である。FIG. 5 is an explanatory diagram of area information set in the high sensitivity mode in the sensor image in the center of FIG. 図4の動体検出手段による動体の検出を説明する説明図である。It is explanatory drawing explaining the detection of a moving body by the moving body detecting means of FIG. 図4の動体検出手段による動体の検出を説明する説明図である。It is explanatory drawing explaining the detection of a moving body by the moving body detecting means of FIG. 図4の動体検出手段において、動体の誤検出を説明する説明図である。It is explanatory drawing explaining the erroneous detection of a moving body in the moving body detecting means of FIG. 図4の動体検出手段において、動体の誤検出を説明する説明図である。It is explanatory drawing explaining the erroneous detection of a moving body in the moving body detecting means of FIG. 図4の追尾対象決定手段によるスコアの算出を説明する説明図である。It is explanatory drawing explaining the calculation of the score by the tracking target determination means of FIG. 図4の航空機追尾撮影システムによる航空機の追尾を説明する説明図である。It is explanatory drawing explaining the tracking of an aircraft by the aircraft tracking photography system of FIG. 図4の航空機追尾撮影システムによる航空機の追尾を説明する説明図である。It is explanatory drawing explaining the tracking of an aircraft by the aircraft tracking photography system of FIG. 図4の航空機追尾撮影システムの動作を示すシーケンス図である。It is a sequence diagram which shows the operation of the aircraft tracking photography system of FIG.

[航空機追尾撮影システムの概略]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、本発明の実施形態にかかる航空機追尾撮影システム1の概略について説明する。
[Outline of aircraft tracking shooting system]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
An outline of the aircraft tracking imaging system 1 according to the embodiment of the present invention will be described with reference to FIG.

航空機追尾撮影システム1は、空港を離発着する航空機(追尾対象)をロボットカメラ40で追尾して撮影するものであり、図1に示すように、センサカメラ10(10,10,10)と、動体検出装置20(20,20,20)と、位置特定・雲台制御装置30と、ロボットカメラ40とを備える。ここで、動体検出装置20及び位置特定・雲台制御装置30が特許請求の範囲に記載の動体追尾装置に相当する。 The aircraft tracking imaging system 1 tracks an aircraft (tracking target) departing from and arriving at an airport with a robot camera 40 and captures the image. As shown in FIG. 1, the sensor cameras 10 (10 R , 10 C , 10 L ) A motion detection device 20 (20 R , 20 C , 20 L ), a position identification / pan head control device 30, and a robot camera 40 are provided. Here, the moving object detection device 20 and the position identification / pan head control device 30 correspond to the moving object tracking device described in the claims.

センサカメラ10は、航空機を撮影してセンサ映像を生成するものであり、例えば、撮影方向及び撮影画角が一定の固定カメラである。そして、センサカメラ10は、生成したセンサ映像を動体検出装置20に出力する。 The sensor camera 10 captures an aircraft and generates a sensor image. For example, the sensor camera 10 is a fixed camera having a constant shooting direction and shooting angle of view. Then, the sensor camera 10 outputs the generated sensor image to the motion detecting device 20.

ここで、センサカメラ10は、1台以上、必要に応じた台数を設置できる。本実施形態では、センサカメラ10は、図2に示すように、滑走路全体を撮影できるように、空港中央の建物屋上に3台設置している。このとき、各センサカメラ10は、互いの撮影範囲が重複する。図2では、センサカメラ10が滑走路右側を向き、センサカメラ10が滑走路中央を向き、センサカメラ10が滑走路左側を向いている。そして、センサカメラ10,10,10は、図3に示すように、それぞれの撮影方向で滑走路を撮影したセンサ映像90,90,90を生成する。センサ映像90,90,90の端が互いに重なる。
なお、図2では、センサカメラ10,10,10の撮影画角が重複しないように破線で図示したが、実際には重複している。
Here, one or more sensor cameras 10 can be installed as required. In the present embodiment, as shown in FIG. 2, three sensor cameras 10 are installed on the roof of the building in the center of the airport so that the entire runway can be photographed. At this time, the imaging ranges of the sensor cameras 10 overlap each other. In FIG. 2, the sensor camera 10 R faces the right side of the runway, the sensor camera 10 C faces the center of the runway, and the sensor camera 10 L faces the left side of the runway. Then, as shown in FIG. 3, the sensor cameras 10 R , 10 C , and 10 L generate sensor images 90 R , 90 C , and 90 L in which the runway is photographed in each photographing direction. The ends of the sensor images 90 R , 90 C , and 90 L overlap each other.
In FIG. 2, the shooting angles of view of the sensor cameras 10 R , 10 C , and 10 L are shown by broken lines so as not to overlap, but they actually overlap.

図1に戻り、航空機追尾撮影システム1の説明を続ける。
動体検出装置20は、センサカメラ10からのセンサ映像を画像解析し、動体を検出し、その検出結果(動体検出情報)を位置特定・雲台制御装置30に出力する。本実施形態では、動体検出装置20は、追尾対象となる航空機の他、自動車、人物、鳥などの動体についても検出し、その動体についての動体検出情報を出力する。
Returning to FIG. 1, the description of the aircraft tracking imaging system 1 will be continued.
The moving object detection device 20 analyzes an image of the sensor image from the sensor camera 10, detects a moving object, and outputs the detection result (moving object detection information) to the position identification / pan head control device 30. In the present embodiment, the moving object detection device 20 detects not only the aircraft to be tracked but also moving objects such as automobiles, people, and birds, and outputs moving object detection information about the moving objects.

本実施形態では、動体検出装置20は、センサカメラ10と1対1で対応するように、空港から離れた放送局に3台設置している。そして、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析し、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析し、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析する。 In the present embodiment, three motion detection devices 20 are installed at a broadcasting station away from the airport so as to have a one-to-one correspondence with the sensor camera 10. Then, the moving object detection device 20 R image-analyzes the sensor image 90 R of the sensor camera 10 R , the moving object detecting device 20 C image-analyzes the sensor image 90 C of the sensor camera 10 C , and the moving object detecting device 20 L is the sensor camera. the 10 L of the sensor image 90 L for image analysis.

位置特定・雲台制御装置30は、動体検出情報から算出される動体の軌跡に基づいて、動体検出装置20が検出した動体の中から、追尾対象となる航空機を特定するものである。そして、位置特定・雲台制御装置30は、特定した航空機を撮影するようにロボットカメラ40を制御する。本実施形態では、位置特定・雲台制御装置30は、動体検出装置20と同じ放送局に1台設置している。
なお、追尾対象とは、航空機追尾撮影システム1で追尾する対象となる1つの動体のことである。本実施形態では、空港にいる航空機のうち、離発着中の航空機が追尾対象であることとする。
The position identification / pan head control device 30 identifies an aircraft to be tracked from among the moving objects detected by the moving object detecting device 20 based on the trajectory of the moving object calculated from the moving object detection information. Then, the position identification / pan head control device 30 controls the robot camera 40 so as to take a picture of the specified aircraft. In the present embodiment, one position identification / pan head control device 30 is installed in the same broadcasting station as the motion detection device 20.
The tracking target is one moving object to be tracked by the aircraft tracking imaging system 1. In the present embodiment, among the aircraft at the airport, the aircraft taking off and landing is the target of tracking.

ロボットカメラ40は、位置特定・雲台制御装置30からの制御信号に従って駆動し、航空機を撮影するものである。このロボットカメラ40は、パン、チルト、ズームが可能な一般的なロボットカメラであり、航空機の撮影映像91を生成するカメラ本体41と、カメラ本体41を搭載する雲台43とを備える。
本実施形態では、ロボットカメラ40は、センサカメラ10と同様、空港中央の建物屋上に1台設置している。
The robot camera 40 is driven according to a control signal from the position identification / pan head control device 30 to photograph an aircraft. The robot camera 40 is a general robot camera capable of panning, tilting, and zooming, and includes a camera body 41 that generates a captured image 91 of an aircraft, and a pan head 43 on which the camera body 41 is mounted.
In the present embodiment, one robot camera 40 is installed on the roof of the building in the center of the airport, like the sensor camera 10.

なお、夜間では、航空機がセンサ映像に映りにくくなるため、昼間に比べて、以下の工夫を行っている。夜間の場合、航空機追尾撮影システム1は、センサ映像90に夜間用進入路エリアA(図7)を設定し、この夜間用進入路エリアAから航空機のライトを検出する。 At night, it becomes difficult for the aircraft to appear in the sensor image, so the following measures are taken compared to daytime. For nighttime aircraft tracking imaging system 1 sets a nighttime approach path area A N (FIG. 7) to the sensor image 90 to detect the aircraft lights from the nighttime approach path area A N.

[動体検出装置の構成]
図4を参照し、動体検出装置20の構成について説明する。
動体検出装置20は、図4に示すように、昼夜判定手段21と、記憶手段22と、差分画像生成手段23と、差分領域検出手段24と、ライト検出手段25と、動体検出手段26とを備える。
なお、3台の動体検出装置20は、同一構成のため、1台のみ説明する。
[Configuration of motion detector]
The configuration of the moving object detection device 20 will be described with reference to FIG.
As shown in FIG. 4, the moving object detecting device 20 includes a day / night determining means 21, a storage means 22, a difference image generating means 23, a difference area detecting means 24, a light detecting means 25, and a moving body detecting means 26. Be prepared.
Since the three motion detection devices 20 have the same configuration, only one of them will be described.

昼夜判定手段21は、時刻に基づいて夜間であるか否かを判定するものである。本実施形態では、昼夜判定手段21は、緯度情報及び経度情報をもとに日の出時刻及び日の入り時刻を算出し、昼間時間帯及び夜間時間帯を決定する。そして、昼夜判定手段21は、現在時刻が昼間時間帯又は夜間時間帯の何れに属するかにより、昼間又は夜間を判定する。その後、昼夜判定手段21は、昼間又は夜間の判定結果を差分領域検出手段24及び動体検出手段26に出力する。 The day / night determination means 21 determines whether or not it is nighttime based on the time. In the present embodiment, the day / night determination means 21 calculates the sunrise time and the sunset time based on the latitude information and the longitude information, and determines the daytime time zone and the nighttime time zone. Then, the day / night determination means 21 determines daytime or nighttime depending on whether the current time belongs to the daytime time zone or the nighttime time zone. After that, the day / night determination means 21 outputs the daytime or nighttime determination result to the difference area detecting means 24 and the moving object detecting means 26.

記憶手段22は、動体検出装置20の処理に必要な各種情報を予め記憶するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置である。例えば、航空機追尾撮影システム1の管理者が、図示を省略したマウス、キーボード等の操作手段を介して、エリア情報を記憶手段22に手動で設定する。さらに、航空機追尾撮影システム1の管理者は、予め算出した変換情報を記憶手段22に設定する。 The storage means 22 is a storage device such as a memory, an HDD (Hard Disk Drive), or an SSD (Solid State Drive) that stores various information necessary for processing of the motion detection device 20 in advance. For example, the administrator of the aircraft tracking imaging system 1 manually sets the area information in the storage means 22 via operating means such as a mouse and a keyboard (not shown). Further, the administrator of the aircraft tracking imaging system 1 sets the conversion information calculated in advance in the storage means 22.

エリア情報は、航空機を特定するための航空機特定エリア(追尾対象特定エリア)、航空機が通過しないマスクエリア、航空機の検出エリア誤りを防止するための誤検出防止エリアなどの各エリアを、センサ映像90内に予め設定した情報である。 The area information includes each area such as an aircraft specific area for identifying an aircraft (tracking target specific area), a mask area where an aircraft does not pass, and an erroneous detection prevention area for preventing an aircraft detection area error. This is the information set in advance.

<エリア情報の設定>
図5を参照し、エリア情報の設定を具体的に説明する。
ここでは、センサカメラ10のセンサ映像90にエリア情報を設定することとして説明する。
<Area information setting>
The setting of the area information will be specifically described with reference to FIG.
Here, the area information is set in the sensor image 90 R of the sensor camera 10 R.

低感度モードでは、図5に示すように、エリア情報として、進入路エリアAと、滑走路エリアRと、マスクエリアMと、上空エリアSとをセンサ映像90内に設定する。本実施形態では、進入路エリアA及び滑走路エリアRが航空機特定エリアに対応する。後記する追尾対象決定手段35において、動体検出手段26が検出した動体のうち、この航空機特定エリアを一度でも通過した動体を航空機として特定する。 In the low-sensitivity mode, as shown in FIG. 5, the approach road area AL , the runway area R, the mask area M, and the sky area S are set in the sensor image 90 R as area information. In the present embodiment, the approach road area AL and the runway area R correspond to the aircraft specific area. In the tracking target determination means 35 described later, among the moving bodies detected by the moving body detecting means 26, the moving body that has passed through the aircraft specific area even once is specified as an aircraft.

進入路エリアAは、センサ映像90において、離発着する航空機が進入する領域を表す。
滑走路エリアRは、センサ映像90に含まれる滑走路の領域を表す。
上空エリアSは、進入路エリアA以外の空域を表す。
マスクエリアMは、例えば、展望デッキ、空港施設、鳥が多い箇所、草木、水溜りなど、誤検出が多かったり、航空機を追尾する必要がない領域を表す。
The approach road area A L represents the area in which the aircraft taking off and landing enters in the sensor image 90 R.
The runway area R represents an area of the runway included in the sensor image 90 R.
Sky area S represents the airspace other than the approach path area A L.
The mask area M represents an area where there are many false positives or it is not necessary to track an aircraft, such as an observation deck, an airport facility, a place with many birds, vegetation, and a puddle.

高感度モードでは、図6に示すように、エリア情報として、進入路エリアAと、誘導路エリアTとをセンサ映像90内に設定する。
進入路エリアAは、図5の進入路エリアAと同様、離発着する航空機が進入する領域を表す。高感度モードでは低感度モードに比べてノイズなどを誤検出する可能性が高いので、進入路エリアA,Aは、異なる位置及び大きさでセンサ映像90内に設定できる。
誘導路エリアTは、センサ映像90に含まれる誘導路の領域を表す。本実施形態では、誘導路エリアTが誤検出防止エリアに対応する。
In the high-sensitivity mode, as shown in FIG. 6, the approach road area A H and the guide road area T are set in the sensor image 90 R as area information.
The approach road area A H represents an area where aircraft taking off and landing enter, similar to the approach road area A L in FIG. Since noise and the like are more likely to be erroneously detected in the high-sensitivity mode than in the low-sensitivity mode, the approach road areas A H and A L can be set in the sensor image 90 R at different positions and sizes.
The guide path area T represents an area of the guide path included in the sensor image 90 R. In the present embodiment, the guide path area T corresponds to the false detection prevention area.

さらに、図7に示すように、エリア情報として、夜間用進入路エリアAをセンサ映像90内に設定する。
夜間用進入路エリアAは、進入路エリアA,Aと同様、離発着する航空機が進入する領域を表す。夜間の場合、夜間用進入路エリアAは、航空機のライトを検出する領域となるので、航空機のライト以外を誤検出しないように設定することが好ましい。
Furthermore, as shown in FIG. 7, as the area information, to set the nighttime approach path area A N sensor image 90 in R.
Nighttime approach path area A N, the approach path area A H, similar to A L, represents an area where aircraft taking off and landing enters. For night, nighttime approach path area A N, since the area to detect the aircraft lights, it is preferable to set so as not to erroneously detect a non-aircraft lights.

センサ映像90と同様、センサ映像90にもエリア情報を設定する。
図8に示すように、低感度モードでは、エリア情報として、滑走路エリアRと、マスクエリアMと、上空エリアSとをセンサ映像90内に設定する。また、図9に示すように、高感度モードでは、エリア情報として、誘導路エリアTをセンサ映像90内に設定する。
なお、センサ映像90に進入路が映らないので、進入路エリアを設定していない。
また、センサ映像90は、センサ映像90と同様にエリア情報を設定できるので、説明を省略する。
Area information is set in the sensor image 90 C as well as the sensor image 90 R.
As shown in FIG. 8, in the low-sensitivity mode, as the area information, runway and area R, and the mask area M, sets the sky area S in the sensor image 90 in C. Further, as shown in FIG. 9, in the high-sensitivity mode, the guide path area T is set in the sensor image 90 R as the area information.
Since approach path is not displayed on the sensor image 90 C, it does not set the access road area.
Further, since the area information can be set for the sensor image 90 L in the same manner as the sensor image 90 R, the description thereof will be omitted.

このように、エリア情報は、昼間及び夜間で別々に設定できる。このため、エリア情報では、例えば、昼間では鳥が多く飛ぶ場所や、夜間では航空機以外のライトが映る場所など、誤検出の可能性が高い場所を外すことができる。 In this way, the area information can be set separately for daytime and nighttime. Therefore, in the area information, it is possible to exclude places where there is a high possibility of false detection, such as places where many birds fly in the daytime and places where lights other than aircraft are reflected at night.

図4に戻り、図1の動体検出装置20について、説明を続ける。
変換情報は、センサカメラ10とロボットカメラ40との画角を変換するパラメータの情報である。この変換情報は、センサカメラ10で検出した航空機の速度やサイズをロボットカメラ40に映る航空機の速度やサイズに合わせるために必要な情報である。本実施形態では、変換情報は、各センサカメラ10の撮影画角に応じて、センサカメラ10毎に予め算出することとする。
Returning to FIG. 4, the motion detection device 20 of FIG. 1 will be described.
The conversion information is information on parameters for converting the angle of view between the sensor camera 10 and the robot camera 40. This conversion information is information necessary for matching the speed and size of the aircraft detected by the sensor camera 10 with the speed and size of the aircraft reflected on the robot camera 40. In the present embodiment, the conversion information is calculated in advance for each sensor camera 10 according to the shooting angle of view of each sensor camera 10.

差分画像生成手段23は、センサカメラ10よりセンサ映像が入力され、入力されたセンサ映像から差分画像を生成するものである。つまり、差分画像生成手段23は、センサ映像で前後するフレーム間で画素毎に輝度差を求め、求めた画素毎の輝度差を表す差分画像を生成する。そして、差分画像生成手段23は、生成した差分画像を差分領域検出手段24に出力する。 The difference image generation means 23 receives a sensor image from the sensor camera 10 and generates a difference image from the input sensor image. That is, the difference image generation means 23 obtains the brightness difference for each pixel between the frames before and after the sensor image, and generates a difference image representing the obtained brightness difference for each pixel. Then, the difference image generating means 23 outputs the generated difference image to the difference area detecting means 24.

差分領域検出手段24は、昼夜判定手段21からの判定結果が昼間の場合、低感度モード及び高感度モードのそれぞれで、差分画像から差分領域を検出するものである。つまり、差分領域検出手段24は、輝度差が閾値以上となる各画素について、近いもの同士をグループ化して差分領域を生成する。 When the determination result from the day / night determination means 21 is daytime, the difference region detecting means 24 detects the difference region from the difference image in each of the low sensitivity mode and the high sensitivity mode. That is, the difference region detecting means 24 generates a difference region by grouping close pixels for each pixel whose luminance difference is equal to or greater than the threshold value.

具体的には、差分領域検出手段24は、差分画像の各画素の画素値(輝度値)を閾値判定し、画素値が予め設定した閾値以上となる画素を差分画像から抽出する。このとき、高感度モードでは、差分領域の検出感度が低感度モードより高くなるように閾値を小さな値とする。そして、差分領域検出手段24は、抽出した画素同士の距離が一定以下となる画素領域を差分領域として検出する。 Specifically, the difference area detecting means 24 determines the pixel value (luminance value) of each pixel of the difference image as a threshold value, and extracts pixels having a pixel value equal to or higher than a preset threshold value from the difference image. At this time, in the high-sensitivity mode, the threshold value is set to a small value so that the detection sensitivity of the difference region is higher than that in the low-sensitivity mode. Then, the difference area detecting means 24 detects the pixel area where the distance between the extracted pixels is a certain value or less as the difference area.

また。差分領域検出手段24は、昼夜判定手段21からの判定結果が夜間の場合、低感度モードだけで差分画像から差分領域を検出する。夜間の場合でも、低感度モードの手順自体は昼間と同様のため、これ以上の説明を省略する。 Also. When the determination result from the day / night determination means 21 is nighttime, the difference region detecting means 24 detects the difference region from the difference image only in the low sensitivity mode. Even at night, the procedure itself in the low-sensitivity mode is the same as in the daytime, so further description will be omitted.

その後、差分領域検出手段24は、検出した差分領域の情報として、その差分領域の位置と、その差分領域の検出時間帯との情報を動体検出手段26に出力する。ここで、差分領域の位置は、差分領域の中心位置又は重心位置を表す。また、差分領域の検出時間帯は、昼間又は夜間の区分と、差分領域の検出元となるセンサ映像90の時刻情報(タイムコード)とを表す。 After that, the difference area detecting means 24 outputs the information of the position of the difference area and the detection time zone of the difference area to the moving object detecting means 26 as the information of the detected difference area. Here, the position of the difference region represents the center position or the center of gravity position of the difference region. Further, the detection time zone of the difference region represents the daytime or nighttime division and the time information (time code) of the sensor image 90 that is the detection source of the difference region.

ライト検出手段25は、昼夜判定手段21からの判定結果が夜間の場合、センサ映像90から航空機のライトを検出するものである。本実施形態では、ライト検出手段25は、記憶手段22のエリア情報を参照し、センサ映像90内に設定した夜間用進入路エリアAにおいて、輝度値が予め設定された閾値以上になる画素領域を検出し、その画素領域の重心位置又は中心位置を航空機のライト位置として検出する。 The light detecting means 25 detects the light of the aircraft from the sensor image 90 when the determination result from the day / night determining means 21 is at night. In the present embodiment, the light detecting means 25 refers to the area information storage means 22, in the nighttime approach path area A N set in the sensor image 90, the pixel region becomes equal to or higher than the threshold luminance value is set in advance Is detected, and the position of the center of gravity or the center of the pixel area is detected as the light position of the aircraft.

その後、ライト検出手段25は、検出した航空機のライトの情報として、ライト位置及び検出時間帯を動体検出手段26に出力する。
なお、ライト検出手段25は、昼夜判定手段21からの判定結果が昼間の場合、処理を行わない。
After that, the light detecting means 25 outputs the light position and the detection time zone to the moving object detecting means 26 as the information of the detected aircraft lights.
The light detecting means 25 does not perform processing when the determination result from the day / night determining means 21 is daytime.

動体検出手段26は、差分領域検出手段24から入力された差分領域のうち、予め設定されたフレーム数以上にわたり位置が変化する差分領域を抽出するものである。つまり、動体検出手段26は、数フレームにわたって連続的に動いている動体領域を抽出する。これにより、動体検出手段26は、連続的に動いている動体領域と、それ以外のノイズ領域とを区分できる。 The moving body detecting means 26 extracts a difference region whose position changes over a preset number of frames or more from the difference region input from the difference region detecting means 24. That is, the moving body detecting means 26 extracts a moving body region that is continuously moving over several frames. As a result, the moving body detecting means 26 can distinguish between a moving body region that is continuously moving and a noise region other than that.

次に、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、後記する動体検出情報を生成するものである。以下、動体検出手段26について、昼夜判定手段21からの判定結果が昼間と夜間の場合にわけて説明する。
なお、以下の例では、航空機が動体であることとして説明するが、実際には、航空機以外の動体が検出される場合もある。
Next, the moving body detecting means 26 refers to the area information of the storage means 22, detects the moving body based on the position of the extracted difference region and the detection sensitivity, and generates the moving body detection information described later. Hereinafter, the moving object detecting means 26 will be described separately when the determination result from the day / night determining means 21 is daytime and nighttime.
In the following example, it is described that the aircraft is a moving body, but in reality, a moving body other than the aircraft may be detected.

<動体の検出:昼間の場合>
昼間の場合、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の所属エリアに応じて動体を検出する。本実施形態では、動体検出手段26は、マスクエリアM以外の各エリア(進入路エリアA、上空エリアS、滑走路エリアR、誘導路エリアT)から、動体を検出する。
<Detection of moving objects: in the daytime>
In the daytime, the moving object detecting means 26 refers to the area information of the storage means 22 and detects the moving object according to the area to which the extracted difference area belongs. In the present embodiment, the moving object detecting means 26 detects a moving object from each area (approach road area A L , sky area S, runway area R, guide road area T) other than the mask area M.

具体点には、動体検出手段26は、図10に示すように、低感度モードで進入路エリアAに含まれる動体Objを検出する。この進入路エリアAと同様、動体検出手段26は、低感度モードで上空エリアSに含まれる動体を検出する。一方、動体検出手段26は、図11に示すように、低感度モードでマスクエリアMに含まれる物体Obj(例えば、トーイングカー)を検出しない。 Specifically point, moving object detection means 26, as shown in FIG. 10, for detecting a moving object Obj 1 included in the approach path area A L in the low-sensitivity mode. Similar to the approach path area A L, moving object detection means 26 detects a moving object included in the sky area S in the low-sensitivity mode. On the other hand, as shown in FIG. 11, the moving object detecting means 26 does not detect the object Obj 2 (for example, a towing car) included in the mask area M in the low sensitivity mode.

ここで、図12に示すように、センサカメラ10から見て、航空機Objの一部(例えば、機体と色や模様が異なる尾翼)が滑走路に重なることがある。この場合、フレーム間差分では、尾翼部分のみが検出されやすいため、実際には航空機が誘導路に位置するにも関わらず、航空機が滑走路に位置すると誤判定することがある。一方、図13に示すように、高感度モードが低感度モードより検出感度が高いので、低感度モードで尾翼部分のみの動きを検出しているときには、高感度モードであれば、航空機Objの全体の動きを検出し、航空機が誘導路に位置すると正しく判定できる可能性が高い。
なお、図12,図13では、航空機Objのうち、動体として検出された箇所を一点鎖線で図示した。
Here, as shown in FIG. 12, when viewed from the sensor camera 10, a part of the aircraft Obj 3 (for example, a tail wing having a color or pattern different from that of the aircraft) may overlap the runway. In this case, since only the tail wing portion is likely to be detected in the inter-frame difference, it may be erroneously determined that the aircraft is located on the runway even though the aircraft is actually located on the guideway. On the other hand, as shown in FIG. 13, since the high-sensitivity mode has a higher detection sensitivity than the low-sensitivity mode, when the movement of only the tail portion is detected in the low-sensitivity mode, the aircraft Obj 1 is in the high-sensitivity mode. It is highly possible that the entire movement can be detected and it can be correctly determined that the aircraft is located on the guideway.
Incidentally, 12 and 13, among the aircraft Obj 3, illustrating the position detected as the moving object by a chain line.

そこで、動体検出手段26は、低感度モード及び高感度モードという2つの検出モードを組み合わせることで、動体のエリア情報の誤検出を低減している。具体的には、動体検出手段26は、低感度モードで滑走路エリアRに含まれ、かつ、高感度モードで誘導路エリアTに含まれない動体を、滑走路エリアRの動体として検出する(不図示)。一方、動体検出手段26は、低感度モードで滑走路エリアRに含まれ(図12)、かつ、高感度モードで誘導路エリアTに含まれる動体Objを、誘導路エリアTの動体として検出する(図13)。 Therefore, the moving object detecting means 26 reduces erroneous detection of area information of the moving object by combining two detection modes, a low sensitivity mode and a high sensitivity mode. Specifically, the moving body detecting means 26 detects a moving body included in the runway area R in the low-sensitivity mode and not included in the guideway area T in the high-sensitivity mode as a moving body in the runway area R (). Not shown). On the other hand, the moving body detecting means 26 detects the moving body Obj 3 included in the runway area R in the low-sensitivity mode (FIG. 12) and included in the guideway area T in the high-sensitivity mode as a moving body in the guideway area T. (Fig. 13).

<動体の検出:夜間の場合>
夜間の場合、動体検出手段26は、昼間と同様、低感度モードのみで動体を検出する。具体的には、動体検出手段26は、低感度モードにおいて、マスクエリアM以外の各エリア(進入路エリアA、上空エリアS)に含まれる動体を検出する。一方、動体検出手段26は、低感度モードにおいて、マスクエリアMに含まれる動体を検出しない。
なお、夜間の場合、動体検出手段26は、低感度モード及び高感度モードを併用しないので、滑走路エリアR及び誘導路エリアTの動体を検出することがない。
<Detection of moving objects: at night>
At night, the moving object detecting means 26 detects a moving object only in the low-sensitivity mode as in the daytime. Specifically, the moving object detecting means 26 detects a moving object included in each area (approach path area A L , sky area S) other than the mask area M in the low sensitivity mode. On the other hand, the moving object detecting means 26 does not detect the moving object included in the mask area M in the low sensitivity mode.
At night, the moving object detecting means 26 does not use the low-sensitivity mode and the high-sensitivity mode in combination, so that the moving objects in the runway area R and the guideway area T are not detected.

その後、動体検出手段26は、決定した動体検出情報を生成し、生成した動体検出情報を位置特定・雲台制御装置30(情報集約手段31)に出力する。この動体検出情報は、センサ映像90に映る各動体の位置、所属エリア(進入路エリアや滑走路エリアなど)、サイズ、及び、そのセンサ映像90の時刻情報を表す。 After that, the moving object detecting means 26 generates the determined moving object detecting information, and outputs the generated moving object detecting information to the position identification / pan head control device 30 (information collecting means 31). This moving object detection information represents the position, belonging area (approach road area, runway area, etc.), size, and time information of the sensor image 90 of each moving object reflected in the sensor image 90.

このとき、動体検出手段26は、差分領域に外接する矩形領域の高さ及び幅から、センサカメラ10上での動体の検出サイズを求める。そして、動体検出手段26は、記憶手段22の変換情報を参照し、センサカメラ10上での動体の検出サイズを、ロボットカメラ40上での動体のサイズに変換する。 At this time, the moving object detecting means 26 obtains the detection size of the moving object on the sensor camera 10 from the height and width of the rectangular region circumscribing the difference region. Then, the moving object detecting means 26 refers to the conversion information of the storage means 22 and converts the moving object detection size on the sensor camera 10 into the moving object size on the robot camera 40.

<遠方航空機の検出:昼間の場合>
離陸での滑走開始時や着陸での滑走路進入時など、航空機が遠方に位置し、速度が遅い場合、差分領域の検出精度が低くなる。このとき、ロボットカメラ40で撮影を行うと、差分領域の誤検出により航空機が撮影画角から外れてしまう可能性が高い。そこで、追尾制御の代わりに、遠方の航空機が撮影画角から外れないように定位置制御を行う必要がある。
<Detection of distant aircraft: in the daytime>
If the aircraft is located far away and the speed is slow, such as when the aircraft starts to run at takeoff or when it enters the runway at landing, the detection accuracy of the difference region will be low. At this time, if the robot camera 40 takes a picture, there is a high possibility that the aircraft deviates from the shooting angle of view due to erroneous detection of the difference region. Therefore, instead of tracking control, it is necessary to perform fixed position control so that a distant aircraft does not deviate from the shooting angle of view.

昼間の場合、動体検出手段26は、センサ映像90に遠方の航空機が映っているか否かを判定する。つまり、動体検出手段26は、低感度モードで進入路エリアAに含まれず、かつ、高感度モードで進入路エリアAに含まれる動体を遠方の航空機として決定する。 In the daytime, the moving object detecting means 26 determines whether or not a distant aircraft is reflected in the sensor image 90. That is, the moving object detecting means 26 determines a moving object that is not included in the approach road area A L in the low sensitivity mode and is included in the approach road area A H in the high sensitivity mode as a distant aircraft.

<遠方航空機の検出:夜間の場合>
夜間の場合、航空機の機体がセンサ映像90に映らず、航空機を検出できる可能性が低い。そこで、動体検出手段26は、低感度モードで動体が検出されない場合、ライト検出手段25で検出された夜間用進入路エリアA内のライトを、遠方の航空機として検出する。これにより、航空機追尾撮影システム1では、夜間でも定位置制御が可能となる。
<Detection of distant aircraft: at night>
At night, the aircraft body is not reflected in the sensor image 90, and it is unlikely that the aircraft can be detected. Therefore, moving object detection means 26, if the low-sensitivity mode motion is not detected, the light at night for access road in the area A N detected by the light detection means 25, detected as a remote aircraft. As a result, the aircraft tracking imaging system 1 can control the fixed position even at night.

その後、動体検出手段26は、遠方の航空機を検出したことを示す遠方動体検出情報を位置特定・雲台制御装置30(追尾対象決定手段35)に出力する。 After that, the moving object detecting means 26 outputs the distant moving object detecting information indicating that the distant aircraft has been detected to the position identification / pan head control device 30 (tracking target determining means 35).

[位置特定・雲台制御装置の構成]
図4に戻り、位置特定・雲台制御装置30の構成について説明する。
位置特定・雲台制御装置30は、図4に示すように、情報集約手段31と、識別情報付加手段33と、追尾対象決定手段(追尾手段)35と、雲台制御手段(ロボットカメラ制御手段)37とを備える。
[Positioning / pan head control device configuration]
Returning to FIG. 4, the configuration of the position identification / pan head control device 30 will be described.
As shown in FIG. 4, the position identification / pan head control device 30 includes an information aggregation means 31, an identification information addition means 33, a tracking target determination means (tracking means) 35, and a pan head control means (robot camera control means). ) 37.

情報集約手段31は、動体検出装置20(動体検出手段26)から動体検出情報を取得し、取得した動体検出情報を集約するものである。本実施形態では、情報集約手段31は、3台全ての動体検出装置20から動体検出情報を取得したか否かを判定する。そして、情報集約手段31は、3台分の動体検出情報を取得した場合、例えば、タイムコードにより同一時刻の動体検出情報を対応付けて、識別情報付加手段33に出力する。 The information aggregating means 31 acquires moving object detection information from the moving object detecting device 20 (moving object detecting means 26) and aggregates the acquired moving object detection information. In the present embodiment, the information collecting means 31 determines whether or not the moving object detection information has been acquired from all three moving object detecting devices 20. Then, when the information collecting means 31 acquires the moving object detection information for three vehicles, for example, the moving object detection information at the same time is associated with the time code and output to the identification information adding means 33.

識別情報付加手段33は、情報集約手段31からの動体検出情報に識別情報を付加するものである。本実施形態では、識別情報付加手段33は、過去から現在までの動体検出情報を参照し、その位置に基づいて前後するフレームで同一と思われる動体を判定し、同一の識別情報を付加する。具体的には、識別情報付加手段33は、鳥などの誤検出を抑制するため、数フレームにわたって一定の速度、方向で動体が動いている場合、同一の識別情報を動体検出情報に付加する。 The identification information adding means 33 adds the identification information to the motion detection information from the information aggregating means 31. In the present embodiment, the identification information adding means 33 refers to the moving object detection information from the past to the present, determines a moving object that seems to be the same in the preceding and following frames based on the position, and adds the same identification information. Specifically, the identification information adding means 33 adds the same identification information to the moving object detection information when the moving object is moving at a constant speed and direction over several frames in order to suppress erroneous detection of a bird or the like.

また、識別情報付加手段33は、動体検出情報の所属エリアを参照し、その動体が航空機特定エリア(進入路エリア及び滑走路エリア)を過去に一度でも通過している場合、航空機として特定したことを示す特定情報を動体検出情報に付加する。さらに、識別情報付加手段33は、同一の識別情報が付与された動体検出情報について、その動体の位置変化量から動体の速度を算出し、算出した速度を動体検出情報に付加する。
その後、識別情報付加手段33は、動体検出情報を追尾対象決定手段35に出力する。
Further, the identification information adding means 33 refers to the area to which the moving object detection information belongs, and if the moving object has passed through the aircraft specific area (approach road area and runway area) even once in the past, it has been identified as an aircraft. The specific information indicating that is added to the motion detection information. Further, the identification information adding means 33 calculates the speed of the moving body from the amount of change in the position of the moving body with respect to the moving body detection information to which the same identification information is given, and adds the calculated speed to the moving body detection information.
After that, the identification information adding means 33 outputs the moving object detection information to the tracking target determining means 35.

これにより、航空機が着陸時に滑走路を逸脱した場合や、航空機が着陸復行のために再上昇した場合でも、同一の識別情報が付加されているので追尾を継続できる。さらには、航空機が別のセンサカメラ10の撮影画角に移動した場合でも、同一の識別情報が付加されているので追尾を継続できる。 As a result, even if the aircraft deviates from the runway at the time of landing or the aircraft re-climbs due to a go-around, the same identification information is added and tracking can be continued. Furthermore, even if the aircraft moves to the shooting angle of view of another sensor camera 10, the tracking can be continued because the same identification information is added.

追尾対象決定手段35は、識別情報付加手段33からの動体検出情報に基づいて航空機毎にスコアを算出し、算出したスコアに基づいて追尾対象の航空機を決定するものである。そして、追尾対象決定手段35は、追尾対象の情報として、その航空機の位置、速度、加速度及びサイズを雲台制御手段37に出力する。 The tracking target determining means 35 calculates a score for each aircraft based on the motion detection information from the identification information adding means 33, and determines the tracking target aircraft based on the calculated score. Then, the tracking target determining means 35 outputs the position, speed, acceleration, and size of the aircraft to the pan head control means 37 as information on the tracking target.

<スコアに基づいた航空機の決定>
以下、スコアに基づいた航空機の決定について、具体的に説明する。
本実施形態では、追尾対象決定手段35は、特定情報が付加されている動体検出情報について、スコアを算出する。つまり、追尾対象決定手段35は、特定情報が付加されていない動体検出情報から、スコアを算出しない。
<Determination of aircraft based on score>
Hereinafter, the determination of the aircraft based on the score will be specifically described.
In the present embodiment, the tracking target determining means 35 calculates a score for the moving object detection information to which the specific information is added. That is, the tracking target determining means 35 does not calculate the score from the moving object detection information to which the specific information is not added.

まず、追尾対象決定手段35は、航空機の速度に応じた速度スコアを加算する。つまり、追尾対象決定手段35は、動体検出情報の速度を参照し、その速度に応じた速度スコアを加算する。この速度スコアは、航空機の速度に応じて予め設定されている(例えば、0ポイント〜500ポイント)。 First, the tracking target determining means 35 adds a speed score according to the speed of the aircraft. That is, the tracking target determining means 35 refers to the speed of the moving object detection information, and adds a speed score according to the speed. This speed score is preset according to the speed of the aircraft (for example, 0 points to 500 points).

また、追尾対象決定手段35は、航空機が上空で検出された場合、上空エリアスコア(第1のエリアスコア)を加算する。つまり、追尾対象決定手段35は、動体検出情報の所属エリアが上空エリアS(図5)の場合、上空エリアスコアを加算する。この上空エリアスコアは、速度スコアよりも高い値で予め設定されている(例えば、1000ポイント)。 Further, the tracking target determining means 35 adds the sky area score (first area score) when the aircraft is detected in the sky. That is, the tracking target determining means 35 adds the sky area score when the area to which the motion detection information belongs is the sky area S (FIG. 5). This sky area score is preset with a value higher than the speed score (for example, 1000 points).

また、追尾対象決定手段35は、航空機が進入路又は滑走路で検出された場合、特定エリアスコア(第2のエリアスコア)を加算する。つまり、追尾対象決定手段35は、動体検出情報の所属エリアが滑走路エリアR又は進入路エリアA(図5)の場合、特定エリアスコアを加算する。この特定エリアスコアは、上空エリアスコアよりも高い値で予め設定されている(例えば、2000ポイント)。 Further, the tracking target determining means 35 adds a specific area score (second area score) when the aircraft is detected on the approach road or the runway. That is, the tracking target determining means 35 adds the specific area score when the area to which the motion detection information belongs is the runway area R or the approach road area AL (FIG. 5). This specific area score is preset with a value higher than the sky area score (for example, 2000 points).

そして、追尾対象決定手段35は、速度スコア及びエリアスコアの合計値が最も高くなる航空機を追尾対象として決定する。図14に示すように、滑走路上で航空機Objが滑走し、誘導路に航空機Objが位置する場合を考える。この場合、滑走中の航空機Objが航空機Objより速いので、航空機Objの速度スコアが航空機Objより高くなる。また、航空機Objが滑走路に位置し、航空機Objが誘導路に位置するので、航空機Objのエリアスコアも航空機Objより高くなる。その結果、追尾対象決定手段35は、図14のセンサ映像90において、航空機Objを追尾対象として決定する。 Then, the tracking target determining means 35 determines the aircraft having the highest total value of the speed score and the area score as the tracking target. As shown in FIG. 14, consider a case where the aircraft Obj 4 slides on the runway and the aircraft Obj 5 is located on the guideway. In this case, the aircraft Obj 4 in the runway because faster than aircraft Obj 5, speed score of aircraft Obj 4 is higher than the aircraft Obj 5. Further, since the aircraft Obj 4 is located on the runway and the aircraft Obj 5 is located on the guideway, the area score of the aircraft Obj 4 is also higher than that of the aircraft Obj 5. As a result, tracking target decision means 35, the sensor image 90 C in FIG. 14, to determine the aircraft Obj 4 as a tracking target.

なお、追尾対象決定手段35は、特定情報が付加されている動体検出情報が1つのみの場合(つまり、航空機が1機しか検出されていない場合)、スコアを算出せずに、その航空機を追尾対象として即座に決定してもよい。 In addition, when the tracking target determination means 35 has only one moving object detection information to which specific information is added (that is, when only one aircraft is detected), the tracking target determining means 35 does not calculate the score and uses the aircraft. It may be determined immediately as a tracking target.

<追尾対象決定手段35における他の処理>
ここで、追尾対象決定手段35は、スコアに基づいた航空機の決定の他、以下の処理を行ってもよい。
例えば、追尾対象決定手段35は、追尾対象となる航空機が存在せず、かつ、動体検出装置20(動体検出手段26)から遠方動体検出情報が入力された場合、定位置制御を行うと決定する。この場合、追尾対象決定手段35は、定位置制御指令を雲台制御手段37に出力する。この定位置制御とは、例えば、図6の進入路エリアAを撮影映像に収めるように予め設定された撮影方向及び撮影画角で、ロボットカメラ40に撮影させることである。
<Other processing in the tracking target determination means 35>
Here, the tracking target determination means 35 may perform the following processing in addition to determining the aircraft based on the score.
For example, the tracking target determining means 35 determines that the fixed position control is performed when the aircraft to be tracked does not exist and the distant moving object detection information is input from the moving object detecting device 20 (moving object detecting means 26). .. In this case, the tracking target determining means 35 outputs a fixed position control command to the pan head control means 37. The A position control, for example, at a pre-set photographing direction and photographing field angle as fall within the shot image of the approach path area A H of FIG. 6, is to taken the robot camera 40.

また、追尾対象決定手段35は、航空機が建物や他の航空機の背後に隠れたときなど、航空機の検出が途絶えた場合、予め設定した再検出時間だけ、ベイズ推定に基づいて追尾速度から航空機の推定位置を求め、その推定位置で航空機が再検出されるのを待つ。そして、追尾対象決定手段35は、その推定位置で航空機が再検出されると、追尾を継続する。 Further, when the detection of the aircraft is interrupted, such as when the aircraft is hidden behind a building or another aircraft, the tracking target determination means 35 uses the tracking speed of the aircraft based on the Bayesian estimation for a preset re-detection time. Find the estimated position and wait for the aircraft to be rediscovered at that estimated position. Then, the tracking target determining means 35 continues tracking when the aircraft is rediscovered at the estimated position.

また、追尾対象決定手段35は、再検出時間経過しても航空機が再検出されなかった場合、推定位置制御指令を雲台制御手段37に出力する。この推定位置制御とは、事故映像の撮影可能性を高くするため、現時点での航空機の推定位置を中心として、広い撮影画角でロボットカメラ40に撮影させることである。 Further, the tracking target determining means 35 outputs an estimated position control command to the pan head control means 37 when the aircraft is not rediscovered even after the rediscovery time has elapsed. This estimated position control is to have the robot camera 40 take a picture with a wide shooting angle of view centering on the estimated position of the aircraft at the present time in order to increase the possibility of taking an accident image.

また、追尾対象決定手段35は、推定位置制御指令を出力後、予め設定した待機時間経過しても航空機が再検出されなかった場合、待機位置制御指令を雲台制御手段37に出力する。この待機位置制御とは、例えば、進入路エリアなど事故発生率が高い箇所を撮影映像に収めるように予め設定された撮影方向及び撮影画角で、ロボットカメラ40に撮影させることである。 Further, the tracking target determining means 35 outputs the standby position control command to the pan head control means 37 when the aircraft is not re-detected even after the preset standby time elapses after the estimated position control command is output. This standby position control means, for example, causing the robot camera 40 to take a picture in a shooting direction and a shooting angle of view set in advance so as to capture a place having a high accident rate such as an approach road area in the shot image.

図4に戻り、位置特定・雲台制御装置30の説明を続ける。
雲台制御手段37は、追尾対象決定手段35からの追尾対象の位置に基づいて、ロボットカメラ40(雲台43)を制御するものである。本実施形態では、雲台制御手段37は、追尾対象となる航空機をロボットカメラ40が追尾して撮影できるように、一般的なフィードバック制御を行う。
Returning to FIG. 4, the description of the position identification / pan head control device 30 will be continued.
The pan head control means 37 controls the robot camera 40 (head 43) based on the position of the tracking target from the tracking target determining means 35. In the present embodiment, the pan head control means 37 performs general feedback control so that the robot camera 40 can track and photograph the aircraft to be tracked.

ここで、雲台制御手段37は、追尾対象決定手段35から入力された航空機のサイズに応じて、ロボットカメラ40のズームを制御する。具体的には、雲台制御手段37は、航空機のサイズが大きくなる程にズームアウトし、航空機のサイズが小さくなる程にズームインする制御を行う。また、航空機の速度がロボットカメラ40の最大動作速度を超える場合、雲台制御手段37は、ズームアウトする制御を行ってもよい。 Here, the pan head control means 37 controls the zoom of the robot camera 40 according to the size of the aircraft input from the tracking target determination means 35. Specifically, the pan head control means 37 controls to zoom out as the size of the aircraft increases and zoom in as the size of the aircraft decreases. Further, when the speed of the aircraft exceeds the maximum operating speed of the robot camera 40, the pan head control means 37 may perform control to zoom out.

また、雲台制御手段37は、追尾対象決定手段35から定位置制御指令が入力された場合、ロボットカメラ40の定位置制御を行う。また、雲台制御手段37は、追尾対象決定手段35から推定位置制御指令が入力された場合、ロボットカメラ40の推定位置制御を行う。また、雲台制御手段37は、追尾対象決定手段35から待機位置制御指令が入力された場合、ロボットカメラ40の待機位置制御を行う。 Further, the pan head control means 37 controls the fixed position of the robot camera 40 when a fixed position control command is input from the tracking target determining means 35. Further, the pan head control means 37 controls the estimated position of the robot camera 40 when the estimated position control command is input from the tracking target determining means 35. Further, the pan head control means 37 controls the standby position of the robot camera 40 when a standby position control command is input from the tracking target determination means 35.

以上より、航空機追尾撮影システム1は、図15に示すように、センサ映像90に映っている離発着中の航空機を追尾し、ロボットカメラ40で撮影することができる。さらに、航空機追尾撮影システム1は、図16に示すように、同一の航空機がセンサ映像90,90に映っている場合でも、追尾対象決定手段35により航空機を追尾することができる。
なお、図15,図16では、添え字tが時刻を表し、航空機として検出された領域を一点鎖線で図示した。
From the above, as shown in FIG. 15, the aircraft tracking and photographing system 1 can track the aircraft during takeoff and landing shown in the sensor image 90 and photograph it with the robot camera 40. Further, as shown in FIG. 16, the aircraft tracking imaging system 1 can track the aircraft by the tracking target determining means 35 even when the same aircraft is shown in the sensor images 90 C and 90 R.
In addition, in FIGS. 15 and 16, the subscript t represents the time, and the region detected as an aircraft is shown by a dashed line.

[航空機追尾撮影システムの動作]
図17を参照し、航空機追尾撮影システム1の動作について説明する。
なお、図17では、図面を見やすくするため、センサカメラ10及び動体検出装置20を1台のみ図示した。また、各センサカメラ10及び各動体検出装置20の処理は同一のため、重複説明を省略する。
また、図17では、記憶手段22がエリア情報及び変換情報を記憶しており、昼夜判定手段21が昼間と判定したこととする。
[Operation of aircraft tracking shooting system]
The operation of the aircraft tracking imaging system 1 will be described with reference to FIG.
In FIG. 17, only one sensor camera 10 and one motion detecting device 20 are shown in order to make the drawings easier to see. Further, since the processing of each sensor camera 10 and each moving object detection device 20 is the same, duplicate description will be omitted.
Further, in FIG. 17, it is assumed that the storage means 22 stores the area information and the conversion information, and the day / night determination means 21 determines that it is daytime.

センサカメラ10は、航空機を撮影したセンサ映像を生成し、生成したセンサ映像90を動体検出装置20に出力する(ステップS1)。
差分画像生成手段23は、センサ映像から差分画像を生成する。つまり、差分画像生成手段23は、センサ映像で前後するフレーム間で画素毎に輝度差を求め、求めた輝度差を表す差分画像を生成する(ステップS2)。
The sensor camera 10 generates a sensor image of an aircraft, and outputs the generated sensor image 90 to the motion detection device 20 (step S1).
The difference image generation means 23 generates a difference image from the sensor image. That is, the difference image generation means 23 obtains the brightness difference for each pixel between the frames before and after the sensor image, and generates a difference image representing the obtained brightness difference (step S2).

差分領域検出手段24は、低感度モード及び高感度モードのそれぞれで、ステップS2で生成した差分画像から差分領域を検出する。つまり、差分領域検出手段24は、輝度差が閾値以上となる各画素について、近いもの同士をグループ化して差分領域を生成する(ステップS3)。 The difference region detecting means 24 detects the difference region from the difference image generated in step S2 in each of the low sensitivity mode and the high sensitivity mode. That is, the difference region detecting means 24 generates a difference region by grouping close pixels for each pixel whose luminance difference is equal to or greater than the threshold value (step S3).

動体検出手段26は、ステップS3で生成した差分領域のうち、所定のフレーム数以上にわたり位置が変化する差分領域を抽出する。そして、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、動体検出情報を生成する。例えば、動体検出手段26は、マスクエリアM以外の各エリアから動体を検出し、マスクエリアMから動体を検出しない(ステップS4)。
動体検出手段26は、ステップS4で生成した動体検出情報を情報集約手段31に出力する(ステップS5)。
The moving object detecting means 26 extracts a difference region whose position changes over a predetermined number of frames or more from the difference region generated in step S3. Then, the moving body detecting means 26 refers to the area information of the storage means 22, detects the moving body based on the position of the extracted difference region and the detection sensitivity, and generates the moving body detection information. For example, the moving object detecting means 26 detects a moving object from each area other than the mask area M, and does not detect a moving object from the mask area M (step S4).
The moving object detecting means 26 outputs the moving object detecting information generated in step S4 to the information collecting means 31 (step S5).

情報集約手段31は、3台全ての動体検出装置20から動体検出情報を取得したか否かを判定し(ステップS6)、全ての動体検出情報を取得するまで処理を待つ(ステップS6でNo)。 The information aggregating means 31 determines whether or not the motion detection information has been acquired from all three motion detection devices 20 (step S6), and waits for processing until all the motion detection information is acquired (No in step S6). ..

全ての動体検出情報を取得した場合(ステップS6でYes)、識別情報付加手段33は、ステップS6で取得した動体検出情報に識別情報を付加する。ここでは、識別情報付加手段33は、過去から現在までの動体検出情報を参照し、動体の検出位置に基づいて前後するフレームで同一と思われる動体を判定し、その動体に対応する動体検出情報に同一の識別情報を付加する。さらに、識別情報付加手段33は、動体検出情報を参照すれば動体の軌跡が分かるので、その動体が航空機特定エリアを過去に一度でも通過している場合、航空機として特定したことを示す特定情報を動体検出情報に付加する。さらに、識別情報付加手段33は、同一の識別情報が付与された動体検出情報について、その動体の位置変化量から動体の速度を算出し、算出した速度を動体検出情報に付加する(ステップS7)。 When all the moving object detection information is acquired (Yes in step S6), the identification information adding means 33 adds the identification information to the moving object detection information acquired in step S6. Here, the identification information adding means 33 refers to the moving body detection information from the past to the present, determines a moving body that seems to be the same in the preceding and following frames based on the detection position of the moving body, and the moving body detection information corresponding to the moving body. The same identification information is added to. Further, since the identification information adding means 33 can know the trajectory of the moving object by referring to the moving object detection information, if the moving object has passed through the aircraft specific area even once in the past, the identification information indicating that the moving object has been identified as an aircraft can be obtained. It is added to the motion detection information. Further, the identification information adding means 33 calculates the velocity of the moving object from the amount of change in the position of the moving object with respect to the moving object detection information to which the same identification information is given, and adds the calculated velocity to the moving object detection information (step S7). ..

追尾対象決定手段35は、動体検出情報の所属エリア及び速度に基づいて、航空機として特定された動体毎にスコアを算出する。具体的には、追尾対象決定手段35は、動体の速度に応じた速度スコアを加算する。さらに、追尾対象決定手段35は、動体の所属エリアに応じたエリアスコアを加減算する。そして、追尾対象決定手段35は、速度スコア及びエリアスコアの合計値が最も高くなる動体を追尾対象の航空機として決定する(ステップS8)。 The tracking target determining means 35 calculates a score for each moving object specified as an aircraft based on the area and speed to which the moving object detection information belongs. Specifically, the tracking target determining means 35 adds a velocity score according to the velocity of the moving object. Further, the tracking target determining means 35 adds or subtracts an area score according to the area to which the moving object belongs. Then, the tracking target determining means 35 determines the moving object having the highest total value of the speed score and the area score as the tracking target aircraft (step S8).

雲台制御手段37は、ステップS8で決定した航空機の位置に基づいて、ロボットカメラ40の制御信号を生成する。ここでは、雲台制御手段37は、追尾対象の航空機をロボットカメラ40が追尾して撮影できるように、一般的なフィードバック制御を行う(ステップS9)。 The pan head control means 37 generates a control signal for the robot camera 40 based on the position of the aircraft determined in step S8. Here, the pan head control means 37 performs general feedback control so that the robot camera 40 can track and photograph the aircraft to be tracked (step S9).

雲台制御手段37は、ステップS9で生成した制御信号をロボットカメラ40に出力する(ステップS10)。
ロボットカメラ40は、制御信号に基づいて航空機を追尾、撮影する(ステップS11)。
The pan head control means 37 outputs the control signal generated in step S9 to the robot camera 40 (step S10).
The robot camera 40 tracks and photographs the aircraft based on the control signal (step S11).

[作用・効果]
以上のように、本発明の実施形態にかかる航空機追尾撮影システム1は、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、テンプレートマッチングのように夜間で急激に検出精度が低下せず、昼夜を問わずに航空機を正確に追尾することができる。
[Action / Effect]
As described above, the aircraft tracking imaging system 1 according to the embodiment of the present invention detects the moving object by the difference between frames and determines the tracking target by the area information, so that the detection accuracy is rapidly improved at night like template matching. It does not drop and can accurately track the aircraft day and night.

さらに、航空機追尾撮影システム1は、動体の過去の軌跡に基づいて追尾対象を決定するため、予期しない進路に逸脱した動体も正確に追尾することができる。
さらに、航空機追尾撮影システム1は、センサ映像90を用いるので、ADS-B信号を発しない航空機も追尾することができる。
Further, since the aircraft tracking imaging system 1 determines the tracking target based on the past trajectory of the moving object, it is possible to accurately track the moving object deviating from an unexpected course.
Further, since the aircraft tracking imaging system 1 uses the sensor image 90, it is possible to track an aircraft that does not emit an ADS-B signal.

以上、本発明の実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、センサカメラが3台であることとして説明したが、本発明は、これに限定されない。例えば、1台の超広角カメラをセンサカメラとして用いてもよく、2台以上のセンサカメラを用いてもよい。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within a range that does not deviate from the gist of the present invention.
In the above-described embodiment, it has been described that the number of sensor cameras is three, but the present invention is not limited thereto. For example, one ultra-wide-angle camera may be used as a sensor camera, or two or more sensor cameras may be used.

前記した実施形態では、センサカメラ毎に動体検出装置を備えることとして説明したが、本発明は、これに限定されない。例えば、1台の動体検出装置で各センサカメラのセンサ映像を画像解析してもよい。
また、前記した実施形態では、動体検出装置及び位置特定・雲台制御装置が別々の構成であることとして説明したが、本発明は、動体検出装置及び位置特定・雲台制御装置を一体化してもよい。
In the above-described embodiment, it has been described that each sensor camera is provided with a motion detection device, but the present invention is not limited thereto. For example, the sensor image of each sensor camera may be image-analyzed by one motion detection device.
Further, in the above-described embodiment, the motion detection device and the position identification / pan head control device have been described as having separate configurations, but the present invention integrates the motion detection device and the position identification / pan head control device. May be good.

前記した実施形態では、動体が航空機であることとして説明したが、本発明は、これに限定されない。すなわち、本発明では、動体が移動するものであれば特に限定されない。特に、動体は、一定の方向に移動するものであれば好ましく、例えば、船舶、鉄道、自動車などがある。さらに、本発明は、陸上競技の選手などを動体として撮影するスポーツ映像にも適用できる。 In the above-described embodiment, it has been described that the moving body is an aircraft, but the present invention is not limited thereto. That is, in the present invention, there is no particular limitation as long as the moving body moves. In particular, the moving body is preferably one that moves in a certain direction, and includes, for example, a ship, a railroad, an automobile, and the like. Further, the present invention can also be applied to a sports image in which an athletics athlete or the like is photographed as a moving object.

前記した実施形態では、ロボットカメラに航空機を追尾させることとして説明したが、本発明は、これに限定されない。例えば、本発明は、映像上で航空機を追跡(トラッキング)する手法に適用してもよい。 In the above-described embodiment, the robot camera is used to track the aircraft, but the present invention is not limited thereto. For example, the present invention may be applied to a method of tracking an aircraft on an image.

前記した実施形態では、具体的なスコア(ポイント数)を例示したが、本発明は、これに限定されない。例えば、各空港の環境に応じて、各エリアに応じたスコアを手動で設定すればよい。 In the above-described embodiment, a specific score (number of points) has been illustrated, but the present invention is not limited thereto. For example, the score for each area may be set manually according to the environment of each airport.

前記した実施形態では、動体追尾装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した動体追尾装置として協調動作させる動体追尾プログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the moving object tracking device has been described as independent hardware, but the present invention is not limited thereto. For example, the present invention can also be realized by a moving object tracking program in which hardware resources such as a CPU, a memory, and a hard disk included in a computer are cooperatively operated as the above-mentioned moving object tracking device. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.

1 航空機追尾撮影システム
10,10,10,10 センサカメラ
20,20,20,20 動体検出装置
21 昼夜判定手段
22 記憶手段
23 差分画像生成手段
24 差分領域検出手段
25 動体検出手段
26 ライト検出手段
30 位置特定・雲台制御装置
31 情報集約手段
33 識別情報付加手段
35 追尾対象決定手段(追尾手段)
37 雲台制御手段(ロボットカメラ制御手段)
40 ロボットカメラ
1 Aircraft tracking imaging system 10 , 10 R , 10 C , 10 L Sensor camera 20 , 20 R , 20 C , 20 L Motion detection device 21 Day / night determination means 22 Storage means 23 Difference image generation means 24 Difference area detection means 25 Motion detection Means 26 Light detection means 30 Position identification / pan head control device 31 Information aggregation means 33 Identification information addition means 35 Tracking target determination means (tracking means)
37 Head control means (robot camera control means)
40 robot camera

Claims (8)

センサカメラで動体を撮影したセンサ映像を用いて、追尾対象となる前記動体を追尾する動体追尾装置であって、
前記センサ映像から差分画像を生成する差分画像生成手段と、
低感度モード及び前記低感度モードより検出感度が高い高感度モードのそれぞれで、前記差分画像から差分領域を検出する差分領域検出手段と、
前記低感度モードにおいて、前記センサ映像内で前記動体を前記追尾対象として特定するための追尾対象特定エリア及び前記追尾対象が通過しないマスクエリアと、前記高感度モードにおいて、前記追尾対象の検出エリア誤りを防止するための誤検出防止エリアとを表すエリア情報を予め記憶する記憶手段と、
予め設定されたフレーム数以上にわたり位置が変化する前記差分領域を抽出し、前記エリア情報を参照し、抽出した前記差分領域の位置及び前記検出感度により前記動体を検出し、検出した当該動体の位置及び所属エリアを表す動体検出情報を生成する動体検出手段と、
前記動体検出情報に基づいて前記動体毎にスコアを算出し、算出した前記スコアに基づいて前記追尾対象を決定する追尾手段と、
を備えることを特徴とする動体追尾装置。
It is a moving object tracking device that tracks the moving object to be tracked by using a sensor image of the moving object taken by a sensor camera.
A difference image generation means for generating a difference image from the sensor image, and
In each of the low-sensitivity mode and the high-sensitivity mode in which the detection sensitivity is higher than that of the low-sensitivity mode, the difference region detecting means for detecting the difference region from the difference image and the difference region detecting means.
In the low-sensitivity mode, a tracking target specific area for identifying the moving object as the tracking target in the sensor image, a mask area through which the tracking target does not pass, and an error in the detection area of the tracking target in the high-sensitivity mode. A storage means for storing area information in advance, which represents an erroneous detection prevention area for preventing
The difference region whose position changes over a preset number of frames is extracted, the area information is referred to, the moving body is detected by the extracted position of the difference region and the detection sensitivity, and the position of the detected moving body is detected. And the moving object detection means that generates the moving object detection information indicating the area to which it belongs,
A tracking means that calculates a score for each moving object based on the moving object detection information and determines the tracking target based on the calculated score.
A moving object tracking device characterized by being equipped with.
前記追尾対象は、航空機であり、
前記記憶手段は、前記追尾対象特定エリアとして前記センサ映像内の進入路エリア及び滑走路エリアを表し、前記誤検出防止エリアとして前記センサ映像内の誘導路エリアを表す前記エリア情報を記憶し、
前記動体検出情報に基づいて前記動体が同一であるか否かを判定し、同一の前記動体に同一の識別情報を付加し、前記動体が前記進入路エリア又は前記滑走路エリアを過去に通過した場合、当該動体を航空機として特定する識別情報付加手段、をさらに備え、
前記追尾手段は、前記識別情報付加手段が航空機として特定した動体のスコアを算出することを特徴とする請求項1に記載の動体追尾装置。
The tracking target is an aircraft,
The storage means stores the area information representing the approach road area and the runway area in the sensor image as the tracking target specific area, and the guide road area in the sensor image as the false detection prevention area.
It is determined whether or not the moving body is the same based on the moving body detection information, the same identification information is added to the same moving body, and the moving body has passed the approach road area or the runway area in the past. In the case, it is further provided with identification information addition means for identifying the moving object as an aircraft.
The moving object tracking device according to claim 1, wherein the tracking means calculates a score of a moving object identified as an aircraft by the identification information adding means.
前記記憶手段は、前記低感度モードにおいて、前記センサ映像内の上空エリアがさらに設定された前記エリア情報を記憶し、
前記動体検出手段は、
前記低感度モードで前記進入路エリア又は前記上空エリアに含まれる動体を検出し、
前記低感度モードで前記滑走路エリアに含まれ、かつ、前記高感度モードで前記誘導路エリアに含まれない動体を前記滑走路エリアの動体として検出し、
前記低感度モードで前記滑走路エリアに含まれ、かつ、前記高感度モードで前記誘導路エリアに含まれる動体を前記誘導路エリアの動体として検出し、
前記低感度モードで前記マスクエリアに含まれる動体を検出しないことを特徴とする請求項2に記載の動体追尾装置。
The storage means stores the area information in which the sky area in the sensor image is further set in the low sensitivity mode.
The moving object detecting means
In the low sensitivity mode, a moving object included in the approach road area or the sky area is detected.
A moving body included in the runway area in the low-sensitivity mode and not included in the guideway area in the high-sensitivity mode is detected as a moving body in the runway area.
A moving body included in the runway area in the low-sensitivity mode and included in the guidance path area in the high-sensitivity mode is detected as a moving body in the guidance path area.
The moving object tracking device according to claim 2, wherein the moving object included in the mask area is not detected in the low sensitivity mode.
前記識別情報付加手段は、同一の前記識別情報が付与された動体検出情報について、前記動体の位置変化量に基づいて前記動体の速度を算出し、
前記追尾手段は、
前記動体に応じて予め設定された速度スコアを加算し、
前記動体の所属エリアが前記上空エリアの場合、前記速度スコアよりも高い第1のエリアスコアを加算し、
前記動体の所属エリアが前記進入路エリア又は前記滑走路エリアの場合、前記第1のエリアスコアよりも高い第2のエリアスコアを加算し、
前記速度スコア及びエリアスコアの合計値が最も高くなる動体を前記追尾対象として決定することを特徴とする請求項3に記載の動体追尾装置。
The identification information adding means calculates the velocity of the moving body based on the amount of change in the position of the moving body with respect to the moving body detection information to which the same identification information is given.
The tracking means
A preset speed score is added according to the moving object, and the speed score is added.
When the area to which the moving object belongs is the sky area, a first area score higher than the speed score is added.
When the area to which the moving object belongs is the approach road area or the runway area, a second area score higher than the first area score is added.
The moving object tracking device according to claim 3, wherein the moving object having the highest total value of the speed score and the area score is determined as the tracking target.
時刻に基づいて夜間であるか否かを判定する昼夜判定手段、をさらに備え、
前記差分領域検出手段は、夜間と判定されたときに前記低感度モードのみで前記差分領域を検出し、
前記動体検出手段は、夜間と判定されたときに、前記低感度モードで前記進入路エリアに含まれる動体を検出し、前記低感度モードで前記マスクエリアに含まれる動体を検出しないことを特徴とする請求項2から請求項4の何れか一項に記載の動体追尾装置。
Further equipped with a day / night determination means for determining whether or not it is nighttime based on the time of day,
The difference region detecting means detects the difference region only in the low sensitivity mode when it is determined to be at night.
The moving object detecting means is characterized in that, when it is determined at night, the moving object included in the approach road area is detected in the low sensitivity mode, and the moving object included in the mask area is not detected in the low sensitivity mode. The moving object tracking device according to any one of claims 2 to 4.
前記追尾手段が出力した追尾対象の位置に基づいて、前記動体を撮影するロボットカメラを制御するロボットカメラ制御手段、をさらに備えることを特徴とする請求項2から請求項5の何れか一項に記載の動体追尾装置。 The invention according to any one of claims 2 to 5, further comprising a robot camera control means for controlling the robot camera that captures the moving object based on the position of the tracking target output by the tracking means. The described moving object tracking device. 前記記憶手段は、前記高感度モードにおいて前記進入路エリアと、夜間用進入路エリアとがさらに設定された前記エリア情報を記憶し、
夜間と判定されたとき、前記センサ映像内の前記夜間用進入路エリアにおいて、予め設定された輝度値以上の画素エリアを、前記航空機のライトとして検出するライト検出手段、をさらに備え、
前記動体検出手段は、
昼間と判定されたときに、前記低感度モードで前記進入路エリアに含まれず、かつ、前記高感度モードで前記進入路エリアに含まれる動体を遠方動体としてさらに検出し、
夜間と判定されたときに、前記低感度モードで前記動体が検出されない場合、前記ライト検出手段が検出した航空機のライトを前記遠方動体としてさらに検出し、
前記追尾手段は、前記追尾対象が存在せず、かつ、前記遠方動体を検出した場合、定位置制御を行うと決定し、
前記ロボットカメラ制御手段は、前記追尾手段が前記定位置制御を行うと決定した場合、予め設定された撮影方向及び撮影画角で撮影するように前記ロボットカメラを制御することを特徴とする請求項6に記載の動体追尾装置。
The storage means stores the area information in which the approach road area and the nighttime approach road area are further set in the high sensitivity mode.
Further provided with a light detecting means for detecting a pixel area having a brightness value equal to or higher than a preset brightness value as a light of the aircraft in the night approach road area in the sensor image when it is determined to be at night.
The moving object detecting means
When it is determined to be daytime, a moving object that is not included in the approach road area in the low sensitivity mode and is included in the approach road area in the high sensitivity mode is further detected as a distant moving body.
If the moving object is not detected in the low sensitivity mode when it is determined to be at night, the light of the aircraft detected by the light detecting means is further detected as the distant moving object.
The tracking means determines that the fixed position control is performed when the tracking target does not exist and the distant moving object is detected.
The robot camera control means is characterized in that, when the tracking means determines to perform the fixed position control, the robot camera controls the robot camera so as to shoot in a preset shooting direction and shooting angle of view. 6. The moving object tracking device according to 6.
コンピュータを、請求項1から請求項7の何れか一項に記載の動体追尾装置として機能させるための動体追尾プログラム。 A moving object tracking program for causing a computer to function as the moving object tracking device according to any one of claims 1 to 7.
JP2017193646A 2017-10-03 2017-10-03 Moving object tracking device and its program Active JP6934386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193646A JP6934386B2 (en) 2017-10-03 2017-10-03 Moving object tracking device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193646A JP6934386B2 (en) 2017-10-03 2017-10-03 Moving object tracking device and its program

Publications (2)

Publication Number Publication Date
JP2019068325A JP2019068325A (en) 2019-04-25
JP6934386B2 true JP6934386B2 (en) 2021-09-15

Family

ID=66340786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193646A Active JP6934386B2 (en) 2017-10-03 2017-10-03 Moving object tracking device and its program

Country Status (1)

Country Link
JP (1) JP6934386B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200388171A1 (en) * 2019-06-04 2020-12-10 Sucxess LLC System for recording images of landing and departing aircraft
JP7447417B2 (en) 2019-09-27 2024-03-12 ソニーグループ株式会社 Image processing device, image processing method, program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514898A (en) * 1991-06-28 1993-01-22 Toshiba Corp Image monitor device
JP4145558B2 (en) * 2002-04-24 2008-09-03 株式会社東芝 Airport control support system
JP4723896B2 (en) * 2005-04-20 2011-07-13 株式会社東芝 Travel guidance support system and travel guidance support method
JP4311457B2 (en) * 2007-02-15 2009-08-12 ソニー株式会社 Motion detection device, motion detection method, imaging device, and monitoring system
JP6131519B2 (en) * 2012-01-31 2017-05-24 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
US8929603B1 (en) * 2013-03-15 2015-01-06 Puretech Systems, Inc. Autonomous lock-on target tracking with geospatial-aware PTZ cameras
SG11201606716VA (en) * 2014-02-14 2016-09-29 Nec Corp Video analysis system
JP6413530B2 (en) * 2014-09-12 2018-10-31 沖電気工業株式会社 Surveillance system, video analysis apparatus, video analysis method and program
JP6593995B2 (en) * 2015-01-26 2019-10-23 三菱電機株式会社 Airport monitoring device

Also Published As

Publication number Publication date
JP2019068325A (en) 2019-04-25

Similar Documents

Publication Publication Date Title
KR102581779B1 (en) Apparatus and method for prevention of collision at crossroads
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
US7889232B2 (en) Method and system for surveillance of vessels
CN110675592B (en) High-altitude parabolic early warning protection system based on target identification and control method
KR102177655B1 (en) System for tracking an object in unmanned aerial vehicle based on mvs
US20160232410A1 (en) Vehicle speed detection
US20130329052A1 (en) Surveillance system and a method for detecting a foreign object, debris, or damage in an airfield
JP5904069B2 (en) Image processing apparatus, object detection method, and object detection program
US20200143177A1 (en) Systems and methods of detecting moving obstacles
Gulati et al. Image processing in intelligent traffic management
CN114359714A (en) Unmanned body obstacle avoidance method and device based on event camera and intelligent unmanned body
JP6934386B2 (en) Moving object tracking device and its program
US8929603B1 (en) Autonomous lock-on target tracking with geospatial-aware PTZ cameras
US11483484B2 (en) Systems and methods for imaging of moving objects using multiple cameras
JP7035272B2 (en) Shooting system
US20200125879A1 (en) Apparatus and method for capturing flying objects
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
GB2605675A (en) Event-based aerial detection vision system
US20160188968A1 (en) Object detection apparatus, object detection method, and object detection system
KR102479959B1 (en) Artificial intelligence based integrated alert method and object monitoring device
JP2006168421A (en) Flying object monitoring device
GB2582988A (en) Object classification
US20190068943A1 (en) Environment Perception System for Autonomous Vehicle
JP2022061059A (en) Moving object tracking apparatus and program thereof
JP7147464B2 (en) Image selection device and image selection method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6934386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250