JP6934386B2 - Moving object tracking device and its program - Google Patents
Moving object tracking device and its program Download PDFInfo
- Publication number
- JP6934386B2 JP6934386B2 JP2017193646A JP2017193646A JP6934386B2 JP 6934386 B2 JP6934386 B2 JP 6934386B2 JP 2017193646 A JP2017193646 A JP 2017193646A JP 2017193646 A JP2017193646 A JP 2017193646A JP 6934386 B2 JP6934386 B2 JP 6934386B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- moving object
- aircraft
- sensitivity mode
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 113
- 238000013459 approach Methods 0.000 claims description 40
- 230000035945 sensitivity Effects 0.000 claims description 36
- 230000002265 prevention Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000004931 aggregating effect Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Description
本発明は、動体追尾装置及びそのプログラムに関する。 The present invention relates to a moving object tracking device and a program thereof.
従来より、航空機が空港を離発着する様子をロボットカメラで自動追尾しながら撮影する発明が提案されている(例えば、特許文献1,2)。
特許文献1に記載の発明は、航空機が発するADS-B(Automatic Dependent Surveillance-Broadcast)信号を用いて、航空機の進入路や滑走方向を特定し、特定した方向にロボットカメラを向け、テンプレートマッチングにより航空機を追尾するものである。
また、特許文献2に記載の発明は、風向きや風速の計測データから航空機の進入路や滑走方向を予測し、特定した方向にロボットカメラを向け、テンプレートマッチングにより航空機を追尾するものである。
Conventionally, inventions have been proposed in which an aircraft takes off and landing at an airport while being automatically tracked by a robot camera (for example,
The invention described in
Further, the invention described in
しかし、特許文献1,2に記載の発明では、テンプレートマッチングを用いるので、夜間だと航空機が映りにくく、航空機の検出精度が低下するという問題がある。さらに、特許文献1に記載の発明では、ADS−B信号を発しない航空機の追尾が困難である。
However, in the inventions described in
そこで、本発明は、昼夜を問わずに様々な動体を追尾できる動体追尾装置及びそのプログラムを提供することを課題とする。 Therefore, an object of the present invention is to provide a moving object tracking device capable of tracking various moving objects day and night and a program thereof.
前記した課題に鑑みて、本発明にかかる動体追尾装置は、センサカメラで動体を撮影したセンサ映像を用いて、追尾対象となる動体を追尾する動体追尾装置であって、差分画像生成手段と、差分領域検出手段と、記憶手段と、動体検出手段と、追尾手段と、を備える構成とした。 In view of the above-mentioned problems, the moving object tracking device according to the present invention is a moving object tracking device that tracks a moving object to be tracked by using a sensor image obtained by photographing the moving object with a sensor camera, and is a differential image generation means. The configuration includes a difference area detecting means, a storage means, a moving object detecting means, and a tracking means.
かかる動体追尾装置によれば、差分画像生成手段は、センサ映像から差分画像を生成する。また、差分領域検出手段は、低感度モード及び低感度モードより検出感度が高い高感度モードのそれぞれで、差分画像から差分領域を検出する。 According to such a moving object tracking device, the difference image generation means generates a difference image from the sensor image. Further, the difference region detecting means detects the difference region from the difference image in each of the low sensitivity mode and the high sensitivity mode in which the detection sensitivity is higher than the low sensitivity mode.
また、記憶手段は、低感度モードにおいて、センサ映像内で動体を追尾対象として特定するための追尾対象特定エリア及び追尾対象が通過しないマスクエリアと、高感度モードにおいて、追尾対象の検出エリア誤りを防止するための誤検出防止エリアとを表すエリア情報を予め記憶する。 Further, the storage means detects a tracking target identification area for identifying a moving object as a tracking target in the sensor image in the low-sensitivity mode, a mask area through which the tracking target does not pass, and a detection area error of the tracking target in the high-sensitivity mode. Area information indicating an erroneous detection prevention area for prevention is stored in advance.
また、動体検出手段は、予め設定されたフレーム数以上にわたり位置が変化する差分領域を抽出し、エリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、検出した動体の位置及び所属エリアを表す動体検出情報を生成する。そして、追尾手段は、動体検出情報に基づいて動体毎にスコアを算出し、算出したスコアに基づいて追尾対象を決定する。 Further, the moving body detecting means extracts a difference region whose position changes over a preset number of frames or more, refers to the area information, detects the moving body based on the position and detection sensitivity of the extracted difference region, and detects the moving body. Generates motion detection information that represents the position and affiliation area. Then, the tracking means calculates a score for each moving object based on the moving object detection information, and determines the tracking target based on the calculated score.
このように、動体追尾装置は、センサ映像を用いるので、ADS−B信号を発しない航空機などの様々な追尾対象を追尾できる。さらに、動体追尾装置は、テンプレートマッチングを使用せず、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、夜間においても正確に追尾できる。 In this way, since the moving object tracking device uses the sensor image, it is possible to track various tracking targets such as an aircraft that does not emit an ADS-B signal. Further, since the moving object tracking device does not use template matching, it detects the moving object by the difference between frames and determines the tracking target by the area information, so that it can be accurately tracked even at night.
本発明によれば、以下のような効果を奏する。
本発明にかかる動体追尾装置は、センサ映像を用いると共に、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、昼夜を問わずに様々な動体を追尾することができる。
According to the present invention, the following effects are obtained.
Since the moving object tracking device according to the present invention uses the sensor image, detects the moving object based on the difference between frames, and determines the tracking target based on the area information, it can track various moving objects day and night.
[航空機追尾撮影システムの概略]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、本発明の実施形態にかかる航空機追尾撮影システム1の概略について説明する。
[Outline of aircraft tracking shooting system]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
An outline of the aircraft
航空機追尾撮影システム1は、空港を離発着する航空機(追尾対象)をロボットカメラ40で追尾して撮影するものであり、図1に示すように、センサカメラ10(10R,10C,10L)と、動体検出装置20(20R,20C,20L)と、位置特定・雲台制御装置30と、ロボットカメラ40とを備える。ここで、動体検出装置20及び位置特定・雲台制御装置30が特許請求の範囲に記載の動体追尾装置に相当する。
The aircraft
センサカメラ10は、航空機を撮影してセンサ映像を生成するものであり、例えば、撮影方向及び撮影画角が一定の固定カメラである。そして、センサカメラ10は、生成したセンサ映像を動体検出装置20に出力する。
The
ここで、センサカメラ10は、1台以上、必要に応じた台数を設置できる。本実施形態では、センサカメラ10は、図2に示すように、滑走路全体を撮影できるように、空港中央の建物屋上に3台設置している。このとき、各センサカメラ10は、互いの撮影範囲が重複する。図2では、センサカメラ10Rが滑走路右側を向き、センサカメラ10Cが滑走路中央を向き、センサカメラ10Lが滑走路左側を向いている。そして、センサカメラ10R,10C,10Lは、図3に示すように、それぞれの撮影方向で滑走路を撮影したセンサ映像90R,90C,90Lを生成する。センサ映像90R,90C,90Lの端が互いに重なる。
なお、図2では、センサカメラ10R,10C,10Lの撮影画角が重複しないように破線で図示したが、実際には重複している。
Here, one or
In FIG. 2, the shooting angles of view of the
図1に戻り、航空機追尾撮影システム1の説明を続ける。
動体検出装置20は、センサカメラ10からのセンサ映像を画像解析し、動体を検出し、その検出結果(動体検出情報)を位置特定・雲台制御装置30に出力する。本実施形態では、動体検出装置20は、追尾対象となる航空機の他、自動車、人物、鳥などの動体についても検出し、その動体についての動体検出情報を出力する。
Returning to FIG. 1, the description of the aircraft
The moving
本実施形態では、動体検出装置20は、センサカメラ10と1対1で対応するように、空港から離れた放送局に3台設置している。そして、動体検出装置20Rがセンサカメラ10Rのセンサ映像90Rを画像解析し、動体検出装置20Cがセンサカメラ10Cのセンサ映像90Cを画像解析し、動体検出装置20Lがセンサカメラ10Lのセンサ映像90Lを画像解析する。
In the present embodiment, three
位置特定・雲台制御装置30は、動体検出情報から算出される動体の軌跡に基づいて、動体検出装置20が検出した動体の中から、追尾対象となる航空機を特定するものである。そして、位置特定・雲台制御装置30は、特定した航空機を撮影するようにロボットカメラ40を制御する。本実施形態では、位置特定・雲台制御装置30は、動体検出装置20と同じ放送局に1台設置している。
なお、追尾対象とは、航空機追尾撮影システム1で追尾する対象となる1つの動体のことである。本実施形態では、空港にいる航空機のうち、離発着中の航空機が追尾対象であることとする。
The position identification / pan
The tracking target is one moving object to be tracked by the aircraft
ロボットカメラ40は、位置特定・雲台制御装置30からの制御信号に従って駆動し、航空機を撮影するものである。このロボットカメラ40は、パン、チルト、ズームが可能な一般的なロボットカメラであり、航空機の撮影映像91を生成するカメラ本体41と、カメラ本体41を搭載する雲台43とを備える。
本実施形態では、ロボットカメラ40は、センサカメラ10と同様、空港中央の建物屋上に1台設置している。
The
In the present embodiment, one
なお、夜間では、航空機がセンサ映像に映りにくくなるため、昼間に比べて、以下の工夫を行っている。夜間の場合、航空機追尾撮影システム1は、センサ映像90に夜間用進入路エリアAN(図7)を設定し、この夜間用進入路エリアANから航空機のライトを検出する。
At night, it becomes difficult for the aircraft to appear in the sensor image, so the following measures are taken compared to daytime. For nighttime aircraft tracking
[動体検出装置の構成]
図4を参照し、動体検出装置20の構成について説明する。
動体検出装置20は、図4に示すように、昼夜判定手段21と、記憶手段22と、差分画像生成手段23と、差分領域検出手段24と、ライト検出手段25と、動体検出手段26とを備える。
なお、3台の動体検出装置20は、同一構成のため、1台のみ説明する。
[Configuration of motion detector]
The configuration of the moving
As shown in FIG. 4, the moving
Since the three
昼夜判定手段21は、時刻に基づいて夜間であるか否かを判定するものである。本実施形態では、昼夜判定手段21は、緯度情報及び経度情報をもとに日の出時刻及び日の入り時刻を算出し、昼間時間帯及び夜間時間帯を決定する。そして、昼夜判定手段21は、現在時刻が昼間時間帯又は夜間時間帯の何れに属するかにより、昼間又は夜間を判定する。その後、昼夜判定手段21は、昼間又は夜間の判定結果を差分領域検出手段24及び動体検出手段26に出力する。
The day / night determination means 21 determines whether or not it is nighttime based on the time. In the present embodiment, the day / night determination means 21 calculates the sunrise time and the sunset time based on the latitude information and the longitude information, and determines the daytime time zone and the nighttime time zone. Then, the day / night determination means 21 determines daytime or nighttime depending on whether the current time belongs to the daytime time zone or the nighttime time zone. After that, the day / night determination means 21 outputs the daytime or nighttime determination result to the difference area detecting means 24 and the moving
記憶手段22は、動体検出装置20の処理に必要な各種情報を予め記憶するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置である。例えば、航空機追尾撮影システム1の管理者が、図示を省略したマウス、キーボード等の操作手段を介して、エリア情報を記憶手段22に手動で設定する。さらに、航空機追尾撮影システム1の管理者は、予め算出した変換情報を記憶手段22に設定する。
The storage means 22 is a storage device such as a memory, an HDD (Hard Disk Drive), or an SSD (Solid State Drive) that stores various information necessary for processing of the
エリア情報は、航空機を特定するための航空機特定エリア(追尾対象特定エリア)、航空機が通過しないマスクエリア、航空機の検出エリア誤りを防止するための誤検出防止エリアなどの各エリアを、センサ映像90内に予め設定した情報である。 The area information includes each area such as an aircraft specific area for identifying an aircraft (tracking target specific area), a mask area where an aircraft does not pass, and an erroneous detection prevention area for preventing an aircraft detection area error. This is the information set in advance.
<エリア情報の設定>
図5を参照し、エリア情報の設定を具体的に説明する。
ここでは、センサカメラ10Rのセンサ映像90Rにエリア情報を設定することとして説明する。
<Area information setting>
The setting of the area information will be specifically described with reference to FIG.
Here, the area information is set in the
低感度モードでは、図5に示すように、エリア情報として、進入路エリアALと、滑走路エリアRと、マスクエリアMと、上空エリアSとをセンサ映像90R内に設定する。本実施形態では、進入路エリアAL及び滑走路エリアRが航空機特定エリアに対応する。後記する追尾対象決定手段35において、動体検出手段26が検出した動体のうち、この航空機特定エリアを一度でも通過した動体を航空機として特定する。 In the low-sensitivity mode, as shown in FIG. 5, the approach road area AL , the runway area R, the mask area M, and the sky area S are set in the sensor image 90 R as area information. In the present embodiment, the approach road area AL and the runway area R correspond to the aircraft specific area. In the tracking target determination means 35 described later, among the moving bodies detected by the moving body detecting means 26, the moving body that has passed through the aircraft specific area even once is specified as an aircraft.
進入路エリアALは、センサ映像90Rにおいて、離発着する航空機が進入する領域を表す。
滑走路エリアRは、センサ映像90Rに含まれる滑走路の領域を表す。
上空エリアSは、進入路エリアAL以外の空域を表す。
マスクエリアMは、例えば、展望デッキ、空港施設、鳥が多い箇所、草木、水溜りなど、誤検出が多かったり、航空機を追尾する必要がない領域を表す。
The approach road area A L represents the area in which the aircraft taking off and landing enters in the
The runway area R represents an area of the runway included in the sensor image 90 R.
Sky area S represents the airspace other than the approach path area A L.
The mask area M represents an area where there are many false positives or it is not necessary to track an aircraft, such as an observation deck, an airport facility, a place with many birds, vegetation, and a puddle.
高感度モードでは、図6に示すように、エリア情報として、進入路エリアAHと、誘導路エリアTとをセンサ映像90R内に設定する。
進入路エリアAHは、図5の進入路エリアALと同様、離発着する航空機が進入する領域を表す。高感度モードでは低感度モードに比べてノイズなどを誤検出する可能性が高いので、進入路エリアAH,ALは、異なる位置及び大きさでセンサ映像90R内に設定できる。
誘導路エリアTは、センサ映像90Rに含まれる誘導路の領域を表す。本実施形態では、誘導路エリアTが誤検出防止エリアに対応する。
In the high-sensitivity mode, as shown in FIG. 6, the approach road area A H and the guide road area T are set in the sensor image 90 R as area information.
The approach road area A H represents an area where aircraft taking off and landing enter, similar to the approach road area A L in FIG. Since noise and the like are more likely to be erroneously detected in the high-sensitivity mode than in the low-sensitivity mode, the approach road areas A H and A L can be set in the
The guide path area T represents an area of the guide path included in the sensor image 90 R. In the present embodiment, the guide path area T corresponds to the false detection prevention area.
さらに、図7に示すように、エリア情報として、夜間用進入路エリアANをセンサ映像90R内に設定する。
夜間用進入路エリアANは、進入路エリアAH,ALと同様、離発着する航空機が進入する領域を表す。夜間の場合、夜間用進入路エリアANは、航空機のライトを検出する領域となるので、航空機のライト以外を誤検出しないように設定することが好ましい。
Furthermore, as shown in FIG. 7, as the area information, to set the nighttime approach path area A N sensor image 90 in R.
Nighttime approach path area A N, the approach path area A H, similar to A L, represents an area where aircraft taking off and landing enters. For night, nighttime approach path area A N, since the area to detect the aircraft lights, it is preferable to set so as not to erroneously detect a non-aircraft lights.
センサ映像90Rと同様、センサ映像90Cにもエリア情報を設定する。
図8に示すように、低感度モードでは、エリア情報として、滑走路エリアRと、マスクエリアMと、上空エリアSとをセンサ映像90C内に設定する。また、図9に示すように、高感度モードでは、エリア情報として、誘導路エリアTをセンサ映像90R内に設定する。
なお、センサ映像90Cに進入路が映らないので、進入路エリアを設定していない。
また、センサ映像90Lは、センサ映像90Rと同様にエリア情報を設定できるので、説明を省略する。
Area information is set in the sensor image 90 C as well as the
As shown in FIG. 8, in the low-sensitivity mode, as the area information, runway and area R, and the mask area M, sets the sky area S in the
Since approach path is not displayed on the
Further, since the area information can be set for the
このように、エリア情報は、昼間及び夜間で別々に設定できる。このため、エリア情報では、例えば、昼間では鳥が多く飛ぶ場所や、夜間では航空機以外のライトが映る場所など、誤検出の可能性が高い場所を外すことができる。 In this way, the area information can be set separately for daytime and nighttime. Therefore, in the area information, it is possible to exclude places where there is a high possibility of false detection, such as places where many birds fly in the daytime and places where lights other than aircraft are reflected at night.
図4に戻り、図1の動体検出装置20について、説明を続ける。
変換情報は、センサカメラ10とロボットカメラ40との画角を変換するパラメータの情報である。この変換情報は、センサカメラ10で検出した航空機の速度やサイズをロボットカメラ40に映る航空機の速度やサイズに合わせるために必要な情報である。本実施形態では、変換情報は、各センサカメラ10の撮影画角に応じて、センサカメラ10毎に予め算出することとする。
Returning to FIG. 4, the
The conversion information is information on parameters for converting the angle of view between the
差分画像生成手段23は、センサカメラ10よりセンサ映像が入力され、入力されたセンサ映像から差分画像を生成するものである。つまり、差分画像生成手段23は、センサ映像で前後するフレーム間で画素毎に輝度差を求め、求めた画素毎の輝度差を表す差分画像を生成する。そして、差分画像生成手段23は、生成した差分画像を差分領域検出手段24に出力する。
The difference image generation means 23 receives a sensor image from the
差分領域検出手段24は、昼夜判定手段21からの判定結果が昼間の場合、低感度モード及び高感度モードのそれぞれで、差分画像から差分領域を検出するものである。つまり、差分領域検出手段24は、輝度差が閾値以上となる各画素について、近いもの同士をグループ化して差分領域を生成する。
When the determination result from the day / night determination means 21 is daytime, the difference
具体的には、差分領域検出手段24は、差分画像の各画素の画素値(輝度値)を閾値判定し、画素値が予め設定した閾値以上となる画素を差分画像から抽出する。このとき、高感度モードでは、差分領域の検出感度が低感度モードより高くなるように閾値を小さな値とする。そして、差分領域検出手段24は、抽出した画素同士の距離が一定以下となる画素領域を差分領域として検出する。 Specifically, the difference area detecting means 24 determines the pixel value (luminance value) of each pixel of the difference image as a threshold value, and extracts pixels having a pixel value equal to or higher than a preset threshold value from the difference image. At this time, in the high-sensitivity mode, the threshold value is set to a small value so that the detection sensitivity of the difference region is higher than that in the low-sensitivity mode. Then, the difference area detecting means 24 detects the pixel area where the distance between the extracted pixels is a certain value or less as the difference area.
また。差分領域検出手段24は、昼夜判定手段21からの判定結果が夜間の場合、低感度モードだけで差分画像から差分領域を検出する。夜間の場合でも、低感度モードの手順自体は昼間と同様のため、これ以上の説明を省略する。
Also. When the determination result from the day / night determination means 21 is nighttime, the difference
その後、差分領域検出手段24は、検出した差分領域の情報として、その差分領域の位置と、その差分領域の検出時間帯との情報を動体検出手段26に出力する。ここで、差分領域の位置は、差分領域の中心位置又は重心位置を表す。また、差分領域の検出時間帯は、昼間又は夜間の区分と、差分領域の検出元となるセンサ映像90の時刻情報(タイムコード)とを表す。
After that, the difference area detecting means 24 outputs the information of the position of the difference area and the detection time zone of the difference area to the moving
ライト検出手段25は、昼夜判定手段21からの判定結果が夜間の場合、センサ映像90から航空機のライトを検出するものである。本実施形態では、ライト検出手段25は、記憶手段22のエリア情報を参照し、センサ映像90内に設定した夜間用進入路エリアANにおいて、輝度値が予め設定された閾値以上になる画素領域を検出し、その画素領域の重心位置又は中心位置を航空機のライト位置として検出する。
The
その後、ライト検出手段25は、検出した航空機のライトの情報として、ライト位置及び検出時間帯を動体検出手段26に出力する。
なお、ライト検出手段25は、昼夜判定手段21からの判定結果が昼間の場合、処理を行わない。
After that, the
The
動体検出手段26は、差分領域検出手段24から入力された差分領域のうち、予め設定されたフレーム数以上にわたり位置が変化する差分領域を抽出するものである。つまり、動体検出手段26は、数フレームにわたって連続的に動いている動体領域を抽出する。これにより、動体検出手段26は、連続的に動いている動体領域と、それ以外のノイズ領域とを区分できる。
The moving body detecting means 26 extracts a difference region whose position changes over a preset number of frames or more from the difference region input from the difference
次に、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、後記する動体検出情報を生成するものである。以下、動体検出手段26について、昼夜判定手段21からの判定結果が昼間と夜間の場合にわけて説明する。
なお、以下の例では、航空機が動体であることとして説明するが、実際には、航空機以外の動体が検出される場合もある。
Next, the moving body detecting means 26 refers to the area information of the storage means 22, detects the moving body based on the position of the extracted difference region and the detection sensitivity, and generates the moving body detection information described later. Hereinafter, the moving
In the following example, it is described that the aircraft is a moving body, but in reality, a moving body other than the aircraft may be detected.
<動体の検出:昼間の場合>
昼間の場合、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の所属エリアに応じて動体を検出する。本実施形態では、動体検出手段26は、マスクエリアM以外の各エリア(進入路エリアAL、上空エリアS、滑走路エリアR、誘導路エリアT)から、動体を検出する。
<Detection of moving objects: in the daytime>
In the daytime, the moving
具体点には、動体検出手段26は、図10に示すように、低感度モードで進入路エリアALに含まれる動体Obj1を検出する。この進入路エリアALと同様、動体検出手段26は、低感度モードで上空エリアSに含まれる動体を検出する。一方、動体検出手段26は、図11に示すように、低感度モードでマスクエリアMに含まれる物体Obj2(例えば、トーイングカー)を検出しない。 Specifically point, moving object detection means 26, as shown in FIG. 10, for detecting a moving object Obj 1 included in the approach path area A L in the low-sensitivity mode. Similar to the approach path area A L, moving object detection means 26 detects a moving object included in the sky area S in the low-sensitivity mode. On the other hand, as shown in FIG. 11, the moving object detecting means 26 does not detect the object Obj 2 (for example, a towing car) included in the mask area M in the low sensitivity mode.
ここで、図12に示すように、センサカメラ10から見て、航空機Obj3の一部(例えば、機体と色や模様が異なる尾翼)が滑走路に重なることがある。この場合、フレーム間差分では、尾翼部分のみが検出されやすいため、実際には航空機が誘導路に位置するにも関わらず、航空機が滑走路に位置すると誤判定することがある。一方、図13に示すように、高感度モードが低感度モードより検出感度が高いので、低感度モードで尾翼部分のみの動きを検出しているときには、高感度モードであれば、航空機Obj1の全体の動きを検出し、航空機が誘導路に位置すると正しく判定できる可能性が高い。
なお、図12,図13では、航空機Obj3のうち、動体として検出された箇所を一点鎖線で図示した。
Here, as shown in FIG. 12, when viewed from the
Incidentally, 12 and 13, among the aircraft Obj 3, illustrating the position detected as the moving object by a chain line.
そこで、動体検出手段26は、低感度モード及び高感度モードという2つの検出モードを組み合わせることで、動体のエリア情報の誤検出を低減している。具体的には、動体検出手段26は、低感度モードで滑走路エリアRに含まれ、かつ、高感度モードで誘導路エリアTに含まれない動体を、滑走路エリアRの動体として検出する(不図示)。一方、動体検出手段26は、低感度モードで滑走路エリアRに含まれ(図12)、かつ、高感度モードで誘導路エリアTに含まれる動体Obj3を、誘導路エリアTの動体として検出する(図13)。
Therefore, the moving
<動体の検出:夜間の場合>
夜間の場合、動体検出手段26は、昼間と同様、低感度モードのみで動体を検出する。具体的には、動体検出手段26は、低感度モードにおいて、マスクエリアM以外の各エリア(進入路エリアAL、上空エリアS)に含まれる動体を検出する。一方、動体検出手段26は、低感度モードにおいて、マスクエリアMに含まれる動体を検出しない。
なお、夜間の場合、動体検出手段26は、低感度モード及び高感度モードを併用しないので、滑走路エリアR及び誘導路エリアTの動体を検出することがない。
<Detection of moving objects: at night>
At night, the moving
At night, the moving
その後、動体検出手段26は、決定した動体検出情報を生成し、生成した動体検出情報を位置特定・雲台制御装置30(情報集約手段31)に出力する。この動体検出情報は、センサ映像90に映る各動体の位置、所属エリア(進入路エリアや滑走路エリアなど)、サイズ、及び、そのセンサ映像90の時刻情報を表す。
After that, the moving
このとき、動体検出手段26は、差分領域に外接する矩形領域の高さ及び幅から、センサカメラ10上での動体の検出サイズを求める。そして、動体検出手段26は、記憶手段22の変換情報を参照し、センサカメラ10上での動体の検出サイズを、ロボットカメラ40上での動体のサイズに変換する。
At this time, the moving
<遠方航空機の検出:昼間の場合>
離陸での滑走開始時や着陸での滑走路進入時など、航空機が遠方に位置し、速度が遅い場合、差分領域の検出精度が低くなる。このとき、ロボットカメラ40で撮影を行うと、差分領域の誤検出により航空機が撮影画角から外れてしまう可能性が高い。そこで、追尾制御の代わりに、遠方の航空機が撮影画角から外れないように定位置制御を行う必要がある。
<Detection of distant aircraft: in the daytime>
If the aircraft is located far away and the speed is slow, such as when the aircraft starts to run at takeoff or when it enters the runway at landing, the detection accuracy of the difference region will be low. At this time, if the
昼間の場合、動体検出手段26は、センサ映像90に遠方の航空機が映っているか否かを判定する。つまり、動体検出手段26は、低感度モードで進入路エリアALに含まれず、かつ、高感度モードで進入路エリアAHに含まれる動体を遠方の航空機として決定する。
In the daytime, the moving
<遠方航空機の検出:夜間の場合>
夜間の場合、航空機の機体がセンサ映像90に映らず、航空機を検出できる可能性が低い。そこで、動体検出手段26は、低感度モードで動体が検出されない場合、ライト検出手段25で検出された夜間用進入路エリアAN内のライトを、遠方の航空機として検出する。これにより、航空機追尾撮影システム1では、夜間でも定位置制御が可能となる。
<Detection of distant aircraft: at night>
At night, the aircraft body is not reflected in the
その後、動体検出手段26は、遠方の航空機を検出したことを示す遠方動体検出情報を位置特定・雲台制御装置30(追尾対象決定手段35)に出力する。
After that, the moving
[位置特定・雲台制御装置の構成]
図4に戻り、位置特定・雲台制御装置30の構成について説明する。
位置特定・雲台制御装置30は、図4に示すように、情報集約手段31と、識別情報付加手段33と、追尾対象決定手段(追尾手段)35と、雲台制御手段(ロボットカメラ制御手段)37とを備える。
[Positioning / pan head control device configuration]
Returning to FIG. 4, the configuration of the position identification / pan
As shown in FIG. 4, the position identification / pan
情報集約手段31は、動体検出装置20(動体検出手段26)から動体検出情報を取得し、取得した動体検出情報を集約するものである。本実施形態では、情報集約手段31は、3台全ての動体検出装置20から動体検出情報を取得したか否かを判定する。そして、情報集約手段31は、3台分の動体検出情報を取得した場合、例えば、タイムコードにより同一時刻の動体検出情報を対応付けて、識別情報付加手段33に出力する。
The
識別情報付加手段33は、情報集約手段31からの動体検出情報に識別情報を付加するものである。本実施形態では、識別情報付加手段33は、過去から現在までの動体検出情報を参照し、その位置に基づいて前後するフレームで同一と思われる動体を判定し、同一の識別情報を付加する。具体的には、識別情報付加手段33は、鳥などの誤検出を抑制するため、数フレームにわたって一定の速度、方向で動体が動いている場合、同一の識別情報を動体検出情報に付加する。
The identification
また、識別情報付加手段33は、動体検出情報の所属エリアを参照し、その動体が航空機特定エリア(進入路エリア及び滑走路エリア)を過去に一度でも通過している場合、航空機として特定したことを示す特定情報を動体検出情報に付加する。さらに、識別情報付加手段33は、同一の識別情報が付与された動体検出情報について、その動体の位置変化量から動体の速度を算出し、算出した速度を動体検出情報に付加する。
その後、識別情報付加手段33は、動体検出情報を追尾対象決定手段35に出力する。
Further, the identification
After that, the identification information adding means 33 outputs the moving object detection information to the tracking
これにより、航空機が着陸時に滑走路を逸脱した場合や、航空機が着陸復行のために再上昇した場合でも、同一の識別情報が付加されているので追尾を継続できる。さらには、航空機が別のセンサカメラ10の撮影画角に移動した場合でも、同一の識別情報が付加されているので追尾を継続できる。
As a result, even if the aircraft deviates from the runway at the time of landing or the aircraft re-climbs due to a go-around, the same identification information is added and tracking can be continued. Furthermore, even if the aircraft moves to the shooting angle of view of another
追尾対象決定手段35は、識別情報付加手段33からの動体検出情報に基づいて航空機毎にスコアを算出し、算出したスコアに基づいて追尾対象の航空機を決定するものである。そして、追尾対象決定手段35は、追尾対象の情報として、その航空機の位置、速度、加速度及びサイズを雲台制御手段37に出力する。
The tracking
<スコアに基づいた航空機の決定>
以下、スコアに基づいた航空機の決定について、具体的に説明する。
本実施形態では、追尾対象決定手段35は、特定情報が付加されている動体検出情報について、スコアを算出する。つまり、追尾対象決定手段35は、特定情報が付加されていない動体検出情報から、スコアを算出しない。
<Determination of aircraft based on score>
Hereinafter, the determination of the aircraft based on the score will be specifically described.
In the present embodiment, the tracking
まず、追尾対象決定手段35は、航空機の速度に応じた速度スコアを加算する。つまり、追尾対象決定手段35は、動体検出情報の速度を参照し、その速度に応じた速度スコアを加算する。この速度スコアは、航空機の速度に応じて予め設定されている(例えば、0ポイント〜500ポイント)。
First, the tracking
また、追尾対象決定手段35は、航空機が上空で検出された場合、上空エリアスコア(第1のエリアスコア)を加算する。つまり、追尾対象決定手段35は、動体検出情報の所属エリアが上空エリアS(図5)の場合、上空エリアスコアを加算する。この上空エリアスコアは、速度スコアよりも高い値で予め設定されている(例えば、1000ポイント)。
Further, the tracking
また、追尾対象決定手段35は、航空機が進入路又は滑走路で検出された場合、特定エリアスコア(第2のエリアスコア)を加算する。つまり、追尾対象決定手段35は、動体検出情報の所属エリアが滑走路エリアR又は進入路エリアAL(図5)の場合、特定エリアスコアを加算する。この特定エリアスコアは、上空エリアスコアよりも高い値で予め設定されている(例えば、2000ポイント)。
Further, the tracking
そして、追尾対象決定手段35は、速度スコア及びエリアスコアの合計値が最も高くなる航空機を追尾対象として決定する。図14に示すように、滑走路上で航空機Obj4が滑走し、誘導路に航空機Obj5が位置する場合を考える。この場合、滑走中の航空機Obj4が航空機Obj5より速いので、航空機Obj4の速度スコアが航空機Obj5より高くなる。また、航空機Obj4が滑走路に位置し、航空機Obj5が誘導路に位置するので、航空機Obj4のエリアスコアも航空機Obj5より高くなる。その結果、追尾対象決定手段35は、図14のセンサ映像90Cにおいて、航空機Obj4を追尾対象として決定する。
Then, the tracking
なお、追尾対象決定手段35は、特定情報が付加されている動体検出情報が1つのみの場合(つまり、航空機が1機しか検出されていない場合)、スコアを算出せずに、その航空機を追尾対象として即座に決定してもよい。
In addition, when the tracking target determination means 35 has only one moving object detection information to which specific information is added (that is, when only one aircraft is detected), the tracking
<追尾対象決定手段35における他の処理>
ここで、追尾対象決定手段35は、スコアに基づいた航空機の決定の他、以下の処理を行ってもよい。
例えば、追尾対象決定手段35は、追尾対象となる航空機が存在せず、かつ、動体検出装置20(動体検出手段26)から遠方動体検出情報が入力された場合、定位置制御を行うと決定する。この場合、追尾対象決定手段35は、定位置制御指令を雲台制御手段37に出力する。この定位置制御とは、例えば、図6の進入路エリアAHを撮影映像に収めるように予め設定された撮影方向及び撮影画角で、ロボットカメラ40に撮影させることである。
<Other processing in the tracking target determination means 35>
Here, the tracking target determination means 35 may perform the following processing in addition to determining the aircraft based on the score.
For example, the tracking
また、追尾対象決定手段35は、航空機が建物や他の航空機の背後に隠れたときなど、航空機の検出が途絶えた場合、予め設定した再検出時間だけ、ベイズ推定に基づいて追尾速度から航空機の推定位置を求め、その推定位置で航空機が再検出されるのを待つ。そして、追尾対象決定手段35は、その推定位置で航空機が再検出されると、追尾を継続する。
Further, when the detection of the aircraft is interrupted, such as when the aircraft is hidden behind a building or another aircraft, the tracking target determination means 35 uses the tracking speed of the aircraft based on the Bayesian estimation for a preset re-detection time. Find the estimated position and wait for the aircraft to be rediscovered at that estimated position. Then, the tracking
また、追尾対象決定手段35は、再検出時間経過しても航空機が再検出されなかった場合、推定位置制御指令を雲台制御手段37に出力する。この推定位置制御とは、事故映像の撮影可能性を高くするため、現時点での航空機の推定位置を中心として、広い撮影画角でロボットカメラ40に撮影させることである。
Further, the tracking
また、追尾対象決定手段35は、推定位置制御指令を出力後、予め設定した待機時間経過しても航空機が再検出されなかった場合、待機位置制御指令を雲台制御手段37に出力する。この待機位置制御とは、例えば、進入路エリアなど事故発生率が高い箇所を撮影映像に収めるように予め設定された撮影方向及び撮影画角で、ロボットカメラ40に撮影させることである。
Further, the tracking
図4に戻り、位置特定・雲台制御装置30の説明を続ける。
雲台制御手段37は、追尾対象決定手段35からの追尾対象の位置に基づいて、ロボットカメラ40(雲台43)を制御するものである。本実施形態では、雲台制御手段37は、追尾対象となる航空機をロボットカメラ40が追尾して撮影できるように、一般的なフィードバック制御を行う。
Returning to FIG. 4, the description of the position identification / pan
The pan head control means 37 controls the robot camera 40 (head 43) based on the position of the tracking target from the tracking
ここで、雲台制御手段37は、追尾対象決定手段35から入力された航空機のサイズに応じて、ロボットカメラ40のズームを制御する。具体的には、雲台制御手段37は、航空機のサイズが大きくなる程にズームアウトし、航空機のサイズが小さくなる程にズームインする制御を行う。また、航空機の速度がロボットカメラ40の最大動作速度を超える場合、雲台制御手段37は、ズームアウトする制御を行ってもよい。
Here, the pan head control means 37 controls the zoom of the
また、雲台制御手段37は、追尾対象決定手段35から定位置制御指令が入力された場合、ロボットカメラ40の定位置制御を行う。また、雲台制御手段37は、追尾対象決定手段35から推定位置制御指令が入力された場合、ロボットカメラ40の推定位置制御を行う。また、雲台制御手段37は、追尾対象決定手段35から待機位置制御指令が入力された場合、ロボットカメラ40の待機位置制御を行う。
Further, the pan head control means 37 controls the fixed position of the
以上より、航空機追尾撮影システム1は、図15に示すように、センサ映像90に映っている離発着中の航空機を追尾し、ロボットカメラ40で撮影することができる。さらに、航空機追尾撮影システム1は、図16に示すように、同一の航空機がセンサ映像90C,90Rに映っている場合でも、追尾対象決定手段35により航空機を追尾することができる。
なお、図15,図16では、添え字tが時刻を表し、航空機として検出された領域を一点鎖線で図示した。
From the above, as shown in FIG. 15, the aircraft tracking and photographing
In addition, in FIGS. 15 and 16, the subscript t represents the time, and the region detected as an aircraft is shown by a dashed line.
[航空機追尾撮影システムの動作]
図17を参照し、航空機追尾撮影システム1の動作について説明する。
なお、図17では、図面を見やすくするため、センサカメラ10及び動体検出装置20を1台のみ図示した。また、各センサカメラ10及び各動体検出装置20の処理は同一のため、重複説明を省略する。
また、図17では、記憶手段22がエリア情報及び変換情報を記憶しており、昼夜判定手段21が昼間と判定したこととする。
[Operation of aircraft tracking shooting system]
The operation of the aircraft
In FIG. 17, only one
Further, in FIG. 17, it is assumed that the storage means 22 stores the area information and the conversion information, and the day / night determination means 21 determines that it is daytime.
センサカメラ10は、航空機を撮影したセンサ映像を生成し、生成したセンサ映像90を動体検出装置20に出力する(ステップS1)。
差分画像生成手段23は、センサ映像から差分画像を生成する。つまり、差分画像生成手段23は、センサ映像で前後するフレーム間で画素毎に輝度差を求め、求めた輝度差を表す差分画像を生成する(ステップS2)。
The
The difference image generation means 23 generates a difference image from the sensor image. That is, the difference image generation means 23 obtains the brightness difference for each pixel between the frames before and after the sensor image, and generates a difference image representing the obtained brightness difference (step S2).
差分領域検出手段24は、低感度モード及び高感度モードのそれぞれで、ステップS2で生成した差分画像から差分領域を検出する。つまり、差分領域検出手段24は、輝度差が閾値以上となる各画素について、近いもの同士をグループ化して差分領域を生成する(ステップS3)。
The difference
動体検出手段26は、ステップS3で生成した差分領域のうち、所定のフレーム数以上にわたり位置が変化する差分領域を抽出する。そして、動体検出手段26は、記憶手段22のエリア情報を参照し、抽出した差分領域の位置及び検出感度により動体を検出し、動体検出情報を生成する。例えば、動体検出手段26は、マスクエリアM以外の各エリアから動体を検出し、マスクエリアMから動体を検出しない(ステップS4)。
動体検出手段26は、ステップS4で生成した動体検出情報を情報集約手段31に出力する(ステップS5)。
The moving
The moving
情報集約手段31は、3台全ての動体検出装置20から動体検出情報を取得したか否かを判定し(ステップS6)、全ての動体検出情報を取得するまで処理を待つ(ステップS6でNo)。
The
全ての動体検出情報を取得した場合(ステップS6でYes)、識別情報付加手段33は、ステップS6で取得した動体検出情報に識別情報を付加する。ここでは、識別情報付加手段33は、過去から現在までの動体検出情報を参照し、動体の検出位置に基づいて前後するフレームで同一と思われる動体を判定し、その動体に対応する動体検出情報に同一の識別情報を付加する。さらに、識別情報付加手段33は、動体検出情報を参照すれば動体の軌跡が分かるので、その動体が航空機特定エリアを過去に一度でも通過している場合、航空機として特定したことを示す特定情報を動体検出情報に付加する。さらに、識別情報付加手段33は、同一の識別情報が付与された動体検出情報について、その動体の位置変化量から動体の速度を算出し、算出した速度を動体検出情報に付加する(ステップS7)。
When all the moving object detection information is acquired (Yes in step S6), the identification
追尾対象決定手段35は、動体検出情報の所属エリア及び速度に基づいて、航空機として特定された動体毎にスコアを算出する。具体的には、追尾対象決定手段35は、動体の速度に応じた速度スコアを加算する。さらに、追尾対象決定手段35は、動体の所属エリアに応じたエリアスコアを加減算する。そして、追尾対象決定手段35は、速度スコア及びエリアスコアの合計値が最も高くなる動体を追尾対象の航空機として決定する(ステップS8)。
The tracking
雲台制御手段37は、ステップS8で決定した航空機の位置に基づいて、ロボットカメラ40の制御信号を生成する。ここでは、雲台制御手段37は、追尾対象の航空機をロボットカメラ40が追尾して撮影できるように、一般的なフィードバック制御を行う(ステップS9)。
The pan head control means 37 generates a control signal for the
雲台制御手段37は、ステップS9で生成した制御信号をロボットカメラ40に出力する(ステップS10)。
ロボットカメラ40は、制御信号に基づいて航空機を追尾、撮影する(ステップS11)。
The pan head control means 37 outputs the control signal generated in step S9 to the robot camera 40 (step S10).
The
[作用・効果]
以上のように、本発明の実施形態にかかる航空機追尾撮影システム1は、フレーム間差分による動体検出と、エリア情報による追尾対象の決定を行うので、テンプレートマッチングのように夜間で急激に検出精度が低下せず、昼夜を問わずに航空機を正確に追尾することができる。
[Action / Effect]
As described above, the aircraft
さらに、航空機追尾撮影システム1は、動体の過去の軌跡に基づいて追尾対象を決定するため、予期しない進路に逸脱した動体も正確に追尾することができる。
さらに、航空機追尾撮影システム1は、センサ映像90を用いるので、ADS-B信号を発しない航空機も追尾することができる。
Further, since the aircraft
Further, since the aircraft
以上、本発明の実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、センサカメラが3台であることとして説明したが、本発明は、これに限定されない。例えば、1台の超広角カメラをセンサカメラとして用いてもよく、2台以上のセンサカメラを用いてもよい。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within a range that does not deviate from the gist of the present invention.
In the above-described embodiment, it has been described that the number of sensor cameras is three, but the present invention is not limited thereto. For example, one ultra-wide-angle camera may be used as a sensor camera, or two or more sensor cameras may be used.
前記した実施形態では、センサカメラ毎に動体検出装置を備えることとして説明したが、本発明は、これに限定されない。例えば、1台の動体検出装置で各センサカメラのセンサ映像を画像解析してもよい。
また、前記した実施形態では、動体検出装置及び位置特定・雲台制御装置が別々の構成であることとして説明したが、本発明は、動体検出装置及び位置特定・雲台制御装置を一体化してもよい。
In the above-described embodiment, it has been described that each sensor camera is provided with a motion detection device, but the present invention is not limited thereto. For example, the sensor image of each sensor camera may be image-analyzed by one motion detection device.
Further, in the above-described embodiment, the motion detection device and the position identification / pan head control device have been described as having separate configurations, but the present invention integrates the motion detection device and the position identification / pan head control device. May be good.
前記した実施形態では、動体が航空機であることとして説明したが、本発明は、これに限定されない。すなわち、本発明では、動体が移動するものであれば特に限定されない。特に、動体は、一定の方向に移動するものであれば好ましく、例えば、船舶、鉄道、自動車などがある。さらに、本発明は、陸上競技の選手などを動体として撮影するスポーツ映像にも適用できる。 In the above-described embodiment, it has been described that the moving body is an aircraft, but the present invention is not limited thereto. That is, in the present invention, there is no particular limitation as long as the moving body moves. In particular, the moving body is preferably one that moves in a certain direction, and includes, for example, a ship, a railroad, an automobile, and the like. Further, the present invention can also be applied to a sports image in which an athletics athlete or the like is photographed as a moving object.
前記した実施形態では、ロボットカメラに航空機を追尾させることとして説明したが、本発明は、これに限定されない。例えば、本発明は、映像上で航空機を追跡(トラッキング)する手法に適用してもよい。 In the above-described embodiment, the robot camera is used to track the aircraft, but the present invention is not limited thereto. For example, the present invention may be applied to a method of tracking an aircraft on an image.
前記した実施形態では、具体的なスコア(ポイント数)を例示したが、本発明は、これに限定されない。例えば、各空港の環境に応じて、各エリアに応じたスコアを手動で設定すればよい。 In the above-described embodiment, a specific score (number of points) has been illustrated, but the present invention is not limited thereto. For example, the score for each area may be set manually according to the environment of each airport.
前記した実施形態では、動体追尾装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した動体追尾装置として協調動作させる動体追尾プログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the moving object tracking device has been described as independent hardware, but the present invention is not limited thereto. For example, the present invention can also be realized by a moving object tracking program in which hardware resources such as a CPU, a memory, and a hard disk included in a computer are cooperatively operated as the above-mentioned moving object tracking device. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.
1 航空機追尾撮影システム
10,10R,10C,10L センサカメラ
20,20R,20C,20L 動体検出装置
21 昼夜判定手段
22 記憶手段
23 差分画像生成手段
24 差分領域検出手段
25 動体検出手段
26 ライト検出手段
30 位置特定・雲台制御装置
31 情報集約手段
33 識別情報付加手段
35 追尾対象決定手段(追尾手段)
37 雲台制御手段(ロボットカメラ制御手段)
40 ロボットカメラ
1 Aircraft
37 Head control means (robot camera control means)
40 robot camera
Claims (8)
前記センサ映像から差分画像を生成する差分画像生成手段と、
低感度モード及び前記低感度モードより検出感度が高い高感度モードのそれぞれで、前記差分画像から差分領域を検出する差分領域検出手段と、
前記低感度モードにおいて、前記センサ映像内で前記動体を前記追尾対象として特定するための追尾対象特定エリア及び前記追尾対象が通過しないマスクエリアと、前記高感度モードにおいて、前記追尾対象の検出エリア誤りを防止するための誤検出防止エリアとを表すエリア情報を予め記憶する記憶手段と、
予め設定されたフレーム数以上にわたり位置が変化する前記差分領域を抽出し、前記エリア情報を参照し、抽出した前記差分領域の位置及び前記検出感度により前記動体を検出し、検出した当該動体の位置及び所属エリアを表す動体検出情報を生成する動体検出手段と、
前記動体検出情報に基づいて前記動体毎にスコアを算出し、算出した前記スコアに基づいて前記追尾対象を決定する追尾手段と、
を備えることを特徴とする動体追尾装置。 It is a moving object tracking device that tracks the moving object to be tracked by using a sensor image of the moving object taken by a sensor camera.
A difference image generation means for generating a difference image from the sensor image, and
In each of the low-sensitivity mode and the high-sensitivity mode in which the detection sensitivity is higher than that of the low-sensitivity mode, the difference region detecting means for detecting the difference region from the difference image and the difference region detecting means.
In the low-sensitivity mode, a tracking target specific area for identifying the moving object as the tracking target in the sensor image, a mask area through which the tracking target does not pass, and an error in the detection area of the tracking target in the high-sensitivity mode. A storage means for storing area information in advance, which represents an erroneous detection prevention area for preventing
The difference region whose position changes over a preset number of frames is extracted, the area information is referred to, the moving body is detected by the extracted position of the difference region and the detection sensitivity, and the position of the detected moving body is detected. And the moving object detection means that generates the moving object detection information indicating the area to which it belongs,
A tracking means that calculates a score for each moving object based on the moving object detection information and determines the tracking target based on the calculated score.
A moving object tracking device characterized by being equipped with.
前記記憶手段は、前記追尾対象特定エリアとして前記センサ映像内の進入路エリア及び滑走路エリアを表し、前記誤検出防止エリアとして前記センサ映像内の誘導路エリアを表す前記エリア情報を記憶し、
前記動体検出情報に基づいて前記動体が同一であるか否かを判定し、同一の前記動体に同一の識別情報を付加し、前記動体が前記進入路エリア又は前記滑走路エリアを過去に通過した場合、当該動体を航空機として特定する識別情報付加手段、をさらに備え、
前記追尾手段は、前記識別情報付加手段が航空機として特定した動体のスコアを算出することを特徴とする請求項1に記載の動体追尾装置。 The tracking target is an aircraft,
The storage means stores the area information representing the approach road area and the runway area in the sensor image as the tracking target specific area, and the guide road area in the sensor image as the false detection prevention area.
It is determined whether or not the moving body is the same based on the moving body detection information, the same identification information is added to the same moving body, and the moving body has passed the approach road area or the runway area in the past. In the case, it is further provided with identification information addition means for identifying the moving object as an aircraft.
The moving object tracking device according to claim 1, wherein the tracking means calculates a score of a moving object identified as an aircraft by the identification information adding means.
前記動体検出手段は、
前記低感度モードで前記進入路エリア又は前記上空エリアに含まれる動体を検出し、
前記低感度モードで前記滑走路エリアに含まれ、かつ、前記高感度モードで前記誘導路エリアに含まれない動体を前記滑走路エリアの動体として検出し、
前記低感度モードで前記滑走路エリアに含まれ、かつ、前記高感度モードで前記誘導路エリアに含まれる動体を前記誘導路エリアの動体として検出し、
前記低感度モードで前記マスクエリアに含まれる動体を検出しないことを特徴とする請求項2に記載の動体追尾装置。 The storage means stores the area information in which the sky area in the sensor image is further set in the low sensitivity mode.
The moving object detecting means
In the low sensitivity mode, a moving object included in the approach road area or the sky area is detected.
A moving body included in the runway area in the low-sensitivity mode and not included in the guideway area in the high-sensitivity mode is detected as a moving body in the runway area.
A moving body included in the runway area in the low-sensitivity mode and included in the guidance path area in the high-sensitivity mode is detected as a moving body in the guidance path area.
The moving object tracking device according to claim 2, wherein the moving object included in the mask area is not detected in the low sensitivity mode.
前記追尾手段は、
前記動体に応じて予め設定された速度スコアを加算し、
前記動体の所属エリアが前記上空エリアの場合、前記速度スコアよりも高い第1のエリアスコアを加算し、
前記動体の所属エリアが前記進入路エリア又は前記滑走路エリアの場合、前記第1のエリアスコアよりも高い第2のエリアスコアを加算し、
前記速度スコア及びエリアスコアの合計値が最も高くなる動体を前記追尾対象として決定することを特徴とする請求項3に記載の動体追尾装置。 The identification information adding means calculates the velocity of the moving body based on the amount of change in the position of the moving body with respect to the moving body detection information to which the same identification information is given.
The tracking means
A preset speed score is added according to the moving object, and the speed score is added.
When the area to which the moving object belongs is the sky area, a first area score higher than the speed score is added.
When the area to which the moving object belongs is the approach road area or the runway area, a second area score higher than the first area score is added.
The moving object tracking device according to claim 3, wherein the moving object having the highest total value of the speed score and the area score is determined as the tracking target.
前記差分領域検出手段は、夜間と判定されたときに前記低感度モードのみで前記差分領域を検出し、
前記動体検出手段は、夜間と判定されたときに、前記低感度モードで前記進入路エリアに含まれる動体を検出し、前記低感度モードで前記マスクエリアに含まれる動体を検出しないことを特徴とする請求項2から請求項4の何れか一項に記載の動体追尾装置。 Further equipped with a day / night determination means for determining whether or not it is nighttime based on the time of day,
The difference region detecting means detects the difference region only in the low sensitivity mode when it is determined to be at night.
The moving object detecting means is characterized in that, when it is determined at night, the moving object included in the approach road area is detected in the low sensitivity mode, and the moving object included in the mask area is not detected in the low sensitivity mode. The moving object tracking device according to any one of claims 2 to 4.
夜間と判定されたとき、前記センサ映像内の前記夜間用進入路エリアにおいて、予め設定された輝度値以上の画素エリアを、前記航空機のライトとして検出するライト検出手段、をさらに備え、
前記動体検出手段は、
昼間と判定されたときに、前記低感度モードで前記進入路エリアに含まれず、かつ、前記高感度モードで前記進入路エリアに含まれる動体を遠方動体としてさらに検出し、
夜間と判定されたときに、前記低感度モードで前記動体が検出されない場合、前記ライト検出手段が検出した航空機のライトを前記遠方動体としてさらに検出し、
前記追尾手段は、前記追尾対象が存在せず、かつ、前記遠方動体を検出した場合、定位置制御を行うと決定し、
前記ロボットカメラ制御手段は、前記追尾手段が前記定位置制御を行うと決定した場合、予め設定された撮影方向及び撮影画角で撮影するように前記ロボットカメラを制御することを特徴とする請求項6に記載の動体追尾装置。 The storage means stores the area information in which the approach road area and the nighttime approach road area are further set in the high sensitivity mode.
Further provided with a light detecting means for detecting a pixel area having a brightness value equal to or higher than a preset brightness value as a light of the aircraft in the night approach road area in the sensor image when it is determined to be at night.
The moving object detecting means
When it is determined to be daytime, a moving object that is not included in the approach road area in the low sensitivity mode and is included in the approach road area in the high sensitivity mode is further detected as a distant moving body.
If the moving object is not detected in the low sensitivity mode when it is determined to be at night, the light of the aircraft detected by the light detecting means is further detected as the distant moving object.
The tracking means determines that the fixed position control is performed when the tracking target does not exist and the distant moving object is detected.
The robot camera control means is characterized in that, when the tracking means determines to perform the fixed position control, the robot camera controls the robot camera so as to shoot in a preset shooting direction and shooting angle of view. 6. The moving object tracking device according to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017193646A JP6934386B2 (en) | 2017-10-03 | 2017-10-03 | Moving object tracking device and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017193646A JP6934386B2 (en) | 2017-10-03 | 2017-10-03 | Moving object tracking device and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019068325A JP2019068325A (en) | 2019-04-25 |
JP6934386B2 true JP6934386B2 (en) | 2021-09-15 |
Family
ID=66340786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017193646A Active JP6934386B2 (en) | 2017-10-03 | 2017-10-03 | Moving object tracking device and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6934386B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200388171A1 (en) * | 2019-06-04 | 2020-12-10 | Sucxess LLC | System for recording images of landing and departing aircraft |
JP7447417B2 (en) | 2019-09-27 | 2024-03-12 | ソニーグループ株式会社 | Image processing device, image processing method, program |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0514898A (en) * | 1991-06-28 | 1993-01-22 | Toshiba Corp | Image monitor device |
JP4145558B2 (en) * | 2002-04-24 | 2008-09-03 | 株式会社東芝 | Airport control support system |
JP4723896B2 (en) * | 2005-04-20 | 2011-07-13 | 株式会社東芝 | Travel guidance support system and travel guidance support method |
JP4311457B2 (en) * | 2007-02-15 | 2009-08-12 | ソニー株式会社 | Motion detection device, motion detection method, imaging device, and monitoring system |
JP6131519B2 (en) * | 2012-01-31 | 2017-05-24 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and image processing program |
US8929603B1 (en) * | 2013-03-15 | 2015-01-06 | Puretech Systems, Inc. | Autonomous lock-on target tracking with geospatial-aware PTZ cameras |
SG11201606716VA (en) * | 2014-02-14 | 2016-09-29 | Nec Corp | Video analysis system |
JP6413530B2 (en) * | 2014-09-12 | 2018-10-31 | 沖電気工業株式会社 | Surveillance system, video analysis apparatus, video analysis method and program |
JP6593995B2 (en) * | 2015-01-26 | 2019-10-23 | 三菱電機株式会社 | Airport monitoring device |
-
2017
- 2017-10-03 JP JP2017193646A patent/JP6934386B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019068325A (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102581779B1 (en) | Apparatus and method for prevention of collision at crossroads | |
US11010622B2 (en) | Infrastructure-free NLoS obstacle detection for autonomous cars | |
US7889232B2 (en) | Method and system for surveillance of vessels | |
CN110675592B (en) | High-altitude parabolic early warning protection system based on target identification and control method | |
KR102177655B1 (en) | System for tracking an object in unmanned aerial vehicle based on mvs | |
US20160232410A1 (en) | Vehicle speed detection | |
US20130329052A1 (en) | Surveillance system and a method for detecting a foreign object, debris, or damage in an airfield | |
JP5904069B2 (en) | Image processing apparatus, object detection method, and object detection program | |
US20200143177A1 (en) | Systems and methods of detecting moving obstacles | |
Gulati et al. | Image processing in intelligent traffic management | |
CN114359714A (en) | Unmanned body obstacle avoidance method and device based on event camera and intelligent unmanned body | |
JP6934386B2 (en) | Moving object tracking device and its program | |
US8929603B1 (en) | Autonomous lock-on target tracking with geospatial-aware PTZ cameras | |
US11483484B2 (en) | Systems and methods for imaging of moving objects using multiple cameras | |
JP7035272B2 (en) | Shooting system | |
US20200125879A1 (en) | Apparatus and method for capturing flying objects | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
GB2605675A (en) | Event-based aerial detection vision system | |
US20160188968A1 (en) | Object detection apparatus, object detection method, and object detection system | |
KR102479959B1 (en) | Artificial intelligence based integrated alert method and object monitoring device | |
JP2006168421A (en) | Flying object monitoring device | |
GB2582988A (en) | Object classification | |
US20190068943A1 (en) | Environment Perception System for Autonomous Vehicle | |
JP2022061059A (en) | Moving object tracking apparatus and program thereof | |
JP7147464B2 (en) | Image selection device and image selection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20171018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210727 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |