JP6813244B2 - Airport surface monitoring device - Google Patents

Airport surface monitoring device Download PDF

Info

Publication number
JP6813244B2
JP6813244B2 JP2017088581A JP2017088581A JP6813244B2 JP 6813244 B2 JP6813244 B2 JP 6813244B2 JP 2017088581 A JP2017088581 A JP 2017088581A JP 2017088581 A JP2017088581 A JP 2017088581A JP 6813244 B2 JP6813244 B2 JP 6813244B2
Authority
JP
Japan
Prior art keywords
target object
airport surface
coordinates
measurement error
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017088581A
Other languages
Japanese (ja)
Other versions
JP2018185745A (en
Inventor
彰一 清水
彰一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017088581A priority Critical patent/JP6813244B2/en
Publication of JP2018185745A publication Critical patent/JP2018185745A/en
Application granted granted Critical
Publication of JP6813244B2 publication Critical patent/JP6813244B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、空港面の管制作業を支援する空港面監視装置に関するものである。 The present invention relates to an airport surface monitoring device that supports airport surface control work.

従来、空港面の管制作業を支援する空港面監視装置として、空港面探知レーダで探知した目標物体の位置と、カメラにより探知した目標物体の位置とを用いて、位置相関及び追尾を行い、目標物体の位置情報などを出力するものがあった(例えば、特許文献1参照)。この空港面監視装置は、空港面に設置したビデオカメラの画像データと画像処理による文字認識を用いて、空港面を移動する物体の識別を行い、空港面探知レーダで探知した目標物体の位置との相関を取って出力するようにしたものである。 Conventionally, as an airport surface monitoring device that supports airport surface control work, position correlation and tracking are performed using the position of the target object detected by the airport surface detection radar and the position of the target object detected by the camera to perform the target. Some output information such as the position of an object (see, for example, Patent Document 1). This airport surface monitoring device uses image data of a video camera installed on the airport surface and character recognition by image processing to identify objects moving on the airport surface, and determines the position of the target object detected by the airport surface detection radar. It is designed to output by taking the correlation of.

特開平11−160424号公報JP-A-11-160424

しかしながら、上記の従来技術において、空港面探知レーダでは、位置の情報と共に計測誤差が出力されているが、カメラから得られる画像を用いた目標物体の検出では位置情報が出力されるのみで計測誤差は出力されない。そのため、位置相関及び追尾を行う際に計測誤差を用いた処理を行うことはできず、従って、高い追尾精度を得ることが困難であった。 However, in the above-mentioned conventional technique, the airport surface detection radar outputs the measurement error together with the position information, but the detection of the target object using the image obtained from the camera only outputs the position information and the measurement error. Is not output. Therefore, it is not possible to perform processing using a measurement error when performing position correlation and tracking, and therefore it is difficult to obtain high tracking accuracy.

この発明は上記のような課題を解決するためになされたもので、目標物体の追尾を行う際の追尾精度の向上に寄与することのできる空港面監視装置を得ることを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to obtain an airport surface monitoring device that can contribute to improvement of tracking accuracy when tracking a target object.

この発明に係る空港面監視装置は、空港面上の画像を取得するカメラと、カメラで取得した画像から目標物体を検出し、目標物体の画像座標を出力する目標検出部と、目標物体が空港面に接地する画像上の接地位置座標を推定する接地位置推定部と、接地位置座標の推定結果と3次元座標における空港面の高度情報とを用いて、空港面上の目標物体の3次元座標における位置を推定する3次元位置計算部と、目標物体の画像座標と、画像座標に対する3次元座標の分解能を示す分解能データとを用いて、目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部と、目標物体の画像座標と、目標物体の3次元座標の位置と、計測誤差とを出力する結果出力部とを備えたものである。 The airport surface monitoring device according to the present invention includes a camera that acquires an image on the airport surface, a target detection unit that detects a target object from the image acquired by the camera and outputs image coordinates of the target object, and the target object is an airport. The 3D coordinates of the target object on the airport surface using the grounding position estimation unit that estimates the grounding position coordinates on the image that touches the surface, the estimation result of the grounding position coordinates, and the altitude information of the airport surface in the 3D coordinates. The measurement error at the position of the 3D coordinate of the target object is calculated by using the 3D position calculation unit that estimates the position in the above, the image coordinate of the target object, and the resolution data indicating the resolution of the 3D coordinate with respect to the image coordinate. It includes a measurement error estimation unit, an image coordinate of the target object, a position of the three-dimensional coordinate of the target object, and a result output unit that outputs the measurement error.

この発明の空港面監視装置は、空港面上の目標物体の3次元座標における位置を推定する3次元位置計算部と、目標物体の画像座標と分解能データとを用いて、目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部とを備えたので、目標物体の追尾を行う際の追尾精度の向上に寄与することのできる空港面監視装置を得ることができる。 The airport surface monitoring device of the present invention uses a three-dimensional position calculation unit that estimates the position of a target object on the airport surface in three-dimensional coordinates, image coordinates of the target object, and resolution data, and uses the three-dimensional coordinates of the target object. Since it is equipped with a measurement error estimation unit that calculates the measurement error at the position of, it is possible to obtain an airport surface monitoring device that can contribute to the improvement of tracking accuracy when tracking a target object.

この発明の実施の形態1による空港面監視装置を示す構成図である。It is a block diagram which shows the airport surface monitoring apparatus by Embodiment 1 of this invention. この発明の実施の形態1による空港面監視装置を適用する空港面とENU座標との関係を示す説明図である。It is explanatory drawing which shows the relationship between the airport surface to which the airport surface monitoring apparatus by Embodiment 1 of this invention is applied, and ENU coordinates. 図3A及び図3Bは、この発明の実施の形態1による空港面監視装置の分解能データ算出の説明図である。3A and 3B are explanatory views of resolution data calculation of the airport surface monitoring device according to the first embodiment of the present invention. この発明の実施の形態1による空港面監視装置の分解能データ算出を示すフローチャートである。It is a flowchart which shows the resolution data calculation of the airport surface monitoring apparatus by Embodiment 1 of this invention. この発明の実施の形態1による空港面監視装置のNフレームの目標物体検出を示す説明図である。It is explanatory drawing which shows the target object detection of the N frame of the airport surface monitoring apparatus by Embodiment 1 of this invention. この発明の実施の形態2による空港面監視装置を示す構成図である。It is a block diagram which shows the airport surface monitoring apparatus by Embodiment 2 of this invention. この発明の実施の形態3による空港面監視装置を示す構成図である。It is a block diagram which shows the airport surface monitoring apparatus by Embodiment 3 of this invention. この発明の実施の形態3による空港面監視装置のNフレームの目標物体接地位置の推定結果を示す説明図である。It is explanatory drawing which shows the estimation result of the target object grounding position of the N frame of the airport surface monitoring apparatus by Embodiment 3 of this invention. この発明の実施の形態4による空港面監視装置を示す構成図である。It is a block diagram which shows the airport surface monitoring apparatus according to Embodiment 4 of this invention. この発明の実施の形態4による空港面監視装置の計測誤差の推定動作を示す説明図である。It is explanatory drawing which shows the estimation operation of the measurement error of the airport surface monitoring apparatus by Embodiment 4 of this invention.

実施の形態1.
図1は、この発明の実施の形態1による空港面監視装置を示す構成図である。
図1に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3、3次元位置計算部4、計測誤差推定部5、結果出力部6、分解能算出部7を備える。カメラ1は、空港内に一つまたは複数設けられ、滑走路や誘導路といった目標物体の移動路を撮影し、空港面上の画像を取得する装置である。目標検出部2は、カメラ1によって取得された画像から航空機や車両といった目標物体を検出し、この目標物体の画像座標を出力する処理部である。接地位置推定部3は、目標検出部2で得られた画像座標を元に、目標物体と空港面とが接地している画像座標を推定する処理部である。3次元位置計算部4は、接地位置推定部3から得られた目標物体と空港面とが接地している画像座標から3次元位置を示す3次元座標を計算する処理部である。計測誤差推定部5は、画像座標に対する3次元座標の分解能を示す分解能データ100と、目標検出部2で検出した目標物体の画像座標とを用いて、3次元位置計算部4から出力された目標物体の3次元座標の計測誤差を計算する処理部である。結果出力部6は、目標物体の画像座標と、目標物体の3次元座標と、位置計測誤差とを空港面監視装置の監視結果として出力する処理部である。分解能算出部7は、3次元座標のキャリブレーション結果に基づいて分解能データ100を算出する処理部である。
Embodiment 1.
FIG. 1 is a configuration diagram showing an airport surface monitoring device according to the first embodiment of the present invention.
The airport surface monitoring device shown in FIG. 1 includes a camera 1, a target detection unit 2, a ground contact position estimation unit 3, a three-dimensional position calculation unit 4, a measurement error estimation unit 5, a result output unit 6, and a resolution calculation unit 7. The camera 1 is a device provided in one or more airports, which captures a moving path of a target object such as a runway or a taxiway and acquires an image on the airport surface. The target detection unit 2 is a processing unit that detects a target object such as an aircraft or a vehicle from the image acquired by the camera 1 and outputs the image coordinates of the target object. The ground contact position estimation unit 3 is a processing unit that estimates the image coordinates at which the target object and the airport surface are in contact with each other based on the image coordinates obtained by the target detection unit 2. The three-dimensional position calculation unit 4 is a processing unit that calculates three-dimensional coordinates indicating the three-dimensional position from the image coordinates obtained from the ground contact position estimation unit 3 where the target object and the airport surface are in contact with each other. The measurement error estimation unit 5 uses the resolution data 100 indicating the resolution of the three-dimensional coordinates with respect to the image coordinates and the image coordinates of the target object detected by the target detection unit 2, and the target output from the three-dimensional position calculation unit 4. This is a processing unit that calculates the measurement error of the three-dimensional coordinates of an object. The result output unit 6 is a processing unit that outputs the image coordinates of the target object, the three-dimensional coordinates of the target object, and the position measurement error as the monitoring result of the airport surface monitoring device. The resolution calculation unit 7 is a processing unit that calculates the resolution data 100 based on the calibration result of the three-dimensional coordinates.

次に、実施の形態1の空港面監視装置の動作について説明する。
カメラ1によって撮影された画像は目標検出部2に転送される。目標検出部2では、時系列に与えられる画像から目標となる航空機や車両といった目標物体を検出する。検出には、背景差分を用いた手法や予め航空機から特徴量を抽出し、機械学習により得られた学習データを用いて検出する手法などを用いることができる。検出された目標物体は、矩形として表現され、接地位置推定部3と計測誤差推定部5に転送される。矩形は、左上の画像座標と幅と高さを用いてR=(u,v,w,h)で表現する。接地位置推定部3では、目標検出部2で検出された目標物体に対して、空港面と接地している位置を推定する。実施の形態1では、検出矩形の中央下端(u+w/2,v+h)を接地位置Lとする。この接地位置Lを3次元位置計算部4に転送する。
Next, the operation of the airport surface monitoring device of the first embodiment will be described.
The image captured by the camera 1 is transferred to the target detection unit 2. The target detection unit 2 detects a target object such as a target aircraft or vehicle from images given in time series. For detection, a method using background subtraction, a method of extracting features from an aircraft in advance, and a method of detecting using learning data obtained by machine learning can be used. The detected target object is represented as a rectangle and transferred to the ground contact position estimation unit 3 and the measurement error estimation unit 5. The rectangle is represented by R = (u, v, w, h) using the upper left image coordinates, width and height. The ground contact position estimation unit 3 estimates the position of contact with the airport surface with respect to the target object detected by the target detection unit 2. In the first embodiment, the lower center (u + w / 2, v + h) of the detection rectangle is set as the ground contact position L. This grounding position L is transferred to the three-dimensional position calculation unit 4.

3次元位置計算部4では、接地位置推定部3で推定した接地位置Lを用いて、ENU(East,North,Up)座標を推定する。ENU座標系は図2に示すように、空港の管制塔201の位置など任意の箇所に原点を設定し、東向きをX軸方向、北向きをY軸方向、空方向をZ軸方向として定義する(図中、ENU座標系202参照)。ENU座標は、カメラの内部パラメータ、カメラの回転行列、平行移動ベクトルを用いて変換される。
3次元位置計算部4では、まず画像座標からカメラ座標への変換を行う。

Figure 0006813244

Figure 0006813244

Figure 0006813244
The three-dimensional position calculation unit 4 estimates the ENU (East, North, Up) coordinates using the ground contact position L estimated by the ground contact position estimation unit 3. As shown in FIG. 2, the ENU coordinate system sets the origin at an arbitrary location such as the position of the control tower 201 of the airport, and defines the eastward direction as the X-axis direction, the northward direction as the Y-axis direction, and the sky direction as the Z-axis direction. (See ENU coordinate system 202 in the figure). The ENU coordinates are transformed using the camera's internal parameters, the camera's rotation matrix, and the translation vector.
The three-dimensional position calculation unit 4 first converts the image coordinates to the camera coordinates.
Figure 0006813244

Figure 0006813244

Figure 0006813244

Figure 0006813244

Figure 0006813244
例えば、Z=0のときのX、Yは、定数kを以下の式(4)(5)で求めることで、算出できる。
Figure 0006813244

Figure 0006813244
以上により、ENU座標(X,Y,Z)を算出できる。
Figure 0006813244

Figure 0006813244
For example, X and Y when Z = 0 can be calculated by obtaining the constant k by the following equations (4) and (5).
Figure 0006813244

Figure 0006813244
From the above, the ENU coordinates (X, Y, Z) can be calculated.

分解能算出部7では、図3に示すように、ピクセルが持つENU座標における分解能を分解能データ100として算出する。図3Aは、カメラ301と、画像座標系302と、ENU座標系303を示している。また、図3Bは画像座標系302における破線枠内の拡大図である。ピクセルの分解能は、画像座標系302において、注目ピクセル304がuまたはv方向に1ピクセルずれた際の、ENU座標系303のずれる前の位置とずれた後の位置のユークリッド距離を算出することで得られる。1ピクセルのずれの方向は、ENU座標系303におけるX方向とY方向の軸に沿って計算するため、ENU座標系303における軸方向の移動を画像座標系302に反映してから算出する。図4に処理の流れを示す。ここで、図3中のST1〜ST9で示す点は、図4のステップST1〜ステップST9の処理に対応した位置を示している。 As shown in FIG. 3, the resolution calculation unit 7 calculates the resolution in the ENU coordinates of the pixels as the resolution data 100. FIG. 3A shows the camera 301, the image coordinate system 302, and the ENU coordinate system 303. Further, FIG. 3B is an enlarged view within the broken line frame in the image coordinate system 302. The pixel resolution is obtained by calculating the Euclidean distance between the position before the shift and the position after the shift of the ENU coordinate system 303 when the pixel of interest 304 is shifted by 1 pixel in the u or v direction in the image coordinate system 302. can get. Since the direction of the deviation of 1 pixel is calculated along the axes of the X direction and the Y direction in the ENU coordinate system 303, it is calculated after reflecting the axial movement in the ENU coordinate system 303 in the image coordinate system 302. FIG. 4 shows the processing flow. Here, the points shown by ST1 to ST9 in FIG. 3 indicate the positions corresponding to the processes of steps ST1 to ST9 in FIG.

分解能算出部7は、先ず、注目ピクセル304の画像座標(u,v)を選択する(ステップST1)。次に、分解能算出部7は、画像座標(u,v)に対応したENU座標(X,Y,Z)を算出する(ステップST2)。なお、この処理は3次元位置計算部4が行ってもよい。次いで、分解能算出部7は、式(6)に示すように、注目ピクセル304の画像座標(u,v)のENU座標系303において、Y軸方向にα移動した点を算出する(ステップST3)。

Figure 0006813244
さらに、分解能算出部7は、式(7)に示すように、このENU座標系303の位置を画像座標系302の位置に変換する(ステップST4)。
Figure 0006813244
The resolution calculation unit 7 first selects the image coordinates (u, v) of the pixel of interest 304 (step ST1). Next, the resolution calculation unit 7 calculates the ENU coordinates (X, Y, Z) corresponding to the image coordinates (u, v) (step ST2). Note that this process may be performed by the three-dimensional position calculation unit 4. Next, the resolution calculation unit 7 calculates a point that is α-moved in the Y-axis direction in the ENU coordinate system 303 of the image coordinates (u, v) of the pixel of interest 304 as shown in the equation (6) (step ST3). ..
Figure 0006813244
Further, the resolution calculation unit 7 converts the position of the ENU coordinate system 303 to the position of the image coordinate system 302 as shown in the equation (7) (step ST4).
Figure 0006813244

図3Bに示すように、画像座標系302におけるENU座標系303のY軸方向の移動方向は、

Figure 0006813244
として表され(ステップST5)、Y軸方向への1ピクセル当たりの変化は、
Figure 0006813244

Figure 0006813244

Figure 0006813244
次に、分解能算出部7は、画像座標系302の位置(u,v)と位置(u→y,v→y)とを、それぞれENU座標系303の位置(X’,Y’,Z’)に変換し(ステップST8)、式(11)に示すように、そのユークリッド距離を求める(ステップST9)ことでY軸のプラス方向へのピクセルの分解能を算出する。
Figure 0006813244
As shown in FIG. 3B, the moving direction of the ENU coordinate system 303 in the image coordinate system 302 in the Y-axis direction is
Figure 0006813244
(Step ST5), the change per pixel in the Y-axis direction is
Figure 0006813244

Figure 0006813244

Figure 0006813244
Next, the resolution calculation unit 7 sets the position (u, v) and the position (u → y , v → y ) of the image coordinate system 302 to the position (X', Y', Z'of the ENU coordinate system 303, respectively. ) (Step ST8), and as shown in the equation (11), the Euclidean distance is obtained (step ST9) to calculate the pixel resolution in the positive direction of the Y axis.
Figure 0006813244

分解能算出部7は、ステップST9においてユークリッド距離を求めた後、次の画像座標(u,v)を選択し(ステップST10)、ステップST2に戻る。分解能算出部7は、ステップST2からの処理を繰り返してY軸方向の分解能を算出する。
さらに、分解能算出部7は、式(6)においてY−αとした際のユークリッド距離を求めることによりY軸のマイナス方向へのピクセルの分解能を算出し、その平均を算出してY軸方向の分解能とする。
X軸方向に1ピクセル移動した座標も同様に算出できる。以上の計算により求めた分解能は、Q(u,v,offset=(X,Y))として表現し、画像座標(u,v)において、(XまたはY)軸方向のピクセルずれがあった際の値となる。この値をキャリブレーション結果における分解能データ100として保存する。

Figure 0006813244
After obtaining the Euclidean distance in step ST9, the resolution calculation unit 7 selects the next image coordinates (u, v) (step ST10) and returns to step ST2. The resolution calculation unit 7 repeats the process from step ST2 to calculate the resolution in the Y-axis direction.
Further, the resolution calculation unit 7 calculates the resolution of the pixels in the negative direction of the Y-axis by obtaining the Euclidean distance when Y−α is set in the equation (6), and calculates the average thereof in the Y-axis direction. Let it be the resolution.
The coordinates moved by 1 pixel in the X-axis direction can be calculated in the same manner. The resolution obtained by the above calculation is expressed as Q (u, v, offset = (X, Y)), and when there is a pixel shift in the (X or Y) axis direction in the image coordinates (u, v). Is the value of. This value is saved as the resolution data 100 in the calibration result.
Figure 0006813244

計測誤差推定部5では、分解能データ100と、目標検出部2からの時系列の検出矩形の情報を用いて、推定したENU座標の誤差を推定する。図5は、目標検出部2からの時系列の検出矩形を示す説明図である。まず、図示のように、Nフレームの目標物体の検出矩形Ri(i=0,…N−1)とし、幅、高さの標準偏差(S,S)を算出する。なお、図5において、検出矩形51は、時刻t−3の検出枠、検出矩形52は、時刻t−2の検出枠、検出矩形53は時刻t−1の検出枠、検出矩形54は時刻tの検出枠を示し、集合55は4フレームの検出枠の集合を示している。

Figure 0006813244

Figure 0006813244
次に、計測誤差推定部5は、X軸方向とY軸方向の計測誤差を算出する。現フレームの接地位置Lにおける分解能Qを抽出し、X、Y軸方向へのベクトルと式(12)、(13)で算出した標準偏差を掛け合わせることにより計測誤差S、Sとする。
Figure 0006813244

Figure 0006813244
計測誤差推定部5は、結果出力部6に、検出矩形の情報とENU座標と計測誤差S、Sを転送する。結果出力部6では、目標物体の画像座標とENU座標と計測誤差S、SYとを空港面監視装置の監視結果として出力する。 The measurement error estimation unit 5 estimates the estimated error of the ENU coordinates by using the resolution data 100 and the information of the time-series detection rectangle from the target detection unit 2. FIG. 5 is an explanatory diagram showing a time-series detection rectangle from the target detection unit 2. First, as shown in the figure, the detection rectangle Ri (i = 0, ... N-1) of the target object in the N frame is used, and the standard deviations (S w , Sh ) of the width and height are calculated. In FIG. 5, the detection rectangle 51 is the detection frame at time t-3, the detection rectangle 52 is the detection frame at time t-2, the detection rectangle 53 is the detection frame at time t-1, and the detection rectangle 54 is the time t. The detection frame of is shown, and the set 55 shows a set of detection frames of 4 frames.
Figure 0006813244

Figure 0006813244
Next, the measurement error estimation unit 5 calculates the measurement error in the X-axis direction and the Y-axis direction. Extract the resolution Q at the ground position L of the current frame, X, vector and expression of the Y-axis direction (12), the measurement error S X, S Y by multiplying the standard deviation calculated in (13).
Figure 0006813244

Figure 0006813244
Measurement error estimating unit 5, the result output unit 6, and transfers the detection rectangle information and ENU coordinate measurement error S X, the S Y. The result output unit 6, and outputs the image coordinates and the ENU coordinate of the target object measurement errors S X, and S Y as a monitoring result of the airport surface monitoring device.

以上説明したように、実施の形態1の空港面監視装置によれば、空港面上の画像を取得するカメラと、カメラで取得した画像から目標物体を検出し、目標物体の画像座標を出力する目標検出部と、目標物体が空港面に接地する画像上の接地位置座標を推定する接地位置推定部と、接地位置座標の推定結果と3次元座標における空港面の高度情報とを用いて、空港面上の目標物体の3次元座標における位置を推定する3次元位置計算部と、目標物体の画像座標と、画像座標に対する3次元座標の分解能を示す分解能データとを用いて、目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部と、目標物体の画像座標と、目標物体の3次元座標の位置と、計測誤差とを出力する結果出力部とを備えたので、目標物体の追尾を行う際の追尾精度の向上に寄与することのできる空港面監視装置を得ることができる。 As described above, according to the airport surface monitoring device of the first embodiment, the camera that acquires the image on the airport surface, the target object is detected from the image acquired by the camera, and the image coordinates of the target object are output. Using the target detection unit, the grounding position estimation unit that estimates the grounding position coordinates on the image where the target object touches the airport surface, the estimation result of the grounding position coordinates, and the altitude information of the airport surface in three-dimensional coordinates, the airport Three-dimensional of the target object using the three-dimensional position calculation unit that estimates the position of the target object on the surface in three-dimensional coordinates, the image coordinates of the target object, and the resolution data indicating the resolution of the three-dimensional coordinates with respect to the image coordinates. Since it is equipped with a measurement error estimation unit that calculates the measurement error at the coordinate position, an image coordinate of the target object, a position of the three-dimensional coordinate of the target object, and a result output unit that outputs the measurement error, the target object It is possible to obtain an airport surface monitoring device that can contribute to the improvement of tracking accuracy when performing tracking.

また、実施の形態1の空港面監視装置によれば、3次元位置計算部は、空港面の高度情報を一定値として、空港面上の目標物体の3次元座標における位置を推定するようにしたので、演算処理の高速化を図ることができる。 Further, according to the airport surface monitoring device of the first embodiment, the three-dimensional position calculation unit estimates the position of the target object on the airport surface in the three-dimensional coordinates with the altitude information of the airport surface as a constant value. Therefore, it is possible to speed up the arithmetic processing.

実施の形態2.
実施の形態2は、空港面の高度情報を用いて分解能を算出するようにしたものである。すなわち、実施の形態1では、分解能算出部7が空港面の高度を一定値として3次元座標の分解能を算出していたが、実施の形態2では、空港面の実際の高度情報を用いて分解能を算出する。
Embodiment 2.
In the second embodiment, the resolution is calculated using the altitude information of the airport surface. That is, in the first embodiment, the resolution calculation unit 7 calculates the resolution of the three-dimensional coordinates with the altitude of the airport surface as a constant value, but in the second embodiment, the resolution is calculated using the actual altitude information of the airport surface. Is calculated.

図6は、実施の形態2の空港面監視装置を示す構成図である。
図6に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3、3次元位置計算部4、計測誤差推定部5、結果出力部6、分解能算出部7aを備える。ここで、実施の形態1の空港面監視装置と異なるのは、3次元位置計算部4が、空港面の高度を示す高度情報データ101を用いて3次元座標を算出するよう構成されている点と、分解能算出部7aが、高度情報データ101を用いて分解能データ100aを算出する点である。ここで高度情報データ101とは、空港面上における各位置の高度の情報すなわちZ方向の値を示すデータである。他の構成については図1に示した構成と同様であるため、対応する部分に同一符号を付してその説明を省略する。
FIG. 6 is a configuration diagram showing the airport surface monitoring device of the second embodiment.
The airport surface monitoring device shown in FIG. 6 includes a camera 1, a target detection unit 2, a ground contact position estimation unit 3, a three-dimensional position calculation unit 4, a measurement error estimation unit 5, a result output unit 6, and a resolution calculation unit 7a. Here, the difference from the airport surface monitoring device of the first embodiment is that the three-dimensional position calculation unit 4 is configured to calculate the three-dimensional coordinates using the altitude information data 101 indicating the altitude of the airport surface. The point is that the resolution calculation unit 7a calculates the resolution data 100a using the altitude information data 101. Here, the altitude information data 101 is data indicating altitude information of each position on the airport surface, that is, a value in the Z direction. Since the other configurations are the same as those shown in FIG. 1, the corresponding parts are designated by the same reference numerals and the description thereof will be omitted.

次に、実施の形態2の空港面監視装置の動作について説明する。なお、実施の形態1の動作と同様である点についてはその説明を省略し、実施の形態1とは異なる動作について説明する。
実施の形態2の3次元位置計算部4では、接地位置推定部3で推定した接地位置Lを用いてENU座標を推定するのは実施の形態1と同様であるが、ENU座標を推定するのに高度情報データ101を用いる。この高度情報データ101を用いることにより、実施の形態1における式(4)(5)が、以下の式(16)(17)となり、高度情報を加味したENU座標を推定することが可能となる。

Figure 0006813244

Figure 0006813244
Next, the operation of the airport surface monitoring device of the second embodiment will be described. The points that are the same as the operation of the first embodiment will be omitted, and the operation different from that of the first embodiment will be described.
In the three-dimensional position calculation unit 4 of the second embodiment, the ENU coordinates are estimated using the ground contact position L estimated by the ground contact position estimation unit 3, as in the first embodiment, but the ENU coordinates are estimated. Advanced information data 101 is used for. By using the altitude information data 101, the equations (4) and (5) in the first embodiment become the following equations (16) and (17), and the ENU coordinates including the altitude information can be estimated. ..
Figure 0006813244

Figure 0006813244

また、分解能算出部7aでは、高度情報データ101を用いて分解能データ100aを算出する。基本的な動作は、実施の形態1における図3及び図4を用いた動作と同様であるが、Z軸方向の分解能を含めて算出するのが異なる点である。 Further, the resolution calculation unit 7a calculates the resolution data 100a using the altitude information data 101. The basic operation is the same as the operation using FIGS. 3 and 4 in the first embodiment, except that the calculation including the resolution in the Z-axis direction is included.

以上説明したように、実施の形態2の空港面監視装置によれば、分解能データは、空港面上における各位置の高度を空港面の高度情報とし、この高度情報を用いて算出するようにしたので、分解能の算出精度が向上し、3次元座標の計測誤差の算出精度を向上させることができる。 As described above, according to the airport surface monitoring device of the second embodiment, the resolution data is calculated by using the altitude of each position on the airport surface as the altitude information of the airport surface and using this altitude information. Therefore, the calculation accuracy of the resolution is improved, and the calculation accuracy of the measurement error of the three-dimensional coordinates can be improved.

実施の形態3.
実施の形態3は、接地位置推定部が目標物体の特徴量と接地位置との学習結果を示す接地位置学習データを用いて接地位置座標を推定するようにしたものである。
図7は、実施の形態3の空港面監視装置を示す構成図である。
図7に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3a、3次元位置計算部4、計測誤差推定部5、結果出力部6、分解能算出部7aを備える。ここで、実施の形態2の空港面監視装置と異なるのは、接地位置推定部3aが、目標物体の特徴量と接地位置との学習結果を示す接地位置学習データ102を用いて接地位置座標を推定するよう構成されている点である。その他の構成については、図6に示した実施の形態2の構成と同様であるため、対応する部分に同一符号を付してその説明を省略する。
Embodiment 3.
In the third embodiment, the ground contact position estimation unit estimates the ground contact position coordinates using the ground contact position learning data indicating the learning result of the feature amount of the target object and the ground contact position.
FIG. 7 is a configuration diagram showing the airport surface monitoring device of the third embodiment.
The airport surface monitoring device shown in FIG. 7 includes a camera 1, a target detection unit 2, a ground contact position estimation unit 3a, a three-dimensional position calculation unit 4, a measurement error estimation unit 5, a result output unit 6, and a resolution calculation unit 7a. Here, the difference from the airport surface monitoring device of the second embodiment is that the ground contact position estimation unit 3a uses the ground contact position learning data 102 indicating the learning result of the feature amount of the target object and the ground contact position to obtain the ground contact position coordinates. It is a point that is configured to be estimated. Since the other configurations are the same as those of the second embodiment shown in FIG. 6, the corresponding parts are designated by the same reference numerals and the description thereof will be omitted.

接地位置学習データ102の生成方法としては、例えば、非特許文献Hough Forests(J.Gall,and V.Lempitsky,“Class−specific hough forests for object detection”,CVPR2009.)に示されているように、対象物を指定した矩形領域からさらに細かいNxNのパッチを抽出し、そのパッチと接地位置へのベクトルの関係を求めておく方法がある。そして、接地位置推定部3aでは、接地位置を推定する際に、目標検出部2で得られた矩形内からパッチを抽出し、Hough Forestsを用いることで、パッチごとに接地位置へのベクトルが算出できる。すべてのパッチの接地位置への投票で最大となる箇所を接地位置[p,q]とする。 As a method of generating the grounding position learning data 102, for example, it is shown in the non-patent document Hough Forests (J. Gall, and V. Lempitzky, “Class-special forests for objects”, CVPR2009.). There is a method of extracting a finer NxN patch from a rectangular area in which an object is specified and finding the relationship between the patch and the vector to the grounding position. Then, in the grounding position estimation unit 3a, when estimating the grounding position, a patch is extracted from the rectangle obtained by the target detection unit 2, and Houch Forests is used to calculate a vector to the grounding position for each patch. it can. Let the grounding position [p, q] T be the maximum point in voting for the grounding position of all patches.

計測誤差推定部5では、分解能データ100aと、目標検出部2からの時系列の検出矩形の情報を用いて、3次元位置計算部4で推定したENU座標の誤差を推定する。ここで、実施の形態1の計測誤差推定部5では検出枠の幅と高さの標準偏差を用いていたが、実施の形態3の計測誤差推定部5では、図8に示すように、接地位置(p,q)と検出枠の座標(u,v)を用いて、式(18)(19)に示すように、検出枠の左上座標を基準とした座標値の標準偏差(S,S)を算出する。なお、図8において、検出矩形51〜検出矩形54は図5と同様の検出枠を示し、推定接地位置81〜84は、それぞれ時刻t−3の推定接地位置、時刻t−2の推定接地位置、時刻t−1の推定接地位置、時刻tの推定接地位置を示している。また集合85は、4フレームの検出枠左上を基準とした接地位置の集合を示している。ここで、集合85に示される丸印からの矢印は、それぞれ推定接地位置81〜84におけるu座標方向へのベクトルとv座標方向へのベクトルを示している。

Figure 0006813244

Figure 0006813244
The measurement error estimation unit 5 estimates the error of the ENU coordinates estimated by the three-dimensional position calculation unit 4 by using the resolution data 100a and the information of the time-series detection rectangle from the target detection unit 2. Here, the measurement error estimation unit 5 of the first embodiment uses the standard deviation of the width and height of the detection frame, but the measurement error estimation unit 5 of the third embodiment is grounded as shown in FIG. position (p i, q i) and coordinates of the detection frame (u i, v i) using, as shown in equation (18) (19), the standard deviation of the coordinate value based on the upper left coordinates of the detection frame Calculate ( Sp , S q ). In FIG. 8, the detection rectangles 51 to 54 show the same detection frame as in FIG. 5, and the estimated grounding positions 81 to 84 are the estimated grounding position at time t-3 and the estimated grounding position at time t-2, respectively. , The estimated grounding position at time t-1 and the estimated grounding position at time t are shown. Further, the set 85 shows a set of grounding positions with reference to the upper left of the detection frame of 4 frames. Here, the arrows from the circles shown in the set 85 indicate the vector in the u-coordinate direction and the vector in the v-coordinate direction at the estimated grounding positions 81 to 84, respectively.
Figure 0006813244

Figure 0006813244

計測誤差推定部5では、次に、実施の形態1と同様に式(14)(15)を用いて、計測誤差を算出する。但し、式(14)(15)中のS,Sを上記のS,Sとして計測誤差S,Sを求める。それ以降の動作については実施の形態1,2と同様であるためここでの説明は省略する。 Next, the measurement error estimation unit 5 calculates the measurement error using the equations (14) and (15) as in the first embodiment. However, equation (14) S w in (15), the S h of the S p, S q as measurement errors S X, obtaining the S Y. Since the subsequent operations are the same as those in the first and second embodiments, the description thereof is omitted here.

なお、上記例では、接地位置推定部3aが接地位置学習データ102を用いて接地位置を推定する構成を実施の形態2に適用した例を説明したが、実施の形態1の構成に対して適用してもよい。 In the above example, the configuration in which the grounding position estimation unit 3a estimates the grounding position using the grounding position learning data 102 has been applied to the second embodiment, but it is applied to the configuration of the first embodiment. You may.

以上説明したように、実施の形態3の空港面監視装置によれば、接地位置推定部は、目標物体の特徴量と接地位置との学習結果を示す接地位置学習データを用いて接地位置座標を推定するようにしたので、3次元位置を算出する際に使用する接地位置の推定精度を向上させることができ、その結果、3次元位置と計測誤差の算出精度を向上させることができる。 As described above, according to the airport surface monitoring device of the third embodiment, the ground contact position estimation unit uses the ground contact position learning data indicating the learning result of the feature amount of the target object and the ground contact position to determine the ground contact position coordinates. Since the estimation is performed, the estimation accuracy of the ground contact position used when calculating the three-dimensional position can be improved, and as a result, the calculation accuracy of the three-dimensional position and the measurement error can be improved.

実施の形態4.
実施の形態4は、計測誤差推定部が3次元座標を用いて計測誤差を推定するようにしたものである。
図9は、実施の形態4の空港面監視装置を示す構成図である。
図9に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3、3次元位置計算部4、計測誤差推定部5a、結果出力部6、分解能算出部7を備える。ここで、実施の形態1の空港面監視装置と異なるのは、計測誤差推定部5aが、目標物体の時系列の3次元座標に近似する直線と、時系列の3次元座標との距離を計測誤差として出力するよう構成されている点である。その他の構成については、図1に示した実施の形態1の構成と同様であるため、対応する部分に同一符号を付してその説明を省略する。
Embodiment 4.
In the fourth embodiment, the measurement error estimation unit estimates the measurement error using the three-dimensional coordinates.
FIG. 9 is a configuration diagram showing the airport surface monitoring device of the fourth embodiment.
The airport surface monitoring device shown in FIG. 9 includes a camera 1, a target detection unit 2, a ground contact position estimation unit 3, a three-dimensional position calculation unit 4, a measurement error estimation unit 5a, a result output unit 6, and a resolution calculation unit 7. Here, the difference from the airport surface monitoring device of the first embodiment is that the measurement error estimation unit 5a measures the distance between the straight line that approximates the three-dimensional coordinates of the time series of the target object and the three-dimensional coordinates of the time series. This is a point that is configured to be output as an error. Since the other configurations are the same as those of the first embodiment shown in FIG. 1, the corresponding parts are designated by the same reference numerals and the description thereof will be omitted.

次に、実施の形態4の動作として、計測誤差推定部5aによる計測誤差の推定処理について説明する。
計測誤差は図10に示すように複数フレームのENU座標を用いて、直線を当てはめ、その直線からのずれを計測誤差として用いる。図10において、位置11〜14は、それぞれ時刻t−3のENU座標、時刻t−2のENU座標、時刻t−1のENU座標、時刻tのENU座標を示している。また、直線15は、これら位置11〜14に当てはめた直線を示している。
時系列の3次元座標をNフレームのENU座標(X,Y,Z)(i=0,…N−1)とすると、直線15は最小2乗法により求められる。ただし、空港面上を目標物体が走行していると仮定するため、Zは一定値であるとし、(X,Y)座標の2次元で直線を考える。直線の式は、

Figure 0006813244
であり、係数a,bは以下の式(21)(22)で得られる。

Figure 0006813244

Figure 0006813244
Next, as the operation of the fourth embodiment, the measurement error estimation process by the measurement error estimation unit 5a will be described.
As the measurement error, as shown in FIG. 10, a straight line is fitted using the ENU coordinates of a plurality of frames, and the deviation from the straight line is used as the measurement error. In FIG. 10, positions 11 to 14 indicate the ENU coordinates at time t-3, the ENU coordinates at time t-2, the ENU coordinates at time t-1, and the ENU coordinates at time t, respectively. Further, the straight line 15 indicates a straight line fitted to these positions 11 to 14.
Assuming that the three-dimensional coordinates of the time series are the ENU coordinates (X i , Y i , Z i ) (i = 0, ... N-1) of the N frame, the straight line 15 is obtained by the least squares method. However, since it is assumed that the target object is traveling on the airport surface, Z is assumed to be a constant value, and a straight line is considered in two dimensions of the (X, Y) coordinates. The straight line formula is
Figure 0006813244
The coefficients a and b are obtained by the following equations (21) and (22).

Figure 0006813244

Figure 0006813244

次に、計測誤差推定部5aは、この直線に対して各ENU座標の誤差を算出する。各誤差を(EX,EY)とすると、

Figure 0006813244
となる。従って、計測誤差は以下の式(24)(25)で求められる。
Figure 0006813244

Figure 0006813244
Next, the measurement error estimation unit 5a calculates the error of each ENU coordinate with respect to this straight line. If each error is (EX i , EY i ),
Figure 0006813244
Will be. Therefore, the measurement error is calculated by the following equations (24) and (25).
Figure 0006813244

Figure 0006813244

その他の動作については、実施の形態1と同様であるため、ここでの説明は省略する。
なお、上記例では、計測誤差推定部5aの構成を実施の形態1に適用した場合を説明したが、実施の形態2または実施の形態3の構成に対して適用してもよい。
Since other operations are the same as those in the first embodiment, the description thereof is omitted here.
In the above example, the case where the configuration of the measurement error estimation unit 5a is applied to the first embodiment has been described, but it may be applied to the configuration of the second embodiment or the third embodiment.

以上説明したように、実施の形態4の空港面監視装置によれば、計測誤差推定部は、目標物体の時系列の3次元座標に近似する直線と、時系列の3次元座標との距離を計測誤差として出力するようにしたので、計測誤差をENU座標系で直接求めることが可能となり、目的物体の3次元座標の算出精度を向上させることができる。 As described above, according to the airport surface monitoring device of the fourth embodiment, the measurement error estimation unit determines the distance between the straight line that approximates the three-dimensional coordinates of the time series of the target object and the three-dimensional coordinates of the time series. Since it is output as a measurement error, the measurement error can be directly obtained in the ENU coordinate system, and the calculation accuracy of the three-dimensional coordinates of the target object can be improved.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, it is possible to freely combine each embodiment, modify any component of each embodiment, or omit any component in each embodiment. ..

1 カメラ、2 目標検出部、3,3a 接地位置推定部、4 3次元位置計算部、5,5a 計測誤差推定部、6 結果出力部、7,7a 分解能算出部、100,100a 分解能データ、101 高度情報データ、102 接地位置学習データ。 1 camera, 2 target detection unit, 3,3a grounding position estimation unit, 43D position calculation unit, 5,5a measurement error estimation unit, 6 result output unit, 7,7a resolution calculation unit, 100,100a resolution data, 101 Advanced information data, 102 grounding position learning data.

Claims (5)

空港面上の画像を取得するカメラと、
前記カメラで取得した画像から目標物体を検出し、当該目標物体の画像座標を出力する目標検出部と、
前記目標物体が空港面に接地する画像上の接地位置座標を推定する接地位置推定部と、
前記接地位置座標の推定結果と3次元座標における空港面の高度情報とを用いて、空港面上の前記目標物体の3次元座標における位置を推定する3次元位置計算部と、
前記目標物体の画像座標と、画像座標に対する3次元座標の分解能を示す分解能データとを用いて、前記目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部と、
前記目標物体の画像座標と、当該目標物体の3次元座標の位置と、前記計測誤差とを出力する結果出力部とを備えたことを特徴とする空港面監視装置。
With a camera that captures images on the airport surface,
A target detection unit that detects a target object from the image acquired by the camera and outputs the image coordinates of the target object.
A grounding position estimation unit that estimates the grounding position coordinates on the image where the target object touches the airport surface,
A three-dimensional position calculation unit that estimates the position of the target object on the airport surface in three-dimensional coordinates by using the estimation result of the ground contact position coordinates and the altitude information of the airport surface in three-dimensional coordinates.
A measurement error estimation unit that calculates a measurement error at the position of the three-dimensional coordinates of the target object using the image coordinates of the target object and resolution data indicating the resolution of the three-dimensional coordinates with respect to the image coordinates.
An airport surface monitoring device including an image coordinate of the target object, a position of a three-dimensional coordinate of the target object, and a result output unit for outputting the measurement error.
前記3次元位置計算部は、前記空港面の高度情報を一定値として、当該空港面上の前記目標物体の3次元座標における位置を推定するようにしたことを特徴とする請求項1記載の空港面監視装置。 The airport according to claim 1, wherein the three-dimensional position calculation unit estimates the position of the target object on the airport surface in three-dimensional coordinates by using the altitude information of the airport surface as a constant value. Surface monitoring device. 前記分解能データは、空港面上における各位置の高度を前記空港面の高度情報とし、当該高度情報を用いて算出したことを特徴とする請求項1記載の空港面監視装置。 The airport surface monitoring device according to claim 1, wherein the resolution data is calculated by using the altitude information of each position on the airport surface as the altitude information of the airport surface. 前記接地位置推定部は、目標物体の特徴量と接地位置との学習結果を示す接地位置学習データを用いて前記接地位置座標を推定することを特徴とする請求項1から請求項3のうちのいずれか1項記載の空港面監視装置。 The ground contact position estimation unit according to any one of claims 1 to 3, wherein the ground contact position estimation unit estimates the ground contact position coordinates by using the ground contact position learning data indicating the learning result of the feature amount of the target object and the ground contact position. The airport surface monitoring device according to any one of the items. 前記計測誤差推定部は、目標物体の時系列の3次元座標に近似する直線と、前記時系列の3次元座標との距離を計測誤差として出力することを特徴とする請求項1から請求項4のうちのいずれか1項記載の空港面監視装置。 Claims 1 to 4 are characterized in that the measurement error estimation unit outputs a distance between a straight line that approximates the three-dimensional coordinates of the time series of the target object and the three-dimensional coordinates of the time series as a measurement error. The airport surface monitoring device according to any one of the above.
JP2017088581A 2017-04-27 2017-04-27 Airport surface monitoring device Active JP6813244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017088581A JP6813244B2 (en) 2017-04-27 2017-04-27 Airport surface monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088581A JP6813244B2 (en) 2017-04-27 2017-04-27 Airport surface monitoring device

Publications (2)

Publication Number Publication Date
JP2018185745A JP2018185745A (en) 2018-11-22
JP6813244B2 true JP6813244B2 (en) 2021-01-13

Family

ID=64355938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088581A Active JP6813244B2 (en) 2017-04-27 2017-04-27 Airport surface monitoring device

Country Status (1)

Country Link
JP (1) JP6813244B2 (en)

Also Published As

Publication number Publication date
JP2018185745A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
US20180313940A1 (en) Calibration of laser and vision sensors
CN103149939B (en) A kind of unmanned plane dynamic target tracking of view-based access control model and localization method
US10102644B2 (en) Method and a device for estimating an orientation of a camera relative to a road surface
WO2016035324A1 (en) Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion
JP2015181042A (en) detection and tracking of moving objects
EP2901236B1 (en) Video-assisted target location
JP2006071471A (en) Moving body height discrimination device
WO2014072737A1 (en) Cloud feature detection
JP6349737B2 (en) Moving object tracking device and moving object tracking method
US10991105B2 (en) Image processing device
CN104331907B (en) A kind of method based on ORB feature detections measurement bearer rate
JP2017524932A (en) Video-assisted landing guidance system and method
CN108225273A (en) A kind of real-time runway detection method based on sensor priori
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
CN108596947A (en) A kind of fast-moving target tracking method suitable for RGB-D cameras
US20130093880A1 (en) Height Measurement Apparatus And Method
EP2731050A1 (en) Cloud feature detection
KR20200102108A (en) Apparatus for detecting object of vehicle and method thereof
US11145048B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program
JP5267100B2 (en) Motion estimation apparatus and program
JP2011209070A (en) Image processor
JP6813244B2 (en) Airport surface monitoring device
JP2010009236A (en) Plane area estimation device and program
Sadeq Using total probability in image template matching.
JP6593995B2 (en) Airport monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201215

R150 Certificate of patent or registration of utility model

Ref document number: 6813244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250