JP6813244B2 - Airport surface monitoring device - Google Patents
Airport surface monitoring device Download PDFInfo
- Publication number
- JP6813244B2 JP6813244B2 JP2017088581A JP2017088581A JP6813244B2 JP 6813244 B2 JP6813244 B2 JP 6813244B2 JP 2017088581 A JP2017088581 A JP 2017088581A JP 2017088581 A JP2017088581 A JP 2017088581A JP 6813244 B2 JP6813244 B2 JP 6813244B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- airport surface
- coordinates
- measurement error
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 35
- 238000005259 measurement Methods 0.000 claims description 54
- 238000004364 calculation method Methods 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 45
- 238000012544 monitoring process Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
この発明は、空港面の管制作業を支援する空港面監視装置に関するものである。 The present invention relates to an airport surface monitoring device that supports airport surface control work.
従来、空港面の管制作業を支援する空港面監視装置として、空港面探知レーダで探知した目標物体の位置と、カメラにより探知した目標物体の位置とを用いて、位置相関及び追尾を行い、目標物体の位置情報などを出力するものがあった(例えば、特許文献1参照)。この空港面監視装置は、空港面に設置したビデオカメラの画像データと画像処理による文字認識を用いて、空港面を移動する物体の識別を行い、空港面探知レーダで探知した目標物体の位置との相関を取って出力するようにしたものである。 Conventionally, as an airport surface monitoring device that supports airport surface control work, position correlation and tracking are performed using the position of the target object detected by the airport surface detection radar and the position of the target object detected by the camera to perform the target. Some output information such as the position of an object (see, for example, Patent Document 1). This airport surface monitoring device uses image data of a video camera installed on the airport surface and character recognition by image processing to identify objects moving on the airport surface, and determines the position of the target object detected by the airport surface detection radar. It is designed to output by taking the correlation of.
しかしながら、上記の従来技術において、空港面探知レーダでは、位置の情報と共に計測誤差が出力されているが、カメラから得られる画像を用いた目標物体の検出では位置情報が出力されるのみで計測誤差は出力されない。そのため、位置相関及び追尾を行う際に計測誤差を用いた処理を行うことはできず、従って、高い追尾精度を得ることが困難であった。 However, in the above-mentioned conventional technique, the airport surface detection radar outputs the measurement error together with the position information, but the detection of the target object using the image obtained from the camera only outputs the position information and the measurement error. Is not output. Therefore, it is not possible to perform processing using a measurement error when performing position correlation and tracking, and therefore it is difficult to obtain high tracking accuracy.
この発明は上記のような課題を解決するためになされたもので、目標物体の追尾を行う際の追尾精度の向上に寄与することのできる空港面監視装置を得ることを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to obtain an airport surface monitoring device that can contribute to improvement of tracking accuracy when tracking a target object.
この発明に係る空港面監視装置は、空港面上の画像を取得するカメラと、カメラで取得した画像から目標物体を検出し、目標物体の画像座標を出力する目標検出部と、目標物体が空港面に接地する画像上の接地位置座標を推定する接地位置推定部と、接地位置座標の推定結果と3次元座標における空港面の高度情報とを用いて、空港面上の目標物体の3次元座標における位置を推定する3次元位置計算部と、目標物体の画像座標と、画像座標に対する3次元座標の分解能を示す分解能データとを用いて、目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部と、目標物体の画像座標と、目標物体の3次元座標の位置と、計測誤差とを出力する結果出力部とを備えたものである。 The airport surface monitoring device according to the present invention includes a camera that acquires an image on the airport surface, a target detection unit that detects a target object from the image acquired by the camera and outputs image coordinates of the target object, and the target object is an airport. The 3D coordinates of the target object on the airport surface using the grounding position estimation unit that estimates the grounding position coordinates on the image that touches the surface, the estimation result of the grounding position coordinates, and the altitude information of the airport surface in the 3D coordinates. The measurement error at the position of the 3D coordinate of the target object is calculated by using the 3D position calculation unit that estimates the position in the above, the image coordinate of the target object, and the resolution data indicating the resolution of the 3D coordinate with respect to the image coordinate. It includes a measurement error estimation unit, an image coordinate of the target object, a position of the three-dimensional coordinate of the target object, and a result output unit that outputs the measurement error.
この発明の空港面監視装置は、空港面上の目標物体の3次元座標における位置を推定する3次元位置計算部と、目標物体の画像座標と分解能データとを用いて、目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部とを備えたので、目標物体の追尾を行う際の追尾精度の向上に寄与することのできる空港面監視装置を得ることができる。 The airport surface monitoring device of the present invention uses a three-dimensional position calculation unit that estimates the position of a target object on the airport surface in three-dimensional coordinates, image coordinates of the target object, and resolution data, and uses the three-dimensional coordinates of the target object. Since it is equipped with a measurement error estimation unit that calculates the measurement error at the position of, it is possible to obtain an airport surface monitoring device that can contribute to the improvement of tracking accuracy when tracking a target object.
実施の形態1.
図1は、この発明の実施の形態1による空港面監視装置を示す構成図である。
図1に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3、3次元位置計算部4、計測誤差推定部5、結果出力部6、分解能算出部7を備える。カメラ1は、空港内に一つまたは複数設けられ、滑走路や誘導路といった目標物体の移動路を撮影し、空港面上の画像を取得する装置である。目標検出部2は、カメラ1によって取得された画像から航空機や車両といった目標物体を検出し、この目標物体の画像座標を出力する処理部である。接地位置推定部3は、目標検出部2で得られた画像座標を元に、目標物体と空港面とが接地している画像座標を推定する処理部である。3次元位置計算部4は、接地位置推定部3から得られた目標物体と空港面とが接地している画像座標から3次元位置を示す3次元座標を計算する処理部である。計測誤差推定部5は、画像座標に対する3次元座標の分解能を示す分解能データ100と、目標検出部2で検出した目標物体の画像座標とを用いて、3次元位置計算部4から出力された目標物体の3次元座標の計測誤差を計算する処理部である。結果出力部6は、目標物体の画像座標と、目標物体の3次元座標と、位置計測誤差とを空港面監視装置の監視結果として出力する処理部である。分解能算出部7は、3次元座標のキャリブレーション結果に基づいて分解能データ100を算出する処理部である。
Embodiment 1.
FIG. 1 is a configuration diagram showing an airport surface monitoring device according to the first embodiment of the present invention.
The airport surface monitoring device shown in FIG. 1 includes a camera 1, a
次に、実施の形態1の空港面監視装置の動作について説明する。
カメラ1によって撮影された画像は目標検出部2に転送される。目標検出部2では、時系列に与えられる画像から目標となる航空機や車両といった目標物体を検出する。検出には、背景差分を用いた手法や予め航空機から特徴量を抽出し、機械学習により得られた学習データを用いて検出する手法などを用いることができる。検出された目標物体は、矩形として表現され、接地位置推定部3と計測誤差推定部5に転送される。矩形は、左上の画像座標と幅と高さを用いてR=(u,v,w,h)で表現する。接地位置推定部3では、目標検出部2で検出された目標物体に対して、空港面と接地している位置を推定する。実施の形態1では、検出矩形の中央下端(u+w/2,v+h)を接地位置Lとする。この接地位置Lを3次元位置計算部4に転送する。
Next, the operation of the airport surface monitoring device of the first embodiment will be described.
The image captured by the camera 1 is transferred to the
3次元位置計算部4では、接地位置推定部3で推定した接地位置Lを用いて、ENU(East,North,Up)座標を推定する。ENU座標系は図2に示すように、空港の管制塔201の位置など任意の箇所に原点を設定し、東向きをX軸方向、北向きをY軸方向、空方向をZ軸方向として定義する(図中、ENU座標系202参照)。ENU座標は、カメラの内部パラメータ、カメラの回転行列、平行移動ベクトルを用いて変換される。
3次元位置計算部4では、まず画像座標からカメラ座標への変換を行う。
The three-dimensional
The three-dimensional
例えば、Z=0のときのX、Yは、定数kを以下の式(4)(5)で求めることで、算出できる。
以上により、ENU座標(X,Y,Z)を算出できる。
For example, X and Y when Z = 0 can be calculated by obtaining the constant k by the following equations (4) and (5).
From the above, the ENU coordinates (X, Y, Z) can be calculated.
分解能算出部7では、図3に示すように、ピクセルが持つENU座標における分解能を分解能データ100として算出する。図3Aは、カメラ301と、画像座標系302と、ENU座標系303を示している。また、図3Bは画像座標系302における破線枠内の拡大図である。ピクセルの分解能は、画像座標系302において、注目ピクセル304がuまたはv方向に1ピクセルずれた際の、ENU座標系303のずれる前の位置とずれた後の位置のユークリッド距離を算出することで得られる。1ピクセルのずれの方向は、ENU座標系303におけるX方向とY方向の軸に沿って計算するため、ENU座標系303における軸方向の移動を画像座標系302に反映してから算出する。図4に処理の流れを示す。ここで、図3中のST1〜ST9で示す点は、図4のステップST1〜ステップST9の処理に対応した位置を示している。
As shown in FIG. 3, the
分解能算出部7は、先ず、注目ピクセル304の画像座標(u,v)を選択する(ステップST1)。次に、分解能算出部7は、画像座標(u,v)に対応したENU座標(X,Y,Z)を算出する(ステップST2)。なお、この処理は3次元位置計算部4が行ってもよい。次いで、分解能算出部7は、式(6)に示すように、注目ピクセル304の画像座標(u,v)のENU座標系303において、Y軸方向にα移動した点を算出する(ステップST3)。
さらに、分解能算出部7は、式(7)に示すように、このENU座標系303の位置を画像座標系302の位置に変換する(ステップST4)。
The
Further, the
図3Bに示すように、画像座標系302におけるENU座標系303のY軸方向の移動方向は、
として表され(ステップST5)、Y軸方向への1ピクセル当たりの変化は、
次に、分解能算出部7は、画像座標系302の位置(u,v)と位置(u→y,v→y)とを、それぞれENU座標系303の位置(X’,Y’,Z’)に変換し(ステップST8)、式(11)に示すように、そのユークリッド距離を求める(ステップST9)ことでY軸のプラス方向へのピクセルの分解能を算出する。
As shown in FIG. 3B, the moving direction of the ENU coordinate
(Step ST5), the change per pixel in the Y-axis direction is
Next, the
分解能算出部7は、ステップST9においてユークリッド距離を求めた後、次の画像座標(u,v)を選択し(ステップST10)、ステップST2に戻る。分解能算出部7は、ステップST2からの処理を繰り返してY軸方向の分解能を算出する。
さらに、分解能算出部7は、式(6)においてY−αとした際のユークリッド距離を求めることによりY軸のマイナス方向へのピクセルの分解能を算出し、その平均を算出してY軸方向の分解能とする。
X軸方向に1ピクセル移動した座標も同様に算出できる。以上の計算により求めた分解能は、Q(u,v,offset=(X,Y))として表現し、画像座標(u,v)において、(XまたはY)軸方向のピクセルずれがあった際の値となる。この値をキャリブレーション結果における分解能データ100として保存する。
After obtaining the Euclidean distance in step ST9, the
Further, the
The coordinates moved by 1 pixel in the X-axis direction can be calculated in the same manner. The resolution obtained by the above calculation is expressed as Q (u, v, offset = (X, Y)), and when there is a pixel shift in the (X or Y) axis direction in the image coordinates (u, v). Is the value of. This value is saved as the
計測誤差推定部5では、分解能データ100と、目標検出部2からの時系列の検出矩形の情報を用いて、推定したENU座標の誤差を推定する。図5は、目標検出部2からの時系列の検出矩形を示す説明図である。まず、図示のように、Nフレームの目標物体の検出矩形Ri(i=0,…N−1)とし、幅、高さの標準偏差(Sw,Sh)を算出する。なお、図5において、検出矩形51は、時刻t−3の検出枠、検出矩形52は、時刻t−2の検出枠、検出矩形53は時刻t−1の検出枠、検出矩形54は時刻tの検出枠を示し、集合55は4フレームの検出枠の集合を示している。
次に、計測誤差推定部5は、X軸方向とY軸方向の計測誤差を算出する。現フレームの接地位置Lにおける分解能Qを抽出し、X、Y軸方向へのベクトルと式(12)、(13)で算出した標準偏差を掛け合わせることにより計測誤差SX、SYとする。
計測誤差推定部5は、結果出力部6に、検出矩形の情報とENU座標と計測誤差SX、SYを転送する。結果出力部6では、目標物体の画像座標とENU座標と計測誤差SX、SYとを空港面監視装置の監視結果として出力する。
The measurement
Next, the measurement
Measurement
以上説明したように、実施の形態1の空港面監視装置によれば、空港面上の画像を取得するカメラと、カメラで取得した画像から目標物体を検出し、目標物体の画像座標を出力する目標検出部と、目標物体が空港面に接地する画像上の接地位置座標を推定する接地位置推定部と、接地位置座標の推定結果と3次元座標における空港面の高度情報とを用いて、空港面上の目標物体の3次元座標における位置を推定する3次元位置計算部と、目標物体の画像座標と、画像座標に対する3次元座標の分解能を示す分解能データとを用いて、目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部と、目標物体の画像座標と、目標物体の3次元座標の位置と、計測誤差とを出力する結果出力部とを備えたので、目標物体の追尾を行う際の追尾精度の向上に寄与することのできる空港面監視装置を得ることができる。 As described above, according to the airport surface monitoring device of the first embodiment, the camera that acquires the image on the airport surface, the target object is detected from the image acquired by the camera, and the image coordinates of the target object are output. Using the target detection unit, the grounding position estimation unit that estimates the grounding position coordinates on the image where the target object touches the airport surface, the estimation result of the grounding position coordinates, and the altitude information of the airport surface in three-dimensional coordinates, the airport Three-dimensional of the target object using the three-dimensional position calculation unit that estimates the position of the target object on the surface in three-dimensional coordinates, the image coordinates of the target object, and the resolution data indicating the resolution of the three-dimensional coordinates with respect to the image coordinates. Since it is equipped with a measurement error estimation unit that calculates the measurement error at the coordinate position, an image coordinate of the target object, a position of the three-dimensional coordinate of the target object, and a result output unit that outputs the measurement error, the target object It is possible to obtain an airport surface monitoring device that can contribute to the improvement of tracking accuracy when performing tracking.
また、実施の形態1の空港面監視装置によれば、3次元位置計算部は、空港面の高度情報を一定値として、空港面上の目標物体の3次元座標における位置を推定するようにしたので、演算処理の高速化を図ることができる。 Further, according to the airport surface monitoring device of the first embodiment, the three-dimensional position calculation unit estimates the position of the target object on the airport surface in the three-dimensional coordinates with the altitude information of the airport surface as a constant value. Therefore, it is possible to speed up the arithmetic processing.
実施の形態2.
実施の形態2は、空港面の高度情報を用いて分解能を算出するようにしたものである。すなわち、実施の形態1では、分解能算出部7が空港面の高度を一定値として3次元座標の分解能を算出していたが、実施の形態2では、空港面の実際の高度情報を用いて分解能を算出する。
In the second embodiment, the resolution is calculated using the altitude information of the airport surface. That is, in the first embodiment, the
図6は、実施の形態2の空港面監視装置を示す構成図である。
図6に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3、3次元位置計算部4、計測誤差推定部5、結果出力部6、分解能算出部7aを備える。ここで、実施の形態1の空港面監視装置と異なるのは、3次元位置計算部4が、空港面の高度を示す高度情報データ101を用いて3次元座標を算出するよう構成されている点と、分解能算出部7aが、高度情報データ101を用いて分解能データ100aを算出する点である。ここで高度情報データ101とは、空港面上における各位置の高度の情報すなわちZ方向の値を示すデータである。他の構成については図1に示した構成と同様であるため、対応する部分に同一符号を付してその説明を省略する。
FIG. 6 is a configuration diagram showing the airport surface monitoring device of the second embodiment.
The airport surface monitoring device shown in FIG. 6 includes a camera 1, a
次に、実施の形態2の空港面監視装置の動作について説明する。なお、実施の形態1の動作と同様である点についてはその説明を省略し、実施の形態1とは異なる動作について説明する。
実施の形態2の3次元位置計算部4では、接地位置推定部3で推定した接地位置Lを用いてENU座標を推定するのは実施の形態1と同様であるが、ENU座標を推定するのに高度情報データ101を用いる。この高度情報データ101を用いることにより、実施の形態1における式(4)(5)が、以下の式(16)(17)となり、高度情報を加味したENU座標を推定することが可能となる。
Next, the operation of the airport surface monitoring device of the second embodiment will be described. The points that are the same as the operation of the first embodiment will be omitted, and the operation different from that of the first embodiment will be described.
In the three-dimensional
また、分解能算出部7aでは、高度情報データ101を用いて分解能データ100aを算出する。基本的な動作は、実施の形態1における図3及び図4を用いた動作と同様であるが、Z軸方向の分解能を含めて算出するのが異なる点である。
Further, the
以上説明したように、実施の形態2の空港面監視装置によれば、分解能データは、空港面上における各位置の高度を空港面の高度情報とし、この高度情報を用いて算出するようにしたので、分解能の算出精度が向上し、3次元座標の計測誤差の算出精度を向上させることができる。 As described above, according to the airport surface monitoring device of the second embodiment, the resolution data is calculated by using the altitude of each position on the airport surface as the altitude information of the airport surface and using this altitude information. Therefore, the calculation accuracy of the resolution is improved, and the calculation accuracy of the measurement error of the three-dimensional coordinates can be improved.
実施の形態3.
実施の形態3は、接地位置推定部が目標物体の特徴量と接地位置との学習結果を示す接地位置学習データを用いて接地位置座標を推定するようにしたものである。
図7は、実施の形態3の空港面監視装置を示す構成図である。
図7に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3a、3次元位置計算部4、計測誤差推定部5、結果出力部6、分解能算出部7aを備える。ここで、実施の形態2の空港面監視装置と異なるのは、接地位置推定部3aが、目標物体の特徴量と接地位置との学習結果を示す接地位置学習データ102を用いて接地位置座標を推定するよう構成されている点である。その他の構成については、図6に示した実施の形態2の構成と同様であるため、対応する部分に同一符号を付してその説明を省略する。
In the third embodiment, the ground contact position estimation unit estimates the ground contact position coordinates using the ground contact position learning data indicating the learning result of the feature amount of the target object and the ground contact position.
FIG. 7 is a configuration diagram showing the airport surface monitoring device of the third embodiment.
The airport surface monitoring device shown in FIG. 7 includes a camera 1, a
接地位置学習データ102の生成方法としては、例えば、非特許文献Hough Forests(J.Gall,and V.Lempitsky,“Class−specific hough forests for object detection”,CVPR2009.)に示されているように、対象物を指定した矩形領域からさらに細かいNxNのパッチを抽出し、そのパッチと接地位置へのベクトルの関係を求めておく方法がある。そして、接地位置推定部3aでは、接地位置を推定する際に、目標検出部2で得られた矩形内からパッチを抽出し、Hough Forestsを用いることで、パッチごとに接地位置へのベクトルが算出できる。すべてのパッチの接地位置への投票で最大となる箇所を接地位置[p,q]Tとする。
As a method of generating the grounding
計測誤差推定部5では、分解能データ100aと、目標検出部2からの時系列の検出矩形の情報を用いて、3次元位置計算部4で推定したENU座標の誤差を推定する。ここで、実施の形態1の計測誤差推定部5では検出枠の幅と高さの標準偏差を用いていたが、実施の形態3の計測誤差推定部5では、図8に示すように、接地位置(pi,qi)と検出枠の座標(ui,vi)を用いて、式(18)(19)に示すように、検出枠の左上座標を基準とした座標値の標準偏差(Sp,Sq)を算出する。なお、図8において、検出矩形51〜検出矩形54は図5と同様の検出枠を示し、推定接地位置81〜84は、それぞれ時刻t−3の推定接地位置、時刻t−2の推定接地位置、時刻t−1の推定接地位置、時刻tの推定接地位置を示している。また集合85は、4フレームの検出枠左上を基準とした接地位置の集合を示している。ここで、集合85に示される丸印からの矢印は、それぞれ推定接地位置81〜84におけるu座標方向へのベクトルとv座標方向へのベクトルを示している。
The measurement
計測誤差推定部5では、次に、実施の形態1と同様に式(14)(15)を用いて、計測誤差を算出する。但し、式(14)(15)中のSw,Shを上記のSp,Sqとして計測誤差SX,SYを求める。それ以降の動作については実施の形態1,2と同様であるためここでの説明は省略する。
Next, the measurement
なお、上記例では、接地位置推定部3aが接地位置学習データ102を用いて接地位置を推定する構成を実施の形態2に適用した例を説明したが、実施の形態1の構成に対して適用してもよい。
In the above example, the configuration in which the grounding position estimation unit 3a estimates the grounding position using the grounding
以上説明したように、実施の形態3の空港面監視装置によれば、接地位置推定部は、目標物体の特徴量と接地位置との学習結果を示す接地位置学習データを用いて接地位置座標を推定するようにしたので、3次元位置を算出する際に使用する接地位置の推定精度を向上させることができ、その結果、3次元位置と計測誤差の算出精度を向上させることができる。 As described above, according to the airport surface monitoring device of the third embodiment, the ground contact position estimation unit uses the ground contact position learning data indicating the learning result of the feature amount of the target object and the ground contact position to determine the ground contact position coordinates. Since the estimation is performed, the estimation accuracy of the ground contact position used when calculating the three-dimensional position can be improved, and as a result, the calculation accuracy of the three-dimensional position and the measurement error can be improved.
実施の形態4.
実施の形態4は、計測誤差推定部が3次元座標を用いて計測誤差を推定するようにしたものである。
図9は、実施の形態4の空港面監視装置を示す構成図である。
図9に示す空港面監視装置は、カメラ1、目標検出部2、接地位置推定部3、3次元位置計算部4、計測誤差推定部5a、結果出力部6、分解能算出部7を備える。ここで、実施の形態1の空港面監視装置と異なるのは、計測誤差推定部5aが、目標物体の時系列の3次元座標に近似する直線と、時系列の3次元座標との距離を計測誤差として出力するよう構成されている点である。その他の構成については、図1に示した実施の形態1の構成と同様であるため、対応する部分に同一符号を付してその説明を省略する。
In the fourth embodiment, the measurement error estimation unit estimates the measurement error using the three-dimensional coordinates.
FIG. 9 is a configuration diagram showing the airport surface monitoring device of the fourth embodiment.
The airport surface monitoring device shown in FIG. 9 includes a camera 1, a
次に、実施の形態4の動作として、計測誤差推定部5aによる計測誤差の推定処理について説明する。
計測誤差は図10に示すように複数フレームのENU座標を用いて、直線を当てはめ、その直線からのずれを計測誤差として用いる。図10において、位置11〜14は、それぞれ時刻t−3のENU座標、時刻t−2のENU座標、時刻t−1のENU座標、時刻tのENU座標を示している。また、直線15は、これら位置11〜14に当てはめた直線を示している。
時系列の3次元座標をNフレームのENU座標(Xi,Yi,Zi)(i=0,…N−1)とすると、直線15は最小2乗法により求められる。ただし、空港面上を目標物体が走行していると仮定するため、Zは一定値であるとし、(X,Y)座標の2次元で直線を考える。直線の式は、
であり、係数a,bは以下の式(21)(22)で得られる。
Next, as the operation of the fourth embodiment, the measurement error estimation process by the measurement
As the measurement error, as shown in FIG. 10, a straight line is fitted using the ENU coordinates of a plurality of frames, and the deviation from the straight line is used as the measurement error. In FIG. 10, positions 11 to 14 indicate the ENU coordinates at time t-3, the ENU coordinates at time t-2, the ENU coordinates at time t-1, and the ENU coordinates at time t, respectively. Further, the
Assuming that the three-dimensional coordinates of the time series are the ENU coordinates (X i , Y i , Z i ) (i = 0, ... N-1) of the N frame, the
The coefficients a and b are obtained by the following equations (21) and (22).
次に、計測誤差推定部5aは、この直線に対して各ENU座標の誤差を算出する。各誤差を(EXi,EYi)とすると、
となる。従って、計測誤差は以下の式(24)(25)で求められる。
Next, the measurement
Will be. Therefore, the measurement error is calculated by the following equations (24) and (25).
その他の動作については、実施の形態1と同様であるため、ここでの説明は省略する。
なお、上記例では、計測誤差推定部5aの構成を実施の形態1に適用した場合を説明したが、実施の形態2または実施の形態3の構成に対して適用してもよい。
Since other operations are the same as those in the first embodiment, the description thereof is omitted here.
In the above example, the case where the configuration of the measurement
以上説明したように、実施の形態4の空港面監視装置によれば、計測誤差推定部は、目標物体の時系列の3次元座標に近似する直線と、時系列の3次元座標との距離を計測誤差として出力するようにしたので、計測誤差をENU座標系で直接求めることが可能となり、目的物体の3次元座標の算出精度を向上させることができる。 As described above, according to the airport surface monitoring device of the fourth embodiment, the measurement error estimation unit determines the distance between the straight line that approximates the three-dimensional coordinates of the time series of the target object and the three-dimensional coordinates of the time series. Since it is output as a measurement error, the measurement error can be directly obtained in the ENU coordinate system, and the calculation accuracy of the three-dimensional coordinates of the target object can be improved.
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, it is possible to freely combine each embodiment, modify any component of each embodiment, or omit any component in each embodiment. ..
1 カメラ、2 目標検出部、3,3a 接地位置推定部、4 3次元位置計算部、5,5a 計測誤差推定部、6 結果出力部、7,7a 分解能算出部、100,100a 分解能データ、101 高度情報データ、102 接地位置学習データ。 1 camera, 2 target detection unit, 3,3a grounding position estimation unit, 43D position calculation unit, 5,5a measurement error estimation unit, 6 result output unit, 7,7a resolution calculation unit, 100,100a resolution data, 101 Advanced information data, 102 grounding position learning data.
Claims (5)
前記カメラで取得した画像から目標物体を検出し、当該目標物体の画像座標を出力する目標検出部と、
前記目標物体が空港面に接地する画像上の接地位置座標を推定する接地位置推定部と、
前記接地位置座標の推定結果と3次元座標における空港面の高度情報とを用いて、空港面上の前記目標物体の3次元座標における位置を推定する3次元位置計算部と、
前記目標物体の画像座標と、画像座標に対する3次元座標の分解能を示す分解能データとを用いて、前記目標物体の3次元座標の位置における計測誤差を計算する計測誤差推定部と、
前記目標物体の画像座標と、当該目標物体の3次元座標の位置と、前記計測誤差とを出力する結果出力部とを備えたことを特徴とする空港面監視装置。 With a camera that captures images on the airport surface,
A target detection unit that detects a target object from the image acquired by the camera and outputs the image coordinates of the target object.
A grounding position estimation unit that estimates the grounding position coordinates on the image where the target object touches the airport surface,
A three-dimensional position calculation unit that estimates the position of the target object on the airport surface in three-dimensional coordinates by using the estimation result of the ground contact position coordinates and the altitude information of the airport surface in three-dimensional coordinates.
A measurement error estimation unit that calculates a measurement error at the position of the three-dimensional coordinates of the target object using the image coordinates of the target object and resolution data indicating the resolution of the three-dimensional coordinates with respect to the image coordinates.
An airport surface monitoring device including an image coordinate of the target object, a position of a three-dimensional coordinate of the target object, and a result output unit for outputting the measurement error.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088581A JP6813244B2 (en) | 2017-04-27 | 2017-04-27 | Airport surface monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088581A JP6813244B2 (en) | 2017-04-27 | 2017-04-27 | Airport surface monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018185745A JP2018185745A (en) | 2018-11-22 |
JP6813244B2 true JP6813244B2 (en) | 2021-01-13 |
Family
ID=64355938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017088581A Active JP6813244B2 (en) | 2017-04-27 | 2017-04-27 | Airport surface monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6813244B2 (en) |
-
2017
- 2017-04-27 JP JP2017088581A patent/JP6813244B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018185745A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180313940A1 (en) | Calibration of laser and vision sensors | |
CN103149939B (en) | A kind of unmanned plane dynamic target tracking of view-based access control model and localization method | |
US10102644B2 (en) | Method and a device for estimating an orientation of a camera relative to a road surface | |
WO2016035324A1 (en) | Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion | |
JP2015181042A (en) | detection and tracking of moving objects | |
EP2901236B1 (en) | Video-assisted target location | |
JP2006071471A (en) | Moving body height discrimination device | |
WO2014072737A1 (en) | Cloud feature detection | |
JP6349737B2 (en) | Moving object tracking device and moving object tracking method | |
US10991105B2 (en) | Image processing device | |
CN104331907B (en) | A kind of method based on ORB feature detections measurement bearer rate | |
JP2017524932A (en) | Video-assisted landing guidance system and method | |
CN108225273A (en) | A kind of real-time runway detection method based on sensor priori | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
CN108596947A (en) | A kind of fast-moving target tracking method suitable for RGB-D cameras | |
US20130093880A1 (en) | Height Measurement Apparatus And Method | |
EP2731050A1 (en) | Cloud feature detection | |
KR20200102108A (en) | Apparatus for detecting object of vehicle and method thereof | |
US11145048B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program | |
JP5267100B2 (en) | Motion estimation apparatus and program | |
JP2011209070A (en) | Image processor | |
JP6813244B2 (en) | Airport surface monitoring device | |
JP2010009236A (en) | Plane area estimation device and program | |
Sadeq | Using total probability in image template matching. | |
JP6593995B2 (en) | Airport monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6813244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |