JP6632474B2 - 監視装置、監視方法及び空港監視システム - Google Patents

監視装置、監視方法及び空港監視システム Download PDF

Info

Publication number
JP6632474B2
JP6632474B2 JP2016112790A JP2016112790A JP6632474B2 JP 6632474 B2 JP6632474 B2 JP 6632474B2 JP 2016112790 A JP2016112790 A JP 2016112790A JP 2016112790 A JP2016112790 A JP 2016112790A JP 6632474 B2 JP6632474 B2 JP 6632474B2
Authority
JP
Japan
Prior art keywords
probability map
target object
camera
image
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016112790A
Other languages
English (en)
Other versions
JP2017219377A (ja
Inventor
彰一 清水
彰一 清水
関 真規人
真規人 関
信太郎 渡邉
信太郎 渡邉
晴之 岩間
晴之 岩間
清之 畑
清之 畑
恭輔 内田
恭輔 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016112790A priority Critical patent/JP6632474B2/ja
Publication of JP2017219377A publication Critical patent/JP2017219377A/ja
Application granted granted Critical
Publication of JP6632474B2 publication Critical patent/JP6632474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、航空機及び車両などの物体を監視する画像処理技術に関し、特に、空港内の航空機及び車両などの物体を監視するためにカメラ画像に基づいて当該物体の位置を検出する画像処理技術に関する。
従来より、空港における滑走路及び誘導路などの地表面(以下「空港面」ともいう。)の監視のために、ASDE(Airport Surface Detection Equipment:空港面探知装置)と呼ばれるレーダ装置、及び監視カメラなどの監視装置が使用されている。空港の管制官は、ASDEにより得られたレーダエコー画面とカメラ画像とを通じて、空港面に存在する航空機または車両などの物体の動きを把握することができる。
また、レーダ装置と監視カメラとを用いて空港面に存在する物体を自動的に識別する技術も存在する。たとえば、特許文献1(特開平11−160424号公報)に開示されている空港面監視装置は、レーダエコーに基づいて航空機または車両などの目標物体の方位及び距離信号を含む目標物情報を生成するASDE目標検出装置と、監視カメラの画像データを解析することにより目標物体を抽出しその識別情報(機体番号または車両識別番号)、移動方向及び位置座標をそれぞれ検出するパターン認識装置と、その移動方向及び位置座標の組と当該目標物情報との間の位置相関の有無を判定する位置相関処理装置とを備えている。位置相関処理装置は、位置相関があったとき、ASDE目標検出装置で検出された目標物体が、画像データから抽出された目標物体と同一であると識別し、ASDE目標検出装置で検出された目標物体に当該識別情報のタグを付加する。
特開平11−160424号公報(たとえば、図1及び段落0026)
しかしながら、ASDE目標検出装置においてレーダエコーを基に検出された目標物体の方位及び距離信号の検出誤差は、空港面における当該目標物体の存在位置に応じて変化する。このため、その検出精度が低いと、当該目標物体の検出位置精度が低くなるおそれがある。
上記に鑑みて本発明の目的は、空港面に存在する物体の位置を高い精度で検出することを可能とする監視装置、監視方法及び空港監視システムを提供することである。
本発明の一態様による監視装置は、空港面に存在する目標物体の測位座標を検出する空港面探知センサと、前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部とを用いて前記目標物体を監視する監視装置であって、前記測位座標を2次元の画像座標に変換する座標変換部と、前記空港面探知センサによる測位位置の空間的な誤差分布を示す誤差分布データを取得し、当該誤差分布データ及び前記画像座標に基づき、2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップの算出を行うセンサ確率マップ生成部と、前記カメラ画像に基づき、前記2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップの算出を行うカメラ確率マップ生成部と、前記センサ確率マップ及び前記カメラ確率マップを合成して得られる合成確率マップに基づき、前記カメラ画像を、前記目標物体を表す前景領域と背景領域とに分離するセグメンテーションを実行する物体検出部とを備えることを特徴とする。
本発明によれば、空港面に存在する目標物体の位置を高い精度で検出することが可能となる。
本発明に係る実施の形態1の空港監視システムの概略構成を示すブロック図である。 実施の形態1に係る空港監視処理の概要を説明するための図である。 実施の形態1に係る空港監視処理の手順の一例を概略的に示すフローチャートである。 実施の形態1の目標検出部によるセグメンテーションを説明するための図である。 実施の形態1の目標検出部によるセグメンテーションを説明するための図である。 図6A及び図6Bは、実施の形態1の監視装置のハードウェア構成を実現する2種類の情報処理装置の構成を概略的に示すブロック図である。 本発明に係る実施の形態2の空港監視システムの概略構成を示すブロック図である。 本発明に係る実施の形態3の空港監視システムの概略構成を示すブロック図である。
以下、図面を参照しつつ、本発明に係る種々の実施の形態について詳細に説明する。なお、図面全体において同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。
実施の形態1.
図1は、本発明に係る実施の形態1の空港監視システム1の概略構成を示すブロック図である。この空港監視システム1は、図1に示されるように空港面探知センサ2、撮像部3、監視装置4、及び、画像表示装置を含む表示部21を備えて構成されている。空港面探知センサ2は、滑走路または誘導路などの空港面に存在する航空機、トラック、バスまたは特殊車両などの移動物体を探知してその位置座標(以下「測位座標」ともいう。)を測定する測位機能を有し、当該測位座標を示す測位データGDを監視装置4に送信する通信機能を有する。測位座標は、たとえば、GEO座標系(GEOdetic coordinates:測地座標系)の緯度φ、経度Ω及び高度hで表現されている。特殊車両としては、たとえば、トーイングカー(航空機のプッシュバックまたはトーイングのために使用される車両)、コンテナ運搬車、燃料給油作業車及び給水車が挙げられる。
また、空港面探知センサ2は、たとえば、ASDE(Airport Surface Detection Equipment:空港面探知装置)やASR(Airport Surveillance Radar)などの監視レーダで構成可能である。また、空港面探知センサ2は、監視レーダが探知できない領域を監視するために、MLAT(Multi−LATeration:マルチラテレーション)などの監視システムを備えている。MLATとは、航空機のトランスポンダから送信された応答信号またはスキッタ信号などの信号を3カ所以上の受信局で受信して、これら受信信号間の受信時刻の差に基づいて当該航空機の位置を測定する監視システムである。
更に、空港面探知センサ2は、MLATなどの監視システムを利用して、移動物体の種類を示す移動体情報BTを供給することができる。移動体情報BTとしては、航空機の機種情報または特殊車両の車種情報が挙げられる。この移動体情報BTは、本実施の形態では使用されないが、後述する実施の形態2及び実施の形態3で使用される情報である。
撮像部3は、空港内に設置された単数または複数の監視カメラで構成されており、各監視カメラは、空港面と空などの背景とを撮像するように配置されている。各監視カメラの構造は、被写体を撮像してその被写体の撮像画像IMGを監視装置4に転送することができる構成を有していればよく、その構造は特に限定されるものではない。このような監視カメラは、たとえば、撮像光学系から入射された被写体の光学像を電気信号に変換する固体撮像素子と、この固体撮像素子の出力に信号処理を施して撮像画像データを生成する信号処理回路と、その撮像画像データを一時的に記憶するバッファメモリと、このバッファメモリから撮像画像データを読み出して監視装置4に転送するデータ送信部とで構成可能である。固体撮像素子としては、たとえば、CCD(Charge−Coupled Device)イメージセンサ、CMOS(Complementary Metal−Oxide Semiconductor)イメージセンサ、または、光電子増倍管などの光電変換デバイスを含む高感度イメージセンサを使用することができる。
監視装置4は、図1に示されるように、座標変換部10、カメラ確率マップ生成部11、センサ確率マップ生成部12、モデル生成部13、物体検出部14、座標推定部15、出力部16及びセンサ誤差記憶部17を備えて構成される。
座標変換部10は、空港面探知センサ2から測位データGDを受信すると、この測位データGDで示される、移動物体(以下「目標物体」という。)の測位座標を2次元の画像座標ICに投影変換し、その画像座標ICの情報をセンサ確率マップ生成部12に供給する。投影変換は、たとえば、WGS−84(World Geodetic System−84)座標系を使用して行われる。空港面探知センサ2で得られる測位座標がGEO座標系の情報であるため、座標変換部10は、測位座標をECF(Earth−Centered−Earth−Fixed)座標に変換し、このECF座標をENU(East−North−Up)座標に変換する。そして、座標変換部10は、そのENU座標に基づいて画像座標を算出する。
具体的には、座標変換部10は、先ず、次式(1)に従って、GEO座標系の測位座標[φ,Ω,h](Tは転置記号)をECF座標[X,Y,Zに変換する。

Figure 0006632474
ここで、φは緯度(単位:ラジアン)、Ωは経度(単位:ラジアン)、hは楕円体高(単位:m)、eは地球の離心率、fは地球の偏平率、Nは地球半径である。離心率e、偏平率f及び地球半径Nは、次式(2)で与えられる。

Figure 0006632474
ここで、定数aは、WGS84準拠楕円体の長半径(=6378137m)である。
次に、座標変換部10は、次式(3)に従って、ECF座標[X,Y,ZをENU座標[X,Y,Zに変換する。

Figure 0006632474
式(3)の右辺のベクトル[XFS,YFS,ZFSは、基準点のECF座標である。また、式(3)の右辺のTFNは、次式(4)で与えられる回転行列である。

Figure 0006632474
なお、回転行列TFNは、この回転行列の転置TFN と等しい。
そして、座標変換部10は、同次座標(Homogenous Coordinates)を用いて、次式(5)により、ENU座標[X,Y,Zを2次元の画像座標[u,v]に変換することができる。

Figure 0006632474
ここで、右辺のAは、カメラの内部パラメータを示すスカラー量であり、[R|T]は、3行4列の行列である。また、Rは、2行2列の回転行列要素を含む3行2列の行列であり、Tは、並行移動量を含む3行1列の行列である。内部パラメータA、行列R,Tは、予めカメラキャリブレーションにより求められる。
センサ誤差記憶部17は、空港面探知センサ2による測位位置の空間的な誤差分布を示す誤差分布データEDをセンサ確率マップ生成部12に供給する記録媒体である。誤差分布データEDは、たとえば、空港面探知センサ2における監視レーダまたはMLATにより得られた測位情報(緯度、経度及び高度)に対して発生する誤差分布を示すデータであればよい。この誤差分布は、GPS(global positioning system)などのGNSS(全地球航法衛星システム)の高精度測位情報と、空港面探知センサ2で得られた測位情報の平均値及び分散値とを用いて予め算出されたものである。また、GNSSが使用されない場合には、空港内の定点に置かれた測定器のデータを使用して平均値及び分散値を求める方法が使用されてもよい。更には、MLATに代えて、ADS−B(Automatic Dependent Surveillance−Broadcast)システムから得た測位情報が使用されてもよい。
なお、本実施の形態のセンサ誤差記憶部17は、監視装置4の構成要素の1つであるが、これに限定されるものではない。センサ誤差記憶部17は、監視装置4の外部に配置され、ケーブルまたは通信回線を介して監視装置4と接続されていてもよい。
図2に概念的に示されるように、監視装置4は、空港面探知センサ2から目標物体の測位位置Ptを示す測位データGDを受信し、撮像部3から目標物体が現れるカメラ画像IMGを受信する。監視装置4は、測位データGD及びカメラ画像IMGに加えて、センサ誤差記憶部17から誤差分布を示す誤差分布データEDを取得し、これら測位データGD、カメラ画像IMG及び誤差分布データEDに基づいて、目標物体の正確な位置を推定することができる。また、監視装置4は、図2に示されるような監視用画像IMG1,IMG2を図1の表示部21に表示させることができる。空港の管制官は、表示部21に表示された監視用画像IMG1,IMG2を用いて効率的な管制業務を行うことが可能である。一方の監視用画像IMG1は、カメラ画像に目標物体を指す検出枠Fmの画像を重畳させて得られる画像である。また、他方の監視用画像IMG2は、空港内に配置された監視カメラ25と、空港面に存在する目標物体26とを模式的に表す画像である。
次に、図3を参照しつつ、センサ確率マップ生成部12、カメラ確率マップ生成部11、モデル生成部13及び物体検出部14の動作を以下に説明する。図3は、実施の形態1に係る物体検出処理の手順の一例を概略的に示すフローチャートである。
図3を参照すると、先ず、センサ確率マップ生成部12は、誤差分布データEDと目標物体の画像座標[u,v]とに基づき、2次元画像空間において目標物体及びこれ以外の背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップPMbを算出する(ステップST10)。
ここで、本実施の形態のセンサ誤差記憶部17に記憶されている誤差分布は、ECF座標系の誤差分布であるので、センサ確率マップ生成部12は、その誤差分布を、カメラ画像に対応した画像座標系上の誤差分布に変換する必要がある。この変換は、カメラパラメータを用いた座標変換により、誤差分布を画像座標系に投影するものである。センサ確率マップ生成部12は、画像座標系上の誤差分布と画像座標[u,v]とを用いて、センサ確率マップPMbを算出する。
今、目標物体の画像座標を[u,v]=[u,vとし、画像座標系上の誤差分布をU(u,v)とする。このとき、センサ確率マップ生成部12は、次式(6),(7)に従って、センサ確率マップPMbを算出することができる。

Figure 0006632474

Figure 0006632474
ここで、Smap fg(u,v)は、2次元画像空間において目標物体(すなわち前景)が現れる確からしさの分布を示す前景確率マップであり、Smap bg(u,v)は、2次元画像空間において背景が現れる確からしさの分布を示す背景確率マップである。センサ確率マップPMbは、これら前景確率マップSmap fg(u,v)と背景確率マップSmap bg(u,v)との組で構成されている。また、式(7)中のmax{Smap fg(u,v)}は、Smap fg(u,v)の最大値である。式(6)は、画像上の目標物体の存在確率の値が、検出位置座標[u,vから離れるに従って小さくなることを示している。
次に、カメラ確率マップ生成部11、モデル生成部13及び物体検出部14は、連携して動作し、カメラ画像IMGに基づいて、2次元画像空間において目標物体及びこれ以外の背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップPMaを算出する(ステップST11)。
具体的には、初回(1回目)にカメラ確率マップPMaの算出が行われる場合、物体検出部14が、ステップST10で算出された前景確率マップSmap fg(u,v)に基づいて、画像における目標物体の存在確率が高い局所画像領域V(たとえば、存在確率が一定以上の領域)を初期の前景領域として検出する。モデル生成部13は、この前景領域Vを用いて目標物体を表す前景の色分布モデルを算出し、前景領域V以外の背景領域VBG(複数の目標物体が存在する場合には、これらすべての目標物体以外の背景領域)を用いて背景の色分布モデルを算出する。前景の色分布モデルは、たとえば、その前景領域Vの濃度の相対頻度分布(すなわち濃度ヒストグラム)である前景画像の色ヒストグラムHfg(c)(cは、濃度階調値)として算出可能である。すなわち、モデル生成部13は、次式(8)に従って前景画像の色ヒストグラムHfg(c)を算出することができる。

Figure 0006632474
ここで、右辺の分母のM(V)は、前景領域Vに含まれる画素の総数である。右辺の分子は、カメラ画像全体について、画素座標(u,v)が前景領域Vに属し且つ画像濃度I(u,v)が濃度階調値cに一致する場合にのみ1を加算することを意味している。
一方、背景の色分布モデルは、たとえば、背景領域VBGの濃度の相対頻度分布(すなわち濃度ヒストグラム)である背景画像の色ヒストグラムHbg(c)として算出可能である。すなわち、モデル生成部13は、次式(9)に従って背景画像の色ヒストグラムHbg(c)を算出することができる。

Figure 0006632474
ここで、右辺の分母のM(VBG)は、背景領域VBGに含まれる画素の総数である。右辺の分子は、カメラ画像全体について、画素座標(u,v)が背景領域VBGに属し且つ画像濃度I(u,v)が濃度階調値cに一致する場合にのみ1を加算することを意味している。
カメラ確率マップ生成部11は、次式(10),(11)に従って、カメラ確率マップPMaを算出することができる。

Figure 0006632474

Figure 0006632474
ここで、cu,vは、座標(u,v)での濃度階調値cである。また、Imap fg(u,v)は、2次元画像空間において目標物体(すなわち前景)が現れる確からしさの分布を示す前景確率マップであり、Imap bg(u,v)は、2次元画像空間において背景が現れる確からしさの分布を示す背景確率マップである。カメラ確率マップPMaは、これら前景確率マップImap fg(u,v)と背景確率マップImap bg(u,v)との組で構成されている。
2回目以後のステップST11が実行される場合は、カメラ確率マップ生成部11は、 次式(12),(13)に従って、カメラ確率マップPMaを算出することができる。

Figure 0006632474

Figure 0006632474
上記したカメラ確率マップPMaの算出(ステップST11)後、物体検出部14は、カメラ確率マップPMa及びセンサ確率マップPMbを合成して得られる合成確率マップに基づいて、カメラ画像を、目標物体を表す前景領域とこれ以外の背景領域とに分離するセグメンテーションを実行する(ステップST12)。具体的には、物体検出部14は、グラフ理論に基づくグラフカット法を用いて、合成確率マップを有するデータ項と、隣接画素間の滑らかさを定める平滑化項とを含むエネルギー関数E(X)の値が最小化するようにセグメンテーションを実行する。グラフカット法によれば、エネルギー関数E(X)は、次式(14)で与えられる。

Figure 0006632474
ここで、右辺の第1項は、カメラ確率マップImap Xm(u,v)とセンサ確率マップSmap Xm(u,v)とが合成(すなわち線形加算)された合成確率マップを有するデータ項(data term)である。このデータ項では、Vは、サイト(画素)rを表す集合を意味する。Xmは、サイトrに割り当てられるべきラベル(前景fgまたは背景bgのいずれか)を意味する。
一方、式(14)の右辺の第2項は、互いに隣接するサイト(画素)r,q間の滑らかさを定める平滑項(smoothing term)である。この平滑項では、Eは、サイトq,r間の隣接関係を表す集合であり、(q,r)∈Eの場合は、2つのサイトq,rが隣接することを意味する。また、X1は、サイトqに割り当てられるべきラベル(前景fgまたは背景bgのいずれか)を意味し、X2は、サイトrに割り当てられるべきラベル(前景fgまたは背景bgのいずれか)を意味する。これは、グラフ理論では、Vを頂点の集合とし、Eを辺の集合とする無向グラフと考えることができる。hX1,X2(X1,X2)は、たとえば、次式(15)で定義可能である。

Figure 0006632474
ここで、X1=X2以外の場合(otherwise)の式(15)の右辺の分母dist(X1,X2)は、2つのサイト間の距離であり、(uX1,vX1)は一方のサイトの画像座標を、(uX2,vX2)は他方のサイトの画像座標をそれぞれ示す。平滑化項は、近傍のサイト(画素)に同じラベル(前景fgまたは背景bg)が割り当てられた場合に小さい値となるように定義されている。たとえば、図4Aに示されるように入力画像G0が与えられたとき、図4Bに示されるように、前景fgが割り当てられた画素Pfと背景bgが割り当てられた画素Pbとからなるラベル画像G1が生成される。ラベル画像G1の中央付近において白色の画素Pfで囲まれた黒色画素Pbは、周囲の画素のラベルとは異なるためにペナルティが加えられる。黒色画素Pfは同じラベルが付くように設定される。
物体検出部14は、グラフカット法に従い、エネルギー関数E(X)を最小化するように各サイトのラベルを決定する(大域最小化する)ことにより、カメラ画像を前景領域と背景領域とに分離(セグメント)することができる(ステップST12)。より具体的な分離方法としては、たとえば、下記の非特許文献1に開示されている方法を採用すればよい。
・非特許文献1:Y. Boykov and M-P. Jolly.: Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N-D Images, In ICCV2001, I:105-112, 2001.
なお、カラー画像に基づく色分布モデルを使用する場合には、色分布モデルとして混合正規分布(GMM:Gaussian Mixture Model)を採用すればよい。この場合のセグメンテーションとしては、たとえば、下記の非特許文献2に開示されている方法を使用すればよい。
・非特許文献2:C. Rother, V. Kolmogorov, and A. Blake.: “Grab-Cut”: Interactive Foreground Extraction Using Iterated Graph Cuts, ACM Transactions on Graphics (Proc. SIGGRAPH 2004), 23(3):309-314, 2004.
上記ステップST12の実行後は、ステップST10〜ST12の繰り返し回数(反復回数)が上限に到達していない場合(ステップST13のNO)、物体検出部14は、ステップST14に処理を移行させる。
ステップST14では、モデル生成部13は、ステップST12で得られた前景領域と背景領域とを用いて、色分布モデルを更新する。すなわち、モデル生成部13は、ステップST12で得られた前景領域と背景領域とを用いて、上式(8),(9)に従って色分布モデルHfg(c),Hbg(c)を新たに生成する。次の2回目以後のステップST11では、そして、カメラ確率マップ生成部11は、これら色分布モデルHfg(c),Hbg(c)を用いて、上式(12),(13)に従ってカメラ確率マップPMaを算出する。
このような繰り返し処理を行うことにより、前景の色分布モデルと背景の色分布モデルとの精度が向上し、前景と背景との分離精度が向上する。繰り返し回数の上限は、定数で指定されてもよいし、あるいは、グラフ理論を用いた目標物体検出結果による変化がしきい値以下となった場合を終了条件としてもよい。たとえば、図5Aのカメラ画像IMGが与えられたとき、グラフ理論を用いた大域最小化により、図5Bに例示されるように、ラベル画像IMGaには目標物体が白色(濃度値=255)で示され、背景が黒色(濃度値=0)で示される。
その後、繰り返し回数が上限に到達した場合(ステップST13のYES)、物体検出部14は、得られた前景領域で特定される目標物体に対する検出枠を生成する(ステップST15)。具体的には、物体検出部14は、たとえば、図5Cの白色の前景領域を内包するように白色の検出枠を生成すればよい。検出枠のための座標算出法として、検出枠の左上座標を(u、v)、右下座標を(u、v)とするとき、物体検出部14は、白色領域の最小座標を(u、v)に、その最大座標を(u、v)に設定することができる。
次に、物体検出部14は、全ての目標物体について処理が完了したか否かを判定する(ステップST16)。全ての目標物体について処理が完了していない場合(ステップST16のNO)、物体検出部14は、次の目標物体を指定してステップST10に処理を移行させる。一方、全ての目標物体について処理が完了した場合(ステップST16のYES)、以上の物体検出処理は終了する。
上記物体検出処理の完了後は、座標推定部15は、目標物体の前景領域と背景領域とを示す検出結果DTを用いて、空港面における各目標物体の位置座標を推定する。具体的には、座標推定部15は、当該検出結果DT及び撮像部3の内部パラメータを用いて、画像座標をENU座標に変換し、そのENU座標をECF座標に変換する。更に、座標推定部15は、そのECF座標をGEO座標に変換する。
たとえば、座標推定部15は、次式(16)に示すように2次元の画像座標[u,v]に基づいて3次元座標[vec ,vec ,vec を生成する。

Figure 0006632474
ここで、(C,C)は、撮像部3のカメラの内部パラメータのレンズ中心を示し、(f,f)は焦点距離を示す。
次に、座標推定部15は、3次元座標[vec ,vec ,vec をENU座標[X,Y,Zに変換する。具体的には、座標推定部15は、次式(17)に示されるように回転行列{Rij}を用いて、3次元座標[vec ,vec ,vec を座標変換する。

Figure 0006632474
次に、座標推定部15は、次式(18)に示されるような座標変換を実行してENF座標[X,Y,Zを生成する。

Figure 0006632474
ここで、たとえば、Z=0のとき、式(18)により、定数kは、−T/vec として算出される。
次に、座標推定部15は、次式(19)に示されるように、ENF座標[X,Y,ZをECF座標[X,Y,Zに変換する。

Figure 0006632474
ここで、行列TNFは、行列TFNに対する逆行列である。
そして、座標推定部15は、次式(20A)〜(20C)に従って、ECF座標[X,Y,ZをGEO座標[φ,Ω,h]に変換する。

Figure 0006632474

Figure 0006632474

Figure 0006632474
ここで、p,r,μは次式(21)のとおりである。

Figure 0006632474
出力部16は、座標推定部15による推定結果ETを用いて、たとえば、図2に示されるように検出枠Fmが描画された表示画像IMG1、あるいは、目標物体のシンボル26が描画された空港面の地図を示す表示画像IMG2を表示部21に表示させることができる。
上記した監視装置4のハードウェア構成は、たとえば、パーソナルコンピュータ、ワークステーションまたはメインフレームなどのCPU(Central Processing Unit)内蔵のコンピュータで実現可能である。あるいは、監視装置4のハードウェア構成は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)もしくはFPGA(Field−Programmable Gate Array)またはこれらの組み合わせなどのLSI(Large Scale Integrated circuit)により実現されてもよい。
図6Aは、監視装置4のハードウェア構成を実現する情報処理装置4Sの概略構成を示すブロック図である。図6Aに示されるように情報処理装置4Sは、CPU31cを含むプロセッサ31と、プロセッサ31によって作業用メモリとして使用されるRAM(Random Access Memory)32と、ソフトウェア及びファームウェアの一方または双方のコンピュータ・プログラムが格納される不揮発性メモリ33と、センサ誤差記憶部17に接続されるメモリインタフェース回路(メモリI/F回路)34と、空港面探知センサ2及び撮像部3から観測データを受信する入力インタフェース回路(入力I/F回路)35と、表示部21に接続される出力インタフェース回路(出力I/F回路)36とを備えて構成されている。プロセッサ31、RAM32、不揮発性メモリ33、メモリI/F回路34、入力I/F回路35及び出力I/F回路36は、バス回路などの信号路30を介して相互に接続されている。
プロセッサ31は、不揮発性メモリ33から、ソフトウェアもしくはファームウェアまたはこれらの組み合わせであるコンピュータ・プログラムを読み出して実行することにより、図1の座標変換部10、カメラ確率マップ生成部11、センサ確率マップ生成部12、モデル生成部13、物体検出部14、座標推定部15及び出力部16の機能を実現する。不揮発性メモリ33としては、たとえば、ROM(Read Only Memory)、フラッシュメモリ、磁気ディスクまたは光ディスクを使用することができるが、これらに限定されるものではない。プロセッサ31は、メモリI/F回路34を介してセンサ誤差記憶部17から誤差分布データを取得し、入力I/F回路35を介して空港面探知センサ2及び撮像部3から測位データGD及び撮像画像IMGを取得することができる。また、プロセッサ31は、出力I/F回路36を介して表示部21に表示データを供給することができる。
図6Bは、監視装置4の他のハードウェア構成を実現する情報処理装置4Hの概略構成を示すブロック図である。図6Bに示されるように情報処理装置4Hは、DSP、ASICまたはFPGAなどの処理回路41と、センサ誤差記憶部17に接続されるメモリインタフェース回路(メモリI/F回路)42と、空港面探知センサ2及び撮像部3から観測データを受信する入力インタフェース回路(入力I/F回路)43と、表示部21に接続される出力インタフェース回路(出力I/F回路)44とを備えて構成されている。処理回路41、メモリI/F回路42、入力I/F回路43及び出力I/F回路44は、バス回路などの信号路40を介して相互に接続されている。処理回路41は、図1の座標変換部10、カメラ確率マップ生成部11、センサ確率マップ生成部12、モデル生成部13、物体検出部14、座標推定部15及び出力部16の機能を実現する信号処理回路である。処理回路41は、メモリI/F回路42を介してセンサ誤差記憶部17から誤差分布データを取得し、入力I/F回路43を介して空港面探知センサ2及び撮像部3から測位データGD及び撮像画像IMGを取得することができる。また、処理回路41は、出力I/F回路44を介して表示部21に表示データを供給することができる。
以上に説明したように実施の形態1の監視装置4は、カメラ確率マップPMaとセンサ確率マップPMbとを合成して得られる合成確率マップを用いて、空港面に存在する物体の位置を高い精度で検出することができる。
実施の形態2.
次に、本発明に係る実施の形態2について説明する。図7は、本発明に係る実施の形態2の空港監視システム1Aの概略構成を示すブロック図である。
図7に示される空港監視システム1Aは、空港面探知センサ2、撮像部3、監視装置4A及び表示部21を備えて構成されている。監視装置4Aの構成は、図1のセンサ確率マップ生成部12に代えてセンサ確率マップ生成部12A、サイズ判別部18及びサイズ情報記憶部19を有する点を除いて、上記実施の形態1の監視装置4の構成と同じである。
サイズ判別部18は、空港面探知センサ2から供給された移動体情報BTに基づき、サイズ情報記憶部19を参照して当該目標物体の物理的なサイズを判別することができる。サイズ情報記憶部19には、各種物体と物理的なサイズとの対応関係を示すデータが記憶されている。センサ確率マップ生成部12Aは、当該判別されたサイズを用いてセンサ確率マップPMbの算出を行うことができる。
具体的には、センサ確率マップ生成部12Aは、上式(6),(7)に代えて次式(6A),(7A)に従って、前景確率マップSmap fg(u,v)と背景確率マップSmap bg(u,v)とを算出することができる。

Figure 0006632474

Figure 0006632474
上式(6A)は、画像座標[u,vから遠くなるほど値が低くなり、且つサイズの長さLを半径とした領域以外の領域に目標物体が存在しないと仮定するものである。なお、航空機などの目標物体の移動方向を推定し、当該目標物体の向きを推定することで、ECF座標系で楕円体の確率分布を生成し、その確率分布を画像座標系に投影する方法を採用してもよい。
センサ確率マップ生成部12Aの機能は、当該判別されたサイズを用いてセンサ確率マップPMbの算出を行う点以外は、上記センサ確率マップ生成部12の機能と同じである。
以上に説明したように実施の形態2の監視装置4Aは、目標物体を絞り込むことが可能となり、検出枠の算出精度を向上させることができる。
実施の形態3.
次に、本発明に係る実施の形態3について説明する。図8は、本発明に係る実施の形態3の空港監視システム1Bの概略構成を示すブロック図である。図8に示される空港監視システム1Bは、空港面探知センサ2、撮像部3、監視装置4B及び表示部21を備えて構成されている。監視装置4Bの構成は、図1のモデル生成部13に代えて、モデル生成部13B及び色ヒストグラム抽出部20を有する点を除いて、上記実施の形態1の監視装置4の構成と同じである。
モデル生成部13Bは、空港面探知センサ2から供給された移動体情報BTを色ヒストグラム抽出部20に与える。色ヒストグラム抽出部20は、移動体情報BTに基づき、当該目標物体の既知の色分布モデルを供給することができる。モデル生成部13Bは、その既知の色分布モデルをカメラ確率マップ生成部11に供給することが可能である。よって、カメラ確率マップ生成部11は、当該既知の色分布モデルを初期の色分布モデルとして用いて前記カメラ確率マップPMaの算出を行うことができる。
以上に説明したように実施の形態3の監視装置4Bは、機種などの目標物体の種類に合わせた色分布モデルを最初から使用することができる。よって、目標物体を絞り込むことが容易となり、検出枠の算出精度が向上する。
以上、図面を参照して本発明に係る種々の実施の形態について述べたが、これら実施の形態は本発明の例示であり、これら実施の形態以外の様々な形態を採用することもできる。なお、本発明の範囲内において、上記実施の形態1〜3の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
1,1A,1B 空港監視システム、2 空港面探知センサ、3 撮像部、4,4A,4B 監視装置、4S,4H 情報処理装置、10 座標変換部、11 カメラ確率マップ生成部、12,12A センサ確率マップ生成部、13 モデル生成部、14 物体検出部、15 座標推定部、16 出力部、17 センサ誤差記憶部、18 サイズ判別部、19 サイズ情報記憶部、20 色ヒストグラム抽出部、21 表示部、30 信号路、31 プロセッサ、31c CPU、32 RAM、33 不揮発性メモリ、34 メモリI/F回路、35 入力I/F回路、36 出力I/F回路、40 信号路、41 処理回路、42 メモリI/F回路、43 入力I/F回路、44 出力I/F回路。

Claims (12)

  1. 空港面に存在する目標物体の測位座標を検出する空港面探知センサと、前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部とを用いて前記目標物体を監視する監視装置であって、
    前記測位座標を2次元の画像座標に変換する座標変換部と、
    前記空港面探知センサによる測位位置の空間的な誤差分布を示す誤差分布データを取得し、当該誤差分布データ及び前記画像座標に基づき、2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップの算出を行うセンサ確率マップ生成部と、
    前記カメラ画像に基づき、前記2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップの算出を行うカメラ確率マップ生成部と、
    前記センサ確率マップ及び前記カメラ確率マップを合成して得られる合成確率マップに基づき、前記カメラ画像を、前記目標物体を表す前景領域と背景領域とに分離するセグメンテーションを実行する物体検出部と
    を備えることを特徴とする監視装置。
  2. 請求項1記載の監視装置であって、前記物体検出部は、グラフカット法を用いて、前記合成確率マップを有するデータ項と隣接画素間の滑らかさを定める平滑化項とを含むエネルギー関数の値が最小化するように前記セグメンテーションを実行することを特徴とする監視装置。
  3. 請求項1または請求項2記載の監視装置であって、
    前記センサ確率マップは、前記2次元画像空間において前記目標物体が現れる確からしさの分布を示す第1の前景確率マップと、前記2次元画像空間において前記背景が現れる確からしさの分布を示す第1の背景確率マップとを含み、
    前記カメラ確率マップは、前記2次元画像空間において前記目標物体が現れる確からしさの分布を示す第2の前景確率マップと、前記2次元画像空間において前記背景が現れる確からしさの分布を示す第2の背景確率マップとを含む、
    ことを特徴とする監視装置。
  4. 請求項1から請求項3のうちのいずれか1項記載の監視装置であって、前記物体検出部により得られた当該前景領域に基づいて前記カメラ画像における前記目標物体を表す前景の色分布モデルの算出を行うとともに、前記物体検出部により得られた当該背景領域に基づいて前記カメラ画像における前記背景の色分布モデルの算出を行うモデル生成部を更に備え、
    前記カメラ確率マップ生成部は、前記前景の色分布モデル及び前記背景の色分布モデルを用いて前記カメラ確率マップの算出を行うことを特徴とする監視装置。
  5. 請求項4記載の監視装置であって、前記モデル生成部、前記カメラ確率マップ生成部及び前記物体検出部は、前記前景の色分布モデルの算出、前記背景の色分布モデルの算出、前記カメラ確率マップの算出及び前記セグメンテーションを反復して実行することを特徴とする監視装置。
  6. 請求項1から請求項5のうちのいずれか1項記載の監視装置であって、前記誤差分布データが予め記憶されているセンサ誤差記憶部を更に備え、
    前記センサ確率マップ生成部は、前記センサ誤差記憶部から前記誤差分布データを取得することを特徴とする監視装置。
  7. 請求項1から請求項6のうちのいずれか1項記載の監視装置であって、
    前記物体検出部により得られた当該前景領域の画像座標に基づいて、前記空港面における前記目標物体の位置座標を推定する座標推定部と、
    当該推定された位置座標を表す画像情報を表示部に表示させる出力部と
    を更に備えることを特徴とする監視装置。
  8. 請求項1から請求項7のうちのいずれか1項記載の監視装置であって、前記目標物体の物理的なサイズを判別するサイズ判別部を更に備え、
    前記センサ確率マップ生成部は、当該判別されたサイズを用いて前記センサ確率マップの算出を行うことを特徴とする監視装置。
  9. 請求項4または請求項5記載の監視装置であって、前記目標物体の既知の色分布モデルを供給する色ヒストグラム抽出部を更に備え、
    前記カメラ確率マップ生成部は、当該既知の色分布モデルを用いて前記カメラ確率マップの算出を行うことを特徴とする監視装置。
  10. 請求項1から請求項9のうちのいずれか1項記載の監視装置であって、前記空港面探知センサは、前記目標物体からの反射レーダ波を受信し、当該受信結果に基づいて前記測位座標を算出するレーダ装置を含むことを特徴とする監視装置。
  11. 空港面に存在する目標物体の測位座標を検出する空港面探知センサと、
    前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部と
    請求項1から請求項10のうちのいずれか1項記載の監視装置と
    を備えることを特徴とする空港監視システム。
  12. 空港面に存在する目標物体の測位座標を検出する空港面探知センサと、前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部とを用いて前記目標物体を監視する監視装置において実行される監視方法であって、
    前記測位座標を2次元の画像座標に変換するステップと、
    前記空港面探知センサによる測位位置の空間的な誤差分布を示す誤差分布データを取得するステップと、
    当該誤差分布データ及び前記画像座標に基づき、2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップの算出を行うステップと、
    前記カメラ画像に基づき、前記2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップの算出を行うステップと、
    前記センサ確率マップ及び前記カメラ確率マップを合成して得られる合成確率マップに基づき、前記カメラ画像を、前記目標物体を表す前景領域と背景領域とに分離するセグメンテーションを実行するステップと
    を備えることを特徴とする監視方法。
JP2016112790A 2016-06-06 2016-06-06 監視装置、監視方法及び空港監視システム Active JP6632474B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112790A JP6632474B2 (ja) 2016-06-06 2016-06-06 監視装置、監視方法及び空港監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112790A JP6632474B2 (ja) 2016-06-06 2016-06-06 監視装置、監視方法及び空港監視システム

Publications (2)

Publication Number Publication Date
JP2017219377A JP2017219377A (ja) 2017-12-14
JP6632474B2 true JP6632474B2 (ja) 2020-01-22

Family

ID=60657040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112790A Active JP6632474B2 (ja) 2016-06-06 2016-06-06 監視装置、監視方法及び空港監視システム

Country Status (1)

Country Link
JP (1) JP6632474B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6447706B1 (ja) * 2017-12-20 2019-01-09 オムロン株式会社 校正用データ生成装置、校正用データ生成方法、キャリブレーションシステム、及び制御プログラム
JP6511560B1 (ja) * 2018-03-15 2019-05-15 東芝電波プロダクツ株式会社 精測進入レーダ及び表示システム
CN108508425B (zh) * 2018-03-26 2020-08-04 微瞳科技(深圳)有限公司 雷达近地背景噪声下基于邻域特征的前景目标检测方法
CN109324505A (zh) * 2018-06-22 2019-02-12 中国人民解放军海军航空大学青岛校区 一种基于机器学习的协同探测控制方法
CN111028287B (zh) * 2018-10-09 2023-10-20 杭州海康威视数字技术股份有限公司 确定雷达坐标和摄像机坐标的转换矩阵的方法和装置
CN110082756A (zh) * 2019-05-11 2019-08-02 王志东 基于本底做概率识别的区域智能监控系统及其识别方法
JP2020198024A (ja) * 2019-06-05 2020-12-10 日本無線株式会社 遠隔管制システムおよび遠隔管制方法
CN111145599B (zh) * 2019-12-17 2021-01-12 中国民用航空总局第二研究所 一种曲线飞行航段及误差分布确立方法
CN111563428B (zh) * 2020-04-23 2023-10-17 杭州云视通互联网科技有限公司 一种机场停机位入侵检测方法及其系统
KR102353336B1 (ko) * 2021-05-06 2022-01-20 (주)공간인소프트 인공 지능 모델을 이용하여 항만 구조물을 인식할 수 있는 전자 장치 및 전자 장치의 제어 방법
CN114360296B (zh) * 2021-12-15 2024-04-09 中国飞行试验研究院 基于地基光电设备的全自动飞机进近降落过程监视方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2973302B2 (ja) * 1997-11-27 1999-11-08 日本電気株式会社 空港面監視装置
JP2002048860A (ja) * 2000-07-31 2002-02-15 Mitsubishi Electric Corp 移動体追尾装置及び方法
JP2004163218A (ja) * 2002-11-12 2004-06-10 Toshiba Corp 空港監視システム
US7804981B2 (en) * 2005-01-13 2010-09-28 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
JP5950296B2 (ja) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム

Also Published As

Publication number Publication date
JP2017219377A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6632474B2 (ja) 監視装置、監視方法及び空港監視システム
CA3028653C (en) Methods and systems for color point cloud generation
WO2022083402A1 (zh) 障碍物检测方法、装置、计算机设备和存储介质
CN108692719B (zh) 物体检测装置
EP3112802A1 (en) Road feature measurement apparatus and road feature measuring method
JP2015201183A (ja) 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出
WO2020140164A1 (en) Systems and methods for updating a high-definition map
US11841421B2 (en) Synthetic aperture radar image analysis system, synthetic aperture radar image analysis method, and synthetic aperture radar image analysis program
WO2022067647A1 (zh) 一种路面要素确定方法及装置
CN111815707A (zh) 点云确定方法、点云筛选方法、装置、计算机设备
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
KR102221817B1 (ko) 위치정보를 제공하는 단말기, 위치정보 측정 방법 및 시스템
EP3324359B1 (en) Image processing device and image processing method
CN114692720B (zh) 基于鸟瞰图的图像分类方法、装置、设备及存储介质
JP4568845B2 (ja) 変化領域認識装置
CN111553342B (zh) 一种视觉定位方法、装置、计算机设备和存储介质
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
JP2014099055A (ja) 検出装置、検出方法、及びプログラム
WO2020113425A1 (en) Systems and methods for constructing high-definition map
WO2022083529A1 (zh) 一种数据处理方法及装置
CN110660113A (zh) 特征地图的建立方法、装置、采集设备和存储介质
CN114051627A (zh) 相机校准方法
AU2018102199A4 (en) Methods and systems for color point cloud generation
CN113608234A (zh) 一种城市数据采集系统
JP6546898B2 (ja) 3次元空間特定装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R150 Certificate of patent or registration of utility model

Ref document number: 6632474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250