JP2012008021A - Monitoring device, method and program, and monitoring system - Google Patents
Monitoring device, method and program, and monitoring system Download PDFInfo
- Publication number
- JP2012008021A JP2012008021A JP2010144565A JP2010144565A JP2012008021A JP 2012008021 A JP2012008021 A JP 2012008021A JP 2010144565 A JP2010144565 A JP 2010144565A JP 2010144565 A JP2010144565 A JP 2010144565A JP 2012008021 A JP2012008021 A JP 2012008021A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- echo
- background
- rain
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、鳥類等の移動体を監視する監視装置、方法及びプログラム並びに監視システムに関する。 The present invention relates to a monitoring apparatus, method and program for monitoring a moving body such as a bird, and a monitoring system.
飛行場や風力発電設備等では鳥類の衝突が大きな問題となっており、このため、接近する鳥類等を監視する監視システムが必要とされる。 Bird collisions have become a major problem at airfields and wind power generation facilities. For this reason, a monitoring system for monitoring approaching birds is required.
例えば、特許文献1には、空港監視レーダ、気象観測用レーダ、航空機追跡(追尾)レーダ、海洋監視レーダなどを使い、鳥類を観測することが記載され、更には、夜間に飛翔する鳥類を暗視手段で暗視しつつ、鳥類の発する音を集音手段で集音し、暗視手段30の暗視方向と集音手段の集音方向を鳥類の移動に合わせて調節し、その調節位置を保持することで、鳥類の位置を容易に且つ高精度に取得する鳥類観測装置及び鳥類観測方法が記載されている。
For example,
また、特許文献2には、ミリ波レーダを上空に向け、このミリ波レーダで取得された距離情報と受信信号の強度情報に基づいて、目標体がヘリコプタであるか鳥であるかを識別することが記載されている。反射波の受信強度により、鳥のような小さな物体か、ヘリコプタや小型飛行機のような小型飛行体を区別する。 Further, in Patent Document 2, a millimeter wave radar is turned upward, and whether a target body is a helicopter or a bird is identified based on distance information acquired by the millimeter wave radar and intensity information of a received signal. It is described. A small object such as a bird or a small flying object such as a helicopter or a small airplane is distinguished based on the reception intensity of the reflected wave.
レーダを用いる従来の監視システムでは、レーダ計測画面を監視員が注視し、鳥類らしきものとその接近を目視観察するものであり、接近する鳥類の接近の程度を精度良く検出することができず、従って、接近する鳥類に向け適したタイミングで警告することが難しかった。また、従来の技術では、広範囲を一括監視することが難しかった。 In a conventional monitoring system using a radar, an observer looks at a radar measurement screen and visually observes what seems to be a bird and its approach, and cannot accurately detect the degree of approach of an approaching bird, Therefore, it is difficult to warn at an appropriate timing for approaching birds. Also, with the conventional technology, it has been difficult to collectively monitor a wide area.
鳥類以外にも、集団化した昆虫の接近を監視したいとする要望もあるし、無線操縦飛行機、小型飛行機等の飛行体の接近を監視する必要のある分野もある。 In addition to birds, there is a desire to monitor the approach of grouped insects, and there are fields where it is necessary to monitor the approach of flying objects such as radio-controlled airplanes and small airplanes.
本発明は、所定のエリアに接近する鳥類等の移動体を広範囲で効率的に監視できる監視装置、方法及びプログラム並びに監視システムを提示することを目的とする。 An object of the present invention is to provide a monitoring device, method and program, and a monitoring system capable of efficiently and efficiently monitoring a moving object such as birds approaching a predetermined area.
本発明に係る監視装置は、所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従い移動体を監視する監視装置であって、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段とを具備することを特徴とする。 A monitoring apparatus according to the present invention is radar image data obtained by scanning a predetermined angle range, and monitors a moving body according to radar image data of a plurality of scenes sequentially supplied over time. A background generation unit that generates background image data by combining the radar image data of a predetermined number of scenes, and subtracts the background image data from each radar image data supplied after the background image data is generated. Background removing means for removing, binarizing means for binarizing the radar image data from which the background has been removed by the background removing means, and generating binarized echo image data including an echo image of the moving object, and the binarization Center determining means for determining an echo center indicating the center of the echo image of each moving body included in the echo image data, and an echo determined by the center determining means According to the rain / snow removal means for removing the echo center indicating either rain or snow in the mind and the rain / snow removal result by the rain / snow removal means for a predetermined number of radar image data of three or more continuous in time. And a tracking means for tracking the mobile body, and a warning means for outputting a warning when the mobile body enters a predetermined area as a result of tracking by the tracking means.
本発明に係る監視方法は、所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従いコンピュータに移動体を監視させる監視方法であって、当該コンピュータが、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成ステップと、当該コンピュータが、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去ステップと、当該コンピュータが、当該背景除去ステップで背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化ステップと、当該コンピュータが、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定ステップと、当該コンピュータが、当該中心決定ステップにより決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去ステップと、当該コンピュータが、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去ステップによる雨雪の除去結果に従い、当該移動体を追跡する追跡ステップと、当該コンピュータが、当該追跡ステップによる追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告ステップとを具備することを特徴とする。 The monitoring method according to the present invention is radar image data obtained by scanning a predetermined angle range, and allows a computer to monitor a moving body in accordance with radar image data of a plurality of scenes sequentially supplied over time. A background generation step in which the computer generates background image data by combining the radar image data of a predetermined number of scenes, and the computer generates the background image data from each radar image data supplied after the background image data is generated. A background removal step for removing the background by subtracting the background image data, and the computer binarizes the radar image data from which the background has been removed in the background removal step, and includes a binarized echo image including an echo image of the moving object A binarization step for generating data and the computer are included in the binarized echo image data. A center determining step for determining an echo center indicating the center of the echo image of each mobile object, and the computer removing an echo center indicating either rain or snow among the echo centers determined by the center determining step. A rain and snow removal step, a tracking step in which the computer tracks the mobile body according to a result of rain and snow removal by the rain and snow removal step with respect to a predetermined number of radar image data of three or more continuous in time, The computer includes a warning step of outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking step.
本発明に係る監視プログラムは、所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従いコンピュータに移動体を監視させる監視プログラムであって、当該コンピュータに、所定シーン数の当該レーダ画像データを合成して背景画像データを生成させる背景生成機能と、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去させる背景除去機能と、当該背景除去機能で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成させる2値化機能と、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定させる中心決定機能と、当該中心決定機能により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去させる雨雪除去機能と、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去機能による雨雪の除去結果に従い、当該移動体を追跡させる追跡機能と、当該追跡機能による追跡の結果、当該移動体が所定領域に入る場合に警告を出力させる警告機能とを実現させることを特徴とする。 The monitoring program according to the present invention is radar image data obtained by scanning a predetermined angle range, and causes a computer to monitor a moving body according to radar image data of a plurality of scenes sequentially supplied over time. A background generation function for causing the computer to synthesize the radar image data of a predetermined number of scenes to generate background image data, and the background image data from each radar image data supplied after the generation of the background image data. A background removal function for removing the background by subtraction, and a binarization function for binarizing the radar image data from which the background has been removed by the background removal function and generating binary echo image data including an echo image of the moving object And determining an echo center indicating the center of the echo image of each mobile object included in the binary echo image data. A center determination function, a rain / snow removal function that removes an echo center indicating either rain or snow from the echo center determined by the center determination function, and a predetermined number of three or more radar images continuous in time A tracking function for tracking the mobile object according to the rain / snow removal result for the data, and a warning function for outputting a warning when the mobile object enters a predetermined area as a result of tracking by the tracking function; It is characterized by realizing.
本発明に係る監視システムは、所定角度範囲を繰り返し走査し、当該所定角度範囲のレーダ画像データを順次、生成し出力するレーダ装置と、当該レーダ装置からの複数シーンの当該レーダ画像データに従い、当該所定角度範囲に存在する移動体を監視する監視装置とからなる監視システムであって、当該監視装置が、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段とを具備することを特徴とする。 The monitoring system according to the present invention repeatedly scans a predetermined angle range, sequentially generates and outputs radar image data of the predetermined angle range, and according to the radar image data of a plurality of scenes from the radar device, A monitoring system comprising a monitoring device that monitors a moving body existing in a predetermined angle range, wherein the monitoring device synthesizes a predetermined number of scenes of the radar image data to generate background image data; and A background removing unit that removes the background by subtracting the background image data from each radar image data supplied after the generation of the background image data, and binarizing the radar image data from which the background is removed by the background removing unit, Binarization means for generating binarized echo image data including an echo image of the moving body, and each of the binarized echo image data included in the binarized echo image data Center determining means for determining an echo center indicating the center of an echo image of a moving object; and rain / snow removing means for removing an echo center indicating either rain or snow among echo centers determined by the center determining means; According to the rain / snow removal result by the rain / snow removal means for a predetermined number of radar image data of three or more continuous in time, the tracking means for tracking the mobile body, and the tracking result by the tracking means Warning means for outputting a warning when entering a predetermined area is provided.
本発明によれば、レーダ画像データから鳥などに移動体を効果的に追跡し、所定領域への侵入を精度良く検知できる。 According to the present invention, it is possible to effectively track a moving body such as a bird from radar image data, and to accurately detect entry into a predetermined area.
以下、図面を参照して、本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施例の概略構成ブロック図を示す。レーダ装置10は、アンテナ部12をモータ14により水平面内で360度にわたり一定速度(例えば、2.5秒に1回転)で回転させながら、水平方向に電波パルスビームを放射し、その反射波を検出する。なお、本実施例では、地上面反射(グランドクラッタ)を低減するため、電波を放射するスロットアンテナを若干、上向きにしている。
FIG. 1 shows a schematic block diagram of an embodiment of the present invention. The radar apparatus 10 emits a radio wave pulse beam in the horizontal direction while rotating the
アンテナ部12から放射されるビームの水平幅が、方位分解能を決定し、垂直幅が高度分解能を決定する。パルス幅が距離分解能を決定する。基本的に狭ビームであるほど、分解能が高くなる。方位分解能は、等距離に位置するが方位角度がわずかに異なる2つの目標物を区別できる最小の方位角度である。距離分解能は、同一方位上の異なる距離に位置する2つの目標物を区別できる、当該2つの目標物間の最短距離であり、パルス幅が狭い程、距離分解能が高くなる。高度分解能は、垂直ビーム角度の正弦値に距離を乗算した値となる。
The horizontal width of the beam radiated from the
ロータリエンコーダ16はアンテナ部12の回転角度位置を検出し、所定角度間隔のパルス信号を出力する。ロータリエンコーダ16はまた、事前に、アンテナ部12が基準方位(例えば、北)を向いている時点でトリガー信号を出力するように調整さる。
The
画像化回路18は、ロータリエンコーダ16からのパルス信号及びトリガー信号に従い、アンテナ部12による受信反射波の強度分布を示すグレースケールの画像データ(レーダ画像データ)を生成する。生成されるレーダ画像データは、アンテナ部12を中心として一定距離範囲の円形の画像データ、又は、そのような円形の画像データを水平方向と垂直方向に走査した、ビデオ信号に準拠した画像データとなる。前者の画像データの各画素は、距離方向と方位角方向の極座標系で特定され、後者の画像データは水平方向と垂直方向の直交座標系で特定される。レーダ画像の場合、レーダ装置10から遠く離れるほど、放射ビームが水平及び垂直方向に拡散することから、1画素の代表する地理的な範囲が広くなる。
The
アンテナ部12の1回転毎に画像化回路18により生成される各画像データは、ロータリエンコーダ16からのトリガー信号により、風等によるアンテナ部12の回転ムラを解消された、一定方位(基準方向)に向いたものとなる。画像化回路18はまた、生成したレーダ画像データを、トリガー信号に同期してコンピュータ30に出力する。アンテナ部12が基準方向から1回転して得られるレーダ画像データを1シーンの画像データとする。
Each image data generated by the
コンピュータ30は、レーダ装置10からのレーダ画像データを使って、監視対象の鳥が所定の管理領域に入るか否かを監視する監視装置として機能する。コンピュータ30は、コンピュータの一般的構成と同様、CPU32、種々の指示を入力するキーボード34及びマウス36、CPU32の演算ワーク領域となるメモリ38、並びに、種々の画像及びテキスト等を表示する表示装置40を具備する。CPU32は、後述する監視プログラムにより種々の機能32a〜32hを実現する。
The
レーダ装置10により観測されたレーダ画像データ及びこれを処理した画像データを観測用にシーン単位で記憶する手段として、コンピュータ30は、4シーン分のデータを記憶可能なデータメモリ42を具備する。データメモリ42は、一連の互いに異なる時刻tc,tc−T,tc−2T,tc−3Tにおけるレーダ画像データを処理して得られる1シーンの画像データがそれぞれ格納されるシーンメモリ42−1,42−2,42−3,42−4を具備する。tcは現在時刻であり、Tは、アンテナ部12が1回転するのに要する時間である。実際には、メモリ38の記憶領域をデータメモリ42として利用するが、本実施例の理解を容易にするために、メモリ38とは別の手段としてデータメモリ42(シーンメモリ42−1,42−2,42−3,42−4)を図示した。
As a means for storing radar image data observed by the radar apparatus 10 and image data obtained by processing the radar image data for each scene for observation, the
ハードディスク装置(HDD)50には、CPU32で動作する監視プログラムと、観測データ及び結果が格納される。更に、コンピュータ30は、レーダ装置10により観測されるレーダ画像データを取り込むデータ取り込み装置52を具備する。データ取り込み装置52は、レーダ装置10のロータリエンコーダ16からのトリガー信号に従い、画像化回路18からのレーダ画像データを取り込み、メモリ38に格納する。
A hard disk device (HDD) 50 stores a monitoring program that operates on the
図2乃至図6は、コンピュータ30で動作する監視プログラムの動作フローチャートを示す。図2は、メインルーチンの動作フローチャートを示す。
2 to 6 show operation flowcharts of the monitoring program operating on the
監視プログラムが起動されると、オペレータに表示装置40の画面上の表示スケールを入力させ(S1)、管理領域設定機能32aが、オペレータによるキーボード34及びマウス36の操作に従い、1又は複数の監視領域及びマスク領域を設定する(S2、S3)。監視領域は鳥類の接近を監視する領域であり、マスク領域はそのような監視が不要な領域であり、何れも複数設定可能である。監視領域及びマスク領域は、円形、楕円形又は矩形として設定できる。
When the monitoring program is started, the operator inputs a display scale on the screen of the display device 40 (S1), and the management
オペレータは、警報の条件(羽数及び増加率等)を指定し、雨雪除去の閾値等を指定した上で、計測の実行を指示し、監視プログラムは、オペレータのこの指示に従い計測を開始する(S4)。 The operator designates alarm conditions (number of wings, rate of increase, etc.), designates a rain / snow removal threshold, etc., and then instructs the execution of the measurement. The monitoring program starts the measurement according to this instruction from the operator. (S4).
図3は、図2のステップS4の計測処理における鳥認識・追跡処理の動作フローチャートを示す。コンピュータ30は、レーダ装置10からのレーダ画像データを、オペレータが指定したシーン数だけ取り込み、背景生成機能32bを使ってこれらを合成させて背景画像とし、背景画像の画像データをメモリ38に格納する(S11)。例えば、背景生成機能32bは、全シーンのレーダ画像データから、ピクセル毎に最小輝度、最大輝度及び平均輝度を算出する。そして、ピクセル単位で、最小輝度と平均輝度の差(α)が平均輝度と最大輝度の差(β)以上の場合には、最大輝度を背景輝度とし、それ以外では、平均輝度+αを背景輝度とする。気温や湿度、浮遊する埃等の影響を受けやすいレーダ画像に対しても、このような方法で背景輝度をピクセル単位で決定することにより、精度良く背景画像を決定できる。ただし、全シーンのレーダ画像データを単純に加算し平均化してもよい。背景画像は静物のみからなり、後述するように、鳥を含むレーダ画像データから背景画像データを減算することで、鳥、雨、雪、その他の移動体の各エコーを抽出できる。
FIG. 3 shows an operation flowchart of the bird recognition / tracking process in the measurement process of step S4 of FIG. The
次に、オンライン計測の前処理を実行する(S12)。鳥を追跡するために、本実施例では、直前の3つのシーンの画像を利用するので、前処理として、これらのシーンのレーダ画像データを取り込み、追跡のための処理を施し、逐次、シーンメモリ42−1,42−2,42−3に格納する。 Next, online measurement preprocessing is executed (S12). In this embodiment, the images of the immediately preceding three scenes are used to track the birds. Therefore, as preprocessing, radar image data of these scenes is captured, and processing for tracking is performed, and the scene memory is sequentially recorded. Stored in 42-1, 42-2, and 42-3.
前処理(S12)の詳細を、図4を参照して説明する。図4は、前処理(S12)の詳細なフローチャートを示す。 Details of the preprocessing (S12) will be described with reference to FIG. FIG. 4 shows a detailed flowchart of the preprocessing (S12).
ループ変数nに1を代入する(S21)。レーダ装置10から1シーンのレーダ画像データを取り込み、メモリ38に一時格納する(S22)。メモリ38に格納したレーダ画像データがコマ落ちしているような不完全なものの場合(S23)、再度、レーダ装置10から1シーンのレーダ画像データを取り込み、メモリ38に一時格納する(S22)。データ取り込み装置52が、レーダ装置10からのレーダ画像データを逐次取り込んで、メモリ38に格納している場合には、ステップS22、S23は、メモリ38にレーダ画像データが格納済みかどうかを確認する処理に変更される。
1 is substituted into the loop variable n (S21). One scene of radar image data is taken from the radar apparatus 10 and temporarily stored in the memory 38 (S22). When the radar image data stored in the
メモリ38に格納したレーダ画像データがコマ落ちしていない場合(S23)、背景除去機能32cが、そのレーダ画像データからステップS11で取得した背景画像データを減算して、背景画像を除去する(S24)。背景画像を除去したレーダ画像データは、鳥エコーを含む移動体エコーを主として含むエコー画像データとなる。
When the radar image data stored in the
2値化機能32dが、背景画像を除去したエコー画像データを所定閾値で2値化し、必要によりノイズを除去する(S25)。レーダ装置10による計測の場合、先に説明したように、遠くにいる移動体ほど、その移動体からの反射波強度は小さくなるので、一般的には、2値化閾値は、遠距離ほど小さくするのが望ましい。ただし、本実施例の目的が、接近する鳥を検知することであり、そのような鳥を見逃さない程度の、距離に関わらず一定の2値化閾値を採用する。 The binarization function 32d binarizes the echo image data from which the background image has been removed with a predetermined threshold, and removes noise if necessary (S25). In the case of measurement by the radar apparatus 10, as described above, the farther away moving body has a smaller reflected wave intensity from the moving body. Therefore, in general, the binarization threshold is smaller as the distance is longer. It is desirable to do. However, the purpose of the present embodiment is to detect an approaching bird, and a constant binarization threshold is adopted regardless of the distance so as not to miss such a bird.
2値化機能32dによる得られる2値化エコー画像データの各画素は、本実施例では、鳥を含む移動体に対して2進値”1”、それ以外に対して2進値”0”となる。移動体の大きさを反映し、隣接する複数の画素の画素値が”1”となる。 In this embodiment, each pixel of the binarized echo image data obtained by the binarization function 32d has a binary value “1” for a moving object including a bird, and a binary value “0” for the rest. It becomes. Reflecting the size of the moving body, the pixel values of a plurality of adjacent pixels are “1”.
2値化機能32dは、2値化の後に、目標とする鳥のサイズよりも十分に小さなサイズをカバーするエコーと、目標とする鳥のサイズよりも十分に大きなサイズをカバーするエコーを、ノイズとして削除する。レーダ装置10から遠距離にある物体ほど、大きなサイズで表現されることになるので、ノイズ判定閾値も、遠距離になるほど、大きなサイズとする。画像データが極座標で表現されている場合、画素数で表現されるノイズ判定閾値は、小さいノイズに対するものも、大きなノイズに対するものも、遠距離ほど少ない画素数となる。他方、直交座標系で表現される場合、画素数で表現されるノイズ判定閾値は、小さいノイズに対するものも、大きなノイズに対するものも、距離に関わらず、一定で良い。 After binarization, the binarization function 32d generates an echo that covers a size sufficiently smaller than the target bird size and an echo that covers a size sufficiently larger than the target bird size. Remove as. Since an object farther away from the radar apparatus 10 is expressed in a larger size, the noise determination threshold is also larger as the distance is longer. When the image data is expressed in polar coordinates, the noise determination threshold expressed by the number of pixels is smaller for both a small noise and a large noise as the distance increases. On the other hand, when expressed in an orthogonal coordinate system, the noise determination threshold expressed by the number of pixels may be constant regardless of the distance, whether for small noise or for large noise.
中心決定機能32eが、ノイズ除去機能32dによりノイズを除去された2値化エコー画像データの、各エコーの中心を決定する(S26)。具体的には、画素値が”1”の互いに隣接する画素が1つの移動体のエコーを表現しており、これらの一群の画素の重心となる画素をエコー中心として特定する。簡易的には、水平方向と垂直方向の中心を採用すればよい。
The
雨雪除去機能32fが、雨と雪のエコーを除去する(S27)。降雨又は降雪がある地域では、ステップS24〜S26の処理後であっても、エコーとして出現するが、降雨又は降雪は、小さなエコーがある程度以上の空間密度で密集した状態で表現されることから、本実施例では、一定の検査半径内に一定サイズ以上のエコーが一定数以上存在する場合に、それらを降雨又は降雪と判定する。より具体的に説明すると、中心決定機能32eで決定された各エコー中心を順に注目し、注目しているエコー中心から所定の検査半径内に一定サイズ以上の他のエコーのエコー中心が存在するかどうかを調べる。検査半径は、実際の降雨又は降雪の観測状況から決定される。検査半径内に一定数以上の他のエコー中心が存在する場合、注目するエコー中心と、検査半径内で発見された他のエコー中心の全てに削除マークを付ける。エコー画像中の全部のエコー中心に対してこの処理を終了したら、削除マークを付加したエコー中心とそのエコーを、2値エコー画像データから削除する。
The rain / snow removal function 32f removes rain and snow echoes (S27). In an area where there is rainfall or snowfall, it appears as an echo even after the processing of steps S24 to S26, but since rain or snowfall is expressed in a state where small echoes are densely packed with a spatial density of a certain level or more, In this embodiment, when a certain number or more of echoes having a certain size or more exist within a certain inspection radius, they are determined to be raining or snowing. More specifically, paying attention to each echo center determined by the
ステップS24〜S27の処理を終えて得られた2値エコー画像データは、監視対象であるサイズの移動体の所在を示すものであり、移動体の多くは監視対象である鳥を示す。 The binary echo image data obtained after finishing the processes of steps S24 to S27 indicates the location of a moving object having a size to be monitored, and many of the moving objects indicate birds to be monitored.
CPU32で動作する監視プログラムは、ステップS24〜S27の処理を終えて得られた2値エコー画像データとエコー中心データを、n=1の場合にはシーンメモリ42−4に、n=2の場合にはシーンメモリ42−3に、n−3の場合には、シーンメモリ42−2にそれぞれ格納する(S28)。
The monitoring program operating on the
nをインクリメントし(S30)、nが3を越えるまで(S31)、ステップS22以降を繰り返す。nが3を越えると(S31)、必要な3シンーンの観測データが得られたので、前処理(S12)を終了する。 n is incremented (S30), and step S22 and subsequent steps are repeated until n exceeds 3 (S31). When n exceeds 3 (S31), necessary observation data for 3 scenes is obtained, so the preprocessing (S12) is terminated.
図4に示すフローでは、ステップS28において、ループ変数nに従って、データの保存先となるシーンメモリを切り替えたが、この時点では、nに関わらず、密集データ削除機能32fで処理したデータをシーンメモリ42−1に格納し、次のレーダ画像データを取り込む前に、すなわち、ステップS30からステップS22に進む前に、シーンメモリ42−1〜42−3のデータをそれぞれシーンメモリ42−2〜42−4に転送するようにしてもよい。 In the flow shown in FIG. 4, in step S28, the scene memory as the data storage destination is switched in accordance with the loop variable n. At this time, the data processed by the dense data deletion function 32f is stored in the scene memory regardless of n. 42-1 before storing the next radar image data, that is, before proceeding from step S30 to step S22, the data in the scene memories 42-1 to 42-3 are respectively stored in the scene memories 42-2 to 42-. 4 may be transferred.
前処理(S12)に続けて、鳥を追跡する本処理を実行する(S13)。図5は、本処理(S13)の詳細なフローチャートを示す。 Subsequent to the pre-processing (S12), this processing for tracking the bird is executed (S13). FIG. 5 shows a detailed flowchart of this process (S13).
レーダ装置10から1シーンのレーダ画像データを取り込み(S41)、メモリ38に一時格納する(S42)。メモリ38に格納したレーダ画像データがコマ落ちしているような不完全なものの場合(S42)、再度、レーダ装置10から1シーンのレーダ画像データを取り込み、メモリ38に一時格納する(S41)。メモリ38に格納したレーダ画像データがコマ落ちしていない場合(S42)、前処理の場合と同様に、背景除去(S43)、2値化及びノイズ除去(S44)、中心決定(S45)、並びに雨雪除去(S46)を実行する。そして、雨雪除去機能32fで処理した2値エコー画像データとエコー中心データをシーンメモリ42−1に格納する(S47)。
The radar image data of one scene is taken from the radar apparatus 10 (S41) and temporarily stored in the memory 38 (S42). When the radar image data stored in the
この時点で、シーンメモリ42−1〜42−4には、4つ連続する時刻(又はシーン)における鳥の位置を示す2値エコー画像データ及びエコー中心データが格納されたことになる。鳥監視プログラムの追跡機能32gが、シーンメモリ42−1〜42−4に記憶されるこれら4つのシーンのエコー中心データを使って、鳥を追跡する(S48)。追跡機能32gは、各シーンのエコー中心の内で追跡の過程で鳥と認識したものは鳥として登録し、シーン間の接続関係も、判明したものはその接続関係を登録する。この登録データは、メモリ38(又はHDD50)に格納される。追跡機能32gの詳細は後述する。
At this time, the binary echo image data and echo center data indicating the position of the bird at four consecutive times (or scenes) are stored in the scene memories 42-1 to 42-4. The bird monitoring
追跡完了後、CPU32は、シーンメモリ42−1〜42−3に記憶される2値エコー画像データ及びエコー中心データをシーンメモリ42−1〜42−4に順送りで転送する(S49)。すなわち、シーンメモリ42−3に記憶されるデータをシーンメモリ42−4に転送し、シーンメモリ42−2に記憶されるデータをシーンメモリ42−3に転送し、シーンメモリ42−1に記憶されるデータをシーンメモリ42−2に転送する。このとき、シーンメモリ42−4に記憶されるデータを事後的に利用する場合、シーンメモリ42−3のデータをシーンメモリ42−4に転送する前に、シーンメモリ42−4のデータをHDD50に保存する。
After the tracking is completed, the
追跡の結果、監視領域内に鳥が入る場合(S50)、警告機能32hが、警告メッセージを生成する(S51)。
As a result of tracking, when a bird enters the monitoring area (S50), the
CPU32は、直近の観測結果であるレーダ画像又はステップS43〜S46の何れかの段階での処理後の画像で、表示装置40の表示画像を更新する(S52)。警告機能32hが警告メッセージを生成している場合、その警告メッセージを表示装置40の画面に重畳表示する。
The
図6は、追跡機能32gによる鳥追跡(S48)の詳細なフローチャートを示す。理解を容易にするために、連続する4つのシーンを時間の順番でt0,t1,t2,t3と表記し、シーンt0〜t3で雨雪除去処理後の2値エコー画像データに含まれるエコーのエコー中心をp0〜p3と表記する。すなわち、シーンメモリ42−1〜42−4に記憶される2値エコー画像データに含まれるエコーのエコー中心は、それぞれp3,p2,p1,p0となり、エコー中心p0は時刻tc−3Tのシーンt0に含まれ、エコー中心p1は時刻tc−2Tのシーンt1に含まれ、エコー中心p2は時刻tc−3Tのシンーンt2に含まれ、エコー中心p3は時刻tcのシーンt3に含まれる。
FIG. 6 shows a detailed flowchart of bird tracking (S48) by the
図6において、まず、シーンt0の任意のエコー中心p0を指定し(S61)、その点が鳥として登録済みか否かを調べる(S62)。 In FIG. 6, first, an arbitrary echo center p0 of the scene t0 is designated (S61), and it is checked whether or not the point has been registered as a bird (S62).
エコー中心p0が鳥として登録されていない場合(S62)、エコー中心p0及びシーンt1〜t3の未登録のエコー中心p1〜p3がなだらかに連続する組み合わせを探索し、それらのエコー中心p1〜p3を鳥として登録し、接続関係も登録する(S63)。 When the echo center p0 is not registered as a bird (S62), the echo center p0 and the unregistered echo centers p1 to p3 of the scenes t1 to t3 are searched for a continuous combination, and the echo centers p1 to p3 are determined. Register as a bird, and register the connection (S63).
図7を参照して、ステップS63における探索方法を説明する。エコー中心p0に対して、内側半径R0aと外側半径R0bの間を初回検査範囲とし、当該初回検査範囲内に入るシーンt2のエコー中心を探索し、p1候補とする。エコー中心p0からp1候補に接続する直線をp0とp1候補との間の距離と同じ距離だけ延ばした点paを中心に半径Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt2のエコー中心を探索し、p2候補とする。p1候補からp2候補に接続する直線をp1候補とp2候補との間の距離と同じ距離だけ延ばした点pbを中心に半径Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt3のエコー中心を探索し、p3候補とする。{p0,p1候補,p2候補,p3候補}の組み合わせで、最も誤差が小さくなる各エコー中心p0,p1候補,p2候補,p3候補を鳥として登録し、その接続関係を登録する。その際、paとp2候補との間の距離と、pbとp3候補との間の距離の平均値を誤差と評価する。オペレータは、半径R0a,R0b,Reを観測対象及び観測地域において適宜に選択し、事前に設定する。p1候補、p2候補又はp3候補が見つからない場合、エコー中心p0は鳥として登録されること無しに、探索を終了する。 The search method in step S63 will be described with reference to FIG. With respect to the echo center p0, the area between the inner radius R0a and the outer radius R0b is set as the initial inspection range, and the echo center of the scene t2 that falls within the initial inspection range is searched for as a candidate for p1. A movement error range of radius Re is set around a point pa obtained by extending a straight line connecting the echo center p0 to the p1 candidate by the same distance as the distance between the p0 and p1 candidates, and the scene t2 within the movement error range is set within the movement error range. The echo center is searched for as a p2 candidate. A movement error range of radius Re is set around a point pb obtained by extending a straight line connecting the p1 candidate to the p2 candidate by the same distance as the distance between the p1 candidate and the p2 candidate. The echo center is searched for as a p3 candidate. Each echo center p0, p1 candidate, p2 candidate, p3 candidate with the smallest error in the combination of {p0, p1 candidate, p2 candidate, p3 candidate} is registered as a bird, and its connection relationship is registered. At that time, the average value of the distance between pa and the p2 candidate and the distance between pb and the p3 candidate is evaluated as an error. The operator appropriately selects the radii R0a, R0b, and Re in the observation target and the observation area, and sets them in advance. If no p1 candidate, p2 candidate, or p3 candidate is found, the echo center p0 is not registered as a bird, and the search ends.
ステップS63の後、シーンt0に次の未処理のp0があるかどうかを調べ(S68)、ある場合には(S68)、次のエコー中心p0を指定して(S69)、ステップS62に戻る。未処理のエコー中心p0がない場合には(S68)、追跡を終了する。 After step S63, it is checked whether or not there is a next unprocessed p0 in the scene t0 (S68). If there is (S68), the next echo center p0 is designated (S69), and the process returns to step S62. If there is no unprocessed echo center p0 (S68), the tracking is terminated.
エコー中心p0が鳥として登録済みの場合(S62)、このエコー中心p0に接続するシーンt1のエコー中心p1が登録済みかどうかを調べる(S64)。シーンt1に接続するエコー中心p1が登録されていない場合(S64)、鳥として登録されたエコー中心p0はシーンt1で消失したことになる。この場合(S64)、次のエコー中心p0の処理に移行する(S68)。 When the echo center p0 is registered as a bird (S62), it is checked whether the echo center p1 of the scene t1 connected to the echo center p0 is registered (S64). If the echo center p1 connected to the scene t1 is not registered (S64), the echo center p0 registered as a bird has disappeared in the scene t1. In this case (S64), the processing shifts to the next echo center p0 (S68).
エコー中心p0に接続するシーンt1のエコー中心p1が登録済みである場合(S64)、点p1に接続するシーンt2のエコー中心p2が鳥として登録済みかどうかを調べる(S65)。エコー中心p2が登録済みの場合(S65)、これらのエコー中心p0,p1,p2に接続可能なエコー中心p3をシーンt3から探索する(S66)。図8は、ステップS66における探索処理の説明図を示す。p1からp2に接続する直線をp1とp2との間の距離と同じ距離だけ延ばした仮想点pを中心に半径Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt3のエコー中心を探索し、仮想点pに最も近いエコー中心p3を追跡している鳥として登録する。移動誤差範囲内にシーンt3のエコー中心を発見できない場合、シーンt3で消失した扱いにする。 When the echo center p1 of the scene t1 connected to the echo center p0 has been registered (S64), it is checked whether the echo center p2 of the scene t2 connected to the point p1 has been registered as a bird (S65). When the echo center p2 has been registered (S65), the echo center p3 connectable to these echo centers p0, p1, and p2 is searched from the scene t3 (S66). FIG. 8 is an explanatory diagram of the search process in step S66. A movement error range of radius Re is set around a virtual point p obtained by extending a straight line connecting p1 to p2 by the same distance as the distance between p1 and p2, and the echo center of scene t3 is set within the movement error range. Search and register as the bird tracking the echo center p3 closest to the virtual point p. If the echo center of the scene t3 cannot be found within the movement error range, it is treated as having disappeared in the scene t3.
シーンt2にエコー中心p0に接続する鳥として登録されたエコー中心p2が存在しない場合(S65)、シーンt2で消失したと想定されるので、シーンt3上に仮想点pを設定し、仮想点pから一定距離範囲内でシーンt3のエコー中心p3を探索する(S67)。図9は、ステップS67における探索処理の説明図を示す。p0からp1に接続する直線をp0とp1との間の距離の2倍の距離だけ延ばした仮想点pを中心に半径2Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt3のエコー中心を探索し、最も点pに近い点p3を追跡している鳥として登録する。エコー中心p3とエコー中心p1を結ぶ直線の中点をシーンt2におけるエコー中心p2として登録する。移動誤差範囲内にシーンt3のエコー中心を発見できない場合に、結局、シーンt2で消失した扱いにする。 If the echo center p2 registered as a bird connected to the echo center p0 does not exist in the scene t2 (S65), it is assumed that it has disappeared in the scene t2, so a virtual point p is set on the scene t3, and the virtual point p The echo center p3 of the scene t3 is searched within a certain distance range from (S67). FIG. 9 is an explanatory diagram of the search process in step S67. A moving error range having a radius 2Re is set around a virtual point p obtained by extending a straight line connecting p0 to p1 by a distance twice the distance between p0 and p1, and the echo of the scene t3 is set within the moving error range. The center is searched, and the point p3 closest to the point p is registered as a bird being tracked. The midpoint of the straight line connecting the echo center p3 and the echo center p1 is registered as the echo center p2 in the scene t2. If the echo center of the scene t3 cannot be found within the movement error range, it is treated as having disappeared in the scene t2.
ステップS66,S67の後、シーンt0に次の未処理のエコー中心p0があるかどうかを調べ(S68)、ある場合には(S68)、次のエコー中心p0を指定して(S69)、ステップS62に戻る。未処理のエコー中心p0がない場合には(S68)、追跡を終了する。 After steps S66 and S67, it is checked whether or not there is a next unprocessed echo center p0 in the scene t0 (S68). If there is (S68), the next echo center p0 is designated (S69). Return to S62. If there is no unprocessed echo center p0 (S68), the tracking is terminated.
本処理(S13)が終了すると、後処理として、シーンメモリ42−1〜42−4に格納されるデータをHDD50に保存し、シーンメモリ42−1〜42−4をクリアする(S14)。
When this process (S13) ends, as post-processing, the data stored in the scene memories 42-1 to 42-4 is saved in the
上記実施例では、レーダ装置10がアンテナ部12を自律的に回転して周囲を計測(撮影)するとしたが、コンピュータ30の処理能力は、アンテナ部12の回転速度に比べ十分に速いので、レーダ装置10がアンテナ部12を自律的に回転しても、コンピュータ30は十分に追従できる。逆に、コンピュータ30の指示に従い、レーダ装置10がアンテナ部12を1回転させて、周囲を計測(撮影)してもよいことは勿論である。
In the above embodiment, the radar apparatus 10 autonomously rotates the
レーダ装置10は、一定の監視角度範囲を繰り返し走査するタイプのものであってもよい。監視対象の飛来方向が限定されている場合には、そのように運用される。 The radar apparatus 10 may be of a type that repeatedly scans a certain monitoring angle range. When the flight direction of the monitoring target is limited, it is operated as such.
コンピュータ30は、単体のスタンドアローンのコンピュータであっても、複数のコンピュータが連係動作するシステム構成であってもよいことは、明らかである。
It is obvious that the
特定の説明用の実施例を参照して本発明を説明したが、特許請求の範囲に規定される本発明の技術的範囲を逸脱しないで、上述の実施例に種々の変更・修整を施しうることは、本発明の属する分野の技術者にとって自明であり、このような変更・修整も本発明の技術的範囲に含まれる。 Although the invention has been described with reference to specific illustrative embodiments, various modifications and alterations may be made to the above-described embodiments without departing from the scope of the invention as defined in the claims. This is obvious to an engineer in the field to which the present invention belongs, and such changes and modifications are also included in the technical scope of the present invention.
10:レーダ装置
12:アンテナ部
14:モータ
16:画像化回路
18:ロータリエンコーダ
30:コンピュータ
32:CPU
32a:領域設定機能
32b:背景除去機能
32c:2値化機能
32d:ノイズ除去機能
32e:中心決定機能
32f:雨雪除去機能
32g:追跡機能
32h:警告機能
34:キーボード
36:マウス
38:メモリ
40:表示装置
42:データメモリ
42−1,42−2,42−3,42−4:シーンメモリ
50:ハードディスク装置(HDD)
10: Radar device 12: Antenna unit 14: Motor 16: Imaging circuit 18: Rotary encoder 30: Computer 32: CPU
32a:
Claims (12)
所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、
当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、
当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、
当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、
当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、
時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、
当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段
とを具備することを特徴とする監視装置。 Radar image data obtained by scanning a predetermined angle range, and a monitoring device that monitors a moving body according to radar image data of a plurality of scenes sequentially supplied over time,
Background generation means for generating a background image data by combining the radar image data of a predetermined number of scenes;
Background removal means for removing the background by subtracting the background image data from each radar image data supplied after generation of the background image data;
Binarizing means for binarizing radar image data from which the background has been removed by the background removing means, and generating binarized echo image data including an echo image of the moving body;
Center determining means for determining an echo center indicating a center of an echo image of each moving body included in the binarized echo image data;
Rain / snow removing means for removing an echo center indicating either rain or snow among echo centers determined by the center determining means;
A tracking means for tracking the moving body according to a result of removing rain / snow by the rain / snow removing means for a predetermined number of radar image data of 3 or more continuous in time;
A monitoring apparatus comprising: warning means for outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking means.
当該コンピュータが、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成ステップと、
当該コンピュータが、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去ステップと、
当該コンピュータが、当該背景除去ステップで背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化ステップと、
当該コンピュータが、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定ステップと、
当該コンピュータが、当該中心決定ステップにより決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去ステップと、
当該コンピュータが、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去ステップによる雨雪の除去結果に従い、当該移動体を追跡する追跡ステップと、
当該コンピュータが、当該追跡ステップによる追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告ステップ
とを具備することを特徴とする監視方法。 Radar image data obtained by scanning a predetermined angle range, and a monitoring method for causing a computer to monitor a moving body according to radar image data of a plurality of scenes sequentially supplied over time,
A background generation step in which the computer generates background image data by combining the radar image data of a predetermined number of scenes;
A background removal step in which the computer removes the background by subtracting the background image data from each radar image data supplied after generation of the background image data;
A binarization step in which the computer binarizes the radar image data from which the background has been removed in the background removal step, and generates binarized echo image data including an echo image of the moving body;
A center determining step in which the computer determines an echo center indicating a center of an echo image of each mobile body included in the binarized echo image data;
A rain / snow removal step in which the computer removes an echo center indicating either rain or snow among the echo centers determined by the center determination step;
A tracking step in which the computer tracks the mobile body according to the rain / snow removal result of the rain / snow removal step with respect to a predetermined number of three or more radar image data continuous in time;
A monitoring method, comprising: a warning step for outputting a warning when the computer enters a predetermined area as a result of tracking by the tracking step.
所定シーン数の当該レーダ画像データを合成して背景画像データを生成させる背景生成機能と、
当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去させる背景除去機能と、
当該背景除去機能で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成させる2値化機能と、
当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定させる中心決定機能と、
当該中心決定機能により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去させる雨雪除去機能と、
時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去機能による雨雪の除去結果に従い、当該移動体を追跡させる追跡機能と、
当該追跡機能による追跡の結果、当該移動体が所定領域に入る場合に警告を出力させる警告機能
とを実現させることを特徴とする監視プログラム。 Radar image data obtained by scanning a predetermined angle range, which is a monitoring program that causes a computer to monitor a moving body according to radar image data of a plurality of scenes that are sequentially supplied over time.
A background generation function for generating background image data by combining the radar image data of a predetermined number of scenes;
A background removal function for removing the background by subtracting the background image data from each radar image data supplied after the generation of the background image data;
A binarization function that binarizes radar image data from which the background has been removed by the background removal function and generates binary echo image data including an echo image of a moving object;
A center determining function for determining an echo center indicating a center of an echo image of each moving body included in the binarized echo image data;
A rain / snow removal function for removing an echo center indicating either rain or snow among echo centers determined by the center determination function;
A tracking function for tracking the moving object according to the rain / snow removal result of the rain / snow removal function for a predetermined number of radar image data of 3 or more continuous in time;
A monitoring program for realizing a warning function for outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking function.
当該レーダ装置からの複数シーンの当該レーダ画像データに従い、当該所定角度範囲に存在する移動体を監視する監視装置
とからなる監視システムであって、
当該監視装置が、
所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、
当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、
当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、
当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、
当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、
時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、
当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段
とを具備することを特徴とする監視システム。 A radar device that repeatedly scans a predetermined angle range, and sequentially generates and outputs radar image data of the predetermined angle range;
In accordance with the radar image data of a plurality of scenes from the radar device, a monitoring system comprising a monitoring device that monitors a moving body existing in the predetermined angle range,
The monitoring device
Background generation means for generating a background image data by combining the radar image data of a predetermined number of scenes;
Background removal means for removing the background by subtracting the background image data from each radar image data supplied after generation of the background image data;
Binarizing means for binarizing radar image data from which the background has been removed by the background removing means, and generating binarized echo image data including an echo image of the moving body;
Center determining means for determining an echo center indicating a center of an echo image of each moving body included in the binarized echo image data;
Rain / snow removing means for removing an echo center indicating either rain or snow among echo centers determined by the center determining means;
A tracking means for tracking the moving body according to a result of removing rain / snow by the rain / snow removing means for a predetermined number of radar image data of 3 or more continuous in time;
A monitoring system comprising: warning means for outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010144565A JP2012008021A (en) | 2010-06-25 | 2010-06-25 | Monitoring device, method and program, and monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010144565A JP2012008021A (en) | 2010-06-25 | 2010-06-25 | Monitoring device, method and program, and monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012008021A true JP2012008021A (en) | 2012-01-12 |
JP2012008021A5 JP2012008021A5 (en) | 2013-06-27 |
Family
ID=45538732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010144565A Pending JP2012008021A (en) | 2010-06-25 | 2010-06-25 | Monitoring device, method and program, and monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012008021A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013210268A (en) * | 2012-03-30 | 2013-10-10 | Nippon Telegr & Teleph Corp <Ntt> | Two-dimensional image reconstruction method |
JP2014081704A (en) * | 2012-10-15 | 2014-05-08 | Central Research Institute Of Electric Power Industry | Image processing method, image processing device, and image processing program for frying object |
KR101438117B1 (en) | 2013-06-25 | 2014-09-12 | 국방과학연구소 | System for calculating driving path for warship and method thereof |
JP2014215237A (en) * | 2013-04-26 | 2014-11-17 | 住友電気工業株式会社 | Meteorological observation deice, meteorological observation program and meteorological observation method |
JP2016090409A (en) * | 2014-11-06 | 2016-05-23 | いであ株式会社 | Bird observation method |
CN106709926A (en) * | 2016-12-12 | 2017-05-24 | 四川大学 | Quick calculation rain removal algorithm based on dynamic priori knowledge estimation |
CN115686377A (en) * | 2022-11-17 | 2023-02-03 | 福建省气象局 | Weather radar data format storage and reading method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06130145A (en) * | 1992-10-20 | 1994-05-13 | Toshiba Corp | Radar signal processor |
JPH07181247A (en) * | 1993-12-24 | 1995-07-21 | Oki Electric Ind Co Ltd | Object-tracking image display |
JPH0943348A (en) * | 1995-08-03 | 1997-02-14 | Toshiba Corp | Radar image signal processor |
JPH09127242A (en) * | 1995-11-06 | 1997-05-16 | Toshiba Corp | Radar-image processing apparatus |
JP2002099986A (en) * | 2000-09-22 | 2002-04-05 | Natl Inst For Land & Infrastructure Management Mlit | Travel vehicle detecting method by millimeter-wave radar |
JP2003107159A (en) * | 2001-09-28 | 2003-04-09 | Honda Motor Co Ltd | Axial deviation adjusting device in object detection device for vehicle |
JP2004340729A (en) * | 2003-05-15 | 2004-12-02 | Hitachi Ltd | Movable body detection radar device |
JP2005172824A (en) * | 2004-12-06 | 2005-06-30 | Fujitsu Ten Ltd | Method for adjusting setting angle of vehicular radar installation |
JP2008256626A (en) * | 2007-04-09 | 2008-10-23 | Furuno Electric Co Ltd | Automatic gain controller |
-
2010
- 2010-06-25 JP JP2010144565A patent/JP2012008021A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06130145A (en) * | 1992-10-20 | 1994-05-13 | Toshiba Corp | Radar signal processor |
JPH07181247A (en) * | 1993-12-24 | 1995-07-21 | Oki Electric Ind Co Ltd | Object-tracking image display |
JPH0943348A (en) * | 1995-08-03 | 1997-02-14 | Toshiba Corp | Radar image signal processor |
JPH09127242A (en) * | 1995-11-06 | 1997-05-16 | Toshiba Corp | Radar-image processing apparatus |
JP2002099986A (en) * | 2000-09-22 | 2002-04-05 | Natl Inst For Land & Infrastructure Management Mlit | Travel vehicle detecting method by millimeter-wave radar |
JP2003107159A (en) * | 2001-09-28 | 2003-04-09 | Honda Motor Co Ltd | Axial deviation adjusting device in object detection device for vehicle |
JP2004340729A (en) * | 2003-05-15 | 2004-12-02 | Hitachi Ltd | Movable body detection radar device |
JP2005172824A (en) * | 2004-12-06 | 2005-06-30 | Fujitsu Ten Ltd | Method for adjusting setting angle of vehicular radar installation |
JP2008256626A (en) * | 2007-04-09 | 2008-10-23 | Furuno Electric Co Ltd | Automatic gain controller |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013210268A (en) * | 2012-03-30 | 2013-10-10 | Nippon Telegr & Teleph Corp <Ntt> | Two-dimensional image reconstruction method |
JP2014081704A (en) * | 2012-10-15 | 2014-05-08 | Central Research Institute Of Electric Power Industry | Image processing method, image processing device, and image processing program for frying object |
JP2014215237A (en) * | 2013-04-26 | 2014-11-17 | 住友電気工業株式会社 | Meteorological observation deice, meteorological observation program and meteorological observation method |
KR101438117B1 (en) | 2013-06-25 | 2014-09-12 | 국방과학연구소 | System for calculating driving path for warship and method thereof |
JP2016090409A (en) * | 2014-11-06 | 2016-05-23 | いであ株式会社 | Bird observation method |
CN106709926A (en) * | 2016-12-12 | 2017-05-24 | 四川大学 | Quick calculation rain removal algorithm based on dynamic priori knowledge estimation |
CN106709926B (en) * | 2016-12-12 | 2020-11-06 | 四川大学 | Fast calculation rain removing method based on dynamic priori knowledge estimation |
CN115686377A (en) * | 2022-11-17 | 2023-02-03 | 福建省气象局 | Weather radar data format storage and reading method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012008021A (en) | Monitoring device, method and program, and monitoring system | |
US11187790B2 (en) | Laser scanning system, laser scanning method, movable laser scanning system, and program | |
CN211653129U (en) | Two-dimensional scanning device and laser radar device with same | |
JP6599143B2 (en) | Autonomous mobile robot | |
EP2980756A1 (en) | Bird detection device, bird detection system, bird detection method, and program | |
CN109471098B (en) | Airport runway foreign matter detection method utilizing FOD radar phase coherence information | |
JP6527726B2 (en) | Autonomous mobile robot | |
US20210319221A1 (en) | Vessel Height Detection Through Video Analysis | |
JP6530212B2 (en) | Autonomous mobile robot | |
JP2012008021A5 (en) | ||
JP6469492B2 (en) | Autonomous mobile robot | |
JP2018125670A (en) | Aerial monitoring device, aerial monitoring method and program | |
JP6228099B2 (en) | Bird observation method | |
JP3443106B2 (en) | Floating object detection / monitoring method and device | |
JP2017068639A (en) | Autonomous Mobile Robot | |
CN111158014A (en) | Multi-radar comprehensive bird detection system | |
CN112731335B (en) | Multi-unmanned aerial vehicle cooperative positioning method based on full-area laser scanning | |
EP4363877A1 (en) | Methods and systems for detecting vessels | |
CN113888589A (en) | Water surface obstacle detection and multi-target tracking method based on laser radar | |
KR102120779B1 (en) | Method and apparatus of monitoring sea surface using UAV | |
Xu et al. | Road marking survey with mobile Lidar system | |
JP2020085521A (en) | Monitoring system | |
US20240094396A1 (en) | Systems and methods for generating focused threedimensional (3d) point clouds | |
CN117368874A (en) | FOD identification method, identification system, identification device and electronic equipment | |
JP3609160B2 (en) | Marine radar target warning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140114 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140317 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140930 |