JP2012008021A - Monitoring device, method and program, and monitoring system - Google Patents

Monitoring device, method and program, and monitoring system Download PDF

Info

Publication number
JP2012008021A
JP2012008021A JP2010144565A JP2010144565A JP2012008021A JP 2012008021 A JP2012008021 A JP 2012008021A JP 2010144565 A JP2010144565 A JP 2010144565A JP 2010144565 A JP2010144565 A JP 2010144565A JP 2012008021 A JP2012008021 A JP 2012008021A
Authority
JP
Japan
Prior art keywords
image data
echo
background
rain
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010144565A
Other languages
Japanese (ja)
Other versions
JP2012008021A5 (en
Inventor
Yasuo Shimada
泰夫 島田
Akiyoshi Kaneda
明寿 兼田
Yuichi Ura
祐一 浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Japan Weather Association
Original Assignee
Furuno Electric Co Ltd
Japan Weather Association
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd, Japan Weather Association filed Critical Furuno Electric Co Ltd
Priority to JP2010144565A priority Critical patent/JP2012008021A/en
Publication of JP2012008021A publication Critical patent/JP2012008021A/en
Publication of JP2012008021A5 publication Critical patent/JP2012008021A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To monitor birds approaching that may cause a bird strike and give warning.SOLUTION: A radar device (10) periodically outputs radar image data obtained by scanning a periphery. A background creation function (32a) of a monitoring program that operates on a computer (30) creates background image data from the radar image data of multiple numbers of scenes, and a background removal function (32c) removes the background image data from subsequent radar image data. A binarization function (32d) binarizes echo images, and a center determination function (32e) determines a center of each echo image. A rain/snow removal function (32f) removes rain and snow. A tracking function (32g) tracks a bird from the result of rain/snow removal of the multiple scenes. A warning function (32h) outputs warning when a bird enters a prescribed area.

Description

本発明は、鳥類等の移動体を監視する監視装置、方法及びプログラム並びに監視システムに関する。   The present invention relates to a monitoring apparatus, method and program for monitoring a moving body such as a bird, and a monitoring system.

飛行場や風力発電設備等では鳥類の衝突が大きな問題となっており、このため、接近する鳥類等を監視する監視システムが必要とされる。   Bird collisions have become a major problem at airfields and wind power generation facilities. For this reason, a monitoring system for monitoring approaching birds is required.

例えば、特許文献1には、空港監視レーダ、気象観測用レーダ、航空機追跡(追尾)レーダ、海洋監視レーダなどを使い、鳥類を観測することが記載され、更には、夜間に飛翔する鳥類を暗視手段で暗視しつつ、鳥類の発する音を集音手段で集音し、暗視手段30の暗視方向と集音手段の集音方向を鳥類の移動に合わせて調節し、その調節位置を保持することで、鳥類の位置を容易に且つ高精度に取得する鳥類観測装置及び鳥類観測方法が記載されている。   For example, Patent Document 1 describes that birds are observed by using an airport monitoring radar, a weather observation radar, an aircraft tracking (tracking) radar, a marine monitoring radar, and the like. The sound generated by the birds is collected by the sound collecting means while night-visioning by the visual means, and the night vision direction of the night vision means 30 and the sound collection direction of the sound collection means are adjusted in accordance with the movement of the birds, and the adjustment position A bird observing apparatus and a bird observing method for easily and accurately acquiring the position of a bird by holding

また、特許文献2には、ミリ波レーダを上空に向け、このミリ波レーダで取得された距離情報と受信信号の強度情報に基づいて、目標体がヘリコプタであるか鳥であるかを識別することが記載されている。反射波の受信強度により、鳥のような小さな物体か、ヘリコプタや小型飛行機のような小型飛行体を区別する。   Further, in Patent Document 2, a millimeter wave radar is turned upward, and whether a target body is a helicopter or a bird is identified based on distance information acquired by the millimeter wave radar and intensity information of a received signal. It is described. A small object such as a bird or a small flying object such as a helicopter or a small airplane is distinguished based on the reception intensity of the reflected wave.

特開2005−189103号公報JP 2005-189103 A 特開2005−233763号公報Japanese Patent Laid-Open No. 2005-233763

レーダを用いる従来の監視システムでは、レーダ計測画面を監視員が注視し、鳥類らしきものとその接近を目視観察するものであり、接近する鳥類の接近の程度を精度良く検出することができず、従って、接近する鳥類に向け適したタイミングで警告することが難しかった。また、従来の技術では、広範囲を一括監視することが難しかった。   In a conventional monitoring system using a radar, an observer looks at a radar measurement screen and visually observes what seems to be a bird and its approach, and cannot accurately detect the degree of approach of an approaching bird, Therefore, it is difficult to warn at an appropriate timing for approaching birds. Also, with the conventional technology, it has been difficult to collectively monitor a wide area.

鳥類以外にも、集団化した昆虫の接近を監視したいとする要望もあるし、無線操縦飛行機、小型飛行機等の飛行体の接近を監視する必要のある分野もある。   In addition to birds, there is a desire to monitor the approach of grouped insects, and there are fields where it is necessary to monitor the approach of flying objects such as radio-controlled airplanes and small airplanes.

本発明は、所定のエリアに接近する鳥類等の移動体を広範囲で効率的に監視できる監視装置、方法及びプログラム並びに監視システムを提示することを目的とする。   An object of the present invention is to provide a monitoring device, method and program, and a monitoring system capable of efficiently and efficiently monitoring a moving object such as birds approaching a predetermined area.

本発明に係る監視装置は、所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従い移動体を監視する監視装置であって、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段とを具備することを特徴とする。   A monitoring apparatus according to the present invention is radar image data obtained by scanning a predetermined angle range, and monitors a moving body according to radar image data of a plurality of scenes sequentially supplied over time. A background generation unit that generates background image data by combining the radar image data of a predetermined number of scenes, and subtracts the background image data from each radar image data supplied after the background image data is generated. Background removing means for removing, binarizing means for binarizing the radar image data from which the background has been removed by the background removing means, and generating binarized echo image data including an echo image of the moving object, and the binarization Center determining means for determining an echo center indicating the center of the echo image of each moving body included in the echo image data, and an echo determined by the center determining means According to the rain / snow removal means for removing the echo center indicating either rain or snow in the mind and the rain / snow removal result by the rain / snow removal means for a predetermined number of radar image data of three or more continuous in time. And a tracking means for tracking the mobile body, and a warning means for outputting a warning when the mobile body enters a predetermined area as a result of tracking by the tracking means.

本発明に係る監視方法は、所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従いコンピュータに移動体を監視させる監視方法であって、当該コンピュータが、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成ステップと、当該コンピュータが、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去ステップと、当該コンピュータが、当該背景除去ステップで背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化ステップと、当該コンピュータが、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定ステップと、当該コンピュータが、当該中心決定ステップにより決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去ステップと、当該コンピュータが、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去ステップによる雨雪の除去結果に従い、当該移動体を追跡する追跡ステップと、当該コンピュータが、当該追跡ステップによる追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告ステップとを具備することを特徴とする。   The monitoring method according to the present invention is radar image data obtained by scanning a predetermined angle range, and allows a computer to monitor a moving body in accordance with radar image data of a plurality of scenes sequentially supplied over time. A background generation step in which the computer generates background image data by combining the radar image data of a predetermined number of scenes, and the computer generates the background image data from each radar image data supplied after the background image data is generated. A background removal step for removing the background by subtracting the background image data, and the computer binarizes the radar image data from which the background has been removed in the background removal step, and includes a binarized echo image including an echo image of the moving object A binarization step for generating data and the computer are included in the binarized echo image data. A center determining step for determining an echo center indicating the center of the echo image of each mobile object, and the computer removing an echo center indicating either rain or snow among the echo centers determined by the center determining step. A rain and snow removal step, a tracking step in which the computer tracks the mobile body according to a result of rain and snow removal by the rain and snow removal step with respect to a predetermined number of radar image data of three or more continuous in time, The computer includes a warning step of outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking step.

本発明に係る監視プログラムは、所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従いコンピュータに移動体を監視させる監視プログラムであって、当該コンピュータに、所定シーン数の当該レーダ画像データを合成して背景画像データを生成させる背景生成機能と、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去させる背景除去機能と、当該背景除去機能で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成させる2値化機能と、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定させる中心決定機能と、当該中心決定機能により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去させる雨雪除去機能と、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去機能による雨雪の除去結果に従い、当該移動体を追跡させる追跡機能と、当該追跡機能による追跡の結果、当該移動体が所定領域に入る場合に警告を出力させる警告機能とを実現させることを特徴とする。   The monitoring program according to the present invention is radar image data obtained by scanning a predetermined angle range, and causes a computer to monitor a moving body according to radar image data of a plurality of scenes sequentially supplied over time. A background generation function for causing the computer to synthesize the radar image data of a predetermined number of scenes to generate background image data, and the background image data from each radar image data supplied after the generation of the background image data. A background removal function for removing the background by subtraction, and a binarization function for binarizing the radar image data from which the background has been removed by the background removal function and generating binary echo image data including an echo image of the moving object And determining an echo center indicating the center of the echo image of each mobile object included in the binary echo image data. A center determination function, a rain / snow removal function that removes an echo center indicating either rain or snow from the echo center determined by the center determination function, and a predetermined number of three or more radar images continuous in time A tracking function for tracking the mobile object according to the rain / snow removal result for the data, and a warning function for outputting a warning when the mobile object enters a predetermined area as a result of tracking by the tracking function; It is characterized by realizing.

本発明に係る監視システムは、所定角度範囲を繰り返し走査し、当該所定角度範囲のレーダ画像データを順次、生成し出力するレーダ装置と、当該レーダ装置からの複数シーンの当該レーダ画像データに従い、当該所定角度範囲に存在する移動体を監視する監視装置とからなる監視システムであって、当該監視装置が、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段とを具備することを特徴とする。   The monitoring system according to the present invention repeatedly scans a predetermined angle range, sequentially generates and outputs radar image data of the predetermined angle range, and according to the radar image data of a plurality of scenes from the radar device, A monitoring system comprising a monitoring device that monitors a moving body existing in a predetermined angle range, wherein the monitoring device synthesizes a predetermined number of scenes of the radar image data to generate background image data; and A background removing unit that removes the background by subtracting the background image data from each radar image data supplied after the generation of the background image data, and binarizing the radar image data from which the background is removed by the background removing unit, Binarization means for generating binarized echo image data including an echo image of the moving body, and each of the binarized echo image data included in the binarized echo image data Center determining means for determining an echo center indicating the center of an echo image of a moving object; and rain / snow removing means for removing an echo center indicating either rain or snow among echo centers determined by the center determining means; According to the rain / snow removal result by the rain / snow removal means for a predetermined number of radar image data of three or more continuous in time, the tracking means for tracking the mobile body, and the tracking result by the tracking means Warning means for outputting a warning when entering a predetermined area is provided.

本発明によれば、レーダ画像データから鳥などに移動体を効果的に追跡し、所定領域への侵入を精度良く検知できる。   According to the present invention, it is possible to effectively track a moving body such as a bird from radar image data, and to accurately detect entry into a predetermined area.

本発明の一実施例の概略構成ブロック図を示す。1 shows a schematic block diagram of an embodiment of the present invention. コンピュータ30で動作する監視プログラムのメインルーチンの動作フローチャートを示す。The operation | movement flowchart of the main routine of the monitoring program which operate | moves with the computer 30 is shown. 図2の鳥計測処理における鳥認識・追跡処理の動作フローチャートを示す。3 shows an operation flowchart of bird recognition / tracking processing in the bird measurement processing of FIG. 図3の前処理の詳細なフローチャートを示す。Fig. 4 shows a detailed flowchart of the preprocessing of Fig. 3. 図3の本処理の詳細なフローチャートを示す。Fig. 4 shows a detailed flowchart of this processing in Fig. 3. 追跡機能による鳥追跡の詳細なフローチャートを示す。The detailed flowchart of the bird tracking by a tracking function is shown. エコー中心点を追跡し接続する手順の説明図である。It is explanatory drawing of the procedure which tracks and connects an echo center point. エコー中心点を追跡し接続する別の手順の説明図である。It is explanatory drawing of another procedure which tracks and connects an echo center point. エコー中心点を追跡し接続する更に別の手順の説明図である。It is explanatory drawing of another procedure which tracks and connects an echo center point.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例の概略構成ブロック図を示す。レーダ装置10は、アンテナ部12をモータ14により水平面内で360度にわたり一定速度(例えば、2.5秒に1回転)で回転させながら、水平方向に電波パルスビームを放射し、その反射波を検出する。なお、本実施例では、地上面反射(グランドクラッタ)を低減するため、電波を放射するスロットアンテナを若干、上向きにしている。   FIG. 1 shows a schematic block diagram of an embodiment of the present invention. The radar apparatus 10 emits a radio wave pulse beam in the horizontal direction while rotating the antenna unit 12 at a constant speed (for example, one rotation in 2.5 seconds) over 360 degrees in a horizontal plane by the motor 14, and reflects the reflected wave. To detect. In this embodiment, in order to reduce ground surface reflection (ground clutter), the slot antenna that radiates radio waves is slightly upward.

アンテナ部12から放射されるビームの水平幅が、方位分解能を決定し、垂直幅が高度分解能を決定する。パルス幅が距離分解能を決定する。基本的に狭ビームであるほど、分解能が高くなる。方位分解能は、等距離に位置するが方位角度がわずかに異なる2つの目標物を区別できる最小の方位角度である。距離分解能は、同一方位上の異なる距離に位置する2つの目標物を区別できる、当該2つの目標物間の最短距離であり、パルス幅が狭い程、距離分解能が高くなる。高度分解能は、垂直ビーム角度の正弦値に距離を乗算した値となる。   The horizontal width of the beam radiated from the antenna unit 12 determines the azimuth resolution, and the vertical width determines the altitude resolution. The pulse width determines the distance resolution. Basically, the narrower the beam, the higher the resolution. The azimuth resolution is the minimum azimuth angle at which two targets that are equidistant but have slightly different azimuth angles can be distinguished. The distance resolution is the shortest distance between two targets that can distinguish two targets located at different distances in the same direction. The narrower the pulse width, the higher the distance resolution. The altitude resolution is a value obtained by multiplying the sine value of the vertical beam angle by the distance.

ロータリエンコーダ16はアンテナ部12の回転角度位置を検出し、所定角度間隔のパルス信号を出力する。ロータリエンコーダ16はまた、事前に、アンテナ部12が基準方位(例えば、北)を向いている時点でトリガー信号を出力するように調整さる。   The rotary encoder 16 detects the rotational angle position of the antenna unit 12 and outputs a pulse signal at a predetermined angular interval. The rotary encoder 16 is also adjusted in advance so as to output a trigger signal when the antenna unit 12 faces a reference direction (for example, north).

画像化回路18は、ロータリエンコーダ16からのパルス信号及びトリガー信号に従い、アンテナ部12による受信反射波の強度分布を示すグレースケールの画像データ(レーダ画像データ)を生成する。生成されるレーダ画像データは、アンテナ部12を中心として一定距離範囲の円形の画像データ、又は、そのような円形の画像データを水平方向と垂直方向に走査した、ビデオ信号に準拠した画像データとなる。前者の画像データの各画素は、距離方向と方位角方向の極座標系で特定され、後者の画像データは水平方向と垂直方向の直交座標系で特定される。レーダ画像の場合、レーダ装置10から遠く離れるほど、放射ビームが水平及び垂直方向に拡散することから、1画素の代表する地理的な範囲が広くなる。   The imaging circuit 18 generates gray scale image data (radar image data) indicating the intensity distribution of the reflected wave received by the antenna unit 12 in accordance with the pulse signal and trigger signal from the rotary encoder 16. The generated radar image data includes circular image data within a fixed distance range centered on the antenna unit 12, or image data based on a video signal obtained by scanning such circular image data in the horizontal direction and the vertical direction. Become. Each pixel of the former image data is specified by a polar coordinate system in the distance direction and the azimuth direction, and the latter image data is specified by an orthogonal coordinate system in the horizontal direction and the vertical direction. In the case of a radar image, the farther away from the radar apparatus 10, the more widely the geographical range represented by one pixel becomes wide since the radiation beam diffuses in the horizontal and vertical directions.

アンテナ部12の1回転毎に画像化回路18により生成される各画像データは、ロータリエンコーダ16からのトリガー信号により、風等によるアンテナ部12の回転ムラを解消された、一定方位(基準方向)に向いたものとなる。画像化回路18はまた、生成したレーダ画像データを、トリガー信号に同期してコンピュータ30に出力する。アンテナ部12が基準方向から1回転して得られるレーダ画像データを1シーンの画像データとする。   Each image data generated by the imaging circuit 18 for each rotation of the antenna unit 12 has a fixed azimuth (reference direction) in which uneven rotation of the antenna unit 12 due to wind or the like is eliminated by a trigger signal from the rotary encoder 16. It will be suitable for. The imaging circuit 18 also outputs the generated radar image data to the computer 30 in synchronization with the trigger signal. Radar image data obtained by the antenna unit 12 rotating once from the reference direction is set as image data of one scene.

コンピュータ30は、レーダ装置10からのレーダ画像データを使って、監視対象の鳥が所定の管理領域に入るか否かを監視する監視装置として機能する。コンピュータ30は、コンピュータの一般的構成と同様、CPU32、種々の指示を入力するキーボード34及びマウス36、CPU32の演算ワーク領域となるメモリ38、並びに、種々の画像及びテキスト等を表示する表示装置40を具備する。CPU32は、後述する監視プログラムにより種々の機能32a〜32hを実現する。   The computer 30 functions as a monitoring device that uses the radar image data from the radar device 10 to monitor whether or not a bird to be monitored enters a predetermined management area. Similar to the general configuration of the computer, the computer 30 includes a CPU 32, a keyboard 34 and a mouse 36 for inputting various instructions, a memory 38 serving as a calculation work area of the CPU 32, and a display device 40 for displaying various images and texts. It comprises. The CPU 32 realizes various functions 32a to 32h by a monitoring program described later.

レーダ装置10により観測されたレーダ画像データ及びこれを処理した画像データを観測用にシーン単位で記憶する手段として、コンピュータ30は、4シーン分のデータを記憶可能なデータメモリ42を具備する。データメモリ42は、一連の互いに異なる時刻tc,tc−T,tc−2T,tc−3Tにおけるレーダ画像データを処理して得られる1シーンの画像データがそれぞれ格納されるシーンメモリ42−1,42−2,42−3,42−4を具備する。tcは現在時刻であり、Tは、アンテナ部12が1回転するのに要する時間である。実際には、メモリ38の記憶領域をデータメモリ42として利用するが、本実施例の理解を容易にするために、メモリ38とは別の手段としてデータメモリ42(シーンメモリ42−1,42−2,42−3,42−4)を図示した。   As a means for storing radar image data observed by the radar apparatus 10 and image data obtained by processing the radar image data for each scene for observation, the computer 30 includes a data memory 42 capable of storing data for four scenes. The data memory 42 stores scene memories 42-1 and 42, each storing image data of one scene obtained by processing radar image data at a series of different times tc, tc-T, tc-2T, and tc-3T. -2, 42-3, 42-4. tc is the current time, and T is the time required for the antenna unit 12 to make one rotation. Actually, the storage area of the memory 38 is used as the data memory 42. However, in order to facilitate understanding of the present embodiment, the data memory 42 (scene memories 42-1, 42-) is provided as a means different from the memory 38. 2, 42-3, 42-4).

ハードディスク装置(HDD)50には、CPU32で動作する監視プログラムと、観測データ及び結果が格納される。更に、コンピュータ30は、レーダ装置10により観測されるレーダ画像データを取り込むデータ取り込み装置52を具備する。データ取り込み装置52は、レーダ装置10のロータリエンコーダ16からのトリガー信号に従い、画像化回路18からのレーダ画像データを取り込み、メモリ38に格納する。   A hard disk device (HDD) 50 stores a monitoring program that operates on the CPU 32, observation data, and results. In addition, the computer 30 includes a data capturing device 52 that captures radar image data observed by the radar device 10. The data capturing device 52 captures radar image data from the imaging circuit 18 in accordance with a trigger signal from the rotary encoder 16 of the radar device 10 and stores it in the memory 38.

図2乃至図6は、コンピュータ30で動作する監視プログラムの動作フローチャートを示す。図2は、メインルーチンの動作フローチャートを示す。   2 to 6 show operation flowcharts of the monitoring program operating on the computer 30. FIG. FIG. 2 shows an operation flowchart of the main routine.

監視プログラムが起動されると、オペレータに表示装置40の画面上の表示スケールを入力させ(S1)、管理領域設定機能32aが、オペレータによるキーボード34及びマウス36の操作に従い、1又は複数の監視領域及びマスク領域を設定する(S2、S3)。監視領域は鳥類の接近を監視する領域であり、マスク領域はそのような監視が不要な領域であり、何れも複数設定可能である。監視領域及びマスク領域は、円形、楕円形又は矩形として設定できる。   When the monitoring program is started, the operator inputs a display scale on the screen of the display device 40 (S1), and the management area setting function 32a is operated by the operator through the keyboard 34 and the mouse 36 to display one or more monitoring areas. And a mask area is set (S2, S3). The monitoring area is an area for monitoring the approach of birds, and the mask area is an area that does not require such monitoring, and a plurality of them can be set. The monitoring area and the mask area can be set as a circle, an ellipse, or a rectangle.

オペレータは、警報の条件(羽数及び増加率等)を指定し、雨雪除去の閾値等を指定した上で、計測の実行を指示し、監視プログラムは、オペレータのこの指示に従い計測を開始する(S4)。   The operator designates alarm conditions (number of wings, rate of increase, etc.), designates a rain / snow removal threshold, etc., and then instructs the execution of the measurement. The monitoring program starts the measurement according to this instruction from the operator. (S4).

図3は、図2のステップS4の計測処理における鳥認識・追跡処理の動作フローチャートを示す。コンピュータ30は、レーダ装置10からのレーダ画像データを、オペレータが指定したシーン数だけ取り込み、背景生成機能32bを使ってこれらを合成させて背景画像とし、背景画像の画像データをメモリ38に格納する(S11)。例えば、背景生成機能32bは、全シーンのレーダ画像データから、ピクセル毎に最小輝度、最大輝度及び平均輝度を算出する。そして、ピクセル単位で、最小輝度と平均輝度の差(α)が平均輝度と最大輝度の差(β)以上の場合には、最大輝度を背景輝度とし、それ以外では、平均輝度+αを背景輝度とする。気温や湿度、浮遊する埃等の影響を受けやすいレーダ画像に対しても、このような方法で背景輝度をピクセル単位で決定することにより、精度良く背景画像を決定できる。ただし、全シーンのレーダ画像データを単純に加算し平均化してもよい。背景画像は静物のみからなり、後述するように、鳥を含むレーダ画像データから背景画像データを減算することで、鳥、雨、雪、その他の移動体の各エコーを抽出できる。   FIG. 3 shows an operation flowchart of the bird recognition / tracking process in the measurement process of step S4 of FIG. The computer 30 takes in the radar image data from the radar apparatus 10 for the number of scenes designated by the operator, combines them using the background generation function 32b to form a background image, and stores the image data of the background image in the memory 38. (S11). For example, the background generation function 32b calculates the minimum luminance, the maximum luminance, and the average luminance for each pixel from the radar image data of all scenes. If the difference between the minimum brightness and the average brightness (α) is greater than or equal to the difference between the average brightness and the maximum brightness (β), the maximum brightness is set as the background brightness. In other cases, the average brightness + α is set as the background brightness. And Even for radar images that are easily affected by temperature, humidity, floating dust, and the like, the background image can be determined with high accuracy by determining the background luminance in units of pixels in this manner. However, radar image data of all scenes may be simply added and averaged. The background image consists only of a still life, and as will be described later, by subtracting the background image data from the radar image data including birds, it is possible to extract each echo of birds, rain, snow, and other moving objects.

次に、オンライン計測の前処理を実行する(S12)。鳥を追跡するために、本実施例では、直前の3つのシーンの画像を利用するので、前処理として、これらのシーンのレーダ画像データを取り込み、追跡のための処理を施し、逐次、シーンメモリ42−1,42−2,42−3に格納する。   Next, online measurement preprocessing is executed (S12). In this embodiment, the images of the immediately preceding three scenes are used to track the birds. Therefore, as preprocessing, radar image data of these scenes is captured, and processing for tracking is performed, and the scene memory is sequentially recorded. Stored in 42-1, 42-2, and 42-3.

前処理(S12)の詳細を、図4を参照して説明する。図4は、前処理(S12)の詳細なフローチャートを示す。   Details of the preprocessing (S12) will be described with reference to FIG. FIG. 4 shows a detailed flowchart of the preprocessing (S12).

ループ変数nに1を代入する(S21)。レーダ装置10から1シーンのレーダ画像データを取り込み、メモリ38に一時格納する(S22)。メモリ38に格納したレーダ画像データがコマ落ちしているような不完全なものの場合(S23)、再度、レーダ装置10から1シーンのレーダ画像データを取り込み、メモリ38に一時格納する(S22)。データ取り込み装置52が、レーダ装置10からのレーダ画像データを逐次取り込んで、メモリ38に格納している場合には、ステップS22、S23は、メモリ38にレーダ画像データが格納済みかどうかを確認する処理に変更される。   1 is substituted into the loop variable n (S21). One scene of radar image data is taken from the radar apparatus 10 and temporarily stored in the memory 38 (S22). When the radar image data stored in the memory 38 is incomplete such that frames are dropped (S23), the radar image data of one scene is again taken from the radar apparatus 10 and temporarily stored in the memory 38 (S22). When the data capturing device 52 sequentially captures the radar image data from the radar device 10 and stores it in the memory 38, steps S22 and S23 confirm whether the radar image data has been stored in the memory 38. Change to processing.

メモリ38に格納したレーダ画像データがコマ落ちしていない場合(S23)、背景除去機能32cが、そのレーダ画像データからステップS11で取得した背景画像データを減算して、背景画像を除去する(S24)。背景画像を除去したレーダ画像データは、鳥エコーを含む移動体エコーを主として含むエコー画像データとなる。   When the radar image data stored in the memory 38 is not dropped (S23), the background removal function 32c subtracts the background image data acquired in step S11 from the radar image data to remove the background image (S24). ). The radar image data from which the background image has been removed becomes echo image data mainly including mobile echoes including bird echoes.

2値化機能32dが、背景画像を除去したエコー画像データを所定閾値で2値化し、必要によりノイズを除去する(S25)。レーダ装置10による計測の場合、先に説明したように、遠くにいる移動体ほど、その移動体からの反射波強度は小さくなるので、一般的には、2値化閾値は、遠距離ほど小さくするのが望ましい。ただし、本実施例の目的が、接近する鳥を検知することであり、そのような鳥を見逃さない程度の、距離に関わらず一定の2値化閾値を採用する。   The binarization function 32d binarizes the echo image data from which the background image has been removed with a predetermined threshold, and removes noise if necessary (S25). In the case of measurement by the radar apparatus 10, as described above, the farther away moving body has a smaller reflected wave intensity from the moving body. Therefore, in general, the binarization threshold is smaller as the distance is longer. It is desirable to do. However, the purpose of the present embodiment is to detect an approaching bird, and a constant binarization threshold is adopted regardless of the distance so as not to miss such a bird.

2値化機能32dによる得られる2値化エコー画像データの各画素は、本実施例では、鳥を含む移動体に対して2進値”1”、それ以外に対して2進値”0”となる。移動体の大きさを反映し、隣接する複数の画素の画素値が”1”となる。   In this embodiment, each pixel of the binarized echo image data obtained by the binarization function 32d has a binary value “1” for a moving object including a bird, and a binary value “0” for the rest. It becomes. Reflecting the size of the moving body, the pixel values of a plurality of adjacent pixels are “1”.

2値化機能32dは、2値化の後に、目標とする鳥のサイズよりも十分に小さなサイズをカバーするエコーと、目標とする鳥のサイズよりも十分に大きなサイズをカバーするエコーを、ノイズとして削除する。レーダ装置10から遠距離にある物体ほど、大きなサイズで表現されることになるので、ノイズ判定閾値も、遠距離になるほど、大きなサイズとする。画像データが極座標で表現されている場合、画素数で表現されるノイズ判定閾値は、小さいノイズに対するものも、大きなノイズに対するものも、遠距離ほど少ない画素数となる。他方、直交座標系で表現される場合、画素数で表現されるノイズ判定閾値は、小さいノイズに対するものも、大きなノイズに対するものも、距離に関わらず、一定で良い。   After binarization, the binarization function 32d generates an echo that covers a size sufficiently smaller than the target bird size and an echo that covers a size sufficiently larger than the target bird size. Remove as. Since an object farther away from the radar apparatus 10 is expressed in a larger size, the noise determination threshold is also larger as the distance is longer. When the image data is expressed in polar coordinates, the noise determination threshold expressed by the number of pixels is smaller for both a small noise and a large noise as the distance increases. On the other hand, when expressed in an orthogonal coordinate system, the noise determination threshold expressed by the number of pixels may be constant regardless of the distance, whether for small noise or for large noise.

中心決定機能32eが、ノイズ除去機能32dによりノイズを除去された2値化エコー画像データの、各エコーの中心を決定する(S26)。具体的には、画素値が”1”の互いに隣接する画素が1つの移動体のエコーを表現しており、これらの一群の画素の重心となる画素をエコー中心として特定する。簡易的には、水平方向と垂直方向の中心を採用すればよい。   The center determination function 32e determines the center of each echo of the binarized echo image data from which noise has been removed by the noise removal function 32d (S26). Specifically, adjacent pixels having a pixel value of “1” express an echo of one moving body, and a pixel that is the center of gravity of the group of pixels is specified as the echo center. For simplicity, the center in the horizontal direction and the vertical direction may be adopted.

雨雪除去機能32fが、雨と雪のエコーを除去する(S27)。降雨又は降雪がある地域では、ステップS24〜S26の処理後であっても、エコーとして出現するが、降雨又は降雪は、小さなエコーがある程度以上の空間密度で密集した状態で表現されることから、本実施例では、一定の検査半径内に一定サイズ以上のエコーが一定数以上存在する場合に、それらを降雨又は降雪と判定する。より具体的に説明すると、中心決定機能32eで決定された各エコー中心を順に注目し、注目しているエコー中心から所定の検査半径内に一定サイズ以上の他のエコーのエコー中心が存在するかどうかを調べる。検査半径は、実際の降雨又は降雪の観測状況から決定される。検査半径内に一定数以上の他のエコー中心が存在する場合、注目するエコー中心と、検査半径内で発見された他のエコー中心の全てに削除マークを付ける。エコー画像中の全部のエコー中心に対してこの処理を終了したら、削除マークを付加したエコー中心とそのエコーを、2値エコー画像データから削除する。   The rain / snow removal function 32f removes rain and snow echoes (S27). In an area where there is rainfall or snowfall, it appears as an echo even after the processing of steps S24 to S26, but since rain or snowfall is expressed in a state where small echoes are densely packed with a spatial density of a certain level or more, In this embodiment, when a certain number or more of echoes having a certain size or more exist within a certain inspection radius, they are determined to be raining or snowing. More specifically, paying attention to each echo center determined by the center determination function 32e in order, whether there is an echo center of another echo of a certain size or more within a predetermined inspection radius from the focused echo center Find out. The inspection radius is determined from the actual rainfall or snow observation situation. When there are a certain number or more of other echo centers within the inspection radius, deletion marks are added to all the echo centers of interest and other echo centers found within the inspection radius. When this process is completed for all the echo centers in the echo image, the echo center to which the deletion mark is added and the echo are deleted from the binary echo image data.

ステップS24〜S27の処理を終えて得られた2値エコー画像データは、監視対象であるサイズの移動体の所在を示すものであり、移動体の多くは監視対象である鳥を示す。   The binary echo image data obtained after finishing the processes of steps S24 to S27 indicates the location of a moving object having a size to be monitored, and many of the moving objects indicate birds to be monitored.

CPU32で動作する監視プログラムは、ステップS24〜S27の処理を終えて得られた2値エコー画像データとエコー中心データを、n=1の場合にはシーンメモリ42−4に、n=2の場合にはシーンメモリ42−3に、n−3の場合には、シーンメモリ42−2にそれぞれ格納する(S28)。   The monitoring program operating on the CPU 32 stores the binary echo image data and echo center data obtained after finishing the processes of steps S24 to S27 in the scene memory 42-4 when n = 1 and when n = 2. Is stored in the scene memory 42-3, and in the case of n-3, it is stored in the scene memory 42-2, respectively (S28).

nをインクリメントし(S30)、nが3を越えるまで(S31)、ステップS22以降を繰り返す。nが3を越えると(S31)、必要な3シンーンの観測データが得られたので、前処理(S12)を終了する。   n is incremented (S30), and step S22 and subsequent steps are repeated until n exceeds 3 (S31). When n exceeds 3 (S31), necessary observation data for 3 scenes is obtained, so the preprocessing (S12) is terminated.

図4に示すフローでは、ステップS28において、ループ変数nに従って、データの保存先となるシーンメモリを切り替えたが、この時点では、nに関わらず、密集データ削除機能32fで処理したデータをシーンメモリ42−1に格納し、次のレーダ画像データを取り込む前に、すなわち、ステップS30からステップS22に進む前に、シーンメモリ42−1〜42−3のデータをそれぞれシーンメモリ42−2〜42−4に転送するようにしてもよい。   In the flow shown in FIG. 4, in step S28, the scene memory as the data storage destination is switched in accordance with the loop variable n. At this time, the data processed by the dense data deletion function 32f is stored in the scene memory regardless of n. 42-1 before storing the next radar image data, that is, before proceeding from step S30 to step S22, the data in the scene memories 42-1 to 42-3 are respectively stored in the scene memories 42-2 to 42-. 4 may be transferred.

前処理(S12)に続けて、鳥を追跡する本処理を実行する(S13)。図5は、本処理(S13)の詳細なフローチャートを示す。   Subsequent to the pre-processing (S12), this processing for tracking the bird is executed (S13). FIG. 5 shows a detailed flowchart of this process (S13).

レーダ装置10から1シーンのレーダ画像データを取り込み(S41)、メモリ38に一時格納する(S42)。メモリ38に格納したレーダ画像データがコマ落ちしているような不完全なものの場合(S42)、再度、レーダ装置10から1シーンのレーダ画像データを取り込み、メモリ38に一時格納する(S41)。メモリ38に格納したレーダ画像データがコマ落ちしていない場合(S42)、前処理の場合と同様に、背景除去(S43)、2値化及びノイズ除去(S44)、中心決定(S45)、並びに雨雪除去(S46)を実行する。そして、雨雪除去機能32fで処理した2値エコー画像データとエコー中心データをシーンメモリ42−1に格納する(S47)。   The radar image data of one scene is taken from the radar apparatus 10 (S41) and temporarily stored in the memory 38 (S42). When the radar image data stored in the memory 38 is incomplete such that frames are dropped (S42), the radar image data of one scene is again taken from the radar device 10 and temporarily stored in the memory 38 (S41). When the radar image data stored in the memory 38 has not lost frames (S42), as in the case of the preprocessing, background removal (S43), binarization and noise removal (S44), center determination (S45), and Rain / snow removal (S46) is executed. Then, the binary echo image data and echo center data processed by the rain / snow removal function 32f are stored in the scene memory 42-1 (S47).

この時点で、シーンメモリ42−1〜42−4には、4つ連続する時刻(又はシーン)における鳥の位置を示す2値エコー画像データ及びエコー中心データが格納されたことになる。鳥監視プログラムの追跡機能32gが、シーンメモリ42−1〜42−4に記憶されるこれら4つのシーンのエコー中心データを使って、鳥を追跡する(S48)。追跡機能32gは、各シーンのエコー中心の内で追跡の過程で鳥と認識したものは鳥として登録し、シーン間の接続関係も、判明したものはその接続関係を登録する。この登録データは、メモリ38(又はHDD50)に格納される。追跡機能32gの詳細は後述する。   At this time, the binary echo image data and echo center data indicating the position of the bird at four consecutive times (or scenes) are stored in the scene memories 42-1 to 42-4. The bird monitoring program tracking function 32g tracks the birds using the echo center data of these four scenes stored in the scene memories 42-1 to 42-4 (S48). The tracking function 32g registers, as a bird, an echo center of each scene that is recognized as a bird in the tracking process, and registers a connection relationship between scenes that have been found. This registration data is stored in the memory 38 (or HDD 50). Details of the tracking function 32g will be described later.

追跡完了後、CPU32は、シーンメモリ42−1〜42−3に記憶される2値エコー画像データ及びエコー中心データをシーンメモリ42−1〜42−4に順送りで転送する(S49)。すなわち、シーンメモリ42−3に記憶されるデータをシーンメモリ42−4に転送し、シーンメモリ42−2に記憶されるデータをシーンメモリ42−3に転送し、シーンメモリ42−1に記憶されるデータをシーンメモリ42−2に転送する。このとき、シーンメモリ42−4に記憶されるデータを事後的に利用する場合、シーンメモリ42−3のデータをシーンメモリ42−4に転送する前に、シーンメモリ42−4のデータをHDD50に保存する。   After the tracking is completed, the CPU 32 transfers the binary echo image data and the echo center data stored in the scene memories 42-1 to 42-3 to the scene memories 42-1 to 42-4 by forward transfer (S49). That is, the data stored in the scene memory 42-3 is transferred to the scene memory 42-4, the data stored in the scene memory 42-2 is transferred to the scene memory 42-3, and stored in the scene memory 42-1. Data to be transferred to the scene memory 42-2. At this time, when the data stored in the scene memory 42-4 is used later, the data in the scene memory 42-4 is transferred to the HDD 50 before the data in the scene memory 42-3 is transferred to the scene memory 42-4. save.

追跡の結果、監視領域内に鳥が入る場合(S50)、警告機能32hが、警告メッセージを生成する(S51)。   As a result of tracking, when a bird enters the monitoring area (S50), the warning function 32h generates a warning message (S51).

CPU32は、直近の観測結果であるレーダ画像又はステップS43〜S46の何れかの段階での処理後の画像で、表示装置40の表示画像を更新する(S52)。警告機能32hが警告メッセージを生成している場合、その警告メッセージを表示装置40の画面に重畳表示する。   The CPU 32 updates the display image of the display device 40 with the radar image that is the latest observation result or the image that has been processed in any of steps S43 to S46 (S52). When the warning function 32h generates a warning message, the warning message is superimposed on the screen of the display device 40.

図6は、追跡機能32gによる鳥追跡(S48)の詳細なフローチャートを示す。理解を容易にするために、連続する4つのシーンを時間の順番でt0,t1,t2,t3と表記し、シーンt0〜t3で雨雪除去処理後の2値エコー画像データに含まれるエコーのエコー中心をp0〜p3と表記する。すなわち、シーンメモリ42−1〜42−4に記憶される2値エコー画像データに含まれるエコーのエコー中心は、それぞれp3,p2,p1,p0となり、エコー中心p0は時刻tc−3Tのシーンt0に含まれ、エコー中心p1は時刻tc−2Tのシーンt1に含まれ、エコー中心p2は時刻tc−3Tのシンーンt2に含まれ、エコー中心p3は時刻tcのシーンt3に含まれる。   FIG. 6 shows a detailed flowchart of bird tracking (S48) by the tracking function 32g. In order to facilitate understanding, four consecutive scenes are expressed as t0, t1, t2, and t3 in the order of time, and echoes included in the binary echo image data after the rain / snow removal processing in the scenes t0 to t3. The echo center is expressed as p0 to p3. That is, the echo centers of the echoes included in the binary echo image data stored in the scene memories 42-1 to 42-4 are p3, p2, p1, and p0, respectively, and the echo center p0 is the scene t0 at time tc-3T. The echo center p1 is included in the scene t1 at time tc-2T, the echo center p2 is included in the scene t2 at time tc-3T, and the echo center p3 is included in the scene t3 at time tc.

図6において、まず、シーンt0の任意のエコー中心p0を指定し(S61)、その点が鳥として登録済みか否かを調べる(S62)。   In FIG. 6, first, an arbitrary echo center p0 of the scene t0 is designated (S61), and it is checked whether or not the point has been registered as a bird (S62).

エコー中心p0が鳥として登録されていない場合(S62)、エコー中心p0及びシーンt1〜t3の未登録のエコー中心p1〜p3がなだらかに連続する組み合わせを探索し、それらのエコー中心p1〜p3を鳥として登録し、接続関係も登録する(S63)。   When the echo center p0 is not registered as a bird (S62), the echo center p0 and the unregistered echo centers p1 to p3 of the scenes t1 to t3 are searched for a continuous combination, and the echo centers p1 to p3 are determined. Register as a bird, and register the connection (S63).

図7を参照して、ステップS63における探索方法を説明する。エコー中心p0に対して、内側半径R0aと外側半径R0bの間を初回検査範囲とし、当該初回検査範囲内に入るシーンt2のエコー中心を探索し、p1候補とする。エコー中心p0からp1候補に接続する直線をp0とp1候補との間の距離と同じ距離だけ延ばした点paを中心に半径Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt2のエコー中心を探索し、p2候補とする。p1候補からp2候補に接続する直線をp1候補とp2候補との間の距離と同じ距離だけ延ばした点pbを中心に半径Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt3のエコー中心を探索し、p3候補とする。{p0,p1候補,p2候補,p3候補}の組み合わせで、最も誤差が小さくなる各エコー中心p0,p1候補,p2候補,p3候補を鳥として登録し、その接続関係を登録する。その際、paとp2候補との間の距離と、pbとp3候補との間の距離の平均値を誤差と評価する。オペレータは、半径R0a,R0b,Reを観測対象及び観測地域において適宜に選択し、事前に設定する。p1候補、p2候補又はp3候補が見つからない場合、エコー中心p0は鳥として登録されること無しに、探索を終了する。   The search method in step S63 will be described with reference to FIG. With respect to the echo center p0, the area between the inner radius R0a and the outer radius R0b is set as the initial inspection range, and the echo center of the scene t2 that falls within the initial inspection range is searched for as a candidate for p1. A movement error range of radius Re is set around a point pa obtained by extending a straight line connecting the echo center p0 to the p1 candidate by the same distance as the distance between the p0 and p1 candidates, and the scene t2 within the movement error range is set within the movement error range. The echo center is searched for as a p2 candidate. A movement error range of radius Re is set around a point pb obtained by extending a straight line connecting the p1 candidate to the p2 candidate by the same distance as the distance between the p1 candidate and the p2 candidate. The echo center is searched for as a p3 candidate. Each echo center p0, p1 candidate, p2 candidate, p3 candidate with the smallest error in the combination of {p0, p1 candidate, p2 candidate, p3 candidate} is registered as a bird, and its connection relationship is registered. At that time, the average value of the distance between pa and the p2 candidate and the distance between pb and the p3 candidate is evaluated as an error. The operator appropriately selects the radii R0a, R0b, and Re in the observation target and the observation area, and sets them in advance. If no p1 candidate, p2 candidate, or p3 candidate is found, the echo center p0 is not registered as a bird, and the search ends.

ステップS63の後、シーンt0に次の未処理のp0があるかどうかを調べ(S68)、ある場合には(S68)、次のエコー中心p0を指定して(S69)、ステップS62に戻る。未処理のエコー中心p0がない場合には(S68)、追跡を終了する。   After step S63, it is checked whether or not there is a next unprocessed p0 in the scene t0 (S68). If there is (S68), the next echo center p0 is designated (S69), and the process returns to step S62. If there is no unprocessed echo center p0 (S68), the tracking is terminated.

エコー中心p0が鳥として登録済みの場合(S62)、このエコー中心p0に接続するシーンt1のエコー中心p1が登録済みかどうかを調べる(S64)。シーンt1に接続するエコー中心p1が登録されていない場合(S64)、鳥として登録されたエコー中心p0はシーンt1で消失したことになる。この場合(S64)、次のエコー中心p0の処理に移行する(S68)。   When the echo center p0 is registered as a bird (S62), it is checked whether the echo center p1 of the scene t1 connected to the echo center p0 is registered (S64). If the echo center p1 connected to the scene t1 is not registered (S64), the echo center p0 registered as a bird has disappeared in the scene t1. In this case (S64), the processing shifts to the next echo center p0 (S68).

エコー中心p0に接続するシーンt1のエコー中心p1が登録済みである場合(S64)、点p1に接続するシーンt2のエコー中心p2が鳥として登録済みかどうかを調べる(S65)。エコー中心p2が登録済みの場合(S65)、これらのエコー中心p0,p1,p2に接続可能なエコー中心p3をシーンt3から探索する(S66)。図8は、ステップS66における探索処理の説明図を示す。p1からp2に接続する直線をp1とp2との間の距離と同じ距離だけ延ばした仮想点pを中心に半径Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt3のエコー中心を探索し、仮想点pに最も近いエコー中心p3を追跡している鳥として登録する。移動誤差範囲内にシーンt3のエコー中心を発見できない場合、シーンt3で消失した扱いにする。   When the echo center p1 of the scene t1 connected to the echo center p0 has been registered (S64), it is checked whether the echo center p2 of the scene t2 connected to the point p1 has been registered as a bird (S65). When the echo center p2 has been registered (S65), the echo center p3 connectable to these echo centers p0, p1, and p2 is searched from the scene t3 (S66). FIG. 8 is an explanatory diagram of the search process in step S66. A movement error range of radius Re is set around a virtual point p obtained by extending a straight line connecting p1 to p2 by the same distance as the distance between p1 and p2, and the echo center of scene t3 is set within the movement error range. Search and register as the bird tracking the echo center p3 closest to the virtual point p. If the echo center of the scene t3 cannot be found within the movement error range, it is treated as having disappeared in the scene t3.

シーンt2にエコー中心p0に接続する鳥として登録されたエコー中心p2が存在しない場合(S65)、シーンt2で消失したと想定されるので、シーンt3上に仮想点pを設定し、仮想点pから一定距離範囲内でシーンt3のエコー中心p3を探索する(S67)。図9は、ステップS67における探索処理の説明図を示す。p0からp1に接続する直線をp0とp1との間の距離の2倍の距離だけ延ばした仮想点pを中心に半径2Reの移動誤差範囲を設定し、その移動誤差範囲内でシーンt3のエコー中心を探索し、最も点pに近い点p3を追跡している鳥として登録する。エコー中心p3とエコー中心p1を結ぶ直線の中点をシーンt2におけるエコー中心p2として登録する。移動誤差範囲内にシーンt3のエコー中心を発見できない場合に、結局、シーンt2で消失した扱いにする。   If the echo center p2 registered as a bird connected to the echo center p0 does not exist in the scene t2 (S65), it is assumed that it has disappeared in the scene t2, so a virtual point p is set on the scene t3, and the virtual point p The echo center p3 of the scene t3 is searched within a certain distance range from (S67). FIG. 9 is an explanatory diagram of the search process in step S67. A moving error range having a radius 2Re is set around a virtual point p obtained by extending a straight line connecting p0 to p1 by a distance twice the distance between p0 and p1, and the echo of the scene t3 is set within the moving error range. The center is searched, and the point p3 closest to the point p is registered as a bird being tracked. The midpoint of the straight line connecting the echo center p3 and the echo center p1 is registered as the echo center p2 in the scene t2. If the echo center of the scene t3 cannot be found within the movement error range, it is treated as having disappeared in the scene t2.

ステップS66,S67の後、シーンt0に次の未処理のエコー中心p0があるかどうかを調べ(S68)、ある場合には(S68)、次のエコー中心p0を指定して(S69)、ステップS62に戻る。未処理のエコー中心p0がない場合には(S68)、追跡を終了する。   After steps S66 and S67, it is checked whether or not there is a next unprocessed echo center p0 in the scene t0 (S68). If there is (S68), the next echo center p0 is designated (S69). Return to S62. If there is no unprocessed echo center p0 (S68), the tracking is terminated.

本処理(S13)が終了すると、後処理として、シーンメモリ42−1〜42−4に格納されるデータをHDD50に保存し、シーンメモリ42−1〜42−4をクリアする(S14)。   When this process (S13) ends, as post-processing, the data stored in the scene memories 42-1 to 42-4 is saved in the HDD 50, and the scene memories 42-1 to 42-4 are cleared (S14).

上記実施例では、レーダ装置10がアンテナ部12を自律的に回転して周囲を計測(撮影)するとしたが、コンピュータ30の処理能力は、アンテナ部12の回転速度に比べ十分に速いので、レーダ装置10がアンテナ部12を自律的に回転しても、コンピュータ30は十分に追従できる。逆に、コンピュータ30の指示に従い、レーダ装置10がアンテナ部12を1回転させて、周囲を計測(撮影)してもよいことは勿論である。   In the above embodiment, the radar apparatus 10 autonomously rotates the antenna unit 12 to measure (photograph) the surroundings. However, since the processing capability of the computer 30 is sufficiently faster than the rotation speed of the antenna unit 12, the radar device 10 Even if the apparatus 10 autonomously rotates the antenna unit 12, the computer 30 can sufficiently follow. Conversely, of course, the radar apparatus 10 may measure (photograph) the surroundings by rotating the antenna unit 12 once in accordance with an instruction from the computer 30.

レーダ装置10は、一定の監視角度範囲を繰り返し走査するタイプのものであってもよい。監視対象の飛来方向が限定されている場合には、そのように運用される。   The radar apparatus 10 may be of a type that repeatedly scans a certain monitoring angle range. When the flight direction of the monitoring target is limited, it is operated as such.

コンピュータ30は、単体のスタンドアローンのコンピュータであっても、複数のコンピュータが連係動作するシステム構成であってもよいことは、明らかである。   It is obvious that the computer 30 may be a single stand-alone computer or a system configuration in which a plurality of computers cooperate with each other.

特定の説明用の実施例を参照して本発明を説明したが、特許請求の範囲に規定される本発明の技術的範囲を逸脱しないで、上述の実施例に種々の変更・修整を施しうることは、本発明の属する分野の技術者にとって自明であり、このような変更・修整も本発明の技術的範囲に含まれる。   Although the invention has been described with reference to specific illustrative embodiments, various modifications and alterations may be made to the above-described embodiments without departing from the scope of the invention as defined in the claims. This is obvious to an engineer in the field to which the present invention belongs, and such changes and modifications are also included in the technical scope of the present invention.

10:レーダ装置
12:アンテナ部
14:モータ
16:画像化回路
18:ロータリエンコーダ
30:コンピュータ
32:CPU
32a:領域設定機能
32b:背景除去機能
32c:2値化機能
32d:ノイズ除去機能
32e:中心決定機能
32f:雨雪除去機能
32g:追跡機能
32h:警告機能
34:キーボード
36:マウス
38:メモリ
40:表示装置
42:データメモリ
42−1,42−2,42−3,42−4:シーンメモリ
50:ハードディスク装置(HDD)
10: Radar device 12: Antenna unit 14: Motor 16: Imaging circuit 18: Rotary encoder 30: Computer 32: CPU
32a: area setting function 32b: background removal function 32c: binarization function 32d: noise removal function 32e: center determination function 32f: rain / snow removal function 32g: tracking function 32h: warning function 34: keyboard 36: mouse 38: memory 40 : Display device 42: Data memory 42-1, 42-2, 42-3, 42-4: Scene memory 50: Hard disk device (HDD)

Claims (12)

所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従い移動体を監視する監視装置であって、
所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、
当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、
当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、
当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、
当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、
時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、
当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段
とを具備することを特徴とする監視装置。
Radar image data obtained by scanning a predetermined angle range, and a monitoring device that monitors a moving body according to radar image data of a plurality of scenes sequentially supplied over time,
Background generation means for generating a background image data by combining the radar image data of a predetermined number of scenes;
Background removal means for removing the background by subtracting the background image data from each radar image data supplied after generation of the background image data;
Binarizing means for binarizing radar image data from which the background has been removed by the background removing means, and generating binarized echo image data including an echo image of the moving body;
Center determining means for determining an echo center indicating a center of an echo image of each moving body included in the binarized echo image data;
Rain / snow removing means for removing an echo center indicating either rain or snow among echo centers determined by the center determining means;
A tracking means for tracking the moving body according to a result of removing rain / snow by the rain / snow removing means for a predetermined number of radar image data of 3 or more continuous in time;
A monitoring apparatus comprising: warning means for outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking means.
当該2値化手段が、当該2値化画像データにおいて当該移動体のエコー画像に相当しないエコー画像をノイズとして除去することを特徴とする請求項1に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the binarization unit removes, as noise, an echo image that does not correspond to the echo image of the moving body in the binarized image data. 当該雨雪除去手段は、当該中心決定手段により決定されるエコー中心の内、一定以上の密集密度を構成する当該エコー中心を雨及び雪の何れかを示すエコー中心と判定して除去することを特徴とする請求項1又は2に記載の監視装置。   The rain / snow removing means determines that the echo centers constituting a density of a certain density or more from the echo centers determined by the center determining means are determined as echo centers indicating either rain or snow, and removes them. The monitoring device according to claim 1 or 2, characterized in that 所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従いコンピュータに移動体を監視させる監視方法であって、
当該コンピュータが、所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成ステップと、
当該コンピュータが、当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去ステップと、
当該コンピュータが、当該背景除去ステップで背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化ステップと、
当該コンピュータが、当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定ステップと、
当該コンピュータが、当該中心決定ステップにより決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去ステップと、
当該コンピュータが、時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去ステップによる雨雪の除去結果に従い、当該移動体を追跡する追跡ステップと、
当該コンピュータが、当該追跡ステップによる追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告ステップ
とを具備することを特徴とする監視方法。
Radar image data obtained by scanning a predetermined angle range, and a monitoring method for causing a computer to monitor a moving body according to radar image data of a plurality of scenes sequentially supplied over time,
A background generation step in which the computer generates background image data by combining the radar image data of a predetermined number of scenes;
A background removal step in which the computer removes the background by subtracting the background image data from each radar image data supplied after generation of the background image data;
A binarization step in which the computer binarizes the radar image data from which the background has been removed in the background removal step, and generates binarized echo image data including an echo image of the moving body;
A center determining step in which the computer determines an echo center indicating a center of an echo image of each mobile body included in the binarized echo image data;
A rain / snow removal step in which the computer removes an echo center indicating either rain or snow among the echo centers determined by the center determination step;
A tracking step in which the computer tracks the mobile body according to the rain / snow removal result of the rain / snow removal step with respect to a predetermined number of three or more radar image data continuous in time;
A monitoring method, comprising: a warning step for outputting a warning when the computer enters a predetermined area as a result of tracking by the tracking step.
当該2値化ステップが、当該コンピュータが、当該2値化画像データにおいて当該移動体のエコー画像に相当しないエコー画像をノイズとして除去するステップを含むことを特徴とする請求項4に記載の監視方法。   5. The monitoring method according to claim 4, wherein the binarizing step includes a step in which the computer removes, as noise, an echo image that does not correspond to an echo image of the moving body in the binarized image data. . 当該雨雪除去ステップは、当該コンピュータが、当該中心決定ステップにより決定されるエコー中心の内、一定以上の密集密度を構成する当該エコー中心を雨及び雪の何れかを示すエコー中心と判定して除去するステップであることを特徴とする請求項4又は5に記載の監視方法。   In the rain / snow removal step, the computer determines that the echo centers constituting a density of a certain density or more among echo centers determined in the center determination step are echo centers indicating either rain or snow. The monitoring method according to claim 4, wherein the monitoring method is a removing step. 所定角度範囲を走査して得られるレーダ画像データであって、時間の経過とともに順次、供給される複数シーンのレーダ画像データに従いコンピュータに移動体を監視させる監視プログラムであって、当該コンピュータに、
所定シーン数の当該レーダ画像データを合成して背景画像データを生成させる背景生成機能と、
当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去させる背景除去機能と、
当該背景除去機能で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成させる2値化機能と、
当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定させる中心決定機能と、
当該中心決定機能により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去させる雨雪除去機能と、
時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去機能による雨雪の除去結果に従い、当該移動体を追跡させる追跡機能と、
当該追跡機能による追跡の結果、当該移動体が所定領域に入る場合に警告を出力させる警告機能
とを実現させることを特徴とする監視プログラム。
Radar image data obtained by scanning a predetermined angle range, which is a monitoring program that causes a computer to monitor a moving body according to radar image data of a plurality of scenes that are sequentially supplied over time.
A background generation function for generating background image data by combining the radar image data of a predetermined number of scenes;
A background removal function for removing the background by subtracting the background image data from each radar image data supplied after the generation of the background image data;
A binarization function that binarizes radar image data from which the background has been removed by the background removal function and generates binary echo image data including an echo image of a moving object;
A center determining function for determining an echo center indicating a center of an echo image of each moving body included in the binarized echo image data;
A rain / snow removal function for removing an echo center indicating either rain or snow among echo centers determined by the center determination function;
A tracking function for tracking the moving object according to the rain / snow removal result of the rain / snow removal function for a predetermined number of radar image data of 3 or more continuous in time;
A monitoring program for realizing a warning function for outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking function.
当該2値化機能が、当該コンピュータに、当該2値化画像データにおいて当該移動体のエコー画像に相当しないエコー画像をノイズとして除去させる機能を含むことを特徴とする請求項7に記載の監視プログラム。   The monitoring program according to claim 7, wherein the binarization function includes a function of causing the computer to remove, as noise, an echo image that does not correspond to an echo image of the moving body in the binarized image data. . 当該雨雪除去機能は、当該コンピュータに、当該中心決定機能により決定されるエコー中心の内、一定以上の密集密度を構成する当該エコー中心を雨及び雪の何れかを示すエコー中心と判定して除去する機能であることを特徴とする請求項7又は8に記載の監視プログラム。   The rain / snow removal function determines, in the computer, that the echo centers that constitute a density higher than a certain value among echo centers determined by the center determination function are echo centers indicating either rain or snow. The monitoring program according to claim 7 or 8, wherein the monitoring program has a function of removing. 所定角度範囲を繰り返し走査し、当該所定角度範囲のレーダ画像データを順次、生成し出力するレーダ装置と、
当該レーダ装置からの複数シーンの当該レーダ画像データに従い、当該所定角度範囲に存在する移動体を監視する監視装置
とからなる監視システムであって、
当該監視装置が、
所定シーン数の当該レーダ画像データを合成して背景画像データを生成する背景生成手段と、
当該背景画像データの生成後に供給される各レーダ画像データから当該背景画像データを減算することで背景を除去する背景除去手段と、
当該背景除去手段で背景を除去したレーダ画像データを2値化し、移動体のエコー画像を含む2値化エコー画像データを生成する2値化手段と、
当該2値化エコー画像データに含まれる当該各移動体のエコー画像の中心を示すエコー中心を決定する中心決定手段と、
当該中心決定手段により決定されるエコー中心の内、雨及び雪の何れかを示すエコー中心を除去する雨雪除去手段と、
時間的に連続する3以上の所定数のレーダ画像データに対する当該雨雪除去手段による雨雪の除去結果に従い、当該移動体を追跡する追跡手段と、
当該追跡手段による追跡の結果、当該移動体が所定領域に入る場合に警告を出力する警告手段
とを具備することを特徴とする監視システム。
A radar device that repeatedly scans a predetermined angle range, and sequentially generates and outputs radar image data of the predetermined angle range;
In accordance with the radar image data of a plurality of scenes from the radar device, a monitoring system comprising a monitoring device that monitors a moving body existing in the predetermined angle range,
The monitoring device
Background generation means for generating a background image data by combining the radar image data of a predetermined number of scenes;
Background removal means for removing the background by subtracting the background image data from each radar image data supplied after generation of the background image data;
Binarizing means for binarizing radar image data from which the background has been removed by the background removing means, and generating binarized echo image data including an echo image of the moving body;
Center determining means for determining an echo center indicating a center of an echo image of each moving body included in the binarized echo image data;
Rain / snow removing means for removing an echo center indicating either rain or snow among echo centers determined by the center determining means;
A tracking means for tracking the moving body according to a result of removing rain / snow by the rain / snow removing means for a predetermined number of radar image data of 3 or more continuous in time;
A monitoring system comprising: warning means for outputting a warning when the moving body enters a predetermined area as a result of tracking by the tracking means.
当該2値化手段が、当該2値化画像データにおいて当該移動体のエコー画像に相当しないエコー画像をノイズとして除去することを特徴とする請求項10に記載の監視システム。   The monitoring system according to claim 10, wherein the binarizing unit removes, as noise, an echo image that does not correspond to an echo image of the moving body in the binarized image data. 当該雨雪除去手段は、当該中心決定手段により決定されるエコー中心の内、一定以上の密集密度を構成する当該エコー中心を雨及び雪の何れかを示すエコー中心と判定して除去することを特徴とする請求項10又は11に記載の監視システム。   The rain / snow removing means determines that the echo centers constituting a density of a certain density or more from the echo centers determined by the center determining means are determined as echo centers indicating either rain or snow, and removes them. The monitoring system according to claim 10 or 11, characterized in that
JP2010144565A 2010-06-25 2010-06-25 Monitoring device, method and program, and monitoring system Pending JP2012008021A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010144565A JP2012008021A (en) 2010-06-25 2010-06-25 Monitoring device, method and program, and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010144565A JP2012008021A (en) 2010-06-25 2010-06-25 Monitoring device, method and program, and monitoring system

Publications (2)

Publication Number Publication Date
JP2012008021A true JP2012008021A (en) 2012-01-12
JP2012008021A5 JP2012008021A5 (en) 2013-06-27

Family

ID=45538732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010144565A Pending JP2012008021A (en) 2010-06-25 2010-06-25 Monitoring device, method and program, and monitoring system

Country Status (1)

Country Link
JP (1) JP2012008021A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210268A (en) * 2012-03-30 2013-10-10 Nippon Telegr & Teleph Corp <Ntt> Two-dimensional image reconstruction method
JP2014081704A (en) * 2012-10-15 2014-05-08 Central Research Institute Of Electric Power Industry Image processing method, image processing device, and image processing program for frying object
KR101438117B1 (en) 2013-06-25 2014-09-12 국방과학연구소 System for calculating driving path for warship and method thereof
JP2014215237A (en) * 2013-04-26 2014-11-17 住友電気工業株式会社 Meteorological observation deice, meteorological observation program and meteorological observation method
JP2016090409A (en) * 2014-11-06 2016-05-23 いであ株式会社 Bird observation method
CN106709926A (en) * 2016-12-12 2017-05-24 四川大学 Quick calculation rain removal algorithm based on dynamic priori knowledge estimation
CN115686377A (en) * 2022-11-17 2023-02-03 福建省气象局 Weather radar data format storage and reading method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130145A (en) * 1992-10-20 1994-05-13 Toshiba Corp Radar signal processor
JPH07181247A (en) * 1993-12-24 1995-07-21 Oki Electric Ind Co Ltd Object-tracking image display
JPH0943348A (en) * 1995-08-03 1997-02-14 Toshiba Corp Radar image signal processor
JPH09127242A (en) * 1995-11-06 1997-05-16 Toshiba Corp Radar-image processing apparatus
JP2002099986A (en) * 2000-09-22 2002-04-05 Natl Inst For Land & Infrastructure Management Mlit Travel vehicle detecting method by millimeter-wave radar
JP2003107159A (en) * 2001-09-28 2003-04-09 Honda Motor Co Ltd Axial deviation adjusting device in object detection device for vehicle
JP2004340729A (en) * 2003-05-15 2004-12-02 Hitachi Ltd Movable body detection radar device
JP2005172824A (en) * 2004-12-06 2005-06-30 Fujitsu Ten Ltd Method for adjusting setting angle of vehicular radar installation
JP2008256626A (en) * 2007-04-09 2008-10-23 Furuno Electric Co Ltd Automatic gain controller

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130145A (en) * 1992-10-20 1994-05-13 Toshiba Corp Radar signal processor
JPH07181247A (en) * 1993-12-24 1995-07-21 Oki Electric Ind Co Ltd Object-tracking image display
JPH0943348A (en) * 1995-08-03 1997-02-14 Toshiba Corp Radar image signal processor
JPH09127242A (en) * 1995-11-06 1997-05-16 Toshiba Corp Radar-image processing apparatus
JP2002099986A (en) * 2000-09-22 2002-04-05 Natl Inst For Land & Infrastructure Management Mlit Travel vehicle detecting method by millimeter-wave radar
JP2003107159A (en) * 2001-09-28 2003-04-09 Honda Motor Co Ltd Axial deviation adjusting device in object detection device for vehicle
JP2004340729A (en) * 2003-05-15 2004-12-02 Hitachi Ltd Movable body detection radar device
JP2005172824A (en) * 2004-12-06 2005-06-30 Fujitsu Ten Ltd Method for adjusting setting angle of vehicular radar installation
JP2008256626A (en) * 2007-04-09 2008-10-23 Furuno Electric Co Ltd Automatic gain controller

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210268A (en) * 2012-03-30 2013-10-10 Nippon Telegr & Teleph Corp <Ntt> Two-dimensional image reconstruction method
JP2014081704A (en) * 2012-10-15 2014-05-08 Central Research Institute Of Electric Power Industry Image processing method, image processing device, and image processing program for frying object
JP2014215237A (en) * 2013-04-26 2014-11-17 住友電気工業株式会社 Meteorological observation deice, meteorological observation program and meteorological observation method
KR101438117B1 (en) 2013-06-25 2014-09-12 국방과학연구소 System for calculating driving path for warship and method thereof
JP2016090409A (en) * 2014-11-06 2016-05-23 いであ株式会社 Bird observation method
CN106709926A (en) * 2016-12-12 2017-05-24 四川大学 Quick calculation rain removal algorithm based on dynamic priori knowledge estimation
CN106709926B (en) * 2016-12-12 2020-11-06 四川大学 Fast calculation rain removing method based on dynamic priori knowledge estimation
CN115686377A (en) * 2022-11-17 2023-02-03 福建省气象局 Weather radar data format storage and reading method

Similar Documents

Publication Publication Date Title
JP2012008021A (en) Monitoring device, method and program, and monitoring system
US11187790B2 (en) Laser scanning system, laser scanning method, movable laser scanning system, and program
CN211653129U (en) Two-dimensional scanning device and laser radar device with same
JP6599143B2 (en) Autonomous mobile robot
EP2980756A1 (en) Bird detection device, bird detection system, bird detection method, and program
CN109471098B (en) Airport runway foreign matter detection method utilizing FOD radar phase coherence information
JP6527726B2 (en) Autonomous mobile robot
US20210319221A1 (en) Vessel Height Detection Through Video Analysis
JP6530212B2 (en) Autonomous mobile robot
JP2012008021A5 (en)
JP6469492B2 (en) Autonomous mobile robot
JP2018125670A (en) Aerial monitoring device, aerial monitoring method and program
JP6228099B2 (en) Bird observation method
JP3443106B2 (en) Floating object detection / monitoring method and device
JP2017068639A (en) Autonomous Mobile Robot
CN111158014A (en) Multi-radar comprehensive bird detection system
CN112731335B (en) Multi-unmanned aerial vehicle cooperative positioning method based on full-area laser scanning
EP4363877A1 (en) Methods and systems for detecting vessels
CN113888589A (en) Water surface obstacle detection and multi-target tracking method based on laser radar
KR102120779B1 (en) Method and apparatus of monitoring sea surface using UAV
Xu et al. Road marking survey with mobile Lidar system
JP2020085521A (en) Monitoring system
US20240094396A1 (en) Systems and methods for generating focused threedimensional (3d) point clouds
CN117368874A (en) FOD identification method, identification system, identification device and electronic equipment
JP3609160B2 (en) Marine radar target warning device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140930