JP2002214334A - Target detection apparatus - Google Patents

Target detection apparatus

Info

Publication number
JP2002214334A
JP2002214334A JP2001014166A JP2001014166A JP2002214334A JP 2002214334 A JP2002214334 A JP 2002214334A JP 2001014166 A JP2001014166 A JP 2001014166A JP 2001014166 A JP2001014166 A JP 2001014166A JP 2002214334 A JP2002214334 A JP 2002214334A
Authority
JP
Japan
Prior art keywords
images
cross
correlation function
calculated
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001014166A
Other languages
Japanese (ja)
Inventor
Koichi Morimura
弘一 森村
Shintaro Kumano
信太郎 熊野
Masahito Takuhara
雅人 宅原
Kazuo Ouchi
和夫 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2001014166A priority Critical patent/JP2002214334A/en
Publication of JP2002214334A publication Critical patent/JP2002214334A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a target detection apparatus and method capable of detecting a target with high accuracy regardless of weather conditions. SOLUTION: The apparatus includes a synthetic aperture radar 11 and a processor 12. The processor 12 creates a plurality of images by continuously picking up images with a predetermined time difference, and calculates the correlation function between the plurality of images to detect the target based on the correlation function calculated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、対象物検出装置に
関し、特に電磁波を情報キャリアとして上空から地表面
の情報を得て対象物を検出するリモートセンシング技術
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detection apparatus, and more particularly to a remote sensing technique for detecting an object by obtaining information on the ground surface from above using electromagnetic waves as an information carrier.

【0002】[0002]

【従来の技術】従来、リモートセンシングによって地表
面の対象物を検出する技術の1つとして、マイクロ波を
情報キャリアとして用いる合成開口レーダが知られてい
る。そして、この合成開口レーダを応用した装置とし
て、合成開口レーダから得られた海洋画像から船舶等の
対象物を検出する対象物検出装置が知られている。
2. Description of the Related Art Conventionally, as one of the techniques for detecting an object on the ground surface by remote sensing, a synthetic aperture radar using a microwave as an information carrier is known. As an apparatus to which this synthetic aperture radar is applied, an object detection apparatus for detecting an object such as a ship from an ocean image obtained from the synthetic aperture radar is known.

【0003】この対象物検出装置では、海洋画像中の対
象物の輝度が背景である海面の輝度より大きいことを利
用して対象物を検出している。具体的には、適当な手法
で閾値を決定し、海洋画像中に閾値より大きな領域が存
在する場合に、その領域を対象物であると判断してい
る。
In this object detection device, an object is detected by utilizing the fact that the luminance of the object in the ocean image is higher than the luminance of the sea surface as the background. Specifically, the threshold is determined by an appropriate method, and if an area larger than the threshold exists in the ocean image, the area is determined to be the target.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、例えば
荒天時に波が大きくなった場合は、この波の輝度が大き
いので、背景(波を含む海面)と対象物との輝度差が小
さくなる。このような場合は、適切な閾値を設定するこ
とが困難であり、対象物を精度よく抽出できない。ま
た、対象物が移動している時は、画像のぼけが発生して
対象物の輝度が低下するので、この場合も、対象物を精
度よく抽出できない。その結果、対象物の検出精度が低
下するという問題がある。
However, for example, when the wave becomes large in stormy weather, the luminance of the wave is large, and the luminance difference between the background (the sea surface including the wave) and the object becomes small. In such a case, it is difficult to set an appropriate threshold, and the target object cannot be extracted with high accuracy. Further, when the object is moving, the image is blurred and the luminance of the object is reduced. In this case, the object cannot be accurately extracted. As a result, there is a problem that the detection accuracy of the target object decreases.

【0005】そこで、本発明の目的は、天候に左右され
ずに対象物を高精度で検出できる対象物検出装置を提供
することにある。
It is an object of the present invention to provide an object detecting device capable of detecting an object with high accuracy without being affected by the weather.

【0006】また、本発明の他の目的は、対象物の移動
の有無に拘わらず、該対象物を高精度で検出できる対象
物検出装置を提供することにある。
It is another object of the present invention to provide an object detecting apparatus capable of detecting an object with high accuracy regardless of whether or not the object has moved.

【0007】[0007]

【課題を解決するための手段】一般に、波は時々刻々と
形状が変化するため、所定の時間差をもって連続して撮
像された複数の画像の各々の輝度パターンは異なり相関
がない。これに対し、船舶等の対象物は形状が変化しな
いため、複数の画像の各々の輝度パターンは同じであり
相関がある。また、対象物が移動している場合であって
も、位置は異なるが輝度パターンは同じであり相関があ
る。本発明は、このような事実に着目してなされたもの
であり、背景と対象物の輝度差がない場合であっても対
象物を検出可能にするものである。
In general, since the shape of a wave changes every moment, the brightness patterns of a plurality of images continuously picked up with a predetermined time difference are different and have no correlation. On the other hand, since the shape of an object such as a ship does not change, the luminance patterns of the plurality of images are the same and have a correlation. Further, even when the target is moving, the position is different but the luminance pattern is the same and there is a correlation. The present invention has been made in view of such a fact, and makes it possible to detect an object even when there is no luminance difference between the background and the object.

【0008】本発明の第1の態様に係る対象物検出装置
は、上記目的を達成するために、所定の時間差をもって
連続的に撮像することにより複数の画像を作成する画像
作成部と、前記画像作成部で作成された前記複数の画像
の間の相互相関関数を算出する相互相関関数算出部と、
前記相互相関関数算出部で算出された相互相関関数に基
づいて対象物を検出する検出部、とを備えている。
In order to achieve the above object, an object detecting apparatus according to a first aspect of the present invention comprises: an image creating section for creating a plurality of images by continuously capturing images with a predetermined time difference; A cross-correlation function calculation unit that calculates a cross-correlation function between the plurality of images created by the creation unit,
A detection unit for detecting an object based on the cross-correlation function calculated by the cross-correlation function calculation unit.

【0009】この対象物検出装置によれば、所定の時間
差をもって連続的に撮像することにより作成された複数
の画像の間の相互相関関数を算出し、この算出された相
互相関関数に基づいて対象物を検出するので、上記所定
の時間差内で輝度が変化する波のようなものは相互相関
関数が小さくなる一方、所定の時間差内で輝度が変化し
ない船舶のようなものは相互相関関数が大きくなる。従
って、天候が悪くて波が高い場合であっても船舶を対象
物とする場合は、該船舶を確実に検出できる。
According to this object detecting apparatus, a cross-correlation function between a plurality of images created by continuously capturing images with a predetermined time difference is calculated, and an object is calculated based on the calculated cross-correlation function. Since an object is detected, a wave like a wave whose luminance changes within the predetermined time difference has a small cross-correlation function, whereas a ship such as a ship whose luminance does not change within a predetermined time difference has a large cross-correlation function. Become. Therefore, even when the weather is bad and the waves are high, when the ship is the target, the ship can be reliably detected.

【0010】この第1の態様に係る対象物検出装置にお
いて、前記画像作成部は、合成開口レーダを含み、該合
成開口レーダから得られたデータを処理することにより
前記複数の画像を作成するように構成できる。この構成
によれば、合成開口レーダから得られたデータに基づい
て時間差を有する複数の画像が作成されるので、各画像
の時間分解能(どの程度細かい時間間隔で観測できるか
という能力)を上げることができる。
In the object detecting apparatus according to the first aspect, the image creating section includes a synthetic aperture radar, and creates the plurality of images by processing data obtained from the synthetic aperture radar. Can be configured. According to this configuration, since a plurality of images having a time difference are created based on the data obtained from the synthetic aperture radar, the time resolution of each image (the ability to observe at fine time intervals) is improved. Can be.

【0011】また、この第1の態様に係る対象物検出装
置において、前記画像作成部は、前記合成開口レーダか
ら得られたデータを複数のサブアパーチャに分割するこ
とにより前記複数の画像を作成するように構成できる。
この構成によれば、1回の走査で時間差を有する複数の
画像を作成できるので、処理効率が向上する。
Further, in the object detecting apparatus according to the first aspect, the image creating section creates the plurality of images by dividing data obtained from the synthetic aperture radar into a plurality of sub-apertures. It can be configured as follows.
According to this configuration, a plurality of images having a time difference can be created by one scan, so that processing efficiency is improved.

【0012】また、上記他の目的を達成するために、こ
の第1の態様に係る対象物検出装置における前記相互相
関関数算出部は、前記複数の画像から選ばれた2つの画
像の間の相互相関関数を算出する際に、該2つの画像の
相対位置の各々について相互相関関数を算出するように
構成できる。この構成によれば、対象物が移動しても2
つの画像の間で相互相関関数が大きい箇所を検出するこ
とができるので、対象物の移動の有無に拘わらず、該対
象物を高精度で検出できる。
In order to achieve the other object, the cross-correlation function calculating section in the object detecting apparatus according to the first aspect, further comprises a cross-correlation function for calculating a cross-correlation between two images selected from the plurality of images. When calculating the correlation function, it can be configured to calculate the cross-correlation function for each of the relative positions of the two images. According to this configuration, even if the object moves, 2
Since a portion having a large cross-correlation function can be detected between two images, the object can be detected with high accuracy regardless of whether or not the object moves.

【0013】また、この第1の態様に係る対象物検出装
置は、前記複数の画像から選ばれる2つの画像の組合せ
の全てについて算出された相互相関関数を平均して新た
な平均相互相関関数を算出する平均相互相関関数算出
部、を更に備えて構成できる。この構成によれば、時間
差を有する3つ以上の画像に基づいて相互相関関数を算
出する場合に平均された相互相関関数が得られるので、
何れかの画像にノイズが発生しても、これを減少させる
ことができる。
The object detection apparatus according to the first aspect averages the cross-correlation functions calculated for all combinations of two images selected from the plurality of images to obtain a new average cross-correlation function. An average cross-correlation function calculator for calculating the average cross-correlation function may be further provided. According to this configuration, an averaged cross-correlation function is obtained when the cross-correlation function is calculated based on three or more images having a time difference.
Even if noise occurs in any of the images, it can be reduced.

【0014】また、この第1の態様に係る対象物検出装
置において、前記検出部は、前記相互相関関数算出部で
算出された相互相関関数のピークが所定値より大きい場
合に前記対象物を検出したことを判断するように構成で
きる。この構成により、所定値を適宜定めることによ
り、対象物の存否を検出できる。
In the object detecting apparatus according to the first aspect, the detecting section detects the object when a peak of the cross-correlation function calculated by the cross-correlation function calculating section is larger than a predetermined value. It can be configured to determine that With this configuration, the presence or absence of the target can be detected by appropriately setting the predetermined value.

【0015】また、本発明の第2の態様に係る対象物検
出方法は、上記目的を達成するために、所定の時間差を
もって連続的に撮像することにより複数の画像を作成
し、該作成された前記複数の画像の間の相互相関関数を
算出し、該算出された相互相関関数に基づいて対象物を
検出するように構成されている。
Further, in order to achieve the above object, a method for detecting an object according to a second aspect of the present invention creates a plurality of images by continuously capturing images with a predetermined time difference. The apparatus is configured to calculate a cross-correlation function between the plurality of images and detect an object based on the calculated cross-correlation function.

【0016】この第2の態様に係る対象物検出方法にお
いて、前記複数の画像を作成するステップは、合成開口
レーダから得られたデータを処理することにより前記複
数の画像を作成するように構成できる。
In the object detecting method according to the second aspect, the step of creating the plurality of images can be configured to create the plurality of images by processing data obtained from a synthetic aperture radar. .

【0017】また、この第2の態様に係る対象物検出方
法において、前記複数の画像を作成するステップは、前
記合成開口レーダから得られたデータを複数のサブアパ
ーチャに分割して処理することにより前記複数の画像を
作成するように構成できる。
Further, in the object detecting method according to the second aspect, the step of creating the plurality of images is performed by dividing data obtained from the synthetic aperture radar into a plurality of sub-apertures and processing the divided data. It can be configured to create the plurality of images.

【0018】また、上記他の目的を達成するために、こ
の第2の態様に係る対象物検出方法における前記相互相
関関数を算出するステップは、前記複数の画像から選ば
れた2つの画像の間の相互相関関数を算出する際に、該
2つの画像の相対位置の各々について相互相関関数を算
出する。
In order to achieve the other object, the step of calculating the cross-correlation function in the object detection method according to the second aspect includes the step of calculating the cross-correlation function between two images selected from the plurality of images. When calculating the cross-correlation function, the cross-correlation function is calculated for each of the relative positions of the two images.

【0019】また、この第2の態様に係る対象物検出方
法は、前記複数の画像から選ばれる2つの画像の組合せ
の全てについて算出された相互相関関数を平均して新た
な平均相互相関関数を算出するステップ、を更に備えて
構成できる。
In the object detection method according to the second aspect, a new average cross-correlation function is obtained by averaging cross-correlation functions calculated for all combinations of two images selected from the plurality of images. And a calculating step.

【0020】更に、この第2の態様に係る対象物検出方
法において、前記検出するステップは、前記算出された
相互相関関数のピークが所定値より大きい場合に前記対
象物を検出したことを判断するように構成できる。
Further, in the object detecting method according to the second aspect, the detecting step determines that the object has been detected when the calculated peak of the cross-correlation function is larger than a predetermined value. It can be configured as follows.

【0021】これら本発明の第2の態様に係る対象物検
出方法においても、上述した本発明の第1の態様に係る
対象物検出装置と同様の作用及び効果を奏する。
The object detecting method according to the second aspect of the present invention has the same functions and effects as those of the above-described object detecting apparatus according to the first aspect of the present invention.

【0022】[0022]

【発明の実施の形態】以下、本発明の実施の形態に係る
対象物検出装置及び対象物検出方法を、図面を参照しな
がら詳細に説明する。なお、以下では、対象物が船舶で
あり、海洋の画像から、この船舶を検出する場合の例に
ついて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an object detecting apparatus and an object detecting method according to an embodiment of the present invention will be described in detail with reference to the drawings. In the following, an example in which the target is a ship and the ship is detected from an image of the sea will be described.

【0023】(実施の形態1)この実施の形態1に係る
対象物検出装置は、時間差を有する複数の画像が2つで
ある場合の例である。
(Embodiment 1) The object detecting apparatus according to Embodiment 1 is an example in which there are two images having a time difference.

【0024】図1は、本発明の実施の形態1に係る対象
物検出装置の概略的な構成を示す図である。この対象物
検出装置は、プラットフォーム10、合成開口レーダ1
1及び処理装置12から構成されている。プラットフォ
ーム10は、センサとしての合成開口レーダ11を搭載
して移動する移動体である。このプラットフォーム10
としては、航空機、人工衛星、気球、模型飛行機等を用
いることができる。
FIG. 1 is a diagram showing a schematic configuration of an object detection apparatus according to Embodiment 1 of the present invention. This object detection device includes a platform 10, a synthetic aperture radar 1
1 and a processing device 12. The platform 10 is a moving body on which a synthetic aperture radar 11 as a sensor is mounted and moves. This platform 10
For example, an aircraft, an artificial satellite, a balloon, a model airplane, or the like can be used.

【0025】合成開口レーダ11は、比較的小さいアン
テナから幅の広いパルスビームを照射しながらプラット
フォーム10によって移動される。この合成開口レーダ
11の原理や構成は周知であるので、詳細な説明は省略
する。
The synthetic aperture radar 11 is moved by the platform 10 while emitting a wide pulse beam from a relatively small antenna. Since the principle and configuration of the synthetic aperture radar 11 are well known, detailed description will be omitted.

【0026】処理装置12は、例えばマイクロコンピュ
ータ、ワークステーション、汎用コンピュータといった
プロセッサから構成されている。この処理装置12は、
合成開口レーダ11からの生データに基づいて対象物で
ある船舶を検出する処理を実行する。合成開口レーダ1
1と処理装置12との間は、プラットフォーム10の種
類に依存して有線又は無線で接続することができる。
The processing device 12 is constituted by a processor such as a microcomputer, a workstation, and a general-purpose computer. This processing device 12
Based on the raw data from the synthetic aperture radar 11, a process of detecting a target ship is executed. Synthetic aperture radar 1
1 and the processing device 12 can be connected by wire or wireless depending on the type of the platform 10.

【0027】上記合成開口レーダ11から得られる生デ
ータは、それぞれの方向に異なった点像分布関数により
コンボリュージョンされた信号である。従って、処理装
置12は、合成開口レーダ11からの生データのデコン
ボリュージョン処理を行うことにより、地表面の画像を
再生する。本発明の画像作成部は、この地表面の画像を
再生する処理を行う処理装置12の一部分により構成さ
れている。
The raw data obtained from the synthetic aperture radar 11 is a signal convolved with a different point spread function in each direction. Therefore, the processing device 12 reproduces the image of the ground surface by performing the deconvolution processing of the raw data from the synthetic aperture radar 11. The image creation unit of the present invention is configured by a part of the processing device 12 that performs processing for reproducing the image of the ground surface.

【0028】処理装置12は、この地表面の画像を再生
する際、2つのサブアパーチャに分割することで、時間
差のある2つの画像(以下、画像1及び画像2という)
を作成する。図1では、第1サブアパーチャと第2サブ
アパーチャとに分割することにより、時間差を有する2
つの画像1及び画像2を作成する様子を示している。処
理装置12は、このデコンボリュージョン処理により再
生された画像を用いて船舶を検出する処理を実行する。
When the image of the ground surface is reproduced, the processing device 12 divides the image into two sub-apertures so that two images having a time difference (hereinafter referred to as image 1 and image 2).
Create In FIG. 1, by dividing into a first sub-aperture and a second sub-aperture, 2
3 shows how two images 1 and 2 are created. The processing device 12 performs a process of detecting a ship using the image reproduced by the deconvolution process.

【0029】ここで、画像1と画像2との時間差は、プ
ラットフォーム10の移動速度によって異なるが、合成
開口レーダ11の走査範囲を前後10Km程度、プラッ
トフォーム10の移動速度を7Km/秒程度とすると、
0.5秒程度である。
Here, the time difference between the image 1 and the image 2 varies depending on the moving speed of the platform 10. Assuming that the scanning range of the synthetic aperture radar 11 is about 10 km before and after and the moving speed of the platform 10 is about 7 km / sec.
It is about 0.5 seconds.

【0030】次に、上記のように構成される本発明の実
施の形態1に係る対象物検出装置の動作を、図2に示し
たフローチャートを参照しながら説明する。
Next, the operation of the object detecting device according to the first embodiment of the present invention configured as described above will be described with reference to the flowchart shown in FIG.

【0031】処理装置12は、先ず、上述したようにし
て得られた時間差を有する画像1及び画像2上の同一位
置から小さな領域を処理用のウインドウとして切り出す
(ステップS10)。この際、ウインドウの大きさは適
宜定めることができる。
The processing unit 12 first cuts out a small area from the same position on the images 1 and 2 having the time difference obtained as described above as a processing window (step S10). At this time, the size of the window can be appropriately determined.

【0032】次いで、切り出した2つのウインドウの間
の相互相関関数を算出する(ステップS11)。本発明
の相互相関関数算出部は、これらステップS10及びS
11の処理により構成されている。
Next, a cross-correlation function between the two extracted windows is calculated (step S11). The cross-correlation function calculation unit of the present invention performs these steps S10 and S10.
It is composed of 11 processes.

【0033】相互相対関数としては、例えば、下記式
(1)を用いることができる。
As the mutual relative function, for example, the following equation (1) can be used.

【数1】 ここで、f1(x,y)は、画像1の画素の位置(x,
y)の輝度を表す関数、f2(x,y)は、画像2の画
素の位置(x,y)の輝度を表す関数である。
(Equation 1) Here, f 1 (x, y) is the position (x,
The function representing the luminance of y), f 2 (x, y), is a function representing the luminance of the pixel position (x, y) of the image 2.

【0034】或いはまた、相互相関関数としては、相関
を周波数領域で表した、下記式(5)を用いることがで
きる。
Alternatively, as the cross-correlation function, the following equation (5) in which the correlation is expressed in the frequency domain can be used.

【数2】 (Equation 2)

【数3】 (Equation 3)

【数4】 (Equation 4)

【数5】 ここで、FT2D[f(x,y)]は、関数f(x,
y)の2次元離散フーリエ変換を表す関数であり、FT
2D[G(ω,ω)]は、関数G(ω,ω )の
2次元離散フーリエ変換を表す関数である。
(Equation 5)Here, FT2D [f (x, y)] is a function f (x,
y) is a function representing a two-dimensional discrete Fourier transform of FT
2D [G (ωx, Ωy)] Is a function G (ωx, Ω y)of
This is a function representing a two-dimensional discrete Fourier transform.

【0035】この相互相関関数を算出するステップS1
1では、画像1と画像2との相対位置を変えながら全て
の相対位置について相互相関関数が算出される。従っ
て、画像1及び画像2内に船舶が存在する場合は、何れ
かの相対位置で、例えば図4に示すような、ピークを有
する相互相関関数が得られる。この構成により、船舶が
移動している場合であっても船舶を検出できる。
Step S1 for calculating the cross-correlation function
In 1, the cross-correlation function is calculated for all the relative positions while changing the relative positions of the image 1 and the image 2. Therefore, when a ship exists in the image 1 and the image 2, a cross-correlation function having a peak as shown in FIG. 4, for example, is obtained at any relative position. With this configuration, the ship can be detected even when the ship is moving.

【0036】一方、画像1及び画像2内の何れにも船舶
が存在しない場合は、例えば図5に示すような、ピーク
が存在しない相互相関関数が得られる。ところで、波が
発生してから消滅するまでの時間は、0.2秒程度と言
われている。これに対し、画像1と画像2との時間差は
0.5秒程度である。
On the other hand, when there is no ship in both the image 1 and the image 2, a cross-correlation function having no peak as shown in FIG. 5, for example, is obtained. By the way, it is said that the time from the occurrence of a wave to its disappearance is about 0.2 seconds. In contrast, the time difference between image 1 and image 2 is about 0.5 seconds.

【0037】従って、画像1に存在する波は画像2では
存在せず、波に起因する輝度パターンが画像1と画像2
とで同じになることは殆どない。従って、この場合も、
図5に示すような、ピークが存在しない相互相関関数が
得られる。換言すれば、相互相関関数にピークが存在す
ることは、波の有無に拘わらず船舶の存在を検出したこ
とを意味する。
Therefore, the wave present in the image 1 does not exist in the image 2, and the luminance pattern caused by the wave is different between the images 1 and 2.
It is hardly the same with. Therefore, in this case as well,
As shown in FIG. 5, a cross-correlation function having no peak is obtained. In other words, the presence of a peak in the cross-correlation function means that the presence of a ship has been detected regardless of the presence or absence of a wave.

【0038】次いで、上記ステップS11で算出された
相互相関関数のピークの高さが一定値以上であるかどう
かが調べられる(ステップS12)。そして、一定値以
上であることが判断されると、対象物を検出したことが
認識され、その旨の情報が処理装置12の内部に記憶さ
れる(ステップS13)。
Next, it is checked whether or not the peak height of the cross-correlation function calculated in step S11 is equal to or more than a predetermined value (step S12). If it is determined that the value is equal to or more than the predetermined value, it is recognized that the target is detected, and information to that effect is stored in the processing device 12 (step S13).

【0039】一方、相互相関関数のピークの高さが一定
値以上でないことが判断されると、船舶を検出しなかっ
たことが認識され、その旨の情報が処理装置12の内部
に記憶される(ステップS14)。これらステップS1
3及びS14で記憶された検出結果を表す情報は、後段
の種々の処理に利用される。上記一定値は、例えば複数
回の検出処理を行った結果に基づいて定めることができ
る。
On the other hand, if it is determined that the peak height of the cross-correlation function is not equal to or greater than the predetermined value, it is recognized that the vessel has not been detected, and information to that effect is stored in the processing device 12. (Step S14). These steps S1
The information indicating the detection result stored in step 3 and S14 is used for various processes at the subsequent stage. The fixed value can be determined, for example, based on the result of performing the detection processing a plurality of times.

【0040】次いで、ウインドウの全領域について処理
が完了したかどうかが調べられる(ステップS15)。
そして、処理が完了していないことが判断されると、ウ
インドウを移動する(ステップS16)。その後、シー
ケンスはステップS10に戻り、再度同様の処理が繰り
返される。この繰り返し処理において、ステップS15
で、ウインドウの全領域について処理が完了したことが
判断されると、対象物検出処理は終了する。
Next, it is checked whether or not the processing has been completed for all areas of the window (step S15).
If it is determined that the processing is not completed, the window is moved (step S16). Thereafter, the sequence returns to step S10, and the same processing is repeated again. In this repetitive processing, step S15
When it is determined that the processing has been completed for all areas of the window, the object detection processing ends.

【0041】以上説明したように、この実施の形態1に
係る対象物検出装置によれば、荒天時で波が高い場合で
あっても、船舶等の移動体を衛星や航空機に搭載された
合成開口レーダの利用して監視することが可能になり、
漁業管理、海上交通管理、海難救助等を効率よく、しか
も確実に行うことができる。
As described above, according to the object detecting apparatus according to the first embodiment, even if the waves are high in stormy weather, a moving object such as a ship can be combined on a satellite or an aircraft. It is possible to monitor using aperture radar,
Fishery management, marine traffic management, salvage, etc. can be performed efficiently and reliably.

【0042】(実施の形態2)本発明の実施の形態2に
係る対象物検出装置は、時間差を有する複数の画像が3
つ以上である場合の例である。
(Embodiment 2) The object detecting apparatus according to Embodiment 2 of the present invention comprises a plurality of images having a time difference of 3
This is an example in the case where the number is more than one.

【0043】この実施の形態2に係る対象物検出装置の
構成は、サブアパーチャが3つ以上から構成されること
を除けば、図1に示した実施の形態1に係る対象物検出
装置のそれと同じである。
The configuration of the object detecting apparatus according to the second embodiment is the same as that of the object detecting apparatus according to the first embodiment shown in FIG. 1 except that the number of sub-apertures is three or more. Is the same.

【0044】この実施の形態2に係る対象物検出装置の
動作を、図3に示したフローチャートを参照しながら説
明する。なお、上述した図2に示したフローチャートの
ステップと同一及び相当部分には同一符号を付して説明
を省略乃至簡略化する。
The operation of the object detecting apparatus according to the second embodiment will be described with reference to the flowchart shown in FIG. The same and corresponding parts as those in the flowchart of FIG. 2 described above are denoted by the same reference numerals, and description thereof will be omitted or simplified.

【0045】処理装置12は、先ず、上述したようにし
て得られた時間差を有する3つ以上の画像の中から2つ
の画像を選択し、選択された2つの画像上の同一位置か
ら小さな領域をウインドウとして切り出す(ステップS
10)。次いで、切り出した2つのウインドウの間の相
互相関関数を算出する(ステップS11)。そして、算
出された相互相関関数は図示しないメモリに格納され
る。
The processing device 12 first selects two images from among three or more images having a time difference obtained as described above, and extracts a small area from the same position on the two selected images. Cut out as a window (Step S
10). Next, a cross-correlation function between the two extracted windows is calculated (step S11). Then, the calculated cross-correlation function is stored in a memory (not shown).

【0046】次いで、ウインドウの全領域について相互
相関関数を算出する処理が完了したかどうかが調べられ
る(ステップS15)。ここで、処理が完了していない
ことが判断されると、ウインドウを移動する(ステップ
S16)。そして、シーケンスはステップS10に戻
り、再度同様の処理が繰り返して実行される。
Next, it is checked whether or not the process of calculating the cross-correlation function has been completed for all regions of the window (step S15). If it is determined that the processing has not been completed, the window is moved (step S16). Then, the sequence returns to step S10, and the same processing is repeatedly executed again.

【0047】この繰り返し実行において、ステップS1
5で、ウインドウの全領域について処理が完了したこと
が判断されると、全画像の組合せについての処理が完了
したかどうかが調べられる(ステップS20)。そし
て、完了していないことが判断されると、画像の組合せ
を変えた後に、シーケンスはステップS10へ分岐し、
上述した処理と同様の処理が繰り返し実行される。
In this repetitive execution, step S1
If it is determined in step 5 that the processing has been completed for all areas of the window, it is checked whether the processing for all combinations of images has been completed (step S20). Then, if it is determined that the processing has not been completed, the sequence branches to step S10 after changing the combination of images, and
The same processing as the above-described processing is repeatedly executed.

【0048】この繰り返し実行において、ステップS2
0で、全画像の組合せについての処理が完了したことが
判断されると、相互相対関数の平均化処理が行われる
(ステップS21)。本発明の平均相互相関関数算出部
は、このステップS21の処理に対応する。この相互相
対関数の平均化処理では、先に算出されてメモリに蓄積
されている全画像の組合せについての相互相関関数をウ
インドウ毎に読み出して平均化する。
In this repetitive execution, step S2
When it is determined that the processing has been completed for all combinations of images at 0, averaging processing of the mutual relative function is performed (step S21). The average cross-correlation function calculator of the present invention corresponds to the processing in step S21. In the averaging process of the mutual relative function, the cross-correlation function for all combinations of images previously calculated and stored in the memory is read and averaged for each window.

【0049】次いで、上記平均化された相互相関関数の
ピークの高さが一定値以上であるかどうかが全てのウイ
ンドウについて調べられる(ステップS12)。そし
て、一定値以上であるウインドウであれば、そのウイン
ドウで船舶が検出されたことが認識され、その旨の情報
が処理装置12の内部に記憶される(ステップS1
3)。以上により、対象物検出処理は終了する。
Next, it is checked for all the windows whether the height of the peak of the averaged cross-correlation function is equal to or more than a predetermined value (step S12). If the window is equal to or more than the predetermined value, it is recognized that a ship has been detected in the window, and information to that effect is stored in the processing device 12 (step S1).
3). Thus, the target object detection processing ends.

【0050】一方、相互相関関数のピークの高さが一定
値以上でないウインドウであれば、そのウインドウでは
船舶は検出されなかったことが認識され、その旨の情報
が処理装置12の内部に記憶される(ステップS1
4)。以上により、対象物検出処理は終了する。これら
ステップS13及びS14で記憶された検出結果を表す
情報は、後段の種々の処理に利用される。
On the other hand, if the height of the peak of the cross-correlation function is not a certain value or more, it is recognized that no vessel has been detected in that window, and information to that effect is stored in the processing device 12. (Step S1
4). Thus, the target object detection processing ends. The information representing the detection results stored in steps S13 and S14 is used for various processes at the subsequent stage.

【0051】以上説明したように、この実施の形態2に
係る対象物検出装置によれば、複数の画像の全ての組合
せについての相互相関関数が平均化され、この平均化さ
れた相互相関関数のピークの高さに基づいて船舶である
かどうかが調べられるので、ノイズが除去された相互相
関関数に基づいて調べられることになり、船舶の検出精
度が向上する。
As described above, according to the object detecting apparatus according to the second embodiment, the cross-correlation functions for all combinations of a plurality of images are averaged, and the averaged cross-correlation function is calculated. Since it is checked whether the ship is a ship based on the height of the peak, the ship is checked based on the cross-correlation function from which noise has been removed, and the detection accuracy of the ship is improved.

【0052】[0052]

【発明の効果】以上詳述したように、本発明によれば、
天候や対象物の移動の有無に左右されずに対象物を高精
度で検出できる対象物検出装置を提供できる。
As described in detail above, according to the present invention,
It is possible to provide an object detection device capable of detecting an object with high accuracy without being affected by the weather or the movement of the object.

【0053】より詳しくは、本発明によれば、所定の時
間差をもって連続的に撮像することにより作成された複
数の画像の間の相互相関関数に基づいて対象物を検出す
るので、上記所定の時間差内で輝度が変化する波のよう
なものは相互相関関数が小さくなる一方、所定の時間差
内で輝度が変化しない船舶のようなものは相互相関関数
が大きくなる。従って、天候が悪くて波が高いような場
合であっても船舶を対象物とする場合は、該船舶を確実
に検出できる。
More specifically, according to the present invention, an object is detected based on a cross-correlation function between a plurality of images created by continuously capturing images with a predetermined time difference. In the case of a wave whose luminance changes within the range, the cross-correlation function becomes small, whereas in the case of a ship whose luminance does not change within a predetermined time difference, the cross-correlation function becomes large. Therefore, even when the weather is bad and the waves are high, when the ship is the target, the ship can be reliably detected.

【0054】また、本発明によれば、画像作成部は合成
開口レーダから得られたデータを処理することにより前
記複数の画像を作成するようにしたので、各画像の時間
分解能を上げることができる。
Further, according to the present invention, the image creating section creates the plurality of images by processing the data obtained from the synthetic aperture radar, so that the time resolution of each image can be increased. .

【0055】また、本発明によれば、複数の画像から選
ばれた2つの画像の間の相互相関関数を算出する際に、
該2つの画像の相対位置の各々について相互相関関数を
算出するようにしたので、対象物が移動しても2つの画
像の間で相互相関関数が大きい箇所を検出することがで
き、対象物の移動の有無に拘わらず、該対象物を高精度
で検出できる。
According to the present invention, when calculating a cross-correlation function between two images selected from a plurality of images,
Since the cross-correlation function is calculated for each of the relative positions of the two images, it is possible to detect a portion where the cross-correlation function is large between the two images even if the target moves, and The object can be detected with high accuracy regardless of the presence or absence of the movement.

【0056】また、本発明によれば、時間差を有する3
つ以上の画像に基づいて相互相関関数を算出する場合に
平均された相互相関関数が得られるので、何れかの画像
にノイズが発生しても、これを減少させることができ
る。
Also, according to the present invention, the 3
Since the averaged cross-correlation function is obtained when calculating the cross-correlation function based on one or more images, even if noise occurs in any of the images, it can be reduced.

【0057】また、本発明によれば、算出された相互相
関関数のピークが所定値より大きい場合に前記対象物を
検出したことを判断するので、所定値を適宜定めること
により、対象物の存否を検出できる。
Further, according to the present invention, when the calculated peak of the cross-correlation function is larger than a predetermined value, it is determined that the object has been detected. Can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1に係る対象物検出装置の
概略構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of an object detection device according to a first embodiment of the present invention.

【図2】本発明の実施の形態1に係る対象物検出装置の
動作を説明するためのフローチャートである。
FIG. 2 is a flowchart for explaining an operation of the object detection device according to the first embodiment of the present invention.

【図3】本発明の実施の形態2に係る対象物検出装置の
動作を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining an operation of the object detection device according to the second embodiment of the present invention.

【図4】本発明の実施の形態1及び2に係る対象物検出
装置において相互相関関数の相関が高い場合の例を説明
するための図である。
FIG. 4 is a diagram for explaining an example of a case where the correlation of the cross-correlation function is high in the object detection devices according to Embodiments 1 and 2 of the present invention.

【図5】本発明の実施の形態1及び2に係る対象物検出
装置において相互相関関数の相関が低い場合の例を説明
するための図である。
FIG. 5 is a diagram for explaining an example of a case where the correlation of the cross-correlation function is low in the object detection devices according to Embodiments 1 and 2 of the present invention.

【符号の説明】[Explanation of symbols]

10 プラットフォーム 11 合成開口レーダ 12 処理装置 10 Platform 11 Synthetic Aperture Radar 12 Processor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 宅原 雅人 東京都千代田区丸の内二丁目5番1号 三 菱重工業株式会社内 (72)発明者 大内 和夫 高知県香美郡土佐山田町265−6−301 Fターム(参考) 5J070 AB01 AD01 AE02 AE07 AF06 AF08 AH04 AK22  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masato Takuhara 2-5-1, Marunouchi, Chiyoda-ku, Tokyo Sanishi Heavy Industries Co., Ltd. (72) Inventor Kazuo Ouchi 265-6, Tosa Yamada-cho, Kami-gun, Kochi Prefecture 301 F-term (reference) 5J070 AB01 AD01 AE02 AE07 AF06 AF08 AH04 AK22

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 所定の時間差をもって連続的に撮像する
ことにより複数の画像を作成する画像作成部と、 前記画像作成部で作成された前記複数の画像の間の相互
相関関数を算出する相互相関関数算出部と、 前記相互相関関数算出部で算出された相互相関関数に基
づいて対象物を検出する検出部、とを備えた対象物検出
装置。
1. An image creating section for creating a plurality of images by continuously capturing images with a predetermined time difference, and a cross-correlation calculating a cross-correlation function between the plurality of images created by the image creating section. An object detection device, comprising: a function calculation unit; and a detection unit that detects an object based on the cross-correlation function calculated by the cross-correlation function calculation unit.
【請求項2】 前記画像作成部は、合成開口レーダを含
み、該合成開口レーダから得られたデータを処理するこ
とにより前記複数の画像を作成する、請求項1に記載の
対象物検出装置。
2. The object detection device according to claim 1, wherein the image creating unit includes a synthetic aperture radar, and creates the plurality of images by processing data obtained from the synthetic aperture radar.
【請求項3】 前記画像作成部は、前記合成開口レーダ
から得られたデータを複数のサブアパーチャに分割する
ことにより前記複数の画像を作成する、請求項2に記載
の対象物検出装置。
3. The object detecting apparatus according to claim 2, wherein the image creating unit creates the plurality of images by dividing data obtained from the synthetic aperture radar into a plurality of sub-apertures.
【請求項4】 前記相互相関関数算出部は、前記複数の
画像から選ばれた2つの画像の間の相互相関関数を算出
する際に、該2つの画像の相対位置の各々について相互
相関関数を算出する、請求項3に記載の対象物検出装
置。
4. When calculating a cross-correlation function between two images selected from the plurality of images, the cross-correlation function calculation unit calculates a cross-correlation function for each of relative positions of the two images. The object detection device according to claim 3, wherein the calculation is performed.
【請求項5】 前記複数の画像から選ばれる2つの画像
の組合せの全てについて算出された相互相関関数を平均
して新たな平均相互相関関数を算出する平均相互相関関
数算出部、を更に備えた、請求項4に記載の対象物検出
装置。
5. An average cross-correlation function calculator for averaging cross-correlation functions calculated for all combinations of two images selected from the plurality of images to calculate a new average cross-correlation function. The object detection device according to claim 4.
【請求項6】 前記検出部は、前記相互相関関数算出部
で算出された相互相関関数のピークが所定値より大きい
場合に前記対象物を検出したことを判断する、請求項5
に記載の対象物検出装置。
6. The detection unit determines that the target has been detected when the peak of the cross-correlation function calculated by the cross-correlation function calculation unit is larger than a predetermined value.
An object detection device according to claim 1.
【請求項7】 所定の時間差をもって連続的に撮像する
ことにより複数の画像を作成し、 該作成された前記複数の画像の間の相互相関関数を算出
し、 該算出された相互相関関数に基づいて対象物を検出す
る、対象物検出方法。
7. A plurality of images are created by continuously capturing images with a predetermined time difference, a cross-correlation function between the created plurality of images is calculated, and based on the calculated cross-correlation function. An object detection method for detecting an object.
【請求項8】 前記複数の画像を作成するステップは、
合成開口レーダから得られたデータを処理することによ
り前記複数の画像を作成する、請求項7に記載の対象物
検出方法。
8. The step of creating the plurality of images,
The object detection method according to claim 7, wherein the plurality of images are created by processing data obtained from a synthetic aperture radar.
【請求項9】 前記複数の画像を作成するステップは、
前記合成開口レーダから得られたデータを複数のサブア
パーチャに分割して処理することにより前記複数の画像
を作成する、請求項8に記載の対象物検出方法。
9. The step of creating a plurality of images,
9. The object detection method according to claim 8, wherein the plurality of images are created by dividing data obtained from the synthetic aperture radar into a plurality of sub-apertures and processing the divided data.
【請求項10】 前記相互相関関数を算出するステップ
は、前記複数の画像から選ばれた2つの画像の間の相互
相関関数を算出する際に、該2つの画像の相対位置の各
々について相互相関関数を算出する、請求項9に記載の
対象物検出方法。
10. The step of calculating a cross-correlation function comprises calculating a cross-correlation function between two images selected from the plurality of images, for each of relative positions of the two images. The method for detecting an object according to claim 9, wherein a function is calculated.
【請求項11】 前記複数の画像から選ばれる2つの画
像の組合せの全てについて算出された相互相関関数を平
均して新たな平均相互相関関数を算出するステップ、を
更に備えた、請求項10に記載の対象物検出方法。
11. The method according to claim 10, further comprising: calculating a new average cross-correlation function by averaging the cross-correlation functions calculated for all combinations of two images selected from the plurality of images. The object detection method according to the above.
【請求項12】 前記検出するステップは、前記相互相
関関数を算出するステップで算出された相互相関関数の
ピークが所定値より大きい場合に前記対象物を検出した
ことを判断する、請求項11に記載の対象物検出方法。
12. The method according to claim 11, wherein the detecting step determines that the target is detected when a peak of the cross-correlation function calculated in the step of calculating the cross-correlation function is larger than a predetermined value. The object detection method according to the above.
JP2001014166A 2001-01-23 2001-01-23 Target detection apparatus Withdrawn JP2002214334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001014166A JP2002214334A (en) 2001-01-23 2001-01-23 Target detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001014166A JP2002214334A (en) 2001-01-23 2001-01-23 Target detection apparatus

Publications (1)

Publication Number Publication Date
JP2002214334A true JP2002214334A (en) 2002-07-31

Family

ID=18880900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001014166A Withdrawn JP2002214334A (en) 2001-01-23 2001-01-23 Target detection apparatus

Country Status (1)

Country Link
JP (1) JP2002214334A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007285781A (en) * 2006-04-14 2007-11-01 Tohoku Univ Ground penetrating radar system and image signal processing method
JP2009145297A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Radar image processor
JP2011112630A (en) * 2009-11-30 2011-06-09 Mitsubishi Electric Corp Radar image processor
JP2011169869A (en) * 2010-02-22 2011-09-01 Mitsubishi Electric Corp Apparatus for processing radar signal
JP2012093257A (en) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp Radar image processing device
JP2014132248A (en) * 2013-01-07 2014-07-17 Nec Corp Sonar image processing apparatus, sonar image processing method, sonar image processing program, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007285781A (en) * 2006-04-14 2007-11-01 Tohoku Univ Ground penetrating radar system and image signal processing method
JP4644816B2 (en) * 2006-04-14 2011-03-09 国立大学法人東北大学 Ground penetrating radar apparatus and image signal processing method
JP2009145297A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Radar image processor
JP2011112630A (en) * 2009-11-30 2011-06-09 Mitsubishi Electric Corp Radar image processor
JP2011169869A (en) * 2010-02-22 2011-09-01 Mitsubishi Electric Corp Apparatus for processing radar signal
JP2012093257A (en) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp Radar image processing device
JP2014132248A (en) * 2013-01-07 2014-07-17 Nec Corp Sonar image processing apparatus, sonar image processing method, sonar image processing program, and recording medium

Similar Documents

Publication Publication Date Title
CN111899568B (en) Bridge anti-collision early warning system, method and device and storage medium
CN110031843B (en) ROI (region of interest) -based SAR (synthetic Aperture Radar) image target positioning method, system and device
KR20200067629A (en) Method and device to process radar data
US11360207B2 (en) Apparatus and method for tracking object based on radar image reconstruction
US20090174595A1 (en) SAR ATR treeline extended operating condition
CN102144173A (en) Target detection in a sar-imaged sea area
JP5580621B2 (en) Echo signal processing device, radar device, echo signal processing method, and echo signal processing program
JP2017156219A (en) Tracking device, tracking method, and program
JP5398195B2 (en) Radar equipment
JP6084810B2 (en) Tracking processing apparatus and tracking processing method
IL265930A (en) Detection apparatus and method
CN113362293A (en) SAR image ship target rapid detection method based on significance
CN112164079A (en) Sonar image segmentation method
JP2002214334A (en) Target detection apparatus
Veatch et al. Efficient algorithms for obstacle detection using range data
JP2016166802A (en) Position detecting system, position detecting device, and position detecting method
JP2007114056A (en) Object recognition device
Iehara et al. Detection of ships using cross-correlation of split-look SAR images
CN112669332A (en) Method for judging sea and sky conditions and detecting infrared target based on bidirectional local maximum and peak local singularity
CN111105419B (en) Vehicle and ship detection method and device based on polarized SAR image
KR102185307B1 (en) Method and system for high resolving object response of sar images
Tuzova et al. Comparison of image quality assessment metrics for evaluation of performance of anisotropic diffusion filter for SAR images
CN111033309A (en) Radar apparatus
CN111339840B (en) Face detection method and monitoring system
Mecocci et al. Radar image processing for ship-traffic control

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080401