JP2002082169A - Radar image processing method and guidance system for guided body - Google Patents

Radar image processing method and guidance system for guided body

Info

Publication number
JP2002082169A
JP2002082169A JP2000271233A JP2000271233A JP2002082169A JP 2002082169 A JP2002082169 A JP 2002082169A JP 2000271233 A JP2000271233 A JP 2000271233A JP 2000271233 A JP2000271233 A JP 2000271233A JP 2002082169 A JP2002082169 A JP 2002082169A
Authority
JP
Japan
Prior art keywords
radar
target
derivative
radar image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000271233A
Other languages
Japanese (ja)
Inventor
Yuji Ota
裕二 太田
Masanori Ayada
正徳 綾田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2000271233A priority Critical patent/JP2002082169A/en
Publication of JP2002082169A publication Critical patent/JP2002082169A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To shorten the pattern matching time of a radar image-processing method which converts the position of a specific body in an image of a ground radar into a target position in a guided body radar image through the pattern matching between images of the ground radar and a guided body radar. SOLUTION: When a body to a guided missile (2) is specified among plural bodies in the radar image obtained from the ground radar (1), target groups in the radar images of the ground radar (1) and guided body radar (3) is represented as contours, their contour coordinates are compared to find the position shift of the radar image, and a target position specified in the guided body radar image is detected. Only the coordinate points forming the contours need to be compared, and the processing time can be shortened greatly. Furthermore, the contours of the target groups are compared, so that a specific target hit rate nearly equal to that of a conventional template comparison system is obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、地上レーダ画像と
誘導体レーダ画像のパターンマッチングのためのレーダ
画像処理方法及び誘導体の誘導システムに関し、特に、
高速にパターンマッチングを行うレーダ画像処理方法及
び誘導体の誘導システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a radar image processing method for pattern matching between a ground radar image and a derivative radar image, and a derivative guidance system.
The present invention relates to a radar image processing method for performing pattern matching at high speed and a derivative guidance system.

【0002】[0002]

【従来の技術】空中を飛行する誘導体を地上から誘導す
る誘導システムは、ミサイル(誘導弾)等の飛行物体の
制御に、広く利用されている。例えば、誘導弾を目標標
的に誘導する自動誘導システムでは、地上レーダで検知
された複数の標的から各誘導弾に対して目標を指定し、
この指定目標に誘導弾が自動追尾する。この時、地上レ
ーダで得られたレーダ画像での標的位置は、地上レーダ
と異なる位置にある誘導弾搭載の誘導弾レーダから見た
位置と異なる。このため、地上レーダで得られたレーダ
画像と誘導弾搭載レーダから得られたレーダ画像を照合
することにより、誘導弾は指定された目標を検出する。
2. Description of the Related Art A guidance system for guiding a derivative flying in the air from the ground is widely used for controlling flying objects such as missiles (guided bullets). For example, in an automatic guidance system that guides a guided missile to a target target, a target is specified for each guided missile from a plurality of targets detected by ground radar,
The guided bullet automatically tracks this designated target. At this time, the target position in the radar image obtained by the ground radar is different from the position viewed from the guided bullet radar equipped with a guided bullet at a position different from the ground radar. Therefore, by comparing the radar image obtained by the ground radar with the radar image obtained by the radar equipped with a guided bullet, the guided bullet detects the specified target.

【0003】この時、2つのレーダ画像は、位置ずれや
レーダ取得時間の違いによる位置誤差が生じるため、単
純な照合では指定された目標を検出できない。一方、2
つのパターンの正確な位置ずれを検出する方法として、
テンプレートによるパターンマッチング手法が知られて
いる。この方法では、パターンの面積や注目点に注目し
て、画像上の全点に対し類似度を検査するため、正確に
パターン位置ずれを検出できる。この方法として、参照
画像を輪郭線で構成する方法も知られている(例えば、
特開平9−81747号公報等)。
At this time, since a position error occurs between the two radar images due to a positional shift or a difference in radar acquisition time, a specified target cannot be detected by simple collation. Meanwhile, 2
To detect the exact misalignment of two patterns,
A pattern matching method using a template is known. According to this method, similarity is inspected for all points on the image, paying attention to the area of the pattern and the point of interest, so that the pattern position shift can be detected accurately. As this method, a method of forming a reference image by a contour line is also known (for example,
JP-A-9-81747, etc.).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、画像上
の全点に対し類似度を検査するため、画像を構成する要
素数が多い場合には、マッチングに時間がかかる。即
ち、レーダ画像のように複数の標的を要素とする場合に
は、一方のレーダ画像をテンプレートとして、レーダ画
像全点においてテンプレートマッチングを行うと処理時
間がかかり、高速移動する誘導弾に、時間遅れで目標位
置が指定され、追尾能力が低下するという問題が生じ
る。特に、複数の誘導弾を誘導する場合に、顕著であ
る。
However, since the similarity is checked for all points on the image, matching takes a long time when the number of elements constituting the image is large. That is, when a plurality of targets are used as elements like a radar image, processing time is required if template matching is performed at all points of the radar image using one of the radar images as a template. , The target position is designated, and the tracking ability is reduced. This is particularly noticeable when guiding a plurality of guided bullets.

【0005】本発明の目的は、レーダ画像のパターンマ
ッチングを位置ずれ検出精度を低下することなく高速化
するためのレーダ画像処理方法及び誘導体の誘導システ
ムを提供するにある。
An object of the present invention is to provide a radar image processing method and a derivative guidance system for speeding up pattern matching of a radar image without deteriorating the positional deviation detection accuracy.

【0006】又、本発明の他の目的は、レーダ画像のパ
ターンマッチングアルゴリズムを簡易化し、処理時間を
短縮するためのレーダ画像処理方法及び誘導体の誘導シ
ステムを提供するにある。
It is another object of the present invention to provide a radar image processing method and a derivative guidance system for simplifying a radar image pattern matching algorithm and shortening the processing time.

【0007】[0007]

【課題を解決するための手段】この目的の達成のため、
本発明のレーダ画像処理方法は、地上レーダ及び前記誘
導体に搭載された誘導体レーダのレーダ画像中の物体群
の輪郭線を抽出するステップと、前記両輪郭線の輪郭線
座標を照合して、両レーダ画像の物体群の位置ずれ量を
求めるステップと、前記位置ずれ量により、前記誘導体
レーダ画像上で特定された目標位置を検出するステップ
とを有する。
In order to achieve this object,
The radar image processing method of the present invention includes a step of extracting a contour line of an object group in a radar image of a ground radar and a derivative radar mounted on the derivative, and comparing the contour coordinates of the two contour lines, The method includes the steps of: obtaining a displacement amount of an object group in the radar image; and detecting a target position specified on the derivative radar image based on the displacement amount.

【0008】又、本発明の誘導システムは、誘導体レー
ダを有する誘導体と、複数の物体のレ−ダ画像を取得す
る地上レーダと、前記地上レーダから得られたレーダ画
像中の複数の物体から前記誘導体へ目標物体を特定する
レーダ画像処理装置とを有し、前記レーダ画像処理装置
は、前記地上レーダ及び前記誘導体に搭載された誘導体
レーダのレーダ画像中の物体群の輪郭線を抽出し、前記
両輪郭線の輪郭線座標を照合して、両レーダ画像の物体
群の位置ずれ量を求め、前記位置ずれ量により、前記誘
導体レーダ画像上で特定された目標位置を検出する。
In addition, a guidance system according to the present invention comprises a derivative having a derivative radar, a ground radar for acquiring radar images of a plurality of objects, and a plurality of objects in a radar image obtained from the ground radar. A radar image processing device for specifying a target object to the derivative, wherein the radar image processing device extracts a contour line of a group of objects in a radar image of the terrestrial radar and a derivative radar mounted on the derivative, The outline coordinates of both outlines are collated to determine the amount of displacement of the object group of both radar images, and the target position specified on the derivative radar image is detected based on the amount of displacement.

【0009】本発明では、地上レーダから得られたレー
ダ画像中の複数の物体から誘導体へ目標物体を特定する
際、地上レーダ及び誘導体レーダのレーダ画像中の標的
群を輪郭線で表現し、その輪郭線座標を照合することに
より、レーダ画像の位置ずれを求め、誘導体レーダ画像
上で特定された物体位置を検出するので、輪郭線を形成
する座標点のみを比較すれば良く、処理時間を大幅に短
縮できる。又、物体群の輪郭線を照合するため、従来の
テンプレート照合方式のものと同等の指定目標的中率が
得られる。
According to the present invention, when specifying a target object from a plurality of objects in a radar image obtained from a terrestrial radar to a derivative, a target group in the radar images of the terrestrial radar and the derivative radar is represented by a contour line. By comparing the contour coordinates, the position deviation of the radar image is obtained and the object position specified on the derivative radar image is detected, so that only the coordinate points forming the contour need to be compared, and the processing time is greatly reduced. Can be shortened to In addition, since the contours of the object group are collated, the specified target hit ratio equivalent to that of the conventional template collation method can be obtained.

【0010】又、本発明では、好ましくは、前記照合ス
テップは、前記両標的群の輪郭線座標から前記両標的群
の各々の中心座標を検出するステップと、前記両中心座
標の差から暫定位置ずれ量を計算するステップと、前記
暫定位置ずれ量を初期値として、前記両輪郭線の輪郭線
座標を照合して、両レーダ画像の物体群の位置ずれ量を
求めるステップとからなることにより、物体群の中心座
標の差(CA−CB)を暫定的な位置ずれ量P1を求
め,これを基準に、輪郭点座標間の位置ずれ量を計算す
るため、高精度の位置ずれ量を短い時間で計算できる。
In the present invention, preferably, the collating step includes a step of detecting central coordinates of each of the two target groups from contour coordinates of the two target groups, and a provisional position based on a difference between the two central groups. Calculating the shift amount, and comparing the outline coordinates of the two outlines with the provisional position shift amount as an initial value, and determining the position shift amount of the object group of both radar images, The provisional displacement amount P1 is obtained from the difference (CA-CB) between the center coordinates of the object group, and the displacement amount between the contour point coordinates is calculated based on the provisional displacement amount P1. Can be calculated by

【0011】更に、本発明は、好ましくは、前記輪郭線
抽出ステップは、前記レーダ画像の標的群の輪郭線を抽
出するステップからなり、前記目標位置検出ステップ
は、前記誘導体レーザーで特定された標的を検出するス
テップからなる。
Further, in the present invention, preferably, the contour line extracting step includes a step of extracting a contour line of a target group in the radar image, and the target position detecting step includes a step of extracting a target specified by the derivative laser. Is detected.

【0012】[0012]

【発明の実施の形態】以下、本発明を誘導弾(ミサイ
ル)の誘導システムの実施の形態により説明するが、本
発明は、この実施の形態に制限されるものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to an embodiment of a guide system for a missile, but the present invention is not limited to this embodiment.

【0013】図1は、本発明の一実施の形態の誘導弾誘
導システムの構成図、図2は、そのパターン照合処理の
説明図、図3は、その目標位置検出処理フロー図、図4
は、図3の照合処理フロー図、図5は、図3の輪郭線検
出処理フロー図である。
FIG. 1 is a block diagram of a guided bullet guidance system according to an embodiment of the present invention, FIG. 2 is an explanatory diagram of a pattern matching process, FIG. 3 is a flowchart of a target position detection process, and FIG.
3 is a flowchart of the collation processing in FIG. 3, and FIG. 5 is a flowchart of the contour detection processing in FIG.

【0014】図1に示すように、空中の誘導弾2を目標
標的に誘導する自動誘導システムでは、地上レーダ1で
検知された複数の標的5から各誘導弾2に対して目標を
指定し、この指定目標に誘導弾2が自動追尾する。この
時、地上レーダ1で得られたレーダ画像での標的5の位
置は、地上レーダ1と異なる位置にある誘導弾2から見
た位置、即ち、誘導弾2に搭載された誘導弾レーダ3か
ら見た位置と異なる。誘導弾2は、誘導弾レーダ3で検
出した標的の位置に自動追尾するため、地上レーダ1で
得られたレーダ画像の標的位置と誘導弾レーダ3のレー
ダ画像の標的位置との整合をとる必要がある。
As shown in FIG. 1, in an automatic guidance system for guiding an airborne guided missile 2 to a target target, a target is designated for each guided missile 2 from a plurality of targets 5 detected by the ground radar 1. The guided bullet 2 automatically tracks this designated target. At this time, the position of the target 5 in the radar image obtained by the ground radar 1 is different from the position of the guide bullet 2 located at a different position from the ground radar 1, that is, from the guide bullet radar 3 mounted on the guide bullet 2. Different from the position you saw. Since the guided missile 2 automatically tracks the position of the target detected by the guided missile radar 3, it is necessary to match the target position of the radar image obtained by the ground radar 1 with the target position of the radar image of the guided missile radar 3. There is.

【0015】このため、地上レーダ1で得られたレーダ
画像と、誘導弾搭載レーダ3から得られたレーダ画像を
照合することにより、位置ずれ量を検出する照合処理6
を行う地上処理装置4が設けられる。誘導弾3には、地
上レーダ1のレーダ画像から得られた標的の指定目標位
置に位置ずれ量を足しえた目標点が照合情報として送信
され、誘導弾3は、誘導弾レーダ3から得られた標的位
置の内、目標点に一番近い標的位置を検出し、誘導弾3
は指定された目標を検出する。
For this reason, by comparing the radar image obtained by the terrestrial radar 1 with the radar image obtained by the guided bullet mounted radar 3, a matching process 6 for detecting the amount of positional deviation.
Is provided. A target point obtained by adding the amount of displacement to the specified target position of the target obtained from the radar image of the ground radar 1 is transmitted as collation information to the guidance bullet 3, and the guidance bullet 3 is obtained from the guidance bullet radar 3. Of the target positions, the target position closest to the target point is detected, and the
Finds the specified target.

【0016】この照合処理6のアルゴリズムの原理を、
図2により説明する。図2(A)は、レーダ画像例を示
し、黒丸が標的である。地上レーダ1と誘導弾レーダ3
とは、同じ標的群5をレーダ画像として取得するが、レ
ーダ位置が異なるため、レーダ画像での標的位置が異な
る。照合処理6では、地上レーダ1で検知された標的群
を囲む輪郭線を座標データで取得し、誘導弾搭載レーダ
3から得られたレーダ画像中の標的群を囲む輪郭線座標
データ全点と比較し、類似度(相関)を調べ、最も類似
度の高い位置を検出する。
The principle of the algorithm of the collation processing 6 is as follows.
This will be described with reference to FIG. FIG. 2A shows an example of a radar image, in which a black circle is a target. Ground radar 1 and guided missile radar 3
Means that the same target group 5 is acquired as a radar image, but the target position in the radar image is different because the radar position is different. In the collation processing 6, a contour line surrounding the target group detected by the ground radar 1 is acquired as coordinate data, and is compared with all points of the contour line coordinate data surrounding the target group in the radar image obtained from the radar 3 equipped with the guided bullet. Then, the similarity (correlation) is checked, and the position having the highest similarity is detected.

【0017】図2(A)の標的のレーダ画像例の場合に
は、図2(B)のように、図2(A)から標的群を面画
像化したものを得て、図2(C)のように、標的群面画
像の輪郭線を検出する。この時、輪郭線の検出は、図5
に示すアルゴリズムに従い、各点の座標値を求める。
又、この時、輪郭線長も求める。
In the case of the target radar image example shown in FIG. 2A, as shown in FIG. 2B, a surface image of the target group is obtained from FIG. ), The contour of the target group surface image is detected. At this time, the detection of the contour line
According to the algorithm shown in (1), the coordinate value of each point is obtained.
At this time, the contour length is also obtained.

【0018】後述する図3の照合アルゴリズムでは、第
一に、地上レーダ画像上の標的群の輪郭線座標(G0
Gn)を求める。同様に誘導弾レーダ画像上の標的群の輪
郭線座標(Y0〜Ym)を求める。この時輪郭線長も算出す
る。第二に、輪郭線座標の最大,最小座標から標的群の
中心座標を求める。輪郭線ブロックが複数ある場合は、
地上レーダ1で指定する標的群に最も近い輪郭線長を持
つ輪郭線ブロックを選択する。第三に、地上レーダ画
像,誘導弾レーダ画像の標的群の中心座標の差を、暫定
的な位置ずれ量P1とする。第四に、輪郭線全点について
照合を行う。これにより、位置ズレ量を求める。
In the matching algorithm shown in FIG. 3 described later, first, the contour coordinates (G 0 to G 0 ) of the target group on the ground radar image are obtained.
G n ). Similarly, the contour coordinates (Y 0 to Y m ) of the target group on the guided bullet radar image are obtained. At this time, the contour length is also calculated. Second, the center coordinates of the target group are obtained from the maximum and minimum coordinates of the contour line. If there are multiple outline blocks,
A contour block having a contour length closest to the target group specified by the ground radar 1 is selected. Third, ground radar images, the difference between the center coordinates of the target group of missile radar image, the interim positional deviation amount P 1. Fourth, collation is performed for all points of the contour line. Thus, the amount of positional deviation is obtained.

【0019】図3により、その手順を説明する。The procedure will be described with reference to FIG.

【0020】(S1)地上レーダ画像上の標的群の面画
像を求め、面画像から地上レーダ画像上の標的群の輪郭
線座標(G0〜Gn)を求める。同様に、誘導弾レーダ画像
上の標的群の面画像を求め、面画像から誘導弾レーダ画
像上の標的群の輪郭線座標(Y0〜Ym)を求める。この時
輪郭線長も算出する。輪郭線検出アルゴリズムは、図5
で後述する。図2(A)の標的群からその面画像を図2
(B)のように、得るには、画像を一方向に走査し、点
と点との間を塗りつぶし、他方向に走査し、同様に点と
点の間を塗りつぶす、所謂塗りつぶし処理を使用する。
[0020] (S1) determine the face image of the target group on the ground radar image, we obtain the outline coordinates of the target group on the ground radar images from the surface image (G 0 ~G n). Similarly, the plane image of the target group on the guided bullet radar image is obtained, and the outline coordinates (Y 0 to Y m ) of the target group on the guided bullet radar image are obtained from the plane image. At this time, the contour length is also calculated. The contour detection algorithm is shown in FIG.
It will be described later. FIG. 2 (A) shows a surface image from the target group shown in FIG.
As shown in (B), in order to obtain the image, a so-called filling process is used in which the image is scanned in one direction, the area between the points is filled, the other direction is scanned, and the area between the points is similarly filled. .

【0021】(S2)地上レーダ画像と誘導弾レーダ画
像の両方において、輪郭線座標の最大,最小座標から各
々の標的群の中心座標CA,CBを求める。輪郭線ブロッ
クが複数ある場合は、地上レーダ1で指定する標的群に
最も近い輪郭線長を持つ輪郭線ブロックを選択する。
(S2) In both the ground radar image and the guided bullet radar image, the center coordinates CA and CB of each target group are obtained from the maximum and minimum coordinates of the contour line. When there are a plurality of contour blocks, the contour block having the contour length closest to the target group specified by the ground radar 1 is selected.

【0022】(S3)地上レーダ画像,誘導弾レーダ画
像の標的群の中心座標の差(CA−CB)を、暫定的な
位置ずれ量P1とする。
(S3) The difference (CA-CB) between the center coordinates of the target group of the ground radar image and the target bullet radar image is set as a provisional displacement amount P1.

【0023】(S4)図4で説明するように、輪郭線全
点について照合を行い、位置ずれ量を求める。
(S4) As described with reference to FIG. 4, all points of the contour are collated to determine the amount of positional deviation.

【0024】(S5)地上レーダ画像の指定目標位置に
位置ずれ量を加えて得られる点が目標点となる。この目
標点から一番近い標的が特定された標的となる。
(S5) A point obtained by adding the amount of displacement to the designated target position of the ground radar image is the target point. The target closest to this target point is the specified target.

【0025】次に、図4により、図3の照合処理を説明
する。
Next, the collation processing of FIG. 3 will be described with reference to FIG.

【0026】(S10)地上レーダ画像から求めた(輪
郭点座標+暫定位置ずれ量P1)の1点と、誘導弾レー
ダ画像から求めた輪郭点座標の全点Y0〜Ymとを比較
し、その距離が最小となる点Y’0を求める。例えば、
G0+P1座標とY0〜Ymを比較し、その距離が最小となる点
Y'0を求める。
(S10) One point of (contour point coordinates + temporary positional deviation amount P1) obtained from the ground radar image is compared with all points Y0 to Ym of the contour point coordinates obtained from the guided bullet radar image. A point Y′0 at which the distance becomes minimum is obtained. For example,
G 0 + P 1 coordinates and Y 0 to Y m are compared, and the distance is the minimum.
Seek Y '0.

【0027】(S11)(輪郭点座標+暫定位置ずれ量
P1)の1点と、誘導弾レーダ画像から求めた輪郭点座
標の距離が最小となる点Y’0との位置ずれ量P2を求
め、地上レーダ画像から求めた(輪郭点座標+暫定位置
ずれ量P1+P2)と、誘導弾レーダ画像から求めた輪
郭点座標の全点Y0〜Ymとを比較し、座標が一致する
点数を求め、記録する。即ち、(G0+P1+P2)〜(Gn
P1+P2)とY0〜Ymを比較する。座標が一致する点数を求
め、記録しておく。
(S11) A positional deviation amount P2 between one point of (contour point coordinates + temporary positional deviation amount P1) and a point Y'0 at which the distance between the contour point coordinates obtained from the guided bullet radar image is minimum is calculated. Comparing the (contour point coordinates + temporary position shift amount P1 + P2) obtained from the ground radar image with all the points Y0 to Ym of the contour point coordinates obtained from the guided bullet radar image, obtaining the number of points where the coordinates match, and recording I do. That is, (G 0 + P 1 + P 2 ) to (G n +
P 1 + P 2 ) and Y 0 to Y m . The number of points where the coordinates match is determined and recorded.

【0028】(S12)検出した一致点数と過去の一致
点数と比較し、検出した一致点数が多ければ、真の位置
ずれ量を(P1+P2)に更新する。検出した一致点数が最
大でないと、更新しない。
(S12) The number of detected matching points is compared with the number of past matching points, and if the number of detected matching points is large, the true displacement is updated to (P 1 + P 2 ). It is not updated unless the number of detected matching points is the maximum.

【0029】(S13)地上レーダ画像から求めた輪郭
点全点について、位置ずれ量P2を求めたかを判定し、
求めていれば、終了する。求めていないと、次の地上レ
ーダ画像から求めた輪郭点の処理のため、ステップS1
0に戻る。
(S13) It is determined whether or not the displacement P2 has been determined for all the contour points determined from the ground radar image.
If so, end. If not, step S1 is performed to process the contour points obtained from the next ground radar image.
Return to 0.

【0030】前述の輪郭点の例では、先ず、G0+P1座標
とY0〜Ymを比較し、その距離が最小となる点Y'0を求
め、点Y’0との位置ずれ量P2を求め、(G0+P1
P2)〜(G n+P1+P2)とY0〜Ymを比較する。座標が一致
する点数を求め、記録しておく。
In the above example of the contour points, first, G0+ P1Coordinate
And Y0~ YmAnd a point Y 'at which the distance becomes the minimum0Seeking
First, the position deviation amount P2 from the point Y'0 is calculated, and (G0+ P1+
PTwo) ~ (G n+ P1+ PTwo) And Y0~ YmCompare. Coordinates match
Obtain and record the score to be given.

【0031】次に、G0+P1をG1+P1に更新して同様
に、G1+P1座標とY0〜Ymを比較し、その距離が最小とな
る点Y'1を求める。G1+P1とY'1との位置ずれ量を新たな
P2とし、G0+P1+P2〜Gn+P1+P2とY0〜Ymを比較し、座
標が一致する点数を求め、過去の一致点数と比較し、一
致点数が多ければ真の位置ずれ量をP1+P2に、G1+P1
G2+P1に更新する。これをGn+P1まで行う。最終的に最
も輪郭線が一致した時の位置ずれ量が求まるので、これ
を真の位置ずれ量(P1+P2)とする。
Next, similarly, update the G0 + P 1 to G1 + P 1, it compares the G 1 + P 1 coordinate and Y 0 to Y m, determine the point Y '1 whose distance is the smallest. G 1 + P 1 and Y ' 1
And P 2, compares the G 0 + P 1 + P 2 ~G n + P 1 + P 2 and Y 0 to Y m, obtains a score coordinates match, compared to the past match scores, true the more consistent scores Set the displacement to P 1 + P 2 and G 1 + P 1
To update to the G 2 + P 1. Do this until the G n + P 1. Finally, the amount of positional deviation when the contour line most matches is obtained, and this is set as the true amount of positional deviation (P1 + P2).

【0032】このように、地上レーダから得られたレー
ダ画像中の複数の標的から誘導弾へ標的を特定する際、
地上レーダ及び誘導弾レーダのレーダ画像中の標的群を
輪郭線で表現し、その輪郭線座標を照合することによ
り、レーダ画像の位置ずれを求め、誘導弾レーダ画像上
で特定された標的位置を検出する。輪郭線を形成する座
標点のみを比較すれば良く、処理時間を大幅に短縮でき
る。又、標的群の輪郭線を照合するため、従来のテンプ
レート照合方式のものと同等の指定目標的中率が得られ
る。
As described above, when specifying a target from a plurality of targets in a radar image obtained from a ground radar to a guided missile,
The target group in the radar image of the ground radar and the guided radar is represented by a contour line, and by comparing the contour coordinates, the displacement of the radar image is obtained, and the target position specified on the guided bullet radar image is determined. To detect. Only the coordinate points forming the contour need be compared, and the processing time can be greatly reduced. In addition, since the contours of the target group are collated, a specified target hit ratio equivalent to that of the conventional template collation method can be obtained.

【0033】更に、地上レーダ画像と誘導弾レーダ画像
の両方において、輪郭線座標の最大,最小座標から各々
の標的群の中心座標CA,CBを求め、中心座標の差(C
A−CB)を暫定的な位置ずれ量P1を求め,これを基
準に、輪郭点座標間の位置ずれ量を計算するため、高精
度の位置ずれ量を短い時間で計算できる。
Further, in both the ground radar image and the guided bullet radar image, the center coordinates CA and CB of each target group are obtained from the maximum and minimum coordinates of the contour line, and the difference (C
A-CB) is used to determine the provisional displacement P1 and to calculate the displacement between the contour point coordinates on the basis of the provisional displacement P1, so that a highly accurate displacement can be calculated in a short time.

【0034】次に、図5により、図3の輪郭線の検出処
理を説明する。この処理は、例えば、「画像処理の基
本」(1986年 産業評論社発行)等で周知であるた
め、簡単に説明する。
Next, referring to FIG. 5, a description will be given of the processing for detecting the contour line in FIG. This processing is well-known in, for example, "Basic of Image Processing" (published by Sangyo Hyoronsha Ltd. in 1986), and will be described briefly.

【0035】(S20)レーダ画像の走査初期座標(x
i,yj)を(x0,y0)=(0,0)に設定する。
(S20) Scanning initial coordinates (x
(i, yj) is set to (x0, y0) = (0, 0).

【0036】(S21)走査を継続し、未だ追跡済みマ
ークの付いていない1画素を求め、この1画素(境界
点)S0に追跡済みマークを付け、追跡開始点Sn=S0
に設定する。又、追跡済みマークの付いていない1画素
が無い場合には、終了する。
(S21) The scanning is continued, one pixel without the tracked mark is found, a tracked mark is attached to this one pixel (boundary point) S0, and the tracking start point Sn = S0
Set to. If there is no one pixel without the tracked mark, the process ends.

【0037】(S22)図5(B)に示すように、開始点
Snを中央とする周囲8画素に対し、n=0の時は、番
号1の画素から、n>0の時は、番号6の画素から反時
計回りに調べ、最初に出会った黒画素をSn+1とし、
次の境界点とする。又、Snの周囲の8画素に点(黒画
素)がない場合には、孤立点であり、雑音要素のため、
ステップS21に戻る。
(S22) As shown in FIG. 5 (B), for eight pixels around the starting point Sn as the center, when n = 0, the pixel with the number 1 starts, and when n> 0, the pixel with the number 1 starts. From the pixel of No. 6, the counterclockwise check is performed, and the first black pixel encountered is defined as Sn + 1.
The next boundary point. If there are no points (black pixels) in the eight pixels around Sn, the point is an isolated point and is a noise element.
It returns to step S21.

【0038】(S23)Sn+1=S1であり、Sn=S0
の条件であるかを判定する。この条件を満たすと、ステ
ップS21に戻る。一方、この条件を満たさない場合に
は、n=n+1に更新して、ステップS22に戻り、追
跡を継続する。
(S23) Sn + 1 = S1 and Sn = S0
It is determined whether the condition is satisfied. If this condition is satisfied, the process returns to step S21. On the other hand, when this condition is not satisfied, n is updated to n = n + 1, the process returns to step S22, and tracking is continued.

【0039】このようにして、地上レーダ画像と誘導弾
レーダ画像から輪郭点座標の全点を求めることができ
る。又、ミサイル等の誘導弾のみならず、他の飛行する
物体の誘導にも利用できる。
In this way, all points of the contour point coordinates can be obtained from the ground radar image and the guided bullet radar image. Further, the present invention can be used not only for guiding missiles and the like, but also for guiding other flying objects.

【0040】以上、本発明を実施の形態により説明した
が、本発明の主旨の範囲内で種々の変形が可能であり、
これらを本発明の範囲から排除するものではない。
Although the present invention has been described with reference to the embodiment, various modifications are possible within the scope of the present invention.
They are not excluded from the scope of the present invention.

【0041】[0041]

【発明の効果】以上説明したように、本発明によれば、
地上レーダから得られたレーダ画像中の複数の物体から
誘導体へ目標物体を特定する際、地上レーダ及び誘導体
レーダのレーダ画像中の物体群を輪郭線で表現し、その
輪郭線座標を照合することにより、レーダ画像の位置ず
れを求め、誘導体レーダ画像上で特定された標的位置を
検出する。輪郭線を形成する座標点のみを比較すれば良
く、処理時間を大幅に短縮できる。又、物体群の輪郭線
を照合するため、従来のテンプレート照合方式のものと
同等の指定目標的中率が得られる。
As described above, according to the present invention,
When identifying a target object from multiple objects in a radar image obtained from a terrestrial radar to a derivative, the objects in the radar image of the terrestrial radar and the derivative radar are represented by outlines, and their outline coordinates are collated. Thus, the displacement of the radar image is obtained, and the target position specified on the derivative radar image is detected. Only the coordinate points forming the contour need be compared, and the processing time can be greatly reduced. In addition, since the contours of the object group are collated, the specified target hit ratio equivalent to that of the conventional template collation method can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態の誘導弾誘導システムの
構成図である。
FIG. 1 is a configuration diagram of a guide bullet guiding system according to an embodiment of the present invention.

【図2】図1の照合処理の説明図である。FIG. 2 is an explanatory diagram of the collation processing in FIG. 1;

【図3】図1の照合処理の全体フロー図である。FIG. 3 is an overall flowchart of the collation processing in FIG. 1;

【図4】図3の照合処理フロー図である。FIG. 4 is a flowchart of a collation process in FIG. 3;

【図5】図3の輪郭線抽出処理フロー図である。FIG. 5 is a flowchart of the contour line extraction processing in FIG. 3;

【符号の説明】[Explanation of symbols]

1 地上レーダ 2 誘導体 3 誘導体レーダ 4 地上処理装置 5 標的 6 照合処理 DESCRIPTION OF SYMBOLS 1 Ground radar 2 Derivative 3 Derivative radar 4 Ground processor 5 Target 6 Collation processing

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 300 G06T 7/60 300A // G01S 13/66 G01S 13/66 Fターム(参考) 2C014 DA08 DB01 DC01 DD01 DD11 5J070 AC01 AF01 AF07 AK22 BD01 5L096 BA20 EA45 FA62 FA69 GA08 JA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/60 300 G06T 7/60 300A // G01S 13/66 G01S 13/66 F term (Reference) 2C014 DA08 DB01 DC01 DD01 DD11 5J070 AC01 AF01 AF07 AK22 BD01 5L096 BA20 EA45 FA62 FA69 GA08 JA11

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】地上レーダから得られたレーダ画像中の複
数の物体から誘導体へ目標物体を特定するためのレーダ
画像処理方法において、 前記地上レーダ及び前記誘導体に搭載された誘導体レー
ダのレーダ画像中の物体群の輪郭線を抽出するステップ
と、 前記両輪郭線の輪郭線座標を照合して、両レーダ画像の
物体群の位置ずれ量を求めるステップと、 前記位置ずれ量により、前記誘導体レーダ画像上で特定
された目標位置を検出するステップとを有することを特
徴とするレーダ画像処理方法。
1. A radar image processing method for specifying a target object from a plurality of objects in a radar image obtained from a terrestrial radar to a derivative, wherein the radar image of the terrestrial radar and a derivative radar mounted on the derivative is included. Extracting the contours of the object group of the object group; collating the contour coordinates of the two contour lines to obtain the amount of displacement of the object group of both radar images; Detecting the target position specified above.
【請求項2】前記照合ステップは、 前記両標的群の輪郭線座標から前記両標的群の各々の中
心座標を検出するステップと、 前記両中心座標の差から暫定位置ずれ量を計算するステ
ップと、 前記暫定位置ずれ量を初期値として、前記両輪郭線の輪
郭線座標を照合して、両レーダ画像の物体群の位置ずれ
量を求めるステップとからなることを特徴とする請求項
1のレーダ画像処理方法。
2. The collating step includes: detecting a center coordinate of each of the two target groups from contour coordinates of the two target groups; and calculating a provisional positional deviation amount from a difference between the two center coordinates. 2. The radar according to claim 1, further comprising the step of: comparing the outline coordinates of the two outlines with the provisional deviation amount as an initial value to determine the amount of deviation of the object group of both radar images. Image processing method.
【請求項3】前記輪郭線抽出ステップは、 前記レーダ画像の標的群の輪郭線を抽出するステップか
らなり、 前記目標位置検出ステップは、 前記誘導体レーザーで特定された標的を検出するステッ
プからなることを特徴とする請求項1のレーダ画像処理
方法。
3. The contour line extracting step includes a step of extracting a contour line of a target group of the radar image, and the target position detecting step includes a step of detecting a target specified by the derivative laser. The radar image processing method according to claim 1, wherein:
【請求項4】誘導体レーダを有する誘導体と、 複数の物体のレ−ダ画像を取得する地上レーダと、 前記地上レーダから得られたレーダ画像中の複数の物体
から前記誘導体へ目標物体を特定するレーダ画像処理装
置とを有し、 前記レーダ画像処理装置は、 前記地上レーダ及び前記誘導体に搭載された誘導体レー
ダのレーダ画像中の物体群の輪郭線を抽出し、前記両輪
郭線の輪郭線座標を照合して、両レーダ画像の物体群の
位置ずれ量を求め、前記位置ずれ量により、前記誘導体
レーダ画像上で特定された目標位置を検出することを特
徴とする誘導体の誘導システム。
4. A derivative having a derivative radar, a ground radar for acquiring radar images of a plurality of objects, and a target object is specified from the plurality of objects in the radar image obtained from the ground radar to the derivative. A radar image processing apparatus, wherein the radar image processing apparatus extracts contours of an object group in a radar image of the ground radar and the derivative radar mounted on the derivative, and acquires contour coordinates of the two contours. A derivative position of the object group of the two radar images, and a target position specified on the derivative radar image is detected based on the displacement amount.
【請求項5】前記レーダ画像処理装置は、 前記両標的群の輪郭線座標から前記両標的群の各々の中
心座標を検出し、前記両中心座標の差から暫定位置ずれ
量を計算し、前記暫定位置ずれ量を初期値として、前記
両輪郭線の輪郭線座標を照合して、両レーダ画像の物体
群の位置ずれ量を求めることを特徴とする請求項4の誘
導体の誘導システム。
5. The radar image processing device detects center coordinates of each of the two target groups from contour coordinates of the two target groups, and calculates a provisional positional shift amount from a difference between the two center coordinates. 5. The guidance system for a derivative according to claim 4, wherein the provisional positional deviation amount is set as an initial value, and the outline coordinates of the two outlines are collated to determine the amount of positional deviation of the object group of both radar images.
【請求項6】前記レーダ画像処理装置は、 前記レーダ画像の標的群の輪郭線を抽出し、前記誘導体
レーザーで特定された標的を検出することを特徴とする
請求項5の誘導体の誘導システム。
6. The derivative guidance system according to claim 5, wherein said radar image processing device extracts a contour line of a target group in said radar image and detects a target specified by said derivative laser.
JP2000271233A 2000-09-07 2000-09-07 Radar image processing method and guidance system for guided body Withdrawn JP2002082169A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000271233A JP2002082169A (en) 2000-09-07 2000-09-07 Radar image processing method and guidance system for guided body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000271233A JP2002082169A (en) 2000-09-07 2000-09-07 Radar image processing method and guidance system for guided body

Publications (1)

Publication Number Publication Date
JP2002082169A true JP2002082169A (en) 2002-03-22

Family

ID=18757547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000271233A Withdrawn JP2002082169A (en) 2000-09-07 2000-09-07 Radar image processing method and guidance system for guided body

Country Status (1)

Country Link
JP (1) JP2002082169A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010281564A (en) * 2003-02-07 2010-12-16 Komatsu Ltd Device and method of guiding ammunition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010281564A (en) * 2003-02-07 2010-12-16 Komatsu Ltd Device and method of guiding ammunition

Similar Documents

Publication Publication Date Title
US7236121B2 (en) Pattern classifier and method for associating tracks from different sensors
US20190257659A1 (en) Information processing device, data management device, data management system, method, and program
JP3345113B2 (en) Target object recognition method and target identification method
EP2372611A2 (en) Scene matching reference data generation system and position measurement system
JPH08247775A (en) Device and method for identification of self position of moving body
US4972193A (en) Target recognition
US20190197908A1 (en) Methods and systems for improving the precision of autonomous landings by drone aircraft on landing targets
WO2005029440A1 (en) Device for detecting road traveling lane
CN110148099B (en) Projection relation correction method and device, electronic equipment and computer readable medium
US20210326613A1 (en) Vehicle detection method and device
CN113255578B (en) Traffic identification recognition method and device, electronic equipment and storage medium
CN112781599A (en) Method for determining the position of a vehicle
CN111723724A (en) Method and related device for identifying road surface obstacle
EP0530048A1 (en) Method and apparatus for rejecting trackable subimages
CN115599119A (en) Unmanned aerial vehicle keeps away barrier system
KR101968327B1 (en) Apparatus and method for compensating distance of track
CN114119957A (en) Method and device for detecting high-speed railway steel rail profile
CN117710458A (en) Binocular vision-based carrier aircraft landing process relative position measurement method and system
JP2002082169A (en) Radar image processing method and guidance system for guided body
KR101918820B1 (en) Unmanned Aerial Vehicle Homing Control Method using Scene Recognition
JP6986557B2 (en) Measuring equipment, measuring methods and programs
JP2003076994A (en) Shape identification method by three-dimensional image, shape identification system and program therefor
JP2003075152A (en) Airborne imaging device and aerial imaging data processing device
CN112269378B (en) Laser positioning method and device
JP7308772B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204