JPH09119982A - Missile guiding system - Google Patents

Missile guiding system

Info

Publication number
JPH09119982A
JPH09119982A JP7279049A JP27904995A JPH09119982A JP H09119982 A JPH09119982 A JP H09119982A JP 7279049 A JP7279049 A JP 7279049A JP 27904995 A JP27904995 A JP 27904995A JP H09119982 A JPH09119982 A JP H09119982A
Authority
JP
Japan
Prior art keywords
target
image
correlation
reference image
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7279049A
Other languages
Japanese (ja)
Inventor
Hideki Hikosaka
秀樹 彦坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP7279049A priority Critical patent/JPH09119982A/en
Publication of JPH09119982A publication Critical patent/JPH09119982A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a missile guiding system with a target image processing means which has no fear of causing fluctuation of the position of a missile arrival designation point in a target, does not cause a correlation value at the time of correlation processing to decrease accompanying the enlargement of a target image, can accurately determine the missile arrival designation point, and can stably and accurately track a target. SOLUTION: A feature region 'L1×H1' related to a target 20 is cut from a pre-object image T1 including the target 20 where a missile 10 should arrive and a reference image E1 for correlation operation is generated. Then, the size of the generated reference image E1 is changed according to the change in a distance R from the missile 10 to the target 20, a correlation processing is performed to a post-object imae T2 using the changed reference image E2, and an arrival designation point P of the target 20 where the above missile 10 should arrive, is set.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像センサ等からなる
対象画像取得手段にて取得した対象画像に含まれる目標
画像上に、飛しょう体到達指定点を設定するための目標
画像処理手段を備えた飛しょう体誘導装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention provides a target image processing means for setting a designated arrival point of a flying object on a target image included in a target image acquired by a target image acquisition means including an image sensor or the like. The present invention relates to a flying body guidance device.

【0002】[0002]

【従来の技術】図4は従来のこの種の飛しょう体誘導装
置に適用される目標画像処理手段の構成を示すブロック
図である。図4に示すように、画像センサ41で検出さ
れた目標画像は、各フレーム毎にフレームメモリ42に
順次格納される。フレームメモリ42から順次読み出さ
れる目標画像の各「前・画像」は、設定されたしきい値
をもつ二値化回路43によって前記画像センサ41から
出力される対象画像のタイミングに同期して二値化処理
される。この二値化処理された画像の複数の微小特徴部
が微小特徴部抽出器44によって抽出される。相関点位
置検出器45では上記抽出された複数の微小特徴部をそ
のまま基準画像として用い、フレームメモリ42から出
力される後・画像の複数個所について相関点(相関値の
高い点)の検出が行なわれる。到達指定点設定器46で
は、上記相関点の検出結果に基づいて前・画像および後
・画像における目標物の位置変化および飛しょう体の目
標への接近に伴う目標画像の拡大による影響の低減をは
かりながら、目標物における飛しょう体の到達指定点の
設定が行なわれる。
2. Description of the Related Art FIG. 4 is a block diagram showing the construction of a target image processing means applied to a conventional flying body guiding apparatus of this type. As shown in FIG. 4, the target image detected by the image sensor 41 is sequentially stored in the frame memory 42 for each frame. Each “previous image” of the target image sequentially read from the frame memory 42 is binary in synchronization with the timing of the target image output from the image sensor 41 by the binarization circuit 43 having a set threshold value. Is processed. A plurality of minute feature portions of the binarized image are extracted by the minute feature portion extractor 44. The correlation point position detector 45 uses the plurality of extracted minute feature portions as they are as a reference image, and detects correlation points (points having high correlation values) at a plurality of positions of the rear image output from the frame memory 42. Be done. Based on the detection result of the above-mentioned correlation point, the designated arrival point setter 46 reduces the influence of the change in the position of the target object in the front, the image and the rear image and the enlargement of the target image due to the approach of the flying object to the target. While weighing, the designated arrival point of the flying object on the target is set.

【0003】図5の(a)〜(c)は、二値化処理され
た画像から複数の微小特徴部Q1〜Q4を抽出し、抽出
した微小特徴部Q1〜Q4を基準画像として用い、対象
画像について相関点の検出を行なう手段の具体例を示す
図である。
5A to 5C show a plurality of minute feature portions Q1 to Q4 extracted from a binarized image, and the extracted minute feature portions Q1 to Q4 are used as reference images. It is a figure which shows the specific example of the means which detects a correlation point about an image.

【0004】図5の(a)に示すように、フレームメモ
リ42から順次出力され且つ二値化処理された目標画像
のうちの前・画像Aから、例えば4個所の微小特徴部Q
1〜Q4が抽出される。これら微小特徴部Q1〜Q4と
しては、飛しょう体の目標物への接近に伴って目標画像
が拡大しても、その拡大による影響を受けにくい個所が
選ばれる。これら微小特徴部Q1〜Q4の抽出には、図
示の如き形状をなすテンプレート51〜54が用いられ
る。これらのテンプレート51〜54は、水平方向およ
び垂直方向に移動可能に設けられている。上記抽出され
た微小特徴部Q1〜Q4は、そのまま基準画像として利
用される。
As shown in FIG. 5A, from the previous image A of the target image sequentially output from the frame memory 42 and subjected to the binarization process, for example, four minute feature parts Q
1 to Q4 are extracted. As these minute characteristic portions Q1 to Q4, even if the target image is enlarged due to the approach of the flying object to the target object, locations that are not easily affected by the enlargement are selected. Templates 51 to 54 each having a shape as shown in the figure are used to extract the minute feature portions Q1 to Q4. These templates 51 to 54 are provided so as to be movable in the horizontal direction and the vertical direction. The extracted minute feature portions Q1 to Q4 are directly used as the reference image.

【0005】図5の(b)に示すように、フレームメモ
リ42から出力された目標画像のうちの後・画像Bは、
前・画像Aに比べて、飛しょう体の目標物への接近度に
応じて拡大された画像となる。この拡大された後・画像
Bに対し4個のテンプレート51〜54がそれぞれ矢印
で示す如く水平方向および垂直方向に移動調整され、上
記拡大された後・画像Bにおける前記各微小特徴部Q1
〜Q4について相関点の検出が行なわれる。この検出に
より求められた相関点の位置関係に基づいて上記拡大さ
れた後・画像B上に、飛しょう体の到達指定点P1が設
定される。
As shown in FIG. 5B, the rear / image B of the target image output from the frame memory 42 is
Compared to the previous image A, the image is enlarged according to the degree of approach of the flying object to the target object. The four templates 51 to 54 are moved and adjusted in the horizontal direction and the vertical direction with respect to the enlarged post-image B, respectively, as indicated by the arrows, and the fine feature portions Q1 in the enlarged post-image B are adjusted.
Correlation points are detected for Q4. The designated arrival point P1 of the flying object is set on the image B after being enlarged based on the positional relationship of the correlation points obtained by this detection.

【0006】微小特徴部Q1〜Q4の形状等は、目標画
像が拡大しても、それほど大きく変化しないため、前・
画像Aで追尾していた到達指定点P1を後・画像Bにお
いても引き続き追尾することが可能となる。
Since the shapes of the minute characteristic portions Q1 to Q4 do not change so much even when the target image is enlarged,
The arrival designated point P1 that was tracked in the image A can be continuously tracked in the rear / image B as well.

【0007】[0007]

【発明が解決しようとする課題】上記した従来の飛しょ
う体誘導装置における目標画像処理手段には、次のよう
な問題があった。すなわち得られた目標画像を二値化す
る際、図5の(c)に示すようにエッジ部に欠落55が
生じると、微小特徴部としてのエッジ部の検出が不安定
になる。このため目標物に対する飛しょう体到達指定点
P1の位置をP2の位置であると認識してしまい、その
後の到達指定点の設定に誤差が生じることになる。また
飛しょう体が目標物に接近した場合には、目標画像が大
幅に拡大されるため、このような状況の下では、前・画
像Aと後・画像Bとにおける微小特徴部Q1〜Q4の相
関値が低下し、相関点の検出を適確に行なえないという
問題がある。
The target image processing means in the above-described conventional flying body guiding device has the following problems. That is, when the obtained target image is binarized, if a dropout 55 occurs in the edge portion as shown in FIG. 5C, the detection of the edge portion as a minute feature becomes unstable. Therefore, the position of the designated arrival point P1 of the flying object with respect to the target object is recognized as the position of P2, and an error occurs in the setting of the designated arrival point thereafter. In addition, when the flying object approaches the target object, the target image is greatly enlarged. Therefore, under such a situation, the minute feature parts Q1 to Q4 in the front / image A and the rear / image B are There is a problem that the correlation value decreases and the correlation point cannot be detected accurately.

【0008】なお目標物の形状および輝度分布等に関す
る特徴点をもった基準画像を用いて相関処理を行ない、
相関の大きい座標を到達指定点とする方式を用いたもの
があるが、この方式を用いたものでは、目標物における
到達指定点P1の位置変動発生は減少するが、基準画像
の大きさが一定の大きさに固定化されているため、飛し
ょう体の目標物への接近に伴う目標画像の大幅な拡大に
対しては、対応しきれないという問題がある。
Correlation processing is performed using a reference image having characteristic points relating to the shape and brightness distribution of the target object,
There is a method using a coordinate having a large correlation as the designated arrival point. With this method, the occurrence of positional fluctuation of the designated designation point P1 on the target is reduced, but the size of the reference image is constant. Since the size of the target image is fixed to the target size, there is a problem that it cannot cope with a large expansion of the target image due to the approach of the flying object to the target object.

【0009】本発明の目的は、画像上のエッジ部欠落等
に起因する目標物における飛しょう体到達指定点の位置
変動発生等のおそれがなく、相関処理時における相関値
が対象画像の拡大に伴って低下することがなく、対象画
像が大幅に拡大される状況下でも、目標物における飛し
ょう体到達指定点を適確に定めることが可能であり、安
定かつ正確な目標追尾を可能ならしめる目標画像処理手
段をもった飛しょう体誘導装置を提供することにある。
An object of the present invention is to eliminate the possibility of position variation of a designated point for reaching a flying object in a target object due to a missing edge portion or the like on the image, and the correlation value at the time of correlation processing can be used to enlarge the target image. Even if the target image does not decrease with the increase of the target image, it is possible to accurately determine the target point for reaching the flying object on the target object, which enables stable and accurate target tracking. An object is to provide a flying body guidance device having a target image processing means.

【0010】[0010]

【課題を解決するための手段】上記課題を解決し目的を
達成するために、本発明は以下に示す手段を用いてい
る。本発明の飛しょう体誘導装置は、飛しょう体が到達
すべき目標物を含む前・対象画像から上記目標物に係る
特徴領域を切出して相関演算用の基準画像を生成すると
共に、この生成された基準画像の大きさを、前記飛しょ
う体から前記目標物までの距離の変化に応じて変化さ
せ、この変化させた基準画像を用いて後・対象画像につ
いての相関処理を行ない、前記飛しょう体が到達すべき
前記目標物の到達指定点を設定するようにした目標画像
処理手段を備えたものとなっている。
In order to solve the above problems and achieve the object, the present invention uses the following means. The flying object guiding apparatus of the present invention generates a reference image for correlation calculation by cutting out a characteristic region related to the target object from the front / target image including the target object to be reached by the flying object, and generating the reference image. The size of the reference image is changed in accordance with the change in the distance from the flying object to the target object, and the changed reference image is used to perform correlation processing on the rear and target images, The target image processing means is provided so as to set a designated arrival point of the target object to be reached by the body.

【0011】[0011]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1実施形態)図1は本発明の第1実施形態に係る目
標画像処理手段の構成を示すブロック図である。画像セ
ンサ11は飛しょう体が到達すべき目標物を撮影し、少
なくとも上記目標物を含む対象画像(データ)を検出す
る。この検出された対象画像は各フレーム毎にフレーム
メモリ12に格納される。上記画像センサ11およびフ
レームメモリ12は本発明の対象画像取得手段を構成し
ている。フレームメモリ12に格納された各対象画像
は、順次読出されて画像切出し器13および相関演算器
17に入力する。基準画像生成手段としての画像切出し
器13は、入力した前・対象画像から目標物に係る特徴
領域を切出して相関演算用の基準画像を生成する。生成
された基準画像は、基準画像拡大器16へ入力する。
(First Embodiment) FIG. 1 is a block diagram showing the arrangement of a target image processing means according to the first embodiment of the present invention. The image sensor 11 captures an image of a target object that the flying object should reach, and detects a target image (data) including at least the target object. The detected target image is stored in the frame memory 12 for each frame. The image sensor 11 and the frame memory 12 constitute the target image acquisition means of the present invention. The respective target images stored in the frame memory 12 are sequentially read and input to the image cutout unit 13 and the correlation calculator 17. The image cutout device 13 as the reference image generation means cuts out the characteristic region related to the target object from the input previous / target image and generates a reference image for correlation calculation. The generated reference image is input to the reference image enlarger 16.

【0012】他方、距離情報出力手段としてのレーザレ
ーダ14は、飛しょう体から目標物までの距離を計測し
距離情報を出力する。この距離情報は拡大率演算器15
に入力する。拡大率演算器15は前記レーダ14により
計測された目標物までの距離の縮小変化に対応する前記
対象画像取得手段で取得される対象画像の拡大率を算出
する。この算出された画像拡大率は前記基準画像拡大器
16へ入力する。
On the other hand, the laser radar 14 as the distance information output means measures the distance from the flying object to the target object and outputs the distance information. This distance information is used as the magnification factor calculator
To enter. The magnifying power calculator 15 calculates the magnifying power of the target image acquired by the target image acquiring means corresponding to the reduction change of the distance to the target measured by the radar 14. The calculated image enlargement ratio is input to the reference image enlarger 16.

【0013】基準画像拡大器16は、上記算出された画
像拡大率に応じて、前記生成された相関演算用の基準画
像の大きさを変化(拡大)させる。拡大された相関演算
用の基準画像は、相関演算器17に供給される。相関演
算器17は、入力した拡大基準画像を用いてフレームメ
モリ12から供給される後・対象画像について相関処理
を行なう。到達指定点設定器18は、上記相関演算器1
7による相関処理の結果に基づいて、目標物における飛
しょう体到達指定点を算出しかつ設定する。
The reference image enlarger 16 changes (enlarges) the size of the generated reference image for correlation calculation according to the calculated image enlargement ratio. The enlarged reference image for correlation calculation is supplied to the correlation calculator 17. The correlation calculator 17 performs a correlation process on the post-target image supplied from the frame memory 12 using the input enlarged reference image. The designated point setting device 18 is the correlation calculator 1
Based on the result of the correlation processing according to 7, the flying object reaching designated point on the target is calculated and set.

【0014】図2の(a)および(b)は、拡大率演算
器15による画像拡大率Wの算出原理、および相関演算
器17による二つの画像間の相関演算の原理をそれぞれ
示す図である。
FIGS. 2A and 2B are views showing the principle of calculation of the image magnification W by the magnification calculator 15 and the principle of correlation calculation between two images by the correlation calculator 17, respectively. .

【0015】図2の(a)において、V1 は第1の飛し
ょう体位置であり、この位置で取得される対象画像をT
1 とする。第1の飛しょう体位置V1 から目標物20の
位置Vxまでの距離がR1 である。V2 は第2の飛しょ
う体位置であり、この位置で取得される対象画像をT2
とする。第2の飛しょう体位置V2 から目標物20の位
置Vxまでの距離がR2 である。ここでR1 > R2 で
ある。θ1 は第1の飛しょう体位置V1 から大きさLの
目標物20を見たときの視野角である。また、θ2 は第
2の飛しょう体位置V2 から大きさLの目標物20を見
たときの視野角である。したがって飛しょう体10から
目標物20までの距離がR1 からR2 へ変化したときの
対象画像(目標画像)拡大率Wは、(1)式で表され
る。
In FIG. 2A, V1 is the first flying object position, and the target image acquired at this position is T
Set to 1. The distance from the first flying object position V1 to the position Vx of the target object 20 is R1. V2 is the second flying object position, and the target image acquired at this position is T2
And The distance from the second flying body position V2 to the position Vx of the target object 20 is R2. Here, R1> R2. θ1 is the viewing angle when the target 20 of size L is seen from the first flying object position V1. Further, .theta.2 is a viewing angle when the target object 20 of size L is seen from the second flying object position V2. Therefore, the magnification ratio W of the target image (target image) when the distance from the flying object 10 to the target 20 changes from R1 to R2 is expressed by the equation (1).

【0016】 W=θ2 /θ1 =tan-1(1/2R2 )/tan-1(1/2R1 )…(1) かくしてレーザレーダ14によって距離R1 およびR2
を求めることにより、画像の拡大率Wを算出することが
できる。
W = θ2 / θ1 = tan −1 (1 / 2R2) / tan −1 (1 / 2R1) (1) Thus, the laser radar 14 causes the distances R1 and R2.
It is possible to calculate the enlargement ratio W of the image by obtaining

【0017】ところで相関演算を行なう前提として、基
準画像Eが検出対象である目標画像の形状や寸法(多値
画像の処理においては輝度分布)等の特性を顕著に表わ
していることが必要となる。
By the way, as a premise for performing the correlation calculation, it is necessary for the reference image E to remarkably represent characteristics such as the shape and size of the target image to be detected (luminance distribution in the processing of multivalued images). .

【0018】飛しょう体10が目標物20に接近するの
に伴って目標画像(対象画像)は拡大されていく。この
ため相関追尾の全シーケンスについて、大きさが固定化
された基準画像Eを用いて相関演算を行なうと、基準画
像Eと目標画像(対象画像)Tとの寸法差に開きが生じ
るため相関処理が困難となる。
The target image (target image) is enlarged as the flying object 10 approaches the target 20. Therefore, if the correlation calculation is performed using the reference image E whose size is fixed for all the correlation tracking sequences, a difference occurs in the dimensional difference between the reference image E and the target image (target image) T. Will be difficult.

【0019】図2の(b)に示す様に、m×nの基準画
像Eにおけるj行i列の値(輝度)をEij、目標物2
0を含む対象画像Tの一部である演算対象画像Gにおけ
るj行i列の値(輝度)をGijとすると、二つの画像
Eと画像Gとの間の相関係数γは、(2)式に示す相関
係数算出式により求めることができる。なお相関係数γ
の値が1に近いほど相関度は高い。
As shown in FIG. 2B, the value (luminance) at the j-th row and the i-th column in the m × n reference image E is Eij, and the target 2
When the value (luminance) at the j-th row and the i-th column in the calculation target image G that is a part of the target image T including 0 is Gij, the correlation coefficient γ between the two images E and G is (2) It can be obtained by the correlation coefficient calculation formula shown in the formula. The correlation coefficient γ
The closer the value of is to 1, the higher the degree of correlation.

【0020】[0020]

【数1】 (Equation 1)

【0021】演算対象画像Gの位置(切出し領域)を順
次ずらして所謂ラスタスキャンを行なうことにより、対
象画像Tの中で基準画像E2 と最も相関度の高い位置を
検知することができる。
By performing a so-called raster scan by sequentially shifting the position (cutout region) of the calculation target image G, it is possible to detect the position in the target image T having the highest degree of correlation with the reference image E2.

【0022】基準画像Eとして到達指定点付近の形状や
輝度分布を有する画像を用いれば、目標画像(対象画
像)Tの拡大に対応した到達指定点の算出が可能とな
る。図3は第1実施形態に示された装置の画像処理動作
を示す図である。前・対象画像T1 に対応した飛しょう
体到達指定点付近の目標物(20)に係る特徴領域を含
む一辺の大きさがL1 の基準画像をE1 とすると、対象
画像T2 に対応した基準画像E2 は、(3)式で示すよ
うに一辺の大きさL1 をW倍した大きさL2を一辺とす
る画像を生成することにより得られる。
If an image having a shape and brightness distribution near the designated arrival point is used as the reference image E, the designated arrival point corresponding to the enlargement of the target image (target image) T can be calculated. FIG. 3 is a diagram showing an image processing operation of the apparatus shown in the first embodiment. Let E1 be a reference image having a size L1 on one side including the characteristic region of the target object (20) near the designated point for reaching the flying object corresponding to the front / target image T1, and a reference image E2 corresponding to the target image T2. Is obtained by generating an image having a size L2, which is the size L1 of one side multiplied by W, as one side, as shown in equation (3).

【0023】 L2 =L1 ×W …(3) このようにして得られた基準画像E2 により、拡大され
た対象画像T2 をラスタスキャンしながら相関演算を行
なうことにより、飛しょう体10から目標物20までの
距離R(R1 ,R2 ,…)の変化に対応した相関演算が
可能となる。以下図3を参照し本装置の画像処理動作に
つき順を追って説明する。
L2 = L1 × W (3) The reference image E2 thus obtained is used to perform a correlation operation while raster-scanning the enlarged target image T2, so that the target object 20 changes from the flying object 10. Correlation calculation corresponding to the change of the distance R (R1, R2, ...) Is possible. The image processing operation of this apparatus will be described below in order with reference to FIG.

【0024】(a) 飛しょう体10の追尾シーケンスは通
常の場合、前半の「重心追尾」と後半の「相関追尾」と
からなっている。今、「重心追尾」から「相関追尾」に
移行した時点において、前述の第1の飛しょう体位置V
1 において取得された前・対象画像T1 の画面上におけ
る追尾点座標を(x1 ,y1 )とする。この場合の追尾
点座標(x1 ,y1 )は、前・対象画像T1 につき二値
化等を行なって検出した目標物20の重心位置である。
このときのレーザレーダ14による飛しょう体10から
目標物20までの計測距離はR1 である。
(A) In the usual case, the tracking sequence of the flying vehicle 10 is composed of the first half "centroid tracking" and the second half "correlation tracking". Now, at the time when the “centroid tracking” is changed to the “correlation tracking”, the above-mentioned first flying object position V
The tracking point coordinates on the screen of the previous / target image T1 acquired in 1 are set to (x1, y1). The tracking point coordinates (x1, y1) in this case are the barycentric positions of the target object 20 detected by performing binarization or the like on the front / target image T1.
At this time, the distance measured by the laser radar 14 from the flying object 10 to the target object 20 is R1.

【0025】(b) 前・対象画像T1 の追尾点座標(x1
,y1 )を中心として、予め定めた「L1 画素×H1
画素」なる大きさの画像を切出し、これを基準画像E1
としてフレームメモリ12に格納しておく。また前・対
象画像T1 を取得した時の飛しょう体10から目標物2
0までの計測距離をR1 を同時に記憶しておく。
(B) Tracking point coordinates (x1
, Y1) as a center, and a predetermined "L1 pixel × H1
Cut out the image of the size of "pixel"
Is stored in the frame memory 12 as In addition, the target object 2 from the flying object 10 when the front / target image T1 is acquired
The measured distance to 0 is stored in R1 at the same time.

【0026】(c) 第2の飛しょう体位置V2 において後
・対象画像T2 を取得する。このときのレーザレーダ1
4による飛しょう体10から目標物20までの計測距離
は、R2 である。
(C) A rear / target image T2 is acquired at the second flying object position V2. Laser radar 1 at this time
The measurement distance from the flying object 10 to the target object 20 by 4 is R2.

【0027】(d) 前記(b) において切出した基準画像E
1 を前記(1)式で算出した画像拡大率Wに基づいて拡
大し、基準画像E2 を生成する。 (e) 前記(d) において生成した基準画像E2 を用い、前
記追尾点座標(x1 ,y1 )の近傍を中心としてラスタ
スキャンを行ないながら相関演算を行なう。
(D) Reference image E cut out in (b) above
1 is enlarged on the basis of the image enlargement ratio W calculated by the equation (1) to generate the reference image E2. (e) Using the reference image E2 generated in (d) above, the correlation calculation is performed while performing raster scan around the vicinity of the tracking point coordinates (x1, y1).

【0028】(f) 上記相関演算の結果、最も相関値の高
い座標(x2 ,y2 )を、後・対象画像T2 の新たな追
尾点とする。 以下、上述した処理動作を繰り返す。すなわち、飛しょ
う体10が第3の飛しょう体位置V3 (不図示)へ移行
したとき、前記第2の飛しょう体位置V2 を第1の飛し
ょう体位置とし、第3の飛しょう体位置V3 を第2の飛
しょう体位置として、上記(a) 〜(g) の処理を繰り返
す。こうすることにより、目標物20を適確に追尾する
事が可能となる。
(F) As a result of the above correlation calculation, the coordinate (x2, y2) having the highest correlation value is set as a new tracking point of the rear / target image T2. Hereinafter, the processing operation described above is repeated. That is, when the flying body 10 moves to the third flying body position V3 (not shown), the second flying body position V2 is set as the first flying body position, and the third flying body position is set. The processes of (a) to (g) above are repeated with V3 as the second flying object position. By doing so, it is possible to accurately track the target object 20.

【0029】(変形例)実施形態に示された飛しょう体
誘導装置には、次のような変形例が含まれている。 ・レーザレーダ14の代りに通常の電波を使用したレー
ダ等、他の距離測定装置を用いたもの。 ・目標物の種類等をキャッチするために広帯域アンテナ
等を併設したもの。
(Modification) The following modification is included in the flying body guiding apparatus shown in the embodiment. A device that uses another distance measuring device such as a radar that uses normal radio waves instead of the laser radar 14.・ A broadband antenna is installed to catch the target type.

【0030】(実施形態のまとめ)前述の実施形態に示
された飛しょう体誘導装置の構成および作用効果をまと
めると次の通りである。 [1]実施形態に示された飛しょう体誘導装置は、飛し
ょう体(10)が到達すべき目標物(20)を含む前・
対象画像(T1 )から、上記目標物(20)に係る特徴
領域(L1 ×H1 )を切出して相関演算用の基準画像
(E1 )を生成すると共に、この生成された基準画像
(E1 )の大きさを、前記飛しょう体(10)から前記
目標物(20)までの距離(R)の変化(R1 からR2
へ)に応じて変化させ、この変化させた基準画像(E2
)を用いて、後・対象画像(T2 )についての相関処
理を行ない、前記飛しょう体(10)が到達すべき前記
目標物(20)の到達指定点(P)を設定するようにし
た目標画像処理手段を備えたものとなっている。
(Summary of Embodiments) The following is a summary of the configuration and operational effects of the flying body guiding apparatus shown in the above-described embodiment. [1] The flying body guiding apparatus shown in the embodiment includes a target object (20) which the flying body (10) should reach.
From the target image (T1), the characteristic region (L1 x H1) of the target object (20) is cut out to generate a reference image (E1) for correlation calculation, and the size of the generated reference image (E1) is also increased. Change the distance (R) from the flying object (10) to the target object (20) (R1 to R2
To the reference image (E2
) Is used to perform a correlation process on the rear / target image (T2) to set a designated arrival point (P) of the target object (20) that the flying object (10) should reach. It is equipped with image processing means.

【0031】上記した飛しょう体誘導装置においては、
前・対象画像(T1 )から切出した目標物に係る特徴領
域(L1 ×H1 )を相関演算用の基準画像(E1 )とし
ており、これを用いて後・対象画像(T2 )についての
相関演算を行なうようにしているので、仮に画像の二値
化時において一部のエッジ部に欠落等が発生したとして
も、目標物(20)に係る特徴領域(L1 ×H1 )全体
の特徴点に及ぼす影響は少ない。このため上記エッジ部
欠落等に起因する目標物(20)における飛しょう体到
達指定点(P)の位置変動発生(P1 からP2 へ)等の
おそれがない。また基準画像(E1 )の大きさが、飛し
ょう体(10)から目標物(20)までの距離(R)の
変化(R1 からR2 へ)に応じて変化するものとなって
いる為、相関処理時における相関値が対象画像の拡大
(T1 からT2 へ)に伴って低下することがない。かく
して、対象画像(T)が大幅に拡大される状況の下で
も、目標物(20)に対する飛しょう体到達指定点
(P)を適確に定めることが可能であって、安定かつ正
確な目標追尾を可能ならしめる。 [2]実施形態に示された飛しょう体誘導装置は、飛し
ょう体(10)が到達すべき目標物(20)を撮影し、
少なくとも上記目標物(20)を含んだ対象画像(T)
を取得するための対象画像取得手段(11,12)と、
この対象画像取得手段(11,12)で取得された前・
対象画像(T1 )から上記目標物(20)に係る特徴領
域(L1 ×H1 )を切出して相関演算用の基準画像(E
1)を生成する基準画像生成手段(13)と、前記飛しょ
う体(10)から目標物(20)までの距離(R)を計
測し距離情報を出力する距離情報出力手段(14)と、
この距離情報出力手段(14)から出力される距離情報
に基づいて、距離(R)の縮小変化(R1 からR2 へ)
に対応する前記対象画像取得手段(11,12)で取得
される対象画像(T1 ,T2 …)の拡大率(W)を算出
する拡大率演算器(15)と、この拡大率演算器(1
5)により算出された拡大率に応じて前記基準画像
(E)の大きさを拡大変化(E1 からE2 へ)させる基
準画像拡大器(16)と、この基準画像拡大器(16)
により拡大された基準画像(E2 )を用いて前記対象画
像取得手段(11,12)で取得される後・対象画像
(T2 )についての相関処理を行なう相関演算器(1
7)と、この相関演算器(17)で相関処理された結果
に基づいて前記した後・対象画像(T2)に含まれる目標
画像上に、前記飛しょう体(10)が到達すべき到達指
定点(P)を設定する到達指定点設定器(18)と、か
らなる目標画像処理手段を備えたものとなっている。
In the above flying body guidance device,
The characteristic region (L1 x H1) related to the target object cut out from the front / target image (T1) is used as the reference image (E1) for correlation calculation, and using this, the correlation calculation for the rear / target image (T2) is performed. Since this is performed, even if a part of the edge portion is missing during binarization of the image, the influence on the feature points of the entire feature region (L1 x H1) related to the target object (20). Is few. Therefore, there is no possibility that the position variation (from P1 to P2) of the designated arrival point (P) of the flying object on the target (20) will occur due to the missing edge or the like. Also, the size of the reference image (E1) changes depending on the change (R1 to R2) in the distance (R) from the flying object (10) to the target object (20). The correlation value at the time of processing does not decrease with the enlargement of the target image (from T1 to T2). Thus, even in a situation where the target image (T) is greatly enlarged, it is possible to accurately determine the flying object reaching designated point (P) with respect to the target object (20), and to obtain a stable and accurate target. Track if possible. [2] The flying body guiding apparatus shown in the embodiment captures an image of a target object (20) that the flying body (10) should reach,
Target image (T) including at least the target object (20)
Target image acquisition means (11, 12) for acquiring
Before acquisition by this target image acquisition means (11, 12)
A characteristic region (L1 x H1) related to the target (20) is cut out from the target image (T1) and a reference image (E) for correlation calculation is extracted.
A reference image generation means (13) for generating 1), a distance information output means (14) for measuring the distance (R) from the flying object (10) to the target object (20) and outputting distance information,
Based on the distance information output from the distance information output means (14), the reduction change of the distance (R) (from R1 to R2)
Magnification ratio calculator (15) for calculating the magnification ratio (W) of the target images (T1, T2, ...) Acquired by the target image acquisition means (11, 12) corresponding to
5) A reference image magnifier (16) for magnifying and changing (from E1 to E2) the size of the reference image (E) according to the magnifying power calculated by 5), and this reference image magnifier (16).
A correlation calculator (1) that performs a correlation process on the post-target image (T2) acquired by the target image acquiring means (11, 12) using the reference image (E2) enlarged by
7) and the arrival designation that the flying body (10) should reach on the target image included in the after / target image (T2) based on the result of the correlation processing by the correlation calculator (17). A target image processing means including a designated arrival point setting device (18) for setting a point (P) is provided.

【0032】上記した飛しょう体誘導装置においては、
前記[1]の装置における作用効果と同様の作用効果を
奏する上、具現手段が明確化されているので、実施し易
いという利点がある。
In the above flying body guidance device,
In addition to the same effects as the effects of the device [1], the embodying means is clarified, which is advantageous in that it can be easily implemented.

【0033】[0033]

【発明の効果】本発明によれば、下記の作用効果を奏す
る飛しょう体誘導装置を提供することができる。 (a) 前・対象画像から切出した目標物に係る特徴領域を
相関演算用の基準画像としており、これを用いて後・対
象画像についての相関演算を行なうようにしているの
で、仮に画像の二値化時において一部のエッジ部に欠落
等が発生したとしても、目標物に係る特徴領域全体の特
徴点に及ぼす影響は少ない。このため、上記エッジ部欠
落等に起因する目標物における飛しょう体到達指定点の
位置変動発生等のおそれがない。 (b) 基準画像の大きさが、飛しょう体から目標物までの
距離の変化に応じて変化するものとなっているため、相
関処理時における相関値が対象画像の拡大に伴って低下
することがない。かくして対象画像が大幅に拡大される
状況の下でも、目標物に対する飛しょう体到達指定点を
適確に定めることが可能であり、安定かつ正確な目標追
尾を可能ならしめる。
EFFECTS OF THE INVENTION According to the present invention, it is possible to provide a flying body guiding device which exhibits the following operational effects. (a) Since the characteristic region related to the target object cut out from the front and target images is used as a reference image for correlation calculation, and this is used to perform the correlation calculation for the rear and target images, it is assumed that Even if a part of the edge portion is missing during the binarization, the influence on the characteristic points of the entire characteristic region related to the target object is small. For this reason, there is no possibility that the position of the designated arrival point of the flying object on the target object may fluctuate due to the missing edge portion or the like. (b) Since the size of the reference image changes according to the change in the distance from the flying object to the target object, the correlation value at the time of correlation processing decreases as the target image expands. There is no. Thus, even in a situation in which the target image is greatly enlarged, it is possible to accurately determine the designated point for reaching the target object, which enables stable and accurate target tracking.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態に係る飛しょう体誘導装
置における目標画像処理手段の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of target image processing means in a flying body guiding apparatus according to a first embodiment of the present invention.

【図2】本発明の第1実施形態に係る上記目標画像処理
手段における拡大率演算器による画像拡大率の算出原
理、および相関演算器による二つの画像間の相関演算の
原理を示す図。
FIG. 2 is a diagram showing a calculation principle of an image enlargement ratio by an enlargement ratio calculator in the target image processing means according to the first embodiment of the present invention and a principle of a correlation calculation between two images by a correlation calculator.

【図3】本発明の第1実施形態に係る目標画像処理手段
の画像処理動作を示す図。
FIG. 3 is a diagram showing an image processing operation of target image processing means according to the first embodiment of the present invention.

【図4】従来例に係る飛しょう体誘導装置における目標
画像処理手段の構成を示すブロック図。
FIG. 4 is a block diagram showing a configuration of target image processing means in a flying body guiding apparatus according to a conventional example.

【図5】従来例に係る上記目標画像処理手段における相
関点検出の具体例およびその欠点を示す図。
FIG. 5 is a diagram showing a specific example of correlation point detection in the target image processing means according to the conventional example and its defect.

【符号の説明】[Explanation of symbols]

10…飛しょう体 11…画像センサ 12…フレームメモリ 13…画像切出し器 14…レーザレーダ 15…拡大率演算器 16…基準画像拡大器 17…相関演算器 18…到達指定点設定器 20…到達すべき目標物 T…対象画像 T1 …前・対象画像 T2 …後・対象画像 L…目標物の大きさ L1 ×H1 …目標物に係る特徴領域 E…基準画像 E1 ,E2 …相関演算用の基準画像 R1 ,R2 …距離 P1 ,P2 …到達指定点 V1 ,V2 …第1,第2の飛しょう体位置 θ1 .θ2 …視野角 G…演算対象画像 10 ... Flying object 11 ... Image sensor 12 ... Frame memory 13 ... Image clipper 14 ... Laser radar 15 ... Magnification ratio calculator 16 ... Reference image magnifier 17 ... Correlation calculator 18 ... Reach specified point setter 20 ... Reach Power target T ... Target image T1 ... Front / target image T2 ... Rear / target image L ... Target size L1 × H1 ... Target feature area E ... Reference images E1, E2 ... Reference image for correlation calculation R1, R2 ... Distances P1, P2 ... Reached designated points V1, V2 ... First and second flying object positions θ1. θ2 ... Viewing angle G ... Image to be calculated

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 G06F 15/70 455A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/00 G06F 15/70 455A

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】飛しょう体が到達すべき目標物を含む前・
対象画像から上記目標物に係る特徴領域を切出して相関
演算用の基準画像を生成すると共に、この生成された基
準画像の大きさを、前記飛しょう体から前記目標物まで
の距離の変化に応じて変化させ、この変化させた基準画
像を用いて、後・対象画像についての相関処理を行な
い、前記飛しょう体が到達すべき前記目標物の到達指定
点を設定するようにした目標画像処理手段を備えてなる
ことを特徴とする飛しょう体誘導装置。
[Claim 1] Before including a target to be reached by a flying object
The reference image for correlation calculation is generated by cutting out the characteristic region related to the target object from the target image, and the size of the generated reference image is changed according to the change in the distance from the flying object to the target object. Target image processing means for performing a correlation process on the rear and target images by using the changed reference image, and setting an arrival designated point of the target object that the flying object should reach. A flying body guidance device comprising:
JP7279049A 1995-10-26 1995-10-26 Missile guiding system Withdrawn JPH09119982A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7279049A JPH09119982A (en) 1995-10-26 1995-10-26 Missile guiding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7279049A JPH09119982A (en) 1995-10-26 1995-10-26 Missile guiding system

Publications (1)

Publication Number Publication Date
JPH09119982A true JPH09119982A (en) 1997-05-06

Family

ID=17605693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7279049A Withdrawn JPH09119982A (en) 1995-10-26 1995-10-26 Missile guiding system

Country Status (1)

Country Link
JP (1) JPH09119982A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123185A (en) * 1998-10-14 2000-04-28 Canon Inc Object recognizing device
JP2001143075A (en) * 1999-11-10 2001-05-25 Yaskawa Electric Corp Template-matching method
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2008276787A (en) * 2008-05-14 2008-11-13 Honda Motor Co Ltd Vehicle periphery monitoring device
US8144195B2 (en) 2001-06-28 2012-03-27 Honda Giken Kogyo Kabushiki Kaisha Vehicle zone monitoring apparatus
CN103295213A (en) * 2013-06-07 2013-09-11 广州大学 Image stability augmentation algorithm based on object tracking
JPWO2018151211A1 (en) * 2017-02-15 2019-12-12 トヨタ自動車株式会社 Point cloud data processing device, point cloud data processing method, point cloud data processing program, vehicle control device, and vehicle

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123185A (en) * 1998-10-14 2000-04-28 Canon Inc Object recognizing device
JP2001143075A (en) * 1999-11-10 2001-05-25 Yaskawa Electric Corp Template-matching method
US8144195B2 (en) 2001-06-28 2012-03-27 Honda Giken Kogyo Kabushiki Kaisha Vehicle zone monitoring apparatus
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2008276787A (en) * 2008-05-14 2008-11-13 Honda Motor Co Ltd Vehicle periphery monitoring device
CN103295213A (en) * 2013-06-07 2013-09-11 广州大学 Image stability augmentation algorithm based on object tracking
CN103295213B (en) * 2013-06-07 2016-08-31 广州大学 Image stability augmentation method based on object tracing
JPWO2018151211A1 (en) * 2017-02-15 2019-12-12 トヨタ自動車株式会社 Point cloud data processing device, point cloud data processing method, point cloud data processing program, vehicle control device, and vehicle

Similar Documents

Publication Publication Date Title
US7471809B2 (en) Method, apparatus, and program for processing stereo image
US9576375B1 (en) Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels
US20030035098A1 (en) Pose estimation method and apparatus
JP4467838B2 (en) Image recognition apparatus and image recognition method
WO2012053521A1 (en) Optical information processing device, optical information processing method, optical information processing system, and optical information processing program
WO2014108976A1 (en) Object detecting device
JPH09119982A (en) Missile guiding system
JPH08292014A (en) Measuring method of pattern position and device thereof
JP3869554B2 (en) Inspection data creation method and apparatus, and component mounting board visual inspection apparatus using the same
WO2002077922A1 (en) Image detection method, image detection apparatus, and wafer treatment apparatus
US20040146194A1 (en) Image matching method, image matching apparatus, and wafer processor
JPH0875454A (en) Range finding device
JP2961140B2 (en) Image processing method
JPS63132107A (en) Light cutting line extracting circuit
JPH06160047A (en) Pattern matching method
JP3311551B2 (en) Image data input processing method and apparatus
JP2003099784A (en) Recognition method for moving object
JP2002031511A (en) Three-dimensional digitizer
JPH1063842A (en) Template matching method
WO2023132007A1 (en) Detection apparatus, model generation apparatus, detection method, and program
JP2501150B2 (en) Laser welding method
JPH0534117A (en) Image processing method
JP2003099776A (en) Image processor
JPH0310384A (en) Moving object recognizing circuit
JPH11135998A (en) Recognition method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030107