JP3597785B2 - Target selection device - Google Patents

Target selection device Download PDF

Info

Publication number
JP3597785B2
JP3597785B2 JP2001039921A JP2001039921A JP3597785B2 JP 3597785 B2 JP3597785 B2 JP 3597785B2 JP 2001039921 A JP2001039921 A JP 2001039921A JP 2001039921 A JP2001039921 A JP 2001039921A JP 3597785 B2 JP3597785 B2 JP 3597785B2
Authority
JP
Japan
Prior art keywords
target
unit
coordinates
seeker
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001039921A
Other languages
Japanese (ja)
Other versions
JP2002243400A (en
Inventor
克海 大橋
正 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP2001039921A priority Critical patent/JP3597785B2/en
Publication of JP2002243400A publication Critical patent/JP2002243400A/en
Application granted granted Critical
Publication of JP3597785B2 publication Critical patent/JP3597785B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、目標物を追尾する飛しょう体に搭載され、飛しょう中に捉えた複数の目標候補から予め指定された指定目標を選択する目標選択装置に関する。
【0002】
【従来の技術】
飛しょう体に搭載され、複数の目標候補から指定目標を選択する従来技術として、特開平7−180996号公報に記載される方法がある。図5は、この従来の目標選択方法を示す図である。
【0003】
飛しょう体1は、発射装置2から発射され、予め指定された指定目標に向けて飛しょうする。飛しょう体1には、目標を撮像するシーカが搭載されており、このシーカで撮像した目標に向けて飛しょうする。このときシーカ視野に、複数の目標候補が含まれる場合がある。このような場合、この従来技術では、目標候補のサイズと予め指定された指定目標のサイズとを比較することで、目標を選択している。
【0004】
さらに詳細に説明すると、まず複数の目標候補から1つの目標候補を選択し、シーカ画像3から、目標候補のシーカ画像上でのサイズである目標画像サイズAを求める。これとともに、飛しょう体1と選択した目標候補との相対距離Rを、たとえばレーザ測距装置によって測定する。そして、目標画像サイズA、相対距離R、および目標サイズの算出式:R×tan(A)に基づいて、選択した目標候補のサイズを算出する。
【0005】
そして、この選択した目標候補のサイズと予め指定された目標サイズとを比較し、その差が所定の範囲内であれば、その目標候補を目標であると判定し、所定の範囲外であれば、つぎの目標候補に対し、上記した演算を行なう。このようにして、複数の目標候補から指定目標の選択を行なう。
【0006】
【発明が解決しようとする課題】
しかしながら、上記した従来の選択方法では、目標画像サイズAに基づいて目標を選択するので、目標サイズの同じ目標候補が複数存在した場合には、目標画像サイズAが等しくなり、目標を選択することができなくなる。
【0007】
本発明の目的は、目標候補の大きさが等しい場合であっても、指定目標を選択することができる目標選択装置を提供することである。
【0008】
【課題を解決するための手段】
発明は、予め指定された指定目標に向けて飛しょうする飛しょう体に搭載され、飛しょう中に捉えた複数の目標候補から前記指定目標を選択する目標選択装置において、
飛しょう体10を発射させる発射装置11は、
指定目標が存在する方向を発射装置方向基準Aとし、この発射装置方向基準Aを中心とする標定範囲内で地表面上に存在する指定目標と、その指定目標近傍の目標後方との各目 標毎に、
発射装置11から前記各目標までの標定距離と、
前記各目標の移動速度と、
前記各目標の発射装置方向基準の方位角度ψと、
前記各目標の画像とを計測し、
各目標毎に、
地表面上の2次元座標で表される発射装置位置基準の初期目標座標TOP1(t0x1,t0y1)〜TOPn(t0xn,t0yn)と、
発射装置基準の目標移動速度TV1(tvx1,tvy1)〜TVn(tvxn,tvyn)と、
サイズを含む画像特徴量IMG1〜IMGnとを、演算して求め、
(a)記憶手段18であって、
前記発射装置11からの前記各目標毎の前記初期目標座標TOP1(t0x1,t0y1)〜TOPn(t0xn,t0yn)と、
前記目標移動速度TV1(tvx1,tvy1)〜TVn(tvxn,tvyn)と、
前記画像特徴量IMG1〜IMGnとを、データ転送して記憶する記憶手段18と、
(b)飛しょう体の飛しょう中に、加速度および角速度を検出する慣性センサ17と、
(c)ジンバル機構部13と、
(d)シーカ14であって、
(d1)ジンバル機構部13に支持された赤外線カメラから成る撮像部15と、
(d2)レーザ測距ユニット16であって、
前記各目標をシーカ軸の中心となるようにジンバル機構部13を制御して前記各目標と飛しょう中の飛しょう体との相対距離Rを算出し、シーカ軸が前記各目標に向くようにジンバル機構部13を制御し、このシーカ軸方向を測距方位角ψとして出力するレーザ測距ユニット16とを有するシーカ14と、
(e)慣性センサ17によって検出された加速度および角速度とによって、飛しょう中の飛しょう体の現在の2次元位置座標と高度Hとから成る現在の3次元座標を、算出する演算手段26と、
(f)前記撮像部15によって撮像された画像を処理して前記各目標の前記画像特徴量を抽出する画像処理演算手段27と、
(g)座標推定演算手段30であって、
3次元座標算出手段26によって算出された3次元座標に基づいて、発射位置から現在位置に対応する地表面での位置までの飛しょう距離Xを算出し、
レーザ測距ユニット16によって算出された前記相対距離Rと、
前記高度Hとに基づいて、前記各目標毎の推定位置、
X+√(R −H
を算出し、
この推定位置に基づいて、発射装置位置基準の推定位置座標MTP1(mtx1,mty1)〜MTPn(mtxn,mtyn)を算出する座標推定演算手段30と、
(h)記憶手段18に記憶されるデータと、経過した時間とから、前記各目標毎の推定位置座標MTP1(mtx1,mty1)〜MTPn(mtxn,mtyn)を更新する位置更新手段25と、
(i)前記更新された各目標毎の推定位置座標MTP1(mtx1,mty1)〜MTPn(mtxn,mtyn)のうち、標定位置座標に最も近く、かつ画像処理演算手段27によって抽出された画像特徴量が、指定目標の画像特徴量に最も近い画像特徴量を持つ候補を、指定目標として選択する演算手段31と、
(j)選択された指定目標を、シーカで捕捉し、誘導する手段とを含むことを特徴とする目標選択装置である。
【0009】
また本発明は、画像特徴量はさらに、前記各目標の形状および温度パターンを含むことを特徴とする。
【0010】
在位置と各目標位置までの相対距離とから発射位置から各目標候補までの距離が算出される。したがって、目標位置情報から得られる発射位置から指定目標までの距離と、発射位置から各目標候補までの距離とを比較することで、複数の目標候補から、指定目標を選択することができる。
【0011】
このようにして、目標サイズでなく、位置に基づいて目標を選択することで、目標候補と指定目標とが同じ大きさの場合でも、目標を選択することができる。
【0012】
【0013】
標位置情報が、目標位置だけでなく、目標の移動速度などの移動情報も含むことで、飛しょう体が発射してから目標に到達するまでの間に、目標が移動する場合であっても、高精度に指定目標を選択することができる。
【0014】
【0015】
定目標だけでなく、目標候補の位置情報も予め測定して記憶しておくことで、さらに高精度に指定目標を選択することが可能となる。
【0016】
【0017】
標の形状、サイズ、または温度パターンなどの画像に関する特徴を比較して指定目標を選択することで、さらに高精度に選択することができる。
【0018】
【0019】
標サイズでなく、位置情報に基づいて目標を選択することで、目標候補と目標とが同じ大きさの場合でも、高精度に目標を選択することができる。
【0020】
【発明の実施の形態】
図1は、本発明の目標選択方法の概略を示す図であり、図2は、本発明の実施の一形態である目標選択装置12の選択方法を示す図である。飛しょう体10は、発射前に予め目標が指定(以下、指定目標)されており、発射装置11から発射され、飛しょう中に前記指定目標を捉えて自動制御によって追尾し、指定目標に向けて誘導される。飛しょう体10には、目標選択装置12が搭載され、飛しょう中に複数の目標候補を捉えた場合、目標選択装置12で、複数の目標候補の中から指定目標を選択する。
【0021】
目標選択装置12は、撮像部15および測距ユニット16を有するシーカ14、シーカ14を回動自在に保持するジンバル機構部13、慣性センサ17および目標標定距離記憶部18を有し、これらを用いて飛しょう中に、目標の選択を行なう。
【0022】
図3は、発射装置11による目標物標定方法を説明する図である。飛しょう体10の発射前に目標標定距離を計測し、これを目標選択装置12の目標標定距離記憶部18に記憶する。
【0023】
さらに詳しく説明すると、発射装置11は指定目標存在する方向を発射装置方向基準Aとし、この発射装置方向基準Aを中心とする標定範囲内に存在する複数の目標、つまり指定目標、および指定目標近傍の目標候補のそれぞれの位置および画像を計測する。計測するデータは、
1.発射装置11から複数目標のそれぞれまでの距離
2.複数目標それぞれの移動速度
3.複数目標それぞれの発射装置方向基準Aの方位角度
4.複数目標それぞれの画像
である。
【0024】
なお、たとえば上記1,2はミリ波レーダ、3,4は赤外線カメラによって計測する。
【0025】
つぎに、計測したデータに基づいてデータ処理を行ない、以下に示すように位置情報および画像情報として、各目標ごとにデータを算出する。なお、本実施形態では、発射装置および画像目標はいずれも地表面上に存在するものとし、位置情報は2次元座標で表されるものとする。
1.発射装置位置基準の初期目標座標
TOP1(t0x1,t0y1),TOP2(t0x2,t0y2),…,TO Pn(t0xn,t0yn)
2.発射装置基準の目標移動速度
TV1(tvx1,tvy1),TV2(tvx2,tvy2),…,TV n(tvxn.tvyn)
3.画像特徴量(形状、サイズ、温度パターンなど)
IMG1,IMG2,…,IMGn
【0026】
そして、各目標の番号と、位置情報および画像情報とを飛しょう体にデータ転送し、目標標定距離記憶部18に記憶する。そして、指定目標の番号を転送して記憶させることで、指定目標の指定を行なう。
【0027】
このように、データを記憶した後、飛しょう体10を発射する。そして、飛しょう中に、以下のデータ計測を実施する。
1.複数目標それぞれと飛しょう体との相対距離R
2.飛しょう体の位置座標
3.複数目標それぞれに対する測距方位角ψ
4.複数目標それぞれの画像特徴量
【0028】
これらのデータ計測について、図2および図4を参照してさらに詳細に説明する。
【0029】
目標選択装置12は慣性センサ17を有し、この慣性センサ17に基づいて慣性航法演算回路26で飛しょう中の現在位置の座標を算出する。慣性センサ17は、加速度および角速度を検出し、これらに基づいて慣性航法演算回路26で、飛しょう中の現在の座標位置を算出する。これとともに、飛しょう中にシーカで捉えた複数目標に対して、各目標候補までの相対距離の測距を行う。
【0030】
シーカ14は、ジンバル機構部13に支持される撮像部15と測距ユニット16とを有する。撮像部15は、たとえば赤外線カメラであり、撮像された画像は、画像処理演算部27で画像処理され、形状、サイズ、温度パターンなどの画像特徴量が抽出される。ジンバル制御演算回路28は、画像処理演算回路27で抽出された複数の目標候補から1つを選択し、この選択した目標候補がシーカ軸の中心となるように、ジンバル機構部13を制御する。測距ユニット16は、レーザ測距装置であり、シーカ軸上にある対象物までの相対距離を測距する。つまり、選択された目標候補までの相対距離Rが測距される。測距データは、目標候補座標推定演算回路30に与えられる。また、シーカ軸が目標候補に向くようにジンバル機構部が制御されたとき、このときのシーカ軸方向が、測距方位角ψとして目標候補座標推定演算回路30に与えられる。なお測距方位角ψは、図4における水平方向のずれ角である。
【0031】
つぎに図1を参照して、目標候補座標の推定について説明する。
慣性航法演算により、飛しょう体10の現在の3次元座標が算出される。つまり、地表面に対応するXY2次元座標と、高度Hが得られる。目標候補座標推定演算回路30では、これに基づいて、発射位置から、現在位置に対応する地表面での位置までの飛しょう距離Xを算出する。また、測距ユニット16からは、飛しょう体10の現在位置から目標候補までの相対距離Rが得られ、ジンバル機構部13からは測距方位角ψが得られる。ここでは、説明の簡略化のため測距方位角ψを0として、目標候補推定位置のX方向についての算出式で考える。
【0032】
すると、目標候補推定位置算出式:X+√(R2−H2
より、目標候補推定位置(X方向)が算出される。このようにして、各目標候補に対して、発射装置位置基準の目標候補位置推定座標
MTP1(mtx1,mty1),MTP2(mtx2,mty2),…,MTPn(mtxn,mtyn)
が算出される。
【0033】
また、これとともに目標標定距離記憶部18に記憶されるデータに基づき、目標標定位置処理部25によって、標定時から現在までの時間と移動速度とから移動分を算出し、指定目標および各目標候補の目標標定位置を更新する。
TP1(tx1,ty1),TP2(tx2,ty2),TPn(txn,tyn)
【0034】
そして、目標選択演算回路31は、目標候補座標推定演算回路30からの発射点基準の各目標候補位置推定座標と、目標標定位置処理部25からの更新した指定目標および各目標候補の標定位置座標とを比較する。さらに、各目標候補の画像特徴量と、指定目標の画像特徴量とを比較する。このようにして、更新後の指定目標の標定位置座標に最も近く、かつ指定目標の画像特徴量に最も近い画像特徴量をもつ目標候補を、指定目標として選択する。
【0035】
このようにして、指定目標を選択した後は、この選択された目標をシーカで捕捉し、誘導する。
【0036】
【発明の効果】
以上のように本発明によれば、目標サイズでなく、位置情報に基づいて目標を選択することで、目標候補と指定目標とが同じ大きさの場合でも、高精度に目標を選択することができる。
【0037】
標位置情報が、目標位置だけでなく、目標の移動速度などの移動情報も含むことで、飛しょう体が発射してから目標に到達するまでの間に、目標が移動する場合であっても、高精度に指定目標を選択することができる。
【0038】
定目標だけでなく、目標候補の位置情報も予め測定して記憶しておくことで、より高精度な指定目標の選択が可能となる。
【0039】
イズ、さらには目標の形状、温度パターンなどの画像に関する特徴を比較して指定目標を選択することで、さらに正確に選択することができる。
【図面の簡単な説明】
【図1】本発明の目標選択方法の概略を説明する図である。
【図2】目標選択装置12によるの目標選択方法を示す図である。
【図3】発射前に実施する目標標定を説明する図である。
【図4】飛しょう中に実施する目標候補位置推定を推定する図である。
【図5】従来の目標選択方法を説明する図である。
【符号の説明】
10 非しょう体
11 発射装置
12 目標選択装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is mounted on a flying object to track a target object, relates to a target selection equipment for selecting a specified target specified in advance from a plurality of target candidates captured during flight.
[0002]
[Prior art]
As a conventional technique for selecting a designated target from a plurality of target candidates mounted on a flying object, there is a method described in JP-A-7-180996. FIG. 5 is a diagram showing this conventional target selection method.
[0003]
The flying object 1 is launched from the launching device 2 and flies toward a designated target specified in advance. The flying object 1 is equipped with a seeker for capturing an image of a target, and flies toward the target captured by the seeker. At this time, a plurality of target candidates may be included in the seeker field of view. In such a case, in the related art, the target is selected by comparing the size of the target candidate with the size of the designated target specified in advance.
[0004]
More specifically, first, one target candidate is selected from a plurality of target candidates, and a target image size A, which is the size of the target candidate on the seeker image, is obtained from the seeker image 3. At the same time, the relative distance R between the flying object 1 and the selected target candidate is measured by, for example, a laser distance measuring device. Then, the size of the selected target candidate is calculated based on the target image size A, the relative distance R, and the target size calculation formula: R × tan (A).
[0005]
Then, the size of the selected target candidate is compared with a predetermined target size. If the difference is within a predetermined range, the target candidate is determined to be a target. The above-described calculation is performed on the next target candidate. In this way, a designated target is selected from a plurality of target candidates.
[0006]
[Problems to be solved by the invention]
However, in the above-described conventional selection method, the target is selected based on the target image size A. Therefore, when there are a plurality of target candidates having the same target size, the target image size A becomes equal, and the target is selected. Can not be done.
[0007]
An object of the present invention, even when the magnitude of the target candidate are equal, is to provide a target selection equipment that can select the given target.
[0008]
[Means for Solving the Problems]
The present invention is a target selection device that is mounted on a flying object flying toward a designated target specified in advance, and selects the designated target from a plurality of target candidates captured during the flight,
The launching device 11 for launching the flying object 10 includes:
The direction in which the specified target is present as a launcher direction reference A, the goals of the specified target, a target rear of the designated target proximity that is present on the surface of the earth in orientation range around the launcher direction reference A Every,
An orientation distance from the launch device 11 to each of the targets,
The moving speed of each of the targets,
An azimuth angle の based on the launcher direction of each target,
Measuring the image of each target,
For each goal,
Initial target coordinates TOP1 (t0x1, t0y1) to TOPn (t0xn, t0yn) of the launcher position reference represented by two-dimensional coordinates on the ground surface;
Target moving speeds TV1 (tvx1, tvy1) to TVn (tvxn, tvyn) based on the launching device;
Calculating image feature amounts IMG1 to IMGn including the size,
(A) The storage means 18,
The initial target coordinates TOP1 (t0x1, t0y1) to TOPn (t0xn, t0yn) for each of the targets from the launching device 11;
The target moving speeds TV1 (tvx1, tvy1) to TVn (tvxn, tvyn);
A storage unit 18 for transferring and storing the image feature amounts IMG1 to IMGn;
(B) an inertial sensor 17 for detecting acceleration and angular velocity while the flying object is flying;
(C) a gimbal mechanism 13;
(D) Seeker 14,
(D1) an imaging unit 15 composed of an infrared camera supported by the gimbal mechanism unit 13;
(D2) the laser distance measuring unit 16,
The gimbal mechanism 13 is controlled so that each target is located at the center of the seeker axis, and the relative distance R between each target and the flying object during flight is calculated, so that the seeker axis faces each of the targets. A seeker 14 having a laser ranging unit 16 that controls the gimbal mechanism 13 and outputs the seeker axis direction as a ranging azimuth angle ψ;
(E) calculating means 26 for calculating, based on the acceleration and angular velocity detected by the inertial sensor 17, the current three-dimensional coordinates consisting of the current two-dimensional position coordinates of the flying object and the altitude H,
(F) an image processing operation unit 27 that processes the image captured by the imaging unit 15 to extract the image feature amount of each target;
(G) Coordinate estimation calculating means 30,
Based on the three-dimensional coordinates calculated by the three-dimensional coordinate calculation means 26, a flight distance X from the launch position to a position on the ground surface corresponding to the current position is calculated,
The relative distance R calculated by the laser ranging unit 16;
An estimated position for each target based on the altitude H;
X + √ (R 2 −H 2 )
Is calculated,
A coordinate estimating means 30 for calculating the estimated position coordinates MTP1 (mtx1, mty1) to MTPn (mtxn, mtyn) based on the estimated position of the launching device;
(H) a position updating unit 25 for updating the estimated position coordinates MTP1 (mtx1, mty1) to MTPn (mtxn, mtyn) for each target from the data stored in the storage unit 18 and the elapsed time;
(I) Among the updated estimated position coordinates MTP1 (mtx1, mty1) to MTPn (mtxn, mtyn) for each target, the image feature amount closest to the orientation position coordinates and extracted by the image processing calculation unit 27 Calculating means 31 for selecting a candidate having an image feature amount closest to the image feature amount of the designated target as the designated target;
(J) means for capturing and guiding a selected designated target with a seeker .
[0009]
The present invention relates to an image feature amount is further characterized in that it comprises each of said target shape and temperature patterns.
[0010]
Distance from the launch position and a relative distance to the current position and the target position to the target candidate is calculated. Therefore, the specified target can be selected from a plurality of target candidates by comparing the distance from the launch position obtained from the target position information to the designated target and the distance from the launch position to each target candidate.
[0011]
In this way, by selecting a target based on the position instead of the target size, the target can be selected even if the target candidate and the specified target have the same size.
[0012]
[0013]
Goal position information, not only the target position, it also includes movement information such as the target moving speed of, until spacecraft reaches the target after the firing, even when the target is moving Also, the designated target can be selected with high accuracy.
[0014]
[0015]
Not only specified target, the position information of the target candidates by storing previously measured, it becomes possible to further select a specified target with high accuracy.
[0016]
[0017]
The shape of targets and selecting the size or image specified target by comparing the features of such a temperature pattern, can be selected more highly accurately.
[0018]
[0019]
Not goal size, by selecting the target based on the position information, even when the target candidate and the target is the same size, it is possible to select a target with high precision.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram schematically illustrating a target selection method according to the present invention, and FIG. 2 is a diagram illustrating a method of selecting a target selection device 12 according to an embodiment of the present invention. The target of the flying object 10 is designated in advance before firing (hereinafter, designated target), is fired from the launching device 11, catches the designated target during flight, tracks by automatic control, and aims at the designated target. Is induced. A target selection device 12 is mounted on the flying object 10. When a plurality of target candidates are captured during the flight, the target selection device 12 selects a designated target from the plurality of target candidates.
[0021]
The target selection device 12 includes a seeker 14 having an imaging unit 15 and a distance measurement unit 16, a gimbal mechanism unit 13 that rotatably holds the seeker 14, an inertial sensor 17, and a target orientation distance storage unit 18. As you fly, make your choice.
[0022]
FIG. 3 is a diagram illustrating a target locating method performed by the launch device 11. Before launching the flying object 10, a target orientation distance is measured and stored in the target orientation distance storage unit 18 of the target selection device 12.
[0023]
To be more specific, the firing device 11 is a direction in which there are specified goals and launchers direction reference A, a plurality of targets existing in orientation range centered on the launcher direction reference A, i.e. specified target, and specifies the target The position and image of each of the nearby target candidates are measured. The data to be measured is
1. 1. distance from the launch device 11 to each of the plurality of targets 2. Moving speed of each of the plurality of targets 3. Azimuth angle of launcher direction reference A for each of the plurality of targets It is an image of each of a plurality of targets.
[0024]
For example, the above 1 and 2 are measured by a millimeter wave radar , and 3 and 4 are measured by an infrared camera.
[0025]
Next, data processing is performed based on the measured data, and data is calculated for each target as position information and image information as described below. In the present embodiment, it is assumed that both the launch device and the image target exist on the ground surface, and the position information is represented by two-dimensional coordinates.
1. Initial target coordinates based on launcher position
TOP1 (t0x1, t0y1), TOP2 (t0x2, t0y2),…, TO Pn (t0xn, t0yn)
2. Target moving speed based on launcher
TV1 (tvx1, tvy1), TV2 (tvx2, tvy2),…, TV n (tvxn.tvyn)
3. Image features (shape, size, temperature pattern, etc.)
IMG1, IMG2,…, IMGn
[0026]
Then, the number of each target, the position information and the image information are transferred to the flying object and stored in the target orientation distance storage unit 18. Then, the designated target number is designated by transferring and storing the designated target number.
[0027]
After storing the data, the flying object 10 is fired. Then, during flight, the following data measurement is performed.
1. Relative distance R between each target and the flying object
2. 2. Position coordinates of the flying object Azimuth ranging に 対 す る for each of multiple targets
4. Image feature amount of each of a plurality of targets
The data measurement will be described in more detail with reference to FIGS.
[0029]
The target selection device 12 has an inertial sensor 17, and based on the inertial sensor 17, the inertial navigation operation circuit 26 calculates the coordinates of the current position during flight. The inertial sensor 17 detects the acceleration and the angular velocity, and based on these, the inertial navigation calculation circuit 26 calculates the current coordinate position during flight. At the same time, for a plurality of targets captured by the seeker during the flight, the relative distance to each target candidate is measured.
[0030]
The seeker 14 has an imaging unit 15 supported by the gimbal mechanism unit 13 and a distance measurement unit 16. The imaging unit 15 is, for example, an infrared camera, and the captured image is subjected to image processing by the image processing operation unit 27, and image features such as shape, size, and temperature pattern are extracted. The gimbal control arithmetic circuit 28 selects one of the plurality of target candidates extracted by the image processing arithmetic circuit 27, and controls the gimbal mechanism 13 so that the selected target candidate becomes the center of the seeker axis. The distance measuring unit 16 is a laser distance measuring device, and measures a relative distance to an object on a seeker axis. That is, the relative distance R to the selected target candidate is measured. The distance measurement data is provided to the target candidate coordinate estimation calculation circuit 30. When the gimbal mechanism is controlled so that the seeker axis faces the target candidate, the seeker axis direction at this time is given to the target candidate coordinate estimating calculation circuit 30 as the ranging azimuth angle ψ. Note that the ranging azimuth ψ is the horizontal deviation angle in FIG.
[0031]
Next, the estimation of the target candidate coordinates will be described with reference to FIG.
The current three-dimensional coordinates of the flying object 10 are calculated by the inertial navigation calculation. That is, the XY two-dimensional coordinates corresponding to the ground surface and the altitude H are obtained. The target candidate coordinate estimation calculation circuit 30 calculates a flight distance X from the launch position to a position on the ground surface corresponding to the current position based on the calculation result. The relative distance R from the current position of the flying object 10 to the target candidate is obtained from the ranging unit 16, and the ranging azimuth ψ is obtained from the gimbal mechanism unit 13. Here, for simplification of description, the distance measurement azimuth ψ is set to 0, and a calculation formula in the X direction of the target candidate estimated position is considered.
[0032]
Then, a target candidate estimated position calculation formula: X + √ (R 2 −H 2 )
Thus, the target candidate estimated position (X direction) is calculated. In this way, for each target candidate, the target candidate position estimated coordinates of the launcher position reference
MTP1 (mtx1, mty1), MTP2 (mtx2, mty2),…, MTPn (mtxn, mtyn)
Is calculated.
[0033]
In addition, based on the data stored in the target orientation distance storage unit 18, the target orientation processing unit 25 calculates the movement amount from the time from the time of the orientation to the present and the movement speed, and specifies the designated target and each target candidate. Update the target orientation of.
TP1 (tx1, ty1), TP2 (tx2, ty2), TPn (txn, tyn)
[0034]
Then, the target selection operation circuit 31 computes the target candidate position estimation coordinates based on the launch point from the target candidate coordinate estimation operation circuit 30 and the updated designated target and the orientation position coordinates of each target candidate from the target orientation position processing unit 25. Compare with Further, the image feature amount of each target candidate is compared with the image feature amount of the designated target. In this way, the target candidate having the image feature amount closest to the updated target orientation position coordinates and the designated target image feature amount is selected as the designated target.
[0035]
After the designated target is selected in this way, the selected target is captured by the seeker and guided.
[0036]
【The invention's effect】
As described above, according to the present invention, it is possible to select a target with high accuracy even when the target candidate and the specified target are the same size by selecting the target based on the position information instead of the target size. it can.
[0037]
Goal position information, not only the target position, it also includes movement information such as the target moving speed of, until spacecraft reaches the target after the firing, even when the target is moving Also, the designated target can be selected with high accuracy.
[0038]
Not only specified target, the position information of the target candidates that stored previously measured and, thereby enabling more accurate selection of the specified target.
[0039]
Size, further by selecting a target shape, the image designation target by comparing the features of such a temperature pattern, it is possible to further accurately selected.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an outline of a target selection method according to the present invention.
FIG. 2 is a diagram showing a target selection method by a target selection device 12;
FIG. 3 is a diagram illustrating a target orientation performed before launch.
FIG. 4 is a diagram for estimating target candidate position estimation performed during flight.
FIG. 5 is a diagram illustrating a conventional target selection method.
[Explanation of symbols]
10 Non-cancer body 11 Launching device 12 Target selection device

Claims (2)

予め指定された指定目標に向けて飛しょうする飛しょう体に搭載され、飛しょう中に捉えた複数の目標候補から前記指定目標を選択する目標選択装置において、
飛しょう体10を発射させる発射装置11は、
指定目標が存在する方向を発射装置方向基準Aとし、この発射装置方向基準Aを中心とする標定範囲内で地表面上に存在する指定目標と、その指定目標近傍の目標後方との各目標毎に、
発射装置11から前記各目標までの標定距離と、
前記各目標の移動速度と、
前記各目標の発射装置方向基準の方位角度ψと、
前記各目標の画像とを計測し、
各目標毎に、
地表面上の2次元座標で表される発射装置位置基準の初期目標座標TOP1(t0x1,t0y1)〜TOPn(t0xn,t0yn)と、
発射装置基準の目標移動速度TV1(tvx1,tvy1)〜TVn(tvxn,tvyn)と、
サイズを含む画像特徴量IMG1〜IMGnとを、演算して求め、
(a)記憶手段18であって、
前記発射装置11からの前記各目標毎の前記初期目標座標TOP1(t0x1,t0y1)〜TOPn(t0xn,t0yn)と、
前記目標移動速度TV1(tvx1,tvy1)〜TVn(tvxn,tvyn)と、
前記画像特徴量IMG1〜IMGnとを、データ転送して記憶する記憶手段18と、
(b)飛しょう体の飛しょう中に、加速度および角速度を検出する慣性センサ17と、
(c)ジンバル機構部13と、
(d)シーカ14であって、
(d1)ジンバル機構部13に支持された赤外線カメラから成る撮像部15と、
(d2)レーザ測距ユニット16であって、
前記各目標をシーカ軸の中心となるようにジンバル機構部13を制御して前記各目標と飛しょう中の飛しょう体との相対距離Rを算出し、シーカ軸が前記各目標に向くようにジンバル機構部13を制御し、このシーカ軸方向を測距方位角ψとして出力するレーザ測距ユニット16とを有するシーカ14と、
(e)慣性センサ17によって検出された加速度および角速度とによって、飛しょう中の飛しょう体の現在の2次元位置座標と高度Hとから成る現在の3次元座標を、算出する演算手段26と、
(f)前記撮像部15によって撮像された画像を処理して前記各目標の前記画像特徴量を抽出する画像処理演算手段27と、
(g)座標推定演算手段30であって、
3次元座標算出手段26によって算出された3次元座標に基づいて、発射位置から現在位置に対応する地表面での位置までの飛しょう距離Xを算出し、
レーザ測距ユニット16によって算出された前記相対距離Rと、
前記高度Hとに基づいて、前記各目標毎の推定位置、
X+√(R −H
を算出し、
この推定位置に基づいて、発射装置位置基準の推定位置座標MTP1(mtx1,mty1)〜MTPn(mtxn,mtyn)を算出する座標推定演算手段30と、
(h)記憶手段18に記憶されるデータと、経過した時間とから、前記各目標毎の推定位置座標MTP1(mtx1,mty1)〜MTPn(mtxn,mtyn)を更新する位置更新手段25と、
(i)前記更新された各目標毎の推定位置座標MTP1(mtx1,mty1)〜MTPn(mtxn,mtyn)のうち、標定位置座標に最も近く、かつ画像処理演算手段27によって抽出された画像特徴量が、指定目標の画像特徴量に最も近い画像特徴量を持つ候補を、指定目標として選択する演算手段31と、
(j)選択された指定目標を、シーカで捕捉し、誘導する手段とを含むことを特徴とする目標選択装置。
A target selection device that is mounted on a flying object that flies toward a specified target specified in advance and selects the specified target from a plurality of target candidates captured during the flight,
The launching device 11 for launching the flying object 10 includes:
The direction in which the designated target exists is defined as the launching device direction reference A. For each target, the designated target existing on the ground surface within the orientation range centered on the launching device direction reference A, and the target rear near the designated target. To
An orientation distance from the launch device 11 to each of the targets,
The moving speed of each of the targets,
An azimuth angle の based on the launcher direction of each target,
Measuring the image of each target,
For each goal,
Initial target coordinates TOP1 (t0x1, t0y1) to TOPn (t0xn, t0yn) of the launcher position reference represented by two-dimensional coordinates on the ground surface;
Target moving speeds TV1 (tvx1, tvy1) to TVn (tvxn, tvyn) based on the launching device;
Calculating image feature amounts IMG1 to IMGn including the size,
(A) The storage means 18,
The initial target coordinates TOP1 (t0x1, t0y1) to TOPn (t0xn, t0yn) for each target from the launching device 11;
The target moving speeds TV1 (tvx1, tvy1) to TVn (tvxn, tvyn);
A storage unit 18 for transferring and storing the image feature amounts IMG1 to IMGn;
(B) an inertial sensor 17 for detecting acceleration and angular velocity while the flying object is flying;
(C) a gimbal mechanism 13;
(D) Seeker 14,
(D1) an imaging unit 15 composed of an infrared camera supported by the gimbal mechanism unit 13;
(D2) the laser distance measuring unit 16,
The gimbal mechanism 13 is controlled so that each of the targets becomes the center of the seeker axis, and the relative distance R between each of the targets and the flying object during flight is calculated, so that the seeker axis faces each of the targets. A seeker 14 having a laser ranging unit 16 that controls the gimbal mechanism 13 and outputs the seeker axis direction as a ranging azimuth angle ψ;
(E) calculating means 26 for calculating, based on the acceleration and angular velocity detected by the inertial sensor 17, the current three-dimensional coordinates consisting of the current two-dimensional position coordinates of the flying object and the altitude H,
(F) an image processing operation unit 27 that processes the image captured by the imaging unit 15 to extract the image feature amount of each target;
(G) Coordinate estimation calculating means 30,
Based on the three-dimensional coordinates calculated by the three-dimensional coordinate calculation means 26, a flight distance X from the launch position to a position on the ground surface corresponding to the current position is calculated,
The relative distance R calculated by the laser ranging unit 16;
An estimated position for each target based on the altitude H;
X + √ (R 2 −H 2 )
Is calculated,
A coordinate estimating means 30 for calculating estimated position coordinates MTP1 (mtx1, mty1) to MTPn (mtxn, mtyn) based on the estimated position based on the launcher position;
(H) a position updating unit 25 for updating the estimated position coordinates MTP1 (mtx1, mty1) to MTPn (mtxn, mtyn) for each target from the data stored in the storage unit 18 and the elapsed time;
(I) Among the updated estimated position coordinates MTP1 (mtx1, mty1) to MTPn (mtxn, mtyn) for each target, the image feature amount closest to the orientation position coordinates and extracted by the image processing calculation unit 27 Calculating means 31 for selecting a candidate having an image feature amount closest to the image feature amount of the designated target as the designated target;
(J) means for capturing and guiding the selected designated target with a seeker .
画像特徴量はさらに、前記各目標の形状および温度パターンを含むことを特徴とする請求項1記載の目標選択装置。 2. The target selecting apparatus according to claim 1 , wherein the image feature further includes a shape and a temperature pattern of each of the targets .
JP2001039921A 2001-02-16 2001-02-16 Target selection device Expired - Lifetime JP3597785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001039921A JP3597785B2 (en) 2001-02-16 2001-02-16 Target selection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001039921A JP3597785B2 (en) 2001-02-16 2001-02-16 Target selection device

Publications (2)

Publication Number Publication Date
JP2002243400A JP2002243400A (en) 2002-08-28
JP3597785B2 true JP3597785B2 (en) 2004-12-08

Family

ID=18902624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001039921A Expired - Lifetime JP3597785B2 (en) 2001-02-16 2001-02-16 Target selection device

Country Status (1)

Country Link
JP (1) JP3597785B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4921857B2 (en) * 2006-06-07 2012-04-25 株式会社東芝 Target detection device and flying object
JP5127284B2 (en) * 2007-04-11 2013-01-23 三菱プレシジョン株式会社 Flying object and apparatus for detecting rotational position of flying object
JP2009047365A (en) * 2007-08-21 2009-03-05 Toshiba Corp Coordination type missile system
JP5279523B2 (en) * 2009-01-22 2013-09-04 三菱電機株式会社 Posture calculation device, guidance device, posture calculation method of posture calculation device, and posture calculation program of posture calculation device
JP6216353B2 (en) * 2015-09-15 2017-10-18 株式会社オプティム Information identification system, information identification method, and program thereof
JP7055915B1 (en) 2021-03-23 2022-04-18 株式会社東芝 Target extraction device and target extraction method

Also Published As

Publication number Publication date
JP2002243400A (en) 2002-08-28

Similar Documents

Publication Publication Date Title
US8400619B1 (en) Systems and methods for automatic target tracking and beam steering
US8415596B2 (en) Method and apparatus for determining a location of a flying target
US8686326B1 (en) Optical-flow techniques for improved terminal homing and control
US20180143636A1 (en) Autonomous system for shooting moving images from a drone, with target tracking and holding of the target shooting angle
US6997097B2 (en) Autonomous mission profile planning
US20180095469A1 (en) Autonomous system for shooting moving images from a drone, with target tracking and holding of the target shooting angle
JP6407262B2 (en) A method of artillery control for gun-based anti-aircraft defense
US10718850B1 (en) Fusion between AOA and TDOA
US20120232717A1 (en) Remote coordinate identifier system and method for aircraft
US20170268852A1 (en) Method for steering a missile towards a flying target
SE456036B (en) SET AND DEVICE TO CONTROL A CANNON EXTENDABLE PROJECTILE TO A TARGET
US6672534B2 (en) Autonomous mission profile planning
JP3597785B2 (en) Target selection device
KR20220037520A (en) Posture determination by pulse beacons and low-cost inertial measurement units
JP6553994B2 (en) Flying object position calculation system, flying object position calculation method, and flying object position calculation program
JPH09170898A (en) Guiding apparatus
JP6286160B2 (en) Position acquisition apparatus and method
JP2000193741A (en) Target tracking device
EP0530050B1 (en) Method and apparatus for tracking an aimpoint on an elongate structure
JP3566182B2 (en) Target position estimation device
EP0530049B1 (en) Method and apparatus for tracking an aimpoint with arbitrary subimages
JP2007333260A (en) Fire control system
JP2002228399A (en) Rocket and its guiding controller
JP2019100843A (en) Measurement system, measurement instruction device, measurement device, measurement method, and program
KR20220052765A (en) Remote Controlled Weapon System in Moving Platform and Tracking Method of Moving Target thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040909

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3597785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080917

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090917

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110917

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110917

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120917

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120917

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 9

EXPY Cancellation because of completion of term