JP3431206B2 - Infrared guidance device - Google Patents

Infrared guidance device

Info

Publication number
JP3431206B2
JP3431206B2 JP10912593A JP10912593A JP3431206B2 JP 3431206 B2 JP3431206 B2 JP 3431206B2 JP 10912593 A JP10912593 A JP 10912593A JP 10912593 A JP10912593 A JP 10912593A JP 3431206 B2 JP3431206 B2 JP 3431206B2
Authority
JP
Japan
Prior art keywords
image
infrared
image data
exhaust
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10912593A
Other languages
Japanese (ja)
Other versions
JPH06323788A (en
Inventor
克之 舛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10912593A priority Critical patent/JP3431206B2/en
Publication of JPH06323788A publication Critical patent/JPH06323788A/en
Application granted granted Critical
Publication of JP3431206B2 publication Critical patent/JP3431206B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】この発明は、例えば対空ミサイル
を含む対空誘導兵器等に用いられる赤外線誘導装置に関
する。 【0002】 【従来の技術】従来、この種の赤外線誘導装置は、中赤
外線画像を撮する中赤外線波長センサが搭載され、こ
の中赤外線波長センサで目標飛翔体の本体画像データ及
び該目標飛翔体からの排気画像データを取得する。そし
て、このような赤外線誘導装置は、目標飛翔体の排気の
信号強度が本体からの信号強度に比して大きいことか
ら、目標飛翔体の排気の中心を誘導点として検出し、こ
の誘導点に対してミサイル等の誘導体を誘導している。 【0003】ところが、上記赤外線誘導装置では、目標
飛翔体の本体の中心と排気の中心とで「位置ずれ」が生
じる虞が有り、誘導の信頼性の点で満足の行くものでな
かった。また、これによると、目標飛翔体から赤外線フ
レア妨害を受けた場合、目標飛翔体の識別が困難とな
り、誤った誘導信号を出力する虞を有する。 【0004】 【発明が解決しようとする課題】以上述べたように、従
来の赤外線誘導装置では、誘導精度の信頼性が低いと共
に、誤誘導する虞を有する。この発明は上記の事情に鑑
みてなされたもので、簡易な構成で、且つ、確実にし
て、信頼性の高い誘導を実現し得るようにした赤外線誘
導装置を提供することを目的とする。 【0005】 【課題を解決するための手段】この発明は、近赤外線画
像を撮像する第1の画像センサ及び中赤外線画像を撮像
する第2の画像センサを有した赤外線シーカと、この赤
外線シーカの第1及び第2の画像センサで撮像した近赤
外線画像データ及び中赤外線画像データをそれぞれ画像
処理して目標飛翔体のセグメント画像を抽出する画像処
理手段と、この画像処理手段で抽出した前記中赤外線画
像データのセグメント画像のうち前記近赤外線画像デー
タのセグメント画像を含み、慣性主軸の傾き角が前記近
赤外線画像データのセグメント画像の慣性主軸の傾き角
と接近している画像情報を前記目標飛翔体の排気画像情
報として認識して、この排気画像情報の慣性主軸の傾き
角から前記目標飛翔体の機軸を検出し、且つ、前記近赤
外線画像データのセグメント画像の中心位置を前記目標
飛翔体の機首方向として検出し、該機首方向に前記中赤
外線画像データを捜して前記排気画像情報の主軸方向の
長さに比例した距離内で、該排気画像情報より小さな画
像情報を本体画像情報として前記目標飛翔体の先端部と
判定し、この本体画像情報の中心位置と前記排気画像情
報の中心位置との中間位置を前記目標飛翔体への誘導点
として算出する誘導点算出手段とを備えて赤外線誘導装
置を構成したものである。 【0006】 【作用】上記構成によれば、誘導点算出手段は、画像処
理手段で抽出した目標飛翔体の本体画像情報と排気画像
情報に基づいて目標飛翔体への誘導点を算出し、この誘
導点に対して所望の誘導体を誘導する。従って、誘導点
が目標飛翔体の本体画像情報と排気画像情報の双方に基
づいて算出されることにより、その目標本体中心と排気
中心との位置ずれによる誤検出が確実に防止されて、目
標飛翔体への誘導精度の向上が図れ、誘導の信頼性が向
上される。 【0007】 【実施例】以下、この発明の実施例について、図面を参
照して詳細に説明する。図1はこの発明の一実施例に係
る赤外線誘導装置を示すもので、赤外線シーカを構成す
る光学ドーム10内には、共通光学系11が配設され
る。この共通光学系11には、ダイクロイックミラー1
2が対向配置され、図2に示す目標飛翔体の画像データ
20を取込んでダイクロイックミラー12に案内する。
このダイクロイックミラー12は、近赤外線を反射し、
中赤外線を透過するものであって、その反射方向には近
赤外線波長センサ13が配設される。この近赤外線波長
センサ13は、その出力端に第1の画像処理部14が接
続され、入力した近赤外線画像データを第1の画像処理
部14に出力する。この第1の画像処理部14は、その
出力端に演算処理部15が接続され、入力した近赤外線
画像データ21(図3参照)を画像処理して、後述する
ように目標飛翔体の排気画像情報を抽出して演算処理部
15に出力する。 【0008】また、ダイクロイックミラー12の透過方
向には、中赤外線波長センサ16が配設される。この中
赤外線波長センサ16は、その出力端に第2の画像処理
部17が接続され、入力した中赤外線画像データ22
(図4参照)を第2の画像処理部17に出力する。この
第2の画像処理部17は、その出力端に演算処理部が接
続され、入力した中赤外線画像データを画像処理して、
後述するように目標飛翔体の本体画像情報及び排気画像
情報を抽出して上記演算処理部15に出力する。演算処
理部15は、第1の画像処理部14からの排気画像情報
21aと、第2の画像処理部17からの本体画像情報2
2b及び排気画像情報22aに基づいて目標飛翔体への
誘導点を算出して誘導信号を出力する。 【0009】なお、上記近及び中赤外線センサ13,1
6、第1及び第2の画像処理部14,17、演算処理部
15には、電源発生部18の出力端が接続され、この電
源発生部18を介して所定の電力が供給される。 【0010】上記構成において、近赤外線センサ13
は、例えば図2に示す目標飛翔体の画像を撮すると、図
3に示すように近赤外線波長の目標飛翔体の排気の高温
部の画像データ21aのみが検出される。そして、この
排気の高温部画像は、第1の画像処理部14でセグメン
テーション処理等が施されて検出像が抽出され、演算処
理部15に入力される。 【0011】同時に、中赤外線センサ16には、図4に
示すように目標飛翔体の排気のうち比較的低温部の画像
データ22a及び目標本体の加熱部の本体画像データ2
2bが検出される。そして、この目標飛翔体の排気の比
較的低温部の画像データ22a及び目標本体の加熱部の
本体画像データ22bは、第2の画像処理部17でセグ
メンテーション処理等が施されて検出像が抽出され、演
算処理部15に入力される。 【0012】演算処理部15は、入力した排気の高温部
の画像データ21a、目標飛翔体の排気の比較的低温部
の画像データ22a及び目標本体の加熱部の本体画像デ
ータ22bについて、それぞれ図5に示すようにセグメ
ントに対して中心位置(A)、慣性主軸(B)の傾き角
(C)、主軸方向の長さ(D)、直交軸方向の長さ
(E)を求め、両領域でのセグメント画像の位置相関を
とることにより目標飛翔体の排気等とそれ以外のものと
を識別する。即ち、中赤外線画像データ22のセグメン
ト画像の中で、その位置が、近赤外線画像データ21の
セグメント画像を含み、慣性主軸(B)の傾き角(C)
が接近しているものを目標飛翔体の排気の画像データ2
2aとして認識する。 【0013】そして、排気画像データ22aは、目標飛
翔体の機軸方向に細長く、その高温部の画像データ21
aが画像データ22aより目標本体に近い位置にあるこ
と用いて、目標飛翔体の機首方向を検出する。即ち、排
気画像データ22aの慣性主軸(B)の傾き角(C)か
ら目標飛翔体の機軸を検出し、近赤外線波長排気画像デ
ータ21aの中心位置と、中赤外線波長排気画像データ
22aの中心位置のずれから機軸線のうち近赤外線波長
排気画像データ21aの中心位置を機首方向として検出
する。 【0014】次に、機首方向に中赤外線画像データを捜
して排気画像データ22aの主軸方向の長さに比例した
一定距離以内で、排気画像データ22aより小さい先端
部画像データ22bを選択して目標本体の先端部と判定
する。そして、この目標本体の先端部の中心位置と排気
の中心位置とのの中間位置を最適な誘導点とする誘導信
号を出力して誘導体を誘導する。 【0015】なお、目標飛翔体から放射される、赤外線
フレア画像データ23は、図2に示すように近赤外線画
像データ21及び中赤外線画像データ22とも略円形状
の赤外線フレア画像データ23a,23bを有し、しか
も上記目標本体の先端部の如く付属セグメントを伴わな
いことで、排気の画像データ21a,22a及び本体画
像データ22bから識別されて、演算処理部15で除去
される。 【0016】このように、上記赤外線誘導装置は、赤外
線シーカに近赤外線波長画像センサ13及び中赤外線波
長画像センサ14を設け、この近赤外線波長画像センサ
13及び中赤外線波長画像センサ14でそれぞれ温度と
輻射する赤外線スペクトラムの異なる近赤外線画像デー
タ21及び中赤外線画像データ22を取得して、目標飛
翔体の本体画像情報、排気画像情報を抽出し、この本体
画像情報、排気画像情報の双方に基づいて誘導点を算出
するように構成した。これによれば、誘導点を目標飛翔
体の本体画像情報と排気画像情報の双方に基づいて算出
していることにより、従来のような目標本体中心と排気
中心との位置ずれによる誤検出が効果的に防止され、目
標飛翔体への誘導精度が向上されて、誘導の信頼性が向
上される。なお、この発明は、上記実施例に限ることな
く、その他、この発明の要旨を逸脱しない範囲で種々の
変形を実施し得ることは勿論である。 【0017】 【発明の効果】以上詳述したように、この発明によれ
ば、簡易な構成で、且つ、確実にして、信頼性の高い誘
導を実現し得るようにした赤外線誘導装置を提供するこ
とができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an infrared guidance device used for, for example, an anti-aircraft weapon including an anti-aircraft missile. [0004] Conventionally, this kind of infrared-guided device, infrared wavelengths sensor is mounted within the image shooting the mid-infrared image, body image data and the target flying target projectile in this in the infrared wavelength sensor Obtain exhaust image data from the body. And since the signal intensity of the exhaust of the target flying object is large compared with the signal intensity from the main body, such an infrared guidance device detects the center of the exhaust of the target flying object as a guidance point, and detects this guidance point. On the other hand, derivatives such as missiles are induced. [0003] However, in the infrared guiding apparatus, there is a possibility that a "position shift" may occur between the center of the main body of the target flying object and the center of the exhaust gas, and the guiding reliability is not satisfactory. According to this, when infrared flare is obstructed by the target flying object, it becomes difficult to identify the target flying object, and there is a possibility that an incorrect guidance signal is output. [0004] As described above, in the conventional infrared guidance device, the reliability of the guidance accuracy is low and there is a risk of erroneous guidance. The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an infrared guidance device that has a simple configuration and can realize reliable and reliable guidance. [0005] The present invention provides an infrared seeker having a first image sensor for capturing a near-infrared image and a second image sensor for capturing a mid-infrared image; Image processing means for performing image processing on near-infrared image data and mid-infrared image data captured by the first and second image sensors, respectively, to extract a segment image of a target flying object; and the mid-infrared light extracted by the image processing means A segment image of the near-infrared image data among the segment images of the image data, wherein the inclination angle of the principal axis of inertia is the near-infrared angle.
Angle of inclination of principal axis of inertia of segment image of infrared image data
Recognizing the image information approaching as the exhaust image information of the target flying object, detecting the axis of the target flying object from the inclination angle of the inertia principal axis of the exhaust image information, and detecting the near infrared image data. The center position of the segment image is detected as the nose direction of the target flying object, the mid-infrared image data is searched in the nose direction, and the exhaust is performed within a distance proportional to the length of the exhaust image information in the main axis direction. The image information smaller than the image information is determined as the tip of the target flying object as main body image information, and an intermediate position between the center position of the main body image information and the center position of the exhaust image information is a guide point to the target flying object. And a guidance point calculating means for calculating the infrared point guidance. According to the above arrangement, the guidance point calculating means calculates the guidance point to the target flying object based on the main body image information and the exhaust image information of the target flying object extracted by the image processing means. Induce the desired derivative to the point of induction. Therefore, since the guidance point is calculated based on both the main body image information and the exhaust image information of the target flying object, erroneous detection due to a positional deviation between the target main body center and the exhaust center is reliably prevented, and the target flying object is prevented. The accuracy of guidance to the body can be improved, and the reliability of guidance can be improved. Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows an infrared guiding apparatus according to an embodiment of the present invention. A common optical system 11 is provided in an optical dome 10 constituting an infrared seeker. The common optical system 11 includes a dichroic mirror 1
2 are arranged to face each other, take in the image data 20 of the target flying object shown in FIG. 2 and guide it to the dichroic mirror 12.
This dichroic mirror 12 reflects near infrared rays,
A near-infrared wavelength sensor 13 that transmits mid-infrared rays and is provided in the reflection direction is disposed. The near-infrared wavelength sensor 13 is connected to a first image processing unit 14 at an output end, and outputs input near-infrared image data to the first image processing unit 14. The first image processing unit 14 is connected to an arithmetic processing unit 15 at an output end of the first image processing unit 14. The first image processing unit 14 processes the input near-infrared image data 21 (see FIG. 3) to generate an exhaust image of the target flying object as described later. The information is extracted and output to the arithmetic processing unit 15. [0008] A mid-infrared wavelength sensor 16 is provided in the transmission direction of the dichroic mirror 12. The mid-infrared wavelength sensor 16 has an output end connected to the second image processing unit 17, and receives the input mid-infrared image data 22.
(See FIG. 4) to the second image processing unit 17. The second image processing unit 17 has an output terminal connected to an arithmetic processing unit, performs image processing on the input mid-infrared image data,
As will be described later, the main body image information and the exhaust image information of the target flying object are extracted and output to the arithmetic processing unit 15. The arithmetic processing unit 15 includes the exhaust image information 21 a from the first image processing unit 14 and the main body image information 2 from the second image processing unit 17.
A guidance point to the target flying object is calculated based on the 2b and the exhaust image information 22a, and a guidance signal is output. The near and middle infrared sensors 13, 1
6, an output terminal of a power generation unit 18 is connected to the first and second image processing units 14 and 17 and the arithmetic processing unit 15, and predetermined power is supplied through the power generation unit 18. In the above configuration, the near infrared sensor 13
For example, when the image of the target flying object shown in FIG. 2 is taken, only the image data 21a of the high-temperature portion of the exhaust of the target flying object having the near infrared wavelength is detected as shown in FIG. Then, the high-temperature portion image of the exhaust gas is subjected to a segmentation process or the like by the first image processing unit 14 to extract a detection image, and is input to the arithmetic processing unit 15. At the same time, as shown in FIG. 4, the mid-infrared sensor 16 displays image data 22a of a relatively low temperature part of the exhaust of the target flying object and main body image data 2 of the heating part of the target main body.
2b is detected. Then, the image data 22a of the relatively low temperature portion of the exhaust of the target flying object and the main body image data 22b of the heating portion of the target main body are subjected to a segmentation process or the like by the second image processing unit 17 to extract a detection image. Are input to the arithmetic processing unit 15. The arithmetic processing unit 15 receives the image data 21a of the high-temperature portion of the exhaust gas, the image data 22a of the relatively low-temperature portion of the exhaust gas of the target flying object, and the main body image data 22b of the heating unit of the target main body. As shown in (1), the center position (A), the inclination angle (C) of the principal axis of inertia (B), the length in the main axis direction (D), and the length in the orthogonal axis direction (E) are obtained for the segment. By obtaining the position correlation of the segment images of the target flying object and the like, the target flying object is distinguished from the others. That is, in the segment image of the mid-infrared image data 22, the position includes the segment image of the near-infrared image data 21 and the inclination angle (C) of the principal axis of inertia (B).
Image data of the exhaust of the target projectile 2
Recognize as 2a. The exhaust image data 22a is elongated in the machine axis direction of the target flying object, and the image data 21
The nose direction of the target flying object is detected by using that a is closer to the target body than the image data 22a. That is, the axis of the target flying object is detected from the inclination angle (C) of the inertia main axis (B) of the exhaust image data 22a, and the center position of the near-infrared wavelength exhaust image data 21a and the center position of the mid-infrared wavelength exhaust image data 22a. From the deviation, the center position of the near-infrared wavelength exhaust image data 21a in the machine axis is detected as the nose direction. Next, the mid-infrared image data is searched for in the nose direction, and the tip image data 22b smaller than the exhaust image data 22a is selected within a fixed distance proportional to the length of the exhaust image data 22a in the main axis direction. Judge as the tip of the target body. Then, the guide is output by outputting a guide signal that sets an intermediate position between the center position of the tip end portion of the target main body and the center position of the exhaust gas as the optimum guide point. As shown in FIG. 2, the infrared flare image data 23 and the mid-infrared image data 22 emitted from the target flying object are substantially circular infrared flare image data 23a and 23b. Since it does not have an attached segment like the tip of the target main body, it is identified from the exhaust image data 21a and 22a and the main body image data 22b, and is removed by the arithmetic processing unit 15. As described above, in the infrared guiding apparatus, the near-infrared wavelength image sensor 13 and the middle-infrared wavelength image sensor 14 are provided in the infrared seeker. The near-infrared image data 21 and the mid-infrared image data 22 having different infrared spectra to be radiated are acquired, and the main body image information and the exhaust image information of the target flying object are extracted, and based on both the main body image information and the exhaust image information. The guide point is configured to be calculated. According to this, since the guidance point is calculated based on both the main body image information and the exhaust image information of the target flying object, the erroneous detection due to the misalignment between the center of the target main body and the center of exhaust as in the related art is effective. And the accuracy of guidance to the target flying object is improved, and the reliability of guidance is improved. It is to be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the scope of the present invention. As described in detail above, according to the present invention, there is provided an infrared guiding apparatus which has a simple configuration and can realize reliable and reliable guiding. be able to.

【図面の簡単な説明】 【図1】この発明の一実施例に係る赤外線誘導装置を示
した図。 【図2】図1の共通光学系で取得される画像を示した
図。 【図3】図2の共通光学系で取得した画像のうち近赤外
線波長センサで撮える画像データを示した図。 【図4】図2の共通光学系で取得した画像のうち中赤外
線波長センサで撮えた画像データを示した図。 【図5】図1の演算処理部の処理動作を説明するために
示した図。 【符号の説明】 10…光学ドーム。 11…共通光学系。 12…ダイクロイックミラー。 13…近赤外線波長センサ。 14,17…第1及び第2の画像処理部。 15…演算処理部。 16…中赤外線波長センサ。 18…電源発生部。 20…画像データ。 21…近赤外線画像データ。 21a…排気画像データ。 22…中赤外線画像データ。 22a…排気画像データ。 22b…本体画像データ。 23,23a,23b…赤外線フレア画像データ。 A…中心位置。 B…慣性主軸。 C…慣性主軸の傾き角。 D…主軸方向の長さ。 E…直交軸方向の長さ。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing an infrared guidance device according to one embodiment of the present invention. FIG. 2 is a diagram showing an image acquired by a common optical system in FIG. 1; FIG. 3 is a diagram showing image data that can be taken by a near-infrared wavelength sensor among images acquired by the common optical system of FIG. 2; FIG. 4 is a diagram showing image data captured by a mid-infrared wavelength sensor among images captured by the common optical system of FIG. 2; FIG. 5 is a diagram shown for explaining the processing operation of the arithmetic processing unit in FIG. 1; [Description of Signs] 10 ... Optical dome. 11 Common optical system. 12 ... Dichroic mirror. 13 ... Near infrared wavelength sensor. 14, 17 ... First and second image processing units. 15 arithmetic processing unit 16 Mid-infrared wavelength sensor. 18 Power supply generator. 20 ... Image data. 21 ... Near infrared image data. 21a: Exhaust image data. 22: Mid-infrared image data. 22a: Exhaust image data. 22b ... body image data. 23, 23a, 23b ... Infrared flare image data. A: Center position. B: Inertia spindle. C: The inclination angle of the principal axis of inertia. D: Length in the main axis direction. E: Length in the orthogonal axis direction.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) F24B 15/01 F41G 7/22 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) F24B 15/01 F41G 7/22

Claims (1)

(57)【特許請求の範囲】 【請求項1】 近赤外線画像を撮像する第1の画像セン
サ及び中赤外線画像を撮像する第2の画像センサを有し
た赤外線シーカと、 この赤外線シーカの第1及び第2の画像センサで撮像し
た近赤外線画像データ及び中赤外線画像データをそれぞ
れ画像処理して目標飛翔体のセグメント画像を抽出する
画像処理手段と、 この画像処理手段で抽出した前記中赤外線画像データの
セグメント画像のうち前記近赤外線画像データのセグメ
ント画像を含み、慣性主軸の傾き角が前記近赤外線画像
データのセグメント画像の慣性主軸の傾き角と接近して
いる画像情報を前記目標飛翔体の排気画像情報として認
識して、この排気画像情報の慣性主軸の傾き角から前記
目標飛翔体の機軸を検出し、且つ、前記近赤外線画像デ
ータのセグメント画像の中心位置を前記目標飛翔体の機
首方向として検出し、該機首方向に前記中赤外線画像デ
ータを捜して前記排気画像情報の主軸方向の長さに比例
した距離内で、該排気画像情報より小さな画像情報を本
体画像情報として前記目標飛翔体の先端部と判定し、こ
の本体画像情報の中心位置と前記排気画像情報の中心位
置との中間位置を前記目標飛翔体への誘導点として算出
する誘導点算出手段とを具備した赤外線誘導装置。
(57) [Claims 1] An infrared seeker having a first image sensor for capturing a near-infrared image and a second image sensor for capturing a mid-infrared image; Image processing means for performing image processing on near-infrared image data and mid-infrared image data picked up by the second image sensor to extract a segment image of a target flying object; and the mid-infrared image data extracted by the image processing means The segment image of the near-infrared image data among the segment images, wherein the inclination angle of the principal axis of inertia is the near-infrared image
Close to the inclination angle of the principal axis of inertia of the data segment image
Recognizes the image information are as exhaust image information of the target projectile, the center of the said from the inclination angle of the principal axis of inertia of the exhaust image information to detect the shaft of the target projectile, and the near infrared image data segment images Detecting the position as the nose direction of the target flying object, searching for the mid-infrared image data in the nose direction, within a distance proportional to the length of the exhaust image information in the main axis direction, smaller than the exhaust image information The image information is determined to be the tip of the target flying object as the main body image information, and a guide for calculating an intermediate position between the center position of the main body image information and the center position of the exhaust image information as a guide point to the target flying body. An infrared guidance device comprising point calculation means.
JP10912593A 1993-05-11 1993-05-11 Infrared guidance device Expired - Lifetime JP3431206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10912593A JP3431206B2 (en) 1993-05-11 1993-05-11 Infrared guidance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10912593A JP3431206B2 (en) 1993-05-11 1993-05-11 Infrared guidance device

Publications (2)

Publication Number Publication Date
JPH06323788A JPH06323788A (en) 1994-11-25
JP3431206B2 true JP3431206B2 (en) 2003-07-28

Family

ID=14502203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10912593A Expired - Lifetime JP3431206B2 (en) 1993-05-11 1993-05-11 Infrared guidance device

Country Status (1)

Country Link
JP (1) JP3431206B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010133770A (en) * 2008-12-03 2010-06-17 Toshiba Corp Target detection apparatus
JP2010210212A (en) * 2009-03-12 2010-09-24 Toshiba Corp Object identification device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521595B2 (en) * 1996-01-26 2004-04-19 三菱電機株式会社 Flying object guidance device
JP4013738B2 (en) * 2002-11-11 2007-11-28 三菱電機株式会社 Infrared search and tracking device
JP4509881B2 (en) * 2005-07-07 2010-07-21 株式会社東芝 Infrared induction device and infrared induction method
JP5305768B2 (en) * 2008-07-22 2013-10-02 株式会社東芝 Image enhancement apparatus and image enhancement method
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device
JP5577747B2 (en) * 2010-02-26 2014-08-27 三菱電機株式会社 Infrared target detection device
JP5537348B2 (en) * 2010-09-07 2014-07-02 株式会社東芝 Object position estimation device
JP7218578B2 (en) * 2019-01-08 2023-02-07 日本電気株式会社 Target detection device, target detection system, target detection method and program
CN110657966B (en) * 2019-09-12 2021-03-26 凯迈(洛阳)气源有限公司 Infrared seeker refrigeration test equipment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久野 治義,ミサイル工学事典,日本,成瀬 恭/原書房,1990年12月10日,第491頁〜第495頁及び図4−60

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010133770A (en) * 2008-12-03 2010-06-17 Toshiba Corp Target detection apparatus
JP2010210212A (en) * 2009-03-12 2010-09-24 Toshiba Corp Object identification device

Also Published As

Publication number Publication date
JPH06323788A (en) 1994-11-25

Similar Documents

Publication Publication Date Title
JP3431206B2 (en) Infrared guidance device
JP3035522B2 (en) Dichroic active tracking device
US6262800B1 (en) Dual mode semi-active laser/laser radar seeker
KR100310842B1 (en) A shared aperture dichroic active tracker with background subtraction
US20090283598A1 (en) Image Detection System and Methods
EP1475619A2 (en) Method and apparatus for measuring temperature using infrared techniques
US4407465A (en) Method for guiding missiles
US6626396B2 (en) Method and system for active laser imagery guidance of intercepting missiles
EP2062197A2 (en) Long distance multimodal biometric system and method
GB1577108A (en) Target and missile angle tracking method and system for guiding missiles onto targets
ITMI20072395A1 (en) SEARCH HEAD FOR A GUIDED MISSILE FOR DETECTION AND PURSUIT OF A GOAL AND METHOD FOR ITS USE
KR19990023746A (en) A self-referencing tracker that forms an image and its associated control methods.
JPH11508029A (en) Flight target exploration, detection and tracking equipment
US20100108800A1 (en) Object detection system having an image detection system
JPH09170898A (en) Guiding apparatus
EP0235944B1 (en) Optical aiming device
US20210231945A1 (en) Hybrid lidar system
JP4096539B2 (en) Compound tracking sensor device
EP2824474B1 (en) Dual function focal plane array seeker
JP2011017645A (en) Target acquisition tracking device
KR101938774B1 (en) Composite Sensor Homming Device and System
RU2617459C1 (en) Multichannel optical-location system
US4848903A (en) Method and apparatus for measuring the optical axis of a guide beam projector
RU2541494C1 (en) Integrated optoelectronic system
JP3614977B2 (en) Specific part recognition device for flying objects

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100523

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 10

EXPY Cancellation because of completion of term