JP2014105965A - Flying object and method for guiding flying object - Google Patents

Flying object and method for guiding flying object Download PDF

Info

Publication number
JP2014105965A
JP2014105965A JP2012261200A JP2012261200A JP2014105965A JP 2014105965 A JP2014105965 A JP 2014105965A JP 2012261200 A JP2012261200 A JP 2012261200A JP 2012261200 A JP2012261200 A JP 2012261200A JP 2014105965 A JP2014105965 A JP 2014105965A
Authority
JP
Japan
Prior art keywords
background luminance
information
flying
background
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012261200A
Other languages
Japanese (ja)
Other versions
JP6071480B2 (en
Inventor
Mariko Sato
麻梨子 佐藤
Yoshihiro Sera
義宏 世良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2012261200A priority Critical patent/JP6071480B2/en
Publication of JP2014105965A publication Critical patent/JP2014105965A/en
Application granted granted Critical
Publication of JP6071480B2 publication Critical patent/JP6071480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve a target detection accuracy by an infrared seeker.SOLUTION: A flying object 10 comprises an infrared seeker which corrects image information 100 imaged via a light wave dome 11, on the basis of a background brightness distribution according to a flying condition parameter.

Description

本発明は、飛しょう体、及び飛しょう体の誘導方法に関し、特に光波ドームを介して取得される輝度分布を利用して目標方向を検出する飛しょう体、及び飛しょう体の誘導方法に関する。   The present invention relates to a flying object and a flying object guidance method, and more particularly to a flying object for detecting a target direction using a luminance distribution acquired via a light wave dome and a flying object guidance method.

飛しょう体の熱源(例えばエンジン等)から外部に放出される波長3〜15μm(中波長帯又は長波長帯)の赤外線を検出することで、当該飛しょう体の位置(目標方向)を特定する赤外線シーカが知られている。例えば、飛しょう体の先端部に搭載した赤外線シーカによって目標の熱源位置を検出することで、当該飛しょう体を目標位置に誘導することができる。赤外線シーカは、大気中を高速度で移動する飛しょう体の先端部に搭載されるため、空力加熱からセンサ部を保護するための光波ドームやドームカバーが必要となる。   The position (target direction) of the flying object is specified by detecting infrared rays having a wavelength of 3 to 15 μm (medium wavelength band or long wavelength band) emitted to the outside from the heat source of the flying object (for example, engine). Infrared seekers are known. For example, the flying object can be guided to the target position by detecting the target heat source position with an infrared seeker mounted on the tip of the flying object. Since the infrared seeker is mounted on the tip of a flying object that moves at high speed in the atmosphere, a light wave dome or dome cover is required to protect the sensor unit from aerodynamic heating.

光波ドームは、検出する赤外線を透過可能な材料(例えばサファイア、スピネル、イットリア、フッ化マグネシウム、硫化亜鉛等)により形成される。ドームカバーは金属あるいは耐熱材料で形成され、赤外線シーカによる赤外線誘導を開始するまでの間、空力過熱や雨滴等から光波ドームを含む赤外線シーカを保護する。   The light wave dome is formed of a material that can transmit infrared rays to be detected (for example, sapphire, spinel, yttria, magnesium fluoride, zinc sulfide, etc.). The dome cover is formed of a metal or a heat-resistant material, and protects the infrared seeker including the light wave dome from aerodynamic overheating, raindrops, etc. until infrared ray induction by the infrared seeker is started.

飛しょう体が目標近傍に移動しドームカバーが飛しょう体から分離した後、赤外線シーカによる赤外線誘導が開始される。このため、赤外線誘導が行われるとき、光波ドームは高速飛しょう中の外部環境に直接晒され、空力加熱されることとなる。このとき、空力加熱された光波ドームからの熱放射による雑音により輝度分布のS/N比が低下し、目標位置を特定できなくなる恐れがある。   After the flying object moves to the vicinity of the target and the dome cover is separated from the flying object, infrared guidance by the infrared seeker is started. For this reason, when infrared induction is performed, the light wave dome is directly exposed to the external environment during high-speed flight and is aerodynamically heated. At this time, the S / N ratio of the luminance distribution is lowered due to noise caused by thermal radiation from the aerodynamically heated light wave dome, and the target position may not be specified.

このような光波ドームに対する空力加熱に起因する位置検出精度の低下を防止する技術が、例えば特許第2850886に記載されている(特許文献1参照)。   For example, Japanese Patent No. 2850886 describes a technique for preventing a decrease in position detection accuracy caused by aerodynamic heating on the light wave dome (see Patent Document 1).

特許文献1には、球面状の光波ドームからの熱放射による輝度勾配を補正することで、目標位置の検出精度を向上させている。詳細には、光波ドームからの熱放射は、センサにおいて画像として取得され、当該画像には、光波ドームにおけるよどみ点を中心とした複数の同心円により区画される複数のエリアが設定される。続いて、複数のエリアの各々の平均輝度値により取得画像の輝度勾配が補正される。   In Patent Document 1, the detection accuracy of the target position is improved by correcting the luminance gradient due to thermal radiation from the spherical lightwave dome. Specifically, the thermal radiation from the light wave dome is acquired as an image by the sensor, and a plurality of areas defined by a plurality of concentric circles centered on the stagnation point in the light wave dome are set in the image. Subsequently, the luminance gradient of the acquired image is corrected by the average luminance value of each of the plurality of areas.

特許文献1に記載の方法では、球面状の光波ドームを利用した場合にのみ有効な補正処理であり、他の形状、例えば平面を組み合わせた角錐型の光波ドームを利用した光波シーカに適用することはできない。   The method described in Patent Document 1 is a correction process that is effective only when a spherical light wave dome is used, and is applied to a light wave seeker using a pyramid light wave dome that combines other shapes, for example, a flat surface. I can't.

特許第2850886Patent No. 2850886

本発明の目的は、赤外線シーカによる目標検出精度を向上させることにある。   An object of the present invention is to improve target detection accuracy using an infrared seeker.

本発明の他の目的は、光波ドームの形状によらず赤外線シーカによる目標検出精度を向上させることにある。   Another object of the present invention is to improve target detection accuracy by an infrared seeker regardless of the shape of the light wave dome.

上記の課題を解決するために、本発明は、以下に述べられる手段を採用する。その手段を構成する技術的事項の記述には、[特許請求の範囲]の記載と[発明を実施するための最良の形態]の記載との対応関係を明らかにするために、[発明を実施するための最良の形態]で使用される番号・符号が付加されている。但し、付加された番号・符号は、[特許請求の範囲]に記載されている発明の技術的範囲を限定的に解釈するために用いてはならない。   In order to solve the above problems, the present invention employs the means described below. In the description of technical matters constituting the means, in order to clarify the correspondence between the description of [Claims] and the description of [Best Mode for Carrying Out the Invention] Number / symbol used in the best mode for doing this is added. However, the added number / symbol should not be used to limit the technical scope of the invention described in [Claims].

本発明による飛しょう体(10)は、飛しょう状況パラメータ検出部(4)、背景輝度分布予測部(5)、画像補正部(6)、目標検出部(7)を具備する。飛しょう状況パラメータ検出部(4)は、光波ドーム(11)の温度変化に影響する飛しょう状況パラメータ(200)を検出する。背景輝度分布予測部(5)は、飛しょう状況パラメータ(200)に基づいて予測した背景輝度分布を、背景輝度予測情報(102)として出力する。画像補正部(6)は、光波ドーム(11)を介して取得された輝度分布を示す画像情報(100)を、背景輝度予測情報(102)に基づいて補正し、補正後画像情報(103)として出力する。目標検出部(7)は、補正後画像情報(103)を利用して飛しょう体(10)の目標方位を決定する。本発明によれば、飛しょう状況パラメータに応じた背景輝度分布により、光波ドーム(11)を介して撮像された画像情報(100)を補正しているため、飛行状況に応じて変化する画像情報(100)内の背景輝度を選択的に除去することができる。   The flying object (10) according to the present invention includes a flying condition parameter detection unit (4), a background luminance distribution prediction unit (5), an image correction unit (6), and a target detection unit (7). The flight situation parameter detection unit (4) detects the flight situation parameter (200) that affects the temperature change of the light wave dome (11). The background luminance distribution prediction unit (5) outputs the background luminance distribution predicted based on the flight status parameter (200) as background luminance prediction information (102). The image correction unit (6) corrects the image information (100) indicating the luminance distribution acquired through the light wave dome (11) based on the background luminance prediction information (102), and the corrected image information (103) Output as. The target detection unit (7) determines the target orientation of the flying object (10) using the corrected image information (103). According to the present invention, the image information (100) picked up through the light wave dome (11) is corrected by the background luminance distribution according to the flight situation parameter, so that the image information that changes according to the flight situation. The background luminance within (100) can be selectively removed.

本発明による飛しょう体(10)は、飛しょう状況パラメータに対応する背景輝度分布の予測値が格納された背景輝度情報テーブル(50)を更に具備することが好ましい。背景輝度分布予測部(5)は、飛しょう状況パラメータ検出部(4)によって検出された飛しょう状況パラメータ(200)に対応する背景輝度分布の予測値を背景輝度情報テーブル(50)から抽出し、抽出した予測値を背景輝度予測情報(102)として出力する。このように、飛しょう状況に応じた背景輝度分布の予測値をあらかじめ用意しておくことで、目標検出のための演算速度を高めることができる。   The flying object (10) according to the present invention preferably further includes a background luminance information table (50) in which the predicted value of the background luminance distribution corresponding to the flying condition parameter is stored. The background luminance distribution prediction unit (5) extracts a predicted value of the background luminance distribution corresponding to the flying situation parameter (200) detected by the flying situation parameter detection unit (4) from the background luminance information table (50). The extracted prediction value is output as background luminance prediction information (102). Thus, by preparing in advance the predicted value of the background luminance distribution according to the flight situation, the calculation speed for target detection can be increased.

本発明に係る背景輝度分布予測部(5)は、飛しょう状況パラメータ検出部(4)によって検出された飛しょう状況パラメータ(200)に対応する背景輝度分布の予測値(101)を背景輝度情報テーブル(50)から抽出し、抽出した予測値(101)における代表輝度と、画像情報(100)の代表輝度との比較結果に基づいて設定された補正係数を用いて予測値(101)を補正し、背景輝度予測情報(102)として出力することが好ましい。これにより、画像情報(100)における背景輝度と、背景輝度予測情報(102)との差分が大きくなることによって目標検出ができなくなることを防止することができる。   The background luminance distribution prediction unit (5) according to the present invention uses the predicted value (101) of the background luminance distribution corresponding to the flying situation parameter (200) detected by the flying situation parameter detection unit (4) as background luminance information. The predicted value (101) is corrected using a correction coefficient that is extracted from the table (50) and is set based on a comparison result between the representative luminance in the extracted predicted value (101) and the representative luminance of the image information (100). However, it is preferable to output it as background luminance prediction information (102). As a result, it is possible to prevent target detection from becoming impossible due to an increase in the difference between the background luminance in the image information (100) and the background luminance prediction information (102).

本発明に係る背景輝度分布予測部(5)は、背景輝度情報テーブル(50)から抽出した過去の背景輝度予測情報(105)を記録する記憶装置(53)を更に備える。背景輝度分布予測部(5)は、背景輝度情報テーブル(50)から抽出した予測値(101)における代表輝度と、記憶装置(53)内の背景輝度予測情報(105)の代表輝度との比較結果に基づいて設定された補正係数を用いて予測値(101)を補正し、背景輝度予測情報(102)として出力する。このように、過去の画像情報(100)の補正に利用した背景輝度予測情報(105)を次の画像補正に利用することで、目標検出のための演算時間を短縮化できる。   The background luminance distribution prediction unit (5) according to the present invention further includes a storage device (53) for recording past background luminance prediction information (105) extracted from the background luminance information table (50). The background luminance distribution prediction unit (5) compares the representative luminance in the predicted value (101) extracted from the background luminance information table (50) with the representative luminance of the background luminance prediction information (105) in the storage device (53). The prediction value (101) is corrected using the correction coefficient set based on the result, and is output as background luminance prediction information (102). Thus, the calculation time for target detection can be shortened by using the background brightness | luminance prediction information (105) utilized for correction | amendment of the past image information (100) for the next image correction.

本発明に係る飛しょう状況パラメータ(200)は、飛しょう体の高度情報、速度情報、又は姿勢角情報のいずれかを含むことが好ましい。   The flying condition parameter (200) according to the present invention preferably includes any of altitude information, speed information, and attitude angle information of the flying object.

又、本発明に係る飛しょう状況パラメータ(200)は、光波ドーム(11)の所定の温度以上の加熱時間を含むことが好ましい   Moreover, it is preferable that the flight condition parameter (200) according to the present invention includes a heating time equal to or higher than a predetermined temperature of the light wave dome (11).

本発明に係る画像補正部(6)は、画像情報(100)と背景輝度予測情報(102)との差分を補正後画像情報(103)として出力することが好ましい。   The image correction unit (6) according to the present invention preferably outputs the difference between the image information (100) and the background luminance prediction information (102) as corrected image information (103).

本発明による飛しょう体の誘導方法は、光波ドーム(11)の温度変化に影響する飛しょう状況パラメータ(200)を検出するステップと、飛しょう状況パラメータ(200)に基づいて予測した背景輝度分布を、背景輝度予測情報(102)として出力するステップと、光波ドーム(11)を介して取得された輝度分布を示す画像情報(100)を、背景輝度予測情報(102)に基づいて補正し、補正後画像情報(103)として出力するステップと、補正後画像情報(103)を利用して飛しょう体の目標方位を決定するステップとを具備する。   The flying object guiding method according to the present invention includes a step of detecting a flying condition parameter (200) that affects a temperature change of the light wave dome (11), and a background luminance distribution predicted based on the flying condition parameter (200). Is output as background luminance prediction information (102), and image information (100) indicating the luminance distribution acquired via the light wave dome (11) is corrected based on the background luminance prediction information (102), A step of outputting the corrected image information (103); and a step of determining the target orientation of the flying object using the corrected image information (103).

本発明によれば、赤外線シーカによる目標検出精度が向上する。   According to the present invention, target detection accuracy by an infrared seeker is improved.

又、光波ドームの形状によらず赤外線シーカによる目標検出精度が向上する。   Further, the target detection accuracy by the infrared seeker is improved regardless of the shape of the light wave dome.

図1は、本発明による飛しょう体の実施の形態における構成の一例を示す図である。FIG. 1 is a diagram showing an example of a configuration in an embodiment of a flying object according to the present invention. 図2は、本発明に係る背景輝度分布予測部の構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the background luminance distribution prediction unit according to the present invention. 図3は、本発明に係る背景輝度情報テーブルの一例を示す図である。FIG. 3 is a diagram showing an example of the background luminance information table according to the present invention. 図4は、本発明に係る画像情報の一例を示す図である。FIG. 4 is a diagram showing an example of image information according to the present invention. 図5は、本発明に係る背景輝度予測基本情報の一例を示す図である。FIG. 5 is a diagram showing an example of background luminance prediction basic information according to the present invention. 図6は、本発明に係る画像補正部の動作の一例を示す図である。FIG. 6 is a diagram showing an example of the operation of the image correction unit according to the present invention. 図7は、本発明に係る目標検出部の構成の一例を示す図である。FIG. 7 is a diagram showing an example of the configuration of the target detection unit according to the present invention. 図8は、本発明による背景輝度分布予測部の構成の他の一例を示す図である。FIG. 8 is a diagram illustrating another example of the configuration of the background luminance distribution prediction unit according to the present invention.

以下、添付図面を参照しながら本発明の実施の形態を説明する。図面において同一、又は類似の参照符号は、同一、類似、又は等価な構成要素を示している。同一の構成を個別に示す場合は参照符号に追番を付して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, the same or similar reference numerals indicate the same, similar, or equivalent components. In the case where the same configuration is indicated individually, a reference number is added to the reference numeral for explanation.

図1から図7を参照して、本発明による飛しょう体10の実施の形態における構成の一例を説明する。図1は、本発明による飛しょう体10の実施の形態における構成の一例を示す図である。図1を参照して、飛しょう体10は、光波ドーム11、センサ1、画像メモリ2、前処理部3、飛しょう状況パラメータ検出部4、背景輝度分布予測部5、画像補正部6、目標検出部7を具備する。   With reference to FIGS. 1-7, an example of the structure in embodiment of the flying body 10 by this invention is demonstrated. FIG. 1 is a diagram showing an example of a configuration in an embodiment of a flying object 10 according to the present invention. Referring to FIG. 1, a flying object 10 includes a light wave dome 11, a sensor 1, an image memory 2, a preprocessing unit 3, a flying state parameter detection unit 4, a background luminance distribution prediction unit 5, an image correction unit 6, a target. A detection unit 7 is provided.

光波ドーム11は、赤外線透過材料により形成され、例えば飛しょう体10の先端部に搭載される。光波ドーム11の形状は、センサ1を保護するとともに、空気抵抗の少ない(空力加熱が抑制される)形状であれば、球面状、角錐状、平面状等の形状から任意に選択できる。光波ドーム11として利用され得る材料として、例えばサファイア(Al)、Slシリコン(Si)、フッ化マグネシウム(MgF)、フッ化カルシウム(CaF)、スピネル(MgAl)、イットリア(Y)、酸窒化アルミニウム(Al(2+x))、ゲルマニウム(Ge)、硫化亜鉛(ZnS)、セレン化亜鉛(ZnSe)等のいずれかを含む材料が好適に用いられる。 The light wave dome 11 is formed of an infrared transmitting material, and is mounted on the tip of the flying body 10, for example. The shape of the light wave dome 11 can be arbitrarily selected from shapes such as a spherical shape, a pyramid shape, and a planar shape as long as it protects the sensor 1 and has a low air resistance (aerodynamic heating is suppressed). Examples of materials that can be used as the light wave dome 11 include sapphire (Al 2 O 3 ), Sl silicon (Si), magnesium fluoride (MgF 2 ), calcium fluoride (CaF 2 ), spinel (MgAl 2 O 4 ), and yttria. A material containing any one of (Y 2 O 3 ), aluminum oxynitride (Al (2 + x) O 3 N x ), germanium (Ge), zinc sulfide (ZnS), zinc selenide (ZnSe), and the like is preferably used. .

センサ1は、中波長帯(3〜8μm)、長波長帯8〜15μmのいずれか又は両方の赤外線を検出する赤外線センサであることが好適である。センサ1は光波ドーム11を通過した赤外光を、その光強度に応じた電気信号に変換し、画素データとして画像メモリ2に記録する。センサ1としては、赤外線画像センサ(例えば量子ドット型赤外線画像センサ)が好適に用いられる。画像メモリ2は、SRAM、DRAM等に例示される書き込み又は読み出し速度の速い半導体メモリが好適に利用される。   The sensor 1 is preferably an infrared sensor that detects infrared rays in either or both of the medium wavelength band (3 to 8 μm) and the long wavelength band 8 to 15 μm. The sensor 1 converts the infrared light that has passed through the light wave dome 11 into an electrical signal corresponding to the light intensity, and records it in the image memory 2 as pixel data. As the sensor 1, an infrared image sensor (for example, a quantum dot infrared image sensor) is preferably used. As the image memory 2, a semiconductor memory having a high writing or reading speed exemplified by SRAM, DRAM and the like is preferably used.

前処理部3、飛しょう状況パラメータ検出部4、背景輝度分布予測部5、画像補正部6、目標検出部7のそれぞれは、図示しない記憶装置に記憶されたプログラムが図示しない演算装置によって実行されることで実現されることが好ましい。あるいは、回路等のハードウェア、又はハードウェアとソフトウェアの協同動作によって実現されてもよい。   In each of the preprocessing unit 3, the flight condition parameter detection unit 4, the background luminance distribution prediction unit 5, the image correction unit 6, and the target detection unit 7, a program stored in a storage device (not shown) is executed by an arithmetic device (not shown). It is preferable that this is realized. Alternatively, it may be realized by hardware such as a circuit, or a cooperative operation of hardware and software.

前処理部3は、画像メモリ2に記録された画素データから画像情報100を作成する。前処理部3は、センサ1によって検出された輝度を画面座標に対応付けて画像情報100として出力する。すなわち、画像情報100は、光波ドーム11を通過した赤外光のうち、センサ1の撮像範囲内において検出された輝度分布を示す。ここで、画像座標のディメンジョンは2次元又は3次元である。   The preprocessing unit 3 creates image information 100 from the pixel data recorded in the image memory 2. The preprocessing unit 3 outputs the luminance detected by the sensor 1 as image information 100 in association with the screen coordinates. That is, the image information 100 indicates the luminance distribution detected within the imaging range of the sensor 1 among the infrared light that has passed through the lightwave dome 11. Here, the dimensions of the image coordinates are two-dimensional or three-dimensional.

飛しょう状況パラメータ検出部4は、光波ドーム11に対する空力加熱分布に影響する飛しょう状況パラメータ200を検出する。飛しょう状況パラメータ200は、例えば、飛しょう体10の高度、速度、姿勢角、光波ドーム11の加熱時間のいずれかを含む。すなわち、飛しょう状況パラメータ検出部4は、飛しょう体の高度を検出する高度計、速度計、姿勢角検出器、光波ドーム11の温度センサのいずれかを含む。   The flight situation parameter detection unit 4 detects a flight situation parameter 200 that affects the aerodynamic heating distribution on the light wave dome 11. The flying state parameter 200 includes, for example, any one of the altitude, speed, posture angle, and heating time of the light wave dome 11 of the flying object 10. That is, the flying situation parameter detection unit 4 includes any one of an altimeter, a speedometer, a posture angle detector, and a temperature sensor of the light wave dome 11 that detect the altitude of the flying object.

例えば、飛しょう体10の高度は、飛しょう体10周辺の空気密度に関係するため、例えば高度が高い場合空気密度が薄くなり光波ドーム11に対する空力加熱は小さくなる。一方、高度が低い場合空気密度が高くなり光波ドーム11に対する空力加熱は大きくなる。又、飛しょう体10の速度が小さい場合、光波ドーム11に対する流速が小さくなるため空力加熱は小さくなり、飛しょう体10の速度が大きい場合、光波ドーム11に対する空力加熱は大きくなる。姿勢角が変化すると、光波ドーム11に当たる気流の向きや大きさ(光波ドーム11と気流との相対角度)が変化し、光波ドーム11に対する空力加熱分布は変化する。光波ドーム11の加熱時間は、光波ドーム11が、空力加熱環境にさらされている時間を示す。具体的には、光波ドーム11の加熱時間は、光波ドーム11を覆うドームカバー(図示なし)が外れ、光波ドーム11が暴露された後の時間を示す。この場合、加熱時間は、図示しないドームカバーが外された時刻から計測された時間でもよいし、飛しょう体の飛しょう開始から、所定の時間が経過した時刻から計測された時間でもよい。   For example, since the altitude of the flying body 10 is related to the air density around the flying body 10, for example, when the altitude is high, the air density becomes thin and aerodynamic heating to the light wave dome 11 becomes small. On the other hand, when the altitude is low, the air density increases and the aerodynamic heating on the lightwave dome 11 increases. In addition, when the speed of the flying object 10 is small, the flow velocity with respect to the light wave dome 11 is reduced, so aerodynamic heating is reduced. When the speed of the flying object 10 is high, aerodynamic heating with respect to the light wave dome 11 is increased. When the attitude angle changes, the direction and size of the airflow impinging on the lightwave dome 11 (the relative angle between the lightwave dome 11 and the airflow) changes, and the aerodynamic heating distribution on the lightwave dome 11 changes. The heating time of the light wave dome 11 indicates the time during which the light wave dome 11 is exposed to the aerodynamic heating environment. Specifically, the heating time of the light wave dome 11 indicates the time after the dome cover (not shown) covering the light wave dome 11 is removed and the light wave dome 11 is exposed. In this case, the heating time may be a time measured from a time when a dome cover (not shown) is removed, or may be a time measured from a time when a predetermined time has elapsed from the start of flying the flying object.

背景輝度分布予測部5は、飛しょう状況パラメータ200及び画像情報100に基づいて背景輝度予測情報102を出力する。図2は、背景輝度分布予測部5の構成の一例を示す図である。図2を参照して、背景輝度分布予測部5は、背景輝度情報テーブル50、背景輝度選択部51、背景輝度予測演算部52を備える。   The background luminance distribution prediction unit 5 outputs background luminance prediction information 102 based on the flying situation parameter 200 and the image information 100. FIG. 2 is a diagram illustrating an example of the configuration of the background luminance distribution prediction unit 5. With reference to FIG. 2, the background luminance distribution prediction unit 5 includes a background luminance information table 50, a background luminance selection unit 51, and a background luminance prediction calculation unit 52.

背景輝度情報テーブル50は、図示しない記憶装置(例えば半導体メモリ)に記録され、予測された飛しょう状況パラメータ300に対応付けられた背景輝度予測基本情報101を備える。図3は、背景輝度情報テーブル50の構造の一例を示す図である。背景輝度情報テーブル50には、飛しょう状況パラメータ300(例えば、高度301、速度302、姿勢角303、加熱時間304のいずれか)を変化させたときの背景輝度分布(ノイズ分布)の予測値(例えばシミュレーション結果や試験結果)が、背景輝度予測基本情報101として、その予測に利用された飛しょう状況パラメータ300に対応付けられて記録される。   The background luminance information table 50 includes background luminance prediction basic information 101 recorded in a storage device (for example, a semiconductor memory) (not shown) and associated with the predicted flight status parameter 300. FIG. 3 is a diagram illustrating an example of the structure of the background luminance information table 50. In the background luminance information table 50, a predicted value of background luminance distribution (noise distribution) when the flying situation parameter 300 (for example, any one of altitude 301, speed 302, posture angle 303, and heating time 304) is changed ( For example, simulation results and test results) are recorded as background luminance prediction basic information 101 in association with the flight status parameters 300 used for the prediction.

背景輝度予測基本情報101は、高度301、速度302、姿勢角303、加熱時間304のいずれかが所定の値のときの背景輝度分布(ノイズ分布)の予測値である。例えば、高度301、速度302、姿勢角303、加熱時間304のそれぞれが所定の値を示すときの背景輝度(ノイズ)の予測値が画面座標に対応付けられて背景輝度予測基本情報101として記録される。ここで画面座標のディメンジョンは2次元又は3次元である。   The background luminance prediction basic information 101 is a predicted value of the background luminance distribution (noise distribution) when any one of the altitude 301, the speed 302, the posture angle 303, and the heating time 304 is a predetermined value. For example, a predicted value of background luminance (noise) when each of the altitude 301, the speed 302, the posture angle 303, and the heating time 304 indicates a predetermined value is associated with the screen coordinates and recorded as the background luminance prediction basic information 101. The Here, the dimensions of the screen coordinates are two-dimensional or three-dimensional.

背景輝度予測基本情報101は、所定の値の飛しょう状況パラメータ300に対応付けられても良いし、所定の範囲の飛しょう状況パラメータ300に対応付けられても良い。例えば、高度301として“5000m”、“5500m”、“6000m”のそれぞれに対応付けられた3つの背景輝度予測基本情報101が用意されても良いし、高度301として“5000mから6000mの範囲”に1つの背景輝度予測基本情報101が用意されても良い。又、飛しょう状況パラメータ300における各パラメータの組み合わせは任意に設定できる。更に、背景輝度予測基本情報101として、光波ドーム11の形状や材質に応じた値が用意されることが好ましい。これにより、様々な形状や材質の光波ドーム11に応じた背景輝度分布の予測値を、画像補正に利用することが可能となる。   The background luminance prediction basic information 101 may be associated with the flight situation parameter 300 having a predetermined value, or may be associated with the flight situation parameter 300 having a predetermined range. For example, three background luminance prediction basic information 101 associated with each of “5000 m”, “5500 m”, and “6000 m” may be prepared as the altitude 301, or the altitude 301 may be set to “range from 5000 m to 6000 m”. One background luminance prediction basic information 101 may be prepared. Moreover, the combination of each parameter in the flight status parameter 300 can be set arbitrarily. Furthermore, it is preferable that a value corresponding to the shape and material of the light wave dome 11 is prepared as the background luminance prediction basic information 101. As a result, the predicted value of the background luminance distribution according to the light wave dome 11 of various shapes and materials can be used for image correction.

背景輝度選択部51は、飛しょう状況パラメータ検出部4によって検出された飛しょう状況パラメータ200に対応する背景輝度予測基本情報101を背景輝度情報テーブル50から抽出し、背景輝度予測演算部52に出力する。詳細には、背景輝度選択部51は、飛しょう状況パラメータ200に適合(一致)する飛しょう状況パラメータ300に対応付けられた背景輝度予測基本情報101を、背景輝度情報テーブル50から抽出し、背景輝度予測演算部52に出力する。例えば、背景輝度選択部51は、飛しょう状況パラメータ検出部4によって検出された高度、速度、姿勢角に応じた背景輝度予測基本情報101を背景輝度情報テーブル50から抽出する。   The background luminance selection unit 51 extracts the background luminance prediction basic information 101 corresponding to the flying situation parameter 200 detected by the flying situation parameter detection unit 4 from the background luminance information table 50 and outputs it to the background luminance prediction calculation unit 52. To do. Specifically, the background luminance selection unit 51 extracts the background luminance prediction basic information 101 associated with the flying situation parameter 300 that matches (matches) the flying situation parameter 200 from the background luminance information table 50, and This is output to the luminance prediction calculation unit 52. For example, the background luminance selection unit 51 extracts the background luminance prediction basic information 101 corresponding to the altitude, speed, and attitude angle detected by the flying situation parameter detection unit 4 from the background luminance information table 50.

背景輝度予測演算部52は、画像情報100に基づいて背景輝度予測基本情報101を補正し、背景輝度予測情報102として出力する。背景輝度予測情報102は、飛しょう状況パラメータに対応する光波ドーム11を通過した赤外光ノイズ(背景輝度)の予測値であり、画像補正部6において画像情報100の補正に利用される。画像補正部6では、画像情報100から背景輝度予測情報102(予測されたノイズ成分)を削除することで、画像情報100における背景輝度(ノイズ成分)を低減し、背景輝度が目標として検出されることを防止している。ここで、背景輝度として削除される値が大き過ぎると、補正後の輝度の値が負となる場合や、目標として検出されるべき輝度が、2値化するための閾値(以下、2値化可能閾値と称す)を下回り、目標として検出されなくなる場合がある。あるいは、背景輝度として削除される値が小さ過ぎると、背景輝度予測情報102による補正効果が小さくなり(なくなり)、背景輝度が目標として検出される可能性が残る。このため、背景輝度予測演算部52は、飛しょう状況パラメータ200に基づいて予測された背景輝度予測基本情報101を、実測された画像情報100の輝度に応じて補正することで、目標検出に有効な背景輝度の予測値(背景輝度予測情報102)を生成する。   The background luminance prediction calculation unit 52 corrects the background luminance prediction basic information 101 based on the image information 100 and outputs it as background luminance prediction information 102. The background luminance prediction information 102 is a predicted value of infrared light noise (background luminance) that has passed through the light wave dome 11 corresponding to the flight status parameter, and is used by the image correction unit 6 to correct the image information 100. The image correction unit 6 deletes the background luminance prediction information 102 (predicted noise component) from the image information 100, thereby reducing the background luminance (noise component) in the image information 100 and detecting the background luminance as a target. To prevent that. Here, if the value to be deleted as the background luminance is too large, the corrected luminance value becomes negative, or the luminance to be detected as the target is a threshold for binarization (hereinafter, binarization). It may be less than a possible threshold) and may not be detected as a target. Alternatively, if the value to be deleted as the background luminance is too small, the correction effect by the background luminance prediction information 102 becomes small (can be eliminated), and the possibility that the background luminance is detected as a target remains. For this reason, the background brightness prediction calculation unit 52 is effective for target detection by correcting the background brightness prediction basic information 101 predicted based on the flight status parameter 200 according to the actually measured brightness of the image information 100. A predicted value of background brightness (background brightness prediction information 102) is generated.

図4は、本発明に係る画像情報100の一例を示す図である。図5は、本発明に係る背景輝度予測基本情報101の一例を示す図である。図4及び図5を参照して背景輝度予測演算部52における背景輝度予測基本情報101の補正処理の具体例を説明する。ここでは、説明の簡単化のために、画面座標における1軸方向のみに注目して説明する。   FIG. 4 is a diagram showing an example of the image information 100 according to the present invention. FIG. 5 is a diagram showing an example of the background luminance prediction basic information 101 according to the present invention. A specific example of the background luminance prediction basic information 101 correction process in the background luminance prediction calculation unit 52 will be described with reference to FIGS. 4 and 5. Here, for simplification of description, description will be given focusing on only one axis direction in the screen coordinates.

背景輝度予測演算部52は、画像情報100と背景輝度予測基本情報101のそれぞれの代表輝度を算出し、代表輝度の比較結果に応じて背景輝度予測基本情報101を補正して背景輝度予測情報102(背景ノイズの予測値)を生成する。ここで、代表輝度とは、例えば輝度分布における最高輝度111、112、平均輝度121、122、最低輝度131、132が挙げられる。   The background luminance prediction calculation unit 52 calculates the representative luminance of each of the image information 100 and the background luminance prediction basic information 101, corrects the background luminance prediction basic information 101 according to the comparison result of the representative luminance, and calculates the background luminance prediction information 102. (Predicted value of background noise) is generated. Here, the representative luminance includes, for example, the highest luminance 111 and 112, the average luminance 121 and 122, and the lowest luminance 131 and 132 in the luminance distribution.

例えば、代表輝度として、輝度分布の最大値を利用した背景輝度予測基本情報101に対する補正方法を説明する。ここでは、画像情報100の最大値111から背景輝度予測基本情報101の最大値112を減じた値が、所定の値を超える場合、背景輝度予測基本情報101に“1”を超える補正係数を乗じた輝度分布が背景輝度予測情報102として出力される。すなわち、画像情報100の最大値111が背景輝度予測基本情報101の最大値112よりも所定の値を超えて大きい場合、背景輝度予測基本情報101の輝度全体をベースアップした値が背景輝度予測情報112として出力される。あるいは、画像情報100における輝度の最大値111から背景輝度予測基本情報101における輝度の最大値112を減じた値が“0”以上、所定の値以下の範囲内に収まる場合、背景輝度予測基本情報101がそのまま背景輝度予測情報102として出力される(背景輝度予測基本情報101に乗じられる補正係数は“1”)。更に、画像情報100の最大値111から背景輝度予測基本情報101の最大値112を減じた値が“0”を下回る場合、背景輝度予測基本情報101に“0”よりも大きく“1”を下回る補正係数を乗じた輝度が背景輝度予測情報102として出力される。すなわち、背景輝度予測基本情報101の最大値112が画像情報100の最大値111よりも、大きい場合、背景輝度予測基本情報101の輝度全体をベースダウンした値が背景輝度予測情報112として出力される。   For example, a correction method for the background luminance prediction basic information 101 using the maximum value of the luminance distribution as the representative luminance will be described. Here, when the value obtained by subtracting the maximum value 112 of the background luminance prediction basic information 101 from the maximum value 111 of the image information 100 exceeds a predetermined value, the background luminance prediction basic information 101 is multiplied by a correction coefficient exceeding “1”. The luminance distribution is output as the background luminance prediction information 102. That is, when the maximum value 111 of the image information 100 is larger than the maximum value 112 of the background luminance prediction basic information 101 by a predetermined value, a value obtained by base-up of the entire luminance of the background luminance prediction basic information 101 is the background luminance prediction information. 112 is output. Alternatively, when the value obtained by subtracting the maximum luminance value 112 in the background luminance prediction basic information 101 from the maximum luminance value 111 in the image information 100 falls within the range of “0” or more and a predetermined value or less, the background luminance prediction basic information 101 is output as it is as the background luminance prediction information 102 (the correction coefficient multiplied by the background luminance prediction basic information 101 is “1”). Furthermore, when the value obtained by subtracting the maximum value 112 of the background luminance prediction basic information 101 from the maximum value 111 of the image information 100 is less than “0”, the background luminance prediction basic information 101 is greater than “0” and less than “1”. The luminance multiplied by the correction coefficient is output as the background luminance prediction information 102. That is, when the maximum value 112 of the background luminance prediction basic information 101 is larger than the maximum value 111 of the image information 100, a value obtained by base-down of the entire luminance of the background luminance prediction basic information 101 is output as the background luminance prediction information 112. .

上述の補正処理の一例では、代表輝度として画像情報100の最大値111と背景輝度予測基本情報101の最大値112の比較結果に基づいて補正量(補正係数)を決定していたが、これに限らず、それぞれの平均値121、122や最小値131、132の比較結果に基づいて補正量(補正係数)を決めてもよい。   In the example of the correction processing described above, the correction amount (correction coefficient) is determined based on the comparison result between the maximum value 111 of the image information 100 and the maximum value 112 of the background luminance prediction basic information 101 as the representative luminance. The correction amount (correction coefficient) may be determined based on the comparison result of the average values 121 and 122 and the minimum values 131 and 132.

例えば、最大値の比較結果に応じた補正方法と同様に、画像情報100の平均値121と背景輝度予測基本情報101の平均値122との比較結果に応じて補正係数が決められる。輝度の平均値の比較に応じて補正係数を決める方法は、背景輝度の最大値と最小値の差が大きい場合や、最大値又は最小値の少なくとも一方が平均値に対して極端に離隔した値を示す場合に好適に利用される。   For example, the correction coefficient is determined according to the comparison result between the average value 121 of the image information 100 and the average value 122 of the background luminance prediction basic information 101, as in the correction method according to the comparison result of the maximum value. The method of determining the correction coefficient according to the comparison of the average value of luminance is when the difference between the maximum value and minimum value of the background luminance is large, or when the maximum value or minimum value is extremely separated from the average value. It is preferably used when

あるいは、最大値の比較結果に応じた補正方法と同様に、画像情報100の最小値131と背景輝度予測基本情報101の最小値132との比較結果に応じて補正係数が決められてもよい。輝度の最小値の比較に応じて補正係数を決める方法は、輝度の大きさが位置に依存せず(輝度にむらがなく)、一様に分布するような背景輝度予測基本情報(背景ノイズ)のベースアップに利用されることが好ましい。   Alternatively, the correction coefficient may be determined according to the comparison result between the minimum value 131 of the image information 100 and the minimum value 132 of the background luminance prediction basic information 101, as in the correction method according to the comparison result of the maximum value. The method of determining the correction coefficient according to the comparison of the minimum luminance value is based on the background luminance prediction basic information (background noise) in which the luminance size is not dependent on the position (the luminance is uniform) and is uniformly distributed. It is preferable to be used for base up.

背景輝度予測演算部52における補正方法(代表輝度)は、飛しょう状況パラメータ200に応じて決められてもよい。本発明では、飛しょう状況パラメータ200に応じて背景輝度予測基本情報101、すなわち背景輝度分布の予測値が一意に決まる。背景輝度分布の形状に応じて補正係数を求めるための代表輝度を変更することで、より効果的に背景輝度を排除可能な背景輝度予測情報102(背景ノイズの予測値)を得ることが可能となる。このため、飛しょう状況パラメータ200に応じて、補正係数を求めるために最適な代表輝度が決められることが好ましい。尚、上述の代表輝度は、背景輝度分布における最大値、平均値、最小値の他、統計的に適した値(例えば標準偏差値)等が利用され得る。   The correction method (representative luminance) in the background luminance prediction calculation unit 52 may be determined according to the flight situation parameter 200. In the present invention, the background luminance prediction basic information 101, that is, the predicted value of the background luminance distribution is uniquely determined in accordance with the flight status parameter 200. By changing the representative luminance for obtaining the correction coefficient according to the shape of the background luminance distribution, it is possible to obtain the background luminance prediction information 102 (predicted value of background noise) that can more effectively eliminate the background luminance. Become. For this reason, it is preferable that the optimum representative luminance for determining the correction coefficient is determined in accordance with the flight status parameter 200. As the above-described representative luminance, a statistically suitable value (for example, standard deviation value) or the like can be used in addition to the maximum value, the average value, and the minimum value in the background luminance distribution.

図1を参照して、画像補正部6は、センサ1によって撮像された赤外光の輝度分布の実測値(画像情報100)を、飛しょう状況パラメータ200に応じて予測された背景輝度分布(背景輝度予測情報102)に基づいて補正し、補正後画像情報103として出力する。   With reference to FIG. 1, the image correction unit 6 uses an actually measured value (image information 100) of the luminance distribution of infrared light imaged by the sensor 1 as a background luminance distribution (image information 100) predicted according to the flying condition parameter 200. Based on the background luminance prediction information 102), the corrected image information 103 is output.

図6は、本発明に係る画像補正部6の動作の一例を示す図である。ここでは、説明の簡単化のために、画面座標における1軸方向のみに注目して説明する。画像補正部6は、画像情報100から背景輝度予測情報102を減じることで、補正後画像情報103を得る。ここで、背景輝度予測情報102は、飛しょう体10の現在の状況に応じた背景輝度(背景ノイズ)を示しているため、その輝度分布形状は、実際に撮像された画像情報100における背景輝度の分布形状に近似する。このため、補正後画像情報103における背景輝度に相当する部分は、後述する2値化処理の基準となる2値化可能閾値よりも小さくなり、目標として誤検出されることが防止される。一方、背景輝度予測情報102によって画像情報100における背景輝度が選択的に削除され、目標物からの赤外光による輝度が不要に削除されることは防がれる。このように、実際の背景輝度分布と相似形状の予測値により撮像画像を補正することで、背景輝度以外の輝度のみが2値化可能閾値を超えるように画像情報100を補正することが可能となる。   FIG. 6 is a diagram showing an example of the operation of the image correction unit 6 according to the present invention. Here, for simplification of description, description will be given focusing on only one axis direction in the screen coordinates. The image correction unit 6 obtains corrected image information 103 by subtracting the background luminance prediction information 102 from the image information 100. Here, since the background brightness prediction information 102 indicates the background brightness (background noise) according to the current state of the flying object 10, the brightness distribution shape is the background brightness in the actually captured image information 100. Approximate to the distribution shape. For this reason, the portion corresponding to the background luminance in the corrected image information 103 is smaller than a binarizable threshold that is a reference for the binarization process described later, and is prevented from being erroneously detected as a target. On the other hand, the background luminance prediction information 102 selectively prevents the background luminance in the image information 100 from being deleted unnecessarily due to the infrared light from the target. As described above, by correcting the captured image with the predicted value having a shape similar to the actual background luminance distribution, it is possible to correct the image information 100 so that only the luminance other than the background luminance exceeds the binarizable threshold. Become.

背景輝度の分布は、一様とは限らず光波ドーム11に対する空力加熱による影響を受けるため、飛しょう状況パラメータ200(例えば高度、速度、姿勢角、光波ドームの加熱時間)に応じた分布形状を示す。すなわち、背景輝度分布は画面座標に応じて高低差が生じる。画面座標に対し一様な背景輝度分布を利用して画像情報100を補正しても、補正前において輝度が高い背景輝度は、補正後も2値化可能閾値を超え、目標として誤認識されることがある。一方、本発明では、光波ドーム11に対する空力加熱に影響する飛しょう状況パラメータ200に応じた背景輝度分布の予想値を利用して撮像画像(画像情報100)を補正しているため、効果的に背景輝度(背景ノイズ)を排除し目標を検出し易い画像(補正後画像情報103)を得ることができる。   Since the background luminance distribution is not necessarily uniform and is affected by aerodynamic heating on the light wave dome 11, a distribution shape corresponding to the flight condition parameter 200 (for example, altitude, speed, attitude angle, light wave dome heating time) is used. Show. That is, the background luminance distribution has a height difference according to the screen coordinates. Even if the image information 100 is corrected using a uniform background luminance distribution with respect to the screen coordinates, the background luminance that is high before correction exceeds the binarizable threshold even after correction, and is erroneously recognized as a target. Sometimes. On the other hand, in the present invention, the captured image (image information 100) is corrected using the predicted value of the background luminance distribution according to the flying state parameter 200 that affects the aerodynamic heating of the light wave dome 11, so that it is effective. It is possible to obtain an image (corrected image information 103) from which background luminance (background noise) is eliminated and a target can be easily detected.

補正後画像情報103は、目標検出部7において解析されることで、画面内における目標座標が特定される。目標検出部7は、特定された目標座標に基づいた目標方位信号104を図示しない誘導制御部に出力し、飛しょう体10の飛しょう方向を決定する。   The post-correction image information 103 is analyzed by the target detection unit 7 to identify target coordinates in the screen. The target detection unit 7 outputs a target orientation signal 104 based on the specified target coordinates to a guidance control unit (not shown), and determines the flying direction of the flying object 10.

図7は、本発明に係る目標検出部7の構成の一例を示す図である。目標検出部7は、2値化処理部71、目標候補選出部72、目標候補特徴量演算部73、目標方位検出処理部74を備える。2値化処理部71は、図6に示すように、補正後画像情報103において、2値化可能閾値以上の輝度を“1”、2値化可能閾値を下回る輝度を“0”として2値化する。2値化された画像データ(以下、2値化データと称す)は、目標候補選出部72によって解析され、目標候補が選出される。例えば、目標候補選出部72は、額縁平滑処理により、2値化データから輝度、コントラストの高い領域を目標候補として選出する。あるいは、時系列的に隣接する複数の画像データ(2値化データ)において、データ“1”が維持される領域を目標候補として選出する。目標候補特徴量演算部73は、目標候補のサイズ、輪郭線、輝度分布状況(連続するデータ“1”が占める面積)、目標候補の時系列的な移動距離等の特徴量を算出する。目標方位検出処理部74は、目標候補の特徴量を解析し、最適な目標を1つに絞り込み、画面上における目標の位置と、飛しょう体10の飛しょう状況とに基づいて目標方位を決定する。目標方位検出処理部74において算出されて目標方位は、目標方位信号104として、図示しない誘導制御装置に出力され、飛しょう体10の進行方向が目標方位に向くように制御される。尚、補正後画像情報103が3次元画像の場合、目標検出部7は、目標方位信号104に替えて、目標位置(3次元座標)を示す目標位置信号を出力することが好ましい。   FIG. 7 is a diagram showing an example of the configuration of the target detection unit 7 according to the present invention. The target detection unit 7 includes a binarization processing unit 71, a target candidate selection unit 72, a target candidate feature amount calculation unit 73, and a target orientation detection processing unit 74. As illustrated in FIG. 6, the binarization processing unit 71 binarizes the corrected image information 103 by setting the luminance equal to or higher than the binarizable threshold to “1” and the luminance lower than the binarizable threshold to “0”. Turn into. The binarized image data (hereinafter referred to as binarized data) is analyzed by the target candidate selection unit 72 and a target candidate is selected. For example, the target candidate selection unit 72 selects a region having high luminance and contrast from the binarized data as a target candidate by the frame smoothing process. Alternatively, an area where data “1” is maintained is selected as a target candidate in a plurality of image data (binarized data) adjacent in time series. The target candidate feature amount calculation unit 73 calculates feature amounts such as the target candidate size, contour line, luminance distribution status (area occupied by continuous data “1”), time-series movement distance of the target candidate, and the like. The target azimuth detection processing unit 74 analyzes the feature amount of the target candidate, narrows down the optimum target to one, and determines the target azimuth based on the target position on the screen and the flying state of the flying object 10. To do. The target azimuth calculated by the target azimuth detection processing unit 74 is output as a target azimuth signal 104 to a guidance control device (not shown) and controlled so that the traveling direction of the flying object 10 is directed to the target azimuth. When the corrected image information 103 is a three-dimensional image, the target detection unit 7 preferably outputs a target position signal indicating a target position (three-dimensional coordinates) instead of the target azimuth signal 104.

目標検出部7の構成及び動作は、画像補正部6から出力された補正後画像情報103を利用して目標方位を決定できれば上述の一例に限らないことは言うまでもない。   It goes without saying that the configuration and operation of the target detection unit 7 are not limited to the above example as long as the target orientation can be determined using the corrected image information 103 output from the image correction unit 6.

以上のように本発明による飛しょう体10では、飛しょう状況に応じた背景輝度分布の予測値を利用して、光波ドームを介して撮像された背景輝度分布を補正しているため、光波ドーム11に対する空力加熱に起因する背景輝度を選択的に排除することができる。従って、本発明によれば、飛しょう体10の高度、速度、姿勢角等が変化する実飛しょう環境においても高精度に目標方向(目標位置)の検出が可能となる。又、飛しょう状況に応じた背景輝度分布の予測値を予め用意し、これを利用して撮像画像の補正処理を行っている。このため、背景輝度分布の予測に要する演算を省略でき、目標位置(目標方位)を検出するための処理時間が短縮される。光波ドーム11及びセンサ1を含む赤外線シーカを利用して飛しょう体10を誘導し、当該飛しょう体10が目標に到達する時間は短いため、目標検出に要する処理時間を短縮できることは、有効である。尚、本実施の形態では、背景輝度分布の予測値を予めテーブルとして用意しているが、これに限らず、飛しょう状況パラメータ200を利用して所定のアルゴリズム(関数)を利用した演算により、背景輝度予測基本情報101を算出しても構わない。   As described above, since the flying object 10 according to the present invention corrects the background luminance distribution imaged through the light wave dome using the predicted value of the background luminance distribution according to the flying situation, the light wave dome is corrected. Therefore, the background luminance due to the aerodynamic heating with respect to 11 can be selectively excluded. Therefore, according to the present invention, the target direction (target position) can be detected with high accuracy even in an actual flying environment in which the altitude, speed, posture angle, etc. of the flying object 10 change. In addition, a predicted value of the background luminance distribution corresponding to the flight situation is prepared in advance, and the captured image is corrected using this. For this reason, the calculation required for the prediction of the background luminance distribution can be omitted, and the processing time for detecting the target position (target orientation) is shortened. It is effective that the flying object 10 is guided using the infrared seeker including the light wave dome 11 and the sensor 1 and the time required for the flying object 10 to reach the target is short, so that the processing time required for target detection can be shortened. is there. In the present embodiment, the predicted values of the background luminance distribution are prepared in advance as a table. However, the present invention is not limited to this, and the calculation using a predetermined algorithm (function) using the flight status parameter 200 is performed. The background luminance prediction basic information 101 may be calculated.

更に、飛しょう状況パラメータを用いて背景輝度を予測しているため、光波ドーム11の形状に影響を受けない。例えば、光波ドーム11の形状に応じた背景輝度情報テーブルや、予測関数を用意することで、光波ドーム11の形状に応じた背景輝度の予測値による画像補正が可能となる。これにより、光波ドームの形状によらず赤外線シーカによる目標検出精度が向上する。   Furthermore, since the background brightness is predicted using the flight status parameter, the shape of the light wave dome 11 is not affected. For example, by preparing a background luminance information table corresponding to the shape of the light wave dome 11 and a prediction function, it is possible to perform image correction based on a predicted value of background luminance corresponding to the shape of the light wave dome 11. Thereby, the target detection accuracy by the infrared seeker is improved regardless of the shape of the light wave dome.

以上、本発明の実施の形態を詳述してきたが、具体的な構成は上記実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の変更があっても本発明に含まれる。例えば、背景輝度分布予測部5は、過去(例えば前回)に取得した背景輝度予測情報102の代表輝度を利用して背景輝度予測基本情報101を補正してもよい。図8は、本発明による背景輝度分布予測部5の構成の他の一例を示す図である。図8に示す背景輝度分布予測部5は、背景輝度情報テーブル50、背景輝度選択部51、背景輝度予測演算部52、前回予想値格納部53を備える。図8に示す背景輝度分布予測部5は、初回のみ、又は所定のタイミングで、図2に示す背景輝度分布予測部5と同様な動作により、背景輝度予測情報102を生成するが、次の背景輝度予測情報102を生成する場合、背景輝度予測演算部52における補正処理は、画像情報100に替えて、過去(例えば前回)に生成した背景輝度予測情報102を利用して行われる。詳細には、前回生成された背景輝度予測情報102は、前回予想値105として前回予想値格納部53に記録される。背景輝度予測演算部52は、背景輝度予測基本情報101を補正する際、前回予想値105の代表輝度と背景輝度予測基本情報101の代表輝度との比較結果に基づいて背景輝度予測基本情報101を補正し、背景輝度予測情報102として出力する。ここで行われる補正処理は、画像情報100の代わりに前回予想値105を利用することの他は、上述の実施の形態と同様である。   The embodiment of the present invention has been described in detail above, but the specific configuration is not limited to the above-described embodiment, and changes within a scope not departing from the gist of the present invention are included in the present invention. . For example, the background luminance distribution prediction unit 5 may correct the background luminance prediction basic information 101 using the representative luminance of the background luminance prediction information 102 acquired in the past (for example, the previous time). FIG. 8 is a diagram showing another example of the configuration of the background luminance distribution prediction unit 5 according to the present invention. The background luminance distribution prediction unit 5 shown in FIG. 8 includes a background luminance information table 50, a background luminance selection unit 51, a background luminance prediction calculation unit 52, and a previous predicted value storage unit 53. The background luminance distribution prediction unit 5 shown in FIG. 8 generates the background luminance prediction information 102 by the same operation as the background luminance distribution prediction unit 5 shown in FIG. 2 only at the first time or at a predetermined timing. When the luminance prediction information 102 is generated, the correction processing in the background luminance prediction calculation unit 52 is performed using the background luminance prediction information 102 generated in the past (for example, the previous time) instead of the image information 100. Specifically, the background luminance prediction information 102 generated last time is recorded in the previous predicted value storage unit 53 as the previous predicted value 105. When the background luminance prediction calculation unit 52 corrects the background luminance prediction basic information 101, the background luminance prediction basic information 101 is obtained based on the comparison result between the representative luminance of the previous predicted value 105 and the representative luminance of the background luminance prediction basic information 101. It correct | amends and outputs as background brightness | luminance prediction information 102. FIG. The correction processing performed here is the same as that in the above-described embodiment except that the previous predicted value 105 is used instead of the image information 100.

飛しょう中において連続的に撮像される画像情報100の変化量は少ないため、過去(例えば前回)に生成された背景輝度予測情報102を利用して次の背景輝度予測情報102を生成することで、演算時間を更に短縮することが可能となる。   Since the amount of change of the image information 100 continuously captured during the flight is small, the next background luminance prediction information 102 is generated using the background luminance prediction information 102 generated in the past (for example, the previous time). The calculation time can be further shortened.

1 :センサ
2 :画像メモリ
3 :前処理部
4 :飛しょう状況パラメータ検出部
5 :背景輝度分布予測部
6 :画像補正部
7 :目標検出部
10 :飛しょう体
11 :光波ドーム
50 :背景輝度情報テーブル
51 :背景輝度選択部
52 :背景輝度予測演算部
53 :前回予想値格納部
71 :2値化処理部
72 :目標候補選出部
73 :目標候補特徴量演算部
74 :目標方位検出処理部
100 :画像情報
101 :背景輝度予測基本情報
102 :背景輝度予測情報
103 :補正後画像情報
104 :目標方位信号
105 :前回予想値
200、300 :飛しょう状況パラメータ
1: Sensor 2: Image memory 3: Pre-processing unit 4: Flight condition parameter detection unit 5: Background luminance distribution prediction unit 6: Image correction unit 7: Target detection unit 10: Flying object 11: Light wave dome 50: Background luminance Information table 51: background luminance selection unit 52: background luminance prediction calculation unit 53: previous predicted value storage unit 71: binarization processing unit 72: target candidate selection unit 73: target candidate feature amount calculation unit 74: target orientation detection processing unit 100: Image information 101: Background luminance prediction basic information 102: Background luminance prediction information 103: Corrected image information 104: Target heading signal 105: Previous predicted value 200, 300: Flight condition parameter

Claims (8)

光波ドームの温度変化に影響する飛しょう状況パラメータを検出する飛しょう状況パラメータ検出部と、
前記飛しょう状況パラメータに基づいて予測した背景輝度分布を、背景輝度予測情報として出力する背景輝度分布予測部と、
光波ドームを介して取得された輝度分布を示す画像情報を、前記背景輝度予測情報に基づいて補正し、補正後画像情報として出力する画像補正部と、
前記補正後画像情報を利用して自身の目標方位を決定する目標検出部と
を具備する
飛しょう体。
A flight status parameter detector for detecting flight status parameters that affect the temperature change of the light wave dome;
A background luminance distribution prediction unit that outputs the background luminance distribution predicted based on the flight status parameter as background luminance prediction information;
An image correction unit that corrects image information indicating the luminance distribution acquired through the light wave dome based on the background luminance prediction information and outputs the corrected image information;
A flying object comprising: a target detection unit that determines its target orientation using the corrected image information.
請求項1に記載の飛しょう体において、
飛しょう状況パラメータに対応する背景輝度分布の予測値が格納された背景輝度情報テーブルを更に具備し、
前記背景輝度分布予測部は、前記飛しょう状況パラメータ検出部によって検出された飛しょう状況パラメータに対応する背景輝度分布の予測値を前記背景輝度情報テーブルから抽出し、抽出した前記予測値を前記背景輝度予測情報として出力する
飛しょう体。
In the flying body according to claim 1,
A background luminance information table storing a predicted value of the background luminance distribution corresponding to the flight status parameter;
The background luminance distribution prediction unit extracts a predicted value of the background luminance distribution corresponding to the flying situation parameter detected by the flying situation parameter detection unit from the background luminance information table, and extracts the extracted predicted value from the background A flying object that is output as brightness prediction information.
請求項1に記載の飛しょう体において、
前記背景輝度分布予測部は、飛しょう状況パラメータに対応する背景輝度分布の予測値が格納された背景輝度情報テーブルを更に具備し、
前記背景輝度分布予測部は、前記飛しょう状況パラメータ検出部によって検出された飛しょう状況パラメータに対応する背景輝度分布の予測値を前記背景輝度情報テーブルから抽出し、抽出した前記予測値における代表輝度と、前記画像情報の代表輝度との比較結果に基づいて設定された補正係数を用いて前記予測値を補正し、前記背景輝度予測情報として出力する
飛しょう体。
In the flying body according to claim 1,
The background luminance distribution prediction unit further includes a background luminance information table in which a predicted value of the background luminance distribution corresponding to the flight status parameter is stored,
The background luminance distribution prediction unit extracts a predicted value of the background luminance distribution corresponding to the flying situation parameter detected by the flying situation parameter detection unit from the background luminance information table, and represents the representative luminance in the extracted predicted value And the predicted value is corrected using a correction coefficient set based on the comparison result with the representative luminance of the image information, and is output as the background luminance prediction information.
請求項3に記載の飛しょう体において、
前記背景輝度分布予測部は、過去の前記背景輝度予測情報を記録する記憶装置を更に備え、
前記背景輝度分布予測部は、前記背景輝度情報テーブルから抽出した前記予測値における代表輝度と、前記記憶装置内の背景輝度予測情報の代表輝度との比較結果に基づいて設定された補正係数を用いて前記予測値を補正し、前記背景輝度予測情報として出力する
飛しょう体。
In the flying body according to claim 3,
The background luminance distribution prediction unit further includes a storage device that records the past background luminance prediction information,
The background luminance distribution prediction unit uses a correction coefficient set based on a comparison result between the representative luminance in the predicted value extracted from the background luminance information table and the representative luminance of the background luminance prediction information in the storage device. The flying object that corrects the predicted value and outputs it as the background luminance prediction information.
請求項1から4のいずれか1項に記載の飛しょう体において、
前記飛しょう状況パラメータは、飛しょう体の高度情報、速度情報、又は姿勢角情報のいずれかを含む
飛しょう体。
In the flying body according to any one of claims 1 to 4,
The flying state parameter includes any one of altitude information, speed information, and attitude angle information of the flying object.
請求項1から5のいずれか1項に記載の飛しょう体において、
前記飛しょう状況パラメータは、前記光波ドームが空力加熱環境にさらされている時間を含む
飛しょう体。
In the flying body according to any one of claims 1 to 5,
The flying condition parameter includes a time during which the light wave dome is exposed to an aerodynamic heating environment.
請求項1から6のいずれか1項に記載の飛しょう体において、
前記画像補正部は、前記画像情報と前記背景輝度予測情報との差分を前記補正後画像情報として出力する
飛しょう体。
In the flying body according to any one of claims 1 to 6,
The image correction unit outputs a difference between the image information and the background luminance prediction information as the corrected image information.
光波ドームの温度変化に影響する飛しょう状況パラメータを検出するステップと、
前記飛しょう状況パラメータに基づいて予測した背景輝度分布を、背景輝度予測情報として出力するステップと、
光波ドームを介して取得された輝度分布を示す画像情報を、前記背景輝度予測情報に基づいて補正し、補正後画像情報として出力するステップと、
前記補正後画像情報を利用して飛しょう体の目標方位を決定するステップと
を具備する
飛しょう体の誘導方法。
Detecting flight parameters affecting the temperature change of the light wave dome;
Outputting a background luminance distribution predicted based on the flight status parameter as background luminance prediction information;
Correcting the image information indicating the luminance distribution obtained through the light wave dome based on the background luminance prediction information, and outputting the corrected image information;
Determining the target orientation of the flying object using the corrected image information.
JP2012261200A 2012-11-29 2012-11-29 Flying object and method of guiding the flying object Active JP6071480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012261200A JP6071480B2 (en) 2012-11-29 2012-11-29 Flying object and method of guiding the flying object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012261200A JP6071480B2 (en) 2012-11-29 2012-11-29 Flying object and method of guiding the flying object

Publications (2)

Publication Number Publication Date
JP2014105965A true JP2014105965A (en) 2014-06-09
JP6071480B2 JP6071480B2 (en) 2017-02-01

Family

ID=51027606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012261200A Active JP6071480B2 (en) 2012-11-29 2012-11-29 Flying object and method of guiding the flying object

Country Status (1)

Country Link
JP (1) JP6071480B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104567546A (en) * 2014-12-23 2015-04-29 哈尔滨工业大学 Infrared scene sand table system for testing infrared seeker

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03262987A (en) * 1990-03-14 1991-11-22 Toshiba Corp Infrared image pickup device
US5848764A (en) * 1997-06-13 1998-12-15 Raytheon Company Body fixed terminal guidance system for a missile
JPH11118612A (en) * 1997-10-20 1999-04-30 Nec Corp Image guidance equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03262987A (en) * 1990-03-14 1991-11-22 Toshiba Corp Infrared image pickup device
US5848764A (en) * 1997-06-13 1998-12-15 Raytheon Company Body fixed terminal guidance system for a missile
JPH11118612A (en) * 1997-10-20 1999-04-30 Nec Corp Image guidance equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104567546A (en) * 2014-12-23 2015-04-29 哈尔滨工业大学 Infrared scene sand table system for testing infrared seeker

Also Published As

Publication number Publication date
JP6071480B2 (en) 2017-02-01

Similar Documents

Publication Publication Date Title
JP6356925B2 (en) IMAGING SYSTEM, OBJECT DETECTING DEVICE, AND ITS OPERATION METHOD
CN111751003B (en) Thermal imager temperature correction system and method and thermal imager
KR101339026B1 (en) Method and apparatus for thermal camera visibility enhancing
US20160025627A1 (en) Method and device for determining a visual range in daytime fog
US10310086B2 (en) Method and device for local stabilization of a radiation spot on a remote target object
CN1539084A (en) Method and device for suppressing electromagnetic background radiation in image
JP2013196331A (en) Imaging control device and program
JP2021179404A (en) Temperature measurement system
JP6071480B2 (en) Flying object and method of guiding the flying object
JP2006106978A (en) Fingerprint image pickup unit
CN107301633B (en) Simulation method for remote sensing imaging under cloud and fog interference
JP4230383B2 (en) Target detection device
JP5279236B2 (en) Target imaging detector
JP2006106979A (en) Fingerprint image pickup unit
JP5349257B2 (en) Visual status measurement device
JP5361352B2 (en) Target detection device
JP3487295B2 (en) Image target detection device
JP7347398B2 (en) object detection device
CN109756698A (en) Applied to the moving object method for early warning of automotive camera system, automotive camera system
US10859506B2 (en) Image processing system for processing image data generated in different light emission states, non-transitory computer readable recording medium, and image processing method
CN113168530A (en) Target detection device and method, imaging device and movable platform
JP2001305203A (en) Image object detection device
JP2011163589A (en) Guided flying object device
JP5305768B2 (en) Image enhancement apparatus and image enhancement method
JP5358942B2 (en) Apparatus and method for removing sunlight clutter for infrared captured images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151