JP6113406B2 - Infrared target detection device - Google Patents

Infrared target detection device Download PDF

Info

Publication number
JP6113406B2
JP6113406B2 JP2012003470A JP2012003470A JP6113406B2 JP 6113406 B2 JP6113406 B2 JP 6113406B2 JP 2012003470 A JP2012003470 A JP 2012003470A JP 2012003470 A JP2012003470 A JP 2012003470A JP 6113406 B2 JP6113406 B2 JP 6113406B2
Authority
JP
Japan
Prior art keywords
infrared
image
target detection
processing unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012003470A
Other languages
Japanese (ja)
Other versions
JP2013142636A (en
Inventor
力 古川
力 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012003470A priority Critical patent/JP6113406B2/en
Publication of JP2013142636A publication Critical patent/JP2013142636A/en
Application granted granted Critical
Publication of JP6113406B2 publication Critical patent/JP6113406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、艦船や航空機に搭載され、360度の全方位において撮像された赤外線画像を基に、航空機、飛翔体等の小目標を検出する赤外線目標検出装置に関する。   The present invention relates to an infrared target detection apparatus that is mounted on a ship or an aircraft and detects a small target such as an aircraft or a flying object based on an infrared image captured in all directions of 360 degrees.

従来、360度の全方位についての赤外線画像を撮像し、撮像された赤外線画像を基に目標を検出する赤外線目標検出装置としては、例えば、主にラインセンサから構成される赤外線撮像器と、デローテーションプリズムおよびスキャナとの連携により、全方位の画像を光学的に走査し、撮像するものが知られている(例えば、特許文献1(第1図)参照)。また、エリアセンサから構成される赤外線撮像器をジンバル機構に軸支し、機械的に走査することで、全方位の画像を撮像するものが知られている(例えば、特許文献2(第1図)参照)。   Conventionally, as an infrared target detection device that captures an infrared image in all directions of 360 degrees and detects a target based on the captured infrared image, for example, an infrared imaging device mainly composed of a line sensor, An apparatus that optically scans and images omnidirectional images by cooperation with a rotation prism and a scanner is known (see, for example, Patent Document 1 (FIG. 1)). In addition, an infrared imaging device composed of an area sensor is pivotally supported by a gimbal mechanism and mechanically scanned to capture an omnidirectional image (for example, Patent Document 2 (FIG. 1). )reference).

特許文献1に記載の赤外線目標検出装置は、360度の旋回が可能な入射光学部と、画像の回転を補正するデローテーションプリズムと、入射光学部およびデローテーションプリズムを介して入射された赤外線を走査するスキャナと、このスキャナを介して入射した赤外線を検出する赤外線撮像器と、を備える。赤外線目標検出装置は、360度の範囲において入射光学部を旋回させ、旋回角に対応した回転をデローテーションプリズムにおいて補正しながら、スキャナにて赤外線画像を走査し、レンズに集光される赤外線を赤外線撮像器で検出する。赤外線目標検出装置は、これら一連の動作を繰り返して全方位の赤外線画像を撮像し、赤外線画像から目標を検出する。   The infrared target detection apparatus described in Patent Document 1 includes an incident optical unit capable of rotating 360 degrees, a derotation prism that corrects image rotation, and infrared rays that are incident through the incident optical unit and the derotation prism. A scanner for scanning, and an infrared imaging device for detecting infrared rays incident through the scanner. The infrared target detection device rotates the incident optical unit within a range of 360 degrees, scans the infrared image with the scanner while correcting the rotation corresponding to the rotation angle with the derotation prism, and detects the infrared rays condensed on the lens. Detect with an infrared imager. The infrared target detection apparatus repeats these series of operations to capture an omnidirectional infrared image, and detects a target from the infrared image.

特許文献2に記載の赤外線目標検出装置は、方位角方向および仰角方向に旋回可能なジンバル機構に予め赤外線撮像器を軸支し、方位角方向において0度から360度の範囲でジンバル機構を走査し、レンズに集光される赤外線を赤外線撮像器で検出する。赤外線目標検出装置は、これら一連の動作を繰り返して全方位の赤外線画像を撮像し、赤外線画像から目標を検出する。   The infrared target detection apparatus described in Patent Document 2 supports an infrared imager in advance on a gimbal mechanism that can turn in the azimuth and elevation directions, and scans the gimbal mechanism in a range of 0 to 360 degrees in the azimuth direction. Infrared light collected on the lens is detected by an infrared imager. The infrared target detection apparatus repeats these series of operations to capture an omnidirectional infrared image, and detects a target from the infrared image.

特開2000−346923号公報JP 2000-346923 A 特開平9−27954号公報JP-A-9-27954

従来技術によると、赤外線目標検出装置は、全方位の赤外線画像を撮像するために、デローテーションプリズムおよびスキャナ等を備える光学的機構、あるいはジンバル機構等の機械的機構を搭載する。このような光学的機構や機械的機構を構成する機構部品は、大型で高コストである場合が多い。このため、従来技術によると、赤外線目標検出装置は、大型化や高コストとなることが課題となる。   According to the prior art, the infrared target detection device is equipped with an optical mechanism including a derotation prism and a scanner, or a mechanical mechanism such as a gimbal mechanism in order to capture an omnidirectional infrared image. The mechanical parts constituting such an optical mechanism or mechanical mechanism are often large and expensive. For this reason, according to the prior art, there is a problem that the infrared target detection device is increased in size and cost.

赤外線目標検出装置は、光学的機構あるいは機械的機構に依った走査により全方位の赤外線画像を撮像することから、全方位の赤外線画像のフレーム更新時間が、それら機構の走査時間に依存することとなる。通常、光学的機構や機械的機構による、全方位方向における走査時間は数秒程度要する。赤外線目標検出装置は、かかる走査時間の経過を待って目標検出を実施することとなるため、目標検出をリアルタイムで更新することが困難であることが課題となる。   Since the infrared target detection device captures an omnidirectional infrared image by scanning using an optical mechanism or a mechanical mechanism, the frame update time of the omnidirectional infrared image depends on the scanning time of these mechanisms. Become. Usually, the scanning time in all directions by an optical mechanism or a mechanical mechanism takes about several seconds. The infrared target detection device waits for the scanning time to elapse to perform target detection, so that it is difficult to update target detection in real time.

本発明は、上記に鑑みてなされたものであって、リアルタイムでの目標検出を可能とし、小型化および低コスト化を実現可能とする赤外線目標検出装置を得ることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to obtain an infrared target detection apparatus that enables target detection in real time, and that can achieve downsizing and cost reduction.

上述した課題を解決し、目的を達成するために、本発明は、互いの視野を組み合わせて全方位方向を撮像可能に配置され、集光した赤外線を検出して赤外線画像を撮像する複数の赤外線撮像器と、前記赤外線撮像器の変位による、フレームごとの前記赤外線画像の動きを補正するための空間安定化処理を実施する空間安定化処理部と、前記空間安定化処理部での前記空間安定化処理を経た前記赤外線画像に対し、画素ごとの輝度値の二値化処理を実施し、前記赤外線画像から目標を検出する目標検出処理部と、前記目標検出処理部での前記二値化処理により取得された二値画像を基に、前記目標の特徴量を算出する特徴量演算部と、を有することを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is arranged to be able to image all directions by combining the fields of view of each other, and detects a collected infrared ray to pick up an infrared image. An image pickup device, a space stabilization processing unit for performing a space stabilization process for correcting movement of the infrared image for each frame due to displacement of the infrared image pickup device, and the space stabilization in the space stabilization processing unit A binarization process of a luminance value for each pixel is performed on the infrared image that has undergone the binarization process, and a target detection processing unit that detects a target from the infrared image, and the binarization process in the target detection processing unit And a feature amount calculation unit that calculates the target feature amount based on the binary image acquired by the above.

本発明によれば、赤外線目標検出装置は、装置の大型化や高コスト化に繋がる光学的機構や機械的機構に代えて、全方位方向を撮像可能に配置された複数の赤外線撮像器を適用する。赤外線撮像器は、例えば、最大1Gbpsのデータ転送を可能とするGigE-vision等の画像伝送規格を用いて、赤外線画像を高速に出力可能とする。例えば、赤外線撮像器は、フレームレートと同じ周期で赤外線画像を出力する。赤外線目標検出装置は、光学的機構あるいは機械的機構の走査によらず全方位の赤外線画像を撮像可能であるため、かかる走査時間に関係無く、フレームレートごとに目標検出結果を更新することができる。これにより、赤外線目標検出装置は、リアルタイムでの目標検出を可能とし、小型化および低コスト化を実現できる。   According to the present invention, the infrared target detection device employs a plurality of infrared imagers arranged so as to be able to image in all directions in place of optical mechanisms and mechanical mechanisms that lead to an increase in size and cost of the device. To do. The infrared imager can output an infrared image at high speed by using an image transmission standard such as GigE-vision that enables data transfer at a maximum of 1 Gbps, for example. For example, the infrared imager outputs an infrared image at the same cycle as the frame rate. Since the infrared target detection device can pick up an omnidirectional infrared image regardless of scanning by an optical mechanism or a mechanical mechanism, the target detection result can be updated for each frame rate regardless of the scanning time. . Thereby, the infrared target detection apparatus can perform target detection in real time, and can realize downsizing and cost reduction.

図1は、本発明の実施の形態1にかかる赤外線目標検出装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the first embodiment of the present invention. 図2は、水平方向における複数の赤外線撮像器の設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of a plurality of infrared imaging devices in the horizontal direction. 図3は、空間安定化処理部による空間安定化処理の原理を説明する図である。FIG. 3 is a diagram for explaining the principle of the space stabilization processing by the space stabilization processing unit. 図4は、赤外線撮像器制御部の制御による、赤外線撮像器、空間安定化処理部および目標検出処理部の処理タイミングについて説明する図である。FIG. 4 is a diagram for explaining processing timings of the infrared imaging device, the space stabilization processing unit, and the target detection processing unit under the control of the infrared imaging device control unit. 図5は、空間安定化処理部の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of the space stabilization processing unit. 図6は、バイリニア補間について説明する概念図である。FIG. 6 is a conceptual diagram illustrating bilinear interpolation. 図7は、画像ピラミッドを使用する位置合わせ処理について説明する概念図である。FIG. 7 is a conceptual diagram illustrating an alignment process using an image pyramid. 図8は、本発明の実施の形態2にかかる赤外線目標検出装置の概略構成を示すブロック図である。FIG. 8 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the second embodiment of the present invention. 図9は、パノラマ画像合成部におけるパノラマ画像の生成について説明する図である。FIG. 9 is a diagram for explaining generation of a panoramic image in the panoramic image synthesis unit. 図10は、本発明の実施の形態3にかかる赤外線目標検出装置の概略構成を示すブロック図である。FIG. 10 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the third embodiment of the present invention. 図11は、シンボルが重畳されたパノラマ画像の例を示す図である。FIG. 11 is a diagram illustrating an example of a panoramic image on which symbols are superimposed. 図12は、パノラマ画像の座標系と、特徴量演算回路から出力される目標の重心位置の座標系とについて説明する図である。FIG. 12 is a diagram for explaining the coordinate system of the panoramic image and the coordinate system of the target center-of-gravity position output from the feature amount calculation circuit.

以下に、本発明にかかる赤外線目標検出装置の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Embodiments of an infrared target detection apparatus according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

実施の形態1.
図1は、本発明の実施の形態1にかかる赤外線目標検出装置の概略構成を示すブロック図である。赤外線目標検出装置1は、艦船あるいは航空機に搭載され、360度の全方位において撮像された赤外線画像を基に、航空機、飛翔体等の小目標を検出する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the first embodiment of the present invention. The infrared target detection apparatus 1 is mounted on a ship or an aircraft and detects small targets such as aircraft and flying objects based on infrared images captured in all directions of 360 degrees.

赤外線目標検出装置1は、四つの赤外線撮像器2−1、2−2、2−3および2−4、空間安定化処理部3、目標検出処理部4、特徴量演算回路(特徴量演算部)5および赤外線撮像器制御部6を有する。   The infrared target detection apparatus 1 includes four infrared imaging devices 2-1, 2-2, 2-3, and 2-4, a space stabilization processing unit 3, a target detection processing unit 4, a feature amount calculation circuit (a feature amount calculation unit). ) 5 and an infrared imager controller 6.

赤外線撮像器2−1〜2−4は、目標からの赤外線10を集光し、集光した赤外線10を検出する。赤外線撮像器2−1〜2−4は、赤外線10を信号電荷へ変換し、赤外線画像を撮像する。赤外線撮像器2−1、2−2、2−3および2−4は、それぞれ赤外線画像11−1、11−2、11−3および11−4を出力する。   The infrared imaging devices 2-1 to 2-4 collect the infrared rays 10 from the target and detect the collected infrared rays 10. The infrared imaging devices 2-1 to 2-4 convert the infrared rays 10 into signal charges and take infrared images. The infrared imaging devices 2-1, 2-2, 2-3, and 2-4 output infrared images 11-1, 11-2, 11-3, and 11-4, respectively.

赤外線撮像器制御部6は、赤外線撮像器2−1、2−2、2−3および2−4に対し、それぞれ撮像指令14−1、14−2、14−3および14−4を出力する。赤外線撮像器制御部6は、撮像指令14−1〜14−4により、赤外線撮像器2−1〜2−4を制御する。赤外線撮像器2−1〜2−4は、撮像指令14−1〜14−4に応じて、赤外線画像11−1〜11−4を撮像する。また、赤外線撮像器制御部6は、空間安定化処理部3、目標検出処理部4および特徴量演算回路5に対し、フレームタイミング信号15を出力する。   The infrared imaging device control unit 6 outputs imaging commands 14-1, 14-2, 14-3, and 14-4 to the infrared imaging devices 2-1, 2-2, 2-3, and 2-4, respectively. . The infrared imaging device control unit 6 controls the infrared imaging devices 2-1 to 2-4 according to imaging commands 14-1 to 14-4. The infrared imaging devices 2-1 to 2-4 capture the infrared images 11-1 to 11-4 according to the imaging commands 14-1 to 14-4. The infrared imager control unit 6 outputs a frame timing signal 15 to the space stabilization processing unit 3, the target detection processing unit 4, and the feature amount calculation circuit 5.

赤外線撮像器2−1〜2−4は、赤外線目標検出装置1が搭載されている艦船や航空機の揺れによって、位置が変化することとなる。空間安定化処理部3は、艦船や航空機の揺れによる赤外線画像11−1〜11−4のブレを抑制させるために、赤外線撮像器2−1〜2−4からの赤外線画像11−1〜11−4に対し、空間安定化処理を実施する。   The positions of the infrared imaging devices 2-1 to 2-4 are changed by the shaking of a ship or an aircraft on which the infrared target detection device 1 is mounted. The space stabilization processing unit 3 controls the infrared images 11-1 to 11-11 from the infrared imaging devices 2-1 to 2-4 in order to suppress blurring of the infrared images 11-1 to 11-4 due to shaking of a ship or an aircraft. -4 is subjected to a space stabilization process.

赤外線撮像器2−1〜2−4は、赤外線目標検出装置1が搭載されている艦船や航空機の振動や揺動を受けて、絶えず変位する。空間安定化処理は、赤外線撮像器2−1〜2−4の変位による、フレームごとの赤外線画像11−1〜11−4の動きを補正するための処理である。空間安定化処理部3は、空間安定化処理を経た赤外線画像12−1、12−2、12−3および12−4を出力する。   The infrared image pickup devices 2-1 to 2-4 are continuously displaced in response to vibrations or swings of a ship or an aircraft on which the infrared target detection device 1 is mounted. The space stabilization process is a process for correcting the movement of the infrared images 11-1 to 11-4 for each frame due to the displacement of the infrared imaging devices 2-1 to 2-4. The space stabilization processing unit 3 outputs infrared images 12-1, 12-2, 12-3, and 12-4 that have undergone space stabilization processing.

目標検出処理部4は、赤外線画像12−1〜12−4から目標を検出する。目標検出処理部4は、赤外線画像12−1〜12−4について、注目画素の輝度値と、注目画素の周辺における輝度分布を計測する。目標検出処理部4は、輝度分布の計測結果を用いて注目画素ごとの二値化閾値を求める。目標検出処理部4は、画素ごとの輝度値の二値化処理を実施し、赤外線画像12−1〜12−4から目標を検出する。目標検出処理部4は、二値化処理を経た二値画像13−1、13−2、13−3および13−4を出力する。   The target detection processing unit 4 detects a target from the infrared images 12-1 to 12-4. The target detection processing unit 4 measures the luminance value of the pixel of interest and the luminance distribution around the pixel of interest for the infrared images 12-1 to 12-4. The target detection processing unit 4 obtains a binarization threshold value for each target pixel using the measurement result of the luminance distribution. The target detection processing unit 4 performs a binarization process of the luminance value for each pixel and detects a target from the infrared images 12-1 to 12-4. The target detection processing unit 4 outputs binary images 13-1, 13-2, 13-3, and 13-4 that have undergone binarization processing.

特徴量演算回路5は、目標検出処理部4からの二値画像13−1〜13−4を基に、目標の特徴量を算出する。特徴量演算回路5は、二値画像13−1〜13−4において目標をラベリングし、目標について、例えば、重心位置、面積等の特徴量を演算する。特徴量演算回路5は、かかる演算結果を、目標特徴量16として出力する。赤外線目標検出装置1は、目標特徴量16を出力する。   The feature amount calculation circuit 5 calculates a target feature amount based on the binary images 13-1 to 13-4 from the target detection processing unit 4. The feature amount calculation circuit 5 labels the targets in the binary images 13-1 to 13-4, and calculates, for example, feature amounts such as a center of gravity position and an area for the targets. The feature amount calculation circuit 5 outputs the calculation result as the target feature amount 16. The infrared target detection apparatus 1 outputs a target feature value 16.

赤外線目標検出装置1を構成する空間安定化処理部3、目標検出処理部4、特徴量演算回路5および赤外線撮像器制御部6は、リアルタイムでの演算処理に対応するため、例えば、100MHz以上の動作周波数で同期動作可能なFPGA(Field Programmable Gate Array)等の回路素子を備える。   The space stabilization processing unit 3, the target detection processing unit 4, the feature amount calculation circuit 5, and the infrared imager control unit 6 that constitute the infrared target detection device 1 correspond to real-time calculation processing. A circuit element such as an FPGA (Field Programmable Gate Array) capable of synchronous operation at an operating frequency is provided.

図2は、水平方向における複数の赤外線撮像器の設置例を示す図である。赤外線撮像器2−1、2−2、2−3および2−4は、方位方向(水平方向)において90度以上、例えば120度程度の撮像視野範囲17−1、17−2、17−3および17−4を確保可能なレンズをそれぞれ搭載している。赤外線撮像器2−1〜2−4は、光軸AXの向きをそれぞれ90度ずつ異ならせて配置されている。これにより、赤外線撮像器2−1〜2−4は、互いの撮像視野範囲17−1〜17−4を組み合わせて、全方位方向(0度から360度)を撮像可能に配置されている。赤外線目標検出装置1は、隣り合う撮像視野範囲17−1〜17−4の端同士を重複させることで、目標検出の漏れを抑制させる。   FIG. 2 is a diagram illustrating an installation example of a plurality of infrared imaging devices in the horizontal direction. The infrared imaging devices 2-1, 2-2, 2-3, and 2-4 have an imaging visual field range 17-1, 17-2, 17-3 of 90 degrees or more in the azimuth direction (horizontal direction), for example, about 120 degrees. And 17-4 can be secured. The infrared imaging devices 2-1 to 2-4 are arranged with the directions of the optical axes AX different from each other by 90 degrees. Thereby, the infrared imaging devices 2-1 to 2-4 are arranged so as to be able to capture images in all azimuth directions (0 degrees to 360 degrees) by combining the imaging field-of-view ranges 17-1 to 17-4. The infrared target detection apparatus 1 suppresses leakage of target detection by overlapping the ends of adjacent imaging visual field ranges 17-1 to 17-4.

赤外線目標検出装置1は、90度以上の撮像視野範囲17−1〜17−4での撮像を可能とする四つの赤外線撮像器2−1〜2−4を適用することで、全方位方向を撮像する。なお、赤外線撮像器の数は四つである場合に限られず、互いの視野を組み合わせて全方位方向を撮像可能であれば適宜変更可能であるものとする。また、各赤外線撮像器の撮像視野範囲の角度は、各赤外線撮像器の視野を組み合わせて全方位方向を撮像可能であれば良く、赤外線撮像器の数等に応じて適宜決定可能であるものとする。   The infrared target detection apparatus 1 applies the four infrared imaging devices 2-1 to 2-4 that enable imaging in the imaging visual field range 17-1 to 17-4 of 90 degrees or more, thereby changing the omnidirectional direction. Take an image. Note that the number of infrared imagers is not limited to four, and can be changed as appropriate as long as the omnidirectional directions can be imaged by combining the fields of view. Moreover, the angle of the imaging visual field range of each infrared image sensor is only required to be able to image the omnidirectional direction by combining the visual field of each infrared image sensor, and can be appropriately determined according to the number of infrared image sensors and the like. To do.

次に、赤外線目標検出装置1の動作について説明する。赤外線撮像器制御部6は、赤外線撮像器2−1〜2−4より出力される赤外線画像11−1〜11−4のフレームレートに同期する同期信号を生成する。赤外線撮像器制御部6は、フレームレートに同期する撮像指令14−1〜14−4を赤外線撮像器2−1〜2−4に与える。赤外線撮像器2−1〜2−4は、撮像指令14−1〜14−4に応じて、フレームレートに同期して赤外線画像11−1〜11−4を撮像する。   Next, the operation of the infrared target detection apparatus 1 will be described. The infrared imaging device controller 6 generates a synchronization signal synchronized with the frame rate of the infrared images 11-1 to 11-4 output from the infrared imaging devices 2-1 to 2-4. The infrared imaging device controller 6 gives imaging commands 14-1 to 14-4 synchronized with the frame rate to the infrared imaging devices 2-1 to 2-4. Infrared imaging devices 2-1 to 2-4 capture infrared images 11-1 to 11-4 in synchronization with the frame rate in response to imaging commands 14-1 to 14-4.

赤外線撮像器制御部6は、フレームレートに同期するフレームタイミング信号15を空間安定化処理部3、目標検出処理部4および特徴量演算回路5に与える。空間安定化処理部3、目標検出処理部4および特徴量演算回路5は、フレームレートに同期して動作する。   The infrared imager control unit 6 supplies a frame timing signal 15 synchronized with the frame rate to the space stabilization processing unit 3, the target detection processing unit 4, and the feature amount calculation circuit 5. The space stabilization processing unit 3, the target detection processing unit 4, and the feature amount calculation circuit 5 operate in synchronization with the frame rate.

赤外線撮像器2−1〜2−4は、赤外線撮像器制御部6からの撮像指令14−1〜14−1を受けて撮像した赤外線画像11−1〜11−4を、フレーム期間内に収まるように、空間安定化処理部3へ転送する。   The infrared image pickup devices 2-1 to 2-4 receive the infrared images 11-1 to 11-4 picked up in response to the image pickup commands 14-1 to 14-1 from the infrared image pickup device control unit 6 within the frame period. As described above, the data is transferred to the space stabilization processing unit 3.

例えば、赤外線画像11−1〜11−4のフレームレートを30Hz(≒33.3ms)、赤外線画像11−1〜11−4の画像サイズをVGA(640×480画素)、画像データ長を16ビットとし、データ転送速度を1Gbpsとして赤外線撮像器2−1〜2−4から空間安定化処理部3へ赤外線画像11−1〜11−4をシリアルデータ転送したとする。この場合、1フレーム当たりのデータ転送時間は、640×480(画素)×16(ビット)/10(bps)≒5msとなる。赤外線目標検出装置1は、データ転送におけるオーバヘッドを考慮しても、十分にフレーム期間内に収まるように、赤外線画像11−1〜11−4を転送することができる。 For example, the frame rate of the infrared images 11-1 to 11-4 is 30 Hz (≈33.3 ms), the image size of the infrared images 11-1 to 11-4 is VGA (640 × 480 pixels), and the image data length is 16 bits. Suppose that the infrared data 11-1 to 11-4 is serially transferred from the infrared imaging devices 2-1 to 2-4 to the space stabilization processing unit 3 at a data transfer rate of 1 Gbps. In this case, the data transfer time per frame is 640 × 480 (pixels) × 16 (bits) / 10 9 (bps) ≈5 ms. The infrared target detection apparatus 1 can transfer the infrared images 11-1 to 11-4 so as to be sufficiently within the frame period even in consideration of the overhead in data transfer.

空間安定化処理部3は、赤外線目標検出装置1を搭載する艦船や航空機の振動、揺動による赤外線画像11−1〜11−4のブレを抑制するための空間安定化処理を実施する。空間安定化処理部3は、赤外線撮像器制御部6からのフレームタイミング信号15に応じて、フレームレートに同期して、フレームごとにおける赤外線画像11−1〜11−4の動き量を求める。   The space stabilization processing unit 3 performs a space stabilization process for suppressing blurring of the infrared images 11-1 to 11-4 due to vibrations and swings of ships and aircraft in which the infrared target detection device 1 is mounted. The space stabilization processing unit 3 obtains the amount of motion of the infrared images 11-1 to 11-4 for each frame in synchronization with the frame rate in accordance with the frame timing signal 15 from the infrared imager control unit 6.

空間安定化処理部3は、例えば、反復勾配法を用いて、赤外線画像11−1〜11−4の動き量を抽出する。空間安定化処理部3は、抽出された動き量に応じて動き補正量を算出する。空間安定化処理部3は、算出された動き補正量を基に動き補正が施された赤外線画像12−1〜12−4を出力する。   The space stabilization processing unit 3 extracts the amount of motion of the infrared images 11-1 to 11-4 using, for example, an iterative gradient method. The space stabilization processing unit 3 calculates a motion correction amount according to the extracted motion amount. The space stabilization processing unit 3 outputs infrared images 12-1 to 12-4 that have been subjected to motion correction based on the calculated motion correction amount.

図3は、空間安定化処理部による空間安定化処理の原理を説明する図である。例えば、赤外線撮像器2−1が、赤外線画像11−1として、フレームタイミングに応じた時刻t、t+1、t+2・・・、t+nにおいて、フレームI(t)、I(t+1)、I(t+2)・・・、I(t+n)をそれぞれ撮像したとする。各フレームI(t)〜I(t+n)は、赤外線目標検出装置1を搭載する艦船や航空機の揺れに応じて、三次元方向について位置および傾きに変化が生じている。   FIG. 3 is a diagram for explaining the principle of the space stabilization processing by the space stabilization processing unit. For example, the infrared imaging device 2-1 converts the frames I (t), I (t + 1), and I (t + 2) as the infrared image 11-1 at times t, t + 1, t + 2,. .., I (t + n) is captured. Each of the frames I (t) to I (t + n) has a change in position and inclination in the three-dimensional direction according to the shaking of the ship or aircraft on which the infrared target detection device 1 is mounted.

空間安定化処理部3は、所定のフレーム、例えば時刻tにおけるフレームI(t)を基準として、時刻(t+1)から(t+n)の各フレームI(t+1)〜(t+n)について、三次元方向における位置および傾きの変化量を、動き量として抽出する。空間安定化処理部3は、抽出した動き量に応じた動き補正量を算出する。空間安定化処理部3は、時刻(t+1)から(t+n)の各フレームI(t+1)〜(t+n)について、動き補正量に基づく動き補正を実施し、空間安定化処理後の赤外線画像12−1とする。   The space stabilization processing unit 3 uses a predetermined frame, for example, a frame I (t) at time t as a reference, for each frame I (t + 1) to (t + n) from time (t + 1) to (t + n) in the three-dimensional direction. The amount of change in position and inclination is extracted as the amount of movement. The space stabilization processing unit 3 calculates a motion correction amount according to the extracted motion amount. The space stabilization processing unit 3 performs motion correction based on the motion correction amount for each frame I (t + 1) to (t + n) from the time (t + 1) to (t + n), and the infrared image 12− after the space stabilization processing is performed. Set to 1.

空間安定化処理部3は、他の赤外線撮像器2−2、2−3および2−4で撮像した赤外線画像11−2、11−3および11−4についても同様に動き補正を実施し、空間安定化処理後の赤外線画像12−2、12−3および12−4とする。なお、空間安定化処理部3の詳細な構成については後述する。   The space stabilization processing unit 3 similarly performs motion correction on the infrared images 11-2, 11-3, and 11-4 captured by the other infrared imagers 2-2, 2-3, and 2-4. The infrared images 12-2, 12-3, and 12-4 after the space stabilization process are used. The detailed configuration of the space stabilization processing unit 3 will be described later.

目標検出処理部4は、空間安定化処理部3からの赤外線画像12−1〜12−4に対して、例えば、次の式(1)を用いて、画素ごとの輝度値について二値化閾値を求める。注目画素についての二値化閾値の算出において、目標検出処理部4は、注目画素の周辺に位置する周辺画素の輝度値を参照する。
TH(i,j)=MEAN(i,j)+K*VAR(I,j) ・・・(1)
The target detection processing unit 4 uses the following expression (1) for the infrared images 12-1 to 12-4 from the space stabilization processing unit 3, for example, for the luminance value for each pixel. Ask for. In calculating the binarization threshold for the target pixel, the target detection processing unit 4 refers to the luminance values of the peripheral pixels located around the target pixel.
TH (i, j) = MEAN (i, j) + K * VAR (I, j) (1)

ここで、(i,j)は注目画素の座標、TH(i,j)は注目画素についての二値化閾値、MEAN(i,j)は周辺画素の輝度値の平均値、VAR(i,j)は周辺画素の輝度値の標準偏差値、Kは所定の定数、とする。   Here, (i, j) is the coordinate of the pixel of interest, TH (i, j) is the binarization threshold for the pixel of interest, MEAN (i, j) is the average value of the luminance values of the surrounding pixels, and VAR (i, j j) is a standard deviation value of luminance values of peripheral pixels, and K is a predetermined constant.

目標検出処理部4は、例えば、次の式(2)を用いて、二値画像のデータを求める。   The target detection processing unit 4 obtains binary image data using the following equation (2), for example.

Figure 0006113406
Figure 0006113406

ここで、(i,j)は注目画素の座標、TH(i,j)は注目画素についての二値化閾値、D(i,j)は注目画素の輝度値、B(i,j)は注目画素における二値画像のデータ、とする。   Here, (i, j) is the coordinate of the pixel of interest, TH (i, j) is the binarization threshold for the pixel of interest, D (i, j) is the luminance value of the pixel of interest, and B (i, j) is Binary image data at the target pixel.

目標検出処理部4は、輝度値が二値化閾値以上である画素については「1」、輝度値が二値化閾値未満である画素については「0」、とする二値画像のデータを求め、二値画像13−1〜13−4として出力する。目標検出処理部4は、赤外線撮像器制御部6からのフレームタイミング信号15に応じて、フレームレートに同期して二値化処理を実施する。目標検出処理部4は、フレームごとの二値画像13−1〜13−4を出力する。   The target detection processing unit 4 obtains binary image data in which “1” is set for pixels whose luminance value is equal to or greater than the binarization threshold and “0” is set for pixels whose luminance value is less than the binarization threshold. , And output as binary images 13-1 to 13-4. The target detection processing unit 4 performs binarization processing in synchronization with the frame rate in accordance with the frame timing signal 15 from the infrared imaging device control unit 6. The target detection processing unit 4 outputs binary images 13-1 to 13-4 for each frame.

特徴量演算回路5は、目標検出処理部4からの二値画像13−1〜13−4を基に、公知の手法により、目標のラベリング処理を行う。特徴量演算回路5は、目標の重心位置座標、目標が占める領域の座標、面積等の特徴量を演算する。特徴量演算回路5は、赤外線撮像器制御部6からのフレームタイミング信号15に応じて、フレームレートに同期して特徴量を求め、目標特徴量16として出力する。   The feature amount calculation circuit 5 performs a target labeling process by a known method based on the binary images 13-1 to 13-4 from the target detection processing unit 4. The feature quantity computing circuit 5 computes feature quantities such as the coordinates of the center of gravity of the target, the coordinates of the area occupied by the target, and the area. The feature amount calculation circuit 5 obtains a feature amount in synchronization with the frame rate in accordance with the frame timing signal 15 from the infrared imager control unit 6 and outputs it as the target feature amount 16.

図4は、赤外線撮像器制御部の制御による、赤外線撮像器、空間安定化処理部および目標検出処理部の処理タイミングについて説明する図である。赤外線撮像器2−1〜2−4は、撮像指令14−1〜14−1に応じて、フレームレートに同期して赤外線画像11−1〜11−4を撮像する。赤外線撮像器2−1〜2−4は、赤外線画像11−1〜11−4として、時刻t、t+1、t+2、t+3・・・において、フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・をそれぞれ撮像する。赤外線撮像器2−1〜2−4は、各フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・を、例えば、フレーム期間33.3msより短い期間5msにおいて出力する。   FIG. 4 is a diagram for explaining processing timings of the infrared imaging device, the space stabilization processing unit, and the target detection processing unit under the control of the infrared imaging device control unit. The infrared imaging devices 2-1 to 2-4 capture the infrared images 11-1 to 11-4 in synchronization with the frame rate in response to the imaging commands 14-1 to 14-1. The infrared image pickup devices 2-1 to 2-4 receive frames I (t), I (t + 1), and I (t + 2) as infrared images 11-1 to 11-4 at times t, t + 1, t + 2, t + 3. ), I (t + 3)... The infrared image pickup devices 2-1 to 2-4 perform the respective frames I (t), I (t + 1), I (t + 2), I (t + 3)... In a period 5 ms shorter than the frame period 33.3 ms, for example. Output.

空間安定化処理部3は、フレームタイミング信号15に応じて、フレームレートに同期して赤外線画像11−1〜11−4の空間安定化処理を実施する。空間安定化処理部3は、例えば、時刻t+1のフレームタイミング信号15に応じて、フレームI(t)についての空間安定化処理を実施する。空間安定化処理部3は、時刻t+1、t+2、t+3・・・において、フレームI(t)、I(t+1)、I(t+2)・・・についての空間安定化処理をそれぞれ実施する。空間安定化処理部3は、赤外線画像12−1〜12−4として各フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・を、フレーム期間より短い期間において出力する。   The space stabilization processing unit 3 performs space stabilization processing of the infrared images 11-1 to 11-4 in synchronization with the frame rate in accordance with the frame timing signal 15. For example, the space stabilization processing unit 3 performs the space stabilization processing for the frame I (t) in accordance with the frame timing signal 15 at time t + 1. The space stabilization processing unit 3 performs space stabilization processing for the frames I (t), I (t + 1), I (t + 2)... At times t + 1, t + 2, t + 3. The space stabilization processing unit 3 displays each frame I (t), I (t + 1), I (t + 2), I (t + 3)... As the infrared images 12-1 to 12-4 in a period shorter than the frame period. Output.

目標検出処理部4は、フレームタイミング信号15に応じて、フレームレートに同期して赤外線画像12−1〜12−4の二値化処理を実施する。目標検出処理部4は、例えば、時刻t+2のフレームタイミング信号15に応じて、フレームI(t)についての二値化処理を実施する。目標検出処理部4は、時刻t+2、t+3・・・において、フレームI(t)、I(t+1)・・・についての二値化処理をそれぞれ実施する。目標検出処理部4は、各フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・の二値画像13−1〜13−4を、フレーム期間より短い期間において出力する。   The target detection processing unit 4 performs binarization processing of the infrared images 12-1 to 12-4 in synchronization with the frame rate in accordance with the frame timing signal 15. For example, the target detection processing unit 4 performs binarization processing for the frame I (t) according to the frame timing signal 15 at time t + 2. The target detection processing unit 4 performs binarization processing for the frames I (t), I (t + 1)... At times t + 2, t + 3. The target detection processing unit 4 displays the binary images 13-1 to 13-4 of each frame I (t), I (t + 1), I (t + 2), I (t + 3)... In a period shorter than the frame period. Output.

赤外線目標検出装置1は、各部における処理をフレームレートに同期して実施し、かつ各処理をフレーム期間内に完了させる。このため、赤外線目標検出装置1は、フレームレートに同期して目標検出結果を更新することができる。以上の動作により、赤外線目標検出装置1は、光学的機構や機械的機構による走査を行わずに目標検出ができ、かつ、リアルタイムでの目標検出が可能となる。   The infrared target detection apparatus 1 performs the processing in each unit in synchronization with the frame rate, and completes each processing within the frame period. For this reason, the infrared target detection apparatus 1 can update the target detection result in synchronization with the frame rate. With the above operation, the infrared target detection apparatus 1 can perform target detection without performing scanning by an optical mechanism or a mechanical mechanism, and can perform target detection in real time.

赤外線目標検出装置1は、装置の大型化や高コスト化に繋がる光学的機構や機械的機構に代えて、全方位方向を撮像可能に配置された複数の赤外線撮像器2−1〜2−4を適用する。このため、赤外線目標検出装置1は、小型化および低コスト化を実現できる。赤外線目標検出装置1は、小型化により、生産工程の効率化を図り得る。赤外線目標検出装置1は、走査のための高速回転、移動等の動作を不要とすることで、光学的機構や機械的機構を用いる場合に比べて、耐久性の向上や、エネルギー消費量の削減を図り得る。   The infrared target detection device 1 is a plurality of infrared imaging devices 2-1 to 2-4 arranged so as to be capable of imaging in all directions, instead of an optical mechanism and a mechanical mechanism that lead to an increase in size and cost of the device. Apply. For this reason, the infrared target detection apparatus 1 can realize size reduction and cost reduction. The infrared target detection apparatus 1 can improve the efficiency of the production process by downsizing. The infrared target detection apparatus 1 eliminates the need for operations such as high-speed rotation and movement for scanning, thereby improving durability and reducing energy consumption compared to the case where an optical mechanism or a mechanical mechanism is used. Can be planned.

次に、空間安定化処理部3の構成の詳細について説明する。図5は、空間安定化処理部の構成を示すブロック図である。空間安定化処理部3は、画像格納用メモリ21−1、21−2、21−3および21-4、粗精位置合わせ処理部22−1、22−2、22−3および22−4、補間処理部23−1、23−2、23−3および23−4を有する。   Next, details of the configuration of the space stabilization processing unit 3 will be described. FIG. 5 is a block diagram illustrating a configuration of the space stabilization processing unit. The space stabilization processing unit 3 includes image storage memories 21-1, 21-2, 21-3, and 21-4, coarse alignment processing units 22-1, 22-2, 22-3, and 22-4, Interpolation processing units 23-1, 23-2, 23-3, and 23-4 are included.

画像格納用メモリ21−1、21−2、21−3および21-4は、赤外線撮像器2−1、2−2、2−3および2−4から入力される赤外線画像11−1、11−2、11−3および11−4を、それぞれ格納する。画像格納用メモリ21−1〜21−4は、赤外線画像11−1〜11−4について、赤外線撮像器制御部6からの最新のフレームタイミング信号15に応じたフレームと、前回のフレームタイミング信号15に応じたフレームと、の二つのフレームを格納可能とされたダブルバッファ方式を採用する。二つのフレームを格納可能とする理由については後述する。   The image storage memories 21-1, 21-2, 21-3, and 21-4 are infrared images 11-1, 11 that are input from the infrared imaging devices 2-1, 2-2, 2-3, and 2-4. -2, 11-3 and 11-4 are respectively stored. The image storage memories 21-1 to 21-4 are the frames corresponding to the latest frame timing signal 15 from the infrared imaging device controller 6 and the previous frame timing signal 15 for the infrared images 11-1 to 11-4. A double buffer system is adopted that is capable of storing two frames: a frame corresponding to the frame number. The reason why two frames can be stored will be described later.

粗精位置合わせ処理部22−1、22−2、22−3および22−4は、画像格納用メモリ21−1、21−2、21−3および21-4から読み出した画像を基に、フレーム間における画像のブレを抑制する空間安定化のための位置合わせ処理を実施する。粗精位置合わせ処理部22−1〜22−4は、赤外線撮像器制御部6からのフレームタイミング信号15が入力されるごとに、画像格納用メモリ21−1〜21−4から画像ピラミッドを抽出する。公知の技術において、画像ピラミッドは、高解像度から低解像度まで、解像度を異ならせた複数の画像(適宜、ピラミッド画像と称する)を要素とする階層構造とされている。   The coarse alignment processing units 22-1, 22-2, 22-3 and 22-4 are based on the images read from the image storage memories 21-1, 21-2, 21-3 and 21-4. Alignment processing for space stabilization that suppresses image blur between frames is performed. The coarse alignment processing units 22-1 to 22-4 extract image pyramids from the image storage memories 21-1 to 21-4 each time the frame timing signal 15 is input from the infrared imaging device control unit 6. To do. In the known technology, the image pyramid has a hierarchical structure including a plurality of images (referred to as pyramid images as appropriate) having different resolutions from high resolution to low resolution.

粗精位置合わせ処理部22−1〜22−4は、フレームごとの画像の空間安定化のための補正係数を推定する。粗精位置合わせ処理部22−1〜22−4は、推定された補正係数を用いて、幾何学的な画像補正を行う。   The coarse registration processing units 22-1 to 22-4 estimate correction coefficients for stabilizing the space of the image for each frame. The coarse registration processing units 22-1 to 22-4 perform geometric image correction using the estimated correction coefficient.

補間処理部23−1〜23−4には、粗精位置合わせ処理部22−1〜22−4での位置合わせ処理を経た画像と、画像格納用メモリ21−1〜21-4から読み出した画像とが入力される。補間処理部23−1、23−2、23−3および23−4は、粗精位置合わせ処理部22−1、22−2、22−3および22−4での位置合わせ処理を経た画像に対し、画質向上のための補間処理を実施する。   The interpolation processing units 23-1 to 23-4 read out the images that have undergone the alignment processing in the coarse registration processing units 22-1 to 22-4 and the image storage memories 21-1 to 21-4. An image is input. Interpolation processing units 23-1, 23-2, 23-3, and 23-4 apply the images that have undergone the alignment processing in coarse alignment processing units 22-1, 22-2, 22-3, and 22-4. On the other hand, interpolation processing for improving image quality is performed.

例えば、粗精位置合わせ処理部22−1〜22−4は、アフィン変換と称される公知の手法を用いて、幾何学的な画像補正を行う。アフィン変換は、画像データにおける画素ごとの座標を変換することで、画像を幾何学的に移動、変形させる方式の一つである。粗精位置合わせ処理部22−1〜22−4は、例えば次の式(3)を基に、アフィン変換を実施する。   For example, the coarse registration processing units 22-1 to 22-4 perform geometric image correction using a known method called affine transformation. Affine transformation is one of the methods for geometrically moving and deforming an image by transforming the coordinates of each pixel in the image data. The coarse alignment processing units 22-1 to 22-4 perform affine transformation based on, for example, the following equation (3).

Figure 0006113406
Figure 0006113406

ここで、(x,y)はアフィン変換前の座標、(u,v)はアフィン変換後の座標、a、b、c、d、e、fはアフィン変換係数、とする。   Here, (x, y) are coordinates before affine transformation, (u, v) are coordinates after affine transformation, and a, b, c, d, e, and f are affine transformation coefficients.

画像データにおいて、画素を単位とする座標を定義した場合、座標は整数のみにより表されるのに対し、アフィン変換後の座標は、通常、小数点を伴う。アフィン変換により小数点を伴う座標で指定される位置には濃度値が存在しないこととなるため、変換前に対する解像度の劣化が問題となる。そこで、補間処理部23−1〜23−4は、アフィン変換後の座標における濃度値を補間処理により算出する。   In the image data, when coordinates in units of pixels are defined, the coordinates are represented only by integers, whereas the coordinates after affine transformation are usually accompanied by a decimal point. Since a density value does not exist at a position designated by coordinates with a decimal point by affine transformation, resolution degradation before the conversion becomes a problem. Therefore, the interpolation processing units 23-1 to 23-4 calculate density values at coordinates after the affine transformation by interpolation processing.

補間処理部23−1〜23−4は、例えば、バイリニア補間と称される公知の手法を用いて、アフィン変換後の画像データに対し補間処理を実施する。バイリニア補間では、アフィン変換後の座標軸上の各位置の濃度値を、元の画像にて対応する位置の周囲に位置する四つの画素からの距離に応じた線形補間により求める。   For example, the interpolation processing units 23-1 to 23-4 perform interpolation processing on the image data after affine transformation using a known method called bilinear interpolation. In bilinear interpolation, the density value at each position on the coordinate axis after the affine transformation is obtained by linear interpolation according to the distance from four pixels located around the corresponding position in the original image.

図6は、バイリニア補間について説明する概念図である。座標変換後の、ある座標に対応する原画像の位置が、図6に示すように、画素間の位置P=(u,v)であった場合、原画像上では、かかる位置の輝度値は存在しない。このため、補間処理部23−1〜23−4は、位置Pの周囲の四つの画素P1=(i,j)、P2=(i,j+1)、P3=(i+1,j)およびP4=(i+1,j+1)の輝度値を、各画素から位置Pまでの距離に応じた比率で加算し、位置Pにおける輝度値とする。なお、i=[u]、j=[v]([ ]はガウス記号)、とする。   FIG. 6 is a conceptual diagram illustrating bilinear interpolation. When the position of the original image corresponding to a certain coordinate after the coordinate conversion is the position P = (u, v) between the pixels as shown in FIG. 6, the luminance value at the position on the original image is not exist. For this reason, the interpolation processing units 23-1 to 23-4 have four pixels P1 = (i, j), P2 = (i, j + 1), P3 = (i + 1, j) and P4 = ( The luminance values of i + 1, j + 1) are added at a ratio corresponding to the distance from each pixel to the position P to obtain the luminance value at the position P. Note that i = [u], j = [v] ([] is a Gaussian symbol).

補間処理部23−1〜23−4は、例えば、次の式(4)を用いたバイリニア補間により、位置Pにおける輝度値を求める。
P=(1−Δi)(1−Δj)*P1+(1−Δi)Δj*P2+Δi(1−Δj)*P3+ΔiΔj*P4 ・・・(4)
For example, the interpolation processing units 23-1 to 23-4 obtain the luminance value at the position P by bilinear interpolation using the following equation (4).
P = (1−Δi) (1−Δj) * P1 + (1−Δi) Δj * P2 + Δi (1−Δj) * P3 + ΔiΔj * P4 (4)

なお、式(4)において、「P」、「P1」、「P2」、「P3」および「P4」の各項は、それぞれ、上述の位置P、画素P1、P2、P3およびP4における輝度値とする。また、Δi=u−i、Δj=v−j、とする。補間処理部23−1〜23−4におけるこのような補間処理により、空間安定化処理部3は、アフィン変換前と同程度の解像度を持つ赤外線画像12−1〜12−4を得る。   In Expression (4), the terms “P”, “P1”, “P2”, “P3”, and “P4” are the luminance values at the position P and the pixels P1, P2, P3, and P4, respectively. And Further, Δi = u−i and Δj = v−j. By such interpolation processing in the interpolation processing units 23-1 to 23-4, the space stabilization processing unit 3 obtains infrared images 12-1 to 12-4 having the same resolution as that before the affine transformation.

次に、空間安定化処理部3の動作について説明する。赤外線撮像器2−1〜2−4から入力される赤外線画像11−1〜11−4は、画像格納用メモリ21−1〜21−4に一旦格納される。粗精位置合わせ処理部22−1〜22−4は、例えば、反復勾配法と称される公知の手法を用いて、各画像の空間安定化のためのアフィン変換係数を算出する。   Next, the operation of the space stabilization processing unit 3 will be described. Infrared images 11-1 to 11-4 input from the infrared imaging devices 2-1 to 2-4 are temporarily stored in the image storage memories 21-1 to 21-4. The coarse registration processing units 22-1 to 22-4 calculate an affine transformation coefficient for spatial stabilization of each image, for example, using a known method called an iterative gradient method.

反復勾配法によると、粗精位置合わせ処理部22−1〜22−4は、連続する二つのフレームにつき、それぞれ画像ピラミッドを作成し、比較する。粗精位置合わせ処理部22−1〜22−4は、低い解像度のピラミッド画像同士の相関からアフィン変換係数を求め、解像度が高いピラミッド画像同士の相関を順次評価することでアフィン変換係数を修正していく。   According to the iterative gradient method, the coarse registration processing units 22-1 to 22-4 create and compare image pyramids for two consecutive frames. The coarse alignment processing units 22-1 to 22-4 obtain the affine transformation coefficients from the correlations between the low-resolution pyramid images, and correct the affine transformation coefficients by sequentially evaluating the correlations between the high-resolution pyramid images. To go.

図7は、画像ピラミッドを使用する位置合わせ処理について説明する概念図である。ピラミッド画像は、例えば、画像サイズ(解像度)を段階的にレベル0から4(レベル0:640×480、レベル1:320×480、レベル2:160×240、レベル3:80×120、レベル4:40×60)として異ならせて生成される。粗精位置合わせ処理部22−1〜22−4は、例えば、レベル2から4におけるピラミッド画像を順次生成し、フレーム間における動き検出を行う。   FIG. 7 is a conceptual diagram illustrating an alignment process using an image pyramid. For example, in the pyramid image, the image size (resolution) is gradually changed from level 0 to 4 (level 0: 640 × 480, level 1: 320 × 480, level 2: 160 × 240, level 3: 80 × 120, level 4). : 40 × 60). The coarse registration processing units 22-1 to 22-4 sequentially generate pyramid images at levels 2 to 4, for example, and perform motion detection between frames.

粗精位置合わせ処理部22−1〜22−4は、画像格納用メモリ21−1〜21−4に格納されている赤外線画像11−1〜11−4から、各解像度のレベルに応じて画素を間引いた上で画像データを読み出し、画像ピラミッドを生成する。上述のように、画像格納用メモリ21−1〜21−4は、赤外線画像11−1〜11−4について、二つのフレームを格納する。粗精位置合わせ処理部22−1〜22−4は、画像格納用メモリ21−1〜21−4に格納された双方のフレームについて、画像ピラミッドを生成する。ここでは、フレームI(t−1)及びI(t)についての画像ピラミッドを生成し、動き抽出を行う場合を例とする。   The coarse alignment processing units 22-1 to 22-4 select pixels from the infrared images 11-1 to 11-4 stored in the image storage memories 21-1 to 21-4 according to the level of each resolution. The image data is read out after thinning out and an image pyramid is generated. As described above, the image storage memories 21-1 to 21-4 store two frames for the infrared images 11-1 to 11-4. The coarse registration processing units 22-1 to 22-4 generate image pyramids for both frames stored in the image storage memories 21-1 to 21-4. Here, as an example, image pyramids for frames I (t−1) and I (t) are generated and motion extraction is performed.

粗精位置合わせ処理部22−1〜22−4は、例えば、オプティカルフローと称される公知の手法において、拘束方程式である次の式(5)から求められる誤差Ecが最小となるような相関関係を基に、フレーム間の画像の動きを推定する。
Ec=Σ(P+P+I ・・・(5)
The coarse alignment processing units 22-1 to 22-4, for example, in a known method called optical flow, a correlation that minimizes the error Ec obtained from the following equation (5) that is a constraint equation. Based on the relationship, image motion between frames is estimated.
Ec = Σ (P x I x + P y I y + I t ) 2 (5)

なお、PはX方向についての画像の変位(P=a+bx+cy)、PはY方向についての画像の変位(P=d+ex+fy)、a、b、c、d、e、fはアフィン変換係数、とする。IおよびIは空間微分であって、Iは画像のX方向において隣接する画素同士の輝度値の差分、Iは画像のY方向において隣接する画素間における輝度値の差分、を表す。Iは時間微分であって、画像のフレーム間における輝度値の差分を表す。 P x is the displacement of the image in the X direction (P x = a + bx + cy), P y is the displacement of the image in the Y direction (P y = d + ex + fy), a, b, c, d, e, and f are affine transformations. Coefficient. I x and I y are spatial differentials, where I x represents a difference in luminance value between adjacent pixels in the X direction of the image, and I y represents a difference in luminance value between adjacent pixels in the Y direction of the image. . I t is a time derivative, representing the difference in luminance value between image frames.

粗精位置合わせ処理部22−1〜22−4は、例えば、次の式(6)の方程式を解くことにより、アフィン変換係数を算出し、動き検出結果に見合ったアフィン変換を行う。これにより、空間安定化処理部3は、フレーム間の画像のブレを抑制させ、空間安定化を図ることができる。   The coarse alignment processing units 22-1 to 22-4 calculate an affine transformation coefficient by solving the following equation (6), for example, and perform affine transformation corresponding to the motion detection result. Thereby, the space stabilization process part 3 can suppress the blurring of the image between frames, and can aim at space stabilization.

Figure 0006113406
Figure 0006113406

画像ピラミッドの階層構造において、画像サイズが小さくなるにしたがって、画像上の動きも小さくなる。低解像度である所定のピラミッド画像(例えばレベル3)の特徴点同士をオプティカルフローで推定し、求めたアフィン変換係数を初期値p0とする。次の階層(レベル2)では、アフィン変換係数を初期値p0としたアフィン変換及び動き抽出を経て、アフィン変換係数の補正量Δp1を得る。   In the hierarchical structure of the image pyramid, the movement on the image decreases as the image size decreases. The feature points of a predetermined pyramid image (for example, level 3) having a low resolution are estimated by optical flow, and the obtained affine transformation coefficient is set as an initial value p0. In the next hierarchy (level 2), an affine transformation coefficient correction amount Δp1 is obtained through affine transformation and motion extraction with the affine transformation coefficient as an initial value p0.

次の階層(レベル1)では、初期値p0に補正量Δp1が加算された値p1を適用したアフィン変換及び動き抽出を経て、アフィン変換係数の補正量Δp2を得る。最後に、レベル0では、値p1に補正量Δp2が加算された値p2を適用したアフィン変換及び動き抽出を経て、アフィン変換係数p3を得る。   In the next hierarchy (level 1), an affine transformation coefficient correction amount Δp2 is obtained through affine transformation and motion extraction using a value p1 obtained by adding the correction amount Δp1 to the initial value p0. Finally, at level 0, an affine transformation coefficient p3 is obtained through affine transformation and motion extraction using a value p2 obtained by adding the correction amount Δp2 to the value p1.

このように、粗精位置合わせ処理部22−1〜22−4は、アフィン変換係数を算出する当初において、解像度が低い画像同士の演算によりアフィン変換係数の初期値を求めてから、漸次解像度を高めながらアフィン変換係数を修正する。原画像のサイズであるレベル0まで処理を繰り返すことで、フローの急激な変化に対する信頼性を向上させる。これにより、粗精位置合わせ処理部22−1〜22−4は、高精度かつ高速な位置合わせ処理を実現することが可能となる。なお、各レベルについて処理を繰り返す回数の上限は、例えば、相関値の収束までの応答における挙動等を考慮し、4回としている。   As described above, at the initial stage of calculating the affine transformation coefficients, the coarse registration processing units 22-1 to 22-4 obtain the initial value of the affine transformation coefficient by calculating between the images with low resolution, and then gradually increase the resolution. Modify the affine transformation coefficient while increasing. By repeating the processing up to level 0, which is the size of the original image, the reliability against a sudden change in the flow is improved. As a result, the coarse / fine alignment processing units 22-1 to 22-4 can realize high-accuracy and high-speed alignment processing. Note that the upper limit of the number of times the process is repeated for each level is, for example, four times in consideration of the behavior in the response until the correlation value converges.

次に、空間安定化処理部3の処理がフレーム期間(例えば、33.3ms)に収まる理由を説明する。上記の式(6)において、アフィン変換係数は、行列の各要素における18種類の積和演算により得られる。積和演算回路は、乗算器および加算器を用いて構成できる。例えば、空間安定化処理部3を構成するFPGA(Field-Programmable Gate Array)の動作周波数を100MHzとすれば、乗算器および加算器による処理は動作周期内に収まる。   Next, the reason why the processing of the space stabilization processing unit 3 falls within the frame period (for example, 33.3 ms) will be described. In the above equation (6), the affine transformation coefficient is obtained by 18 kinds of product-sum operations in each element of the matrix. The product-sum operation circuit can be configured using a multiplier and an adder. For example, if the operation frequency of an FPGA (Field-Programmable Gate Array) constituting the space stabilization processing unit 3 is 100 MHz, the processing by the multiplier and the adder falls within the operation cycle.

このとき、1画素のデータを1クロック周期で処理することから、アフィン変換係数の推定にかかる時間は、(各レベルのピラミッド画像のサイズ)×(繰り返し回数)÷(動作周波数)を計算して求められる。   At this time, since the data of one pixel is processed in one clock cycle, the time required for estimating the affine transformation coefficient is calculated by (the pyramid image size of each level) × (number of repetitions) ÷ (operation frequency). Desired.

例えば、上述のレベル2のピラミッド画像に対して、
160×240(画素)×4(回)÷(100×10−6)(s−1)≒1.54ms
レベル3のピラミッド画像に対して、
80×120(画素)×4(回)÷(100×10−6)(s−1)≒0.38ms
レベル4のピラミッド画像に対して、
40×60(画素)×4(回)÷(100×10−6)(s−1)≒0.096ms
となる。これらを合計すると、アフィン変換係数の推定に要する時間は、およそ2.02msとなる。これと同様に、アフィン変換に要する時間は、
640×480(画素)÷(100×10−6)(s−1)≒3.07ms
となる。
For example, for the above level 2 pyramid image,
160 × 240 (pixels) × 4 (times) ÷ (100 × 10 −6 ) (s −1 ) ≈1.54 ms
For level 3 pyramid images,
80 × 120 (pixels) × 4 (times) ÷ (100 × 10 −6 ) (s −1 ) ≈0.38 ms
For level 4 pyramid images,
40 × 60 (pixels) × 4 (times) ÷ (100 × 10 −6 ) (s −1 ) ≈0.096 ms
It becomes. When these are added together, the time required for estimating the affine transformation coefficient is approximately 2.02 ms. Similarly, the time required for affine transformation is
640 × 480 (pixels) ÷ (100 × 10 −6 ) (s −1 ) ≈3.07 ms
It becomes.

空間安定化処理部3の処理時間は、アフィン変換係数の推定にかかる時間とアフィン変換にかかる時間との和であることから、この例ではおよそ5.1msとなる。以上により、空間安定化処理部3での処理は、オーバヘッドを考慮しても、フレーム期間である33.3msに十分収めることができる。これにより、空間安定化処理部3は、空間安定化処理をリアルタイムで実施することができる。赤外線目標検出装置1は、リアルタイムでの目標検出が可能となる。   The processing time of the space stabilization processing unit 3 is the sum of the time required for estimating the affine transformation coefficient and the time required for the affine transformation, and is approximately 5.1 ms in this example. As described above, the processing in the space stabilization processing unit 3 can be sufficiently accommodated in the frame period of 33.3 ms even when overhead is taken into consideration. Thereby, the space stabilization process part 3 can implement a space stabilization process in real time. The infrared target detection apparatus 1 can detect a target in real time.

実施の形態2.
図8は、本発明の実施の形態2にかかる赤外線目標検出装置の概略構成を示すブロック図である。実施の形態1と同一の部分には同一の符号を付し、重複する説明を適宜省略する。実施の形態2にかかる赤外線目標検出装置30は、実施の形態1にかかる赤外線目標検出装置1(図1参照)の構成にパノラマ画像合成部31を追加したものに相当する。
Embodiment 2. FIG.
FIG. 8 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the second embodiment of the present invention. The same parts as those in the first embodiment are denoted by the same reference numerals, and repeated description will be omitted as appropriate. The infrared target detection device 30 according to the second embodiment corresponds to a configuration in which a panoramic image synthesis unit 31 is added to the configuration of the infrared target detection device 1 (see FIG. 1) according to the first embodiment.

パノラマ画像合成部31は、複数の赤外線画像12−1、12−2、12−3および12−4を貼り合わせ、パノラマ画像を合成する。複数の赤外線画像12−1、12−2、12−3および12−4は、複数の赤外線撮像器2−1〜2−4により撮像され、空間安定化処理部3での安定処理化処理を経て、パノラマ画像合成部31へ入力される。赤外線撮像器制御部6は、パノラマ画像合成部31にフレームタイミング信号15を与える。パノラマ画像合成部31は、フレームレートに同期して動作する。   The panoramic image synthesis unit 31 combines a plurality of infrared images 12-1, 12-2, 12-3, and 12-4 to synthesize a panoramic image. The plurality of infrared images 12-1, 12-2, 12-3, and 12-4 are captured by the plurality of infrared imaging devices 2-1 to 2-4, and the stabilization process in the space stabilization processing unit 3 is performed. Then, it is input to the panoramic image composition unit 31. The infrared imager control unit 6 gives the frame timing signal 15 to the panoramic image synthesis unit 31. The panoramic image composition unit 31 operates in synchronization with the frame rate.

パノラマ画像合成部31は、各赤外線画像12−1〜12−4の輝度の相関を計測し、相関の高い位置にそれぞれの赤外線画像12−1〜12−4を貼り合わせ、パノラマ画像を生成する。パノラマ画像合成部31は、例えば、表示装置である液晶モニタ(図示省略)での表示のための再生成がなされたパノラマ画像32を出力する。赤外線目標検出装置30は、パノラマ画像合成部31からのパノラマ画像32を出力する。   The panoramic image composition unit 31 measures the correlation of the luminance of each infrared image 12-1 to 12-4, and pastes each infrared image 12-1 to 12-4 at a position with high correlation to generate a panoramic image. . The panorama image synthesis unit 31 outputs, for example, a panorama image 32 that has been regenerated for display on a liquid crystal monitor (not shown) that is a display device. The infrared target detection device 30 outputs the panorama image 32 from the panorama image synthesis unit 31.

次に、パノラマ画像合成部31の動作を説明する。図9は、パノラマ画像合成部におけるパノラマ画像の生成について説明する図である。ここでは、赤外線画像12−1〜12−4の画像サイズはVGA(640×480画素)とする。   Next, the operation of the panoramic image composition unit 31 will be described. FIG. 9 is a diagram for explaining generation of a panoramic image in the panoramic image synthesis unit. Here, the image size of the infrared images 12-1 to 12-4 is VGA (640 × 480 pixels).

例えば、赤外線画像12−1を基準画像とし、赤外線画像12−2を、基準画像へ貼り合わせる、貼り合わせ画像とする。パノラマ画像合成部31は、赤外線画像12−1に対し、赤外線画像12−2の貼り合わせを開始する、貼り合わせ指示位置を指定する。パノラマ画像合成部31は、図中ハッチングを付して示す赤外線画像12−1および12−2の重なり領域33のうち左上端部を基点として、重なり領域33内の赤外線画像12−1の画素と赤外線画像12−2の画素とのラスタスキャンを実施する。パノラマ画像合成部31は、重なり領域33における赤外線画像12−1および12−2の輝度相関を、例えば、次の式(7)によって計測する。   For example, the infrared image 12-1 is used as a reference image, and the infrared image 12-2 is used as a combined image that is combined with the reference image. The panoramic image composition unit 31 designates a pasting instruction position for starting the pasting of the infrared image 12-2 with respect to the infrared image 12-1. The panoramic image composition unit 31 uses the pixels of the infrared image 12-1 in the overlapping region 33 as the base point in the overlapping region 33 of the infrared images 12-1 and 12-2 shown by hatching in the figure. A raster scan with the pixels of the infrared image 12-2 is performed. The panoramic image composition unit 31 measures the luminance correlation between the infrared images 12-1 and 12-2 in the overlapping region 33, for example, using the following equation (7).

Figure 0006113406
Figure 0006113406

ここで、Sは輝度相関の評価値、(X1,Y1)は貼り合わせ指示位置の座標、(x、y)は重なり領域33における基点の座標、RはX方向において重なり領域33に含まれる画素数、RはY方向において重なり領域33に含まれる画素数、IおよびIはそれぞれ赤外線画像12−1および12−2の輝度値、とする。 Here, S is the evaluation value of the luminance correlation, (X1, Y1) is the coordinates of the bonding instruction position, (x, y) is the coordinates of the base point in the overlapping region 33, and Rx is included in the overlapping region 33 in the X direction. The number of pixels, R y is the number of pixels included in the overlapping region 33 in the Y direction, and I 1 and I 2 are the luminance values of the infrared images 12-1 and 12-2, respectively.

パノラマ画像合成部31は、貼り合わせ指示位置(X1,Y1)を基準として、X方向およびY方向における、赤外線画像12−2の正負の可動範囲E、Eを定める。パノラマ画像合成部31は、X方向についてX1−EからX1+Eの範囲、Y方向についてY1−EからY1+Eの範囲において、赤外線画像12−2を移動させる。 Panorama image combining unit 31, based instruction position (X1, Y1) bonding, in the X and Y directions, positive and negative of the movable range E x infrared images 12-2, define the E y. Panorama image combining unit 31, the range of X1-E x of X1 + E x in the X direction, in the range of Y1 + E y from the Y-direction Y1-E y, moving the infrared image 12-2.

パノラマ画像合成部31は、赤外線画像12−2を画素単位分移動させるごとに、輝度相関を計測する。パノラマ画像合成部31は、赤外線画像12−2の移動および輝度相関の計測を、可動範囲内の全ての画素位置について実施する。以上により、パノラマ画像合成部31は、可動範囲内における全ての画素を貼り合わせ位置とした際の重なり領域33における赤外線画像12−1および12−2の輝度の相関を計測する。   The panorama image composition unit 31 measures the luminance correlation each time the infrared image 12-2 is moved by the pixel unit. The panoramic image synthesis unit 31 performs the movement of the infrared image 12-2 and the measurement of the luminance correlation for all the pixel positions within the movable range. As described above, the panoramic image synthesis unit 31 measures the correlation between the luminances of the infrared images 12-1 and 12-2 in the overlapping region 33 when all the pixels in the movable range are set as the bonding positions.

式(7)は、輝度相関を評価するための式の一例であり、SSD(Sum of Squared Difference)と称される公知の手法を用いたものである。パノラマ画像合成部31は、輝度相関を評価する他の公知の手法、例えば、SAD(Sum of Absolute Difference)やNCC(Normalized Cross Correlation)を用いても良い。   Expression (7) is an example of an expression for evaluating the luminance correlation, and uses a known technique called SSD (Sum of Squared Difference). The panoramic image synthesis unit 31 may use another known method for evaluating the luminance correlation, for example, SAD (Sum of Absolute Difference) or NCC (Normalized Cross Correlation).

パノラマ画像合成部31は、輝度相関の計測結果のうち、最も計測値の高い貼り合わせ位置を、重なり領域33における赤外線画像12−1および12−2の輝度の相関があるとして、その位置に赤外線画像12−2を貼り合わせる。   The panoramic image composition unit 31 assumes that the bonding position having the highest measurement value among the luminance correlation measurement results is correlated with the luminance of the infrared images 12-1 and 12-2 in the overlapping region 33, and the infrared image is detected at that position. The image 12-2 is pasted.

パノラマ画像合成部31は、赤外線画像12−2を貼り合わせる際において、貼り合わせの境界部分について輝度の連続性を持たせるための処理を実施する。例えば、重なり領域33において基準画像と貼り合わせ画像とで同じ位置となる画素について、基準画素の輝度値と貼り合わせ画像の輝度値との平均を、パノラマ画像の輝度値として採用する。この方法によって、基準画像と貼り合わせ画像との境界部分は平滑化される。   When the infrared image 12-2 is pasted, the panoramic image composition unit 31 performs a process for providing brightness continuity at the boundary portion of the pasting. For example, the average of the luminance value of the reference pixel and the luminance value of the combined image is adopted as the luminance value of the panoramic image for the pixels at the same position in the overlapping region 33 in the reference image and the combined image. By this method, the boundary portion between the reference image and the combined image is smoothed.

パノラマ画像合成部31は、赤外線画像12−2を貼り合わせる場合と同様の手順により、赤外線画像12−3および12−4を貼り合わせる。赤外線画像12−3を貼り合わせ画像とする際は、赤外線画像12−2を基準画像とする。赤外線画像12−4を貼り合わせ画像とする際は、赤外線画像12−3を基準画像とする。   The panorama image combining unit 31 combines the infrared images 12-3 and 12-4 by the same procedure as that for combining the infrared image 12-2. When the infrared image 12-3 is used as a composite image, the infrared image 12-2 is used as a reference image. When the infrared image 12-4 is used as a composite image, the infrared image 12-3 is used as a reference image.

以上により、パノラマ画像合成部31は、赤外線画像12−1〜12−4を用いて、パノラマ画像を生成する。パノラマ画像合成部31は、フレームタイミング信号15に同期してパノラマ画像を合成することで、フレーム期間おきにパノラマ画像を更新する。   As described above, the panoramic image synthesis unit 31 generates a panoramic image using the infrared images 12-1 to 12-4. The panoramic image combining unit 31 updates the panoramic image every frame period by synthesizing the panoramic image in synchronization with the frame timing signal 15.

次に、液晶モニタ等での表示のための、パノラマ画像の再生成について説明する。赤外線画像12−1〜12−4の画像サイズをVGA(640×480画素)とすると、パノラマ画像のX方向の最大画素数は、640×4―(3×2×E)となる。Eを例えば10画素とした場合、パノラマ画像のX方向の最大画素数は、640×4―(3×2×10)=2500となる。パノラマ画像のY方向の最大画素数は、480+(2×E)となる。Eを例えば10画素とした場合、パノラマ画像のY方向の最大画素数は、(480+(2×10)=500となる。 Next, regeneration of a panoramic image for display on a liquid crystal monitor or the like will be described. If the image size of the infrared images 12-1 to 12-4 is VGA (640 × 480 pixels), the maximum number of pixels in the X direction of the panoramic image is 640 × 4- (3 × 2 × E x ). When Ex is 10 pixels, for example, the maximum number of pixels in the X direction of the panoramic image is 640 × 4− (3 × 2 × 10) = 2500. The maximum number of pixels in the Y direction of the panoramic image is 480+ (2 × E y ). When the E y for example, 10 pixels, the maximum number of pixels in the Y direction of the panoramic image becomes (480+ (2 × 10) = 500.

例えば、SXGAサイズ(1280×1024画素)の液晶モニタでは、赤外線画像12−1および12−2の合成画像と、赤外線画像12−3および12−4の合成画像とを、上下に配置した場合に、画面のほぼ全体を用いた表示が可能となる。パノラマ画像合成部31は、赤外線画像12−1および12−2の合成画像と、赤外線画像12−3および12−4の合成画像とが上下に配されたパノラマ画像32を再生成する。   For example, in a liquid crystal monitor of SXGA size (1280 × 1024 pixels), when a composite image of infrared images 12-1 and 12-2 and a composite image of infrared images 12-3 and 12-4 are arranged vertically Display using almost the entire screen is possible. The panoramic image composition unit 31 regenerates a panoramic image 32 in which the composite image of the infrared images 12-1 and 12-2 and the composite image of the infrared images 12-3 and 12-4 are arranged vertically.

パノラマ画像32のうち上半分に配される赤外線画像12−1および12−2の合成画像は、換言すると、方位角0度から180度の方位画像に相当する。パノラマ画像32のうち下半分に配される赤外線画像12−3および12−4の合成画像は、換言すると、方位角180度から360度の方位画像に相当する。   In other words, the combined image of the infrared images 12-1 and 12-2 arranged in the upper half of the panoramic image 32 corresponds to an azimuth image having an azimuth angle of 0 degrees to 180 degrees. In other words, the combined image of the infrared images 12-3 and 12-4 arranged in the lower half of the panoramic image 32 corresponds to an azimuth image having an azimuth angle of 180 degrees to 360 degrees.

パノラマ画像合成部31は、二つに分割された方位画像を上下に配するパノラマ画像32を再生成することで、表示されるパノラマ画像32の画素分解能の劣化を低減可能とし、パノラマ画像32を効果的に表示させることができる。パノラマ画像合成部31は、フレームタイミング信号15に同期してパノラマ画像32の再生成を実施することで、フレーム期間おきにパノラマ画像32を更新する。これにより、パノラマ画像合成部31は、リアルタイムでのパノラマ画像32の合成が可能となる。   The panorama image synthesis unit 31 regenerates the panorama image 32 in which the two divided orientation images are arranged up and down, thereby reducing deterioration in pixel resolution of the displayed panorama image 32. It can be displayed effectively. The panorama image composition unit 31 updates the panorama image 32 every frame period by regenerating the panorama image 32 in synchronization with the frame timing signal 15. Thereby, the panoramic image synthesis unit 31 can synthesize the panoramic image 32 in real time.

赤外線目標検出装置30により、各赤外線画像12−1〜12−4の相関を図り、赤外線画像12−1〜12−4同士を貼り合わせたパノラマ画像32を生成し表示可能とすることで、オペレータは、リアルタイムで、全方位画像における目標位置の目視確認ができる。   The infrared target detection device 30 correlates the infrared images 12-1 to 12-4 and generates and displays a panoramic image 32 in which the infrared images 12-1 to 12-4 are pasted together. Can visually check the target position in the omnidirectional image in real time.

実施の形態3.
図10は、本発明の実施の形態3にかかる赤外線目標検出装置の概略構成を示すブロック図である。実施の形態1および2と同一の部分には同一の符号を付し、重複する説明を適宜省略する。
Embodiment 3 FIG.
FIG. 10 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the third embodiment of the present invention. The same parts as those in Embodiments 1 and 2 are denoted by the same reference numerals, and repeated description is omitted as appropriate.

実施の形態3にかかる赤外線目標検出装置40は、実施の形態2にかかる赤外線目標検出装置30(図8参照)の構成にシンボル重畳部41を追加したものに相当する。また、本実施の形態において、パノラマ画像合成部31は、パノラマ画像32に加えて、赤外線画像12−2、12−3および12−4の貼り合わせ位置情報42−1、42−2および42−3を出力する。   The infrared target detection device 40 according to the third embodiment corresponds to a configuration in which a symbol superimposing unit 41 is added to the configuration of the infrared target detection device 30 (see FIG. 8) according to the second embodiment. In the present embodiment, the panorama image composition unit 31 adds the position information 42-1, 42-2 and 42- of the infrared images 12-2, 12-3 and 12-4 in addition to the panorama image 32. 3 is output.

シンボル重畳部41は、貼り合わせ位置情報42−1〜42−3、および特徴量演算回路5からの目標特徴量16に応じて、パノラマ画像32にシンボルを重畳する。シンボルは、検出された目標を表す図形とする。赤外線撮像器制御部6は、シンボル重畳部41にフレームタイミング信号15を与える。シンボル重畳部41は、フレームレートに同期して動作する。シンボル重畳部41は、シンボルが重畳されたパノラマ画像32を出力する。赤外線目標検出装置40は、シンボル重畳部41からのパノラマ画像32を出力する。   The symbol superimposing unit 41 superimposes a symbol on the panoramic image 32 according to the bonding position information 42-1 to 42-3 and the target feature amount 16 from the feature amount calculation circuit 5. The symbol is a graphic representing the detected target. The infrared imager control unit 6 gives the frame timing signal 15 to the symbol superimposing unit 41. The symbol superimposing unit 41 operates in synchronization with the frame rate. The symbol superimposing unit 41 outputs a panoramic image 32 on which symbols are superimposed. The infrared target detection device 40 outputs the panoramic image 32 from the symbol superimposing unit 41.

次に、シンボル重畳部41の動作を説明する。図11は、シンボルが重畳されたパノラマ画像の例を示す図である。シンボル重畳部41は、赤外線画像12−1〜12−4から合成されたパノラマ画像32に、シンボル43およびスケールパターン44を重畳する。   Next, the operation of the symbol superimposing unit 41 will be described. FIG. 11 is a diagram illustrating an example of a panoramic image on which symbols are superimposed. The symbol superimposing unit 41 superimposes the symbol 43 and the scale pattern 44 on the panoramic image 32 synthesized from the infrared images 12-1 to 12-4.

スケールパターン44は、パノラマ画像32の方位および仰角を表すスケールである。スケールパターン44の横軸は方位角、縦軸は仰角をそれぞれ表している。スケールパターン44は、例えば、シンボル重畳部41を構成するFPGAの内部メモリに格納されている。シンボル重畳部41は、当該内部メモリからスケールパターン44を読み出し、パノラマ画像32の所定位置に重畳させる。   The scale pattern 44 is a scale that represents the azimuth and elevation angle of the panoramic image 32. The horizontal axis of the scale pattern 44 represents the azimuth angle, and the vertical axis represents the elevation angle. The scale pattern 44 is stored in, for example, an internal memory of the FPGA that constitutes the symbol superimposing unit 41. The symbol superimposing unit 41 reads the scale pattern 44 from the internal memory and superimposes it on a predetermined position of the panoramic image 32.

シンボル43は、例えば、正方形の外郭をなすものとする。正方形の中心位置は、目標の重心位置を表す。正方形の面積は、目標の面積を表す。シンボル重畳部41は、特徴量演算回路5からの目標特徴量16により、目標の重心位置および面積を把握する。シンボル重畳部41は、把握した重心位置を中心とし、面積に応じてサイズが調整されたシンボル43を生成する。   The symbol 43 has, for example, a square outline. The center position of the square represents the target center of gravity position. The square area represents the target area. The symbol superimposing unit 41 grasps the target center-of-gravity position and area based on the target feature amount 16 from the feature amount calculation circuit 5. The symbol superimposing unit 41 generates a symbol 43 centered on the grasped center of gravity position and having a size adjusted according to the area.

シンボル重畳部41は、パノラマ画像合成部31からの貼り合わせ位置情報42−1〜42−3に応じて、パノラマ画像32上でのシンボル43の位置を求める。パノラマ画像32の座標系と、特徴量演算回路5から出力される目標の重心位置の座標系とは、定義が異なる。シンボル重畳部41は、目標の重心位置を、パノラマ画像32の座標系に適合するように変換する。   The symbol superimposing unit 41 obtains the position of the symbol 43 on the panoramic image 32 according to the pasting position information 42-1 to 42-3 from the panoramic image synthesizing unit 31. The definition of the coordinate system of the panoramic image 32 and the coordinate system of the target barycentric position output from the feature amount calculation circuit 5 are different. The symbol superimposing unit 41 converts the target center-of-gravity position so as to conform to the coordinate system of the panoramic image 32.

図12は、パノラマ画像の座標系と、特徴量演算回路から出力される目標の重心位置の座標系とについて説明する図である。ここでは、目標の重心位置の座標系が、赤外線画像12−2の座標系である場合を例とする。パノラマ画像32の座標系は、原点Oを基準として定義される。目標の重心位置の座標系は、原点O’を基準として定義される。シンボル重畳部41は、このような座標系の定義の違いを解消するように、目標の重心位置の座標を変換する。   FIG. 12 is a diagram for explaining the coordinate system of the panoramic image and the coordinate system of the target center-of-gravity position output from the feature amount calculation circuit. Here, a case where the coordinate system of the target center-of-gravity position is the coordinate system of the infrared image 12-2 is taken as an example. The coordinate system of the panoramic image 32 is defined with the origin O as a reference. The coordinate system of the target center-of-gravity position is defined with reference to the origin O ′. The symbol superimposing unit 41 converts the coordinates of the target barycentric position so as to eliminate such a difference in the definition of the coordinate system.

シンボル重畳部41は、フレーム期間おきに更新される目標特徴量16および貼り合わせ位置情報42−1〜42−3に応じて、フレーム期間おきにシンボル43を更新する。これにより、シンボル重畳部41は、検出された目標を表すシンボル43を、リアルタイムで重畳させることが可能となる。   The symbol superimposing unit 41 updates the symbol 43 every frame period in accordance with the target feature quantity 16 and the bonding position information 42-1 to 42-3 updated every frame period. Thereby, the symbol superimposing unit 41 can superimpose the symbol 43 representing the detected target in real time.

赤外線目標検出装置40により、パノラマ画像32にシンボル43を重畳し表示可能とすることで、オペレータは、リアルタイムで、目標位置および特徴量の容易な目視確認ができる。   By enabling the infrared target detection device 40 to display the symbol 43 superimposed on the panoramic image 32, the operator can easily visually check the target position and the feature amount in real time.

なお、シンボル43の形状は、本実施の形態で説明する正方形である場合に限られず、適宜変更可能である。シンボル43は、目標について重心位置および面積以外に、他の特徴量を表示するものとしても良い。   The shape of the symbol 43 is not limited to the square shape described in the present embodiment, and can be changed as appropriate. The symbol 43 may display other feature amounts in addition to the center of gravity position and area for the target.

1、30、40 赤外線目標検出装置
2−1、2−2、2−3、2−4赤外線撮像器
3 空間安定化処理部
4 目標検出処理部
5 特徴量演算回路
6 赤外線撮像器制御部
10 赤外線
11−1、11−2、11−3、11−4 赤外線画像
12−1、12−2、12−3、12−4 赤外線画像
13−1、13−2、13−3、13−4 二値画像
14−1、14−2、14−3、14−4 撮像指令
15 フレームタイミング信号
16 目標特徴量
17−1、17−2、17−3、17−4 撮像視野範囲
21−1、21−2、21−3、21−4 画像格納用メモリ
22−1、22−2、22−3、22-4 粗精位置合わせ処理部
23−1、23−2、23−3、23−4 補間処理部
31 パノラマ画像合成部
32 パノラマ画像
33 重なり領域
41 シンボル重畳部
42−1、42−2、42−3 貼り合わせ位置情報
43 シンボル
44 スケールパターン
DESCRIPTION OF SYMBOLS 1, 30, 40 Infrared target detection apparatus 2-1, 2-2, 2-3, 2-4 infrared imaging device 3 Spatial stabilization processing part 4 Target detection processing part 5 Feature-value calculation circuit 6 Infrared imaging device control part 10 Infrared images 11-1, 11-2, 11-3, 11-4 Infrared images 12-1, 12-2, 12-3, 12-4 Infrared images 13-1, 13-2, 13-3, 13-4 Binary image 14-1, 14-2, 14-3, 14-4 Imaging command 15 Frame timing signal 16 Target feature 17-1, 17-2, 17-3, 17-4 Imaging field of view 21-1, 21-2, 21-3, 21-4 Image storage memory 22-1, 22-2, 22-3, 22-4 Coarse alignment processing unit 23-1, 23-2, 23-3, 23- 4 Interpolation Processing Unit 31 Panorama Image Composition Unit 32 Panorama Image 33 Overlap Area 41 symbol superimposing unit 42-1,42-2,42-3 bonding position information 43 symbol 44 scale pattern

Claims (3)

互いの視野を組み合わせて全方位方向を撮像可能に配置され、集光した赤外線を検出して赤外線画像を撮像する複数の赤外線撮像器と、
前記赤外線撮像器の変位による前記赤外線画像の動きを補正する空間安定化処理を実施する空間安定化処理部と、
前記空間安定化処理部での前記空間安定化処理を経た前記赤外線画像に対し、画素ごとの輝度値の二値化処理を実施し、前記赤外線画像から目標を検出する目標検出処理部と、
前記目標検出処理部での前記二値化処理により取得された二値画像を基に、前記目標の特徴量を算出する特徴量演算部と、を有し、
前記空間安定化処理部前記目標検出処理部および前記特徴量演算部には、前記赤外線画像のフレームレートに同期させたフレームタイミング信号が供給され、
前記空間安定化処理部は、前記フレームタイミング信号の周期内において1フレーム当たりの前記空間安定化処理を実施し、
前記目標検出処理部は、前記フレームタイミング信号の周期内において1フレーム当たりの前記二値化処理を実施し、
前記特徴量演算部は、前記フレームレートに同期して前記特徴量を算出することを特徴とする赤外線目標検出装置。
A plurality of infrared imagers that are arranged so as to be able to image all directions by combining each other's field of view, detect the collected infrared rays, and image infrared images;
A space stabilization processing unit that performs a space stabilization process for correcting the movement of the infrared image due to the displacement of the infrared imaging device;
A target detection processing unit that performs a binarization process of a luminance value for each pixel on the infrared image that has undergone the spatial stabilization process in the spatial stabilization processing unit, and detects a target from the infrared image;
A feature amount calculation unit that calculates the target feature amount based on the binary image acquired by the binarization processing in the target detection processing unit,
A frame timing signal synchronized with a frame rate of the infrared image is supplied to the space stabilization processing unit , the target detection processing unit, and the feature amount calculation unit ,
The space stabilization processing unit performs the space stabilization processing per frame within a cycle of the frame timing signal,
The target detection processing unit performs the binarization processing per frame within a cycle of the frame timing signal ,
The infrared target detection apparatus, wherein the feature amount calculation unit calculates the feature amount in synchronization with the frame rate .
複数の前記赤外線撮像器により撮像され、前記空間安定化処理部での前記空間安定化処理を経た複数の前記赤外線画像を貼り合わせ、パノラマ画像を合成するパノラマ画像合成部をさらに有することを特徴とする請求項1に記載の赤外線目標検出装置。   A panoramic image synthesizing unit that synthesizes a panoramic image by combining the plurality of infrared images captured by the plurality of infrared imaging devices and subjected to the spatial stabilization processing in the spatial stabilization processing unit; The infrared target detection apparatus according to claim 1. 前記パノラマ画像に、前記目標を表す図形であるシンボルを重畳するシンボル重畳部をさらに有することを特徴とする請求項2に記載の赤外線目標検出装置。   The infrared target detection apparatus according to claim 2, further comprising a symbol superimposing unit that superimposes a symbol that is a graphic representing the target on the panoramic image.
JP2012003470A 2012-01-11 2012-01-11 Infrared target detection device Active JP6113406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012003470A JP6113406B2 (en) 2012-01-11 2012-01-11 Infrared target detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012003470A JP6113406B2 (en) 2012-01-11 2012-01-11 Infrared target detection device

Publications (2)

Publication Number Publication Date
JP2013142636A JP2013142636A (en) 2013-07-22
JP6113406B2 true JP6113406B2 (en) 2017-04-12

Family

ID=49039263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012003470A Active JP6113406B2 (en) 2012-01-11 2012-01-11 Infrared target detection device

Country Status (1)

Country Link
JP (1) JP6113406B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6360389B2 (en) * 2014-08-25 2018-07-18 日本放送協会 Video presentation apparatus and program
CN104268844B (en) * 2014-10-17 2017-01-25 中国科学院武汉物理与数学研究所 Small target infrared image processing method based on weighing local image entropy
JP6799900B2 (en) * 2015-03-27 2020-12-16 三菱重工業株式会社 Control devices, mobiles, control methods and programs
FR3047103B1 (en) 2016-01-26 2019-05-24 Thales METHOD FOR DETECTING TARGETS ON THE GROUND AND MOVING IN A VIDEO STREAM ACQUIRED BY AN AIRBORNE CAMERA

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0559547U (en) * 1992-01-13 1993-08-06 三菱電機株式会社 Image target detection device
JP3216385B2 (en) * 1994-01-10 2001-10-09 三菱電機株式会社 Target detection and tracking device
US5657073A (en) * 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
JPH11205648A (en) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd Image synthesizing device
JP4649695B2 (en) * 1999-12-24 2011-03-16 富士通株式会社 Infrared detector
JP2001189925A (en) * 1999-12-28 2001-07-10 Glowing Shinko:Kk Mobile object monitoring system
JP4661187B2 (en) * 2004-11-25 2011-03-30 ソニー株式会社 Synchronization signal generator and imaging device
JP2008181364A (en) * 2007-01-25 2008-08-07 Sumitomo Electric Ind Ltd Image processing apparatus, image processing program, image processing method, image processing system with the apparatus, and traffic information provision system with the apparatus
US8106936B2 (en) * 2007-03-16 2012-01-31 Kollmorgen Corporation Panoramic video imaging and display system
JP2011235021A (en) * 2010-05-13 2011-11-24 Hoya Corp Electronic endoscope system

Also Published As

Publication number Publication date
JP2013142636A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
CN107852462B (en) Camera module, solid-state imaging element, electronic apparatus, and imaging method
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
JP5751986B2 (en) Image generation device
JP4342493B2 (en) Image stabilizer
US20170223338A1 (en) Three dimensional scanning system and framework
JP6253280B2 (en) Imaging apparatus and control method thereof
JP6113406B2 (en) Infrared target detection device
GB2578769A (en) Data processing systems
JP6041651B2 (en) Image processing apparatus, image processing method, and program
US10410372B1 (en) Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
JPWO2018235300A1 (en) Object detection device, object detection method, and computer-readable recording medium
JP2008109477A (en) Image generating device and image generating method
CN102314678B (en) Device and method for enhancing image resolution
JP5449980B2 (en) Motion compensation apparatus and method
CN108076341B (en) In-orbit real-time digital image stabilization method and system is imaged in a kind of video satellite
US20130314444A1 (en) Image data transmitting device, image data receiving device, image data transmitting system, image data transmitting method, image data receiving method, transmission image data, and computer product
JP6513941B2 (en) Image processing method, image processing apparatus and program
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP4998792B2 (en) Camera, camera array and camera array system
JP5662088B2 (en) Remote visual inspection device
JP7245773B2 (en) Image processing device, image processing program and image processing method
JP2020194400A (en) Image processing apparatus, image processing method, and program
JP5521641B2 (en) Method and apparatus for compressing image processing data, and image pickup apparatus having the same
JP7008431B2 (en) Imaging equipment, control methods, programs and imaging systems
CN112016568A (en) Method and device for tracking image feature points of target object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160425

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170315

R150 Certificate of patent or registration of utility model

Ref document number: 6113406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250