JP6113406B2 - Infrared target detection device - Google Patents
Infrared target detection device Download PDFInfo
- Publication number
- JP6113406B2 JP6113406B2 JP2012003470A JP2012003470A JP6113406B2 JP 6113406 B2 JP6113406 B2 JP 6113406B2 JP 2012003470 A JP2012003470 A JP 2012003470A JP 2012003470 A JP2012003470 A JP 2012003470A JP 6113406 B2 JP6113406 B2 JP 6113406B2
- Authority
- JP
- Japan
- Prior art keywords
- infrared
- image
- target detection
- processing unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 97
- 238000012545 processing Methods 0.000 claims description 141
- 230000006641 stabilisation Effects 0.000 claims description 71
- 238000011105 stabilization Methods 0.000 claims description 71
- 238000003331 infrared imaging Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 35
- 230000033001 locomotion Effects 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 22
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 35
- 230000009466 transformation Effects 0.000 description 35
- 235000019557 luminance Nutrition 0.000 description 34
- 238000010586 diagram Methods 0.000 description 24
- 230000007246 mechanism Effects 0.000 description 23
- 238000003384 imaging method Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 15
- 239000000203 mixture Substances 0.000 description 14
- 230000015572 biosynthetic process Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 13
- 238000003786 synthesis reaction Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 7
- 239000002131 composite material Substances 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- LTUFGCFAPCJOFQ-UHFFFAOYSA-N 2h-pyran-3-carboxamide Chemical compound NC(=O)C1=CC=COC1 LTUFGCFAPCJOFQ-UHFFFAOYSA-N 0.000 description 1
- HUPNQNOWXCVQSW-UHFFFAOYSA-N 2h-pyran-4-carboxamide Chemical compound NC(=O)C1=CCOC=C1 HUPNQNOWXCVQSW-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000007853 buffer solution Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Description
本発明は、艦船や航空機に搭載され、360度の全方位において撮像された赤外線画像を基に、航空機、飛翔体等の小目標を検出する赤外線目標検出装置に関する。 The present invention relates to an infrared target detection apparatus that is mounted on a ship or an aircraft and detects a small target such as an aircraft or a flying object based on an infrared image captured in all directions of 360 degrees.
従来、360度の全方位についての赤外線画像を撮像し、撮像された赤外線画像を基に目標を検出する赤外線目標検出装置としては、例えば、主にラインセンサから構成される赤外線撮像器と、デローテーションプリズムおよびスキャナとの連携により、全方位の画像を光学的に走査し、撮像するものが知られている(例えば、特許文献1(第1図)参照)。また、エリアセンサから構成される赤外線撮像器をジンバル機構に軸支し、機械的に走査することで、全方位の画像を撮像するものが知られている(例えば、特許文献2(第1図)参照)。 Conventionally, as an infrared target detection device that captures an infrared image in all directions of 360 degrees and detects a target based on the captured infrared image, for example, an infrared imaging device mainly composed of a line sensor, An apparatus that optically scans and images omnidirectional images by cooperation with a rotation prism and a scanner is known (see, for example, Patent Document 1 (FIG. 1)). In addition, an infrared imaging device composed of an area sensor is pivotally supported by a gimbal mechanism and mechanically scanned to capture an omnidirectional image (for example, Patent Document 2 (FIG. 1). )reference).
特許文献1に記載の赤外線目標検出装置は、360度の旋回が可能な入射光学部と、画像の回転を補正するデローテーションプリズムと、入射光学部およびデローテーションプリズムを介して入射された赤外線を走査するスキャナと、このスキャナを介して入射した赤外線を検出する赤外線撮像器と、を備える。赤外線目標検出装置は、360度の範囲において入射光学部を旋回させ、旋回角に対応した回転をデローテーションプリズムにおいて補正しながら、スキャナにて赤外線画像を走査し、レンズに集光される赤外線を赤外線撮像器で検出する。赤外線目標検出装置は、これら一連の動作を繰り返して全方位の赤外線画像を撮像し、赤外線画像から目標を検出する。
The infrared target detection apparatus described in
特許文献2に記載の赤外線目標検出装置は、方位角方向および仰角方向に旋回可能なジンバル機構に予め赤外線撮像器を軸支し、方位角方向において0度から360度の範囲でジンバル機構を走査し、レンズに集光される赤外線を赤外線撮像器で検出する。赤外線目標検出装置は、これら一連の動作を繰り返して全方位の赤外線画像を撮像し、赤外線画像から目標を検出する。
The infrared target detection apparatus described in
従来技術によると、赤外線目標検出装置は、全方位の赤外線画像を撮像するために、デローテーションプリズムおよびスキャナ等を備える光学的機構、あるいはジンバル機構等の機械的機構を搭載する。このような光学的機構や機械的機構を構成する機構部品は、大型で高コストである場合が多い。このため、従来技術によると、赤外線目標検出装置は、大型化や高コストとなることが課題となる。 According to the prior art, the infrared target detection device is equipped with an optical mechanism including a derotation prism and a scanner, or a mechanical mechanism such as a gimbal mechanism in order to capture an omnidirectional infrared image. The mechanical parts constituting such an optical mechanism or mechanical mechanism are often large and expensive. For this reason, according to the prior art, there is a problem that the infrared target detection device is increased in size and cost.
赤外線目標検出装置は、光学的機構あるいは機械的機構に依った走査により全方位の赤外線画像を撮像することから、全方位の赤外線画像のフレーム更新時間が、それら機構の走査時間に依存することとなる。通常、光学的機構や機械的機構による、全方位方向における走査時間は数秒程度要する。赤外線目標検出装置は、かかる走査時間の経過を待って目標検出を実施することとなるため、目標検出をリアルタイムで更新することが困難であることが課題となる。 Since the infrared target detection device captures an omnidirectional infrared image by scanning using an optical mechanism or a mechanical mechanism, the frame update time of the omnidirectional infrared image depends on the scanning time of these mechanisms. Become. Usually, the scanning time in all directions by an optical mechanism or a mechanical mechanism takes about several seconds. The infrared target detection device waits for the scanning time to elapse to perform target detection, so that it is difficult to update target detection in real time.
本発明は、上記に鑑みてなされたものであって、リアルタイムでの目標検出を可能とし、小型化および低コスト化を実現可能とする赤外線目標検出装置を得ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to obtain an infrared target detection apparatus that enables target detection in real time, and that can achieve downsizing and cost reduction.
上述した課題を解決し、目的を達成するために、本発明は、互いの視野を組み合わせて全方位方向を撮像可能に配置され、集光した赤外線を検出して赤外線画像を撮像する複数の赤外線撮像器と、前記赤外線撮像器の変位による、フレームごとの前記赤外線画像の動きを補正するための空間安定化処理を実施する空間安定化処理部と、前記空間安定化処理部での前記空間安定化処理を経た前記赤外線画像に対し、画素ごとの輝度値の二値化処理を実施し、前記赤外線画像から目標を検出する目標検出処理部と、前記目標検出処理部での前記二値化処理により取得された二値画像を基に、前記目標の特徴量を算出する特徴量演算部と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is arranged to be able to image all directions by combining the fields of view of each other, and detects a collected infrared ray to pick up an infrared image. An image pickup device, a space stabilization processing unit for performing a space stabilization process for correcting movement of the infrared image for each frame due to displacement of the infrared image pickup device, and the space stabilization in the space stabilization processing unit A binarization process of a luminance value for each pixel is performed on the infrared image that has undergone the binarization process, and a target detection processing unit that detects a target from the infrared image, and the binarization process in the target detection processing unit And a feature amount calculation unit that calculates the target feature amount based on the binary image acquired by the above.
本発明によれば、赤外線目標検出装置は、装置の大型化や高コスト化に繋がる光学的機構や機械的機構に代えて、全方位方向を撮像可能に配置された複数の赤外線撮像器を適用する。赤外線撮像器は、例えば、最大1Gbpsのデータ転送を可能とするGigE-vision等の画像伝送規格を用いて、赤外線画像を高速に出力可能とする。例えば、赤外線撮像器は、フレームレートと同じ周期で赤外線画像を出力する。赤外線目標検出装置は、光学的機構あるいは機械的機構の走査によらず全方位の赤外線画像を撮像可能であるため、かかる走査時間に関係無く、フレームレートごとに目標検出結果を更新することができる。これにより、赤外線目標検出装置は、リアルタイムでの目標検出を可能とし、小型化および低コスト化を実現できる。 According to the present invention, the infrared target detection device employs a plurality of infrared imagers arranged so as to be able to image in all directions in place of optical mechanisms and mechanical mechanisms that lead to an increase in size and cost of the device. To do. The infrared imager can output an infrared image at high speed by using an image transmission standard such as GigE-vision that enables data transfer at a maximum of 1 Gbps, for example. For example, the infrared imager outputs an infrared image at the same cycle as the frame rate. Since the infrared target detection device can pick up an omnidirectional infrared image regardless of scanning by an optical mechanism or a mechanical mechanism, the target detection result can be updated for each frame rate regardless of the scanning time. . Thereby, the infrared target detection apparatus can perform target detection in real time, and can realize downsizing and cost reduction.
以下に、本発明にかかる赤外線目標検出装置の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 Embodiments of an infrared target detection apparatus according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
実施の形態1.
図1は、本発明の実施の形態1にかかる赤外線目標検出装置の概略構成を示すブロック図である。赤外線目標検出装置1は、艦船あるいは航空機に搭載され、360度の全方位において撮像された赤外線画像を基に、航空機、飛翔体等の小目標を検出する。
FIG. 1 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the first embodiment of the present invention. The infrared
赤外線目標検出装置1は、四つの赤外線撮像器2−1、2−2、2−3および2−4、空間安定化処理部3、目標検出処理部4、特徴量演算回路(特徴量演算部)5および赤外線撮像器制御部6を有する。
The infrared
赤外線撮像器2−1〜2−4は、目標からの赤外線10を集光し、集光した赤外線10を検出する。赤外線撮像器2−1〜2−4は、赤外線10を信号電荷へ変換し、赤外線画像を撮像する。赤外線撮像器2−1、2−2、2−3および2−4は、それぞれ赤外線画像11−1、11−2、11−3および11−4を出力する。
The infrared imaging devices 2-1 to 2-4 collect the
赤外線撮像器制御部6は、赤外線撮像器2−1、2−2、2−3および2−4に対し、それぞれ撮像指令14−1、14−2、14−3および14−4を出力する。赤外線撮像器制御部6は、撮像指令14−1〜14−4により、赤外線撮像器2−1〜2−4を制御する。赤外線撮像器2−1〜2−4は、撮像指令14−1〜14−4に応じて、赤外線画像11−1〜11−4を撮像する。また、赤外線撮像器制御部6は、空間安定化処理部3、目標検出処理部4および特徴量演算回路5に対し、フレームタイミング信号15を出力する。
The infrared imaging device control unit 6 outputs imaging commands 14-1, 14-2, 14-3, and 14-4 to the infrared imaging devices 2-1, 2-2, 2-3, and 2-4, respectively. . The infrared imaging device control unit 6 controls the infrared imaging devices 2-1 to 2-4 according to imaging commands 14-1 to 14-4. The infrared imaging devices 2-1 to 2-4 capture the infrared images 11-1 to 11-4 according to the imaging commands 14-1 to 14-4. The infrared imager control unit 6 outputs a
赤外線撮像器2−1〜2−4は、赤外線目標検出装置1が搭載されている艦船や航空機の揺れによって、位置が変化することとなる。空間安定化処理部3は、艦船や航空機の揺れによる赤外線画像11−1〜11−4のブレを抑制させるために、赤外線撮像器2−1〜2−4からの赤外線画像11−1〜11−4に対し、空間安定化処理を実施する。
The positions of the infrared imaging devices 2-1 to 2-4 are changed by the shaking of a ship or an aircraft on which the infrared
赤外線撮像器2−1〜2−4は、赤外線目標検出装置1が搭載されている艦船や航空機の振動や揺動を受けて、絶えず変位する。空間安定化処理は、赤外線撮像器2−1〜2−4の変位による、フレームごとの赤外線画像11−1〜11−4の動きを補正するための処理である。空間安定化処理部3は、空間安定化処理を経た赤外線画像12−1、12−2、12−3および12−4を出力する。
The infrared image pickup devices 2-1 to 2-4 are continuously displaced in response to vibrations or swings of a ship or an aircraft on which the infrared
目標検出処理部4は、赤外線画像12−1〜12−4から目標を検出する。目標検出処理部4は、赤外線画像12−1〜12−4について、注目画素の輝度値と、注目画素の周辺における輝度分布を計測する。目標検出処理部4は、輝度分布の計測結果を用いて注目画素ごとの二値化閾値を求める。目標検出処理部4は、画素ごとの輝度値の二値化処理を実施し、赤外線画像12−1〜12−4から目標を検出する。目標検出処理部4は、二値化処理を経た二値画像13−1、13−2、13−3および13−4を出力する。 The target detection processing unit 4 detects a target from the infrared images 12-1 to 12-4. The target detection processing unit 4 measures the luminance value of the pixel of interest and the luminance distribution around the pixel of interest for the infrared images 12-1 to 12-4. The target detection processing unit 4 obtains a binarization threshold value for each target pixel using the measurement result of the luminance distribution. The target detection processing unit 4 performs a binarization process of the luminance value for each pixel and detects a target from the infrared images 12-1 to 12-4. The target detection processing unit 4 outputs binary images 13-1, 13-2, 13-3, and 13-4 that have undergone binarization processing.
特徴量演算回路5は、目標検出処理部4からの二値画像13−1〜13−4を基に、目標の特徴量を算出する。特徴量演算回路5は、二値画像13−1〜13−4において目標をラベリングし、目標について、例えば、重心位置、面積等の特徴量を演算する。特徴量演算回路5は、かかる演算結果を、目標特徴量16として出力する。赤外線目標検出装置1は、目標特徴量16を出力する。
The feature
赤外線目標検出装置1を構成する空間安定化処理部3、目標検出処理部4、特徴量演算回路5および赤外線撮像器制御部6は、リアルタイムでの演算処理に対応するため、例えば、100MHz以上の動作周波数で同期動作可能なFPGA(Field Programmable Gate Array)等の回路素子を備える。
The space
図2は、水平方向における複数の赤外線撮像器の設置例を示す図である。赤外線撮像器2−1、2−2、2−3および2−4は、方位方向(水平方向)において90度以上、例えば120度程度の撮像視野範囲17−1、17−2、17−3および17−4を確保可能なレンズをそれぞれ搭載している。赤外線撮像器2−1〜2−4は、光軸AXの向きをそれぞれ90度ずつ異ならせて配置されている。これにより、赤外線撮像器2−1〜2−4は、互いの撮像視野範囲17−1〜17−4を組み合わせて、全方位方向(0度から360度)を撮像可能に配置されている。赤外線目標検出装置1は、隣り合う撮像視野範囲17−1〜17−4の端同士を重複させることで、目標検出の漏れを抑制させる。
FIG. 2 is a diagram illustrating an installation example of a plurality of infrared imaging devices in the horizontal direction. The infrared imaging devices 2-1, 2-2, 2-3, and 2-4 have an imaging visual field range 17-1, 17-2, 17-3 of 90 degrees or more in the azimuth direction (horizontal direction), for example, about 120 degrees. And 17-4 can be secured. The infrared imaging devices 2-1 to 2-4 are arranged with the directions of the optical axes AX different from each other by 90 degrees. Thereby, the infrared imaging devices 2-1 to 2-4 are arranged so as to be able to capture images in all azimuth directions (0 degrees to 360 degrees) by combining the imaging field-of-view ranges 17-1 to 17-4. The infrared
赤外線目標検出装置1は、90度以上の撮像視野範囲17−1〜17−4での撮像を可能とする四つの赤外線撮像器2−1〜2−4を適用することで、全方位方向を撮像する。なお、赤外線撮像器の数は四つである場合に限られず、互いの視野を組み合わせて全方位方向を撮像可能であれば適宜変更可能であるものとする。また、各赤外線撮像器の撮像視野範囲の角度は、各赤外線撮像器の視野を組み合わせて全方位方向を撮像可能であれば良く、赤外線撮像器の数等に応じて適宜決定可能であるものとする。
The infrared
次に、赤外線目標検出装置1の動作について説明する。赤外線撮像器制御部6は、赤外線撮像器2−1〜2−4より出力される赤外線画像11−1〜11−4のフレームレートに同期する同期信号を生成する。赤外線撮像器制御部6は、フレームレートに同期する撮像指令14−1〜14−4を赤外線撮像器2−1〜2−4に与える。赤外線撮像器2−1〜2−4は、撮像指令14−1〜14−4に応じて、フレームレートに同期して赤外線画像11−1〜11−4を撮像する。
Next, the operation of the infrared
赤外線撮像器制御部6は、フレームレートに同期するフレームタイミング信号15を空間安定化処理部3、目標検出処理部4および特徴量演算回路5に与える。空間安定化処理部3、目標検出処理部4および特徴量演算回路5は、フレームレートに同期して動作する。
The infrared imager control unit 6 supplies a
赤外線撮像器2−1〜2−4は、赤外線撮像器制御部6からの撮像指令14−1〜14−1を受けて撮像した赤外線画像11−1〜11−4を、フレーム期間内に収まるように、空間安定化処理部3へ転送する。
The infrared image pickup devices 2-1 to 2-4 receive the infrared images 11-1 to 11-4 picked up in response to the image pickup commands 14-1 to 14-1 from the infrared image pickup device control unit 6 within the frame period. As described above, the data is transferred to the space
例えば、赤外線画像11−1〜11−4のフレームレートを30Hz(≒33.3ms)、赤外線画像11−1〜11−4の画像サイズをVGA(640×480画素)、画像データ長を16ビットとし、データ転送速度を1Gbpsとして赤外線撮像器2−1〜2−4から空間安定化処理部3へ赤外線画像11−1〜11−4をシリアルデータ転送したとする。この場合、1フレーム当たりのデータ転送時間は、640×480(画素)×16(ビット)/109(bps)≒5msとなる。赤外線目標検出装置1は、データ転送におけるオーバヘッドを考慮しても、十分にフレーム期間内に収まるように、赤外線画像11−1〜11−4を転送することができる。
For example, the frame rate of the infrared images 11-1 to 11-4 is 30 Hz (≈33.3 ms), the image size of the infrared images 11-1 to 11-4 is VGA (640 × 480 pixels), and the image data length is 16 bits. Suppose that the infrared data 11-1 to 11-4 is serially transferred from the infrared imaging devices 2-1 to 2-4 to the space
空間安定化処理部3は、赤外線目標検出装置1を搭載する艦船や航空機の振動、揺動による赤外線画像11−1〜11−4のブレを抑制するための空間安定化処理を実施する。空間安定化処理部3は、赤外線撮像器制御部6からのフレームタイミング信号15に応じて、フレームレートに同期して、フレームごとにおける赤外線画像11−1〜11−4の動き量を求める。
The space
空間安定化処理部3は、例えば、反復勾配法を用いて、赤外線画像11−1〜11−4の動き量を抽出する。空間安定化処理部3は、抽出された動き量に応じて動き補正量を算出する。空間安定化処理部3は、算出された動き補正量を基に動き補正が施された赤外線画像12−1〜12−4を出力する。
The space
図3は、空間安定化処理部による空間安定化処理の原理を説明する図である。例えば、赤外線撮像器2−1が、赤外線画像11−1として、フレームタイミングに応じた時刻t、t+1、t+2・・・、t+nにおいて、フレームI(t)、I(t+1)、I(t+2)・・・、I(t+n)をそれぞれ撮像したとする。各フレームI(t)〜I(t+n)は、赤外線目標検出装置1を搭載する艦船や航空機の揺れに応じて、三次元方向について位置および傾きに変化が生じている。
FIG. 3 is a diagram for explaining the principle of the space stabilization processing by the space stabilization processing unit. For example, the infrared imaging device 2-1 converts the frames I (t), I (t + 1), and I (t + 2) as the infrared image 11-1 at times t, t + 1, t + 2,. .., I (t + n) is captured. Each of the frames I (t) to I (t + n) has a change in position and inclination in the three-dimensional direction according to the shaking of the ship or aircraft on which the infrared
空間安定化処理部3は、所定のフレーム、例えば時刻tにおけるフレームI(t)を基準として、時刻(t+1)から(t+n)の各フレームI(t+1)〜(t+n)について、三次元方向における位置および傾きの変化量を、動き量として抽出する。空間安定化処理部3は、抽出した動き量に応じた動き補正量を算出する。空間安定化処理部3は、時刻(t+1)から(t+n)の各フレームI(t+1)〜(t+n)について、動き補正量に基づく動き補正を実施し、空間安定化処理後の赤外線画像12−1とする。
The space
空間安定化処理部3は、他の赤外線撮像器2−2、2−3および2−4で撮像した赤外線画像11−2、11−3および11−4についても同様に動き補正を実施し、空間安定化処理後の赤外線画像12−2、12−3および12−4とする。なお、空間安定化処理部3の詳細な構成については後述する。
The space
目標検出処理部4は、空間安定化処理部3からの赤外線画像12−1〜12−4に対して、例えば、次の式(1)を用いて、画素ごとの輝度値について二値化閾値を求める。注目画素についての二値化閾値の算出において、目標検出処理部4は、注目画素の周辺に位置する周辺画素の輝度値を参照する。
TH(i,j)=MEAN(i,j)+K*VAR(I,j) ・・・(1)
The target detection processing unit 4 uses the following expression (1) for the infrared images 12-1 to 12-4 from the space
TH (i, j) = MEAN (i, j) + K * VAR (I, j) (1)
ここで、(i,j)は注目画素の座標、TH(i,j)は注目画素についての二値化閾値、MEAN(i,j)は周辺画素の輝度値の平均値、VAR(i,j)は周辺画素の輝度値の標準偏差値、Kは所定の定数、とする。 Here, (i, j) is the coordinate of the pixel of interest, TH (i, j) is the binarization threshold for the pixel of interest, MEAN (i, j) is the average value of the luminance values of the surrounding pixels, and VAR (i, j j) is a standard deviation value of luminance values of peripheral pixels, and K is a predetermined constant.
目標検出処理部4は、例えば、次の式(2)を用いて、二値画像のデータを求める。 The target detection processing unit 4 obtains binary image data using the following equation (2), for example.
ここで、(i,j)は注目画素の座標、TH(i,j)は注目画素についての二値化閾値、D(i,j)は注目画素の輝度値、B(i,j)は注目画素における二値画像のデータ、とする。 Here, (i, j) is the coordinate of the pixel of interest, TH (i, j) is the binarization threshold for the pixel of interest, D (i, j) is the luminance value of the pixel of interest, and B (i, j) is Binary image data at the target pixel.
目標検出処理部4は、輝度値が二値化閾値以上である画素については「1」、輝度値が二値化閾値未満である画素については「0」、とする二値画像のデータを求め、二値画像13−1〜13−4として出力する。目標検出処理部4は、赤外線撮像器制御部6からのフレームタイミング信号15に応じて、フレームレートに同期して二値化処理を実施する。目標検出処理部4は、フレームごとの二値画像13−1〜13−4を出力する。
The target detection processing unit 4 obtains binary image data in which “1” is set for pixels whose luminance value is equal to or greater than the binarization threshold and “0” is set for pixels whose luminance value is less than the binarization threshold. , And output as binary images 13-1 to 13-4. The target detection processing unit 4 performs binarization processing in synchronization with the frame rate in accordance with the
特徴量演算回路5は、目標検出処理部4からの二値画像13−1〜13−4を基に、公知の手法により、目標のラベリング処理を行う。特徴量演算回路5は、目標の重心位置座標、目標が占める領域の座標、面積等の特徴量を演算する。特徴量演算回路5は、赤外線撮像器制御部6からのフレームタイミング信号15に応じて、フレームレートに同期して特徴量を求め、目標特徴量16として出力する。
The feature
図4は、赤外線撮像器制御部の制御による、赤外線撮像器、空間安定化処理部および目標検出処理部の処理タイミングについて説明する図である。赤外線撮像器2−1〜2−4は、撮像指令14−1〜14−1に応じて、フレームレートに同期して赤外線画像11−1〜11−4を撮像する。赤外線撮像器2−1〜2−4は、赤外線画像11−1〜11−4として、時刻t、t+1、t+2、t+3・・・において、フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・をそれぞれ撮像する。赤外線撮像器2−1〜2−4は、各フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・を、例えば、フレーム期間33.3msより短い期間5msにおいて出力する。
FIG. 4 is a diagram for explaining processing timings of the infrared imaging device, the space stabilization processing unit, and the target detection processing unit under the control of the infrared imaging device control unit. The infrared imaging devices 2-1 to 2-4 capture the infrared images 11-1 to 11-4 in synchronization with the frame rate in response to the imaging commands 14-1 to 14-1. The infrared image pickup devices 2-1 to 2-4 receive frames I (t), I (t + 1), and I (t + 2) as infrared images 11-1 to 11-4 at times t, t + 1, t + 2,
空間安定化処理部3は、フレームタイミング信号15に応じて、フレームレートに同期して赤外線画像11−1〜11−4の空間安定化処理を実施する。空間安定化処理部3は、例えば、時刻t+1のフレームタイミング信号15に応じて、フレームI(t)についての空間安定化処理を実施する。空間安定化処理部3は、時刻t+1、t+2、t+3・・・において、フレームI(t)、I(t+1)、I(t+2)・・・についての空間安定化処理をそれぞれ実施する。空間安定化処理部3は、赤外線画像12−1〜12−4として各フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・を、フレーム期間より短い期間において出力する。
The space
目標検出処理部4は、フレームタイミング信号15に応じて、フレームレートに同期して赤外線画像12−1〜12−4の二値化処理を実施する。目標検出処理部4は、例えば、時刻t+2のフレームタイミング信号15に応じて、フレームI(t)についての二値化処理を実施する。目標検出処理部4は、時刻t+2、t+3・・・において、フレームI(t)、I(t+1)・・・についての二値化処理をそれぞれ実施する。目標検出処理部4は、各フレームI(t)、I(t+1)、I(t+2)、I(t+3)・・・の二値画像13−1〜13−4を、フレーム期間より短い期間において出力する。
The target detection processing unit 4 performs binarization processing of the infrared images 12-1 to 12-4 in synchronization with the frame rate in accordance with the
赤外線目標検出装置1は、各部における処理をフレームレートに同期して実施し、かつ各処理をフレーム期間内に完了させる。このため、赤外線目標検出装置1は、フレームレートに同期して目標検出結果を更新することができる。以上の動作により、赤外線目標検出装置1は、光学的機構や機械的機構による走査を行わずに目標検出ができ、かつ、リアルタイムでの目標検出が可能となる。
The infrared
赤外線目標検出装置1は、装置の大型化や高コスト化に繋がる光学的機構や機械的機構に代えて、全方位方向を撮像可能に配置された複数の赤外線撮像器2−1〜2−4を適用する。このため、赤外線目標検出装置1は、小型化および低コスト化を実現できる。赤外線目標検出装置1は、小型化により、生産工程の効率化を図り得る。赤外線目標検出装置1は、走査のための高速回転、移動等の動作を不要とすることで、光学的機構や機械的機構を用いる場合に比べて、耐久性の向上や、エネルギー消費量の削減を図り得る。
The infrared
次に、空間安定化処理部3の構成の詳細について説明する。図5は、空間安定化処理部の構成を示すブロック図である。空間安定化処理部3は、画像格納用メモリ21−1、21−2、21−3および21-4、粗精位置合わせ処理部22−1、22−2、22−3および22−4、補間処理部23−1、23−2、23−3および23−4を有する。
Next, details of the configuration of the space
画像格納用メモリ21−1、21−2、21−3および21-4は、赤外線撮像器2−1、2−2、2−3および2−4から入力される赤外線画像11−1、11−2、11−3および11−4を、それぞれ格納する。画像格納用メモリ21−1〜21−4は、赤外線画像11−1〜11−4について、赤外線撮像器制御部6からの最新のフレームタイミング信号15に応じたフレームと、前回のフレームタイミング信号15に応じたフレームと、の二つのフレームを格納可能とされたダブルバッファ方式を採用する。二つのフレームを格納可能とする理由については後述する。
The image storage memories 21-1, 21-2, 21-3, and 21-4 are infrared images 11-1, 11 that are input from the infrared imaging devices 2-1, 2-2, 2-3, and 2-4. -2, 11-3 and 11-4 are respectively stored. The image storage memories 21-1 to 21-4 are the frames corresponding to the latest
粗精位置合わせ処理部22−1、22−2、22−3および22−4は、画像格納用メモリ21−1、21−2、21−3および21-4から読み出した画像を基に、フレーム間における画像のブレを抑制する空間安定化のための位置合わせ処理を実施する。粗精位置合わせ処理部22−1〜22−4は、赤外線撮像器制御部6からのフレームタイミング信号15が入力されるごとに、画像格納用メモリ21−1〜21−4から画像ピラミッドを抽出する。公知の技術において、画像ピラミッドは、高解像度から低解像度まで、解像度を異ならせた複数の画像(適宜、ピラミッド画像と称する)を要素とする階層構造とされている。
The coarse alignment processing units 22-1, 22-2, 22-3 and 22-4 are based on the images read from the image storage memories 21-1, 21-2, 21-3 and 21-4. Alignment processing for space stabilization that suppresses image blur between frames is performed. The coarse alignment processing units 22-1 to 22-4 extract image pyramids from the image storage memories 21-1 to 21-4 each time the
粗精位置合わせ処理部22−1〜22−4は、フレームごとの画像の空間安定化のための補正係数を推定する。粗精位置合わせ処理部22−1〜22−4は、推定された補正係数を用いて、幾何学的な画像補正を行う。 The coarse registration processing units 22-1 to 22-4 estimate correction coefficients for stabilizing the space of the image for each frame. The coarse registration processing units 22-1 to 22-4 perform geometric image correction using the estimated correction coefficient.
補間処理部23−1〜23−4には、粗精位置合わせ処理部22−1〜22−4での位置合わせ処理を経た画像と、画像格納用メモリ21−1〜21-4から読み出した画像とが入力される。補間処理部23−1、23−2、23−3および23−4は、粗精位置合わせ処理部22−1、22−2、22−3および22−4での位置合わせ処理を経た画像に対し、画質向上のための補間処理を実施する。 The interpolation processing units 23-1 to 23-4 read out the images that have undergone the alignment processing in the coarse registration processing units 22-1 to 22-4 and the image storage memories 21-1 to 21-4. An image is input. Interpolation processing units 23-1, 23-2, 23-3, and 23-4 apply the images that have undergone the alignment processing in coarse alignment processing units 22-1, 22-2, 22-3, and 22-4. On the other hand, interpolation processing for improving image quality is performed.
例えば、粗精位置合わせ処理部22−1〜22−4は、アフィン変換と称される公知の手法を用いて、幾何学的な画像補正を行う。アフィン変換は、画像データにおける画素ごとの座標を変換することで、画像を幾何学的に移動、変形させる方式の一つである。粗精位置合わせ処理部22−1〜22−4は、例えば次の式(3)を基に、アフィン変換を実施する。 For example, the coarse registration processing units 22-1 to 22-4 perform geometric image correction using a known method called affine transformation. Affine transformation is one of the methods for geometrically moving and deforming an image by transforming the coordinates of each pixel in the image data. The coarse alignment processing units 22-1 to 22-4 perform affine transformation based on, for example, the following equation (3).
ここで、(x,y)はアフィン変換前の座標、(u,v)はアフィン変換後の座標、a、b、c、d、e、fはアフィン変換係数、とする。 Here, (x, y) are coordinates before affine transformation, (u, v) are coordinates after affine transformation, and a, b, c, d, e, and f are affine transformation coefficients.
画像データにおいて、画素を単位とする座標を定義した場合、座標は整数のみにより表されるのに対し、アフィン変換後の座標は、通常、小数点を伴う。アフィン変換により小数点を伴う座標で指定される位置には濃度値が存在しないこととなるため、変換前に対する解像度の劣化が問題となる。そこで、補間処理部23−1〜23−4は、アフィン変換後の座標における濃度値を補間処理により算出する。 In the image data, when coordinates in units of pixels are defined, the coordinates are represented only by integers, whereas the coordinates after affine transformation are usually accompanied by a decimal point. Since a density value does not exist at a position designated by coordinates with a decimal point by affine transformation, resolution degradation before the conversion becomes a problem. Therefore, the interpolation processing units 23-1 to 23-4 calculate density values at coordinates after the affine transformation by interpolation processing.
補間処理部23−1〜23−4は、例えば、バイリニア補間と称される公知の手法を用いて、アフィン変換後の画像データに対し補間処理を実施する。バイリニア補間では、アフィン変換後の座標軸上の各位置の濃度値を、元の画像にて対応する位置の周囲に位置する四つの画素からの距離に応じた線形補間により求める。 For example, the interpolation processing units 23-1 to 23-4 perform interpolation processing on the image data after affine transformation using a known method called bilinear interpolation. In bilinear interpolation, the density value at each position on the coordinate axis after the affine transformation is obtained by linear interpolation according to the distance from four pixels located around the corresponding position in the original image.
図6は、バイリニア補間について説明する概念図である。座標変換後の、ある座標に対応する原画像の位置が、図6に示すように、画素間の位置P=(u,v)であった場合、原画像上では、かかる位置の輝度値は存在しない。このため、補間処理部23−1〜23−4は、位置Pの周囲の四つの画素P1=(i,j)、P2=(i,j+1)、P3=(i+1,j)およびP4=(i+1,j+1)の輝度値を、各画素から位置Pまでの距離に応じた比率で加算し、位置Pにおける輝度値とする。なお、i=[u]、j=[v]([ ]はガウス記号)、とする。 FIG. 6 is a conceptual diagram illustrating bilinear interpolation. When the position of the original image corresponding to a certain coordinate after the coordinate conversion is the position P = (u, v) between the pixels as shown in FIG. 6, the luminance value at the position on the original image is not exist. For this reason, the interpolation processing units 23-1 to 23-4 have four pixels P1 = (i, j), P2 = (i, j + 1), P3 = (i + 1, j) and P4 = ( The luminance values of i + 1, j + 1) are added at a ratio corresponding to the distance from each pixel to the position P to obtain the luminance value at the position P. Note that i = [u], j = [v] ([] is a Gaussian symbol).
補間処理部23−1〜23−4は、例えば、次の式(4)を用いたバイリニア補間により、位置Pにおける輝度値を求める。
P=(1−Δi)(1−Δj)*P1+(1−Δi)Δj*P2+Δi(1−Δj)*P3+ΔiΔj*P4 ・・・(4)
For example, the interpolation processing units 23-1 to 23-4 obtain the luminance value at the position P by bilinear interpolation using the following equation (4).
P = (1−Δi) (1−Δj) * P1 + (1−Δi) Δj * P2 + Δi (1−Δj) * P3 + ΔiΔj * P4 (4)
なお、式(4)において、「P」、「P1」、「P2」、「P3」および「P4」の各項は、それぞれ、上述の位置P、画素P1、P2、P3およびP4における輝度値とする。また、Δi=u−i、Δj=v−j、とする。補間処理部23−1〜23−4におけるこのような補間処理により、空間安定化処理部3は、アフィン変換前と同程度の解像度を持つ赤外線画像12−1〜12−4を得る。
In Expression (4), the terms “P”, “P1”, “P2”, “P3”, and “P4” are the luminance values at the position P and the pixels P1, P2, P3, and P4, respectively. And Further, Δi = u−i and Δj = v−j. By such interpolation processing in the interpolation processing units 23-1 to 23-4, the space
次に、空間安定化処理部3の動作について説明する。赤外線撮像器2−1〜2−4から入力される赤外線画像11−1〜11−4は、画像格納用メモリ21−1〜21−4に一旦格納される。粗精位置合わせ処理部22−1〜22−4は、例えば、反復勾配法と称される公知の手法を用いて、各画像の空間安定化のためのアフィン変換係数を算出する。
Next, the operation of the space
反復勾配法によると、粗精位置合わせ処理部22−1〜22−4は、連続する二つのフレームにつき、それぞれ画像ピラミッドを作成し、比較する。粗精位置合わせ処理部22−1〜22−4は、低い解像度のピラミッド画像同士の相関からアフィン変換係数を求め、解像度が高いピラミッド画像同士の相関を順次評価することでアフィン変換係数を修正していく。 According to the iterative gradient method, the coarse registration processing units 22-1 to 22-4 create and compare image pyramids for two consecutive frames. The coarse alignment processing units 22-1 to 22-4 obtain the affine transformation coefficients from the correlations between the low-resolution pyramid images, and correct the affine transformation coefficients by sequentially evaluating the correlations between the high-resolution pyramid images. To go.
図7は、画像ピラミッドを使用する位置合わせ処理について説明する概念図である。ピラミッド画像は、例えば、画像サイズ(解像度)を段階的にレベル0から4(レベル0:640×480、レベル1:320×480、レベル2:160×240、レベル3:80×120、レベル4:40×60)として異ならせて生成される。粗精位置合わせ処理部22−1〜22−4は、例えば、レベル2から4におけるピラミッド画像を順次生成し、フレーム間における動き検出を行う。
FIG. 7 is a conceptual diagram illustrating an alignment process using an image pyramid. For example, in the pyramid image, the image size (resolution) is gradually changed from level 0 to 4 (level 0: 640 × 480, level 1: 320 × 480, level 2: 160 × 240, level 3: 80 × 120, level 4). : 40 × 60). The coarse registration processing units 22-1 to 22-4 sequentially generate pyramid images at
粗精位置合わせ処理部22−1〜22−4は、画像格納用メモリ21−1〜21−4に格納されている赤外線画像11−1〜11−4から、各解像度のレベルに応じて画素を間引いた上で画像データを読み出し、画像ピラミッドを生成する。上述のように、画像格納用メモリ21−1〜21−4は、赤外線画像11−1〜11−4について、二つのフレームを格納する。粗精位置合わせ処理部22−1〜22−4は、画像格納用メモリ21−1〜21−4に格納された双方のフレームについて、画像ピラミッドを生成する。ここでは、フレームI(t−1)及びI(t)についての画像ピラミッドを生成し、動き抽出を行う場合を例とする。 The coarse alignment processing units 22-1 to 22-4 select pixels from the infrared images 11-1 to 11-4 stored in the image storage memories 21-1 to 21-4 according to the level of each resolution. The image data is read out after thinning out and an image pyramid is generated. As described above, the image storage memories 21-1 to 21-4 store two frames for the infrared images 11-1 to 11-4. The coarse registration processing units 22-1 to 22-4 generate image pyramids for both frames stored in the image storage memories 21-1 to 21-4. Here, as an example, image pyramids for frames I (t−1) and I (t) are generated and motion extraction is performed.
粗精位置合わせ処理部22−1〜22−4は、例えば、オプティカルフローと称される公知の手法において、拘束方程式である次の式(5)から求められる誤差Ecが最小となるような相関関係を基に、フレーム間の画像の動きを推定する。
Ec=Σ(PxIx+PyIy+It)2 ・・・(5)
The coarse alignment processing units 22-1 to 22-4, for example, in a known method called optical flow, a correlation that minimizes the error Ec obtained from the following equation (5) that is a constraint equation. Based on the relationship, image motion between frames is estimated.
Ec = Σ (P x I x + P y I y + I t ) 2 (5)
なお、PxはX方向についての画像の変位(Px=a+bx+cy)、PyはY方向についての画像の変位(Py=d+ex+fy)、a、b、c、d、e、fはアフィン変換係数、とする。IxおよびIyは空間微分であって、Ixは画像のX方向において隣接する画素同士の輝度値の差分、Iyは画像のY方向において隣接する画素間における輝度値の差分、を表す。Itは時間微分であって、画像のフレーム間における輝度値の差分を表す。 P x is the displacement of the image in the X direction (P x = a + bx + cy), P y is the displacement of the image in the Y direction (P y = d + ex + fy), a, b, c, d, e, and f are affine transformations. Coefficient. I x and I y are spatial differentials, where I x represents a difference in luminance value between adjacent pixels in the X direction of the image, and I y represents a difference in luminance value between adjacent pixels in the Y direction of the image. . I t is a time derivative, representing the difference in luminance value between image frames.
粗精位置合わせ処理部22−1〜22−4は、例えば、次の式(6)の方程式を解くことにより、アフィン変換係数を算出し、動き検出結果に見合ったアフィン変換を行う。これにより、空間安定化処理部3は、フレーム間の画像のブレを抑制させ、空間安定化を図ることができる。
The coarse alignment processing units 22-1 to 22-4 calculate an affine transformation coefficient by solving the following equation (6), for example, and perform affine transformation corresponding to the motion detection result. Thereby, the space
画像ピラミッドの階層構造において、画像サイズが小さくなるにしたがって、画像上の動きも小さくなる。低解像度である所定のピラミッド画像(例えばレベル3)の特徴点同士をオプティカルフローで推定し、求めたアフィン変換係数を初期値p0とする。次の階層(レベル2)では、アフィン変換係数を初期値p0としたアフィン変換及び動き抽出を経て、アフィン変換係数の補正量Δp1を得る。 In the hierarchical structure of the image pyramid, the movement on the image decreases as the image size decreases. The feature points of a predetermined pyramid image (for example, level 3) having a low resolution are estimated by optical flow, and the obtained affine transformation coefficient is set as an initial value p0. In the next hierarchy (level 2), an affine transformation coefficient correction amount Δp1 is obtained through affine transformation and motion extraction with the affine transformation coefficient as an initial value p0.
次の階層(レベル1)では、初期値p0に補正量Δp1が加算された値p1を適用したアフィン変換及び動き抽出を経て、アフィン変換係数の補正量Δp2を得る。最後に、レベル0では、値p1に補正量Δp2が加算された値p2を適用したアフィン変換及び動き抽出を経て、アフィン変換係数p3を得る。 In the next hierarchy (level 1), an affine transformation coefficient correction amount Δp2 is obtained through affine transformation and motion extraction using a value p1 obtained by adding the correction amount Δp1 to the initial value p0. Finally, at level 0, an affine transformation coefficient p3 is obtained through affine transformation and motion extraction using a value p2 obtained by adding the correction amount Δp2 to the value p1.
このように、粗精位置合わせ処理部22−1〜22−4は、アフィン変換係数を算出する当初において、解像度が低い画像同士の演算によりアフィン変換係数の初期値を求めてから、漸次解像度を高めながらアフィン変換係数を修正する。原画像のサイズであるレベル0まで処理を繰り返すことで、フローの急激な変化に対する信頼性を向上させる。これにより、粗精位置合わせ処理部22−1〜22−4は、高精度かつ高速な位置合わせ処理を実現することが可能となる。なお、各レベルについて処理を繰り返す回数の上限は、例えば、相関値の収束までの応答における挙動等を考慮し、4回としている。 As described above, at the initial stage of calculating the affine transformation coefficients, the coarse registration processing units 22-1 to 22-4 obtain the initial value of the affine transformation coefficient by calculating between the images with low resolution, and then gradually increase the resolution. Modify the affine transformation coefficient while increasing. By repeating the processing up to level 0, which is the size of the original image, the reliability against a sudden change in the flow is improved. As a result, the coarse / fine alignment processing units 22-1 to 22-4 can realize high-accuracy and high-speed alignment processing. Note that the upper limit of the number of times the process is repeated for each level is, for example, four times in consideration of the behavior in the response until the correlation value converges.
次に、空間安定化処理部3の処理がフレーム期間(例えば、33.3ms)に収まる理由を説明する。上記の式(6)において、アフィン変換係数は、行列の各要素における18種類の積和演算により得られる。積和演算回路は、乗算器および加算器を用いて構成できる。例えば、空間安定化処理部3を構成するFPGA(Field-Programmable Gate Array)の動作周波数を100MHzとすれば、乗算器および加算器による処理は動作周期内に収まる。
Next, the reason why the processing of the space
このとき、1画素のデータを1クロック周期で処理することから、アフィン変換係数の推定にかかる時間は、(各レベルのピラミッド画像のサイズ)×(繰り返し回数)÷(動作周波数)を計算して求められる。 At this time, since the data of one pixel is processed in one clock cycle, the time required for estimating the affine transformation coefficient is calculated by (the pyramid image size of each level) × (number of repetitions) ÷ (operation frequency). Desired.
例えば、上述のレベル2のピラミッド画像に対して、
160×240(画素)×4(回)÷(100×10−6)(s−1)≒1.54ms
レベル3のピラミッド画像に対して、
80×120(画素)×4(回)÷(100×10−6)(s−1)≒0.38ms
レベル4のピラミッド画像に対して、
40×60(画素)×4(回)÷(100×10−6)(s−1)≒0.096ms
となる。これらを合計すると、アフィン変換係数の推定に要する時間は、およそ2.02msとなる。これと同様に、アフィン変換に要する時間は、
640×480(画素)÷(100×10−6)(s−1)≒3.07ms
となる。
For example, for the
160 × 240 (pixels) × 4 (times) ÷ (100 × 10 −6 ) (s −1 ) ≈1.54 ms
For
80 × 120 (pixels) × 4 (times) ÷ (100 × 10 −6 ) (s −1 ) ≈0.38 ms
For level 4 pyramid images,
40 × 60 (pixels) × 4 (times) ÷ (100 × 10 −6 ) (s −1 ) ≈0.096 ms
It becomes. When these are added together, the time required for estimating the affine transformation coefficient is approximately 2.02 ms. Similarly, the time required for affine transformation is
640 × 480 (pixels) ÷ (100 × 10 −6 ) (s −1 ) ≈3.07 ms
It becomes.
空間安定化処理部3の処理時間は、アフィン変換係数の推定にかかる時間とアフィン変換にかかる時間との和であることから、この例ではおよそ5.1msとなる。以上により、空間安定化処理部3での処理は、オーバヘッドを考慮しても、フレーム期間である33.3msに十分収めることができる。これにより、空間安定化処理部3は、空間安定化処理をリアルタイムで実施することができる。赤外線目標検出装置1は、リアルタイムでの目標検出が可能となる。
The processing time of the space
実施の形態2.
図8は、本発明の実施の形態2にかかる赤外線目標検出装置の概略構成を示すブロック図である。実施の形態1と同一の部分には同一の符号を付し、重複する説明を適宜省略する。実施の形態2にかかる赤外線目標検出装置30は、実施の形態1にかかる赤外線目標検出装置1(図1参照)の構成にパノラマ画像合成部31を追加したものに相当する。
FIG. 8 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the second embodiment of the present invention. The same parts as those in the first embodiment are denoted by the same reference numerals, and repeated description will be omitted as appropriate. The infrared
パノラマ画像合成部31は、複数の赤外線画像12−1、12−2、12−3および12−4を貼り合わせ、パノラマ画像を合成する。複数の赤外線画像12−1、12−2、12−3および12−4は、複数の赤外線撮像器2−1〜2−4により撮像され、空間安定化処理部3での安定処理化処理を経て、パノラマ画像合成部31へ入力される。赤外線撮像器制御部6は、パノラマ画像合成部31にフレームタイミング信号15を与える。パノラマ画像合成部31は、フレームレートに同期して動作する。
The panoramic
パノラマ画像合成部31は、各赤外線画像12−1〜12−4の輝度の相関を計測し、相関の高い位置にそれぞれの赤外線画像12−1〜12−4を貼り合わせ、パノラマ画像を生成する。パノラマ画像合成部31は、例えば、表示装置である液晶モニタ(図示省略)での表示のための再生成がなされたパノラマ画像32を出力する。赤外線目標検出装置30は、パノラマ画像合成部31からのパノラマ画像32を出力する。
The panoramic
次に、パノラマ画像合成部31の動作を説明する。図9は、パノラマ画像合成部におけるパノラマ画像の生成について説明する図である。ここでは、赤外線画像12−1〜12−4の画像サイズはVGA(640×480画素)とする。
Next, the operation of the panoramic
例えば、赤外線画像12−1を基準画像とし、赤外線画像12−2を、基準画像へ貼り合わせる、貼り合わせ画像とする。パノラマ画像合成部31は、赤外線画像12−1に対し、赤外線画像12−2の貼り合わせを開始する、貼り合わせ指示位置を指定する。パノラマ画像合成部31は、図中ハッチングを付して示す赤外線画像12−1および12−2の重なり領域33のうち左上端部を基点として、重なり領域33内の赤外線画像12−1の画素と赤外線画像12−2の画素とのラスタスキャンを実施する。パノラマ画像合成部31は、重なり領域33における赤外線画像12−1および12−2の輝度相関を、例えば、次の式(7)によって計測する。
For example, the infrared image 12-1 is used as a reference image, and the infrared image 12-2 is used as a combined image that is combined with the reference image. The panoramic
ここで、Sは輝度相関の評価値、(X1,Y1)は貼り合わせ指示位置の座標、(x、y)は重なり領域33における基点の座標、RxはX方向において重なり領域33に含まれる画素数、RyはY方向において重なり領域33に含まれる画素数、I1およびI2はそれぞれ赤外線画像12−1および12−2の輝度値、とする。
Here, S is the evaluation value of the luminance correlation, (X1, Y1) is the coordinates of the bonding instruction position, (x, y) is the coordinates of the base point in the overlapping
パノラマ画像合成部31は、貼り合わせ指示位置(X1,Y1)を基準として、X方向およびY方向における、赤外線画像12−2の正負の可動範囲Ex、Eyを定める。パノラマ画像合成部31は、X方向についてX1−ExからX1+Exの範囲、Y方向についてY1−EyからY1+Eyの範囲において、赤外線画像12−2を移動させる。
Panorama
パノラマ画像合成部31は、赤外線画像12−2を画素単位分移動させるごとに、輝度相関を計測する。パノラマ画像合成部31は、赤外線画像12−2の移動および輝度相関の計測を、可動範囲内の全ての画素位置について実施する。以上により、パノラマ画像合成部31は、可動範囲内における全ての画素を貼り合わせ位置とした際の重なり領域33における赤外線画像12−1および12−2の輝度の相関を計測する。
The panorama
式(7)は、輝度相関を評価するための式の一例であり、SSD(Sum of Squared Difference)と称される公知の手法を用いたものである。パノラマ画像合成部31は、輝度相関を評価する他の公知の手法、例えば、SAD(Sum of Absolute Difference)やNCC(Normalized Cross Correlation)を用いても良い。
Expression (7) is an example of an expression for evaluating the luminance correlation, and uses a known technique called SSD (Sum of Squared Difference). The panoramic
パノラマ画像合成部31は、輝度相関の計測結果のうち、最も計測値の高い貼り合わせ位置を、重なり領域33における赤外線画像12−1および12−2の輝度の相関があるとして、その位置に赤外線画像12−2を貼り合わせる。
The panoramic
パノラマ画像合成部31は、赤外線画像12−2を貼り合わせる際において、貼り合わせの境界部分について輝度の連続性を持たせるための処理を実施する。例えば、重なり領域33において基準画像と貼り合わせ画像とで同じ位置となる画素について、基準画素の輝度値と貼り合わせ画像の輝度値との平均を、パノラマ画像の輝度値として採用する。この方法によって、基準画像と貼り合わせ画像との境界部分は平滑化される。
When the infrared image 12-2 is pasted, the panoramic
パノラマ画像合成部31は、赤外線画像12−2を貼り合わせる場合と同様の手順により、赤外線画像12−3および12−4を貼り合わせる。赤外線画像12−3を貼り合わせ画像とする際は、赤外線画像12−2を基準画像とする。赤外線画像12−4を貼り合わせ画像とする際は、赤外線画像12−3を基準画像とする。
The panorama
以上により、パノラマ画像合成部31は、赤外線画像12−1〜12−4を用いて、パノラマ画像を生成する。パノラマ画像合成部31は、フレームタイミング信号15に同期してパノラマ画像を合成することで、フレーム期間おきにパノラマ画像を更新する。
As described above, the panoramic
次に、液晶モニタ等での表示のための、パノラマ画像の再生成について説明する。赤外線画像12−1〜12−4の画像サイズをVGA(640×480画素)とすると、パノラマ画像のX方向の最大画素数は、640×4―(3×2×Ex)となる。Exを例えば10画素とした場合、パノラマ画像のX方向の最大画素数は、640×4―(3×2×10)=2500となる。パノラマ画像のY方向の最大画素数は、480+(2×Ey)となる。Eyを例えば10画素とした場合、パノラマ画像のY方向の最大画素数は、(480+(2×10)=500となる。 Next, regeneration of a panoramic image for display on a liquid crystal monitor or the like will be described. If the image size of the infrared images 12-1 to 12-4 is VGA (640 × 480 pixels), the maximum number of pixels in the X direction of the panoramic image is 640 × 4- (3 × 2 × E x ). When Ex is 10 pixels, for example, the maximum number of pixels in the X direction of the panoramic image is 640 × 4− (3 × 2 × 10) = 2500. The maximum number of pixels in the Y direction of the panoramic image is 480+ (2 × E y ). When the E y for example, 10 pixels, the maximum number of pixels in the Y direction of the panoramic image becomes (480+ (2 × 10) = 500.
例えば、SXGAサイズ(1280×1024画素)の液晶モニタでは、赤外線画像12−1および12−2の合成画像と、赤外線画像12−3および12−4の合成画像とを、上下に配置した場合に、画面のほぼ全体を用いた表示が可能となる。パノラマ画像合成部31は、赤外線画像12−1および12−2の合成画像と、赤外線画像12−3および12−4の合成画像とが上下に配されたパノラマ画像32を再生成する。
For example, in a liquid crystal monitor of SXGA size (1280 × 1024 pixels), when a composite image of infrared images 12-1 and 12-2 and a composite image of infrared images 12-3 and 12-4 are arranged vertically Display using almost the entire screen is possible. The panoramic
パノラマ画像32のうち上半分に配される赤外線画像12−1および12−2の合成画像は、換言すると、方位角0度から180度の方位画像に相当する。パノラマ画像32のうち下半分に配される赤外線画像12−3および12−4の合成画像は、換言すると、方位角180度から360度の方位画像に相当する。
In other words, the combined image of the infrared images 12-1 and 12-2 arranged in the upper half of the
パノラマ画像合成部31は、二つに分割された方位画像を上下に配するパノラマ画像32を再生成することで、表示されるパノラマ画像32の画素分解能の劣化を低減可能とし、パノラマ画像32を効果的に表示させることができる。パノラマ画像合成部31は、フレームタイミング信号15に同期してパノラマ画像32の再生成を実施することで、フレーム期間おきにパノラマ画像32を更新する。これにより、パノラマ画像合成部31は、リアルタイムでのパノラマ画像32の合成が可能となる。
The panorama
赤外線目標検出装置30により、各赤外線画像12−1〜12−4の相関を図り、赤外線画像12−1〜12−4同士を貼り合わせたパノラマ画像32を生成し表示可能とすることで、オペレータは、リアルタイムで、全方位画像における目標位置の目視確認ができる。
The infrared
実施の形態3.
図10は、本発明の実施の形態3にかかる赤外線目標検出装置の概略構成を示すブロック図である。実施の形態1および2と同一の部分には同一の符号を付し、重複する説明を適宜省略する。
FIG. 10 is a block diagram showing a schematic configuration of the infrared target detection apparatus according to the third embodiment of the present invention. The same parts as those in
実施の形態3にかかる赤外線目標検出装置40は、実施の形態2にかかる赤外線目標検出装置30(図8参照)の構成にシンボル重畳部41を追加したものに相当する。また、本実施の形態において、パノラマ画像合成部31は、パノラマ画像32に加えて、赤外線画像12−2、12−3および12−4の貼り合わせ位置情報42−1、42−2および42−3を出力する。
The infrared
シンボル重畳部41は、貼り合わせ位置情報42−1〜42−3、および特徴量演算回路5からの目標特徴量16に応じて、パノラマ画像32にシンボルを重畳する。シンボルは、検出された目標を表す図形とする。赤外線撮像器制御部6は、シンボル重畳部41にフレームタイミング信号15を与える。シンボル重畳部41は、フレームレートに同期して動作する。シンボル重畳部41は、シンボルが重畳されたパノラマ画像32を出力する。赤外線目標検出装置40は、シンボル重畳部41からのパノラマ画像32を出力する。
The
次に、シンボル重畳部41の動作を説明する。図11は、シンボルが重畳されたパノラマ画像の例を示す図である。シンボル重畳部41は、赤外線画像12−1〜12−4から合成されたパノラマ画像32に、シンボル43およびスケールパターン44を重畳する。
Next, the operation of the
スケールパターン44は、パノラマ画像32の方位および仰角を表すスケールである。スケールパターン44の横軸は方位角、縦軸は仰角をそれぞれ表している。スケールパターン44は、例えば、シンボル重畳部41を構成するFPGAの内部メモリに格納されている。シンボル重畳部41は、当該内部メモリからスケールパターン44を読み出し、パノラマ画像32の所定位置に重畳させる。
The
シンボル43は、例えば、正方形の外郭をなすものとする。正方形の中心位置は、目標の重心位置を表す。正方形の面積は、目標の面積を表す。シンボル重畳部41は、特徴量演算回路5からの目標特徴量16により、目標の重心位置および面積を把握する。シンボル重畳部41は、把握した重心位置を中心とし、面積に応じてサイズが調整されたシンボル43を生成する。
The
シンボル重畳部41は、パノラマ画像合成部31からの貼り合わせ位置情報42−1〜42−3に応じて、パノラマ画像32上でのシンボル43の位置を求める。パノラマ画像32の座標系と、特徴量演算回路5から出力される目標の重心位置の座標系とは、定義が異なる。シンボル重畳部41は、目標の重心位置を、パノラマ画像32の座標系に適合するように変換する。
The
図12は、パノラマ画像の座標系と、特徴量演算回路から出力される目標の重心位置の座標系とについて説明する図である。ここでは、目標の重心位置の座標系が、赤外線画像12−2の座標系である場合を例とする。パノラマ画像32の座標系は、原点Oを基準として定義される。目標の重心位置の座標系は、原点O’を基準として定義される。シンボル重畳部41は、このような座標系の定義の違いを解消するように、目標の重心位置の座標を変換する。
FIG. 12 is a diagram for explaining the coordinate system of the panoramic image and the coordinate system of the target center-of-gravity position output from the feature amount calculation circuit. Here, a case where the coordinate system of the target center-of-gravity position is the coordinate system of the infrared image 12-2 is taken as an example. The coordinate system of the
シンボル重畳部41は、フレーム期間おきに更新される目標特徴量16および貼り合わせ位置情報42−1〜42−3に応じて、フレーム期間おきにシンボル43を更新する。これにより、シンボル重畳部41は、検出された目標を表すシンボル43を、リアルタイムで重畳させることが可能となる。
The
赤外線目標検出装置40により、パノラマ画像32にシンボル43を重畳し表示可能とすることで、オペレータは、リアルタイムで、目標位置および特徴量の容易な目視確認ができる。
By enabling the infrared
なお、シンボル43の形状は、本実施の形態で説明する正方形である場合に限られず、適宜変更可能である。シンボル43は、目標について重心位置および面積以外に、他の特徴量を表示するものとしても良い。
The shape of the
1、30、40 赤外線目標検出装置
2−1、2−2、2−3、2−4赤外線撮像器
3 空間安定化処理部
4 目標検出処理部
5 特徴量演算回路
6 赤外線撮像器制御部
10 赤外線
11−1、11−2、11−3、11−4 赤外線画像
12−1、12−2、12−3、12−4 赤外線画像
13−1、13−2、13−3、13−4 二値画像
14−1、14−2、14−3、14−4 撮像指令
15 フレームタイミング信号
16 目標特徴量
17−1、17−2、17−3、17−4 撮像視野範囲
21−1、21−2、21−3、21−4 画像格納用メモリ
22−1、22−2、22−3、22-4 粗精位置合わせ処理部
23−1、23−2、23−3、23−4 補間処理部
31 パノラマ画像合成部
32 パノラマ画像
33 重なり領域
41 シンボル重畳部
42−1、42−2、42−3 貼り合わせ位置情報
43 シンボル
44 スケールパターン
DESCRIPTION OF
Claims (3)
前記赤外線撮像器の変位による前記赤外線画像の動きを補正する空間安定化処理を実施する空間安定化処理部と、
前記空間安定化処理部での前記空間安定化処理を経た前記赤外線画像に対し、画素ごとの輝度値の二値化処理を実施し、前記赤外線画像から目標を検出する目標検出処理部と、
前記目標検出処理部での前記二値化処理により取得された二値画像を基に、前記目標の特徴量を算出する特徴量演算部と、を有し、
前記空間安定化処理部、前記目標検出処理部および前記特徴量演算部には、前記赤外線画像のフレームレートに同期させたフレームタイミング信号が供給され、
前記空間安定化処理部は、前記フレームタイミング信号の周期内において1フレーム当たりの前記空間安定化処理を実施し、
前記目標検出処理部は、前記フレームタイミング信号の周期内において1フレーム当たりの前記二値化処理を実施し、
前記特徴量演算部は、前記フレームレートに同期して前記特徴量を算出することを特徴とする赤外線目標検出装置。 A plurality of infrared imagers that are arranged so as to be able to image all directions by combining each other's field of view, detect the collected infrared rays, and image infrared images;
A space stabilization processing unit that performs a space stabilization process for correcting the movement of the infrared image due to the displacement of the infrared imaging device;
A target detection processing unit that performs a binarization process of a luminance value for each pixel on the infrared image that has undergone the spatial stabilization process in the spatial stabilization processing unit, and detects a target from the infrared image;
A feature amount calculation unit that calculates the target feature amount based on the binary image acquired by the binarization processing in the target detection processing unit,
A frame timing signal synchronized with a frame rate of the infrared image is supplied to the space stabilization processing unit , the target detection processing unit, and the feature amount calculation unit ,
The space stabilization processing unit performs the space stabilization processing per frame within a cycle of the frame timing signal,
The target detection processing unit performs the binarization processing per frame within a cycle of the frame timing signal ,
The infrared target detection apparatus, wherein the feature amount calculation unit calculates the feature amount in synchronization with the frame rate .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012003470A JP6113406B2 (en) | 2012-01-11 | 2012-01-11 | Infrared target detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012003470A JP6113406B2 (en) | 2012-01-11 | 2012-01-11 | Infrared target detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013142636A JP2013142636A (en) | 2013-07-22 |
JP6113406B2 true JP6113406B2 (en) | 2017-04-12 |
Family
ID=49039263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012003470A Active JP6113406B2 (en) | 2012-01-11 | 2012-01-11 | Infrared target detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6113406B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6360389B2 (en) * | 2014-08-25 | 2018-07-18 | 日本放送協会 | Video presentation apparatus and program |
CN104268844B (en) * | 2014-10-17 | 2017-01-25 | 中国科学院武汉物理与数学研究所 | Small target infrared image processing method based on weighing local image entropy |
JP6799900B2 (en) * | 2015-03-27 | 2020-12-16 | 三菱重工業株式会社 | Control devices, mobiles, control methods and programs |
FR3047103B1 (en) | 2016-01-26 | 2019-05-24 | Thales | METHOD FOR DETECTING TARGETS ON THE GROUND AND MOVING IN A VIDEO STREAM ACQUIRED BY AN AIRBORNE CAMERA |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0559547U (en) * | 1992-01-13 | 1993-08-06 | 三菱電機株式会社 | Image target detection device |
JP3216385B2 (en) * | 1994-01-10 | 2001-10-09 | 三菱電機株式会社 | Target detection and tracking device |
US5657073A (en) * | 1995-06-01 | 1997-08-12 | Panoramic Viewing Systems, Inc. | Seamless multi-camera panoramic imaging with distortion correction and selectable field of view |
JPH11205648A (en) * | 1998-01-09 | 1999-07-30 | Olympus Optical Co Ltd | Image synthesizing device |
JP4649695B2 (en) * | 1999-12-24 | 2011-03-16 | 富士通株式会社 | Infrared detector |
JP2001189925A (en) * | 1999-12-28 | 2001-07-10 | Glowing Shinko:Kk | Mobile object monitoring system |
JP4661187B2 (en) * | 2004-11-25 | 2011-03-30 | ソニー株式会社 | Synchronization signal generator and imaging device |
JP2008181364A (en) * | 2007-01-25 | 2008-08-07 | Sumitomo Electric Ind Ltd | Image processing apparatus, image processing program, image processing method, image processing system with the apparatus, and traffic information provision system with the apparatus |
US8106936B2 (en) * | 2007-03-16 | 2012-01-31 | Kollmorgen Corporation | Panoramic video imaging and display system |
JP2011235021A (en) * | 2010-05-13 | 2011-11-24 | Hoya Corp | Electronic endoscope system |
-
2012
- 2012-01-11 JP JP2012003470A patent/JP6113406B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013142636A (en) | 2013-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107852462B (en) | Camera module, solid-state imaging element, electronic apparatus, and imaging method | |
JP6330987B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5751986B2 (en) | Image generation device | |
JP4342493B2 (en) | Image stabilizer | |
US20170223338A1 (en) | Three dimensional scanning system and framework | |
JP6253280B2 (en) | Imaging apparatus and control method thereof | |
JP6113406B2 (en) | Infrared target detection device | |
GB2578769A (en) | Data processing systems | |
JP6041651B2 (en) | Image processing apparatus, image processing method, and program | |
US10410372B1 (en) | Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration | |
JPWO2018235300A1 (en) | Object detection device, object detection method, and computer-readable recording medium | |
JP2008109477A (en) | Image generating device and image generating method | |
CN102314678B (en) | Device and method for enhancing image resolution | |
JP5449980B2 (en) | Motion compensation apparatus and method | |
CN108076341B (en) | In-orbit real-time digital image stabilization method and system is imaged in a kind of video satellite | |
US20130314444A1 (en) | Image data transmitting device, image data receiving device, image data transmitting system, image data transmitting method, image data receiving method, transmission image data, and computer product | |
JP6513941B2 (en) | Image processing method, image processing apparatus and program | |
JP5566199B2 (en) | Image processing apparatus, control method therefor, and program | |
JP4998792B2 (en) | Camera, camera array and camera array system | |
JP5662088B2 (en) | Remote visual inspection device | |
JP7245773B2 (en) | Image processing device, image processing program and image processing method | |
JP2020194400A (en) | Image processing apparatus, image processing method, and program | |
JP5521641B2 (en) | Method and apparatus for compressing image processing data, and image pickup apparatus having the same | |
JP7008431B2 (en) | Imaging equipment, control methods, programs and imaging systems | |
CN112016568A (en) | Method and device for tracking image feature points of target object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160418 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160425 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20160617 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6113406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |