JP2009010669A - Image processing unit, imaging apparatus, image processing method, and program - Google Patents

Image processing unit, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2009010669A
JP2009010669A JP2007169880A JP2007169880A JP2009010669A JP 2009010669 A JP2009010669 A JP 2009010669A JP 2007169880 A JP2007169880 A JP 2007169880A JP 2007169880 A JP2007169880 A JP 2007169880A JP 2009010669 A JP2009010669 A JP 2009010669A
Authority
JP
Japan
Prior art keywords
image
area
region
visible light
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007169880A
Other languages
Japanese (ja)
Inventor
Shoji Tadano
詳二 只野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007169880A priority Critical patent/JP2009010669A/en
Publication of JP2009010669A publication Critical patent/JP2009010669A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect a desired object reliably based on a captured image signal in an image processing unit. <P>SOLUTION: The image processing unit has: a white extraction section 21 for extracting a first image region in which a pixel value becomes not less than a prescribed level, based on an infrared image signal from a far infrared camera 11; a white extraction section 22 for extracting a second image region in which at least a pixel value becomes not less than a prescribed level, based on a visible light image signal from a visible light camera 12 capturing an image in the same direction as that of the far infrared camera 11; an AND processing section 23 for extracting the overlapped region between the first and second image regions; a black substitution section 24 for substituting each pixel value in the overlapped region in infrared image signals for a pixel value less than a prescribed upper-limit threshold; and a white extraction section 25 for extracting the image region in which the pixel value becomes not less than a prescribed threshold set to a band not less than the upper-limit threshold, based on the substituted image signal. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、入力画像信号を基に特定の被写体を検出するための画像処理装置、この画像処理機能を備えた撮像装置、画像処理方法およびプログラムに関し、特に、2種類のカメラからの画像信号を基に被写体検出処理を行う画像処理装置、撮像装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus for detecting a specific subject based on an input image signal, an imaging apparatus having this image processing function, an image processing method, and a program. In particular, the present invention relates to image signals from two types of cameras. The present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program that perform subject detection processing.

従来、撮像した画像信号を基に画像処理を行うことで、撮像範囲内の特定の物体を検出する種々の技術が考えられており、このような技術は監視カメラなどに用いられていた。また、可視光を検出して撮像する可視光カメラだけでなく、近赤外線カメラや遠赤外線カメラも知られており、これらは撮像対象の赤外線放射エネルギーを検出することで物体を識別できるようになっていた。   Conventionally, various techniques for detecting a specific object within an imaging range by performing image processing based on a captured image signal have been considered, and such techniques have been used for surveillance cameras and the like. In addition to visible light cameras that detect and detect visible light, near-infrared cameras and far-infrared cameras are also known, and these objects can be identified by detecting the infrared radiation energy of the imaging target. It was.

ところで、可視光カメラと赤外線カメラ(特に遠赤外線カメラ)とでは、それぞれの特性の違いから、比較的確実に識別可能な物体も異なる。例えば、可視光カメラによる撮像画像からは、波に浮かぶ物体を比較的容易に検出できるが、その物体が人間か、あるいはゴミかを識別することは容易ではなかった。一方、遠赤外線カメラによる撮像画像からは、波に浮かぶ物体が人間か、あるいはゴミかを比較的容易に識別できるが、白波と人間とを識別することは容易ではなかった。   By the way, visible light cameras and infrared cameras (particularly far-infrared cameras) differ in the objects that can be identified relatively reliably due to the difference in their characteristics. For example, an object floating on a wave can be detected relatively easily from an image captured by a visible light camera, but it has not been easy to identify whether the object is a human or dust. On the other hand, from an image captured by a far-infrared camera, it is relatively easy to identify whether an object floating on a wave is a human or dust, but it is not easy to identify a white wave and a human.

また、1種類のカメラを用いて物体の検出精度を高めた画像監視装置として、背景の揺らぎを取り込むようにした基準画像との輝度差や、複数フレームの画像を加重平均して得た画像との輝度差などを参照することで、監視対象領域の日照条件が変化したときでも、侵入物体の誤検出や検出漏れを起こさないようにしたものがあった(例えば、特許文献1参照)。
特開2002−352340号公報(段落番号〔0034〕〜〔0047〕、図1)
In addition, as an image monitoring device that uses one type of camera to improve the detection accuracy of an object, a luminance difference from a reference image that captures background fluctuations, an image obtained by weighted averaging of images of a plurality of frames, and By referring to the brightness difference between the two, there is one that prevents an erroneous detection or detection omission of an intruding object even when the sunshine condition of the monitoring target area changes (see, for example, Patent Document 1).
JP 2002-352340 A (paragraph numbers [0034] to [0047], FIG. 1)

上記のように、可視光カメラと赤外線カメラとでは、それぞれについて検出しやすい物体とそうでない物体とが存在するので、それぞれのカメラでは必ずしも所望の物体を確実に検出できるとは限らなかった。上記の例では、可視光カメラと遠赤外線カメラとをそれぞれ単独で用いた場合には、波に浮かぶ人間を確実に検出することはできなかった。   As described above, in the visible light camera and the infrared camera, there are objects that are easy to detect and objects that are not, and therefore, each camera cannot always reliably detect a desired object. In the above example, when the visible light camera and the far-infrared camera are respectively used alone, it is impossible to reliably detect a person floating in a wave.

本発明はこのような点に鑑みてなされたものであり、撮像画像信号を基に、所望の物体をより確実に検出できるようにした画像処理装置、撮像装置、画像処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides an image processing apparatus, an imaging apparatus, an image processing method, and a program that can more reliably detect a desired object based on a captured image signal. For the purpose.

本発明では上記課題を解決するために、入力画像信号を基に特定の被写体を検出するための画像処理装置において、赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部と、前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部と、前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部と、を有することを特徴とする画像処理装置が提供される。   In the present invention, in order to solve the above problems, in an image processing apparatus for detecting a specific subject based on an input image signal, a pixel value is set to a first level band based on an infrared image signal from an infrared camera. A pixel value is included in the second level band based on a first region extraction unit that extracts a first image region included and a visible light image signal from a visible light camera that images the same direction as the infrared camera. A second region extracting unit that extracts the second image region, and the first image region and the second image region from either the first image region or the second image region, There is provided an image processing apparatus comprising: a third image area extraction unit that outputs a third image area excluding the overlapping area as an area including the specific subject.

このような画像処理装置では、赤外線カメラからの赤外線画像信号と、この赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号とを基に、被写体の検出処理が行われる。第1の領域抽出部は、赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出し、第2の領域抽出部は、可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する。第3の画像領域抽出部は、抽出された第1の画像領域または第2の画像領域のいずれか一方から、第1の画像領域と第2の画像領域との重複領域を除外した第3の画像領域を、検出の対象としていた特定の被写体を含む領域として出力する。このような処理では、第1の画像抽出部および第2の画像抽出部により共通に検出可能な被写体があったときに、この被写体以外の別の被写体を含むと考えられる領域が、第3の画像抽出部によって抽出される。   In such an image processing apparatus, subject detection processing is performed based on an infrared image signal from an infrared camera and a visible light image signal from a visible light camera that captures the same direction as the infrared camera. The first region extracting unit extracts a first image region whose pixel value is included in the first level band based on the infrared image signal, and the second region extracting unit is based on the visible light image signal. The second image area whose pixel value is included in the second level band is extracted. The third image region extraction unit removes an overlap region between the first image region and the second image region from either the extracted first image region or second image region. The image area is output as an area including a specific subject that has been a detection target. In such processing, when there is a subject that can be detected in common by the first image extraction unit and the second image extraction unit, the region that is considered to include another subject other than this subject is the third one. Extracted by the image extraction unit.

本発明の画像処理装置によれば、第1の画像抽出部および第2の画像抽出部により共通に検出可能な被写体があったときに、この被写体以外の別の被写体を含むと考えられる領域が、第3の画像抽出部によって抽出されるので、第1の画像抽出部または第2の画像抽出部のいずれか一方による領域抽出処理では、それらで共通に検出可能な被写体と識別不可能であった別の被写体を、第3の画像抽出部によって正確に検出できる。従って、赤外線カメラおよび可視光カメラをそれぞれ単体で使用した場合では検出が困難であった特定の被写体を、正確に検出できるようになる。   According to the image processing apparatus of the present invention, when there is a subject that can be detected in common by the first image extraction unit and the second image extraction unit, an area that is considered to include another subject other than the subject. Therefore, the region extraction process by either the first image extraction unit or the second image extraction unit is indistinguishable from the object that can be detected in common by the third image extraction unit. Another subject can be accurately detected by the third image extraction unit. Therefore, it becomes possible to accurately detect a specific subject that is difficult to detect when the infrared camera and the visible light camera are used alone.

以下、本発明の実施の形態を図面を参照して詳細に説明する。以下の実施の形態で説明する撮像装置は、被写体から反射または放射されている、異なる周波数帯域の光(電磁波)をそれぞれ検出可能な2つのカメラを備えている。ここでは、そのような撮像装置をハイブリッドカメラと呼称する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. An imaging apparatus described in the following embodiments includes two cameras that can detect light (electromagnetic waves) in different frequency bands that are reflected or emitted from a subject. Here, such an imaging apparatus is called a hybrid camera.

[第1の実施の形態]
図1は、第1の実施の形態に係るハイブリッドカメラの構成について概略的に示す図である。
[First Embodiment]
FIG. 1 is a diagram schematically showing the configuration of the hybrid camera according to the first embodiment.

図1に示すハイブリッドカメラ1は、主として、遠赤外線領域の電磁波を検出可能な遠赤外線カメラ11と、可視光を検出可能な可視光カメラ12と、各カメラによる撮像画像を用いて信号処理を行う画像処理回路13とを備えている。   The hybrid camera 1 shown in FIG. 1 mainly performs signal processing using a far-infrared camera 11 that can detect electromagnetic waves in the far-infrared region, a visible light camera 12 that can detect visible light, and images captured by the cameras. And an image processing circuit 13.

遠赤外線カメラ11および可視光カメラ12は、それぞれ同じ方向を同じ画角で撮像する。遠赤外線カメラ11は、遠赤外線を検出するセンサとして、例えば、照射された遠赤外線が持つエネルギー(熱)を検知する焦電素子、ボロメータなどを備えている。また、可視光カメラ12は、可視光を検出するセンサとして、例えば、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)型イメージセンサなどの固体撮像素子を備えている。   The far-infrared camera 11 and the visible light camera 12 capture images in the same direction with the same angle of view. The far-infrared camera 11 includes, for example, a pyroelectric element, a bolometer, or the like that detects energy (heat) of the irradiated far-infrared rays as a sensor that detects far-infrared rays. The visible light camera 12 includes a solid-state imaging device such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor as a sensor for detecting visible light.

画像処理回路13は、遠赤外線カメラ11および可視光カメラ12により撮像された画像信号を基に、各種の信号処理を行う。特に、本実施の形態では、これら双方の画像信号を基に、撮像範囲内から特定の物体を検出して、出力画像内においてその物体の検出を明示させるような処理を実行する。   The image processing circuit 13 performs various signal processing based on the image signals captured by the far-infrared camera 11 and the visible light camera 12. In particular, in the present embodiment, based on both of these image signals, a process is performed in which a specific object is detected from the imaging range and the detection of the object is clearly indicated in the output image.

なお、遠赤外線カメラ11および可視光カメラ12は、それぞれのセンサからの出力信号をデジタル信号に変換する機能を備え、画像処理回路13は、遠赤外線カメラ11および可視光カメラ12から出力されるデジタル画像信号を基に処理を行う。また、遠赤外線カメラ11および可視光カメラ12は、それぞれ画素数の異なるセンサを具備していてもよい。ただし、この場合には、各カメラ(あるいはそれらの一方)の内部には解像度変換機能が設けられ、各カメラから画像処理回路13に対しては、それぞれフレーム当たり同じ画素数のデジタル画像信号が出力されるようにする。   The far-infrared camera 11 and the visible light camera 12 have a function of converting an output signal from each sensor into a digital signal, and the image processing circuit 13 is a digital output from the far-infrared camera 11 and the visible light camera 12. Processing is performed based on the image signal. Further, the far-infrared camera 11 and the visible light camera 12 may each include sensors having different numbers of pixels. However, in this case, each camera (or one of them) is provided with a resolution conversion function, and each camera outputs a digital image signal having the same number of pixels per frame to the image processing circuit 13. To be.

また、この実施の形態では、ハイブリッドカメラ1は通信回線を通じて外部の機器と接続することが可能になっている。図1では、外部機器としてパーソナルコンピュータ(PC)2が接続されており、例えば、ハイブリッドカメラ1の画像処理回路13からの出力画像をPC2のモニタにおいて表示させることや、出力画像信号をPC2において保存することができるようになっている。これにより、ハイブリッドカメラ1による撮像領域をPC2側から監視できるようになる。さらに、ハイブリッドカメラ1の動作制御や各種設定のための操作を、PC2側から行うことができるようにしてもよい。   In this embodiment, the hybrid camera 1 can be connected to an external device through a communication line. In FIG. 1, a personal computer (PC) 2 is connected as an external device. For example, an output image from the image processing circuit 13 of the hybrid camera 1 is displayed on the monitor of the PC 2 and an output image signal is stored in the PC 2. Can be done. Thereby, the imaging area by the hybrid camera 1 can be monitored from the PC 2 side. Furthermore, operations for controlling the operation of the hybrid camera 1 and various settings may be performed from the PC 2 side.

図2は、第1の実施の形態に係るハイブリッドカメラのさらに詳細な内部構成を示す図である。
図2に示すように、ハイブリッドカメラ1の画像処理回路13は、白色抽出部21,22、論理積(AND)処理部23、黒色置換部24、白色抽出部25、表示枠生成部26、合成処理部27、および設定レジスタ28を備えている。さらに、このハイブリッドカメラ1には、遠赤外線カメラ11および可視光カメラ12のそれぞれの撮像動作を同期させるための同期信号生成部29が設けられている。
FIG. 2 is a diagram showing a more detailed internal configuration of the hybrid camera according to the first embodiment.
As shown in FIG. 2, the image processing circuit 13 of the hybrid camera 1 includes white extraction units 21 and 22, a logical product (AND) processing unit 23, a black replacement unit 24, a white extraction unit 25, a display frame generation unit 26, and a composition. A processing unit 27 and a setting register 28 are provided. Further, the hybrid camera 1 is provided with a synchronization signal generator 29 for synchronizing the imaging operations of the far-infrared camera 11 and the visible light camera 12.

遠赤外線カメラ11から出力される信号に基づく画像は、例えば白黒画像で表すことができる。白色抽出部21は、遠赤外線カメラ11からの画像信号から、所定のしきい値以上の階調を持つ領域を検出することで、白色領域を抽出する。白色抽出部21は、白色領域を抽出するための階調しきい値を、設定レジスタ28から読み込んで動作する。   An image based on a signal output from the far-infrared camera 11 can be represented by, for example, a black and white image. The white extraction unit 21 extracts a white region by detecting a region having a gradation equal to or higher than a predetermined threshold from the image signal from the far-infrared camera 11. The white extraction unit 21 operates by reading a gradation threshold value for extracting a white region from the setting register 28.

一方、可視光カメラ12から出力される画像信号は、R/G/B(Red/Green/Blue)の各色成分により構成される。白色抽出部22は、可視光カメラ12からの画像信号から、R/G/Bの各色成分と成分ごとのしきい値との比較結果、および、各色成分間の関係に基づいて、白色領域を抽出する。白色抽出部21と同様に、白色抽出部22も、白色領域を抽出するための各色成分のしきい値などの条件を、設定レジスタ28から読み込んで動作する。   On the other hand, the image signal output from the visible light camera 12 is composed of R / G / B (Red / Green / Blue) color components. The white extraction unit 22 extracts a white region from an image signal from the visible light camera 12 based on a comparison result between each color component of R / G / B and a threshold value for each component, and a relationship between the color components. Extract. Similar to the white extraction unit 21, the white extraction unit 22 operates by reading conditions such as threshold values of each color component for extracting a white region from the setting register 28.

AND処理部23は、白色抽出部21および22のそれぞれによって抽出された白色領域の論理積をとる。すなわち、AND処理部23では、遠赤外線カメラ11および可視光カメラ12の双方により白色と判定された領域のみを抽出し、いずれか一方のみにより白色と判定された領域を除去する。   The AND processing unit 23 calculates the logical product of the white areas extracted by the white extraction units 21 and 22. That is, the AND processing unit 23 extracts only the area determined to be white by both the far-infrared camera 11 and the visible light camera 12, and removes the area determined to be white by only one of them.

黒色置換部24は、遠赤外線カメラ11からの画像信号のうち、AND処理部23により抽出された白色領域のみを最低階調値(0)に置換して、この領域を黒色に変換する。
白色抽出部25は、黒色置換部24からの画像信号から、所定のしきい値以上となる領域を検出して、白色領域を抽出する。この白色抽出部25も、白色領域を抽出するための階調しきい値を、設定レジスタ28から読み込んで動作する。
The black replacement unit 24 replaces only the white region extracted by the AND processing unit 23 in the image signal from the far-infrared camera 11 with the lowest gradation value (0), and converts this region to black.
The white extraction unit 25 detects a region having a predetermined threshold value or more from the image signal from the black replacement unit 24 and extracts a white region. The white extraction unit 25 also operates by reading the gradation threshold value for extracting the white region from the setting register 28.

表示枠生成部26は、白色抽出部25により抽出された白色領域を視覚的に示すための画像領域を、合成処理部27に対して出力する。ここでは例として、白色領域を包含する所定形状の表示枠を生成し、その表示枠の領域を合成処理部27に出力する。また、表示枠生成部26は、表示枠の形状、枠体の幅などを設定レジスタ28から読み込み、それに応じて表示枠を生成する。   The display frame generation unit 26 outputs an image region for visually showing the white region extracted by the white extraction unit 25 to the synthesis processing unit 27. Here, as an example, a display frame having a predetermined shape including a white area is generated, and the display frame area is output to the composition processing unit 27. Further, the display frame generation unit 26 reads the shape of the display frame, the width of the frame, and the like from the setting register 28, and generates a display frame accordingly.

合成処理部27は、可視光カメラ12からの画像信号に対して、表示枠生成部26により生成された表示枠を合成する。例えば、合成処理部27は、可視光カメラ12からの画像信号のうち、表示枠生成部26から出力された表示枠の領域のみを所定の色に置換する。これにより、白色抽出部25により抽出された白色領域の周囲に、所定の色の表示枠が表示された画像が生成される。また、合成処理部27は、表示枠を表示するための色などを設定レジスタ28から読み込み、それに応じて表示枠の合成を行う。   The synthesis processing unit 27 synthesizes the display frame generated by the display frame generation unit 26 with the image signal from the visible light camera 12. For example, the composition processing unit 27 replaces only the area of the display frame output from the display frame generation unit 26 in the image signal from the visible light camera 12 with a predetermined color. Thereby, an image in which a display frame of a predetermined color is displayed around the white area extracted by the white extraction unit 25 is generated. Further, the composition processing unit 27 reads a color or the like for displaying the display frame from the setting register 28 and synthesizes the display frame accordingly.

設定レジスタ28は、画像処理回路13内の動作に必要な各種設定情報を保持する。また、設定レジスタ28の情報は、ハイブリッドカメラ1が備える入力部(図示せず)からの入力操作や、PC2などの外部機器での入力操作に応じて書き換えることができ、これにより、画像処理回路13内の動作設定を変更できるようになっている。   The setting register 28 holds various setting information necessary for the operation in the image processing circuit 13. Further, the information in the setting register 28 can be rewritten according to an input operation from an input unit (not shown) provided in the hybrid camera 1 or an input operation in an external device such as the PC 2, whereby the image processing circuit The operation setting in 13 can be changed.

また、遠赤外線カメラ11および可視光カメラ12は、同期信号生成部29により生成されるタイミング信号に同期して、それぞれ同じタイミングで撮像動作を行う。なお、これらのカメラは、必ずしも完全に同じタイミングで撮像動作が実行される必要はない。例えば、各カメラの撮像間隔がそれぞれ異なるものとされてもよい。ただし、このような場合でも、言うまでもなく、各カメラの撮像タイミングはできるだけ近接していることが望ましい。   Further, the far-infrared camera 11 and the visible light camera 12 perform the imaging operation at the same timing in synchronization with the timing signal generated by the synchronization signal generation unit 29. Note that these cameras do not necessarily have to perform imaging operations at exactly the same timing. For example, the imaging interval of each camera may be different. However, even in such a case, it goes without saying that it is desirable that the imaging timings of the cameras be as close as possible.

以上の構成を有するハイブリッドカメラ1では、遠赤外線カメラ11および可視光カメラ12の双方の物体検出結果を用いることで、それぞれ一方のみでは識別不可能であった物体を確実に検出できるようにしている。具体的には、以下の図3〜図5で説明するように、波の立った水面付近に存在する人間を確実に検出できるようにする。   In the hybrid camera 1 having the above configuration, by using the object detection results of both the far-infrared camera 11 and the visible light camera 12, it is possible to reliably detect an object that cannot be identified by only one of them. . Specifically, as will be described with reference to FIGS. 3 to 5 below, it is possible to reliably detect a human being existing near a waved water surface.

図3〜図5は、ハイブリッドカメラ内の各部における画像信号に対応する画像例を示す図である。以下、これらの図を利用して、ハイブリッドカメラ1における物体検出処理の流れについて、順を追って具体的に説明する。   3 to 5 are diagrams illustrating examples of images corresponding to image signals in each unit in the hybrid camera. Hereinafter, the flow of the object detection process in the hybrid camera 1 will be specifically described step by step using these drawings.

まず、本実施の形態では、遠赤外線カメラ11からは、8ビットのデジタル画像信号が出力されるものとする。この場合、階調値“0”の画素が最も強い黒色となり、階調値“255”の画素が最も強い白色となる。一方、可視光カメラ12からは、R/G/Bの各成分が8ビットずつのデジタル・カラー画像信号が出力されるものとする。画像信号におけるR/G/Bの各成分の値を“(r/g/b)”と表すと、“(0/0/0)”である画素は最も強い黒色となり、“(255/255/255)”である画素は最も強い白色となる。   First, in this embodiment, it is assumed that the far-infrared camera 11 outputs an 8-bit digital image signal. In this case, the pixel with the gradation value “0” is the strongest black, and the pixel with the gradation value “255” is the strongest white. On the other hand, the visible light camera 12 outputs a digital color image signal in which each R / G / B component is 8 bits. When the value of each component of R / G / B in the image signal is expressed as “(r / g / b)”, the pixel “(0/0/0)” is the strongest black, and “(255/255) / 255) "is the strongest white color.

図3において、画像p1およびp2は、遠赤外線カメラ11および可視光カメラ12によって同時に撮像されて出力された画像信号P1およびP2に対応している。これらの画像p1およびp2には、被写体の例として、海面上の白波101および102と、これらの白波101および102を除く海面103と、海面103に浮かぶ人間104とが存在している。   In FIG. 3, images p <b> 1 and p <b> 2 correspond to image signals P <b> 1 and P <b> 2 that are simultaneously captured and output by the far-infrared camera 11 and the visible light camera 12. In these images p1 and p2, white waves 101 and 102 on the sea surface, a sea surface 103 excluding these white waves 101 and 102, and a human 104 floating on the sea surface 103 exist as examples of subjects.

ここで、遠赤外線カメラ11により撮像された画像p1では、白波101の階調値が“250”、白波102の階調値が“252”、海面103の階調値が“10”、人間104の階調値が“251”であったとする。   Here, in the image p 1 captured by the far-infrared camera 11, the gradation value of the white wave 101 is “250”, the gradation value of the white wave 102 is “252”, the gradation value of the sea surface 103 is “10”, and the human 104 Is assumed to be “251”.

一方、可視光カメラ12により撮像された画像p2では、白波101での各色成分の値が“(252/252/251)”、白波102での各色成分の値が“(250/250/250)”、海面103での各色成分の値が“(20/20/200)”、人間104の領域での各色成分の値が“(31/32/30)”であったとする。   On the other hand, in the image p2 captured by the visible light camera 12, the value of each color component in the white wave 101 is “(252/252/251)”, and the value of each color component in the white wave 102 is “(250/250/250). It is assumed that the value of each color component on the sea surface 103 is “(20/20/200)” and the value of each color component in the area of the human 104 is “(31/32/30)”.

白色抽出部21では、遠赤外線カメラ11からの画像信号P1のうち、所定のしきい値以上の階調を持つ領域が検出されることで、白色領域が抽出される。ここでは、階調しきい値の例として、設定レジスタ28に“250”が設定されているものとする。   The white extraction unit 21 extracts a white region by detecting a region having a gradation equal to or higher than a predetermined threshold in the image signal P1 from the far-infrared camera 11. Here, it is assumed that “250” is set in the setting register 28 as an example of the gradation threshold value.

図3の画像p3は、白色抽出部21から出力される画像信号P3に対応しており、上記設定に基づく白色抽出部21の処理により、画像p1の被写体のうち、白波101および102と人間104のみが、白色領域として抽出される。なお、画像信号P3は、画素値として“0”と“1”のいずれかのみをとる2値画像信号とされ、抽出された白色領域(すなわち、白波101および102と人間104の各領域)の画素値が“1”とされ、その他の領域の画素値が“0”とされる。図3の画像p3では、画素値“1”の領域を塗りつぶして示している。   The image p3 in FIG. 3 corresponds to the image signal P3 output from the white extraction unit 21, and the white waves 101 and 102 and the human 104 among the subjects of the image p1 are processed by the white extraction unit 21 based on the above setting. Only is extracted as a white region. Note that the image signal P3 is a binary image signal having only “0” or “1” as a pixel value, and the extracted white region (that is, each region of the white waves 101 and 102 and the human 104). The pixel value is set to “1”, and the pixel values in other areas are set to “0”. In the image p3 in FIG. 3, the region of the pixel value “1” is shown in a solid color.

一方、白色抽出部22では、可視光カメラ12からの画像信号から、R/G/Bの各色成分と成分ごとのしきい値との比較結果、および、各色成分間の関係に基づいて、白色領域が抽出される。ここでは例として、R/G/Bの成分の値がそれぞれしきい値th_r,th_g,th_b以上であり、なおかつ、各色成分間の差が所定の値以内に収まっている場合に、その画素が白色であると判定する。後者の条件は、次の3式がすべて成立することである。
r−rl≦g≦r+rh,g−gl≦b≦g+gh,b−bl≦r≦b+bh
なお、上記の式において、r,g,bはそれぞれ画像信号P2におけるR成分、G成分、B成分の値を示す。また、rl,rh,gl,gh,bl,bhは、それぞれ各色成分間の差のレンジを示す0以上の係数であって、rl≦th_rh,th_gl≦th_gh,th_bl≦th_bhの関係を有する。
On the other hand, in the white extraction unit 22, based on the comparison result between each color component of R / G / B and the threshold value for each component from the image signal from the visible light camera 12, and the relationship between the color components, Regions are extracted. Here, as an example, if the R / G / B component values are equal to or greater than the threshold values th_r, th_g, and th_b, respectively, and the difference between the color components is within a predetermined value, the pixel is Determined to be white. The latter condition is that the following three expressions are all satisfied.
r−rl ≦ g ≦ r + rh, g−gl ≦ b ≦ g + gh, b−bl ≦ r ≦ b + bh
In the above equation, r, g, and b represent the values of the R component, G component, and B component in the image signal P2, respectively. Further, rl, rh, gl, gh, bl, and bh are coefficients of 0 or more that indicate the difference ranges between the respective color components, and have a relationship of rl ≦ th_rh, th_gl ≦ th_gh, th_bl ≦ th_bh.

本実施の形態では、しきい値th_r,th_g,th_bがいずれも“250”、係数rl,rh,gl,gh,bl,bhがいずれも“2”とされ、これらの設定値が設定レジスタ28に設定されるものとする。   In this embodiment, the threshold values th_r, th_g, and th_b are all “250”, the coefficients rl, rh, gl, gh, bl, and bh are all “2”. Shall be set to

図3の画像p4は、白色抽出部22から出力される画像信号P4に対応しており、上記設定に基づく白色抽出部22の処理により、画像p2の被写体のうち、白波101および102のみが白色領域として抽出される。なお、画像信号P3と同様に、画像信号P4は画素値として“0”と“1”のいずれかのみをとる2値画像信号とされ、抽出された白色領域(すなわち、白波101および102の各領域)の画素値が“1”とされ、その他の領域の画素値が“0”とされる。図3の画像p4では、画素値“1”の領域を塗りつぶして示している。   The image p4 in FIG. 3 corresponds to the image signal P4 output from the white extraction unit 22, and only white waves 101 and 102 are white among the subjects of the image p2 by the processing of the white extraction unit 22 based on the above setting. Extracted as a region. Similar to the image signal P3, the image signal P4 is a binary image signal having only “0” or “1” as a pixel value, and the extracted white region (that is, each of the white waves 101 and 102). The pixel value of “region” is set to “1”, and the pixel values of other regions are set to “0”. In the image p4 in FIG. 3, the region of the pixel value “1” is shown in a solid color.

なお、白色抽出部22における他の処理例として、R/G/Bの成分の値がそれぞれしきい値th_r,th_g,th_b以上であることのみを条件として、白色領域を抽出してもよい。ただし、上述したように、さらに各色成分間の関係に関する条件も用いることで、より白色に近い領域を正確に抽出できるようになる。   As another example of processing in the white extraction unit 22, a white region may be extracted on the condition that R / G / B component values are equal to or greater than threshold values th_r, th_g, and th_b, respectively. However, as described above, it is possible to accurately extract a region closer to white by using a condition relating to the relationship between the color components.

次に、AND処理部23により、白色抽出部21および22から各画像信号P3およびP4のそれぞれにおける対応する画素値同士の論理積が演算される。これにより、遠赤外線カメラ11および可視光カメラ12の双方により白色と判定された領域を示す画像信号P5が出力される。   Next, the AND processing unit 23 calculates the logical product of the corresponding pixel values in the image signals P3 and P4 from the white extraction units 21 and 22, respectively. As a result, an image signal P5 indicating an area determined to be white by both the far-infrared camera 11 and the visible light camera 12 is output.

図4の画像p5はこの画像信号P5に対応しており、AND処理部23の処理により、画像p3およびp4における白色領域のうち、白波101および102のみが白色領域として抽出される。なお、画像信号P5は、画素値として“0”と“1”のいずれかのみをとる2値画像信号とされ、抽出された白色領域(すなわち、白波101および102の各領域)の画素値が“1”とされ、その他の領域の画素値が“0”とされる。図4の画像p5では、画素値“1”の領域を塗りつぶして示している。   The image p5 in FIG. 4 corresponds to the image signal P5, and only white waves 101 and 102 are extracted as white regions from the white regions in the images p3 and p4 by the processing of the AND processing unit 23. The image signal P5 is a binary image signal that takes only “0” or “1” as the pixel value, and the pixel value of the extracted white area (that is, each area of the white waves 101 and 102) is “1” is set, and pixel values in other regions are set to “0”. In the image p5 in FIG. 4, the region of the pixel value “1” is shown in a solid color.

次に、黒色置換部24により、遠赤外線カメラ11からの画像信号P1のうち、AND処理部23により抽出された白色領域のみが最低階調値(0)に置換され、この領域が黒色に変換される。図4の画像p6は、黒色置換部24から出力される画像信号P6に対応しており、黒色置換部24の処理により、この画像p6では、画像p1内の白波101および102の領域の画素値が“0”とされて、黒色に変換される。   Next, only the white region extracted by the AND processing unit 23 in the image signal P1 from the far-infrared camera 11 is replaced with the lowest gradation value (0) by the black replacement unit 24, and this region is converted to black. Is done. The image p6 in FIG. 4 corresponds to the image signal P6 output from the black replacement unit 24. By the processing of the black replacement unit 24, the pixel values of the areas of the white waves 101 and 102 in the image p1 are obtained in this image p6. Is set to “0” and converted to black.

次に、白色抽出部25により、黒色置換部24からの画像信号P6から、所定のしきい値以上となる領域が検出されて、白色領域が再度抽出される。ここでは、階調しきい値の例として、設定レジスタ28に“250”が設定されているものとする。   Next, the white extraction unit 25 detects an area having a predetermined threshold value or more from the image signal P6 from the black replacement unit 24, and the white area is extracted again. Here, it is assumed that “250” is set in the setting register 28 as an example of the gradation threshold value.

図4の画像p7は、白色抽出部25から出力される画像信号P7に対応している。上述したように、黒色置換部24からの画像信号P6では、白波101および102の領域の画素値は“0”、海面103の画素値は“10”、人間104の領域の画素値は“251”であったので、上記設定に基づく白色抽出部25の処理により、画像p6の被写体のうち、人間104の領域のみが白色領域として抽出される。   The image p7 in FIG. 4 corresponds to the image signal P7 output from the white extraction unit 25. As described above, in the image signal P6 from the black replacement unit 24, the pixel values of the white waves 101 and 102 are “0”, the sea surface 103 is “10”, and the human 104 is “251”. Therefore, only the region of the human 104 is extracted as a white region from the subject of the image p6 by the processing of the white extraction unit 25 based on the above setting.

次に、表示枠生成部26により、白色抽出部25で抽出された白色領域を包含する所定形状の表示枠が生成され、その表示枠の位置を示す画像信号P8が出力される。図4の画像p8は、この画像信号P8に対応している。ここでは例として、白色抽出部25により抽出された人間104の領域を包含するような矩形の表示枠105が生成され、画像p8では、この表示枠105に対応する領域の画素値のみが“1”とされ、他の領域の画素値が“0”とされる。   Next, the display frame generation unit 26 generates a display frame having a predetermined shape including the white area extracted by the white extraction unit 25, and outputs an image signal P8 indicating the position of the display frame. The image p8 in FIG. 4 corresponds to the image signal P8. Here, as an example, a rectangular display frame 105 that includes the area of the human 104 extracted by the white extraction unit 25 is generated. In the image p8, only the pixel value of the area corresponding to the display frame 105 is “1”. ", And the pixel values in other areas are set to" 0 ".

以上の処理によって人間が検出され、その検出位置を示す画像信号P8が出力されると、合成処理部27では、可視光カメラ12からの画像信号P2に対して、表示枠105を示す信号を合成する処理が実行される。ここでは例として、可視光カメラ12からの画像信号P2の画素のうち、表示枠生成部26からの画像信号P8の画素値が“1”である画素の値が、所定の色(例えば赤色)に対応する値に変換される。図5の画像p9は、合成処理部27から出力される画像信号P9に対応しており、この画像p9上では、検出された人間104の領域を取り囲むように、所定の色の表示枠105が合成表示される。   When a human is detected by the above processing and an image signal P8 indicating the detected position is output, the composition processing unit 27 synthesizes a signal indicating the display frame 105 with the image signal P2 from the visible light camera 12. Is executed. Here, as an example, among the pixels of the image signal P2 from the visible light camera 12, the pixel value of the pixel value of the image signal P8 from the display frame generation unit 26 is “1” is a predetermined color (for example, red). Converted to a value corresponding to. An image p9 in FIG. 5 corresponds to the image signal P9 output from the synthesis processing unit 27, and a display frame 105 of a predetermined color is provided on the image p9 so as to surround the detected region of the person 104. Composite display.

以上説明した処理によれば、白波が立っている水面などに人間が存在しているときでも、この人間を正確に検出できるようになる。例えば、可視光カメラ12では、水面に浮かぶ物体を比較的高精度に検出できるが、特に、その物体の周囲からの反射光が強いときや、あるいは周囲に白波などの明るい被写体が映っているときには、水面上の物体が相対的に暗くなるために、その物体が人間か否かを判別することが困難になる場合があった。一方、遠赤外線カメラ11では、物体の温度を検出可能であることから、水面上の物体が人間であるか否かを比較的高精度に検出できる。しかし、水面に対して太陽光が強く照射しているときなどには、水面の白波が人間と同じような階調値をとってしまう場合があり、人間を白波と区別することが困難になる場合があった。   According to the processing described above, even when a human is present on the water surface where white waves are standing, the human can be accurately detected. For example, the visible light camera 12 can detect an object floating on the water surface with relatively high accuracy. In particular, when the reflected light from the surroundings of the object is strong or a bright subject such as a white wave is reflected in the surroundings. Since an object on the water surface becomes relatively dark, it may be difficult to determine whether the object is a human being. On the other hand, since the far-infrared camera 11 can detect the temperature of an object, it can detect with high accuracy whether or not the object on the water surface is a human. However, when sunlight is strongly shining on the water surface, white waves on the water surface may take gradation values similar to humans, making it difficult to distinguish humans from white waves. There was a case.

これに対して、上記処理によれば、可視光カメラ12による撮像画像から白色領域を検出することで、白波の領域を検出し、遠赤外線カメラ11による撮像画像から検出した人間の検出領域から、可視光カメラ12に基づく白波の検出領域を除外することで、人間を白波と区別して正確に検出できる。そして、このような検出処理を、遠赤外線カメラ11および可視光カメラ12の各撮像画像信号の画素値をしきい値と比較する比較処理と、その比較結果に対する論理積演算とを主とする単純な処理で実行できる。従って、例えば人間の形状に対応するテンプレートを用いたパターンマッチングなどの複雑な処理を行った場合などと比較して、画像処理回路13の回路規模や処理負荷が大幅に抑制されて、ハイブリッドカメラ1の製造コストや消費電力を低減でき、またその装置自体を小型化・軽量化できるようになる。   On the other hand, according to the above process, the white region is detected by detecting the white region from the image captured by the visible light camera 12, and the human detection region detected from the image captured by the far-infrared camera 11 is detected. By excluding the white wave detection region based on the visible light camera 12, it is possible to accurately detect a human being distinguished from the white wave. Such detection processing is simply performed mainly by comparison processing for comparing pixel values of each captured image signal of the far-infrared camera 11 and the visible light camera 12 with a threshold value, and logical product operation on the comparison result. It can be executed with simple processing. Therefore, for example, compared with a case where complicated processing such as pattern matching using a template corresponding to a human shape is performed, the circuit scale and processing load of the image processing circuit 13 are greatly suppressed, and the hybrid camera 1 Manufacturing cost and power consumption can be reduced, and the device itself can be reduced in size and weight.

なお、以上の実施の形態の例では、白色抽出部25により抽出された白色領域(すなわち、人間104の検出領域)を視覚的に示すための画像として、矩形の表示枠が生成されているが、例えば円形などの他の形状の表示枠が生成されてもよい。また、表示枠が点線などの他の種類の線により構成されてもよく、さらに、合成画像上で表示枠が点滅するようにしてもよい。また、表示枠が、抽出された人間104の領域の輪郭に沿って形成されるようにしてもよい。また、このような表示枠の形状や太さ、線の種類、表示方法などを、ユーザ操作に応じて任意に設定可能としてもよい。また、表示枠の周囲の色に応じて、自動的に表示枠が目立つ色に設定されるようにしてもよい。また、表示枠の合成表示とともに、アラーム音声を発したり、その音声信号を画像信号とともに出力してもよい。また、表示枠の代わりに、検出された物体(人間104)自体の色を変化させてもよい。   In the example of the above embodiment, a rectangular display frame is generated as an image for visually showing the white area extracted by the white extraction unit 25 (that is, the detection area of the human 104). For example, a display frame having another shape such as a circle may be generated. Further, the display frame may be configured by other types of lines such as dotted lines, and the display frame may blink on the composite image. Further, the display frame may be formed along the contour of the extracted region of the person 104. Further, the shape and thickness of such a display frame, the type of line, the display method, and the like may be arbitrarily set according to a user operation. Further, the display frame may be automatically set to a conspicuous color according to the color around the display frame. Further, an alarm sound may be generated together with the composite display of the display frame, or the sound signal may be output together with the image signal. Further, instead of the display frame, the color of the detected object (human 104) itself may be changed.

[第2の実施の形態]
図6は、第2の実施の形態に係るハイブリッドカメラの内部構成を示す図である。なお、この図6では、図2に対応するブロックには同じ符号を付して示しており、その説明を省略することにする。
[Second Embodiment]
FIG. 6 is a diagram illustrating an internal configuration of the hybrid camera according to the second embodiment. In FIG. 6, blocks corresponding to those in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted.

図6に示す画像処理回路13aでは、遠赤外線カメラ11および可視光カメラ12の各出力画像信号から白色領域を抽出する白色抽出部21および22の後段に、白色抽出部21および22の出力画像信号について画素ごとに否定論理積をとる否定論理積(NAND)処理部31が設けられている。   In the image processing circuit 13a shown in FIG. 6, the output image signals of the white extraction units 21 and 22 are arranged after the white extraction units 21 and 22 that extract white regions from the output image signals of the far-infrared camera 11 and the visible light camera 12. Is provided with a NAND (NAND) processing unit 31 that performs a NAND operation for each pixel.

前述したように、白色抽出部21および22からの各出力画像信号においては、それぞれで抽出された白色領域の画素値が“1”とされ、その他の領域の画素値が“0”とされている。従って、これらの出力画像信号の否定論理積をとることで、双方の白色抽出部21および22により白色と判定された領域(図3の画像p3およびp4における白波101および102の領域)が除去され、一方でのみ白色と判定された領域(画像p3の人間104の領域)のみが抽出される。   As described above, in each output image signal from the white extraction units 21 and 22, the pixel value of the white area extracted by each is set to “1”, and the pixel values of the other areas are set to “0”. Yes. Accordingly, by taking the negative logical product of these output image signals, the areas determined to be white by both the white extraction units 21 and 22 (areas of the white waves 101 and 102 in the images p3 and p4 in FIG. 3) are removed. On the other hand, only the region determined to be white (region of the human 104 in the image p3) is extracted.

表示枠生成部26では、このように抽出された白色領域に対して表示枠の位置が生成され、合成処理部27では、可視光カメラ12による撮像画像に対して、検出された白色領域(すなわち、人間を検出した領域)の周囲に表示枠を合成した合成画像の信号が生成される。   In the display frame generation unit 26, the position of the display frame is generated with respect to the white region extracted in this way, and in the synthesis processing unit 27, the detected white region (that is, the detected white region (that is, the image captured by the visible light camera 12). , A synthesized image signal in which a display frame is synthesized around a region where a human is detected is generated.

以上の処理により、この第2の実施の形態でも、第1の実施の形態と同様に、人間を白波と区別して正確に検出できる。そして、このような検出処理を、遠赤外線カメラ11および可視光カメラ12の各撮像画像信号の画素値をしきい値と比較する比較処理と、その比較結果に対する否定論理積演算とを主とする単純な処理で実行できる。   Through the above processing, in the second embodiment as well, in the same way as in the first embodiment, it is possible to accurately detect a person by distinguishing them from white waves. Such detection processing is mainly performed by comparison processing for comparing the pixel value of each captured image signal of the far-infrared camera 11 and the visible light camera 12 with a threshold value, and a NAND operation on the comparison result. It can be executed with simple processing.

なお、以上の各実施の形態では、主として、2種類のカメラによる撮像画像信号に対するしきい値との比較処理と論理演算とによって、人間を正確に検出するようにしたが、このような処理に対して、より複雑な画像処理による公知の人間検出処理を組み合わせることで、より正確な人間検出を行うようにしてもよい。例えば、可視光カメラの出力画像信号を基に、肌色検出やテンプレート画像とのマッチング処理などを用いた人間検出処理を行い、この処理により検出された人間検出領域と、図2の白色抽出部25あるいは図6のNAND処理部31が出力する白色抽出領域とが一致したときに、その領域を人間が検出された領域と判定するようにしてもよい。   In each of the above-described embodiments, humans are accurately detected mainly by comparison processing with a threshold value for captured image signals from two types of cameras and logical operation. On the other hand, more accurate human detection may be performed by combining known human detection processing using more complicated image processing. For example, based on the output image signal of the visible light camera, human detection processing using skin color detection or matching processing with a template image is performed, and the human detection area detected by this processing and the white extraction unit 25 in FIG. Alternatively, when the white extraction region output from the NAND processing unit 31 in FIG. 6 matches, the region may be determined as a region where a human is detected.

また、上記では、人間を白波と区別して検出できることを述べたが、遠赤外線カメラと可視光カメラとを用いた場合には、白波以外の別の物体と人間とを区別することもできる。例えば、遠赤外線カメラと可視光カメラの双方の撮像画像で概ね白色として検出される電灯(蛍光灯など)の光が存在する環境下でも、双方によるこの電灯の検出領域を除外することで、遠赤外線カメラにより白色として検出された人間のみを、電灯と区別して正確に検出することが可能になる。   In the above description, it has been described that a human can be detected separately from a white wave. However, when a far-infrared camera and a visible light camera are used, another object other than the white wave can be distinguished from a human. For example, even in an environment where light from a lamp (such as a fluorescent lamp) that is detected as almost white in both captured images of a far-infrared camera and a visible light camera is present, by excluding the detection area of this lamp by both, Only humans detected as white by an infrared camera can be accurately detected separately from electric lights.

また、雪山などでは、可視光カメラによる撮像画像信号からは、雪と人間とを区別しにくい。また、雪は遠赤外線カメラでは概ね黒色として検出され、可視光カメラでは白色として検出される。そこで、遠赤外線カメラによる撮像画像信号から抽出した黒色領域と、可視光カメラによる撮像画像信号から抽出した白色領域との論理積をとることで、雪の領域を除外し、残りの領域から遠赤外線カメラに基づく白色領域を抽出することで、人間を検出することもできる。   Moreover, in a snowy mountain etc., it is difficult to distinguish between snow and a human from a captured image signal by a visible light camera. Moreover, snow is generally detected as black in the far-infrared camera, and is detected as white in the visible light camera. Therefore, by taking the logical product of the black region extracted from the image signal captured by the far-infrared camera and the white region extracted from the image signal captured by the visible light camera, the snow region is excluded and the far-infrared region is extracted from the remaining region. Humans can also be detected by extracting a white region based on the camera.

また、可視光カメラと組み合わせて使用するカメラとしては、遠赤外線カメラに限らず、近赤外線カメラなどの赤外線領域を検出するカメラを用いることもできる。さらに、赤外線カメラと可視光カメラとの組み合わせに限らず、異なる周波数帯域の光(電磁波)をそれぞれ検出可能な2つのカメラを備えているときに、特定の物体を他の物体と識別することが可能になる。すなわち、2種類のカメラの双方で第1の物体を検出する場合に、一方のカメラによる第1の物体の検出領域においてはこの第1の物体と識別不可能である第2の物体があり、他方のカメラによる第1の物体の検出領域においては第2の物体が検出されない場合には、双方のカメラによる第1の物体の検出領域に基づいて、第1のカメラによる第1の物体の検出領域からこの第1の物体の検出領域を正確に除外することで、第2の物体の検出領域のみを抽出することが可能になる。   The camera used in combination with the visible light camera is not limited to the far-infrared camera, and a camera that detects an infrared region such as a near-infrared camera can also be used. Furthermore, not only a combination of an infrared camera and a visible light camera, but also having two cameras that can detect light (electromagnetic waves) in different frequency bands, a specific object can be distinguished from other objects. It becomes possible. That is, when the first object is detected by both of the two types of cameras, there is a second object that cannot be distinguished from the first object in the detection area of the first object by one camera. When the second object is not detected in the detection area of the first object by the other camera, the detection of the first object by the first camera is performed based on the detection area of the first object by both cameras. By accurately excluding the detection area of the first object from the area, it is possible to extract only the detection area of the second object.

また、上記の各実施の形態では、本発明を、2種類のカメラと物体検出用の画像処理回路とが一体となった装置に対して適用した場合について説明したが、この他に、2種類のカメラを外部に接続することで物体検出が可能となる画像処理装置に対して、本発明を適用することもできる。例えば、PCなどの情報処理装置において、通信ケーブルなどを通じて2種類のカメラからの撮像信号の入力を受け、これらの入力信号を基に物体検出処理を行うようにしてもよい。   In each of the above embodiments, the case where the present invention is applied to an apparatus in which two types of cameras and an image processing circuit for object detection are integrated has been described. The present invention can also be applied to an image processing apparatus that can detect an object by connecting the camera to the outside. For example, in an information processing apparatus such as a PC, input of imaging signals from two types of cameras may be received through a communication cable or the like, and object detection processing may be performed based on these input signals.

また、このような画像処理装置の処理機能は、コンピュータによって実現することができる。その場合、これらの処理機能の内容を記述したプログラムが提供される。そして、そのプログラムをコンピュータで実行することにより、これらの処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気ディスク、半導体メモリなどがある。   Such processing functions of the image processing apparatus can be realized by a computer. In that case, a program describing the contents of these processing functions is provided. These processing functions are realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical disk, and a semiconductor memory.

プログラムを流通させる場合には、例えば、そのプログラムが記録された光ディスクや半導体メモリなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   In order to distribute the program, for example, portable recording media such as an optical disk and a semiconductor memory on which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

第1の実施の形態に係るハイブリッドカメラの構成について概略的に示す図である。It is a figure showing roughly about the composition of the hybrid camera concerning a 1st embodiment. 第1の実施の形態に係るハイブリッドカメラのさらに詳細な内部構成を示す図である。It is a figure which shows the further detailed internal structure of the hybrid camera which concerns on 1st Embodiment. ハイブリッドカメラ内の各部における画像信号に対応する画像例を示す図(その1)である。FIG. 5 is a first diagram illustrating an example of an image corresponding to an image signal in each unit in the hybrid camera. ハイブリッドカメラ内の各部における画像信号に対応する画像例を示す図(その2)である。FIG. 6 is a second diagram illustrating an image example corresponding to an image signal in each unit in the hybrid camera. ハイブリッドカメラ内の各部における画像信号に対応する画像例を示す図(その3)である。FIG. 10 is a third diagram illustrating an image example corresponding to an image signal in each unit in the hybrid camera. 第2の実施の形態に係るハイブリッドカメラの内部構成を示す図である。It is a figure which shows the internal structure of the hybrid camera which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

1……ハイブリッドカメラ、2……PC、11……遠赤外線カメラ、12……可視光カメラ、13……画像処理回路、21,22,25……白色抽出部、23……論理積(AND)処理部、24……黒色置換部、26……表示枠生成部、27……合成処理部、28……設定レジスタ、29……同期信号生成部   DESCRIPTION OF SYMBOLS 1 ... Hybrid camera, 2 ... PC, 11 ... Far-infrared camera, 12 ... Visible light camera, 13 ... Image processing circuit, 21, 22, 25 ... White extraction part, 23 ... Logical product (AND ) Processing unit, 24... Black replacement unit, 26... Display frame generation unit, 27... Synthesis processing unit, 28... Setting register, 29.

Claims (15)

入力画像信号を基に特定の被写体を検出するための画像処理装置において、
赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部と、
前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部と、
前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部と、
を有することを特徴とする画像処理装置。
In an image processing apparatus for detecting a specific subject based on an input image signal,
A first region extraction unit that extracts a first image region whose pixel value is included in the first level band based on an infrared image signal from the infrared camera;
A second region extraction unit that extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from a visible light camera that images the same direction as the infrared camera;
A third image area obtained by excluding an overlapping area between the first image area and the second image area from either the first image area or the second image area is defined as the specific subject. A third image region extraction unit that outputs as a region including
An image processing apparatus comprising:
前記第2の領域抽出部は、前記第2の画像領域として、少なくとも前記第2のレベル帯域と画素値との比較結果に基づき、所定の色領域に含まれる画素からなる領域を抽出することを特徴とする請求項1記載の画像処理装置。   The second area extracting unit extracts, as the second image area, an area composed of pixels included in a predetermined color area based on at least a comparison result between the second level band and a pixel value. The image processing apparatus according to claim 1, wherein: 前記第1の領域抽出部は、前記第1の画像領域として、所定のレベル以上の画素値を持つ画素の領域を出力し、
前記第2の領域抽出部は、前記第2の画像領域として、前記可視光画像信号の各色成分の画素値がそれぞれ所定のレベル以上をとることで少なくとも判定される白色領域を抽出することを特徴とする請求項2記載の画像処理装置。
The first area extraction unit outputs a pixel area having a pixel value equal to or higher than a predetermined level as the first image area,
The second area extracting unit extracts a white area determined at least when each pixel value of each color component of the visible light image signal has a predetermined level or more as the second image area. The image processing apparatus according to claim 2.
前記第3の領域抽出部は、前記第1の画像領域から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した領域を、前記第3の画像領域として出力することを特徴とする請求項3記載の画像処理装置。   The third area extraction unit outputs, as the third image area, an area obtained by excluding an overlapping area between the first image area and the second image area from the first image area. The image processing apparatus according to claim 3. 前記第3の領域抽出部は、前記赤外線画像信号のうち、前記第1の画像領域と前記第2の画像領域との重複領域の各画素値を、所定の上限しきい値未満の画素値に置換し、置換後の画像信号を基に、画素値が、前記上限しきい値以上の帯域に設定された前記第2のレベル帯域に含まれる画像領域を抽出することで、前記第3の画像領域を出力することを特徴とする請求項3記載の画像処理装置。   The third area extracting unit sets each pixel value of an overlapping area between the first image area and the second image area to a pixel value less than a predetermined upper limit threshold in the infrared image signal. The third image is extracted by extracting the image area included in the second level band in which the pixel value is set to a band equal to or higher than the upper threshold value based on the replaced image signal. The image processing apparatus according to claim 3, wherein the area is output. 前記第3の領域抽出部は、前記第1の画像領域と前記第2の画像領域との重複領域を、前記第1の領域抽出部および前記第2の領域抽出部からの各画像信号に対する論理積演算を行うことで抽出することを特徴とする請求項5記載の画像処理装置。   The third area extracting unit determines an overlapping area between the first image area and the second image area as a logic for each image signal from the first area extracting unit and the second area extracting unit. 6. The image processing apparatus according to claim 5, wherein extraction is performed by performing product operation. 前記第3の領域抽出部は、前記第3の画像領域を、前記第1の領域抽出部および前記第2の領域抽出部からの各画像信号に対する否定論理積演算を行うことで抽出することを特徴とする請求項1記載の画像処理装置。   The third region extraction unit extracts the third image region by performing a NAND operation on each image signal from the first region extraction unit and the second region extraction unit. The image processing apparatus according to claim 1, wherein: 前記第3の画像領域をユーザに対して視覚的に通知するための画像処理を、前記可視光画像信号に対して施す領域表示処理部をさらに有することを特徴とする請求項1記載の画像処理装置。   The image processing according to claim 1, further comprising an area display processing unit that performs image processing for visually notifying the user of the third image area with respect to the visible light image signal. apparatus. 前記領域表示処理部は、前記第3の画像領域をユーザに対して視覚的に通知するための表示画像を、前記可視光画像信号に基づく画像上に合成する処理を行うことを特徴とする請求項8記載の画像処理装置。   The area display processing unit performs a process of synthesizing a display image for visually notifying a user of the third image area on an image based on the visible light image signal. Item 9. The image processing apparatus according to Item 8. 前記表示画像は、前記第3の画像領域の周囲に配置される枠体であることを特徴とする請求項9記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the display image is a frame disposed around the third image region. 前記赤外線画像信号は、遠赤外線帯域を検出した画像信号であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the infrared image signal is an image signal in which a far infrared band is detected. 撮像画像信号を基に特定の被写体を検出する機能を備えた撮像装置において、
赤外線カメラと、
前記赤外線カメラと同じ方向を撮像する可視光カメラと、
前記赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部と、
前記可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部と、
前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部と、
を有することを特徴とする撮像装置。
In an imaging device having a function of detecting a specific subject based on a captured image signal,
An infrared camera,
A visible light camera that images the same direction as the infrared camera;
A first region extraction unit that extracts a first image region whose pixel value is included in a first level band based on an infrared image signal from the infrared camera;
A second region extraction unit that extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from the visible light camera;
A third image area obtained by excluding an overlapping area between the first image area and the second image area from either the first image area or the second image area is defined as the specific subject. A third image region extraction unit that outputs as a region including
An imaging device comprising:
前記赤外線カメラと前記可視光カメラの双方の撮像タイミングを同期させるための同期信号を生成する同期信号生成部をさらに有することを特徴とする請求項12記載の撮像装置。   The imaging apparatus according to claim 12, further comprising a synchronization signal generation unit configured to generate a synchronization signal for synchronizing imaging timings of both the infrared camera and the visible light camera. 入力画像信号を基に特定の被写体を検出するための画像処理方法において、
第1の領域抽出部が、赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出し、
第2の領域抽出部が、前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出し、
第3の画像領域抽出部が、前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する、
ことを特徴とする画像処理方法。
In an image processing method for detecting a specific subject based on an input image signal,
The first region extraction unit extracts a first image region whose pixel value is included in the first level band based on the infrared image signal from the infrared camera,
A second region extraction unit extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from a visible light camera that images the same direction as the infrared camera;
A third image area extraction unit that excludes an overlapping area between the first image area and the second image area from either the first image area or the second image area; Output the image area as an area including the specific subject.
An image processing method.
入力画像信号を基に特定の被写体を検出するための画像処理プログラムにおいて、
コンピュータを、
赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部、
前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部、
前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部、
として機能させることを特徴とする画像処理プログラム。
In an image processing program for detecting a specific subject based on an input image signal,
Computer
A first region extraction unit for extracting a first image region whose pixel value is included in the first level band based on an infrared image signal from the infrared camera;
A second region extraction unit that extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from a visible light camera that images the same direction as the infrared camera;
A third image area obtained by excluding an overlapping area between the first image area and the second image area from either the first image area or the second image area is defined as the specific subject. A third image region extraction unit that outputs as a region including
An image processing program characterized by functioning as
JP2007169880A 2007-06-28 2007-06-28 Image processing unit, imaging apparatus, image processing method, and program Pending JP2009010669A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007169880A JP2009010669A (en) 2007-06-28 2007-06-28 Image processing unit, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007169880A JP2009010669A (en) 2007-06-28 2007-06-28 Image processing unit, imaging apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2009010669A true JP2009010669A (en) 2009-01-15

Family

ID=40325304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007169880A Pending JP2009010669A (en) 2007-06-28 2007-06-28 Image processing unit, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2009010669A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011024865A1 (en) * 2009-08-27 2011-03-03 日本電気株式会社 Image target identification device, image target identification method, and image target identification program
JP2011193061A (en) * 2010-03-11 2011-09-29 Hitachi Computer Peripherals Co Ltd Imaging apparatus, and monitoring system
JPWO2011074413A1 (en) * 2009-12-14 2013-04-25 日本電気株式会社 Image generation apparatus, image generation method, and image generation program
JP2016052096A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, and image processing method
JP2017208616A (en) * 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method, and program
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
JP2020195140A (en) * 2016-05-16 2020-12-03 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011024865A1 (en) * 2009-08-27 2011-03-03 日本電気株式会社 Image target identification device, image target identification method, and image target identification program
JP5664551B2 (en) * 2009-08-27 2015-02-04 日本電気株式会社 Image target identification device, image target identification method, and image target identification program
JPWO2011074413A1 (en) * 2009-12-14 2013-04-25 日本電気株式会社 Image generation apparatus, image generation method, and image generation program
JP5741447B2 (en) * 2009-12-14 2015-07-01 日本電気株式会社 Image generation apparatus, image generation method, and image generation program
JP2011193061A (en) * 2010-03-11 2011-09-29 Hitachi Computer Peripherals Co Ltd Imaging apparatus, and monitoring system
JP2016052096A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, and image processing method
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
JP2017208616A (en) * 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2020195140A (en) * 2016-05-16 2020-12-03 キヤノン株式会社 Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
US7800064B2 (en) Image pickup apparatus
CN109377469B (en) Processing method, system and storage medium for fusing thermal imaging with visible light image
JP6394338B2 (en) Image processing apparatus, image processing method, and imaging system
JP2009010669A (en) Image processing unit, imaging apparatus, image processing method, and program
US20210342578A1 (en) Polarization Imaging for Facial Recognition Enhancement System and Method
WO2017202061A1 (en) Image defogging method and image capture apparatus implementing image defogging
US20130258112A1 (en) Visible light and ir hybrid digital camera
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2009010447A (en) Imaging apparatus and switching method thereof
CN104980710A (en) Temperature detection method and mobile terminal
CN104796600B (en) Image synthesizer and image combining method
JP2015127668A (en) Measurement device, system and program
JP5708036B2 (en) Imaging device
KR20190076188A (en) Fusion dual IR camera and image fusion algorithm using LWIR and SWIR
JP5943393B2 (en) Imaging device
KR102207650B1 (en) Method for temperature calibration in thermal camera system
JP2011066809A (en) Imaging apparatus
CN115550570A (en) Image processing method and electronic equipment
JP2010211773A (en) Image process apparatus, image process method and computer program
CN114338958A (en) Image processing method and related equipment
JP2008241563A (en) Dual-wavelength infrared image processing apparatus
WO2023040725A1 (en) White balance processing method and electronic device
JP6331258B2 (en) Imaging apparatus and method
JP2007214806A (en) Obstacle detection system and obstacle detecting method
US8675958B2 (en) Subject determination method, computer program product for determining subject, and camera