JP2009010669A - Image processing unit, imaging apparatus, image processing method, and program - Google Patents
Image processing unit, imaging apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2009010669A JP2009010669A JP2007169880A JP2007169880A JP2009010669A JP 2009010669 A JP2009010669 A JP 2009010669A JP 2007169880 A JP2007169880 A JP 2007169880A JP 2007169880 A JP2007169880 A JP 2007169880A JP 2009010669 A JP2009010669 A JP 2009010669A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- region
- visible light
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、入力画像信号を基に特定の被写体を検出するための画像処理装置、この画像処理機能を備えた撮像装置、画像処理方法およびプログラムに関し、特に、2種類のカメラからの画像信号を基に被写体検出処理を行う画像処理装置、撮像装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus for detecting a specific subject based on an input image signal, an imaging apparatus having this image processing function, an image processing method, and a program. In particular, the present invention relates to image signals from two types of cameras. The present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program that perform subject detection processing.
従来、撮像した画像信号を基に画像処理を行うことで、撮像範囲内の特定の物体を検出する種々の技術が考えられており、このような技術は監視カメラなどに用いられていた。また、可視光を検出して撮像する可視光カメラだけでなく、近赤外線カメラや遠赤外線カメラも知られており、これらは撮像対象の赤外線放射エネルギーを検出することで物体を識別できるようになっていた。 Conventionally, various techniques for detecting a specific object within an imaging range by performing image processing based on a captured image signal have been considered, and such techniques have been used for surveillance cameras and the like. In addition to visible light cameras that detect and detect visible light, near-infrared cameras and far-infrared cameras are also known, and these objects can be identified by detecting the infrared radiation energy of the imaging target. It was.
ところで、可視光カメラと赤外線カメラ(特に遠赤外線カメラ)とでは、それぞれの特性の違いから、比較的確実に識別可能な物体も異なる。例えば、可視光カメラによる撮像画像からは、波に浮かぶ物体を比較的容易に検出できるが、その物体が人間か、あるいはゴミかを識別することは容易ではなかった。一方、遠赤外線カメラによる撮像画像からは、波に浮かぶ物体が人間か、あるいはゴミかを比較的容易に識別できるが、白波と人間とを識別することは容易ではなかった。 By the way, visible light cameras and infrared cameras (particularly far-infrared cameras) differ in the objects that can be identified relatively reliably due to the difference in their characteristics. For example, an object floating on a wave can be detected relatively easily from an image captured by a visible light camera, but it has not been easy to identify whether the object is a human or dust. On the other hand, from an image captured by a far-infrared camera, it is relatively easy to identify whether an object floating on a wave is a human or dust, but it is not easy to identify a white wave and a human.
また、1種類のカメラを用いて物体の検出精度を高めた画像監視装置として、背景の揺らぎを取り込むようにした基準画像との輝度差や、複数フレームの画像を加重平均して得た画像との輝度差などを参照することで、監視対象領域の日照条件が変化したときでも、侵入物体の誤検出や検出漏れを起こさないようにしたものがあった(例えば、特許文献1参照)。
上記のように、可視光カメラと赤外線カメラとでは、それぞれについて検出しやすい物体とそうでない物体とが存在するので、それぞれのカメラでは必ずしも所望の物体を確実に検出できるとは限らなかった。上記の例では、可視光カメラと遠赤外線カメラとをそれぞれ単独で用いた場合には、波に浮かぶ人間を確実に検出することはできなかった。 As described above, in the visible light camera and the infrared camera, there are objects that are easy to detect and objects that are not, and therefore, each camera cannot always reliably detect a desired object. In the above example, when the visible light camera and the far-infrared camera are respectively used alone, it is impossible to reliably detect a person floating in a wave.
本発明はこのような点に鑑みてなされたものであり、撮像画像信号を基に、所望の物体をより確実に検出できるようにした画像処理装置、撮像装置、画像処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and provides an image processing apparatus, an imaging apparatus, an image processing method, and a program that can more reliably detect a desired object based on a captured image signal. For the purpose.
本発明では上記課題を解決するために、入力画像信号を基に特定の被写体を検出するための画像処理装置において、赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部と、前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部と、前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部と、を有することを特徴とする画像処理装置が提供される。 In the present invention, in order to solve the above problems, in an image processing apparatus for detecting a specific subject based on an input image signal, a pixel value is set to a first level band based on an infrared image signal from an infrared camera. A pixel value is included in the second level band based on a first region extraction unit that extracts a first image region included and a visible light image signal from a visible light camera that images the same direction as the infrared camera. A second region extracting unit that extracts the second image region, and the first image region and the second image region from either the first image region or the second image region, There is provided an image processing apparatus comprising: a third image area extraction unit that outputs a third image area excluding the overlapping area as an area including the specific subject.
このような画像処理装置では、赤外線カメラからの赤外線画像信号と、この赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号とを基に、被写体の検出処理が行われる。第1の領域抽出部は、赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出し、第2の領域抽出部は、可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する。第3の画像領域抽出部は、抽出された第1の画像領域または第2の画像領域のいずれか一方から、第1の画像領域と第2の画像領域との重複領域を除外した第3の画像領域を、検出の対象としていた特定の被写体を含む領域として出力する。このような処理では、第1の画像抽出部および第2の画像抽出部により共通に検出可能な被写体があったときに、この被写体以外の別の被写体を含むと考えられる領域が、第3の画像抽出部によって抽出される。 In such an image processing apparatus, subject detection processing is performed based on an infrared image signal from an infrared camera and a visible light image signal from a visible light camera that captures the same direction as the infrared camera. The first region extracting unit extracts a first image region whose pixel value is included in the first level band based on the infrared image signal, and the second region extracting unit is based on the visible light image signal. The second image area whose pixel value is included in the second level band is extracted. The third image region extraction unit removes an overlap region between the first image region and the second image region from either the extracted first image region or second image region. The image area is output as an area including a specific subject that has been a detection target. In such processing, when there is a subject that can be detected in common by the first image extraction unit and the second image extraction unit, the region that is considered to include another subject other than this subject is the third one. Extracted by the image extraction unit.
本発明の画像処理装置によれば、第1の画像抽出部および第2の画像抽出部により共通に検出可能な被写体があったときに、この被写体以外の別の被写体を含むと考えられる領域が、第3の画像抽出部によって抽出されるので、第1の画像抽出部または第2の画像抽出部のいずれか一方による領域抽出処理では、それらで共通に検出可能な被写体と識別不可能であった別の被写体を、第3の画像抽出部によって正確に検出できる。従って、赤外線カメラおよび可視光カメラをそれぞれ単体で使用した場合では検出が困難であった特定の被写体を、正確に検出できるようになる。 According to the image processing apparatus of the present invention, when there is a subject that can be detected in common by the first image extraction unit and the second image extraction unit, an area that is considered to include another subject other than the subject. Therefore, the region extraction process by either the first image extraction unit or the second image extraction unit is indistinguishable from the object that can be detected in common by the third image extraction unit. Another subject can be accurately detected by the third image extraction unit. Therefore, it becomes possible to accurately detect a specific subject that is difficult to detect when the infrared camera and the visible light camera are used alone.
以下、本発明の実施の形態を図面を参照して詳細に説明する。以下の実施の形態で説明する撮像装置は、被写体から反射または放射されている、異なる周波数帯域の光(電磁波)をそれぞれ検出可能な2つのカメラを備えている。ここでは、そのような撮像装置をハイブリッドカメラと呼称する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. An imaging apparatus described in the following embodiments includes two cameras that can detect light (electromagnetic waves) in different frequency bands that are reflected or emitted from a subject. Here, such an imaging apparatus is called a hybrid camera.
[第1の実施の形態]
図1は、第1の実施の形態に係るハイブリッドカメラの構成について概略的に示す図である。
[First Embodiment]
FIG. 1 is a diagram schematically showing the configuration of the hybrid camera according to the first embodiment.
図1に示すハイブリッドカメラ1は、主として、遠赤外線領域の電磁波を検出可能な遠赤外線カメラ11と、可視光を検出可能な可視光カメラ12と、各カメラによる撮像画像を用いて信号処理を行う画像処理回路13とを備えている。
The hybrid camera 1 shown in FIG. 1 mainly performs signal processing using a far-
遠赤外線カメラ11および可視光カメラ12は、それぞれ同じ方向を同じ画角で撮像する。遠赤外線カメラ11は、遠赤外線を検出するセンサとして、例えば、照射された遠赤外線が持つエネルギー(熱)を検知する焦電素子、ボロメータなどを備えている。また、可視光カメラ12は、可視光を検出するセンサとして、例えば、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)型イメージセンサなどの固体撮像素子を備えている。
The far-
画像処理回路13は、遠赤外線カメラ11および可視光カメラ12により撮像された画像信号を基に、各種の信号処理を行う。特に、本実施の形態では、これら双方の画像信号を基に、撮像範囲内から特定の物体を検出して、出力画像内においてその物体の検出を明示させるような処理を実行する。
The
なお、遠赤外線カメラ11および可視光カメラ12は、それぞれのセンサからの出力信号をデジタル信号に変換する機能を備え、画像処理回路13は、遠赤外線カメラ11および可視光カメラ12から出力されるデジタル画像信号を基に処理を行う。また、遠赤外線カメラ11および可視光カメラ12は、それぞれ画素数の異なるセンサを具備していてもよい。ただし、この場合には、各カメラ(あるいはそれらの一方)の内部には解像度変換機能が設けられ、各カメラから画像処理回路13に対しては、それぞれフレーム当たり同じ画素数のデジタル画像信号が出力されるようにする。
The far-
また、この実施の形態では、ハイブリッドカメラ1は通信回線を通じて外部の機器と接続することが可能になっている。図1では、外部機器としてパーソナルコンピュータ(PC)2が接続されており、例えば、ハイブリッドカメラ1の画像処理回路13からの出力画像をPC2のモニタにおいて表示させることや、出力画像信号をPC2において保存することができるようになっている。これにより、ハイブリッドカメラ1による撮像領域をPC2側から監視できるようになる。さらに、ハイブリッドカメラ1の動作制御や各種設定のための操作を、PC2側から行うことができるようにしてもよい。
In this embodiment, the hybrid camera 1 can be connected to an external device through a communication line. In FIG. 1, a personal computer (PC) 2 is connected as an external device. For example, an output image from the
図2は、第1の実施の形態に係るハイブリッドカメラのさらに詳細な内部構成を示す図である。
図2に示すように、ハイブリッドカメラ1の画像処理回路13は、白色抽出部21,22、論理積(AND)処理部23、黒色置換部24、白色抽出部25、表示枠生成部26、合成処理部27、および設定レジスタ28を備えている。さらに、このハイブリッドカメラ1には、遠赤外線カメラ11および可視光カメラ12のそれぞれの撮像動作を同期させるための同期信号生成部29が設けられている。
FIG. 2 is a diagram showing a more detailed internal configuration of the hybrid camera according to the first embodiment.
As shown in FIG. 2, the
遠赤外線カメラ11から出力される信号に基づく画像は、例えば白黒画像で表すことができる。白色抽出部21は、遠赤外線カメラ11からの画像信号から、所定のしきい値以上の階調を持つ領域を検出することで、白色領域を抽出する。白色抽出部21は、白色領域を抽出するための階調しきい値を、設定レジスタ28から読み込んで動作する。
An image based on a signal output from the far-
一方、可視光カメラ12から出力される画像信号は、R/G/B(Red/Green/Blue)の各色成分により構成される。白色抽出部22は、可視光カメラ12からの画像信号から、R/G/Bの各色成分と成分ごとのしきい値との比較結果、および、各色成分間の関係に基づいて、白色領域を抽出する。白色抽出部21と同様に、白色抽出部22も、白色領域を抽出するための各色成分のしきい値などの条件を、設定レジスタ28から読み込んで動作する。
On the other hand, the image signal output from the
AND処理部23は、白色抽出部21および22のそれぞれによって抽出された白色領域の論理積をとる。すなわち、AND処理部23では、遠赤外線カメラ11および可視光カメラ12の双方により白色と判定された領域のみを抽出し、いずれか一方のみにより白色と判定された領域を除去する。
The
黒色置換部24は、遠赤外線カメラ11からの画像信号のうち、AND処理部23により抽出された白色領域のみを最低階調値(0)に置換して、この領域を黒色に変換する。
白色抽出部25は、黒色置換部24からの画像信号から、所定のしきい値以上となる領域を検出して、白色領域を抽出する。この白色抽出部25も、白色領域を抽出するための階調しきい値を、設定レジスタ28から読み込んで動作する。
The
The
表示枠生成部26は、白色抽出部25により抽出された白色領域を視覚的に示すための画像領域を、合成処理部27に対して出力する。ここでは例として、白色領域を包含する所定形状の表示枠を生成し、その表示枠の領域を合成処理部27に出力する。また、表示枠生成部26は、表示枠の形状、枠体の幅などを設定レジスタ28から読み込み、それに応じて表示枠を生成する。
The display
合成処理部27は、可視光カメラ12からの画像信号に対して、表示枠生成部26により生成された表示枠を合成する。例えば、合成処理部27は、可視光カメラ12からの画像信号のうち、表示枠生成部26から出力された表示枠の領域のみを所定の色に置換する。これにより、白色抽出部25により抽出された白色領域の周囲に、所定の色の表示枠が表示された画像が生成される。また、合成処理部27は、表示枠を表示するための色などを設定レジスタ28から読み込み、それに応じて表示枠の合成を行う。
The
設定レジスタ28は、画像処理回路13内の動作に必要な各種設定情報を保持する。また、設定レジスタ28の情報は、ハイブリッドカメラ1が備える入力部(図示せず)からの入力操作や、PC2などの外部機器での入力操作に応じて書き換えることができ、これにより、画像処理回路13内の動作設定を変更できるようになっている。
The setting
また、遠赤外線カメラ11および可視光カメラ12は、同期信号生成部29により生成されるタイミング信号に同期して、それぞれ同じタイミングで撮像動作を行う。なお、これらのカメラは、必ずしも完全に同じタイミングで撮像動作が実行される必要はない。例えば、各カメラの撮像間隔がそれぞれ異なるものとされてもよい。ただし、このような場合でも、言うまでもなく、各カメラの撮像タイミングはできるだけ近接していることが望ましい。
Further, the far-
以上の構成を有するハイブリッドカメラ1では、遠赤外線カメラ11および可視光カメラ12の双方の物体検出結果を用いることで、それぞれ一方のみでは識別不可能であった物体を確実に検出できるようにしている。具体的には、以下の図3〜図5で説明するように、波の立った水面付近に存在する人間を確実に検出できるようにする。
In the hybrid camera 1 having the above configuration, by using the object detection results of both the far-
図3〜図5は、ハイブリッドカメラ内の各部における画像信号に対応する画像例を示す図である。以下、これらの図を利用して、ハイブリッドカメラ1における物体検出処理の流れについて、順を追って具体的に説明する。 3 to 5 are diagrams illustrating examples of images corresponding to image signals in each unit in the hybrid camera. Hereinafter, the flow of the object detection process in the hybrid camera 1 will be specifically described step by step using these drawings.
まず、本実施の形態では、遠赤外線カメラ11からは、8ビットのデジタル画像信号が出力されるものとする。この場合、階調値“0”の画素が最も強い黒色となり、階調値“255”の画素が最も強い白色となる。一方、可視光カメラ12からは、R/G/Bの各成分が8ビットずつのデジタル・カラー画像信号が出力されるものとする。画像信号におけるR/G/Bの各成分の値を“(r/g/b)”と表すと、“(0/0/0)”である画素は最も強い黒色となり、“(255/255/255)”である画素は最も強い白色となる。
First, in this embodiment, it is assumed that the far-
図3において、画像p1およびp2は、遠赤外線カメラ11および可視光カメラ12によって同時に撮像されて出力された画像信号P1およびP2に対応している。これらの画像p1およびp2には、被写体の例として、海面上の白波101および102と、これらの白波101および102を除く海面103と、海面103に浮かぶ人間104とが存在している。
In FIG. 3, images p <b> 1 and p <b> 2 correspond to image signals P <b> 1 and P <b> 2 that are simultaneously captured and output by the far-
ここで、遠赤外線カメラ11により撮像された画像p1では、白波101の階調値が“250”、白波102の階調値が“252”、海面103の階調値が“10”、人間104の階調値が“251”であったとする。
Here, in the image p 1 captured by the far-
一方、可視光カメラ12により撮像された画像p2では、白波101での各色成分の値が“(252/252/251)”、白波102での各色成分の値が“(250/250/250)”、海面103での各色成分の値が“(20/20/200)”、人間104の領域での各色成分の値が“(31/32/30)”であったとする。
On the other hand, in the image p2 captured by the
白色抽出部21では、遠赤外線カメラ11からの画像信号P1のうち、所定のしきい値以上の階調を持つ領域が検出されることで、白色領域が抽出される。ここでは、階調しきい値の例として、設定レジスタ28に“250”が設定されているものとする。
The
図3の画像p3は、白色抽出部21から出力される画像信号P3に対応しており、上記設定に基づく白色抽出部21の処理により、画像p1の被写体のうち、白波101および102と人間104のみが、白色領域として抽出される。なお、画像信号P3は、画素値として“0”と“1”のいずれかのみをとる2値画像信号とされ、抽出された白色領域(すなわち、白波101および102と人間104の各領域)の画素値が“1”とされ、その他の領域の画素値が“0”とされる。図3の画像p3では、画素値“1”の領域を塗りつぶして示している。
The image p3 in FIG. 3 corresponds to the image signal P3 output from the
一方、白色抽出部22では、可視光カメラ12からの画像信号から、R/G/Bの各色成分と成分ごとのしきい値との比較結果、および、各色成分間の関係に基づいて、白色領域が抽出される。ここでは例として、R/G/Bの成分の値がそれぞれしきい値th_r,th_g,th_b以上であり、なおかつ、各色成分間の差が所定の値以内に収まっている場合に、その画素が白色であると判定する。後者の条件は、次の3式がすべて成立することである。
r−rl≦g≦r+rh,g−gl≦b≦g+gh,b−bl≦r≦b+bh
なお、上記の式において、r,g,bはそれぞれ画像信号P2におけるR成分、G成分、B成分の値を示す。また、rl,rh,gl,gh,bl,bhは、それぞれ各色成分間の差のレンジを示す0以上の係数であって、rl≦th_rh,th_gl≦th_gh,th_bl≦th_bhの関係を有する。
On the other hand, in the
r−rl ≦ g ≦ r + rh, g−gl ≦ b ≦ g + gh, b−bl ≦ r ≦ b + bh
In the above equation, r, g, and b represent the values of the R component, G component, and B component in the image signal P2, respectively. Further, rl, rh, gl, gh, bl, and bh are coefficients of 0 or more that indicate the difference ranges between the respective color components, and have a relationship of rl ≦ th_rh, th_gl ≦ th_gh, th_bl ≦ th_bh.
本実施の形態では、しきい値th_r,th_g,th_bがいずれも“250”、係数rl,rh,gl,gh,bl,bhがいずれも“2”とされ、これらの設定値が設定レジスタ28に設定されるものとする。 In this embodiment, the threshold values th_r, th_g, and th_b are all “250”, the coefficients rl, rh, gl, gh, bl, and bh are all “2”. Shall be set to
図3の画像p4は、白色抽出部22から出力される画像信号P4に対応しており、上記設定に基づく白色抽出部22の処理により、画像p2の被写体のうち、白波101および102のみが白色領域として抽出される。なお、画像信号P3と同様に、画像信号P4は画素値として“0”と“1”のいずれかのみをとる2値画像信号とされ、抽出された白色領域(すなわち、白波101および102の各領域)の画素値が“1”とされ、その他の領域の画素値が“0”とされる。図3の画像p4では、画素値“1”の領域を塗りつぶして示している。
The image p4 in FIG. 3 corresponds to the image signal P4 output from the
なお、白色抽出部22における他の処理例として、R/G/Bの成分の値がそれぞれしきい値th_r,th_g,th_b以上であることのみを条件として、白色領域を抽出してもよい。ただし、上述したように、さらに各色成分間の関係に関する条件も用いることで、より白色に近い領域を正確に抽出できるようになる。
As another example of processing in the
次に、AND処理部23により、白色抽出部21および22から各画像信号P3およびP4のそれぞれにおける対応する画素値同士の論理積が演算される。これにより、遠赤外線カメラ11および可視光カメラ12の双方により白色と判定された領域を示す画像信号P5が出力される。
Next, the AND
図4の画像p5はこの画像信号P5に対応しており、AND処理部23の処理により、画像p3およびp4における白色領域のうち、白波101および102のみが白色領域として抽出される。なお、画像信号P5は、画素値として“0”と“1”のいずれかのみをとる2値画像信号とされ、抽出された白色領域(すなわち、白波101および102の各領域)の画素値が“1”とされ、その他の領域の画素値が“0”とされる。図4の画像p5では、画素値“1”の領域を塗りつぶして示している。
The image p5 in FIG. 4 corresponds to the image signal P5, and only
次に、黒色置換部24により、遠赤外線カメラ11からの画像信号P1のうち、AND処理部23により抽出された白色領域のみが最低階調値(0)に置換され、この領域が黒色に変換される。図4の画像p6は、黒色置換部24から出力される画像信号P6に対応しており、黒色置換部24の処理により、この画像p6では、画像p1内の白波101および102の領域の画素値が“0”とされて、黒色に変換される。
Next, only the white region extracted by the AND
次に、白色抽出部25により、黒色置換部24からの画像信号P6から、所定のしきい値以上となる領域が検出されて、白色領域が再度抽出される。ここでは、階調しきい値の例として、設定レジスタ28に“250”が設定されているものとする。
Next, the
図4の画像p7は、白色抽出部25から出力される画像信号P7に対応している。上述したように、黒色置換部24からの画像信号P6では、白波101および102の領域の画素値は“0”、海面103の画素値は“10”、人間104の領域の画素値は“251”であったので、上記設定に基づく白色抽出部25の処理により、画像p6の被写体のうち、人間104の領域のみが白色領域として抽出される。
The image p7 in FIG. 4 corresponds to the image signal P7 output from the
次に、表示枠生成部26により、白色抽出部25で抽出された白色領域を包含する所定形状の表示枠が生成され、その表示枠の位置を示す画像信号P8が出力される。図4の画像p8は、この画像信号P8に対応している。ここでは例として、白色抽出部25により抽出された人間104の領域を包含するような矩形の表示枠105が生成され、画像p8では、この表示枠105に対応する領域の画素値のみが“1”とされ、他の領域の画素値が“0”とされる。
Next, the display
以上の処理によって人間が検出され、その検出位置を示す画像信号P8が出力されると、合成処理部27では、可視光カメラ12からの画像信号P2に対して、表示枠105を示す信号を合成する処理が実行される。ここでは例として、可視光カメラ12からの画像信号P2の画素のうち、表示枠生成部26からの画像信号P8の画素値が“1”である画素の値が、所定の色(例えば赤色)に対応する値に変換される。図5の画像p9は、合成処理部27から出力される画像信号P9に対応しており、この画像p9上では、検出された人間104の領域を取り囲むように、所定の色の表示枠105が合成表示される。
When a human is detected by the above processing and an image signal P8 indicating the detected position is output, the
以上説明した処理によれば、白波が立っている水面などに人間が存在しているときでも、この人間を正確に検出できるようになる。例えば、可視光カメラ12では、水面に浮かぶ物体を比較的高精度に検出できるが、特に、その物体の周囲からの反射光が強いときや、あるいは周囲に白波などの明るい被写体が映っているときには、水面上の物体が相対的に暗くなるために、その物体が人間か否かを判別することが困難になる場合があった。一方、遠赤外線カメラ11では、物体の温度を検出可能であることから、水面上の物体が人間であるか否かを比較的高精度に検出できる。しかし、水面に対して太陽光が強く照射しているときなどには、水面の白波が人間と同じような階調値をとってしまう場合があり、人間を白波と区別することが困難になる場合があった。
According to the processing described above, even when a human is present on the water surface where white waves are standing, the human can be accurately detected. For example, the
これに対して、上記処理によれば、可視光カメラ12による撮像画像から白色領域を検出することで、白波の領域を検出し、遠赤外線カメラ11による撮像画像から検出した人間の検出領域から、可視光カメラ12に基づく白波の検出領域を除外することで、人間を白波と区別して正確に検出できる。そして、このような検出処理を、遠赤外線カメラ11および可視光カメラ12の各撮像画像信号の画素値をしきい値と比較する比較処理と、その比較結果に対する論理積演算とを主とする単純な処理で実行できる。従って、例えば人間の形状に対応するテンプレートを用いたパターンマッチングなどの複雑な処理を行った場合などと比較して、画像処理回路13の回路規模や処理負荷が大幅に抑制されて、ハイブリッドカメラ1の製造コストや消費電力を低減でき、またその装置自体を小型化・軽量化できるようになる。
On the other hand, according to the above process, the white region is detected by detecting the white region from the image captured by the
なお、以上の実施の形態の例では、白色抽出部25により抽出された白色領域(すなわち、人間104の検出領域)を視覚的に示すための画像として、矩形の表示枠が生成されているが、例えば円形などの他の形状の表示枠が生成されてもよい。また、表示枠が点線などの他の種類の線により構成されてもよく、さらに、合成画像上で表示枠が点滅するようにしてもよい。また、表示枠が、抽出された人間104の領域の輪郭に沿って形成されるようにしてもよい。また、このような表示枠の形状や太さ、線の種類、表示方法などを、ユーザ操作に応じて任意に設定可能としてもよい。また、表示枠の周囲の色に応じて、自動的に表示枠が目立つ色に設定されるようにしてもよい。また、表示枠の合成表示とともに、アラーム音声を発したり、その音声信号を画像信号とともに出力してもよい。また、表示枠の代わりに、検出された物体(人間104)自体の色を変化させてもよい。
In the example of the above embodiment, a rectangular display frame is generated as an image for visually showing the white area extracted by the white extraction unit 25 (that is, the detection area of the human 104). For example, a display frame having another shape such as a circle may be generated. Further, the display frame may be configured by other types of lines such as dotted lines, and the display frame may blink on the composite image. Further, the display frame may be formed along the contour of the extracted region of the
[第2の実施の形態]
図6は、第2の実施の形態に係るハイブリッドカメラの内部構成を示す図である。なお、この図6では、図2に対応するブロックには同じ符号を付して示しており、その説明を省略することにする。
[Second Embodiment]
FIG. 6 is a diagram illustrating an internal configuration of the hybrid camera according to the second embodiment. In FIG. 6, blocks corresponding to those in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted.
図6に示す画像処理回路13aでは、遠赤外線カメラ11および可視光カメラ12の各出力画像信号から白色領域を抽出する白色抽出部21および22の後段に、白色抽出部21および22の出力画像信号について画素ごとに否定論理積をとる否定論理積(NAND)処理部31が設けられている。
In the image processing circuit 13a shown in FIG. 6, the output image signals of the
前述したように、白色抽出部21および22からの各出力画像信号においては、それぞれで抽出された白色領域の画素値が“1”とされ、その他の領域の画素値が“0”とされている。従って、これらの出力画像信号の否定論理積をとることで、双方の白色抽出部21および22により白色と判定された領域(図3の画像p3およびp4における白波101および102の領域)が除去され、一方でのみ白色と判定された領域(画像p3の人間104の領域)のみが抽出される。
As described above, in each output image signal from the
表示枠生成部26では、このように抽出された白色領域に対して表示枠の位置が生成され、合成処理部27では、可視光カメラ12による撮像画像に対して、検出された白色領域(すなわち、人間を検出した領域)の周囲に表示枠を合成した合成画像の信号が生成される。
In the display
以上の処理により、この第2の実施の形態でも、第1の実施の形態と同様に、人間を白波と区別して正確に検出できる。そして、このような検出処理を、遠赤外線カメラ11および可視光カメラ12の各撮像画像信号の画素値をしきい値と比較する比較処理と、その比較結果に対する否定論理積演算とを主とする単純な処理で実行できる。
Through the above processing, in the second embodiment as well, in the same way as in the first embodiment, it is possible to accurately detect a person by distinguishing them from white waves. Such detection processing is mainly performed by comparison processing for comparing the pixel value of each captured image signal of the far-
なお、以上の各実施の形態では、主として、2種類のカメラによる撮像画像信号に対するしきい値との比較処理と論理演算とによって、人間を正確に検出するようにしたが、このような処理に対して、より複雑な画像処理による公知の人間検出処理を組み合わせることで、より正確な人間検出を行うようにしてもよい。例えば、可視光カメラの出力画像信号を基に、肌色検出やテンプレート画像とのマッチング処理などを用いた人間検出処理を行い、この処理により検出された人間検出領域と、図2の白色抽出部25あるいは図6のNAND処理部31が出力する白色抽出領域とが一致したときに、その領域を人間が検出された領域と判定するようにしてもよい。
In each of the above-described embodiments, humans are accurately detected mainly by comparison processing with a threshold value for captured image signals from two types of cameras and logical operation. On the other hand, more accurate human detection may be performed by combining known human detection processing using more complicated image processing. For example, based on the output image signal of the visible light camera, human detection processing using skin color detection or matching processing with a template image is performed, and the human detection area detected by this processing and the
また、上記では、人間を白波と区別して検出できることを述べたが、遠赤外線カメラと可視光カメラとを用いた場合には、白波以外の別の物体と人間とを区別することもできる。例えば、遠赤外線カメラと可視光カメラの双方の撮像画像で概ね白色として検出される電灯(蛍光灯など)の光が存在する環境下でも、双方によるこの電灯の検出領域を除外することで、遠赤外線カメラにより白色として検出された人間のみを、電灯と区別して正確に検出することが可能になる。 In the above description, it has been described that a human can be detected separately from a white wave. However, when a far-infrared camera and a visible light camera are used, another object other than the white wave can be distinguished from a human. For example, even in an environment where light from a lamp (such as a fluorescent lamp) that is detected as almost white in both captured images of a far-infrared camera and a visible light camera is present, by excluding the detection area of this lamp by both, Only humans detected as white by an infrared camera can be accurately detected separately from electric lights.
また、雪山などでは、可視光カメラによる撮像画像信号からは、雪と人間とを区別しにくい。また、雪は遠赤外線カメラでは概ね黒色として検出され、可視光カメラでは白色として検出される。そこで、遠赤外線カメラによる撮像画像信号から抽出した黒色領域と、可視光カメラによる撮像画像信号から抽出した白色領域との論理積をとることで、雪の領域を除外し、残りの領域から遠赤外線カメラに基づく白色領域を抽出することで、人間を検出することもできる。 Moreover, in a snowy mountain etc., it is difficult to distinguish between snow and a human from a captured image signal by a visible light camera. Moreover, snow is generally detected as black in the far-infrared camera, and is detected as white in the visible light camera. Therefore, by taking the logical product of the black region extracted from the image signal captured by the far-infrared camera and the white region extracted from the image signal captured by the visible light camera, the snow region is excluded and the far-infrared region is extracted from the remaining region. Humans can also be detected by extracting a white region based on the camera.
また、可視光カメラと組み合わせて使用するカメラとしては、遠赤外線カメラに限らず、近赤外線カメラなどの赤外線領域を検出するカメラを用いることもできる。さらに、赤外線カメラと可視光カメラとの組み合わせに限らず、異なる周波数帯域の光(電磁波)をそれぞれ検出可能な2つのカメラを備えているときに、特定の物体を他の物体と識別することが可能になる。すなわち、2種類のカメラの双方で第1の物体を検出する場合に、一方のカメラによる第1の物体の検出領域においてはこの第1の物体と識別不可能である第2の物体があり、他方のカメラによる第1の物体の検出領域においては第2の物体が検出されない場合には、双方のカメラによる第1の物体の検出領域に基づいて、第1のカメラによる第1の物体の検出領域からこの第1の物体の検出領域を正確に除外することで、第2の物体の検出領域のみを抽出することが可能になる。 The camera used in combination with the visible light camera is not limited to the far-infrared camera, and a camera that detects an infrared region such as a near-infrared camera can also be used. Furthermore, not only a combination of an infrared camera and a visible light camera, but also having two cameras that can detect light (electromagnetic waves) in different frequency bands, a specific object can be distinguished from other objects. It becomes possible. That is, when the first object is detected by both of the two types of cameras, there is a second object that cannot be distinguished from the first object in the detection area of the first object by one camera. When the second object is not detected in the detection area of the first object by the other camera, the detection of the first object by the first camera is performed based on the detection area of the first object by both cameras. By accurately excluding the detection area of the first object from the area, it is possible to extract only the detection area of the second object.
また、上記の各実施の形態では、本発明を、2種類のカメラと物体検出用の画像処理回路とが一体となった装置に対して適用した場合について説明したが、この他に、2種類のカメラを外部に接続することで物体検出が可能となる画像処理装置に対して、本発明を適用することもできる。例えば、PCなどの情報処理装置において、通信ケーブルなどを通じて2種類のカメラからの撮像信号の入力を受け、これらの入力信号を基に物体検出処理を行うようにしてもよい。 In each of the above embodiments, the case where the present invention is applied to an apparatus in which two types of cameras and an image processing circuit for object detection are integrated has been described. The present invention can also be applied to an image processing apparatus that can detect an object by connecting the camera to the outside. For example, in an information processing apparatus such as a PC, input of imaging signals from two types of cameras may be received through a communication cable or the like, and object detection processing may be performed based on these input signals.
また、このような画像処理装置の処理機能は、コンピュータによって実現することができる。その場合、これらの処理機能の内容を記述したプログラムが提供される。そして、そのプログラムをコンピュータで実行することにより、これらの処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気ディスク、半導体メモリなどがある。 Such processing functions of the image processing apparatus can be realized by a computer. In that case, a program describing the contents of these processing functions is provided. These processing functions are realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical disk, and a semiconductor memory.
プログラムを流通させる場合には、例えば、そのプログラムが記録された光ディスクや半導体メモリなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 In order to distribute the program, for example, portable recording media such as an optical disk and a semiconductor memory on which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
1……ハイブリッドカメラ、2……PC、11……遠赤外線カメラ、12……可視光カメラ、13……画像処理回路、21,22,25……白色抽出部、23……論理積(AND)処理部、24……黒色置換部、26……表示枠生成部、27……合成処理部、28……設定レジスタ、29……同期信号生成部 DESCRIPTION OF SYMBOLS 1 ... Hybrid camera, 2 ... PC, 11 ... Far-infrared camera, 12 ... Visible light camera, 13 ... Image processing circuit, 21, 22, 25 ... White extraction part, 23 ... Logical product (AND ) Processing unit, 24... Black replacement unit, 26... Display frame generation unit, 27... Synthesis processing unit, 28... Setting register, 29.
Claims (15)
赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部と、
前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部と、
前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部と、
を有することを特徴とする画像処理装置。 In an image processing apparatus for detecting a specific subject based on an input image signal,
A first region extraction unit that extracts a first image region whose pixel value is included in the first level band based on an infrared image signal from the infrared camera;
A second region extraction unit that extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from a visible light camera that images the same direction as the infrared camera;
A third image area obtained by excluding an overlapping area between the first image area and the second image area from either the first image area or the second image area is defined as the specific subject. A third image region extraction unit that outputs as a region including
An image processing apparatus comprising:
前記第2の領域抽出部は、前記第2の画像領域として、前記可視光画像信号の各色成分の画素値がそれぞれ所定のレベル以上をとることで少なくとも判定される白色領域を抽出することを特徴とする請求項2記載の画像処理装置。 The first area extraction unit outputs a pixel area having a pixel value equal to or higher than a predetermined level as the first image area,
The second area extracting unit extracts a white area determined at least when each pixel value of each color component of the visible light image signal has a predetermined level or more as the second image area. The image processing apparatus according to claim 2.
赤外線カメラと、
前記赤外線カメラと同じ方向を撮像する可視光カメラと、
前記赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部と、
前記可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部と、
前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部と、
を有することを特徴とする撮像装置。 In an imaging device having a function of detecting a specific subject based on a captured image signal,
An infrared camera,
A visible light camera that images the same direction as the infrared camera;
A first region extraction unit that extracts a first image region whose pixel value is included in a first level band based on an infrared image signal from the infrared camera;
A second region extraction unit that extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from the visible light camera;
A third image area obtained by excluding an overlapping area between the first image area and the second image area from either the first image area or the second image area is defined as the specific subject. A third image region extraction unit that outputs as a region including
An imaging device comprising:
第1の領域抽出部が、赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出し、
第2の領域抽出部が、前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出し、
第3の画像領域抽出部が、前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する、
ことを特徴とする画像処理方法。 In an image processing method for detecting a specific subject based on an input image signal,
The first region extraction unit extracts a first image region whose pixel value is included in the first level band based on the infrared image signal from the infrared camera,
A second region extraction unit extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from a visible light camera that images the same direction as the infrared camera;
A third image area extraction unit that excludes an overlapping area between the first image area and the second image area from either the first image area or the second image area; Output the image area as an area including the specific subject.
An image processing method.
コンピュータを、
赤外線カメラからの赤外線画像信号を基に、画素値が第1のレベル帯域に含まれる第1の画像領域を抽出する第1の領域抽出部、
前記赤外線カメラと同じ方向を撮像する可視光カメラからの可視光画像信号を基に、画素値が第2のレベル帯域に含まれる第2の画像領域を抽出する第2の領域抽出部、
前記第1の画像領域または前記第2の画像領域のいずれか一方から、前記第1の画像領域と前記第2の画像領域との重複領域を除外した第3の画像領域を、前記特定の被写体を含む領域として出力する第3の画像領域抽出部、
として機能させることを特徴とする画像処理プログラム。 In an image processing program for detecting a specific subject based on an input image signal,
Computer
A first region extraction unit for extracting a first image region whose pixel value is included in the first level band based on an infrared image signal from the infrared camera;
A second region extraction unit that extracts a second image region whose pixel value is included in a second level band based on a visible light image signal from a visible light camera that images the same direction as the infrared camera;
A third image area obtained by excluding an overlapping area between the first image area and the second image area from either the first image area or the second image area is defined as the specific subject. A third image region extraction unit that outputs as a region including
An image processing program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007169880A JP2009010669A (en) | 2007-06-28 | 2007-06-28 | Image processing unit, imaging apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007169880A JP2009010669A (en) | 2007-06-28 | 2007-06-28 | Image processing unit, imaging apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009010669A true JP2009010669A (en) | 2009-01-15 |
Family
ID=40325304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007169880A Pending JP2009010669A (en) | 2007-06-28 | 2007-06-28 | Image processing unit, imaging apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009010669A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011024865A1 (en) * | 2009-08-27 | 2011-03-03 | 日本電気株式会社 | Image target identification device, image target identification method, and image target identification program |
JP2011193061A (en) * | 2010-03-11 | 2011-09-29 | Hitachi Computer Peripherals Co Ltd | Imaging apparatus, and monitoring system |
JPWO2011074413A1 (en) * | 2009-12-14 | 2013-04-25 | 日本電気株式会社 | Image generation apparatus, image generation method, and image generation program |
JP2016052096A (en) * | 2014-09-02 | 2016-04-11 | 任天堂株式会社 | Image processing program, information processing system, and image processing method |
JP2017208616A (en) * | 2016-05-16 | 2017-11-24 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10348983B2 (en) | 2014-09-02 | 2019-07-09 | Nintendo Co., Ltd. | Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image |
JP2020195140A (en) * | 2016-05-16 | 2020-12-03 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
-
2007
- 2007-06-28 JP JP2007169880A patent/JP2009010669A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011024865A1 (en) * | 2009-08-27 | 2011-03-03 | 日本電気株式会社 | Image target identification device, image target identification method, and image target identification program |
JP5664551B2 (en) * | 2009-08-27 | 2015-02-04 | 日本電気株式会社 | Image target identification device, image target identification method, and image target identification program |
JPWO2011074413A1 (en) * | 2009-12-14 | 2013-04-25 | 日本電気株式会社 | Image generation apparatus, image generation method, and image generation program |
JP5741447B2 (en) * | 2009-12-14 | 2015-07-01 | 日本電気株式会社 | Image generation apparatus, image generation method, and image generation program |
JP2011193061A (en) * | 2010-03-11 | 2011-09-29 | Hitachi Computer Peripherals Co Ltd | Imaging apparatus, and monitoring system |
JP2016052096A (en) * | 2014-09-02 | 2016-04-11 | 任天堂株式会社 | Image processing program, information processing system, and image processing method |
US10348983B2 (en) | 2014-09-02 | 2019-07-09 | Nintendo Co., Ltd. | Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image |
JP2017208616A (en) * | 2016-05-16 | 2017-11-24 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2020195140A (en) * | 2016-05-16 | 2020-12-03 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7800064B2 (en) | Image pickup apparatus | |
CN109377469B (en) | Processing method, system and storage medium for fusing thermal imaging with visible light image | |
JP6394338B2 (en) | Image processing apparatus, image processing method, and imaging system | |
JP2009010669A (en) | Image processing unit, imaging apparatus, image processing method, and program | |
US20210342578A1 (en) | Polarization Imaging for Facial Recognition Enhancement System and Method | |
WO2017202061A1 (en) | Image defogging method and image capture apparatus implementing image defogging | |
US20130258112A1 (en) | Visible light and ir hybrid digital camera | |
JP2015197745A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2009010447A (en) | Imaging apparatus and switching method thereof | |
CN104980710A (en) | Temperature detection method and mobile terminal | |
CN104796600B (en) | Image synthesizer and image combining method | |
JP2015127668A (en) | Measurement device, system and program | |
JP5708036B2 (en) | Imaging device | |
KR20190076188A (en) | Fusion dual IR camera and image fusion algorithm using LWIR and SWIR | |
JP5943393B2 (en) | Imaging device | |
KR102207650B1 (en) | Method for temperature calibration in thermal camera system | |
JP2011066809A (en) | Imaging apparatus | |
CN115550570A (en) | Image processing method and electronic equipment | |
JP2010211773A (en) | Image process apparatus, image process method and computer program | |
CN114338958A (en) | Image processing method and related equipment | |
JP2008241563A (en) | Dual-wavelength infrared image processing apparatus | |
WO2023040725A1 (en) | White balance processing method and electronic device | |
JP6331258B2 (en) | Imaging apparatus and method | |
JP2007214806A (en) | Obstacle detection system and obstacle detecting method | |
US8675958B2 (en) | Subject determination method, computer program product for determining subject, and camera |