JPWO2014174765A1 - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JPWO2014174765A1 JPWO2014174765A1 JP2015513510A JP2015513510A JPWO2014174765A1 JP WO2014174765 A1 JPWO2014174765 A1 JP WO2014174765A1 JP 2015513510 A JP2015513510 A JP 2015513510A JP 2015513510 A JP2015513510 A JP 2015513510A JP WO2014174765 A1 JPWO2014174765 A1 JP WO2014174765A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- light
- data
- wavelength band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 181
- 239000000203 mixture Substances 0.000 claims abstract description 53
- 239000002131 composite material Substances 0.000 claims abstract description 11
- 238000006243 chemical reaction Methods 0.000 claims description 70
- 230000015572 biosynthetic process Effects 0.000 claims description 25
- 238000003786 synthesis reaction Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 19
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 11
- 239000013589 supplement Substances 0.000 abstract description 4
- 230000003287 optical effect Effects 0.000 description 73
- 238000000605 extraction Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 21
- 238000012937 correction Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 12
- 241001465754 Metazoa Species 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 4
- 230000012447 hatching Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 101100248200 Arabidopsis thaliana RGGB gene Proteins 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 229910052741 iridium Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
- H04N25/136—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
本発明にかかる撮像装置および撮像方法では、第1および第2波長帯域でそれぞれ撮像して得られた第1および第2画像に基づいて合成画像が生成される。この画像合成の生成の際に前記第1画像中の合成対象画像に、前記第2画像中の前記対象物画像を合成する。このため、本発明にかかる撮像装置および撮像方法は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。In the imaging apparatus and the imaging method according to the present invention, a composite image is generated based on the first and second images obtained by imaging in the first and second wavelength bands, respectively. When the image composition is generated, the object image in the second image is synthesized with the composition target image in the first image. For this reason, the image pickup apparatus and the image pickup method according to the present invention can supplement the image quality that is insufficient in one image with another image, and thus can further improve the visibility of the object.
Description
本発明は、第1画像および第2画像を撮像して画像処理する撮像装置および撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method for imaging a first image and a second image and performing image processing.
従来より、夜間、または、雨若しくは霧等の視認性が悪い環境下で、所定の被写体を撮像する撮像装置が、監視用途または車載用途等で使用されている。特許文献1には、上記環境下でドライバの運転を支援するために赤外光を撮像して得られた赤外線画像を用いることによって、歩行者等の対象物を検出し、当該赤外線画像において前記対象物を強調表示する技術が開示されている。
2. Description of the Related Art Conventionally, an imaging device that captures a predetermined subject at night or in an environment with poor visibility such as rain or fog has been used for monitoring or in-vehicle use. In
上記従来技術に記載の技術では、対象物が強調表示されるが、対象物そのものの有する形状等が変更されて表示されるため、ドライバに不自然な印象を与える可能性がある。この従来技術には、例えばこの点で視認性に改善の余地がある。 In the technique described in the above prior art, the object is highlighted, but the shape or the like of the object itself is changed and displayed, which may give an unnatural impression to the driver. This prior art has room for improvement in visibility in this respect, for example.
本発明は、上記の事情に鑑みて為された発明であり、その目的は、対象物の視認性をより向上できる撮像装置および撮像方法を提供することである。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging apparatus and an imaging method that can further improve the visibility of an object.
本発明にかかる撮像装置および撮像方法では、第1および第2波長帯域でそれぞれ撮像して得られた第1および第2画像に基づいて合成画像が生成される。この画像合成の生成の際に前記第1画像中の合成対象画像に、前記第2画像中の前記対象物画像を合成する。このため、本発明にかかる撮像装置および撮像方法は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。 In the imaging apparatus and the imaging method according to the present invention, a composite image is generated based on the first and second images obtained by imaging in the first and second wavelength bands, respectively. When the image composition is generated, the object image in the second image is synthesized with the composition target image in the first image. For this reason, the image pickup apparatus and the image pickup method according to the present invention can supplement the image quality that is insufficient in one image with another image, and thus can further improve the visibility of the object.
上記並びにその他の本発明の目的、特徴および利点は、以下の詳細な記載と添付図面から明らかになるであろう。 The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and the accompanying drawings.
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. In the present specification, when referring generically, it is indicated by a reference symbol without a suffix, and when referring to an individual configuration, it is indicated by a reference symbol with a suffix.
[第1実施形態]
図1は、第1実施形態にかかる撮像装置1000の構成の一例を示すブロック図である。図2は、実施形態にかかる光フィルタ群の部分図である。図2では、各光フィルタは、所定の配列でマトリクス状に配列された光フィルタ群を入射側から見て部分的に示されている。図2Aは、第1実施形態にかかるRGBIr態様の光フィルタ群103を示す図であり、図2Bは、第1実施形態にかかるWYRIr態様の光フィルタ群103を示す図である。図2Cは、後述の第2実施形態にかかるWYR型の光フィルタ群103aを示す図であり、図2Dは、後述の第2実施形態にかかるCMYG型の光フィルタ群103aを示す図である。[First Embodiment]
FIG. 1 is a block diagram illustrating an example of the configuration of the
図1において、本実施形態にかかる撮像装置1000は、例えば撮像部100と、画像処理部200と、出力部300と、入力部400とを備える。撮像部100から撮像データが画像処理部200に入力され、画像処理部200から画像処理後のデータが出力部300に出力される。入力部400は、画像処理部200に接続される。
In FIG. 1, an
撮像部100は、例えば監視用途または車載用途等で所定の被写体(物体)を撮像する装置である。撮像部100は、例えば光学系101、光フィルタ群103およびイメージセンサ105を有する。前記所定の被写体からの光は、光学系101を経て光フィルタ群103に入射し、光フィルタ群103で所定の波長範囲の光だけが透過されてイメージセンサ105に入射する。より具体的には、光フィルタ群103で透過された所定の波長範囲の光が、イメージセンサ105に含まれる複数の光電変換素子に入射し、入射した光の強度に応じたアナログ電気信号がイメージセンサ105から画像処理部200へ出力される。
The
光学系101は、1または複数のレンズ等の光学素子を有し、例えば前記所定の被写体からの光を、光フィルタ群103を介してイメージセンサ105の受光面上に結像する。光フィルタ群103は、互いに異なる中心波長で所定の波長範囲の光を透過する複数の光フィルタを有する。光フィルタ群103は、本実施形態では、例えば、赤色光を透過する赤色(R)フィルタ、緑色光を透過する緑色(G)フィルタ、青色光を透過する青色(B)フィルタ、および、赤外光を透過する赤外(Ir)フィルタ(本実施形態では近赤外フィルタ)の4種類の光フィルタを備え、これら4種類の光フィルタは、それぞれ複数、所定の配列で、例えば図2Aに示すように、互いに直交するx方向およびy方向の2方向にマトリクス状に配列されている。本実施形態の光フィルタ群103は、所謂ベイヤー配列型の光フィルタ群と類似し、ベイヤー配列型光フィルタ群に含まれる2つの緑色フィルタのうちの1つが近赤外フィルタに置換されている。マトリクス状の配列において、例えばs行t列の位置を(t,s)と表すと、光フィルタ群103の構成は、具体的には次のようになる。すなわち、光フィルタ群103は、例えばGフィルタを(1,1)の位置に、Rフィルタを(2,1)の位置に、Bフィルタを(1,2)の位置におよびIrフィルタを(2,2)の位置に各々配置した基本パターン(図中のAで示す矩形部分)がx方向およびy方向の2方向にマトリクス状に配列されることで、構成されている(以下、RGBIr態様とも呼ぶ)。なお、光フィルタ群103は、図2Bに示すように、例えば白色光を透過する白色(W)フィルタお(1,1)の位置に、黄色光を透過する黄色(Y)フィルタを(2,1)の位置に、Rフィルタを(1,2)の位置におよびIrフィルタを(2,2)の位置に各々配置した基本パターン(図中のBで示す矩形部分)が前記x方向およびy方向の2方向にマトリクス状に配列されることで、構成されてもよい(以下、WYRIr態様とも呼ぶ)。
The
光フィルタ群103においてマトリクス状に配列された各光フィルタ(R、G、B、IrまたはW、Y、R、Irの各フィルタ)は、後述のイメージセンサ105に含まれるマトリクス状に配列された複数の光電変換素子の各々に1対1に対応する。RGBIr態様の場合、イメージセンサ105の受光面において、緑色光を受光する光電変換素子を(1,1)の位置に、赤色光を受光する光電変換素子を(2,1)の位置に、青色光を受光する光電変換素子を(1,2)の位置に、そして、近赤外光を受光する光電変換素子を(2,2)の位置に各々配置した基本パターンが、前記x方向およびy方向の2方向にマトリクス状に配列されている。このように、複数の光電変換素子それぞれは、単一の色の光を受光している。例えば、図2Aにおいて(2,2)に位置する光電変換素子は、近赤外光のみを受光する。このように1個の光電変換素子は、単一の色の光を受光するため、当該色の画素値を生成するが、他の色の画素値を生成しない。このため、当該光電変換素子における前記他の色の画素値は、例えば当該光電変換素子の周囲に配置された、前記他の色の光を受光する光電変換素子によって生成された、前記他の色の画素値を用いた補間によって生成される。例えば、(2,2)に位置する近赤外光を受光する光電変換素子における青色の画素値は、これに隣接する(1,2)の位置および(3,2)の位置に存在する光電変換素子によって生成された青色の画素値を用いて補間演算されることで算出される。
The optical filters (R, G, B, Ir or W, Y, R, Ir filters) arranged in a matrix in the
イメージセンサ105は、入射した光を光電変換して入射した光の強度に応じた値を出力する、マトリクス状に配列された複数の光電変換素子を有する。イメージセンサ105における前記複数の光電変換素子のうち、前記Rフィルタ、GフィルタおよびBフィルタの各フィルタをそれぞれ介して受光する複数の光電変換素子は、第1波長帯域に含まれる波長領域の光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。イメージセンサ105における前記複数の光電変換素子のうち、前記Irフィルタを介して受光する複数の光電変換素子は、前記第1波長帯域とは異なる波長帯域を含む第2波長帯域の光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。なお、本実施形態では例えば、第1波長帯域の光は、可視光であり、第1波長帯域に含まれる波長領域の光は、複数であって、赤色光、緑色光、青色光である。第2波長帯域の光は、赤外光(本実施形態では近赤外光)である。
The
本実施形態では、イメージセンサ105は、1個のイメージセンサであり、複数の第1光電変換素子L1および複数の第2光電変換素子L2は、1個のイメージセンサ105上に形成される。イメージセンサ105は、第1撮像データD1および第2撮像データD2それぞれをアナログ電気信号で画像処理部200へ出力する。第1画像および第2画像は、各々1個のイメージセンサ105から出力された第1撮像データD1および第2撮像データD2による画像であり、同寸法(同画像サイズ)、同形状である。第1画像および第2画像の画素数は、上記のように補間演算等されて同数である。なお、本実施形態のイメージセンサ105は、例えば、入射光の強度に対する電気出力の特性を表す光電変換特性が線形特性または線形対数特性である、CMOS(Complementary Metal Oxide Semiconductor)型またはCCD(Charge Coupled Device)型等のイメージセンサである。イメージセンサ105が線形対数特性である場合、ダイナミックレンジが広いので、出力部300のダイナミックレンジに応じて適宜にダイナミックレンジが圧縮される。このダイナミックレンジ圧縮は、公知の常套手段が用いられ、例えば特許第4736792号公報に開示されている。
In the present embodiment, the
画像処理部200は、第2撮像データD2による第2画像から所定の種類の対象物を検出して、第1撮像データD1による第1画像と、前記所定の種類の対象物を含む前記第2撮像データD2による第2画像とに基づいて合成画像を生成する画像処理を行う。本実施形態では、第1撮像データD1による第1画像は、いわゆる可視画像であり、第2撮像データD2による第2画像は、いわゆる近赤外画像である。画像処理部200は、例えば制御演算部211を備える。制御演算部211は、イメージセンサ105に接続され、制御演算部211からの出力は、出力部300に出力される。
The
制御演算部211は、撮像部100、画像処理部200、出力部300、入力部400の全体の制御および画像合成等の各種演算を行う。制御演算部211は、例えばCPU(Central Processing Unit)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)およびそれらの周辺回路を備えて構成される。また、制御演算部211は、ROMに記憶された画像処理プログラムを実行することにより、機能的に、制御部215、対象物抽出部209および画像合成部205を備える。対象物抽出部209は、イメージセンサ105から第2撮像データD2が入力され、対象物抽出部209の出力は、画像合成部205へ出力される。画像合成部205は、イメージセンサ105から第1撮像データD1が入力される。画像合成部205は、対象物抽出部209に接続され、画像合成部205の出力は、出力部300へ出力される。
The
制御部215は、撮像部100、画像処理部200、出力部300、入力部400の全体の制御等を司る。対象物抽出部209は、近赤外画像から所定の種類の対象物T(以下、単に対象物Tと呼ぶ)を検出して、第2撮像データD2による近赤外画像から対象物Tを含む第2画像領域の対象物画像G2を抽出する。本実施形態では、例えば、対象物Tは、予め設定され、例えば人や動物等の恒温生物であり、複数であってもよい。また、対象物Tを含む対象物画像G2の形状は、所定の適宜な形状であり、例えば矩形形状である。なお、対象物画像G2の形状は、例えば対象物T自体の形状であってもよい。対象物抽出部209は、例えば、対象物検出部201と対象物画像領域抽出部203とを有する。対象物検出部201は、イメージセンサ105から第2撮像データD2が入力され、対象物検出部201の出力は、対象物画像領域抽出部203へ出力される。対象物画像領域抽出部203は、イメージセンサ105から第2撮像データD2が入力される。対象物画像領域抽出部203は、対象物検出部201に接続され、対象物画像領域抽出部203の出力は、画像合成部205へ出力される。
The
対象物検出部201は、第2撮像データD2による第2画像の中から所定の種類の対象物Tを検出する。より具体的には、対象物検出部201は、前記近赤外画像から対象物Tを検出する。対象物検出部201における対象物Tの検出方法は、例えば、対象物T(人や動物等の恒温生物)の形をした所定のテンプレートを用いて対象物Tを検出するいわゆるパターンマッチング法を使用した手法(例えば、特開2004−145660号公報参照)等である。また、対象物Tの他の検出方法は、例えば、前記赤外画像の全画素について、画像のエッジの鋭さの程度を示すエッジ方向ヒストグラムを作成し、前記エッジの鋭さの程度とそれに対応する画素を勘案して形状を推定することで対象物Tを検出する手法(例えば、特開2010−117772号公報参照)等であってもよい。なお、当該手法において、検出精度向上のためにブースティング法の機械学習アルゴリズム等が使用されてもよい(例えば、山下隆義,藤吉弘亘,「特定物体認識に有効な特徴量」,情報処理学会研究報告,CVIM165,November,2008,pp.221−236)。これらの手法により、人や動物等の恒温生物以外の、例えば熱源である自動車のエンジン等が近赤外画像から検出されることを回避でき、より精度よく対象物Tが検出できる。
The
対象物検出部201は、本実施形態では、上記のように対象物Tを検出し、この検出した対象物Tを含む、例えば第2撮像データD2による第2画像内における対象物画像G2の領域情報を対象物画像領域抽出部203へ出力する。領域情報は、第2画像内における対象物画像G2の範囲を表わす情報である。領域情報は、例えば対象物画像G2の矩形における4つの頂点それぞれに対応する各画素の各座標(以下、頂点座標とも呼ぶ)等である。ここで、撮像データによる撮像画像における画素の座標値は、例えば該撮像画像の矩形における4つの頂点のうちの一つの頂点の画素を原点とし、画像の長手方向をx軸方向とし、画像の短手方向をy軸方向としたxy直行座標系等における座標値である。
In the present embodiment, the
対象物画像領域抽出部203は、第2撮像データD2による第2画像から対象物画像G2を抽出する。より具体的には、対象物画像領域抽出部203は、前記近赤外画像から対象物画像G2を抽出する。本実施形態では、対象物画像領域抽出部203は、例えば、前記領域情報に基づいて、近赤外画像において第2画像領域r2(対象物画像G2)を除く領域の画素値を所定の一定値に変換することでマスク画像Mを作成する。これによって、対象物画像領域抽出部203は、近赤外画像から対象物画像G2を抽出し、対象物画像G2を含むマスク画像Mを画像合成部205へ出力する。なお、近赤外画像に含まれる対象物画像G2は、輝度値のみを画素値として有するので、本実施形態では前記所定の一定値は、例えばゼロである。前記マスク画像Mは、対象物画像G2の第2画像領域r2を除く他の領域がマスク(黒色化)されることで、前記マスク画像Mに実質的に前記領域情報が重畳されている。なお、対象物画像領域抽出部203は、例えば前記領域情報に対応する近赤外画像を、前記領域情報が対象物検出部201から対象物画像領域抽出部203に入力されるまで記憶しておき、前記領域情報と前記領域情報に対応する近赤外画像とを同期させる。
The object image
画像合成部205は、第1撮像データD1による第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する。より具体的には、画像合成部205は、前記第2画像のうちの対象物Tを含む第2画像領域r2の対象物画像G2を、前記第1画像のうちの前記第2画像領域r2に対応する第1画像領域r1の合成対象画像G1に合成する。
The
本実施形態における画像合成部205は、前記領域情報に基づき、合成対象画像G1に対象物抽出部209で抽出された対象物画像G2を合成し、合成後の画像データを出力部300へ出力する。より具体的には、画像合成部205は、第1画像である可視画像に、前記マスク画像M(第1画像と同形状、同寸法、同画素数)を互いに対応する画素毎に画像合成することで、矩形形状の第2画像領域r2と、第2画像領域r2と同じ頂点座標である矩形形状の第1画像領域r1との間で、合成対象画像G1に対象物画像G2を画像合成する。マスク画像Mが使用されることにより、画像合成部205において、可視画像とマスク画像Mとの間で同じ座標の画素の画素値同士が加算されて、可視画像に対象物画像G2が合成される。なお、画像合成部205は、例えばマスク画像Mに対応する可視画像を、マスク画像Mが対象物抽出部209から画像合成部205に入力されるまで記憶しておき、マスク画像Mとマスク画像Mに対応する可視画像とを同期させる。
Based on the region information, the
画像合成部205は、本実施形態では、例えば、輝度合成部205aと、色度補正部205bとを備える。画像合成部205は、第1画像と第2画像とに基づく画像合成において、第1撮像データD1に含まれる輝度を表わす第1輝度データと、第2撮像データD2に含まれる輝度を表わす第2輝度データとを、輝度合成部205aにおいて合成する。本実施形態では、輝度データは、例えば後の(式1)で算出される輝度値であり、輝度合成部205aは、対応する画素ごとに例えば第1画像内の合成対象画像G1の第1輝度値に対して、第2画像から抽出された対象物画像G2の第2輝度値を加算し、合成輝度値を算出する。画像合成部205は、対象物画像G2の第2輝度データと合成対象画像G1の第1輝度データとの合成に応じて、第1撮像データD1に含まれる色度を表わす色度データを、色度補正部205bにおいて補正する。本実施形態では、色度データは、例えば後の(式1)で算出される色度値であり、色度補正部205bは、対応する画素ごとに例えば可視画像である第1画像内の合成対象画像G1の第1色度値を、前記第1輝度値に対する前記合成輝度値の変化率に応じた第2色度値に変換(補正)する。より具体的に色度補正部205bは、例えば「第2色度値=第1色度値×合成輝度値/第1輝度値」の演算式によって第2色度値を求める。
In this embodiment, the
出力部300は、画像合成部205で合成された画像を出力する表示装置である。当該表示装置は、例えばLCD(Liquid Crystal Display)等であり、車の運転席前方の例えばダッシュボードの上や、監視室等に配置される。また例えば、当該表示装置は、ヘッドマウントディスプレイである。入力部400は、撮像装置1000に対して情報入力するためのディップスイッチやプッシュスイッチ等の入力機器である。
The
図3は、第1実施形態にかかる撮像装置1000の動作フロー図である。図4は、第1実施形態にかかる可視画像、近赤外画像および合成画像を説明するための図である。まず、所定の被写体(物体)からの光が撮像部100に入射されると、光学系101は、光フィルタ群103を介してイメージセンサ105の受光面上に前記被写体の光学像を結像させる。そして、第1光電変換素子L1が可視光で前記被写体の光学像を撮像して第1撮像データD1を出力し、第2光電変換素子L2が近赤外光で前記被写体の光学像を撮像して第2撮像データD2を出力する。本実施形態では光フィルタ群103がRGBIr態様であるので、イメージセンサ105の複数の第1光電変換素子L1から第1撮像データD1として赤色光、緑色光および青色光の各信号(アナログ出力)が出力され、各々A/D変換(アナログデジタル変換)される。輝度値(第1輝度値)Yおよび色度値(第1色度値)Cb、Crが、前記各デジタル値である赤色値R、緑色値Gおよび青色値Bを用いて、下の(式1)で表わされる変換式で変換される(ステップS1)。
FIG. 3 is an operation flowchart of the
なお、光フィルタ群103がWYRIr態様である場合には、下の(式2)〜(式4)で表わされる変換式で、白色光、黄色光、赤色光の各信号(アナログ出力)がA/D変換されたデジタル値w、y、rを用いて、赤色値R、緑色値G、および青色値Bが算出され、この後に、(式1)を用いて第1輝度値、第1色度値が算出される。
When the
R=r−ir (式2)
G=y−r (式3)
B=w−y (式4)
なお、irは、赤外光の検出信号(アナログ出力)がA/D変換されたデジタル値である。R = r-ir (Formula 2)
G = y−r (Formula 3)
B = wy (Formula 4)
Note that ir is a digital value obtained by A / D converting a detection signal (analog output) of infrared light.
次に、対象物検出部201は、近赤外画像から対象物Tを検出し、対象物画像領域抽出部203は、近赤外画像から対象物画像G2を除く領域を前記所定の一定値でマスクしたマスク画像Mを生成する。その後、画像合成部205は、可視画像にマスク画像Mを画像合成する。この画像合成では、輝度合成部205aにおいて、前記合成輝度値が算出される(ステップS3)。すなわち、輝度合成部205aにおいて、合成対象画像G1の輝度値と対象物画像G2の輝度値とが加算されることで(第1輝度データと第2輝度データとが合成されることで)、合成輝度値が算出される。例えば、合成輝度値Y’は、「Y’=R+G+B+IR」の式で算出される。なお、合成輝度値Y’は、輝度値(第1輝度値)Yが算出されてから「Y’=Y+IR」の式で算出されてもよい。ここで、IRは、イメージセンサ105から出力された近赤外光の信号(アナログ出力)がA/D変換されたデジタル値であり、より具体的には、マスク画像Mにおける輝度値である。なお、光フィルタ群103がWYRIr態様である場合には、合成輝度値Y’は、「Y’=w+y+r+ir」の式で算出される。また、上記の合成輝度値Y’の各算出式において、近赤外光のデジタル値(IR、ir)の加算に対して重み付けが実施されても良い。この場合、合成輝度値Y’は、例えば、光フィルタ群103がRGBIr態様である場合には、「Y’=(1−t)(R+G+B)+t・IR」の式で算出され、光フィルタ群103がWYRIr態様である場合には、「Y’=(1−t)(w+y+r)+t・ir」の式で算出されてもよい(0<t<1)。
Next, the target
次に、合成後の画像の輝度が第1輝度値から合成輝度値へ変換されたことに伴い、色度補正部205bは、色度を補正する(ステップS5)。ステップS5では、上記「第2色度値=第1色度値×合成輝度値/第1輝度値」の式で第2色度が演算される。具体的には、第2色度値をCb’、Cr’とすると、「Cb’=Cb×Y’/Y」、「Cr’=Cr×Y’/Y」の式で第2色度が演算される。
Next, the
次に、画像合成部205は、下の(式5)で表わされる変換式で、合成画像における輝度値Y’、色度値Cb’、Cr’から赤色値R’、緑色値G’、および青色値B’へ変換する(ステップS7)。
Next, the
その後、画像合成部205は、赤色値R’、緑色値G’および青色値B’の各値に対して表示装置(出力部300)の表示特性に応じたガンマ補正を行ない(ステップS9)、ガンマ補正後の赤色値、緑色値、および青色値を出力部300に出力する。
Thereafter, the
表示装置である出力部300は、ガンマ補正後の赤色値、緑色値、および青色値の入力を受けて、合成画像を表示する(ステップS11)。
The
図4に、第1撮像データD1による可視画像である第1画像(図4Aおよび図4D)、対象物T(破線矩形部分(第2画像領域))が含まれる第2撮像データD2による近赤外画像である第2画像(図4Bおよび図4E)、および、画像合成部205において第1画像とマスク画像Mとが合成された画像(図4Cおよび図4F)が例示されている。図4A〜4Cは、実際の撮像画像であり、図4D〜4Fは、図4A〜4Cの撮像画像における特徴部分を抽出した模式図である。図4Aは、第1波長帯域の光を撮像することによって得られた可視画像であるので、暗闇で道路と片側の道路脇の茂みが撮像された画像となっており、画像中央付近には照明が照らされている部分が撮像されている。図4Dは、図4Aの撮像画像の特徴部分である、前記道路、前記茂みおよび前記照明が照らされている部分が実線で表されている。なお、図4Dには、暗闇を表すハッチングが付されている。図4Bは、第2波長帯域の光を撮像することによって得られた近赤外画像であるので、道路と両側の道路脇の茂みが薄暗く撮像された画像となっており、画像中央付近には人および動物の型が輝度良く撮像されている。図4Eは、図4Bの撮像画像の特徴部分である、前記道路、前記茂み、および前記人および動物の型が実線で表されている。なお、図4Bの薄暗い点は、図4Eには表されていない。図4Cは、図4Aと、図4Bの破線矩形部分を除く領域を前記所定の一定値でマスクしたマスク画像M(不図示)とが合成された画像となっており、暗闇における道路および片側の道路脇の茂みと、画像中央付近の照明が照らされている部分とが現れている画像に、人および動物の型が輝度良く映し出されている。図4Fは、図4Cの撮像画像の特徴部分である、前記道路、前記茂み、前記照明が照らされている部分、および前記人および動物の型が実線で表されている。なお、図4Fには暗闇を表すハッチングが付されている。
FIG. 4 shows a first image (FIGS. 4A and 4D) which is a visible image based on the first imaging data D1, and a near red color based on the second imaging data D2 including the target T (broken line rectangular portion (second image region)). The second image (FIGS. 4B and 4E), which is an outer image, and the image (FIGS. 4C and 4F) in which the first image and the mask image M are combined in the
図4Cおよび図4Fの合成画像には、図4Aおよび図4Dの可視画像では視認性の悪かった対象物Tがより視認性良く表示されている(図4Cおよび図4F中の破線矩形部分(第1画像領域))。 4C and FIG. 4F displays the object T, which has poor visibility in the visible images of FIG. 4A and FIG. 4D, with higher visibility (the broken-line rectangular portion in FIG. 4C and FIG. 4F (first 1 image area)).
次に、別の実施形態について説明する。 Next, another embodiment will be described.
[第2実施形態]
図5は、第2実施形態にかかる撮像装置1000aの構成の一例を示すブロック図である。図6は、第2実施形態にかかる可視画像、近赤外画像および合成画像を説明するための図である。図5において、第2実施形態にかかる撮像装置1000aは、上述の第1実施形態にかかる撮像装置1000に対し、例えば撮像部100の代わりに撮像部100aを、画像処理部200の代わりに画像処理部200aを備える。以下、第1実施形態と異なる点を中心に以下に説明する。なお、第2実施形態の各構成において第1実施形態の構成と同じものは同じ符号が付され、その説明は、特段理由がない限り適宜省略する。[Second Embodiment]
FIG. 5 is a block diagram illustrating an example of a configuration of the
本実施形態では、撮像部100aは、2つの別体のイメージセンサを有している。これに応じて、」撮像部100aは、例えば光学系101a、光学系101b、光フィルタ群103a、第1イメージセンサ105aおよび第2イメージセンサ105bを有する。前記所定の被写体からの光が光学系101aを経て光フィルタ群103aに入射し、光フィルタ群103aで所定の波長範囲の光だけが透過されて第1イメージセンサ105aに入射する。前記所定の被写体からの光が光学系101bを経て第2イメージセンサ105bに入射する。
In the present embodiment, the
光学系101aは、前記光学系101と同様である。なお、光学系101bは、例えば、赤外線用のレンズである。光フィルタ群103aは、本実施形態では例えば、ベイヤー配列のいわゆるRGGB型の光フィルタ群である。なお、光フィルタ群103aは、例えば、図2Cに示すいわゆるWYR型の光フィルタ群であってもよい。WYR型の光フィルタ群は、例えば白色(W)フィルタを(1,1)の位置に、黄色(Y)フィルタを(2,1)の位置に、赤色(R)フィルタを(1,2)の位置におよび白色(W)フィルタを(2,2)の位置に各々配置した基本パターン(図中のCで示す矩形部分)を、前記x方向およびy方向の2方向にマトリクス状に配列することで、構成されている。なお、光フィルタ群103aは、例えば、図2Dに示すいわゆるCMYG型の補色フィルター群であってもよい。Cは、シアン色を示し、Mは、マゼンダ色を示し、Yは、黄色を示し、Gは、緑色を示す。CMYG型の光フィルタ群は、例えばシアン色光を透過するシアン色(C)フィルタを(1,1)の位置に、マゼンダ色光を透過するマゼンダ色(M)フィルタを(2,1)の位置に、黄色(Y)フィルタを(1,2)の位置におよび緑色(G)フィルタを(2,2)の位置に各々配置した基本パターン(図中のDで示す矩形部分)を、前記x方向およびy方向の2方向にマトリクス状に配列することで、構成されている。
The
第1イメージセンサ105aに含まれる複数の光電変換素子は、光フィルタ群103aを経由した第1波長帯域に含まれる波長領域の光を受光することで、前記波長領域の光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。第1イメージセンサ105aは、例えば、イメージセンサ105と同様の、前記光電変換特性が線形特性または線形対数特性であるイメージセンサである。第2イメージセンサ105bに含まれる複数の光電変換素子は、前記赤外線用のレンズを経由した第1波長帯域とは異なる波長帯域を含む第2波長帯域の光を受光することで、前記第2波長帯域の光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。本実施形態では、第1イメージセンサ105aから第1撮像データD1が、第2イメージセンサ105bから第2撮像データD2が、各々制御演算部211に出力される。なお、本実施形態では、第1波長帯域に含まれる波長領域の光は、可視光であり、第2波長帯域の光は、遠赤外光である。なお、複数の第1光電変換素子L1は、第1波長帯域に含まれる複数の波長領域の光(赤色、緑色、および青色)を撮像して第1撮像データD1を出力する。また、第2イメージセンサ105bは、いわゆる量子型または熱型遠赤外線イメージセンサである。第1イメージセンサ105aと第2イメージセンサ105bとは、撮像対象が略同じであるが、例えば、各光軸が、互いに平行となるように、所定の距離(基線長)だけ間隔を空けて固定される。なお、第1イメージセンサ105aの第1撮像データD1による第1画像、および、第2イメージセンサ105bの第2撮像データD2による第2画像は、本実施形態では、同寸法、同形状、同画素数である。
The plurality of photoelectric conversion elements included in the
画像処理部200aは、対象物抽出部209の代わりに対象物抽出部209aを有する。対象物抽出部209aは、対象物抽出部209に対してさらに視差補正部207を有している。すなわち、対象物抽出部209aは、例えば、対象物検出部201、対象物画像領域抽出部203および視差補正部207を有し、対象物画像領域抽出部203の出力が視差補正部207に入力され、視差補正部207の出力が画像合成部205へ入力される。この場合、制御演算部211は、ROMに記憶された視差補正に対応した画像処理プログラムを実行することにより、機能的に、さらに視差補正部207が構成される。
The
視差補正部207は、第2イメージセンサ105bと第1イメージセンサ105bとがいわゆるステレオカメラのように前記基線長だけ隔離されて固定されているために生じた第1撮像データD1による可視画像(第1画像)と第2撮像データD2による遠赤外画像(第2画像)との間の視差を、公知の常套手段によって補正する。なお、この視差補正は、例えば遠赤外画像を当該画像内で水平方向にシフトすることによって実行されてもよい。このシフト量は、基線長に応じて予め適宜設定される。視差補正部207は、対象物画像領域抽出部203が抽出した対象物画像G2を上記シフト量だけマスク画像M内において水平方向にシフトさせ、対象物画像G2以外の部分を黒色化して、水平方向のズレを補正した後のマスク画像M’を作成し、マスク画像Mに代えてマスク画像M’を画像合成部205へ出力する。
The
本実施形態にかかる撮像装置1000aは、第1実施形態の図4と同様に、図6に示すように、可視画像では、視認性の悪かった対象物Tがより視認性良く表示される。
Similar to FIG. 4 of the first embodiment, the
より具体的には、図6に、第1撮像データD1による可視画像である第1画像(図6Aおよび図6D)、対象物T(破線矩形部分(第2画像領域))が含まれる第2撮像データD2による遠赤外画像である第2画像(図6Bおよび図6E)、および、画像合成部205において第1画像とマスク画像Mとが合成された画像(図6Cおよび図6F)が例示されている。図6A〜6Cは、実際の撮像画像であり、図6D〜6Fは、図6A〜6Cの撮像画像における特徴部分を抽出した模式図である。図6Aは、第1波長帯域の光を撮像することによって得られた可視画像であるので、暗闇で道路と片側の道路脇の茂みが撮像された画像となっており、画像中央付近には照明が照らされている部分が撮像されている。図6Dは、図6Aの撮像画像の特徴部分である、前記道路、前記茂みおよび前記照明が照らされている部分が実線で表されている。なお、図6Dには、暗闇を表すハッチングが付されている。図6Bは、第2波長帯域の光を撮像することによって得られた遠赤外画像であるので、道路と両側の道路脇の茂みが薄暗く撮像された画像となっており、画像中央付近には人および動物の型が輝度良く撮像されている。図6Eは、図6Bの撮像画像の特徴部分である、前記道路、前記茂み、および前記人および動物の型が実線で表されている。なお、図6Bの薄暗い点は、図6Eには表されていない。なお、図6Aと図6Bとを対比すると分かるように、図6Aに示す第1画像と図6Bに示す第2画像とは、前記基線長に対応した視差だけずれている。図6Cは、図6Aと、図6Bの破線矩形部分を除く領域を前記所定の一定値でマスクしたマスク画像M(不図示)とが合成された画像となっており、暗闇における道路および片側の道路脇の茂みと、画像中央付近の照明が照らされている部分とが現れている画像に、人および動物の型が輝度良く映し出されている。図6Fは、図6Cの撮像画像の特徴部分である、前記道路、前記茂み、前記照明が照らされている部分、および前記人および動物の型が実線で表されている。なお、図6Fには暗闇を表すハッチングが付されている。
More specifically, FIG. 6 includes a first image (FIGS. 6A and 6D) that is a visible image based on the first imaging data D1, and a second object T (a broken-line rectangular portion (second image region)). Examples include a second image (FIGS. 6B and 6E) that is a far-infrared image based on the imaging data D2, and an image (FIGS. 6C and 6F) in which the first image and the mask image M are combined in the
このように図6Cおよび図6Fの合成画像には、図6Aおよび図6Dの可視画像では視認性の悪かった対象物Tがより視認性良く表示されている(図6Cおよび図6F中の破線矩形部分(第1画像領域))。 As described above, in the synthesized images of FIGS. 6C and 6F, the object T that is poorly visible in the visible images of FIGS. 6A and 6D is displayed with higher visibility (the broken-line rectangles in FIGS. 6C and 6F). Part (first image area)).
次に、別の実施形態について説明する。 Next, another embodiment will be described.
[第3実施形態]
図7は、第3実施形態にかかる撮像装置1000bの構成の一例を示すブロック図である。図7において、第3実施形態にかかる撮像装置1000bは、第1実施形態にかかる撮像装置1000に対し、例えば撮像部100の代わりに撮像部100bを、画像処理部200の代わりに画像処理部200bを備える。以下、第1実施形態または第2実施形態と異なる点を中心に以下に説明する。なお、第3実施形態の各構成において第1実施形態または第2実施形態の構成と同じものは同じ符号が付され、その説明は、特段理由がない限り適宜省略する。[Third Embodiment]
FIG. 7 is a block diagram illustrating an example of a configuration of an
撮像部100bは、例えば光学系101c、光学系101d、光フィルタ群103c、第3イメージセンサ105c、および第4イメージセンサ105dを有する。本実施形態では、撮像部100bは、2つの別体のイメージセンサを有している。前記所定の被写体からの光が光学系101cを経て光フィルタ群103cに入射し、光フィルタ群103cで所定の波長範囲の光だけが透過されて第3イメージセンサ105cに入射する。また、前記所定の被写体からの光が光学系101dを経て第4イメージセンサ105dに入射する。
The imaging unit 100b includes, for example, an
光学系101cは、近赤外用のレンズを有する撮像光学系である。光学系101dは、遠赤外用のレンズを有する撮像光学系である。光フィルタ群103cは、近赤外フィルタである。
The
第3イメージセンサ105cに含まれる複数の光電変換素子は、光フィルタ群103cを経由した第1波長帯域に含まれる波長領域の光を受光することで、前記波長領域の光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。第3イメージセンサ105cは、例えば、前記光電変換特性が線形特性または線形対数特性であるイメージセンサである。第4イメージセンサ105dに含まれる複数の光電変換素子は、前記遠赤外線用のレンズを経由した第1波長帯域とは異なる波長帯域を含む第2波長帯域の光を受光することで、前記第2波長帯域の光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。本実施形態では、第3イメージセンサ105cから第1撮像データD1が、第4イメージセンサ105dから第2撮像データD2が、各々制御演算部211に出力される。なお、本実施形態では、例えば第1波長帯域に含まれる波長領域の光は、近赤外光であり、第2波長帯域の光は、遠赤外光である。この場合、第4イメージセンサ105dは、いわゆる量子型または熱型遠赤外線イメージセンサである。第3イメージセンサ105cと第4イメージセンサ105dとは、第2実施形態と同様に、撮像対象が略同じであるが、例えば、各光軸が互いに平行となるように所定の距離(前記基線長)だけ間隔を空けて固定される。なお、第3イメージセンサ105cの第1撮像データD1、第4イメージセンサ105dの第2撮像データD2による第1画像および第2画像は、本実施形態では、同寸法、同形状、同画素数である。
The plurality of photoelectric conversion elements included in the
画像処理部200bは、例えば、画像合成部205の代わりに画像合成部205dと、対象物抽出部209の代わりに前記対象物抽出部209aとを有する。画像合成部205dは、第2撮像データD2による遠赤外画像である第2画像から対象物画像G2を抽出して、第1撮像データD1による近赤外画像である第1画像にマスク画像M’を合成する画像処理を行う。
The
画像合成部205dは、輝度合成部205aを備える。輝度合成部205aは、より具体的には第1撮像データD1に含まれる輝度を表わす第3輝度データ(本実施形態では、具体的には近赤外画像の画素値すなわち輝度値)と、第2撮像データD2に含まれる輝度を表わす第4輝度データ(本実施形態では、具体的には遠赤外画像の画素値すなわち輝度値)とを合成して合成輝度値とする。なお、近赤外画像および遠赤外画像は、色度情報を有さないことから、画像合成部205dは、色度補正部205bを有さない。
The
なお、本実施形態において、撮像部100bは、複数の第1光電変換素子L1と複数の第2光電変換素子L2とが1個のイメージセンサ上に存在していてもよい。この場合、撮像部100bは、所定の配列でマトリクス状に配列された複数の前記近赤外フィルタおよび遠赤外光を透過する遠赤外フィルタを有する光フィルタ群を備える。前記1個のイメージセンサに含まれる複数の光電変換素子のうち、前記複数の近赤外フィルタを介して受光する複数の光電変換素子は、第1波長帯域に含まれる波長領域の近赤外光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。また、前記イメージセンサに含まれる前記複数の光電変換素子のうち、前記複数の遠赤外フィルタを介して受光する複数の光電変換素子は、前記第1波長帯域とは異なる波長帯域を含む第2波長帯域の遠赤外光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。 In the present embodiment, in the imaging unit 100b, the plurality of first photoelectric conversion elements L1 and the plurality of second photoelectric conversion elements L2 may exist on one image sensor. In this case, the imaging unit 100b includes a plurality of the near-infrared filters arranged in a matrix with a predetermined arrangement and an optical filter group having a far-infrared filter that transmits far-infrared light. Among the plurality of photoelectric conversion elements included in the one image sensor, the plurality of photoelectric conversion elements that receive light through the plurality of near-infrared filters are near-infrared light in a wavelength region included in the first wavelength band. Are a plurality of first photoelectric conversion elements L1 that output first imaging data D1. Among the plurality of photoelectric conversion elements included in the image sensor, a plurality of photoelectric conversion elements that receive light through the plurality of far-infrared filters include a second wavelength band that is different from the first wavelength band. A plurality of second photoelectric conversion elements L2 that image far-infrared light in the wavelength band and output second imaging data D2.
本実施形態にかかる撮像装置1000bは、具体的に例示しないが、第1実施形態の図4や第2実施形態の図6と同様に、近赤外画像では視認性の悪かった対象物Tがより視認性良く表示される。
Although the
上記各実施形態で述べた撮像装置および撮像方法は、第1撮像データD1による第1画像中の前記合成対象画像G1に、第2撮像データD2による第2画像から抽出された対象物画像G2を合成する。このため、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上させることができる。 In the imaging apparatus and imaging method described in each of the above embodiments, the object image G2 extracted from the second image based on the second imaging data D2 is added to the synthesis target image G1 in the first image based on the first imaging data D1. Synthesize. For this reason, since the image quality that is insufficient in one image can be supplemented by another image, the visibility of the object can be further improved.
なお、第1および第2実施形態において、撮像部100、100aは、近赤外光をより明確に撮像するために、近赤外光の投光装置を使用し、夜間に撮像対象に向けて近赤外光を照射してもよい。
Note that in the first and second embodiments, the
また、対象物画像領域抽出部203からの出力は、上記マスク画像Mに限られず、例えば対象物画像G2および前記領域情報の出力であってもよい。この場合、画像合成部205は、前記領域情報である対象物画像G2の前記頂点座標などに基づき、第1撮像データD1による第1画像内の前記頂点座標と同じ座標における、矩形形状の第2画像領域r2(対象物画像G2)と同じ寸法で表わされる矩形形状の部分を第1画像領域r1(合成対象画像G1)として、対象物画像G2を合成対象画像G1に画像合成する。
Further, the output from the object image
本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。 The present specification discloses various aspects of the technology as described above, and the main technologies are summarized below.
一態様にかかる撮像装置は、第1波長帯域に含まれる波長領域の光を撮像して第1撮像データを出力する複数の第1光電変換素子と、前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を撮像して第2撮像データを出力する複数の第2光電変換素子と、前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成部とを備え、前記画像合成部は、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する。 An imaging apparatus according to an aspect includes a plurality of first photoelectric conversion elements that capture light in a wavelength region included in a first wavelength band and output first imaging data, and a wavelength band different from the first wavelength band. Synthesis based on a plurality of second photoelectric conversion elements that capture light in the second wavelength band and output second imaging data, a first image based on the first imaging data, and a second image based on the second imaging data An image composition unit for generating an image, wherein the image composition unit converts an object image of a second image region including a predetermined type of object of the second image into the object of the first image. The image is combined with the image to be combined in the first image area corresponding to the second image area.
そして、上述の撮像装置において、前記第2撮像データによる第2画像のうちの所定の種類の対象物を検出する対象物検出部をさらに備え、前記画像合成部は、前記対象物検出部によって検出された前記対象物を含む前記第2画像領域の前記対象物画像を、前記第1画像のうちの前記第2画像領域に対応する前記第1画像領域の前記合成対象画像に合成することが好ましい。 In the above-described imaging device, the imaging device further includes an object detection unit that detects an object of a predetermined type in the second image based on the second imaging data, and the image synthesis unit is detected by the object detection unit. Preferably, the object image in the second image region including the target object is combined with the composition target image in the first image region corresponding to the second image region in the first image. .
他の一態様にかかる撮像方法は、第1波長帯域に含まれる波長領域の光を複数の第1光電変換素子によって撮像して第1撮像データを取得する第1撮像ステップと、前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を複数の第2光電変換素子によって撮像して第2撮像データを取得する第2撮像ステップと、前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成ステップとを備え、前記画像合成ステップは、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する。 An imaging method according to another aspect includes a first imaging step of acquiring first imaging data by imaging light in a wavelength region included in a first wavelength band by a plurality of first photoelectric conversion elements; and the first wavelength A second imaging step in which light of a second wavelength band including a wavelength band different from the band is captured by a plurality of second photoelectric conversion elements to obtain second imaging data; a first image based on the first imaging data; An image composition step for generating a composite image based on the second image based on the two imaging data, wherein the image composition step includes a target of a second image region including a predetermined type of object of the second image. The object image is synthesized with the synthesis target image in the first image area corresponding to the second image area in the first image.
このような撮像装置および撮像方法は、前記第1撮像データによる第1画像中の前記合成対象画像に、前記第2撮像データによる第2画像中の前記対象物画像を合成する。このため、前記撮像装置および撮像方法は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。 In such an imaging apparatus and imaging method, the object image in the second image based on the second imaging data is synthesized with the synthesis target image in the first image based on the first imaging data. For this reason, the image pickup apparatus and the image pickup method can supplement the image quality that is insufficient in one image with another image, and thus can further improve the visibility of an object.
他の一態様では、上記撮像装置において、前記第2波長帯域は、前記第1波長帯域より長い波長の帯域であることが好ましい。このような撮像装置は、対象物が第2撮像データから精度良く抽出できる。 In another aspect, in the imaging apparatus, it is preferable that the second wavelength band is a band having a longer wavelength than the first wavelength band. In such an imaging apparatus, the object can be accurately extracted from the second imaging data.
他の一態様では、これら上述の撮像装置において、前記第1撮像データは、輝度を表わす第1輝度データを含み、前記第2撮像データは、輝度を表わす第2輝度データを含み、前記画像合成部は、前記対象物画像の第2輝度データと、前記合成対象画像の第1輝度データとを合成することが好ましい。 In another aspect, in the above-described imaging devices, the first imaging data includes first luminance data representing luminance, the second imaging data includes second luminance data representing luminance, and the image synthesis The unit preferably synthesizes the second luminance data of the object image and the first luminance data of the composition target image.
この構成によれば、前記第1撮像データに含まれる前記第1輝度データと、前記第2撮像データに含まれる第2輝度データとが合成される。このため、このような撮像装置は、合成後の画像において前記対象物を明るく表示することが可能となり、対象物の視認性がより向上する。 According to this configuration, the first luminance data included in the first imaging data and the second luminance data included in the second imaging data are synthesized. For this reason, such an imaging device can display the target object brightly in the combined image, and the visibility of the target object is further improved.
他の一態様では、上述の撮像装置において、前記第1波長帯域の光は、可視光であり、前記第1撮像データは、色度を表わす色度データを含み、前記第2波長帯域の光は、赤外光であり、前記画像合成部は、前記対象物画像の第2輝度データと前記合成対象画像の第1輝度データとの合成に応じて、前記第1撮像データの色度データを補正することが好ましい。 In another aspect, in the above-described imaging device, the light in the first wavelength band is visible light, the first imaging data includes chromaticity data representing chromaticity, and the light in the second wavelength band. Is infrared light, and the image synthesizing unit obtains chromaticity data of the first imaging data in accordance with the synthesis of the second luminance data of the object image and the first luminance data of the synthesis target image. It is preferable to correct.
この構成によれば、前記第1輝度データと前記第2輝度データとが合成され、さらに前記色度値が補正される。このため、このような撮像装置は、合成の前後において色相の変化を抑制できる。 According to this configuration, the first luminance data and the second luminance data are combined, and the chromaticity value is further corrected. For this reason, such an imaging device can suppress a change in hue before and after synthesis.
他の一態様では、これら上述の撮像装置において、前記第1波長帯域の光は、近赤外光であり、前記第1撮像データは、輝度を表わす第3輝度データを含み、前記第2波長帯域の光は、遠赤外光であり、前記第2撮像データは、輝度を表わす第4輝度データを含み、前記画像合成部は、前記対象物画像の第4輝度データと、前記合成対象画像の第3輝度データとを合成することが好ましい。 In another aspect, in the above-described imaging devices, the light in the first wavelength band is near infrared light, the first imaging data includes third luminance data representing luminance, and the second wavelength. The band light is far-infrared light, the second imaging data includes fourth luminance data representing luminance, and the image synthesis unit includes fourth luminance data of the object image and the synthesis target image. It is preferable to synthesize the third luminance data.
この構成によれば、前記第1撮像データによる合成対象画像の第3輝度データと、前記第2撮像データによる前記対象物画像の第4輝度データとが合成される。このため、このような撮像装置は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。 According to this configuration, the third luminance data of the synthesis target image based on the first imaging data and the fourth luminance data of the target image based on the second imaging data are synthesized. For this reason, since such an imaging device can supplement image quality that is insufficient in one image with another image, the visibility of the object can be further improved.
他の一態様では、これら上述の撮像装置において、前記複数の第1光電変換素子および前記複数の第2光電変換素子を形成した1個のイメージセンサを備えることが好ましい。 In another aspect, it is preferable that the above-described imaging devices include one image sensor in which the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements are formed.
この構成によれば、前記1個のイメージセンサに前記複数の第1光電変換素子および前記複数の第2光電変換素子が形成される。このため、このような撮像装置は、これらを小型化できる。 According to this configuration, the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements are formed in the one image sensor. For this reason, such an imaging device can be miniaturized.
他の一態様では、これら上述の撮像装置において、前記複数の第1光電変換素子を形成した第1イメージセンサと、前記複数の第2光電変換素子を形成した前記第1イメージセンサとは別体の第2イメージセンサとを備えることが好ましい。 In another aspect, in the above-described imaging devices, the first image sensor in which the plurality of first photoelectric conversion elements are formed and the first image sensor in which the plurality of second photoelectric conversion elements are formed are separate from each other. The second image sensor is preferably provided.
この構成によれば、別体の第1イメージセンサおよび第2イメージセンサが使用される。このため、このような撮像装置は、各波長帯域に適したイメージセンサを使用でき、より適切に各波長帯域の光を検出できる。 According to this configuration, separate first image sensor and second image sensor are used. For this reason, such an imaging apparatus can use an image sensor suitable for each wavelength band, and can detect light in each wavelength band more appropriately.
この出願は、2013年4月26日に出願された日本国特許出願特願2013−93535を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2013-93535 filed on Apr. 26, 2013, the contents of which are included in this application.
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.
本発明によれば、撮像装置および撮像方法を提供できる。 According to the present invention, an imaging device and an imaging method can be provided.
Claims (9)
前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を撮像して第2撮像データを出力する複数の第2光電変換素子と、
前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成部とを備え、
前記画像合成部は、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する、
撮像装置。A plurality of first photoelectric conversion elements for imaging light in a wavelength region included in the first wavelength band and outputting first imaging data;
A plurality of second photoelectric conversion elements for imaging light of a second wavelength band including a wavelength band different from the first wavelength band and outputting second imaging data;
An image composition unit that generates a composite image based on the first image based on the first image data and the second image based on the second image data;
The image synthesizing unit converts a target image in a second image region including a predetermined type of target in the second image into a first image region corresponding to the second image region in the first image. To be combined with the target image of
Imaging device.
請求項1に記載の撮像装置。The second wavelength band is a wavelength band longer than the first wavelength band.
The imaging device according to claim 1.
前記第2撮像データは、輝度を表わす第2輝度データを含み、
前記画像合成部は、前記対象物画像の第2輝度データと、前記合成対象画像の第1輝度データとを合成する、
請求項1または請求項2に記載の撮像装置。The first imaging data includes first luminance data representing luminance,
The second imaging data includes second luminance data representing luminance,
The image synthesis unit synthesizes the second luminance data of the object image and the first luminance data of the synthesis target image;
The imaging device according to claim 1 or 2.
前記第2波長帯域の光は、赤外光であり、
前記画像合成部は、前記対象物画像の第2輝度データと前記合成対象画像の第1輝度データとの合成に応じて、前記第1撮像データの色度データを補正する、
請求項3に記載の撮像装置。The light in the first wavelength band is visible light, and the first imaging data includes chromaticity data representing chromaticity,
The light in the second wavelength band is infrared light,
The image composition unit corrects chromaticity data of the first imaging data in accordance with the composition of the second luminance data of the object image and the first luminance data of the composition target image.
The imaging device according to claim 3.
前記第2波長帯域の光は、遠赤外光であり、前記第2撮像データは、輝度を表わす第4輝度データを含み、
前記画像合成部は、前記対象物画像の第4輝度データと、前記合成対象画像の第3輝度データとを合成する、
請求項1または請求項2に記載の撮像装置。The light in the first wavelength band is near-infrared light, and the first imaging data includes third luminance data representing luminance,
The light in the second wavelength band is far-infrared light, and the second imaging data includes fourth luminance data representing luminance,
The image composition unit synthesizes the fourth luminance data of the object image and the third luminance data of the composition target image;
The imaging device according to claim 1 or 2.
前記画像合成部は、前記対象物検出部によって検出された前記対象物を含む前記第2画像領域の前記対象物画像を、前記第1画像のうちの前記第2画像領域に対応する前記第1画像領域の前記合成対象画像に合成する、
請求項1ないし請求項5のいずれか1項に記載の撮像装置。An object detection unit for detecting a predetermined type of object in the second image based on the second imaging data;
The image compositing unit corresponds to the first image region corresponding to the second image region of the first image, the object image of the second image region including the target object detected by the target object detection unit. Synthesizing the image to be synthesized in the image area
The imaging device according to any one of claims 1 to 5.
請求項1ないし請求項6のいずれか1項に記載の撮像装置。Comprising one image sensor formed with the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements;
The imaging device according to any one of claims 1 to 6.
前記複数の第2光電変換素子を形成した前記第1イメージセンサとは別体の第2イメージセンサとを備える、
請求項1ないし請求項6のいずれか1項に記載の撮像装置。A first image sensor formed with the plurality of first photoelectric conversion elements;
A second image sensor separate from the first image sensor in which the plurality of second photoelectric conversion elements are formed,
The imaging device according to any one of claims 1 to 6.
前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を複数の第2光電変換素子によって撮像して第2撮像データを取得する第2撮像ステップと、
前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成ステップとを備え、
前記画像合成ステップは、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する、
撮像方法。A first imaging step of capturing light of a wavelength region included in the first wavelength band with a plurality of first photoelectric conversion elements to obtain first imaging data;
A second imaging step of acquiring second imaging data by imaging light of a second wavelength band including a wavelength band different from the first wavelength band by a plurality of second photoelectric conversion elements;
An image synthesis step of generating a synthesized image based on the first image based on the first imaging data and the second image based on the second imaging data;
In the image composition step, an object image in a second image area including a predetermined type of object in the second image is converted into a first image area corresponding to the second image area in the first image. To be combined with the target image of
Imaging method.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013093535 | 2013-04-26 | ||
JP2013093535 | 2013-04-26 | ||
PCT/JP2014/001837 WO2014174765A1 (en) | 2013-04-26 | 2014-03-28 | Image capture device and image capture method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2014174765A1 true JPWO2014174765A1 (en) | 2017-02-23 |
Family
ID=51791354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015513510A Pending JPWO2014174765A1 (en) | 2013-04-26 | 2014-03-28 | Imaging apparatus and imaging method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2014174765A1 (en) |
WO (1) | WO2014174765A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464418B (en) * | 2017-08-18 | 2021-03-19 | 深圳市鹏城交通网络股份有限公司 | Intelligent traffic management system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229317A (en) * | 2004-02-12 | 2005-08-25 | Sumitomo Electric Ind Ltd | Image display system and imaging device |
US9200895B2 (en) * | 2010-11-16 | 2015-12-01 | Konica Minolta, Inc. | Image input device and image processing device |
JP5783471B2 (en) * | 2010-12-01 | 2015-09-24 | コニカミノルタ株式会社 | Image synthesizer |
-
2014
- 2014-03-28 WO PCT/JP2014/001837 patent/WO2014174765A1/en active Application Filing
- 2014-03-28 JP JP2015513510A patent/JPWO2014174765A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2014174765A1 (en) | 2014-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012067028A1 (en) | Image input device and image processing device | |
US8379976B2 (en) | Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored | |
JP5701785B2 (en) | The camera module | |
US10171757B2 (en) | Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter | |
CN107113408A (en) | Image processing apparatus, image processing method, program and system | |
EP2866445A1 (en) | Imaging device | |
JP4941482B2 (en) | Pseudo color image generation apparatus and program | |
KR20120098107A (en) | System and method for assisting a driver | |
EP3021577B1 (en) | Imaging device | |
KR20120008519A (en) | Monitoring apparatus | |
JP4985660B2 (en) | Pseudo gray image generating apparatus and program | |
JP2016535485A (en) | Conversion of images from dual-band sensors into visible color images | |
JP4363207B2 (en) | Image processing method, image processing system, and image processing apparatus | |
JP5718138B2 (en) | Image signal processing apparatus and program | |
JP2015194567A (en) | display device | |
US20230140768A1 (en) | Imaging element and electronic apparatus | |
JP5108013B2 (en) | Color imaging device, imaging device using the same, and filter | |
WO2014174765A1 (en) | Image capture device and image capture method | |
JP2009253447A (en) | Solid state image sensor for both near-infrared light and visible light, and solid-state imaging apparatus | |
JP5218634B2 (en) | Pseudo gray image generating apparatus and program | |
JP2012010141A (en) | Image processing apparatus | |
EP4113966A1 (en) | Imaging device, imaging method, and electronic apparatus | |
JP7121538B2 (en) | Imaging device and imaging method | |
JP6597518B2 (en) | Information processing apparatus and program | |
JP2011193487A (en) | Device for generation of pseudo-color image, and program |