JPWO2014174765A1 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JPWO2014174765A1
JPWO2014174765A1 JP2015513510A JP2015513510A JPWO2014174765A1 JP WO2014174765 A1 JPWO2014174765 A1 JP WO2014174765A1 JP 2015513510 A JP2015513510 A JP 2015513510A JP 2015513510 A JP2015513510 A JP 2015513510A JP WO2014174765 A1 JPWO2014174765 A1 JP WO2014174765A1
Authority
JP
Japan
Prior art keywords
image
imaging
light
data
wavelength band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015513510A
Other languages
Japanese (ja)
Inventor
片桐 哲也
哲也 片桐
掃部 幸一
幸一 掃部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2014174765A1 publication Critical patent/JPWO2014174765A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明にかかる撮像装置および撮像方法では、第1および第2波長帯域でそれぞれ撮像して得られた第1および第2画像に基づいて合成画像が生成される。この画像合成の生成の際に前記第1画像中の合成対象画像に、前記第2画像中の前記対象物画像を合成する。このため、本発明にかかる撮像装置および撮像方法は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。In the imaging apparatus and the imaging method according to the present invention, a composite image is generated based on the first and second images obtained by imaging in the first and second wavelength bands, respectively. When the image composition is generated, the object image in the second image is synthesized with the composition target image in the first image. For this reason, the image pickup apparatus and the image pickup method according to the present invention can supplement the image quality that is insufficient in one image with another image, and thus can further improve the visibility of the object.

Description

本発明は、第1画像および第2画像を撮像して画像処理する撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method for imaging a first image and a second image and performing image processing.

従来より、夜間、または、雨若しくは霧等の視認性が悪い環境下で、所定の被写体を撮像する撮像装置が、監視用途または車載用途等で使用されている。特許文献1には、上記環境下でドライバの運転を支援するために赤外光を撮像して得られた赤外線画像を用いることによって、歩行者等の対象物を検出し、当該赤外線画像において前記対象物を強調表示する技術が開示されている。   2. Description of the Related Art Conventionally, an imaging device that captures a predetermined subject at night or in an environment with poor visibility such as rain or fog has been used for monitoring or in-vehicle use. In Patent Document 1, an object such as a pedestrian is detected by using an infrared image obtained by imaging infrared light in order to support driving of the driver under the above environment. A technique for highlighting an object is disclosed.

上記従来技術に記載の技術では、対象物が強調表示されるが、対象物そのものの有する形状等が変更されて表示されるため、ドライバに不自然な印象を与える可能性がある。この従来技術には、例えばこの点で視認性に改善の余地がある。   In the technique described in the above prior art, the object is highlighted, but the shape or the like of the object itself is changed and displayed, which may give an unnatural impression to the driver. This prior art has room for improvement in visibility in this respect, for example.

特開2001−76298号公報JP 2001-76298 A

本発明は、上記の事情に鑑みて為された発明であり、その目的は、対象物の視認性をより向上できる撮像装置および撮像方法を提供することである。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging apparatus and an imaging method that can further improve the visibility of an object.

本発明にかかる撮像装置および撮像方法では、第1および第2波長帯域でそれぞれ撮像して得られた第1および第2画像に基づいて合成画像が生成される。この画像合成の生成の際に前記第1画像中の合成対象画像に、前記第2画像中の前記対象物画像を合成する。このため、本発明にかかる撮像装置および撮像方法は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。   In the imaging apparatus and the imaging method according to the present invention, a composite image is generated based on the first and second images obtained by imaging in the first and second wavelength bands, respectively. When the image composition is generated, the object image in the second image is synthesized with the composition target image in the first image. For this reason, the image pickup apparatus and the image pickup method according to the present invention can supplement the image quality that is insufficient in one image with another image, and thus can further improve the visibility of the object.

上記並びにその他の本発明の目的、特徴および利点は、以下の詳細な記載と添付図面から明らかになるであろう。   The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and the accompanying drawings.

第1実施形態にかかる撮像装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device concerning 1st Embodiment. 実施形態にかかる光フィルタ群の部分図である。It is a fragmentary diagram of the optical filter group concerning an embodiment. 第1実施形態にかかる撮像装置の動作フロー図である。It is an operation | movement flowchart of the imaging device concerning 1st Embodiment. 第1実施形態にかかる可視画像、近赤外画像および合成画像を説明するための図である。It is a figure for demonstrating the visible image, near-infrared image, and synthesized image concerning 1st Embodiment. 第2実施形態にかかる撮像装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device concerning 2nd Embodiment. 第2実施形態にかかる可視画像、近赤外画像および合成画像を説明するための図である。It is a figure for demonstrating the visible image, near-infrared image, and synthesized image concerning 2nd Embodiment. 第3実施形態にかかる撮像装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device concerning 3rd Embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. In the present specification, when referring generically, it is indicated by a reference symbol without a suffix, and when referring to an individual configuration, it is indicated by a reference symbol with a suffix.

[第1実施形態]
図1は、第1実施形態にかかる撮像装置1000の構成の一例を示すブロック図である。図2は、実施形態にかかる光フィルタ群の部分図である。図2では、各光フィルタは、所定の配列でマトリクス状に配列された光フィルタ群を入射側から見て部分的に示されている。図2Aは、第1実施形態にかかるRGBIr態様の光フィルタ群103を示す図であり、図2Bは、第1実施形態にかかるWYRIr態様の光フィルタ群103を示す図である。図2Cは、後述の第2実施形態にかかるWYR型の光フィルタ群103aを示す図であり、図2Dは、後述の第2実施形態にかかるCMYG型の光フィルタ群103aを示す図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of the configuration of the imaging apparatus 1000 according to the first embodiment. FIG. 2 is a partial view of the optical filter group according to the embodiment. In FIG. 2, each optical filter is partially shown by looking at the optical filter group arranged in a matrix with a predetermined arrangement from the incident side. FIG. 2A is a diagram illustrating the RGBIr mode optical filter group 103 according to the first embodiment, and FIG. 2B is a diagram illustrating the WYRIr mode optical filter group 103 according to the first embodiment. FIG. 2C is a diagram illustrating a WYR type optical filter group 103a according to a second embodiment described later, and FIG. 2D is a diagram illustrating a CMYG type optical filter group 103a according to a second embodiment described later.

図1において、本実施形態にかかる撮像装置1000は、例えば撮像部100と、画像処理部200と、出力部300と、入力部400とを備える。撮像部100から撮像データが画像処理部200に入力され、画像処理部200から画像処理後のデータが出力部300に出力される。入力部400は、画像処理部200に接続される。   In FIG. 1, an imaging apparatus 1000 according to the present embodiment includes, for example, an imaging unit 100, an image processing unit 200, an output unit 300, and an input unit 400. Imaging data is input from the imaging unit 100 to the image processing unit 200, and data after image processing is output from the image processing unit 200 to the output unit 300. The input unit 400 is connected to the image processing unit 200.

撮像部100は、例えば監視用途または車載用途等で所定の被写体(物体)を撮像する装置である。撮像部100は、例えば光学系101、光フィルタ群103およびイメージセンサ105を有する。前記所定の被写体からの光は、光学系101を経て光フィルタ群103に入射し、光フィルタ群103で所定の波長範囲の光だけが透過されてイメージセンサ105に入射する。より具体的には、光フィルタ群103で透過された所定の波長範囲の光が、イメージセンサ105に含まれる複数の光電変換素子に入射し、入射した光の強度に応じたアナログ電気信号がイメージセンサ105から画像処理部200へ出力される。   The imaging unit 100 is an apparatus that captures an image of a predetermined subject (object), for example, for monitoring or in-vehicle use. The imaging unit 100 includes, for example, an optical system 101, an optical filter group 103, and an image sensor 105. Light from the predetermined subject enters the optical filter group 103 through the optical system 101, and only light in a predetermined wavelength range is transmitted through the optical filter group 103 and enters the image sensor 105. More specifically, light in a predetermined wavelength range transmitted through the optical filter group 103 enters a plurality of photoelectric conversion elements included in the image sensor 105, and an analog electrical signal corresponding to the intensity of the incident light is imaged. The image is output from the sensor 105 to the image processing unit 200.

光学系101は、1または複数のレンズ等の光学素子を有し、例えば前記所定の被写体からの光を、光フィルタ群103を介してイメージセンサ105の受光面上に結像する。光フィルタ群103は、互いに異なる中心波長で所定の波長範囲の光を透過する複数の光フィルタを有する。光フィルタ群103は、本実施形態では、例えば、赤色光を透過する赤色(R)フィルタ、緑色光を透過する緑色(G)フィルタ、青色光を透過する青色(B)フィルタ、および、赤外光を透過する赤外(Ir)フィルタ(本実施形態では近赤外フィルタ)の4種類の光フィルタを備え、これら4種類の光フィルタは、それぞれ複数、所定の配列で、例えば図2Aに示すように、互いに直交するx方向およびy方向の2方向にマトリクス状に配列されている。本実施形態の光フィルタ群103は、所謂ベイヤー配列型の光フィルタ群と類似し、ベイヤー配列型光フィルタ群に含まれる2つの緑色フィルタのうちの1つが近赤外フィルタに置換されている。マトリクス状の配列において、例えばs行t列の位置を(t,s)と表すと、光フィルタ群103の構成は、具体的には次のようになる。すなわち、光フィルタ群103は、例えばGフィルタを(1,1)の位置に、Rフィルタを(2,1)の位置に、Bフィルタを(1,2)の位置におよびIrフィルタを(2,2)の位置に各々配置した基本パターン(図中のAで示す矩形部分)がx方向およびy方向の2方向にマトリクス状に配列されることで、構成されている(以下、RGBIr態様とも呼ぶ)。なお、光フィルタ群103は、図2Bに示すように、例えば白色光を透過する白色(W)フィルタお(1,1)の位置に、黄色光を透過する黄色(Y)フィルタを(2,1)の位置に、Rフィルタを(1,2)の位置におよびIrフィルタを(2,2)の位置に各々配置した基本パターン(図中のBで示す矩形部分)が前記x方向およびy方向の2方向にマトリクス状に配列されることで、構成されてもよい(以下、WYRIr態様とも呼ぶ)。   The optical system 101 includes an optical element such as one or a plurality of lenses, and forms, for example, light from the predetermined subject on the light receiving surface of the image sensor 105 via the optical filter group 103. The optical filter group 103 includes a plurality of optical filters that transmit light in a predetermined wavelength range with different center wavelengths. In this embodiment, the optical filter group 103 is, for example, a red (R) filter that transmits red light, a green (G) filter that transmits green light, a blue (B) filter that transmits blue light, and infrared light. There are provided four types of optical filters, infrared (Ir) filters that transmit light (in the present embodiment, near-infrared filters). Each of these four types of optical filters has a predetermined arrangement, for example, as shown in FIG. 2A. Thus, they are arranged in a matrix in two directions, the x direction and the y direction, which are orthogonal to each other. The optical filter group 103 of the present embodiment is similar to a so-called Bayer array type optical filter group, and one of two green filters included in the Bayer array type optical filter group is replaced with a near infrared filter. In the matrix arrangement, for example, when the position of s rows and t columns is represented as (t, s), the configuration of the optical filter group 103 is specifically as follows. That is, the optical filter group 103 includes, for example, the G filter at the (1,1) position, the R filter at the (2,1) position, the B filter at the (1,2) position, and the Ir filter at (2). , 2) are configured by arranging basic patterns (rectangular portions indicated by A in the figure) arranged in a matrix in two directions, the x direction and the y direction (hereinafter also referred to as RGBIr mode). Call). As shown in FIG. 2B, the optical filter group 103 includes, for example, a yellow (Y) filter that transmits yellow light (2, 2) at the position of a white (W) filter (1, 1) that transmits white light. The basic pattern (rectangular portion indicated by B in the figure) in which the R filter is disposed at the position (1,2) and the Ir filter is disposed at the position (2,2) at the position 1) is the x direction and y It may be configured by being arranged in a matrix in two directions (hereinafter also referred to as a WYRIr mode).

光フィルタ群103においてマトリクス状に配列された各光フィルタ(R、G、B、IrまたはW、Y、R、Irの各フィルタ)は、後述のイメージセンサ105に含まれるマトリクス状に配列された複数の光電変換素子の各々に1対1に対応する。RGBIr態様の場合、イメージセンサ105の受光面において、緑色光を受光する光電変換素子を(1,1)の位置に、赤色光を受光する光電変換素子を(2,1)の位置に、青色光を受光する光電変換素子を(1,2)の位置に、そして、近赤外光を受光する光電変換素子を(2,2)の位置に各々配置した基本パターンが、前記x方向およびy方向の2方向にマトリクス状に配列されている。このように、複数の光電変換素子それぞれは、単一の色の光を受光している。例えば、図2Aにおいて(2,2)に位置する光電変換素子は、近赤外光のみを受光する。このように1個の光電変換素子は、単一の色の光を受光するため、当該色の画素値を生成するが、他の色の画素値を生成しない。このため、当該光電変換素子における前記他の色の画素値は、例えば当該光電変換素子の周囲に配置された、前記他の色の光を受光する光電変換素子によって生成された、前記他の色の画素値を用いた補間によって生成される。例えば、(2,2)に位置する近赤外光を受光する光電変換素子における青色の画素値は、これに隣接する(1,2)の位置および(3,2)の位置に存在する光電変換素子によって生成された青色の画素値を用いて補間演算されることで算出される。   The optical filters (R, G, B, Ir or W, Y, R, Ir filters) arranged in a matrix in the optical filter group 103 are arranged in a matrix included in the image sensor 105 described later. Each of the plurality of photoelectric conversion elements has a one-to-one correspondence. In the case of the RGBIr mode, on the light receiving surface of the image sensor 105, the photoelectric conversion element that receives green light is located at the position (1, 1), the photoelectric conversion element that receives red light is located at the position (2, 1), and blue. A basic pattern in which a photoelectric conversion element that receives light is disposed at a position (1, 2) and a photoelectric conversion element that receives near-infrared light is disposed at a position (2, 2), respectively, has the x direction and y It is arranged in a matrix in two directions. As described above, each of the plurality of photoelectric conversion elements receives light of a single color. For example, the photoelectric conversion element located at (2, 2) in FIG. 2A receives only near-infrared light. Thus, since one photoelectric conversion element receives light of a single color, it generates a pixel value of that color, but does not generate pixel values of other colors. For this reason, the pixel value of the other color in the photoelectric conversion element is the other color generated by the photoelectric conversion element that receives the light of the other color disposed around the photoelectric conversion element, for example. It is generated by interpolation using the pixel values. For example, the blue pixel value in the photoelectric conversion element that receives near-infrared light located at (2, 2) is the photoelectric value existing at the positions (1, 2) and (3, 2) adjacent to this. It is calculated by performing an interpolation operation using the blue pixel value generated by the conversion element.

イメージセンサ105は、入射した光を光電変換して入射した光の強度に応じた値を出力する、マトリクス状に配列された複数の光電変換素子を有する。イメージセンサ105における前記複数の光電変換素子のうち、前記Rフィルタ、GフィルタおよびBフィルタの各フィルタをそれぞれ介して受光する複数の光電変換素子は、第1波長帯域に含まれる波長領域の光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。イメージセンサ105における前記複数の光電変換素子のうち、前記Irフィルタを介して受光する複数の光電変換素子は、前記第1波長帯域とは異なる波長帯域を含む第2波長帯域の光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。なお、本実施形態では例えば、第1波長帯域の光は、可視光であり、第1波長帯域に含まれる波長領域の光は、複数であって、赤色光、緑色光、青色光である。第2波長帯域の光は、赤外光(本実施形態では近赤外光)である。   The image sensor 105 includes a plurality of photoelectric conversion elements arranged in a matrix that photoelectrically converts incident light and outputs a value corresponding to the intensity of the incident light. Among the plurality of photoelectric conversion elements in the image sensor 105, the plurality of photoelectric conversion elements that receive light through the R filter, the G filter, and the B filter respectively receive light in a wavelength region included in the first wavelength band. A plurality of first photoelectric conversion elements L1 that pick up an image and output first image pickup data D1. Among the plurality of photoelectric conversion elements in the image sensor 105, the plurality of photoelectric conversion elements that receive light through the Ir filter capture images of light in a second wavelength band that includes a wavelength band different from the first wavelength band. The plurality of second photoelectric conversion elements L2 that output the second imaging data D2. In this embodiment, for example, the light in the first wavelength band is visible light, and there are a plurality of light in the wavelength region included in the first wavelength band, which are red light, green light, and blue light. The light in the second wavelength band is infrared light (near infrared light in the present embodiment).

本実施形態では、イメージセンサ105は、1個のイメージセンサであり、複数の第1光電変換素子L1および複数の第2光電変換素子L2は、1個のイメージセンサ105上に形成される。イメージセンサ105は、第1撮像データD1および第2撮像データD2それぞれをアナログ電気信号で画像処理部200へ出力する。第1画像および第2画像は、各々1個のイメージセンサ105から出力された第1撮像データD1および第2撮像データD2による画像であり、同寸法(同画像サイズ)、同形状である。第1画像および第2画像の画素数は、上記のように補間演算等されて同数である。なお、本実施形態のイメージセンサ105は、例えば、入射光の強度に対する電気出力の特性を表す光電変換特性が線形特性または線形対数特性である、CMOS(Complementary Metal Oxide Semiconductor)型またはCCD(Charge Coupled Device)型等のイメージセンサである。イメージセンサ105が線形対数特性である場合、ダイナミックレンジが広いので、出力部300のダイナミックレンジに応じて適宜にダイナミックレンジが圧縮される。このダイナミックレンジ圧縮は、公知の常套手段が用いられ、例えば特許第4736792号公報に開示されている。   In the present embodiment, the image sensor 105 is one image sensor, and the plurality of first photoelectric conversion elements L1 and the plurality of second photoelectric conversion elements L2 are formed on one image sensor 105. The image sensor 105 outputs the first imaging data D1 and the second imaging data D2 to the image processing unit 200 as analog electrical signals. The first image and the second image are images based on the first imaging data D1 and the second imaging data D2 output from one image sensor 105, respectively, and have the same size (same image size) and the same shape. The number of pixels of the first image and the second image is the same after the interpolation operation or the like as described above. Note that the image sensor 105 of the present embodiment is, for example, a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled) type in which a photoelectric conversion characteristic representing a characteristic of an electric output with respect to the intensity of incident light is a linear characteristic or a linear logarithmic characteristic. Device) type image sensor. When the image sensor 105 has a linear logarithmic characteristic, since the dynamic range is wide, the dynamic range is appropriately compressed according to the dynamic range of the output unit 300. For this dynamic range compression, known conventional means are used, for example, disclosed in Japanese Patent No. 47367792.

画像処理部200は、第2撮像データD2による第2画像から所定の種類の対象物を検出して、第1撮像データD1による第1画像と、前記所定の種類の対象物を含む前記第2撮像データD2による第2画像とに基づいて合成画像を生成する画像処理を行う。本実施形態では、第1撮像データD1による第1画像は、いわゆる可視画像であり、第2撮像データD2による第2画像は、いわゆる近赤外画像である。画像処理部200は、例えば制御演算部211を備える。制御演算部211は、イメージセンサ105に接続され、制御演算部211からの出力は、出力部300に出力される。   The image processing unit 200 detects a predetermined type of object from the second image based on the second imaging data D2, and includes the first image based on the first imaging data D1 and the second type including the predetermined type of object. Image processing for generating a composite image based on the second image based on the imaging data D2 is performed. In the present embodiment, the first image based on the first imaging data D1 is a so-called visible image, and the second image based on the second imaging data D2 is a so-called near infrared image. The image processing unit 200 includes a control calculation unit 211, for example. The control calculation unit 211 is connected to the image sensor 105, and the output from the control calculation unit 211 is output to the output unit 300.

制御演算部211は、撮像部100、画像処理部200、出力部300、入力部400の全体の制御および画像合成等の各種演算を行う。制御演算部211は、例えばCPU(Central Processing Unit)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)およびそれらの周辺回路を備えて構成される。また、制御演算部211は、ROMに記憶された画像処理プログラムを実行することにより、機能的に、制御部215、対象物抽出部209および画像合成部205を備える。対象物抽出部209は、イメージセンサ105から第2撮像データD2が入力され、対象物抽出部209の出力は、画像合成部205へ出力される。画像合成部205は、イメージセンサ105から第1撮像データD1が入力される。画像合成部205は、対象物抽出部209に接続され、画像合成部205の出力は、出力部300へ出力される。   The control calculation unit 211 performs various calculations such as overall control of the imaging unit 100, the image processing unit 200, the output unit 300, and the input unit 400 and image synthesis. The control calculation unit 211 includes, for example, a CPU (Central Processing Unit), an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), and a RAM (Random Access Memory). In addition, the control calculation unit 211 functionally includes a control unit 215, an object extraction unit 209, and an image composition unit 205 by executing an image processing program stored in the ROM. The object extraction unit 209 receives the second imaging data D2 from the image sensor 105, and the output of the object extraction unit 209 is output to the image composition unit 205. The image composition unit 205 receives the first imaging data D1 from the image sensor 105. The image composition unit 205 is connected to the object extraction unit 209, and the output of the image composition unit 205 is output to the output unit 300.

制御部215は、撮像部100、画像処理部200、出力部300、入力部400の全体の制御等を司る。対象物抽出部209は、近赤外画像から所定の種類の対象物T(以下、単に対象物Tと呼ぶ)を検出して、第2撮像データD2による近赤外画像から対象物Tを含む第2画像領域の対象物画像G2を抽出する。本実施形態では、例えば、対象物Tは、予め設定され、例えば人や動物等の恒温生物であり、複数であってもよい。また、対象物Tを含む対象物画像G2の形状は、所定の適宜な形状であり、例えば矩形形状である。なお、対象物画像G2の形状は、例えば対象物T自体の形状であってもよい。対象物抽出部209は、例えば、対象物検出部201と対象物画像領域抽出部203とを有する。対象物検出部201は、イメージセンサ105から第2撮像データD2が入力され、対象物検出部201の出力は、対象物画像領域抽出部203へ出力される。対象物画像領域抽出部203は、イメージセンサ105から第2撮像データD2が入力される。対象物画像領域抽出部203は、対象物検出部201に接続され、対象物画像領域抽出部203の出力は、画像合成部205へ出力される。   The control unit 215 governs overall control of the imaging unit 100, the image processing unit 200, the output unit 300, and the input unit 400. The object extraction unit 209 detects a predetermined type of object T (hereinafter simply referred to as the object T) from the near-infrared image, and includes the object T from the near-infrared image based on the second imaging data D2. The object image G2 in the second image area is extracted. In the present embodiment, for example, the object T is set in advance, and is, for example, a constant temperature organism such as a person or an animal, and may be plural. The shape of the object image G2 including the object T is a predetermined appropriate shape, for example, a rectangular shape. The shape of the object image G2 may be, for example, the shape of the object T itself. The object extraction unit 209 includes, for example, an object detection unit 201 and an object image region extraction unit 203. The object detection unit 201 receives the second imaging data D <b> 2 from the image sensor 105, and the output of the object detection unit 201 is output to the object image region extraction unit 203. The object image region extraction unit 203 receives the second imaging data D2 from the image sensor 105. The object image region extraction unit 203 is connected to the object detection unit 201, and the output of the object image region extraction unit 203 is output to the image composition unit 205.

対象物検出部201は、第2撮像データD2による第2画像の中から所定の種類の対象物Tを検出する。より具体的には、対象物検出部201は、前記近赤外画像から対象物Tを検出する。対象物検出部201における対象物Tの検出方法は、例えば、対象物T(人や動物等の恒温生物)の形をした所定のテンプレートを用いて対象物Tを検出するいわゆるパターンマッチング法を使用した手法(例えば、特開2004−145660号公報参照)等である。また、対象物Tの他の検出方法は、例えば、前記赤外画像の全画素について、画像のエッジの鋭さの程度を示すエッジ方向ヒストグラムを作成し、前記エッジの鋭さの程度とそれに対応する画素を勘案して形状を推定することで対象物Tを検出する手法(例えば、特開2010−117772号公報参照)等であってもよい。なお、当該手法において、検出精度向上のためにブースティング法の機械学習アルゴリズム等が使用されてもよい(例えば、山下隆義,藤吉弘亘,「特定物体認識に有効な特徴量」,情報処理学会研究報告,CVIM165,November,2008,pp.221−236)。これらの手法により、人や動物等の恒温生物以外の、例えば熱源である自動車のエンジン等が近赤外画像から検出されることを回避でき、より精度よく対象物Tが検出できる。   The object detection unit 201 detects a predetermined type of object T from the second image based on the second imaging data D2. More specifically, the object detection unit 201 detects the object T from the near-infrared image. The detection method of the target T in the target detection unit 201 uses, for example, a so-called pattern matching method that detects the target T using a predetermined template in the form of the target T (a constant temperature organism such as a person or an animal). (For example, refer to Japanese Patent Application Laid-Open No. 2004-145660). Another method for detecting the object T is, for example, creating an edge direction histogram indicating the degree of sharpness of the edge of the image for all pixels of the infrared image, and the degree of sharpness of the edge and the corresponding pixel. May be a method of detecting the target T by estimating the shape (see, for example, JP 2010-117772 A). In this method, a boosting method machine learning algorithm or the like may be used to improve detection accuracy (for example, Takayoshi Yamashita, Hironobu Fujiyoshi, “Features Effective for Specific Object Recognition”, Information Processing Society of Japan) Research report, CVIM 165, November, 2008, pp. 221-236). By these techniques, it is possible to avoid detection of, for example, an automobile engine as a heat source other than a thermostat such as a human or an animal from a near-infrared image, and the target T can be detected with higher accuracy.

対象物検出部201は、本実施形態では、上記のように対象物Tを検出し、この検出した対象物Tを含む、例えば第2撮像データD2による第2画像内における対象物画像G2の領域情報を対象物画像領域抽出部203へ出力する。領域情報は、第2画像内における対象物画像G2の範囲を表わす情報である。領域情報は、例えば対象物画像G2の矩形における4つの頂点それぞれに対応する各画素の各座標(以下、頂点座標とも呼ぶ)等である。ここで、撮像データによる撮像画像における画素の座標値は、例えば該撮像画像の矩形における4つの頂点のうちの一つの頂点の画素を原点とし、画像の長手方向をx軸方向とし、画像の短手方向をy軸方向としたxy直行座標系等における座標値である。   In the present embodiment, the object detection unit 201 detects the object T as described above, and includes the detected object T, for example, an area of the object image G2 in the second image based on the second imaging data D2. Information is output to the object image region extraction unit 203. The area information is information representing the range of the object image G2 in the second image. The area information is, for example, each pixel coordinate (hereinafter, also referred to as vertex coordinate) corresponding to each of the four vertices in the rectangle of the object image G2. Here, the coordinate value of the pixel in the captured image based on the captured image data is, for example, the pixel at one of the four vertices in the rectangle of the captured image as the origin, the longitudinal direction of the image as the x-axis direction, and the shortness of the image. It is a coordinate value in an xy orthogonal coordinate system or the like in which the hand direction is the y-axis direction.

対象物画像領域抽出部203は、第2撮像データD2による第2画像から対象物画像G2を抽出する。より具体的には、対象物画像領域抽出部203は、前記近赤外画像から対象物画像G2を抽出する。本実施形態では、対象物画像領域抽出部203は、例えば、前記領域情報に基づいて、近赤外画像において第2画像領域r2(対象物画像G2)を除く領域の画素値を所定の一定値に変換することでマスク画像Mを作成する。これによって、対象物画像領域抽出部203は、近赤外画像から対象物画像G2を抽出し、対象物画像G2を含むマスク画像Mを画像合成部205へ出力する。なお、近赤外画像に含まれる対象物画像G2は、輝度値のみを画素値として有するので、本実施形態では前記所定の一定値は、例えばゼロである。前記マスク画像Mは、対象物画像G2の第2画像領域r2を除く他の領域がマスク(黒色化)されることで、前記マスク画像Mに実質的に前記領域情報が重畳されている。なお、対象物画像領域抽出部203は、例えば前記領域情報に対応する近赤外画像を、前記領域情報が対象物検出部201から対象物画像領域抽出部203に入力されるまで記憶しておき、前記領域情報と前記領域情報に対応する近赤外画像とを同期させる。   The object image region extraction unit 203 extracts the object image G2 from the second image based on the second imaging data D2. More specifically, the object image region extraction unit 203 extracts the object image G2 from the near-infrared image. In the present embodiment, the object image area extraction unit 203, for example, sets a pixel value of an area excluding the second image area r2 (object image G2) in the near-infrared image based on the area information to a predetermined constant value. A mask image M is created by converting to. As a result, the object image region extraction unit 203 extracts the object image G2 from the near-infrared image, and outputs a mask image M including the object image G2 to the image composition unit 205. Since the object image G2 included in the near-infrared image has only the luminance value as the pixel value, in the present embodiment, the predetermined constant value is, for example, zero. In the mask image M, the region information other than the second image region r2 of the object image G2 is masked (blackened), so that the region information is substantially superimposed on the mask image M. The object image region extraction unit 203 stores, for example, a near-infrared image corresponding to the region information until the region information is input from the object detection unit 201 to the object image region extraction unit 203. The region information and the near-infrared image corresponding to the region information are synchronized.

画像合成部205は、第1撮像データD1による第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する。より具体的には、画像合成部205は、前記第2画像のうちの対象物Tを含む第2画像領域r2の対象物画像G2を、前記第1画像のうちの前記第2画像領域r2に対応する第1画像領域r1の合成対象画像G1に合成する。   The image synthesis unit 205 generates a synthesized image based on the first image based on the first imaging data D1 and the second image based on the second imaging data. More specifically, the image composition unit 205 transfers the object image G2 in the second image area r2 including the object T in the second image to the second image area r2 in the first image. The image is combined with the image to be combined G1 in the corresponding first image region r1.

本実施形態における画像合成部205は、前記領域情報に基づき、合成対象画像G1に対象物抽出部209で抽出された対象物画像G2を合成し、合成後の画像データを出力部300へ出力する。より具体的には、画像合成部205は、第1画像である可視画像に、前記マスク画像M(第1画像と同形状、同寸法、同画素数)を互いに対応する画素毎に画像合成することで、矩形形状の第2画像領域r2と、第2画像領域r2と同じ頂点座標である矩形形状の第1画像領域r1との間で、合成対象画像G1に対象物画像G2を画像合成する。マスク画像Mが使用されることにより、画像合成部205において、可視画像とマスク画像Mとの間で同じ座標の画素の画素値同士が加算されて、可視画像に対象物画像G2が合成される。なお、画像合成部205は、例えばマスク画像Mに対応する可視画像を、マスク画像Mが対象物抽出部209から画像合成部205に入力されるまで記憶しておき、マスク画像Mとマスク画像Mに対応する可視画像とを同期させる。   Based on the region information, the image composition unit 205 in the present embodiment synthesizes the object image G2 extracted by the object extraction unit 209 with the composition target image G1, and outputs the combined image data to the output unit 300. . More specifically, the image synthesizing unit 205 synthesizes the mask image M (the same shape, the same size, and the same number of pixels as the first image) for each corresponding pixel to the visible image that is the first image. Thus, the object image G2 is synthesized with the synthesis target image G1 between the rectangular second image region r2 and the rectangular first image region r1 having the same vertex coordinates as the second image region r2. . By using the mask image M, the image composition unit 205 adds pixel values of pixels having the same coordinates between the visible image and the mask image M, and synthesizes the object image G2 with the visible image. . The image composition unit 205 stores, for example, a visible image corresponding to the mask image M until the mask image M is input from the object extraction unit 209 to the image composition unit 205, and the mask image M and the mask image M are stored. Synchronize the visible image corresponding to.

画像合成部205は、本実施形態では、例えば、輝度合成部205aと、色度補正部205bとを備える。画像合成部205は、第1画像と第2画像とに基づく画像合成において、第1撮像データD1に含まれる輝度を表わす第1輝度データと、第2撮像データD2に含まれる輝度を表わす第2輝度データとを、輝度合成部205aにおいて合成する。本実施形態では、輝度データは、例えば後の(式1)で算出される輝度値であり、輝度合成部205aは、対応する画素ごとに例えば第1画像内の合成対象画像G1の第1輝度値に対して、第2画像から抽出された対象物画像G2の第2輝度値を加算し、合成輝度値を算出する。画像合成部205は、対象物画像G2の第2輝度データと合成対象画像G1の第1輝度データとの合成に応じて、第1撮像データD1に含まれる色度を表わす色度データを、色度補正部205bにおいて補正する。本実施形態では、色度データは、例えば後の(式1)で算出される色度値であり、色度補正部205bは、対応する画素ごとに例えば可視画像である第1画像内の合成対象画像G1の第1色度値を、前記第1輝度値に対する前記合成輝度値の変化率に応じた第2色度値に変換(補正)する。より具体的に色度補正部205bは、例えば「第2色度値=第1色度値×合成輝度値/第1輝度値」の演算式によって第2色度値を求める。   In this embodiment, the image composition unit 205 includes, for example, a luminance composition unit 205a and a chromaticity correction unit 205b. In the image composition based on the first image and the second image, the image composition unit 205 performs first brightness data representing the brightness included in the first image data D1 and second representing the brightness included in the second image data D2. The luminance data is synthesized by the luminance synthesis unit 205a. In the present embodiment, the luminance data is, for example, a luminance value calculated in the following (Expression 1), and the luminance synthesis unit 205a performs, for example, the first luminance of the synthesis target image G1 in the first image for each corresponding pixel. The composite luminance value is calculated by adding the second luminance value of the object image G2 extracted from the second image to the value. The image composition unit 205 converts the chromaticity data representing the chromaticity included in the first imaging data D1 into the color according to the composition of the second brightness data of the object image G2 and the first brightness data of the composition target image G1. Correction is performed by the degree correction unit 205b. In the present embodiment, the chromaticity data is, for example, the chromaticity value calculated in the following (Expression 1), and the chromaticity correction unit 205b performs synthesis in the first image, which is a visible image, for each corresponding pixel. The first chromaticity value of the target image G1 is converted (corrected) into a second chromaticity value corresponding to a change rate of the composite luminance value with respect to the first luminance value. More specifically, the chromaticity correction unit 205b obtains the second chromaticity value by an arithmetic expression of “second chromaticity value = first chromaticity value × combined luminance value / first luminance value”, for example.

出力部300は、画像合成部205で合成された画像を出力する表示装置である。当該表示装置は、例えばLCD(Liquid Crystal Display)等であり、車の運転席前方の例えばダッシュボードの上や、監視室等に配置される。また例えば、当該表示装置は、ヘッドマウントディスプレイである。入力部400は、撮像装置1000に対して情報入力するためのディップスイッチやプッシュスイッチ等の入力機器である。   The output unit 300 is a display device that outputs the image synthesized by the image synthesis unit 205. The display device is, for example, an LCD (Liquid Crystal Display) or the like, and is disposed, for example, on a dashboard in front of a driver's seat of a car, in a monitoring room, or the like. For example, the display device is a head mounted display. The input unit 400 is an input device such as a dip switch or a push switch for inputting information to the imaging apparatus 1000.

図3は、第1実施形態にかかる撮像装置1000の動作フロー図である。図4は、第1実施形態にかかる可視画像、近赤外画像および合成画像を説明するための図である。まず、所定の被写体(物体)からの光が撮像部100に入射されると、光学系101は、光フィルタ群103を介してイメージセンサ105の受光面上に前記被写体の光学像を結像させる。そして、第1光電変換素子L1が可視光で前記被写体の光学像を撮像して第1撮像データD1を出力し、第2光電変換素子L2が近赤外光で前記被写体の光学像を撮像して第2撮像データD2を出力する。本実施形態では光フィルタ群103がRGBIr態様であるので、イメージセンサ105の複数の第1光電変換素子L1から第1撮像データD1として赤色光、緑色光および青色光の各信号(アナログ出力)が出力され、各々A/D変換(アナログデジタル変換)される。輝度値(第1輝度値)Yおよび色度値(第1色度値)Cb、Crが、前記各デジタル値である赤色値R、緑色値Gおよび青色値Bを用いて、下の(式1)で表わされる変換式で変換される(ステップS1)。   FIG. 3 is an operation flowchart of the imaging apparatus 1000 according to the first embodiment. FIG. 4 is a diagram for explaining a visible image, a near-infrared image, and a composite image according to the first embodiment. First, when light from a predetermined subject (object) enters the imaging unit 100, the optical system 101 forms an optical image of the subject on the light receiving surface of the image sensor 105 via the optical filter group 103. . Then, the first photoelectric conversion element L1 captures an optical image of the subject with visible light and outputs first imaging data D1, and the second photoelectric conversion element L2 captures an optical image of the subject with near-infrared light. The second imaging data D2 is output. In the present embodiment, since the optical filter group 103 is in the RGBIr mode, red light, green light, and blue light signals (analog outputs) are output from the plurality of first photoelectric conversion elements L1 of the image sensor 105 as the first imaging data D1. Each is output and A / D converted (analog-digital converted). A luminance value (first luminance value) Y and chromaticity values (first chromaticity values) Cb and Cr are expressed by the following (formulas) using the red value R, the green value G, and the blue value B, which are the respective digital values. Conversion is performed using the conversion formula represented by 1) (step S1).

Figure 2014174765
Figure 2014174765

なお、光フィルタ群103がWYRIr態様である場合には、下の(式2)〜(式4)で表わされる変換式で、白色光、黄色光、赤色光の各信号(アナログ出力)がA/D変換されたデジタル値w、y、rを用いて、赤色値R、緑色値G、および青色値Bが算出され、この後に、(式1)を用いて第1輝度値、第1色度値が算出される。   When the optical filter group 103 is in the WYRIr mode, the white light, yellow light, and red light signals (analog output) are A in the conversion formulas expressed by the following (Expression 2) to (Expression 4). The red value R, the green value G, and the blue value B are calculated using the digital values w, y, and r that have been subjected to the / D conversion, and then the first luminance value and the first color are calculated using (Equation 1). A degree value is calculated.

R=r−ir (式2)
G=y−r (式3)
B=w−y (式4)
なお、irは、赤外光の検出信号(アナログ出力)がA/D変換されたデジタル値である。
R = r-ir (Formula 2)
G = y−r (Formula 3)
B = wy (Formula 4)
Note that ir is a digital value obtained by A / D converting a detection signal (analog output) of infrared light.

次に、対象物検出部201は、近赤外画像から対象物Tを検出し、対象物画像領域抽出部203は、近赤外画像から対象物画像G2を除く領域を前記所定の一定値でマスクしたマスク画像Mを生成する。その後、画像合成部205は、可視画像にマスク画像Mを画像合成する。この画像合成では、輝度合成部205aにおいて、前記合成輝度値が算出される(ステップS3)。すなわち、輝度合成部205aにおいて、合成対象画像G1の輝度値と対象物画像G2の輝度値とが加算されることで(第1輝度データと第2輝度データとが合成されることで)、合成輝度値が算出される。例えば、合成輝度値Y’は、「Y’=R+G+B+IR」の式で算出される。なお、合成輝度値Y’は、輝度値(第1輝度値)Yが算出されてから「Y’=Y+IR」の式で算出されてもよい。ここで、IRは、イメージセンサ105から出力された近赤外光の信号(アナログ出力)がA/D変換されたデジタル値であり、より具体的には、マスク画像Mにおける輝度値である。なお、光フィルタ群103がWYRIr態様である場合には、合成輝度値Y’は、「Y’=w+y+r+ir」の式で算出される。また、上記の合成輝度値Y’の各算出式において、近赤外光のデジタル値(IR、ir)の加算に対して重み付けが実施されても良い。この場合、合成輝度値Y’は、例えば、光フィルタ群103がRGBIr態様である場合には、「Y’=(1−t)(R+G+B)+t・IR」の式で算出され、光フィルタ群103がWYRIr態様である場合には、「Y’=(1−t)(w+y+r)+t・ir」の式で算出されてもよい(0<t<1)。   Next, the target object detection unit 201 detects the target object T from the near-infrared image, and the target object image region extraction unit 203 uses the predetermined constant value to determine a region excluding the target object image G2 from the near-infrared image. A masked mask image M is generated. Thereafter, the image composition unit 205 composites the mask image M with the visible image. In this image synthesis, the synthesized brightness value is calculated in the brightness synthesizer 205a (step S3). That is, the luminance composition unit 205a adds the luminance value of the synthesis target image G1 and the luminance value of the target image G2 (by synthesizing the first luminance data and the second luminance data), thereby synthesizing. A luminance value is calculated. For example, the combined luminance value Y ′ is calculated by the equation “Y ′ = R + G + B + IR”. The combined luminance value Y ′ may be calculated by the equation “Y ′ = Y + IR” after the luminance value (first luminance value) Y is calculated. Here, IR is a digital value obtained by A / D-converting a near-infrared light signal (analog output) output from the image sensor 105, and more specifically, a luminance value in the mask image M. When the optical filter group 103 is in the WYRIr mode, the combined luminance value Y ′ is calculated by the equation “Y ′ = w + y + r + ir”. Further, in each calculation formula for the combined luminance value Y ′, weighting may be performed for addition of digital values (IR, ir) of near infrared light. In this case, for example, when the optical filter group 103 is in the RGBIr mode, the combined luminance value Y ′ is calculated by the expression “Y ′ = (1−t) (R + G + B) + t · IR”. When 103 is a WYRIr mode, it may be calculated by the equation “Y ′ = (1−t) (w + y + r) + t · ir” (0 <t <1).

次に、合成後の画像の輝度が第1輝度値から合成輝度値へ変換されたことに伴い、色度補正部205bは、色度を補正する(ステップS5)。ステップS5では、上記「第2色度値=第1色度値×合成輝度値/第1輝度値」の式で第2色度が演算される。具体的には、第2色度値をCb’、Cr’とすると、「Cb’=Cb×Y’/Y」、「Cr’=Cr×Y’/Y」の式で第2色度が演算される。   Next, the chromaticity correction unit 205b corrects the chromaticity as the luminance of the combined image is converted from the first luminance value to the combined luminance value (step S5). In step S5, the second chromaticity is calculated using the formula “second chromaticity value = first chromaticity value × combined luminance value / first luminance value”. Specifically, if the second chromaticity values are Cb ′ and Cr ′, the second chromaticity is expressed by the formulas “Cb ′ = Cb × Y ′ / Y” and “Cr ′ = Cr × Y ′ / Y”. Calculated.

次に、画像合成部205は、下の(式5)で表わされる変換式で、合成画像における輝度値Y’、色度値Cb’、Cr’から赤色値R’、緑色値G’、および青色値B’へ変換する(ステップS7)。   Next, the image composition unit 205 converts the luminance value Y ′, the chromaticity values Cb ′, and Cr ′ into the red value R ′, the green value G ′, and the conversion expression represented by (Equation 5) below. Conversion to a blue value B ′ (step S7).

Figure 2014174765
Figure 2014174765

その後、画像合成部205は、赤色値R’、緑色値G’および青色値B’の各値に対して表示装置(出力部300)の表示特性に応じたガンマ補正を行ない(ステップS9)、ガンマ補正後の赤色値、緑色値、および青色値を出力部300に出力する。   Thereafter, the image composition unit 205 performs gamma correction according to the display characteristics of the display device (output unit 300) for each of the red value R ′, the green value G ′, and the blue value B ′ (step S9). The red value, the green value, and the blue value after the gamma correction are output to the output unit 300.

表示装置である出力部300は、ガンマ補正後の赤色値、緑色値、および青色値の入力を受けて、合成画像を表示する(ステップS11)。   The output unit 300 serving as a display device receives the input of the red value, the green value, and the blue value after the gamma correction, and displays a composite image (step S11).

図4に、第1撮像データD1による可視画像である第1画像(図4Aおよび図4D)、対象物T(破線矩形部分(第2画像領域))が含まれる第2撮像データD2による近赤外画像である第2画像(図4Bおよび図4E)、および、画像合成部205において第1画像とマスク画像Mとが合成された画像(図4Cおよび図4F)が例示されている。図4A〜4Cは、実際の撮像画像であり、図4D〜4Fは、図4A〜4Cの撮像画像における特徴部分を抽出した模式図である。図4Aは、第1波長帯域の光を撮像することによって得られた可視画像であるので、暗闇で道路と片側の道路脇の茂みが撮像された画像となっており、画像中央付近には照明が照らされている部分が撮像されている。図4Dは、図4Aの撮像画像の特徴部分である、前記道路、前記茂みおよび前記照明が照らされている部分が実線で表されている。なお、図4Dには、暗闇を表すハッチングが付されている。図4Bは、第2波長帯域の光を撮像することによって得られた近赤外画像であるので、道路と両側の道路脇の茂みが薄暗く撮像された画像となっており、画像中央付近には人および動物の型が輝度良く撮像されている。図4Eは、図4Bの撮像画像の特徴部分である、前記道路、前記茂み、および前記人および動物の型が実線で表されている。なお、図4Bの薄暗い点は、図4Eには表されていない。図4Cは、図4Aと、図4Bの破線矩形部分を除く領域を前記所定の一定値でマスクしたマスク画像M(不図示)とが合成された画像となっており、暗闇における道路および片側の道路脇の茂みと、画像中央付近の照明が照らされている部分とが現れている画像に、人および動物の型が輝度良く映し出されている。図4Fは、図4Cの撮像画像の特徴部分である、前記道路、前記茂み、前記照明が照らされている部分、および前記人および動物の型が実線で表されている。なお、図4Fには暗闇を表すハッチングが付されている。   FIG. 4 shows a first image (FIGS. 4A and 4D) which is a visible image based on the first imaging data D1, and a near red color based on the second imaging data D2 including the target T (broken line rectangular portion (second image region)). The second image (FIGS. 4B and 4E), which is an outer image, and the image (FIGS. 4C and 4F) in which the first image and the mask image M are combined in the image combining unit 205 are illustrated. 4A to 4C are actual captured images, and FIGS. 4D to 4F are schematic diagrams in which characteristic portions in the captured images of FIGS. 4A to 4C are extracted. FIG. 4A is a visible image obtained by imaging light in the first wavelength band, and therefore is an image in which the road and bushes on one side of the road are imaged in the dark. The part that is illuminated is imaged. In FIG. 4D, a portion illuminated by the road, the bush, and the illumination, which is a characteristic portion of the captured image of FIG. 4A, is represented by a solid line. In FIG. 4D, hatching indicating darkness is added. FIG. 4B is a near-infrared image obtained by imaging light in the second wavelength band, and thus is an image in which the road and the bushes on both sides of the road are dimly captured. Human and animal types are imaged with good brightness. In FIG. 4E, the road, the bush, and the human and animal types, which are characteristic portions of the captured image of FIG. 4B, are represented by solid lines. Note that the dim points in FIG. 4B are not represented in FIG. 4E. FIG. 4C is an image obtained by combining FIG. 4A and a mask image M (not shown) obtained by masking the region excluding the broken-line rectangular portion of FIG. 4B with the predetermined constant value. Human and animal patterns are projected with high brightness in an image in which a bush on the side of the road and a portion illuminated by light near the center of the image appear. FIG. 4F shows the characteristic portions of the captured image of FIG. 4C, that is, the road, the bush, the portion illuminated by the illumination, and the types of the person and the animal by solid lines. In FIG. 4F, hatching indicating darkness is added.

図4Cおよび図4Fの合成画像には、図4Aおよび図4Dの可視画像では視認性の悪かった対象物Tがより視認性良く表示されている(図4Cおよび図4F中の破線矩形部分(第1画像領域))。   4C and FIG. 4F displays the object T, which has poor visibility in the visible images of FIG. 4A and FIG. 4D, with higher visibility (the broken-line rectangular portion in FIG. 4C and FIG. 4F (first 1 image area)).

次に、別の実施形態について説明する。   Next, another embodiment will be described.

[第2実施形態]
図5は、第2実施形態にかかる撮像装置1000aの構成の一例を示すブロック図である。図6は、第2実施形態にかかる可視画像、近赤外画像および合成画像を説明するための図である。図5において、第2実施形態にかかる撮像装置1000aは、上述の第1実施形態にかかる撮像装置1000に対し、例えば撮像部100の代わりに撮像部100aを、画像処理部200の代わりに画像処理部200aを備える。以下、第1実施形態と異なる点を中心に以下に説明する。なお、第2実施形態の各構成において第1実施形態の構成と同じものは同じ符号が付され、その説明は、特段理由がない限り適宜省略する。
[Second Embodiment]
FIG. 5 is a block diagram illustrating an example of a configuration of the imaging apparatus 1000a according to the second embodiment. FIG. 6 is a diagram for explaining a visible image, a near-infrared image, and a composite image according to the second embodiment. In FIG. 5, the imaging apparatus 1000 a according to the second embodiment is different from the imaging apparatus 1000 according to the first embodiment described above in that, for example, the imaging unit 100 a is used instead of the imaging unit 100, and the image processing is performed instead of the image processing unit 200. Part 200a. Hereinafter, the following description will be focused on differences from the first embodiment. In addition, in each structure of 2nd Embodiment, the same thing as the structure of 1st Embodiment is attached | subjected the same code | symbol, and the description is abbreviate | omitted suitably unless there is a special reason.

本実施形態では、撮像部100aは、2つの別体のイメージセンサを有している。これに応じて、」撮像部100aは、例えば光学系101a、光学系101b、光フィルタ群103a、第1イメージセンサ105aおよび第2イメージセンサ105bを有する。前記所定の被写体からの光が光学系101aを経て光フィルタ群103aに入射し、光フィルタ群103aで所定の波長範囲の光だけが透過されて第1イメージセンサ105aに入射する。前記所定の被写体からの光が光学系101bを経て第2イメージセンサ105bに入射する。   In the present embodiment, the imaging unit 100a has two separate image sensors. Accordingly, the imaging unit 100a includes, for example, an optical system 101a, an optical system 101b, an optical filter group 103a, a first image sensor 105a, and a second image sensor 105b. Light from the predetermined subject enters the optical filter group 103a through the optical system 101a, and only the light in the predetermined wavelength range is transmitted through the optical filter group 103a and enters the first image sensor 105a. Light from the predetermined subject enters the second image sensor 105b through the optical system 101b.

光学系101aは、前記光学系101と同様である。なお、光学系101bは、例えば、赤外線用のレンズである。光フィルタ群103aは、本実施形態では例えば、ベイヤー配列のいわゆるRGGB型の光フィルタ群である。なお、光フィルタ群103aは、例えば、図2Cに示すいわゆるWYR型の光フィルタ群であってもよい。WYR型の光フィルタ群は、例えば白色(W)フィルタを(1,1)の位置に、黄色(Y)フィルタを(2,1)の位置に、赤色(R)フィルタを(1,2)の位置におよび白色(W)フィルタを(2,2)の位置に各々配置した基本パターン(図中のCで示す矩形部分)を、前記x方向およびy方向の2方向にマトリクス状に配列することで、構成されている。なお、光フィルタ群103aは、例えば、図2Dに示すいわゆるCMYG型の補色フィルター群であってもよい。Cは、シアン色を示し、Mは、マゼンダ色を示し、Yは、黄色を示し、Gは、緑色を示す。CMYG型の光フィルタ群は、例えばシアン色光を透過するシアン色(C)フィルタを(1,1)の位置に、マゼンダ色光を透過するマゼンダ色(M)フィルタを(2,1)の位置に、黄色(Y)フィルタを(1,2)の位置におよび緑色(G)フィルタを(2,2)の位置に各々配置した基本パターン(図中のDで示す矩形部分)を、前記x方向およびy方向の2方向にマトリクス状に配列することで、構成されている。   The optical system 101a is the same as the optical system 101. The optical system 101b is, for example, an infrared lens. In this embodiment, the optical filter group 103a is, for example, a so-called RGGB type optical filter group having a Bayer array. The optical filter group 103a may be, for example, a so-called WYR type optical filter group illustrated in FIG. 2C. The WYR type optical filter group includes, for example, a white (W) filter at a position (1, 1), a yellow (Y) filter at a position (2, 1), and a red (R) filter (1, 2). And a basic pattern (rectangular portions indicated by C in the figure) in which white (W) filters are respectively arranged at positions (2, 2) are arranged in a matrix in the two directions of the x direction and the y direction. That's it. The optical filter group 103a may be, for example, a so-called CMYG type complementary color filter group shown in FIG. 2D. C indicates cyan, M indicates magenta, Y indicates yellow, and G indicates green. The CMYG type optical filter group has, for example, a cyan (C) filter that transmits cyan light at a position (1, 1) and a magenta (M) filter that transmits magenta light at a position (2, 1). , A basic pattern (rectangular portion indicated by D in the figure) in which the yellow (Y) filter is disposed at the position (1, 2) and the green (G) filter is disposed at the position (2, 2), respectively, in the x direction And arranged in a matrix in two directions of the y direction.

第1イメージセンサ105aに含まれる複数の光電変換素子は、光フィルタ群103aを経由した第1波長帯域に含まれる波長領域の光を受光することで、前記波長領域の光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。第1イメージセンサ105aは、例えば、イメージセンサ105と同様の、前記光電変換特性が線形特性または線形対数特性であるイメージセンサである。第2イメージセンサ105bに含まれる複数の光電変換素子は、前記赤外線用のレンズを経由した第1波長帯域とは異なる波長帯域を含む第2波長帯域の光を受光することで、前記第2波長帯域の光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。本実施形態では、第1イメージセンサ105aから第1撮像データD1が、第2イメージセンサ105bから第2撮像データD2が、各々制御演算部211に出力される。なお、本実施形態では、第1波長帯域に含まれる波長領域の光は、可視光であり、第2波長帯域の光は、遠赤外光である。なお、複数の第1光電変換素子L1は、第1波長帯域に含まれる複数の波長領域の光(赤色、緑色、および青色)を撮像して第1撮像データD1を出力する。また、第2イメージセンサ105bは、いわゆる量子型または熱型遠赤外線イメージセンサである。第1イメージセンサ105aと第2イメージセンサ105bとは、撮像対象が略同じであるが、例えば、各光軸が、互いに平行となるように、所定の距離(基線長)だけ間隔を空けて固定される。なお、第1イメージセンサ105aの第1撮像データD1による第1画像、および、第2イメージセンサ105bの第2撮像データD2による第2画像は、本実施形態では、同寸法、同形状、同画素数である。   The plurality of photoelectric conversion elements included in the first image sensor 105a receive light in the wavelength region included in the first wavelength band via the optical filter group 103a, thereby imaging the light in the wavelength region and performing first imaging. The plurality of first photoelectric conversion elements L1 that output the imaging data D1. The first image sensor 105a is, for example, an image sensor similar to the image sensor 105, in which the photoelectric conversion characteristic is a linear characteristic or a linear logarithmic characteristic. The plurality of photoelectric conversion elements included in the second image sensor 105b receive light in a second wavelength band that includes a wavelength band different from the first wavelength band via the infrared lens, so that the second wavelength A plurality of second photoelectric conversion elements L2 that pick up light of a band and output second imaging data D2. In the present embodiment, the first image data 105 from the first image sensor 105a and the second image data D2 from the second image sensor 105b are output to the control calculation unit 211, respectively. In the present embodiment, the light in the wavelength region included in the first wavelength band is visible light, and the light in the second wavelength band is far infrared light. The plurality of first photoelectric conversion elements L1 captures light (red, green, and blue) in a plurality of wavelength regions included in the first wavelength band, and outputs first imaging data D1. The second image sensor 105b is a so-called quantum type or thermal type far infrared image sensor. The first image sensor 105a and the second image sensor 105b have substantially the same object to be imaged. For example, the first image sensor 105a and the second image sensor 105b are fixed with a predetermined distance (baseline length) at an interval so that the optical axes are parallel to each other. Is done. In the present embodiment, the first image based on the first imaging data D1 of the first image sensor 105a and the second image based on the second imaging data D2 of the second image sensor 105b have the same size, the same shape, and the same pixel. Is a number.

画像処理部200aは、対象物抽出部209の代わりに対象物抽出部209aを有する。対象物抽出部209aは、対象物抽出部209に対してさらに視差補正部207を有している。すなわち、対象物抽出部209aは、例えば、対象物検出部201、対象物画像領域抽出部203および視差補正部207を有し、対象物画像領域抽出部203の出力が視差補正部207に入力され、視差補正部207の出力が画像合成部205へ入力される。この場合、制御演算部211は、ROMに記憶された視差補正に対応した画像処理プログラムを実行することにより、機能的に、さらに視差補正部207が構成される。   The image processing unit 200a includes an object extraction unit 209a instead of the object extraction unit 209. The object extraction unit 209a further includes a parallax correction unit 207 with respect to the object extraction unit 209. That is, the object extraction unit 209a includes, for example, the object detection unit 201, the object image region extraction unit 203, and the parallax correction unit 207, and the output of the object image region extraction unit 203 is input to the parallax correction unit 207. The output of the parallax correction unit 207 is input to the image composition unit 205. In this case, the control arithmetic unit 211 further functionally configures the parallax correction unit 207 by executing an image processing program corresponding to the parallax correction stored in the ROM.

視差補正部207は、第2イメージセンサ105bと第1イメージセンサ105bとがいわゆるステレオカメラのように前記基線長だけ隔離されて固定されているために生じた第1撮像データD1による可視画像(第1画像)と第2撮像データD2による遠赤外画像(第2画像)との間の視差を、公知の常套手段によって補正する。なお、この視差補正は、例えば遠赤外画像を当該画像内で水平方向にシフトすることによって実行されてもよい。このシフト量は、基線長に応じて予め適宜設定される。視差補正部207は、対象物画像領域抽出部203が抽出した対象物画像G2を上記シフト量だけマスク画像M内において水平方向にシフトさせ、対象物画像G2以外の部分を黒色化して、水平方向のズレを補正した後のマスク画像M’を作成し、マスク画像Mに代えてマスク画像M’を画像合成部205へ出力する。   The parallax correction unit 207 has a visible image (first image) generated by the first imaging data D1 generated because the second image sensor 105b and the first image sensor 105b are separated and fixed by the base line length as in a so-called stereo camera. The parallax between the 1 image) and the far-infrared image (2nd image) by the 2nd imaging data D2 is correct | amended by a well-known conventional means. Note that this parallax correction may be executed, for example, by shifting a far-infrared image in the horizontal direction within the image. This shift amount is appropriately set in advance according to the baseline length. The parallax correction unit 207 shifts the object image G2 extracted by the object image region extraction unit 203 in the horizontal direction in the mask image M by the shift amount, blackens the part other than the object image G2, and horizontally A mask image M ′ after correcting the deviation is generated, and the mask image M ′ is output to the image composition unit 205 instead of the mask image M.

本実施形態にかかる撮像装置1000aは、第1実施形態の図4と同様に、図6に示すように、可視画像では、視認性の悪かった対象物Tがより視認性良く表示される。   Similar to FIG. 4 of the first embodiment, the imaging apparatus 1000a according to the present embodiment displays the target T with poor visibility in the visible image as shown in FIG.

より具体的には、図6に、第1撮像データD1による可視画像である第1画像(図6Aおよび図6D)、対象物T(破線矩形部分(第2画像領域))が含まれる第2撮像データD2による遠赤外画像である第2画像(図6Bおよび図6E)、および、画像合成部205において第1画像とマスク画像Mとが合成された画像(図6Cおよび図6F)が例示されている。図6A〜6Cは、実際の撮像画像であり、図6D〜6Fは、図6A〜6Cの撮像画像における特徴部分を抽出した模式図である。図6Aは、第1波長帯域の光を撮像することによって得られた可視画像であるので、暗闇で道路と片側の道路脇の茂みが撮像された画像となっており、画像中央付近には照明が照らされている部分が撮像されている。図6Dは、図6Aの撮像画像の特徴部分である、前記道路、前記茂みおよび前記照明が照らされている部分が実線で表されている。なお、図6Dには、暗闇を表すハッチングが付されている。図6Bは、第2波長帯域の光を撮像することによって得られた遠赤外画像であるので、道路と両側の道路脇の茂みが薄暗く撮像された画像となっており、画像中央付近には人および動物の型が輝度良く撮像されている。図6Eは、図6Bの撮像画像の特徴部分である、前記道路、前記茂み、および前記人および動物の型が実線で表されている。なお、図6Bの薄暗い点は、図6Eには表されていない。なお、図6Aと図6Bとを対比すると分かるように、図6Aに示す第1画像と図6Bに示す第2画像とは、前記基線長に対応した視差だけずれている。図6Cは、図6Aと、図6Bの破線矩形部分を除く領域を前記所定の一定値でマスクしたマスク画像M(不図示)とが合成された画像となっており、暗闇における道路および片側の道路脇の茂みと、画像中央付近の照明が照らされている部分とが現れている画像に、人および動物の型が輝度良く映し出されている。図6Fは、図6Cの撮像画像の特徴部分である、前記道路、前記茂み、前記照明が照らされている部分、および前記人および動物の型が実線で表されている。なお、図6Fには暗闇を表すハッチングが付されている。   More specifically, FIG. 6 includes a first image (FIGS. 6A and 6D) that is a visible image based on the first imaging data D1, and a second object T (a broken-line rectangular portion (second image region)). Examples include a second image (FIGS. 6B and 6E) that is a far-infrared image based on the imaging data D2, and an image (FIGS. 6C and 6F) in which the first image and the mask image M are combined in the image combining unit 205. Has been. 6A to 6C are actual captured images, and FIGS. 6D to 6F are schematic diagrams in which characteristic portions in the captured images of FIGS. 6A to 6C are extracted. Since FIG. 6A is a visible image obtained by imaging light in the first wavelength band, it is an image in which the road and bushes on one side of the road are imaged in the dark. The part that is illuminated is imaged. FIG. 6D shows a solid line indicating a portion of the captured image of FIG. 6A that is illuminated by the road, the bush, and the illumination. In FIG. 6D, hatching indicating darkness is added. FIG. 6B is a far-infrared image obtained by imaging light in the second wavelength band, and thus is an image in which the road and the bushes on both sides of the road are dimly captured. Human and animal types are imaged with good brightness. In FIG. 6E, the road, the bush, and the human and animal types, which are characteristic portions of the captured image of FIG. 6B, are represented by solid lines. Note that the dim points in FIG. 6B are not represented in FIG. 6E. As can be seen by comparing FIG. 6A and FIG. 6B, the first image shown in FIG. 6A and the second image shown in FIG. 6B are shifted by a parallax corresponding to the baseline length. FIG. 6C is an image obtained by combining FIG. 6A and a mask image M (not shown) obtained by masking the region excluding the broken-line rectangular portion of FIG. 6B with the predetermined constant value. Human and animal patterns are projected with high brightness in an image in which a bush on the side of the road and a portion illuminated by light near the center of the image appear. FIG. 6F shows the characteristic portions of the captured image of FIG. 6C, that is, the road, the bush, the portion that is illuminated, and the human and animal types in solid lines. In FIG. 6F, hatching indicating darkness is added.

このように図6Cおよび図6Fの合成画像には、図6Aおよび図6Dの可視画像では視認性の悪かった対象物Tがより視認性良く表示されている(図6Cおよび図6F中の破線矩形部分(第1画像領域))。   As described above, in the synthesized images of FIGS. 6C and 6F, the object T that is poorly visible in the visible images of FIGS. 6A and 6D is displayed with higher visibility (the broken-line rectangles in FIGS. 6C and 6F). Part (first image area)).

次に、別の実施形態について説明する。   Next, another embodiment will be described.

[第3実施形態]
図7は、第3実施形態にかかる撮像装置1000bの構成の一例を示すブロック図である。図7において、第3実施形態にかかる撮像装置1000bは、第1実施形態にかかる撮像装置1000に対し、例えば撮像部100の代わりに撮像部100bを、画像処理部200の代わりに画像処理部200bを備える。以下、第1実施形態または第2実施形態と異なる点を中心に以下に説明する。なお、第3実施形態の各構成において第1実施形態または第2実施形態の構成と同じものは同じ符号が付され、その説明は、特段理由がない限り適宜省略する。
[Third Embodiment]
FIG. 7 is a block diagram illustrating an example of a configuration of an imaging apparatus 1000b according to the third embodiment. In FIG. 7, the imaging apparatus 1000b according to the third embodiment is different from the imaging apparatus 1000 according to the first embodiment in, for example, an imaging unit 100b instead of the imaging unit 100 and an image processing unit 200b instead of the image processing unit 200. Is provided. Hereinafter, the following description will be focused on differences from the first embodiment or the second embodiment. In addition, in each structure of 3rd Embodiment, the same thing as the structure of 1st Embodiment or 2nd Embodiment is attached | subjected the same code | symbol, and the description is abbreviate | omitted suitably unless there is a special reason.

撮像部100bは、例えば光学系101c、光学系101d、光フィルタ群103c、第3イメージセンサ105c、および第4イメージセンサ105dを有する。本実施形態では、撮像部100bは、2つの別体のイメージセンサを有している。前記所定の被写体からの光が光学系101cを経て光フィルタ群103cに入射し、光フィルタ群103cで所定の波長範囲の光だけが透過されて第3イメージセンサ105cに入射する。また、前記所定の被写体からの光が光学系101dを経て第4イメージセンサ105dに入射する。   The imaging unit 100b includes, for example, an optical system 101c, an optical system 101d, an optical filter group 103c, a third image sensor 105c, and a fourth image sensor 105d. In the present embodiment, the imaging unit 100b has two separate image sensors. Light from the predetermined subject enters the optical filter group 103c through the optical system 101c, and only light in a predetermined wavelength range is transmitted through the optical filter group 103c and enters the third image sensor 105c. Further, light from the predetermined subject enters the fourth image sensor 105d through the optical system 101d.

光学系101cは、近赤外用のレンズを有する撮像光学系である。光学系101dは、遠赤外用のレンズを有する撮像光学系である。光フィルタ群103cは、近赤外フィルタである。   The optical system 101c is an imaging optical system having a near infrared lens. The optical system 101d is an imaging optical system having a far infrared lens. The optical filter group 103c is a near infrared filter.

第3イメージセンサ105cに含まれる複数の光電変換素子は、光フィルタ群103cを経由した第1波長帯域に含まれる波長領域の光を受光することで、前記波長領域の光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。第3イメージセンサ105cは、例えば、前記光電変換特性が線形特性または線形対数特性であるイメージセンサである。第4イメージセンサ105dに含まれる複数の光電変換素子は、前記遠赤外線用のレンズを経由した第1波長帯域とは異なる波長帯域を含む第2波長帯域の光を受光することで、前記第2波長帯域の光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。本実施形態では、第3イメージセンサ105cから第1撮像データD1が、第4イメージセンサ105dから第2撮像データD2が、各々制御演算部211に出力される。なお、本実施形態では、例えば第1波長帯域に含まれる波長領域の光は、近赤外光であり、第2波長帯域の光は、遠赤外光である。この場合、第4イメージセンサ105dは、いわゆる量子型または熱型遠赤外線イメージセンサである。第3イメージセンサ105cと第4イメージセンサ105dとは、第2実施形態と同様に、撮像対象が略同じであるが、例えば、各光軸が互いに平行となるように所定の距離(前記基線長)だけ間隔を空けて固定される。なお、第3イメージセンサ105cの第1撮像データD1、第4イメージセンサ105dの第2撮像データD2による第1画像および第2画像は、本実施形態では、同寸法、同形状、同画素数である。   The plurality of photoelectric conversion elements included in the third image sensor 105c receive the light in the wavelength region included in the first wavelength band via the optical filter group 103c, thereby imaging the light in the wavelength region and performing first imaging. The plurality of first photoelectric conversion elements L1 that output the imaging data D1. The third image sensor 105c is, for example, an image sensor whose photoelectric conversion characteristics are linear characteristics or linear logarithmic characteristics. The plurality of photoelectric conversion elements included in the fourth image sensor 105d receive the second wavelength band including a wavelength band different from the first wavelength band via the far-infrared lens, whereby the second A plurality of second photoelectric conversion elements L2 that pick up light in the wavelength band and output second image data D2. In the present embodiment, the first image data D1 from the third image sensor 105c and the second image data D2 from the fourth image sensor 105d are output to the control calculation unit 211, respectively. In the present embodiment, for example, the light in the wavelength region included in the first wavelength band is near infrared light, and the light in the second wavelength band is far infrared light. In this case, the fourth image sensor 105d is a so-called quantum type or thermal type far infrared image sensor. As in the second embodiment, the third image sensor 105c and the fourth image sensor 105d have substantially the same imaging target. For example, the third image sensor 105c and the fourth image sensor 105d have a predetermined distance (the base length) so that the optical axes are parallel to each other. ) Are fixed at intervals. In this embodiment, the first image and the second image based on the first image data D1 of the third image sensor 105c and the second image data D2 of the fourth image sensor 105d have the same size, the same shape, and the same number of pixels. is there.

画像処理部200bは、例えば、画像合成部205の代わりに画像合成部205dと、対象物抽出部209の代わりに前記対象物抽出部209aとを有する。画像合成部205dは、第2撮像データD2による遠赤外画像である第2画像から対象物画像G2を抽出して、第1撮像データD1による近赤外画像である第1画像にマスク画像M’を合成する画像処理を行う。   The image processing unit 200b includes, for example, an image composition unit 205d instead of the image composition unit 205, and the object extraction unit 209a instead of the object extraction unit 209. The image composition unit 205d extracts the object image G2 from the second image that is a far-infrared image based on the second imaging data D2, and applies the mask image M to the first image that is a near-infrared image based on the first imaging data D1. Perform image processing to synthesize '.

画像合成部205dは、輝度合成部205aを備える。輝度合成部205aは、より具体的には第1撮像データD1に含まれる輝度を表わす第3輝度データ(本実施形態では、具体的には近赤外画像の画素値すなわち輝度値)と、第2撮像データD2に含まれる輝度を表わす第4輝度データ(本実施形態では、具体的には遠赤外画像の画素値すなわち輝度値)とを合成して合成輝度値とする。なお、近赤外画像および遠赤外画像は、色度情報を有さないことから、画像合成部205dは、色度補正部205bを有さない。   The image composition unit 205d includes a luminance composition unit 205a. More specifically, the luminance composition unit 205a includes third luminance data representing the luminance included in the first imaging data D1 (specifically, in this embodiment, the pixel value of the near-infrared image, that is, the luminance value), and the first luminance data. The fourth luminance data representing the luminance included in the two imaging data D2 (specifically, in this embodiment, the pixel value of the far-infrared image, that is, the luminance value) is combined to obtain a combined luminance value. Since the near-infrared image and the far-infrared image do not have chromaticity information, the image composition unit 205d does not have the chromaticity correction unit 205b.

なお、本実施形態において、撮像部100bは、複数の第1光電変換素子L1と複数の第2光電変換素子L2とが1個のイメージセンサ上に存在していてもよい。この場合、撮像部100bは、所定の配列でマトリクス状に配列された複数の前記近赤外フィルタおよび遠赤外光を透過する遠赤外フィルタを有する光フィルタ群を備える。前記1個のイメージセンサに含まれる複数の光電変換素子のうち、前記複数の近赤外フィルタを介して受光する複数の光電変換素子は、第1波長帯域に含まれる波長領域の近赤外光を撮像して第1撮像データD1を出力する複数の第1光電変換素子L1である。また、前記イメージセンサに含まれる前記複数の光電変換素子のうち、前記複数の遠赤外フィルタを介して受光する複数の光電変換素子は、前記第1波長帯域とは異なる波長帯域を含む第2波長帯域の遠赤外光を撮像して第2撮像データD2を出力する複数の第2光電変換素子L2である。   In the present embodiment, in the imaging unit 100b, the plurality of first photoelectric conversion elements L1 and the plurality of second photoelectric conversion elements L2 may exist on one image sensor. In this case, the imaging unit 100b includes a plurality of the near-infrared filters arranged in a matrix with a predetermined arrangement and an optical filter group having a far-infrared filter that transmits far-infrared light. Among the plurality of photoelectric conversion elements included in the one image sensor, the plurality of photoelectric conversion elements that receive light through the plurality of near-infrared filters are near-infrared light in a wavelength region included in the first wavelength band. Are a plurality of first photoelectric conversion elements L1 that output first imaging data D1. Among the plurality of photoelectric conversion elements included in the image sensor, a plurality of photoelectric conversion elements that receive light through the plurality of far-infrared filters include a second wavelength band that is different from the first wavelength band. A plurality of second photoelectric conversion elements L2 that image far-infrared light in the wavelength band and output second imaging data D2.

本実施形態にかかる撮像装置1000bは、具体的に例示しないが、第1実施形態の図4や第2実施形態の図6と同様に、近赤外画像では視認性の悪かった対象物Tがより視認性良く表示される。   Although the imaging apparatus 1000b according to the present embodiment is not specifically illustrated, the object T having poor visibility in the near-infrared image is similar to FIG. 4 of the first embodiment and FIG. 6 of the second embodiment. It is displayed with better visibility.

上記各実施形態で述べた撮像装置および撮像方法は、第1撮像データD1による第1画像中の前記合成対象画像G1に、第2撮像データD2による第2画像から抽出された対象物画像G2を合成する。このため、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上させることができる。   In the imaging apparatus and imaging method described in each of the above embodiments, the object image G2 extracted from the second image based on the second imaging data D2 is added to the synthesis target image G1 in the first image based on the first imaging data D1. Synthesize. For this reason, since the image quality that is insufficient in one image can be supplemented by another image, the visibility of the object can be further improved.

なお、第1および第2実施形態において、撮像部100、100aは、近赤外光をより明確に撮像するために、近赤外光の投光装置を使用し、夜間に撮像対象に向けて近赤外光を照射してもよい。   Note that in the first and second embodiments, the imaging units 100 and 100a use a near-infrared light projector to capture near-infrared light more clearly, and aim at an imaging target at night. Near infrared light may be irradiated.

また、対象物画像領域抽出部203からの出力は、上記マスク画像Mに限られず、例えば対象物画像G2および前記領域情報の出力であってもよい。この場合、画像合成部205は、前記領域情報である対象物画像G2の前記頂点座標などに基づき、第1撮像データD1による第1画像内の前記頂点座標と同じ座標における、矩形形状の第2画像領域r2(対象物画像G2)と同じ寸法で表わされる矩形形状の部分を第1画像領域r1(合成対象画像G1)として、対象物画像G2を合成対象画像G1に画像合成する。   Further, the output from the object image area extraction unit 203 is not limited to the mask image M, and may be an output of the object image G2 and the area information, for example. In this case, the image composition unit 205 has a rectangular second shape at the same coordinates as the vertex coordinates in the first image based on the first imaging data D1, based on the vertex coordinates of the object image G2 as the region information. A rectangular image portion having the same dimensions as the image region r2 (object image G2) is used as a first image region r1 (composition target image G1), and the object image G2 is image-synthesized with the composition target image G1.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。   The present specification discloses various aspects of the technology as described above, and the main technologies are summarized below.

一態様にかかる撮像装置は、第1波長帯域に含まれる波長領域の光を撮像して第1撮像データを出力する複数の第1光電変換素子と、前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を撮像して第2撮像データを出力する複数の第2光電変換素子と、前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成部とを備え、前記画像合成部は、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する。   An imaging apparatus according to an aspect includes a plurality of first photoelectric conversion elements that capture light in a wavelength region included in a first wavelength band and output first imaging data, and a wavelength band different from the first wavelength band. Synthesis based on a plurality of second photoelectric conversion elements that capture light in the second wavelength band and output second imaging data, a first image based on the first imaging data, and a second image based on the second imaging data An image composition unit for generating an image, wherein the image composition unit converts an object image of a second image region including a predetermined type of object of the second image into the object of the first image. The image is combined with the image to be combined in the first image area corresponding to the second image area.

そして、上述の撮像装置において、前記第2撮像データによる第2画像のうちの所定の種類の対象物を検出する対象物検出部をさらに備え、前記画像合成部は、前記対象物検出部によって検出された前記対象物を含む前記第2画像領域の前記対象物画像を、前記第1画像のうちの前記第2画像領域に対応する前記第1画像領域の前記合成対象画像に合成することが好ましい。   In the above-described imaging device, the imaging device further includes an object detection unit that detects an object of a predetermined type in the second image based on the second imaging data, and the image synthesis unit is detected by the object detection unit. Preferably, the object image in the second image region including the target object is combined with the composition target image in the first image region corresponding to the second image region in the first image. .

他の一態様にかかる撮像方法は、第1波長帯域に含まれる波長領域の光を複数の第1光電変換素子によって撮像して第1撮像データを取得する第1撮像ステップと、前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を複数の第2光電変換素子によって撮像して第2撮像データを取得する第2撮像ステップと、前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成ステップとを備え、前記画像合成ステップは、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する。   An imaging method according to another aspect includes a first imaging step of acquiring first imaging data by imaging light in a wavelength region included in a first wavelength band by a plurality of first photoelectric conversion elements; and the first wavelength A second imaging step in which light of a second wavelength band including a wavelength band different from the band is captured by a plurality of second photoelectric conversion elements to obtain second imaging data; a first image based on the first imaging data; An image composition step for generating a composite image based on the second image based on the two imaging data, wherein the image composition step includes a target of a second image region including a predetermined type of object of the second image. The object image is synthesized with the synthesis target image in the first image area corresponding to the second image area in the first image.

このような撮像装置および撮像方法は、前記第1撮像データによる第1画像中の前記合成対象画像に、前記第2撮像データによる第2画像中の前記対象物画像を合成する。このため、前記撮像装置および撮像方法は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。   In such an imaging apparatus and imaging method, the object image in the second image based on the second imaging data is synthesized with the synthesis target image in the first image based on the first imaging data. For this reason, the image pickup apparatus and the image pickup method can supplement the image quality that is insufficient in one image with another image, and thus can further improve the visibility of an object.

他の一態様では、上記撮像装置において、前記第2波長帯域は、前記第1波長帯域より長い波長の帯域であることが好ましい。このような撮像装置は、対象物が第2撮像データから精度良く抽出できる。   In another aspect, in the imaging apparatus, it is preferable that the second wavelength band is a band having a longer wavelength than the first wavelength band. In such an imaging apparatus, the object can be accurately extracted from the second imaging data.

他の一態様では、これら上述の撮像装置において、前記第1撮像データは、輝度を表わす第1輝度データを含み、前記第2撮像データは、輝度を表わす第2輝度データを含み、前記画像合成部は、前記対象物画像の第2輝度データと、前記合成対象画像の第1輝度データとを合成することが好ましい。   In another aspect, in the above-described imaging devices, the first imaging data includes first luminance data representing luminance, the second imaging data includes second luminance data representing luminance, and the image synthesis The unit preferably synthesizes the second luminance data of the object image and the first luminance data of the composition target image.

この構成によれば、前記第1撮像データに含まれる前記第1輝度データと、前記第2撮像データに含まれる第2輝度データとが合成される。このため、このような撮像装置は、合成後の画像において前記対象物を明るく表示することが可能となり、対象物の視認性がより向上する。   According to this configuration, the first luminance data included in the first imaging data and the second luminance data included in the second imaging data are synthesized. For this reason, such an imaging device can display the target object brightly in the combined image, and the visibility of the target object is further improved.

他の一態様では、上述の撮像装置において、前記第1波長帯域の光は、可視光であり、前記第1撮像データは、色度を表わす色度データを含み、前記第2波長帯域の光は、赤外光であり、前記画像合成部は、前記対象物画像の第2輝度データと前記合成対象画像の第1輝度データとの合成に応じて、前記第1撮像データの色度データを補正することが好ましい。   In another aspect, in the above-described imaging device, the light in the first wavelength band is visible light, the first imaging data includes chromaticity data representing chromaticity, and the light in the second wavelength band. Is infrared light, and the image synthesizing unit obtains chromaticity data of the first imaging data in accordance with the synthesis of the second luminance data of the object image and the first luminance data of the synthesis target image. It is preferable to correct.

この構成によれば、前記第1輝度データと前記第2輝度データとが合成され、さらに前記色度値が補正される。このため、このような撮像装置は、合成の前後において色相の変化を抑制できる。   According to this configuration, the first luminance data and the second luminance data are combined, and the chromaticity value is further corrected. For this reason, such an imaging device can suppress a change in hue before and after synthesis.

他の一態様では、これら上述の撮像装置において、前記第1波長帯域の光は、近赤外光であり、前記第1撮像データは、輝度を表わす第3輝度データを含み、前記第2波長帯域の光は、遠赤外光であり、前記第2撮像データは、輝度を表わす第4輝度データを含み、前記画像合成部は、前記対象物画像の第4輝度データと、前記合成対象画像の第3輝度データとを合成することが好ましい。   In another aspect, in the above-described imaging devices, the light in the first wavelength band is near infrared light, the first imaging data includes third luminance data representing luminance, and the second wavelength. The band light is far-infrared light, the second imaging data includes fourth luminance data representing luminance, and the image synthesis unit includes fourth luminance data of the object image and the synthesis target image. It is preferable to synthesize the third luminance data.

この構成によれば、前記第1撮像データによる合成対象画像の第3輝度データと、前記第2撮像データによる前記対象物画像の第4輝度データとが合成される。このため、このような撮像装置は、1つの画像では不足する画質を他の画像で補うことが可能となるから、対象物の視認性をより向上できる。   According to this configuration, the third luminance data of the synthesis target image based on the first imaging data and the fourth luminance data of the target image based on the second imaging data are synthesized. For this reason, since such an imaging device can supplement image quality that is insufficient in one image with another image, the visibility of the object can be further improved.

他の一態様では、これら上述の撮像装置において、前記複数の第1光電変換素子および前記複数の第2光電変換素子を形成した1個のイメージセンサを備えることが好ましい。   In another aspect, it is preferable that the above-described imaging devices include one image sensor in which the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements are formed.

この構成によれば、前記1個のイメージセンサに前記複数の第1光電変換素子および前記複数の第2光電変換素子が形成される。このため、このような撮像装置は、これらを小型化できる。   According to this configuration, the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements are formed in the one image sensor. For this reason, such an imaging device can be miniaturized.

他の一態様では、これら上述の撮像装置において、前記複数の第1光電変換素子を形成した第1イメージセンサと、前記複数の第2光電変換素子を形成した前記第1イメージセンサとは別体の第2イメージセンサとを備えることが好ましい。   In another aspect, in the above-described imaging devices, the first image sensor in which the plurality of first photoelectric conversion elements are formed and the first image sensor in which the plurality of second photoelectric conversion elements are formed are separate from each other. The second image sensor is preferably provided.

この構成によれば、別体の第1イメージセンサおよび第2イメージセンサが使用される。このため、このような撮像装置は、各波長帯域に適したイメージセンサを使用でき、より適切に各波長帯域の光を検出できる。   According to this configuration, separate first image sensor and second image sensor are used. For this reason, such an imaging apparatus can use an image sensor suitable for each wavelength band, and can detect light in each wavelength band more appropriately.

この出願は、2013年4月26日に出願された日本国特許出願特願2013−93535を基礎とするものであり、その内容は、本願に含まれるものである。   This application is based on Japanese Patent Application No. 2013-93535 filed on Apr. 26, 2013, the contents of which are included in this application.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

本発明によれば、撮像装置および撮像方法を提供できる。   According to the present invention, an imaging device and an imaging method can be provided.

Claims (9)

第1波長帯域に含まれる波長領域の光を撮像して第1撮像データを出力する複数の第1光電変換素子と、
前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を撮像して第2撮像データを出力する複数の第2光電変換素子と、
前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成部とを備え、
前記画像合成部は、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する、
撮像装置。
A plurality of first photoelectric conversion elements for imaging light in a wavelength region included in the first wavelength band and outputting first imaging data;
A plurality of second photoelectric conversion elements for imaging light of a second wavelength band including a wavelength band different from the first wavelength band and outputting second imaging data;
An image composition unit that generates a composite image based on the first image based on the first image data and the second image based on the second image data;
The image synthesizing unit converts a target image in a second image region including a predetermined type of target in the second image into a first image region corresponding to the second image region in the first image. To be combined with the target image of
Imaging device.
前記第2波長帯域は、前記第1波長帯域より長い波長の帯域である、
請求項1に記載の撮像装置。
The second wavelength band is a wavelength band longer than the first wavelength band.
The imaging device according to claim 1.
前記第1撮像データは、輝度を表わす第1輝度データを含み、
前記第2撮像データは、輝度を表わす第2輝度データを含み、
前記画像合成部は、前記対象物画像の第2輝度データと、前記合成対象画像の第1輝度データとを合成する、
請求項1または請求項2に記載の撮像装置。
The first imaging data includes first luminance data representing luminance,
The second imaging data includes second luminance data representing luminance,
The image synthesis unit synthesizes the second luminance data of the object image and the first luminance data of the synthesis target image;
The imaging device according to claim 1 or 2.
前記第1波長帯域の光は、可視光であり、前記第1撮像データは、色度を表わす色度データを含み、
前記第2波長帯域の光は、赤外光であり、
前記画像合成部は、前記対象物画像の第2輝度データと前記合成対象画像の第1輝度データとの合成に応じて、前記第1撮像データの色度データを補正する、
請求項3に記載の撮像装置。
The light in the first wavelength band is visible light, and the first imaging data includes chromaticity data representing chromaticity,
The light in the second wavelength band is infrared light,
The image composition unit corrects chromaticity data of the first imaging data in accordance with the composition of the second luminance data of the object image and the first luminance data of the composition target image.
The imaging device according to claim 3.
前記第1波長帯域の光は、近赤外光であり、前記第1撮像データは、輝度を表わす第3輝度データを含み、
前記第2波長帯域の光は、遠赤外光であり、前記第2撮像データは、輝度を表わす第4輝度データを含み、
前記画像合成部は、前記対象物画像の第4輝度データと、前記合成対象画像の第3輝度データとを合成する、
請求項1または請求項2に記載の撮像装置。
The light in the first wavelength band is near-infrared light, and the first imaging data includes third luminance data representing luminance,
The light in the second wavelength band is far-infrared light, and the second imaging data includes fourth luminance data representing luminance,
The image composition unit synthesizes the fourth luminance data of the object image and the third luminance data of the composition target image;
The imaging device according to claim 1 or 2.
前記第2撮像データによる第2画像のうちの所定の種類の対象物を検出する対象物検出部をさらに備え、
前記画像合成部は、前記対象物検出部によって検出された前記対象物を含む前記第2画像領域の前記対象物画像を、前記第1画像のうちの前記第2画像領域に対応する前記第1画像領域の前記合成対象画像に合成する、
請求項1ないし請求項5のいずれか1項に記載の撮像装置。
An object detection unit for detecting a predetermined type of object in the second image based on the second imaging data;
The image compositing unit corresponds to the first image region corresponding to the second image region of the first image, the object image of the second image region including the target object detected by the target object detection unit. Synthesizing the image to be synthesized in the image area
The imaging device according to any one of claims 1 to 5.
前記複数の第1光電変換素子および前記複数の第2光電変換素子を形成した1個のイメージセンサを備える、
請求項1ないし請求項6のいずれか1項に記載の撮像装置。
Comprising one image sensor formed with the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements;
The imaging device according to any one of claims 1 to 6.
前記複数の第1光電変換素子を形成した第1イメージセンサと、
前記複数の第2光電変換素子を形成した前記第1イメージセンサとは別体の第2イメージセンサとを備える、
請求項1ないし請求項6のいずれか1項に記載の撮像装置。
A first image sensor formed with the plurality of first photoelectric conversion elements;
A second image sensor separate from the first image sensor in which the plurality of second photoelectric conversion elements are formed,
The imaging device according to any one of claims 1 to 6.
第1波長帯域に含まれる波長領域の光を複数の第1光電変換素子によって撮像して第1撮像データを取得する第1撮像ステップと、
前記第1波長帯域と異なる波長帯域を含む第2波長帯域の光を複数の第2光電変換素子によって撮像して第2撮像データを取得する第2撮像ステップと、
前記第1撮像データによる第1画像と前記第2撮像データによる第2画像とに基づいて合成画像を生成する画像合成ステップとを備え、
前記画像合成ステップは、前記第2画像のうちの所定の種類の対象物を含む第2画像領域の対象物画像を、前記第1画像のうちの前記第2画像領域に対応する第1画像領域の合成対象画像に合成する、
撮像方法。
A first imaging step of capturing light of a wavelength region included in the first wavelength band with a plurality of first photoelectric conversion elements to obtain first imaging data;
A second imaging step of acquiring second imaging data by imaging light of a second wavelength band including a wavelength band different from the first wavelength band by a plurality of second photoelectric conversion elements;
An image synthesis step of generating a synthesized image based on the first image based on the first imaging data and the second image based on the second imaging data;
In the image composition step, an object image in a second image area including a predetermined type of object in the second image is converted into a first image area corresponding to the second image area in the first image. To be combined with the target image of
Imaging method.
JP2015513510A 2013-04-26 2014-03-28 Imaging apparatus and imaging method Pending JPWO2014174765A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013093535 2013-04-26
JP2013093535 2013-04-26
PCT/JP2014/001837 WO2014174765A1 (en) 2013-04-26 2014-03-28 Image capture device and image capture method

Publications (1)

Publication Number Publication Date
JPWO2014174765A1 true JPWO2014174765A1 (en) 2017-02-23

Family

ID=51791354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015513510A Pending JPWO2014174765A1 (en) 2013-04-26 2014-03-28 Imaging apparatus and imaging method

Country Status (2)

Country Link
JP (1) JPWO2014174765A1 (en)
WO (1) WO2014174765A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107464418B (en) * 2017-08-18 2021-03-19 深圳市鹏城交通网络股份有限公司 Intelligent traffic management system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229317A (en) * 2004-02-12 2005-08-25 Sumitomo Electric Ind Ltd Image display system and imaging device
US9200895B2 (en) * 2010-11-16 2015-12-01 Konica Minolta, Inc. Image input device and image processing device
JP5783471B2 (en) * 2010-12-01 2015-09-24 コニカミノルタ株式会社 Image synthesizer

Also Published As

Publication number Publication date
WO2014174765A1 (en) 2014-10-30

Similar Documents

Publication Publication Date Title
WO2012067028A1 (en) Image input device and image processing device
US8379976B2 (en) Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored
JP5701785B2 (en) The camera module
US10171757B2 (en) Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter
CN107113408A (en) Image processing apparatus, image processing method, program and system
EP2866445A1 (en) Imaging device
JP4941482B2 (en) Pseudo color image generation apparatus and program
KR20120098107A (en) System and method for assisting a driver
EP3021577B1 (en) Imaging device
KR20120008519A (en) Monitoring apparatus
JP4985660B2 (en) Pseudo gray image generating apparatus and program
JP2016535485A (en) Conversion of images from dual-band sensors into visible color images
JP4363207B2 (en) Image processing method, image processing system, and image processing apparatus
JP5718138B2 (en) Image signal processing apparatus and program
JP2015194567A (en) display device
US20230140768A1 (en) Imaging element and electronic apparatus
JP5108013B2 (en) Color imaging device, imaging device using the same, and filter
WO2014174765A1 (en) Image capture device and image capture method
JP2009253447A (en) Solid state image sensor for both near-infrared light and visible light, and solid-state imaging apparatus
JP5218634B2 (en) Pseudo gray image generating apparatus and program
JP2012010141A (en) Image processing apparatus
EP4113966A1 (en) Imaging device, imaging method, and electronic apparatus
JP7121538B2 (en) Imaging device and imaging method
JP6597518B2 (en) Information processing apparatus and program
JP2011193487A (en) Device for generation of pseudo-color image, and program