JP2018056848A - Imaging apparatus and imaging apparatus control method - Google Patents

Imaging apparatus and imaging apparatus control method Download PDF

Info

Publication number
JP2018056848A
JP2018056848A JP2016192140A JP2016192140A JP2018056848A JP 2018056848 A JP2018056848 A JP 2018056848A JP 2016192140 A JP2016192140 A JP 2016192140A JP 2016192140 A JP2016192140 A JP 2016192140A JP 2018056848 A JP2018056848 A JP 2018056848A
Authority
JP
Japan
Prior art keywords
image
color
color filter
spectral transmittance
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016192140A
Other languages
Japanese (ja)
Inventor
松浦 貴洋
Takahiro Matsuura
貴洋 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016192140A priority Critical patent/JP2018056848A/en
Publication of JP2018056848A publication Critical patent/JP2018056848A/en
Pending legal-status Critical Current

Links

Landscapes

  • Optical Filters (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for acquiring a sheet of HDR image by a smaller number of times of imaging than before.SOLUTION: An imaging apparatus comprises an imaging sensor in which first color filters and second color filters are two-dimensionally arranged according to Bayer arrangement. The first color filters have the same peak wavelength in a spectral transmission factor and mutually different distributions of the spectral transmission factor, and the second color filters have peak wavelength in the spectral transmission factor different from any one of the first color filters.SELECTED DRAWING: Figure 1

Description

本発明は、HDR画像の生成技術に関するものである。   The present invention relates to an HDR image generation technique.

高いダイナミックレンジ(HDR:High Dynamic Range)の動画撮影が可能な画像処理装置において、異なるシャッター速度の画像を複数枚ずつHDR合成すると、計算上シャッター速度以上のフレームレートで合成画像を作成することはできない。さらに、複数ショットからの合成では、動いている物体を撮影してHDR合成した際に、うまく合成できないという問題がある。   In an image processing apparatus capable of shooting a high dynamic range (HDR) video, if multiple images with different shutter speeds are HDR combined, it is possible to create a composite image at a frame rate that is higher than the shutter speed in terms of calculation. Can not. Furthermore, when combining from a plurality of shots, there is a problem that when a moving object is photographed and HDR combined, it cannot be combined well.

しかし次のような構成によれば、1ショットでHDR画像を取得することが可能となる(特許文献1)。即ちこの構成は、第1の光学領域および第2の光学領域を有するレンズ光学系と、レンズ光学系を通過した光が入射する、少なくとも複数の第1の画素と複数の第2の画素とを有する撮像素子と、を有する。更にこの構成は、第1の光学領域および第2の光学領域にそれぞれ位置する第1の調光部および第2の調光部とを含む分割調光素子と、分割調光素子の第1の調光部の透過率および第2の調光部の透過率の少なくとも一方を変更する制御部と、を有する。更にこの構成は、レンズ光学系と撮像素子との間に配置されたアレイ状光学素子であって、第1の光学領域を通過した光を複数の第1の画素に入射させ、第2の光学領域を通過した光を複数の第2の画素に入射させるアレイ状光学素子を有する。   However, according to the following configuration, an HDR image can be acquired in one shot (Patent Document 1). That is, this configuration includes a lens optical system having a first optical region and a second optical region, and at least a plurality of first pixels and a plurality of second pixels to which light that has passed through the lens optical system is incident. And an image pickup device. Further, this configuration includes a divided dimming element including a first dimming unit and a second dimming unit located in the first optical region and the second optical region, respectively, and the first dimming device A control unit that changes at least one of the transmittance of the light control unit and the transmittance of the second light control unit. Further, this configuration is an array-like optical element disposed between the lens optical system and the image pickup element, in which light that has passed through the first optical region is incident on a plurality of first pixels, and the second optical element An array-like optical element that causes light having passed through the region to enter the plurality of second pixels is provided.

また、CCD撮像素子の色フィルタには、2×2の4画素ブロックが同色で、ブロックを単位とした場合の配列がベイヤ配列であるような複ベイヤ配列が用いられる。この場合、4画素ブロックからなる各複画素内には高低2つの濃度の同色フィルタが市松配置(対角配置)されている。例えばRの複画素はRの分光感度特性を持つ2×2の4画素から構成されるが、このうちの対角配置された2画素はフィルタ濃度の低い高感度画素(LR)であり、別の対角配置された2画素はフィルタ濃度の高い低感度画素(dR)である。G,Bの複画素についても同様の構造であり、複画素の色の違いを無視して考えれば、画素配列全体にわたって高低2種類の感度の画素(L、d)が市松配置された形式となっている(特許文献2)。   The color filter of the CCD image pickup device uses a multiple Bayer array in which 2 × 2 4 pixel blocks have the same color and the array when the block is a unit is a Bayer array. In this case, the same color filters of two levels of high and low are arranged in a checkered pattern (diagonal layout) in each multi-pixel composed of four pixel blocks. For example, the R double pixel is composed of 2 × 2 4 pixels having the spectral sensitivity characteristic of R. Of these, 2 pixels arranged diagonally are high sensitivity pixels (LR) having a low filter density. The two diagonally arranged pixels are low-sensitivity pixels (dR) having a high filter density. The G and B double pixels have the same structure. If the difference between the colors of the double pixels is ignored, two types of high and low sensitivity pixels (L, d) are arranged in a checkered pattern throughout the pixel array. (Patent Document 2).

国際公開第2013/114889号International Publication No. 2013/114889 特開2002−165226号公報JP 2002-165226 A

しかしながら特許文献1に記載の発明では複雑な光学系を必要とし、さらにNDフィルタのような調光部を用いてフィルタの透過率を変えているため、装置が高価になってしまう。特許文献2に記載の発明では、RGBすべてのフィルタを濃淡のそれぞれについて用意し、RG1G2Bの4画素を一組として濃淡制御しているため、デモザイクした際に不規則なモアレが生じる危険性が高い。   However, in the invention described in Patent Document 1, a complicated optical system is required, and the transmittance of the filter is changed using a dimming unit such as an ND filter, so that the apparatus becomes expensive. In the invention described in Patent Document 2, since all the RGB filters are prepared for each of the shades, and the shades are controlled as a set of 4 pixels of RG1G2B, there is a high risk that irregular moire occurs when demosaiced. .

本発明はこのような問題に鑑みてなされたものであり、1枚のHDR画像を従来よりも少ない撮影回数で取得するための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for acquiring a single HDR image with a smaller number of times of shooting than before.

本発明の一様態は、分光透過率におけるピーク波長が同じで分光透過率の分布が互いに異なる第1のカラーフィルタ群及び該第1のカラーフィルタ群の何れとも分光透過率におけるピーク波長が異なる第2のカラーフィルタ群がベイヤ配置に従って2次元的に配置されている撮像センサを有する。   According to one embodiment of the present invention, the first color filter group having the same peak wavelength in the spectral transmittance and the distribution of the spectral transmittance is different from each other, and the peak wavelength in the spectral transmittance is different from each of the first color filter group. The image sensor includes two color filter groups that are two-dimensionally arranged according to the Bayer arrangement.

本発明の構成によれば、1枚のHDR画像を従来よりも少ない撮影回数で取得することができる。   According to the configuration of the present invention, it is possible to acquire one HDR image with a smaller number of shooting times than in the past.

撮像装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an imaging device. HDR合成処理のフローチャート。The flowchart of a HDR synthetic | combination process. ステップS3における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S3. 第1の実施形態の効果を説明するための図。The figure for demonstrating the effect of 1st Embodiment. カラーフィルタ及びプレーンを示す図。The figure which shows a color filter and a plane. 変形例2を説明するための図。The figure for demonstrating the modification 2. FIG. ステップS3における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S3. ステップS3における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S3. カラーフィルタ及びプレーンを示す図。The figure which shows a color filter and a plane. 第2の実施形態の効果を説明するための図。The figure for demonstrating the effect of 2nd Embodiment.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
以下の各実施形態や変形例に係る撮像装置は、次のような構成を有する撮像装置の一例として説明する。すなわち、分光透過率におけるピーク波長が同じで分光透過率の分布が互いに異なる第1のカラーフィルタ群及び該第1のカラーフィルタ群の何れとも分光透過率におけるピーク波長が異なる第2のカラーフィルタ群がベイヤ配置に従って2次元的に配置されている撮像センサを有する撮像装置の一例として説明する。
[First Embodiment]
An imaging apparatus according to each of the following embodiments and modifications will be described as an example of an imaging apparatus having the following configuration. That is, the first color filter group having the same peak wavelength in spectral transmittance and the distribution of spectral transmittance being different from each other, and the second color filter group having a peak wavelength different in spectral transmittance from both of the first color filter groups. Will be described as an example of an imaging apparatus having imaging sensors arranged two-dimensionally according to a Bayer arrangement.

更に、以下の各実施形態や変形例に係る撮像装置は、次のような構成を有する撮像装置の一例として説明する。ここで、第1のカラーフィルタ群は、分光透過率におけるピーク波長として緑色に対応するピーク波長を有し且つ第1の分光透過率を有するカラーフィルタと、分光透過率におけるピーク波長として緑色に対応するピーク波長を有し且つ該第1の分光透過率よりも低い第2の分光透過率を有するカラーフィルタと、を含む。そして撮像装置は、第1のカラーフィルタ群のうち第1の分光透過率を有するカラーフィルタに対応する撮像センサ上の撮像素子の出力である第1のカラー画像、第1のカラーフィルタ群のうち第2の分光透過率を有するカラーフィルタに対応する撮像センサ上の撮像素子の出力である第2のカラー画像を取得する。そして、第1のカラー画像の輝度値と第2のカラー画像の輝度値とを画素ごとに選択的に用いて第3のカラー画像の輝度成分を決定する。さらに、第2のカラーフィルタ群に対応する撮像センサ上の撮像素子の出力であるカラー画像の輝度値に基づいて、第3のカラー画像の色差成分を決定する。   Furthermore, an imaging apparatus according to each of the following embodiments and modifications will be described as an example of an imaging apparatus having the following configuration. Here, the first color filter group has a peak wavelength corresponding to green as a peak wavelength in spectral transmittance and has a first spectral transmittance, and corresponds to green as a peak wavelength in spectral transmittance. And a color filter having a second spectral transmittance lower than the first spectral transmittance. Then, the imaging apparatus includes a first color image that is an output of the imaging element on the imaging sensor corresponding to the color filter having the first spectral transmittance in the first color filter group, and the first color filter group. A second color image that is an output of the image sensor on the image sensor corresponding to the color filter having the second spectral transmittance is acquired. Then, the luminance value of the third color image is determined by selectively using the luminance value of the first color image and the luminance value of the second color image for each pixel. Further, the color difference component of the third color image is determined based on the luminance value of the color image that is the output of the image sensor on the image sensor corresponding to the second color filter group.

先ず、本実施形態に係る撮像装置の構成例について、図1のブロック図を用いて説明する。なお、図1には以下の説明に関連する主要な構成を示しており、本実施形態に係る撮像装置が有する全ての構成を示したわけではない。また、図1に示した機能部のうち1以上を1つの機能部に纏めても構わない。   First, a configuration example of the imaging apparatus according to the present embodiment will be described with reference to the block diagram of FIG. FIG. 1 shows a main configuration related to the following description, and does not show all the configurations of the imaging apparatus according to the present embodiment. Further, one or more of the functional units shown in FIG. 1 may be combined into one functional unit.

設定部1は、適正露出状態となるようにシャッター速度/絞り/露光感度の何れかを適当な撮影条件に設定する。撮像部2は、シャッター、撮像レンズ、絞りや光学LPF(Low Pass Filter)、カラーフィルタ、撮像センサ、A/D変換部等を有し、設定部1による設定に応じてシャッター速度/絞り/露光感度のいずれかを変更しながら撮像を行う。   The setting unit 1 sets any one of shutter speed / aperture / exposure sensitivity to an appropriate shooting condition so that a proper exposure state is obtained. The imaging unit 2 includes a shutter, an imaging lens, an aperture, an optical LPF (Low Pass Filter), a color filter, an imaging sensor, an A / D conversion unit, and the like. The shutter speed / aperture / exposure is set according to the setting by the setting unit 1. Imaging is performed while changing one of the sensitivities.

被写体等、外界からの光束は、絞り・フォーカス機能を有する撮像レンズを介して光学LPFに入光し、光学LPFでローパスフィルタ加工がなされて、カラーフィルタに入光する。カラーフィルタは周知の通り、画素毎(撮像センサが有する撮像素子毎)に対応する分光透過率特性を有する。撮像センサは、CMOS、CCDなどの撮像素子群が2次元的に配置されたもので、この撮像センサには、カラーフィルタを透過した光が入光する。それぞれの撮像素子は、自身が受けた光の光量に応じた電荷量の信号(画素信号)を生成して出力する。A/D変換部は、それぞれの撮像素子から出力された画素信号、即ち、撮像センサから出力された画像信号に対してA/D変換を行うことで、アナログ信号としての画像信号をディジタル信号としての画像信号に変換する。この変換により得られるディジタル信号としての画像信号は、モザイク状のカラー画像となっている。   A light beam from the outside, such as a subject, enters the optical LPF through an imaging lens having a diaphragm / focus function, and is subjected to low-pass filter processing by the optical LPF and enters a color filter. As is well known, the color filter has a spectral transmittance characteristic corresponding to each pixel (each image sensor included in the image sensor). The image sensor is a two-dimensional arrangement of image sensor groups such as CMOS and CCD, and light that has passed through a color filter enters the image sensor. Each image sensor generates and outputs a signal (pixel signal) having a charge amount corresponding to the amount of light received by itself. The A / D converter performs A / D conversion on the pixel signal output from each image sensor, that is, the image signal output from the image sensor, thereby converting the image signal as an analog signal into a digital signal. To the image signal. The image signal as a digital signal obtained by this conversion is a mosaic color image.

合成部3は、撮像部2がシャッター速度/絞り/露光感度のいずれかを変更しながら撮像を行うことによって得られるそれぞれの画像(モザイク状のカラー画像)についてHDR合成を行って、該それぞれの画像に対応するHDR画像を生成する。出力部4は、合成部3が生成したそれぞれのHDR画像を出力する。   The synthesizing unit 3 performs HDR synthesis on each image (mosaic color image) obtained by the imaging unit 2 performing imaging while changing any one of the shutter speed / aperture / exposure sensitivity. An HDR image corresponding to the image is generated. The output unit 4 outputs each HDR image generated by the synthesis unit 3.

制御部9は、撮像装置内の不図示のメモリに格納されているコンピュータプログラムやデータを用いて処理を実行することで、上記の各機能部を含む撮像装置全体の動作制御を行う。   The control unit 9 performs operation control using the computer program and data stored in a memory (not shown) in the imaging device, thereby controlling the operation of the entire imaging device including the above-described functional units.

次に、図1に示した構成を有する撮像装置によるHDR合成処理について、図2のフローチャートに従って説明する。ステップS1では、設定部1は撮像部2の撮影条件を設定する。撮影条件は、シャッター速度、絞り、露光感度の3種類で、設定部1は適正露出状態となるように、シャッター速度、絞り、露光感度のうち1以上を設定する。このとき、設定部1は、被写体に応じて1つもしくは2つの撮影条件を固定してもよい。たとえば、動く被写体の場合はシャッター速度を速めに固定し、屋内では露光感度を高く、屋外では露光感度を低くして、残りの絞りは適正露出になるように設定する。また、屋外で風景のHDR画像を取得したいときには、露光感度を低く、絞りを高めに固定し、適正露出になるようにシャッター速度を設定する。   Next, HDR synthesis processing by the imaging apparatus having the configuration shown in FIG. 1 will be described with reference to the flowchart of FIG. In step S <b> 1, the setting unit 1 sets shooting conditions for the imaging unit 2. There are three types of shooting conditions: shutter speed, aperture, and exposure sensitivity. The setting unit 1 sets one or more of the shutter speed, aperture, and exposure sensitivity so that a proper exposure state is obtained. At this time, the setting unit 1 may fix one or two shooting conditions according to the subject. For example, in the case of a moving subject, the shutter speed is fixed at a high speed, the exposure sensitivity is increased indoors, the exposure sensitivity is decreased outdoors, and the remaining aperture is set to have proper exposure. In addition, when it is desired to obtain an HDR image of a landscape outdoors, the exposure speed is set low, the aperture is fixed high, and the shutter speed is set so as to achieve proper exposure.

ステップS2では、撮像部2は、設定部1により設定された撮影条件に従ってシャッター速度、絞り、露光感度のいずれかを変更しながら撮像を行い、該撮像により得られるそれぞれのカラー画像を後段の合成部3に対して出力する。   In step S2, the imaging unit 2 performs imaging while changing any one of the shutter speed, aperture, and exposure sensitivity according to the imaging conditions set by the setting unit 1, and synthesizes each color image obtained by the imaging in the subsequent stage. Output to part 3.

ステップS3では、合成部3は、撮像部2から出力されるそれぞれのカラー画像についてHDR合成処理を行ってHDR画像を生成する。ステップS3における処理の詳細については後述する。   In step S <b> 3, the synthesizing unit 3 performs an HDR synthesizing process on each color image output from the imaging unit 2 to generate an HDR image. Details of the processing in step S3 will be described later.

ステップS4では、出力部4は、合成部3によって生成されたHDR画像を出力する。出力部4は、生成したHDR画像そのものを出力しても良いし、該HDR画像に対してデモザイキング処理を含む画像処理を施したことで得られる画像処理済み画像を出力しても良い。出力部4によるHDR画像/画像処理済み画像の出力先については特定の出力先に限らず、撮像装置内の不図示のメモリ、撮像装置に挿入されているコンパクトフラッシュ(登録商標)やSDカード等の記録媒体をHDR画像/画像処理済み画像の出力先としても良い。また出力部4は、USBケーブルや無線を介して外部の機器に対してHDR画像/画像処理済み画像を出力しても良い。また出力部4は、画像処理済み画像を、撮像装置が有する不図示の表示画面に表示しても良い。   In step S4, the output unit 4 outputs the HDR image generated by the synthesizing unit 3. The output unit 4 may output the generated HDR image itself, or may output an image processed image obtained by performing image processing including demosaicing processing on the HDR image. The output destination of the HDR image / image processed image by the output unit 4 is not limited to a specific output destination, a memory (not shown) in the imaging device, a compact flash (registered trademark) inserted in the imaging device, an SD card, or the like This recording medium may be the output destination of the HDR image / image processed image. The output unit 4 may output the HDR image / image processed image to an external device via a USB cable or wirelessly. The output unit 4 may display the image-processed image on a display screen (not shown) included in the imaging apparatus.

次に、上記のステップS3における処理の詳細について、図3のフローチャートに従って説明する。図3のフローチャートに従った処理は、1枚のカラー画像から1枚のHDR画像を生成するための処理である。然るに、撮像部2から出力されるそれぞれのカラー画像について図3のフローチャートに従った処理を行うことで、複数枚のHDR画像を生成することができる。   Next, details of the processing in step S3 will be described with reference to the flowchart of FIG. The process according to the flowchart of FIG. 3 is a process for generating one HDR image from one color image. However, a plurality of HDR images can be generated by performing processing according to the flowchart of FIG. 3 for each color image output from the imaging unit 2.

ステップS31では、合成部3は、撮像部2から出力されたモザイク状のカラー画像を、色ごとのプレーンに分解する。本実施形態では、撮像部2が有するカラーフィルタは図5(a)に示す構成を有するものとする。すなわち、2画素(1つのマスが1画素を表す)×2画素を1単位とした場合に、該1単位において左上及び右下の画素位置にはそれぞれR(赤)の画素とB(青)の画素とが配置されている。また、該1単位において左下及び右上の画素位置にはそれぞれG(緑)の画素とG2(暗い緑)の画素とが配置されている。ここで、Rの画素とは、分光透過率においてピーク波長が赤の波長となっている画素であり、Bの画素とは、分光透過率においてピーク波長が青の波長となっている画素であり、Gの画素とは、分光透過率においてピーク波長が緑の波長となっている画素である。また、G2の画素とは、分光透過率においてピーク波長が緑の波長となっており、且つGの分光透過率の分布において各波長に対応する分光透過率を(1/n)倍したものである。nは例えば2〜4である。なお、ピーク波長については、Bの画素のピーク波長<G(G2)の画素のピーク波長<Rの画素のピーク波長となっている。   In step S31, the composition unit 3 decomposes the mosaic color image output from the imaging unit 2 into planes for each color. In the present embodiment, the color filter included in the imaging unit 2 is assumed to have the configuration shown in FIG. That is, when two pixels (one square represents one pixel) × 2 pixels are taken as one unit, the R (red) pixel and B (blue) are located at the upper left and lower right pixel positions in the unit, respectively. Pixels are arranged. In the unit, a G (green) pixel and a G2 (dark green) pixel are arranged at the lower left and upper right pixel positions, respectively. Here, the R pixel is a pixel whose peak wavelength is a red wavelength in the spectral transmittance, and the B pixel is a pixel whose peak wavelength is a blue wavelength in the spectral transmittance. , G pixels are pixels whose peak wavelength is a green wavelength in spectral transmittance. The G2 pixel has a green wavelength with a peak wavelength in the spectral transmittance, and (1 / n) times the spectral transmittance corresponding to each wavelength in the G spectral transmittance distribution. is there. n is 2-4, for example. As for the peak wavelength, the peak wavelength of the B pixel <the peak wavelength of the pixel of G (G2) <the peak wavelength of the pixel of R <R.

周知の通り、カラーフィルタとは、撮像センサ上の各撮像素子に対して特定の色の光を透過させる為のものである。然るに、図5(a)において、例えば「R」が付されている箇所には、R(赤)の色の光を透過させる為のカラーフィルタ及びこのカラーフィルタを透過した光を受光するための撮像素子が配されていることになる。以下では、Rの色の光を透過させる為のカラーフィルタ(Rの画素)を透過した光を受光するための撮像素子を「撮像素子R」と呼称する場合がある。これは他の色(図5(a)の場合、B,G,G2)についても同様である。よって、図5(a)に示したものは、撮像センサ上における撮像素子R、撮像素子B、撮像素子G、撮像素子G2の配置分布でもある。   As is well known, the color filter is for transmitting light of a specific color to each image sensor on the image sensor. However, in FIG. 5 (a), for example, a portion marked with “R” is a color filter for transmitting light of R (red) color, and for receiving light transmitted through the color filter. An image sensor is arranged. Hereinafter, an image sensor for receiving light transmitted through a color filter (R pixel) for transmitting light of R color may be referred to as “image sensor R”. The same applies to other colors (B, G, G2 in the case of FIG. 5A). Therefore, what is shown in FIG. 5A is also an arrangement distribution of the image sensor R, the image sensor B, the image sensor G, and the image sensor G2 on the image sensor.

ステップS31では合成部3は、カラー画像において撮像素子Gに対応する対応画素(G画素)以外の画素の輝度値を0とした画像(Gプレーン:図5(b)の左上)を生成する。更に合成部3は、カラー画像において撮像素子G2に対応する対応画素(G2画素)以外の画素の輝度値を0とした画像(G2プレーン:図5(b)の左下)を生成する。更に合成部3は、カラー画像において撮像素子Rに対応する対応画素(R画素)以外の画素の輝度値を0とした画像(Rプレーン:図5(b)の右上)を生成する。更に合成部3は、カラー画像において撮像素子Bに対応する対応画素(B画素)以外の画素の輝度値を0とした画像(Bプレーン:図5(b)の右下)を生成する。   In step S31, the synthesizing unit 3 generates an image (G plane: upper left in FIG. 5B) in which the luminance values of pixels other than the corresponding pixel (G pixel) corresponding to the image sensor G in the color image are 0. Furthermore, the synthesis unit 3 generates an image (G2 plane: lower left in FIG. 5B) in which the luminance values of pixels other than the corresponding pixel (G2 pixel) corresponding to the imaging element G2 in the color image are 0. Furthermore, the synthesis unit 3 generates an image (R plane: upper right in FIG. 5B) in which the luminance values of pixels other than the corresponding pixel (R pixel) corresponding to the image sensor R in the color image are 0. Further, the synthesis unit 3 generates an image (B plane: lower right in FIG. 5B) in which the luminance values of pixels other than the corresponding pixel (B pixel) corresponding to the image sensor B in the color image are 0.

ステップS32では合成部3は、各プレーンに対して暈かしフィルタを用いた暈かし処理(デモザイク処理)を行って、非対応画素の輝度値を対応画素の輝度値で補間する(図5(c))。暈かしフィルタとして例えば以下のような構成を有するフィルタを用いても良い。   In step S32, the synthesis unit 3 performs a blurring process (demosaic process) using a blur filter on each plane, and interpolates the luminance value of the non-corresponding pixel with the luminance value of the corresponding pixel (FIG. 5). (C)). For example, a filter having the following configuration may be used as the blur filter.

|1 2 1|
1/4×|2 4 2|
|1 2 1|
このような暈かしフィルタを用いてプレーンに対して暈かし処理を行うことで、非対応画素に隣接する上下位置、左右位置、斜め4方向の位置の何れかの位置に対応画素がある場合は、該対応画素の輝度値の平均値が該非対応画素の輝度値となる。
| 1 2 1 |
1/4 × | 2 4 2 |
| 1 2 1 |
By performing a blurring process on a plane using such a blur filter, there is a corresponding pixel at any one of the vertical position, the horizontal position, and the four diagonal positions adjacent to the non-corresponding pixel. In this case, the average value of the luminance values of the corresponding pixels becomes the luminance value of the non-corresponding pixel.

ステップS33では合成部3は、暈かし処理を行ったGプレーンとG2プレーンとを合成する。Gプレーンにおける着目画素の輝度値をG、G2プレーンにおいて該着目画素と同位置の画素の輝度値をG2とする。このとき、GプレーンとG2プレーンとを合成した合成プレーン(HDR画像の輝度成分に対応するプレーン:輝度プレーン)において該着目画素と同位置の画素の輝度値Gaは以下の式によって得られる。   In step S33, the combining unit 3 combines the G plane and the G2 plane that have been subjected to the blurring process. The luminance value of the pixel of interest in the G plane is G, and the luminance value of the pixel at the same position as the pixel of interest in the G2 plane is G2. At this time, the luminance value Ga of the pixel at the same position as the target pixel in the combined plane (plane corresponding to the luminance component of the HDR image: luminance plane) obtained by combining the G plane and the G2 plane is obtained by the following equation.

Ga=max(G、G2×n)
ここで、max(a、b)は、a及びbのうち大きい方を返す関数である。このような式に基づいて輝度プレーンの各画素の輝度値を決定することで、Gプレーンのみでは白く飛んでしまった部分の階調が輝度プレーン上で再現できるようになる。ステップS33における処理は、HDR画像における各画素の輝度成分を決定させる処理に相当する。
Ga = max (G, G2 × n)
Here, max (a, b) is a function that returns the larger of a and b. By determining the luminance value of each pixel of the luminance plane based on such an expression, it is possible to reproduce on the luminance plane the gradation of the portion that has been whitened with only the G plane. The process in step S33 corresponds to a process for determining the luminance component of each pixel in the HDR image.

ステップS34では合成部3は、ステップS33で生成した合成プレーンの各画素のうち、該画素の輝度値がGプレーンにおいて該画素と同位置の画素の輝度値を超えている画素(輝度値G2×nを採用した画素)を対象画素として特定する。そして合成部3は、Rプレーンにおいて該対象画素と同位置の画素のうち輝度値が最大輝度値(輝度値が0〜255の値をとる場合、最大輝度値は255)の画素の輝度値を該対応画素の輝度値に更新する。同様に合成部3は、Bプレーンにおいて該対象画素と同位置の画素のうち輝度値が最大輝度値(輝度値が0〜255の値をとる場合、最大輝度値は255)の画素の輝度値を該対応画素の輝度値に更新する。このような処理によって、HDR画像の各画素に対応するRの輝度値、Bの輝度値を決定させることができる。このように、もともと適正露出で飛んでしまっていた部分は、G2×nと同じ値にすることによって正確に階調を再現でき、逆に飛んでいない部分は正確に色を再現することができる。ステップS34における処理は、HDR画像における色差成分を決定させる処理に相当する。   In step S34, the synthesizing unit 3 out of the pixels of the synthesis plane generated in step S33, the pixel whose luminance value exceeds the luminance value of the pixel at the same position in the G plane (luminance value G2 × n) is specified as a target pixel. Then, the combining unit 3 calculates the luminance value of the pixel having the maximum luminance value (the maximum luminance value is 255 when the luminance value is 0 to 255) among the pixels at the same position as the target pixel in the R plane. The brightness value of the corresponding pixel is updated. Similarly, the synthesizing unit 3 has the luminance value of the pixel having the maximum luminance value (the luminance value is 255 when the luminance value is 0 to 255) among the pixels at the same position as the target pixel in the B plane. Is updated to the luminance value of the corresponding pixel. By such processing, it is possible to determine the R luminance value and the B luminance value corresponding to each pixel of the HDR image. In this way, the gradation that has been skipped at the proper exposure can be accurately reproduced by setting the same value as G2 × n, and the color that has not been skipped can be accurately reproduced. . The process in step S34 corresponds to a process for determining the color difference component in the HDR image.

このように、本実施形態によれば、1回の撮像でHDR画像の輝度成分及び色差成分を決定させることができる(つまりHDR画像を完成させることができる)。また、1回の撮像のため高フレームレートの撮影が可能であるから、動いている被写体でもぶれることなく、かつデモザイクの際にモアレが発生することもない。この点について図4を用いて説明する。   As described above, according to the present embodiment, the luminance component and the color difference component of the HDR image can be determined by one imaging (that is, the HDR image can be completed). In addition, since a high frame rate can be taken for one image pickup, a moving subject is not blurred and moiré does not occur during demosaicing. This point will be described with reference to FIG.

従来であれば、1台のカメラで1枚のHDR画像を作成する場合、露出を変えて少なくとも2枚の画像を撮影する必要があり、そのため図4(a)に示す如く、8回の撮影で4枚のHDR画像(合成画像)が作成される。これに対し、本実施形態のように1回の撮影で1枚のHDR画像を作成することができれば、図4(b)に示す如く、6回の撮影で6枚のHDR画像(合成画像)が作成可能となり、図4(a)と比較して1.5倍のフレーム数で動画像を作成することができる。   Conventionally, when one HDR image is created with one camera, it is necessary to photograph at least two images with different exposures. Therefore, as shown in FIG. Thus, four HDR images (composite images) are created. On the other hand, if one HDR image can be created by one shooting as in the present embodiment, as shown in FIG. 4B, six HDR images (synthesized images) by six shootings. Can be created, and a moving image can be created with 1.5 times the number of frames compared to FIG.

<変形例1>
本変形例を含め、以下の各実施形態や変形例では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。第1の実施形態ではカラーフィルタにおけるG2の画素は、Gの分光透過率の分布において各波長に対応する分光透過率を(1/n)倍したものとし、これにより輝度値の高い領域(強い反射等で白飛びを起こしている部分)の階調再現を改善することができた。しかし、カラーフィルタにおけるG2の画素を、Gの分光透過率の分布において各波長に対応する分光透過率をn倍したものとしても良い。nは例えば2〜4である。これにより、輝度値の低い領域(光の影になっている部分など)の階調再現を改善することができる。
<Modification 1>
In the following embodiments and modifications, including this modification example, differences from the first embodiment will be mainly described, and unless otherwise noted, the same as the first embodiment. . In the first embodiment, the G2 pixel in the color filter is obtained by multiplying the spectral transmittance corresponding to each wavelength by (1 / n) in the distribution of the spectral transmittance of G, whereby a region having a high luminance value (strong) It was possible to improve the tone reproduction of the part that was whiteout due to reflection or the like. However, the G2 pixel in the color filter may be obtained by multiplying the spectral transmittance corresponding to each wavelength by n times in the distribution of the spectral transmittance of G. n is 2-4, for example. As a result, tone reproduction in a region with a low luminance value (such as a portion shaded by light) can be improved.

本実施形態では、合成部3は、図3のフローチャートの各ステップのうち、ステップS33では、暈かし処理を行ったGプレーンとG2プレーンとを合成する。Gプレーンにおける着目画素の輝度値をG、G2プレーンにおいて該着目画素と同位置の画素の輝度値をG2とする。このとき、GプレーンとG2プレーンとを合成した合成プレーン(HDR画像の輝度成分に対応するプレーン:輝度プレーン)において該着目画素と同位置の画素の輝度値Gaは以下の式によって得られる。   In the present embodiment, the combining unit 3 combines the G plane and the G2 plane that have been subjected to the fraud process in step S33 among the steps of the flowchart of FIG. The luminance value of the pixel of interest in the G plane is G, and the luminance value of the pixel at the same position as the pixel of interest in the G2 plane is G2. At this time, the luminance value Ga of the pixel at the same position as the target pixel in the combined plane (plane corresponding to the luminance component of the HDR image: luminance plane) obtained by combining the G plane and the G2 plane is obtained by the following equation.

Ga=min(G、G2×1/n)
ここで、min(a、b)は、a及びbのうち小さい方を返す関数である。このような式に基づいて輝度プレーンの各画素の輝度値を決定することで、Gプレーンのみでは黒くつぶれてしまった部分の階調が再現できるようになる。
Ga = min (G, G2 × 1 / n)
Here, min (a, b) is a function that returns the smaller one of a and b. By determining the luminance value of each pixel of the luminance plane based on such an expression, it is possible to reproduce the gradation of the portion that has been crushed black with only the G plane.

また、ステップS34では、合成部3は、Rプレーン及びGプレーンについては第1の実施形態とは異なり、輝度値の更新は行わない。このように、本変形例によれば、もともと適正露出で黒くつぶれてしまっていた部分は、G2プレーンによって正確に階調を再現できるようになる。   Further, in step S34, the combining unit 3 does not update the luminance value for the R plane and the G plane, unlike the first embodiment. As described above, according to the present modification, the gray level can be accurately reproduced by the G2 plane in the portion that was originally blacked out with the proper exposure.

<変形例2>
色差成分の画素値を共有する方法では、色差成分のノイズが強調されてしまう可能性がある。そこで、図6に示すように、色差成分のノイズを低減するために、2回の撮像により得られるそれぞれのカラー画像について得られるRプレーン同士、Bプレーン同士を合成した合成プレーン(合成色差画像)を作成し、輝度プレーンと合成する。これにより、HDR画像における色差成分のノイズを低減することができる。
<Modification 2>
In the method of sharing the pixel value of the color difference component, there is a possibility that noise of the color difference component is emphasized. Therefore, as shown in FIG. 6, in order to reduce the noise of the color difference component, a composite plane (composite color difference image) obtained by combining the R planes and the B planes obtained for each color image obtained by two imaging operations. Is combined with the luminance plane. Thereby, the noise of the color difference component in an HDR image can be reduced.

本変形例では、合成部3は、ステップS3において図7のフローチャートに従った処理を行う。図7のフローチャートにおいて図3に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。   In this modification, the synthesis unit 3 performs processing according to the flowchart of FIG. 7 in step S3. In the flowchart of FIG. 7, the same processing steps as those shown in FIG. 3 are denoted by the same step numbers, and description thereof will be omitted.

ステップS38では、合成部3は、2回の撮像により得られる2枚のカラー画像のうち一方のカラー画像から生成したRプレーン(R1プレーン)と、他方のカラー画像から生成したRプレーン(R2プレーン)と、を合成する。R1プレーンにおける着目画素の輝度値をR1、R2プレーンにおいて該着目画素と同位置の画素の輝度値をR2とすると、R1プレーンとR2プレーンとを合成した合成プレーンにおいて該着目画素と同位置の画素の輝度値Rは以下の式によって得られる。   In step S38, the synthesizing unit 3 generates an R plane (R1 plane) generated from one color image of two color images obtained by two imaging operations, and an R plane (R2 plane) generated from the other color image. ) And. If the luminance value of the target pixel in the R1 plane is R1, and the luminance value of the pixel at the same position as the target pixel in the R2 plane is R2, the pixel at the same position as the target pixel in the composite plane obtained by combining the R1 plane and the R2 plane. Is obtained by the following equation.

R=(R1+R2)/2
同様に合成部3は、2回の撮像により得られる2枚のカラー画像のうち一方のカラー画像から生成したBプレーン(B1プレーン)と、他方のカラー画像から生成したBプレーン(B2プレーン)と、を合成する。B1プレーンにおける着目画素の輝度値をB1、B2プレーンにおいて該着目画素と同位置の画素の輝度値をB2とすると、B1プレーンとB2プレーンとを合成した合成プレーンにおいて該着目画素と同位置の画素の輝度値Bは以下の式によって得られる。
R = (R1 + R2) / 2
Similarly, the synthesis unit 3 includes a B plane (B1 plane) generated from one color image of two color images obtained by two imaging operations, and a B plane (B2 plane) generated from the other color image. , Is synthesized. If the luminance value of the target pixel in the B1 plane is B1, and the luminance value of the pixel at the same position as the target pixel in the B2 plane is B2, the pixel at the same position as the target pixel in the composite plane obtained by combining the B1 plane and the B2 plane. Is obtained by the following equation.

B=(B1+B2)/2
ステップS39では、合成部3は、R1プレーンとR2プレーンとの合成プレーンをRプレーン、B1プレーンとB2プレーンとの合成プレーンをBプレーンとして上記のステップS34における処理を行う。
B = (B1 + B2) / 2
In step S39, the synthesis unit 3 performs the processing in step S34 described above, assuming that the synthesis plane of the R1 plane and the R2 plane is the R plane, and the synthesis plane of the B1 plane and the B2 plane is the B plane.

<変形例3>
第1の実施形態及び変形例2におけるステップS33ではGプレーンとG2プレーンを合成した合成プレーンにおける画素の輝度値Gaとし、Gプレーンにて対応する画素の輝度値及びG2プレーンにて対応する画素の輝度値×nのうち大きい方を採用していた。しかし、第1の実施形態及び変形例2において輝度値Gaを決定する際には他の方法を採用しても良い。たとえば、ノイズを考慮してある閾値Th(=Gプレーンにおける最大輝度値の9割程度の値)を設定し、以下の式に従って輝度値Gaを決定してもよい。
<Modification 3>
In step S33 in the first embodiment and the second modification, the luminance value Ga of the pixel in the combined plane obtained by combining the G plane and the G2 plane is set, and the luminance value of the corresponding pixel in the G plane and the corresponding pixel in the G2 plane are set. The larger one of the luminance values × n was adopted. However, other methods may be adopted when determining the luminance value Ga in the first embodiment and the second modification. For example, a threshold value Th (= about 90% of the maximum luminance value in the G plane) in consideration of noise may be set, and the luminance value Ga may be determined according to the following equation.

Ga=G (G<Thの場合)
G2×n (G≧Thの場合)
このような式に従って輝度値Gaを決定することで、ノイズがより目立たなくなり、かつGプレーンのみでは白く飛んでしまった部分の階調が再現できるようになる。同様に、変形例1におけるステップS33では、GプレーンとG2プレーンを合成した合成プレーンにおける画素の輝度値Gaとし、Gプレーンにて対応する画素の輝度値及びG2プレーンにて対応する画素の輝度値×1/nのうち小さい方を採用していた。しかし、変形例1において輝度値Gaを決定する際には他の方法を採用しても良い。たとえば、ノイズを考慮してある閾値Th2(=G2プレーンにおける最大輝度値×1/nの9割程度の値)を設定し、以下の式に従って輝度値Gaを決定してもよい。
Ga = G (when G <Th)
G2 × n (when G ≧ Th)
By determining the luminance value Ga according to such an expression, it becomes possible to reproduce the gradation of the portion where the noise is less noticeable and has been whitened with only the G plane. Similarly, in Step S33 in Modification 1, the luminance value Ga of the pixel in the combined plane obtained by combining the G plane and the G2 plane is set, and the luminance value of the corresponding pixel in the G plane and the luminance value of the corresponding pixel in the G2 plane are used. The smaller one of × 1 / n was adopted. However, another method may be adopted when determining the luminance value Ga in the first modification. For example, a threshold value Th2 (= maximum luminance value in the G2 plane × about 90% of 1 / n) may be set in consideration of noise, and the luminance value Ga may be determined according to the following equation.

Ga=G2×1/n (G2×1/n<Thの場合)
G (G2×1/n≧Thの場合)
このような式に従って輝度値Gaを決定することで、ノイズがより目立たなくなり、かつGプレーンのみでは黒くつぶれてしまった部分の階調が再現できるようになる。
Ga = G2 × 1 / n (when G2 × 1 / n <Th)
G (when G2 × 1 / n ≧ Th)
By determining the luminance value Ga according to such an expression, it becomes possible to reproduce the gradation of the portion that is less noticeable and is blackened only by the G plane.

[第2の実施形態]
第1の実施形態及びその変形例では、Gプレーン、G2プレーン、Rプレーン、Bプレーンの4つのプレーンを用いてHDR画像の輝度成分及び色差成分を作成していたが、使用するプレーンはこれらのプレーンの組み合わせに限らない。たとえば、Gプレーンについては4種類のプレーン、Rプレーン、Bプレーンについてはそれぞれ2種類のプレーンを作成しても良い。このような場合、撮像部2が有するカラーフィルタは図9(a)に示すような構成を有することになる。即ち4画素(1つのマスが1画素を表す)×4画素を1単位とした場合に該1単位内にR2の画素、R4の画素、G1の画素、G2の画素、G3の画素、G4の画素、B2の画素、B4の画素の8画素が図9(a)に示す配置パターンで2画素ずつ配置されている。
[Second Embodiment]
In the first embodiment and its modification example, the luminance component and the color difference component of the HDR image are created using four planes of the G plane, the G2 plane, the R plane, and the B plane. It is not limited to the combination of planes. For example, four types of planes may be created for the G plane, and two types of planes may be created for the R plane and the B plane. In such a case, the color filter included in the imaging unit 2 has a configuration as shown in FIG. That is, when 4 pixels (one square represents 1 pixel) × 4 pixels are defined as 1 unit, R2 pixel, R4 pixel, G1 pixel, G2 pixel, G3 pixel, G4 Eight pixels of the pixel, the B2 pixel, and the B4 pixel are arranged two by two in the arrangement pattern shown in FIG.

ここで、R2の画素とは、分光透過率においてピーク波長が赤の波長となっている画素であり、B2の画素とは、分光透過率においてピーク波長が青の波長となっている画素である。R4の画素とは、分光透過率においてピーク波長が赤の波長となっており、且つR2の分光透過率の分布において各波長に対応する分光透過率を(1/m)倍したものである。B4の画素とは、分光透過率においてピーク波長が青の波長となっており、且つB2の分光透過率の分布において各波長に対応する分光透過率を(1/m)倍したものである。ここでm=n×nである。G1の画素とは、分光透過率においてピーク波長が緑の波長となっている画素である。G2の画素とは、分光透過率においてピーク波長が緑の波長となっており、且つG1の分光透過率の分布において各波長に対応する分光透過率を(1/n)倍したものである。G3の画素とは、分光透過率においてピーク波長が緑の波長となっており、且つG2の分光透過率の分布において各波長に対応する分光透過率を(1/n)倍したものである。G4の画素とは、分光透過率においてピーク波長が緑の波長となっており、且つG3の分光透過率の分布において各波長に対応する分光透過率を(1/n)倍したものである。nは例えば1.4〜2である。   Here, the R2 pixel is a pixel whose peak wavelength is a red wavelength in the spectral transmittance, and the B2 pixel is a pixel whose peak wavelength is a blue wavelength in the spectral transmittance. . The pixel of R4 has a peak wavelength of red in the spectral transmittance, and the spectral transmittance corresponding to each wavelength in the distribution of the spectral transmittance of R2 is (1 / m) times. The B4 pixel has a peak wavelength of blue in the spectral transmittance, and the spectral transmittance corresponding to each wavelength in the distribution of the spectral transmittance of B2 is (1 / m) times. Here, m = n × n. The pixel of G1 is a pixel whose peak wavelength is a green wavelength in the spectral transmittance. The G2 pixel has a peak wavelength of green in the spectral transmittance, and the spectral transmittance corresponding to each wavelength in the spectral transmittance distribution of G1 is (1 / n) times. The G3 pixel has a peak wavelength of green in the spectral transmittance, and the spectral transmittance corresponding to each wavelength in the spectral transmittance distribution of G2 is (1 / n) times. The G4 pixel has a peak wavelength of green in the spectral transmittance, and the spectral transmittance corresponding to each wavelength in the spectral transmittance distribution of G3 is (1 / n) times. n is 1.4-2, for example.

図9(a)において、例えば「R2」が付されている箇所には、R2(赤)の色の光を透過させる為のカラーフィルタ及びこのカラーフィルタを透過した光を受光するための撮像素子が配されていることになる。以下では、R2の色の光を透過させる為のカラーフィルタ(R2の画素)を透過した光を受光するための撮像素子を「撮像素子R2」と呼称する場合がある。これは他の色(図9(a)の場合、R4,B2,B4,G1,G2,G3,G4)についても同様である。よって、図9(a)に示したものは、撮像センサ上における撮像素子R2,R4、撮像素子B2,B4、撮像素子G1〜G4の配置分布でもある。   In FIG. 9 (a), for example, a color filter for transmitting light of the color R2 (red) and an image sensor for receiving the light transmitted through the color filter are provided at locations marked with “R2”. Will be arranged. Hereinafter, an image sensor for receiving light transmitted through a color filter (R2 pixel) for transmitting R2 color light may be referred to as “image sensor R2”. The same applies to the other colors (R4, B2, B4, G1, G2, G3, and G4 in the case of FIG. 9A). Therefore, what was shown to Fig.9 (a) is also arrangement | positioning distribution of image pick-up element R2, R4, image pick-up element B2, B4, and image pick-up element G1-G4 on an image sensor.

本実施形態では、合成部3は、ステップS3において図8のフローチャートに従った処理を行う。ステップS301では合成部3は、カラー画像において撮像素子Gi(i=1,2,3,4)に対応する対応画素(Gi画素)以外の画素の輝度値を0とした画像(Giプレーン:図9(b)の左)を生成する。更に合成部3は、カラー画像において撮像素子Rj(j=2,4)に対応する対応画素(Rj画素)以外の画素の輝度値を0とした画像(Rjプレーン:図9(b)の右)を生成する。更に合成部3は、カラー画像において撮像素子Bjに対応する対応画素(Bj画素)以外の画素の輝度値を0とした画像(Bjプレーン:図9(b)の右)を生成する。   In the present embodiment, the synthesis unit 3 performs processing according to the flowchart of FIG. 8 in step S3. In step S301, the synthesizing unit 3 sets the luminance value of pixels other than the corresponding pixel (Gi pixel) corresponding to the imaging element Gi (i = 1, 2, 3, 4) in the color image to 0 (Gi plane: FIG. 9 (b) left) is generated. Further, the synthesizing unit 3 is an image (Rj plane: right of FIG. 9B) in which the luminance values of pixels other than the corresponding pixel (Rj pixel) corresponding to the imaging element Rj (j = 2, 4) in the color image are set to 0. ) Is generated. Further, the synthesizing unit 3 generates an image (Bj plane: right in FIG. 9B) in which the luminance values of pixels other than the corresponding pixel (Bj pixel) corresponding to the image sensor Bj in the color image are 0.

ステップS302では合成部3は、各プレーンに対して暈かしフィルタを用いた暈かし処理(デモザイク処理)を行って、非対応画素の輝度値を対応画素の輝度値で補間する(図9(c))。暈かしフィルタとして例えば以下のような構成を有するフィルタを用いても良い。   In step S302, the synthesizer 3 performs a blurring process (demosaic process) using a blurring filter on each plane, and interpolates the luminance value of the non-corresponding pixel with the luminance value of the corresponding pixel (FIG. 9). (C)). For example, a filter having the following configuration may be used as the blur filter.

|0 3 6 3 0|
|3 12 18 12 3|
1/24×|6 18 24 18 6|
|3 12 18 12 3|
|0 3 6 3 0|
ステップS303では合成部3は、暈かし処理を行ったG1〜G4プレーンを合成する(図9(d))。G1プレーンにおける着目画素の輝度値をG1、G2プレーンにおいて該着目画素と同位置の画素の輝度値をG2、G3プレーンにおいて該着目画素と同位置の画素の輝度値をG3、G4プレーンにおいて該着目画素と同位置の画素の輝度値をG4、とする。このとき、G1〜G4プレーンを合成した合成プレーン(HDR画像の輝度成分に対応するプレーン:輝度プレーン)において該着目画素と同位置の画素の輝度値Gaは以下の式によって得られる。
| 0 3 6 3 0 |
| 3 12 18 12 3 |
1/24 × | 6 18 24 18 6 |
| 3 12 18 12 3 |
| 0 3 6 3 0 |
In step S303, the synthesizer 3 synthesizes the G1 to G4 planes that have been subjected to the blurring process (FIG. 9D). The luminance value of the pixel of interest in the G1 plane is G1, the luminance value of the pixel at the same position as the pixel of interest in the G2 plane is G2, the luminance value of the pixel at the same position as the pixel of interest in the G3 plane is the attention value in the G3, G4 plane Let G4 be the luminance value of the pixel at the same position as the pixel. At this time, the luminance value Ga of the pixel at the same position as the pixel of interest in the combined plane (plane corresponding to the luminance component of the HDR image: luminance plane) obtained by combining the G1 to G4 planes is obtained by the following equation.

Ga=max(max(G、G2×n)、max(G3×n×n、G4×n×n×n))
このような式に基づいて輝度プレーンの各画素の輝度値を決定することで、G1プレーンのみでは白く飛んでしまった部分の階調が合成プレーン上で再現できるようになる。
Ga = max (max (G, G2 × n), max (G3 × n × n, G4 × n × n × n))
By determining the luminance value of each pixel of the luminance plane based on such an expression, it is possible to reproduce the gradation of the portion that has been whitened with only the G1 plane on the synthesis plane.

ステップS304では合成部3は、暈かし処理を行ったB2プレーンとB4プレーンとを合成すると共に、暈かし処理を行ったR2プレーンとR4プレーンとを合成する。B2プレーンにおける着目画素の輝度値をB2、B4プレーンにおいて該着目画素と同位置の画素の輝度値をB4とすると、B2プレーンとB4プレーンとを合成した合成プレーンにおいて該着目画素と同位置の画素の輝度値Baは以下の式によって得られる。   In step S304, the synthesizer 3 synthesizes the B2 plane and the B4 plane that have been subjected to the blurring process, and synthesizes the R2 plane and the R4 plane that have been subjected to the blurring process. If the luminance value of the target pixel in the B2 plane is B2, and the luminance value of the pixel at the same position as the target pixel in the B4 plane is B4, the pixel at the same position as the target pixel in the combined plane obtained by combining the B2 plane and the B4 plane Is obtained by the following equation.

Ba=max(B2、B4×m)
このようにしてB2プレーンとB4プレーンとの合成プレーンにおける輝度値を決定することで、B2プレーンのみでは再現出来なかった部分の階調が再現できるようになる。同様に、R2プレーンにおける着目画素の輝度値をR2、R4プレーンにおいて該着目画素と同位置の画素の輝度値をR4とする。このとき、R2プレーンとR4プレーンとを合成した合成プレーンにおいて該着目画素と同位置の画素の輝度値Bbは以下の式によって得られる。
Ba = max (B2, B4 × m)
By determining the luminance value in the combined plane of the B2 plane and the B4 plane in this way, it is possible to reproduce the gradation of the portion that cannot be reproduced only by the B2 plane. Similarly, the luminance value of the pixel of interest in the R2 plane is R2, and the luminance value of the pixel at the same position as the pixel of interest in the R4 plane is R4. At this time, the luminance value Bb of the pixel at the same position as the target pixel in the composite plane obtained by combining the R2 plane and the R4 plane is obtained by the following expression.

Bb=max(R2、R4×m)
ステップS305では、合成部3は、G1〜G4プレーンの合成プレーンの各画素のうち、該画素の輝度値がG1プレーンにおいて該画素と同位置の画素の輝度値を超えている画素(G2×n、G3×n×n、G4×n×n×nの何れかを採用した画素)を対象画素として特定する。そして合成部3は、R2,R4プレーンのそれぞれについて、該プレーンにおいて該対象画素と同位置の画素のうち輝度値が最大輝度値(輝度値が0〜255の値をとる場合、最大輝度値は255)の画素の輝度値を該対応画素の輝度値に更新する。同様に合成部3は、B2,B4プレーンのそれぞれについて、該プレーンにおいて該対象画素と同位置の画素のうち輝度値が最大輝度値(輝度値が0〜255の値をとる場合、最大輝度値は255)の画素の輝度値を該対応画素の輝度値に更新する。このような処理によって、HDR画像の各画素に対応するRの輝度値、Bの輝度値を決定させることができる。このように、もともと適正露出で飛んでしまっていた部分は、G2×n、G3×n×n、G4×n×n×nの何れかと同じ値にすることによって正確に階調を再現でき、逆に飛んでいない部分は正確に色を再現することができる。
Bb = max (R2, R4 × m)
In step S305, the combining unit 3 selects a pixel (G2 × n) in which the luminance value of the pixel exceeds the luminance value of the pixel at the same position in the G1 plane among the pixels of the combined planes G1 to G4. , G3 × n × n or G4 × n × n × n) is specified as the target pixel. For each of the R2 and R4 planes, the synthesizing unit 3 determines that the luminance value of the pixels at the same position as the target pixel in the plane is the maximum luminance value (when the luminance value takes a value of 0 to 255, the maximum luminance value is The brightness value of the pixel 255) is updated to the brightness value of the corresponding pixel. Similarly, for each of the B2 and B4 planes, the synthesizing unit 3 determines that the luminance value is the maximum luminance value among the pixels at the same position as the target pixel in the plane (if the luminance value takes a value of 0 to 255, the maximum luminance value). Updates the luminance value of the pixel 255) to the luminance value of the corresponding pixel. By such processing, it is possible to determine the R luminance value and the B luminance value corresponding to each pixel of the HDR image. In this way, the portion that was originally flying at the appropriate exposure can be accurately reproduced by setting the same value as any of G2 × n, G3 × n × n, and G4 × n × n × n, On the other hand, the color that is not flying can be accurately reproduced.

ここで、従来であれば、1台のカメラで1枚のHDR画像を作成する場合、露出を変えて複数枚の画像を撮影する必要があるため、図10(a)に示す如く、複数回(図10(a)では12回)の撮影で3枚のHDR画像(合成画像)が作成される。これに対し、本実施形態のように1回の撮影で1枚のHDR画像を作成することができれば、図10(b)に示す如く、6回の撮影で6枚のHDR画像(合成画像)が作成可能となり、図10(a)と比較して3倍のフレーム数で動画像を作成することができる。なお、第1の実施形態やその変形例、第2の実施形態において説明した構成の一部若しくは全部は適宜組み合わせて若しくは選択的に使用しても構わない。   Here, conventionally, when one HDR image is created with one camera, it is necessary to take a plurality of images with different exposures. Therefore, as shown in FIG. Three HDR images (composite images) are created by photographing (12 times in FIG. 10A). On the other hand, if one HDR image can be created by one shooting as in the present embodiment, as shown in FIG. 10B, six HDR images (composite images) by six shootings. Can be created, and a moving image can be created with three times the number of frames as compared with FIG. Note that a part or all of the configurations described in the first embodiment, its modified examples, and the second embodiment may be appropriately combined or selectively used.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:設定部 2:撮像部 3:合成部 4:出力部 9:制御部   1: Setting unit 2: Imaging unit 3: Combining unit 4: Output unit 9: Control unit

Claims (8)

分光透過率におけるピーク波長が同じで分光透過率の分布が互いに異なる第1のカラーフィルタ群及び該第1のカラーフィルタ群の何れとも分光透過率におけるピーク波長が異なる第2のカラーフィルタ群がベイヤ配置に従って2次元的に配置されている撮像センサを有する撮像装置。   The first color filter group having the same peak wavelength in the spectral transmittance and the distribution of the spectral transmittance being different from each other and the second color filter group having the different peak wavelength in the spectral transmittance are the Bayer. An imaging apparatus having an imaging sensor arranged two-dimensionally according to the arrangement. 前記第1のカラーフィルタ群は、分光透過率におけるピーク波長として緑色に対応するピーク波長を有し且つ第1の分光透過率を有するカラーフィルタと、分光透過率におけるピーク波長として緑色に対応するピーク波長を有し且つ該第1の分光透過率よりも低い第2の分光透過率を有するカラーフィルタと、を含むことを特徴とする請求項1に記載の撮像装置。   The first color filter group includes a color filter having a peak wavelength corresponding to green as a peak wavelength in spectral transmittance and having a first spectral transmittance, and a peak corresponding to green as a peak wavelength in spectral transmittance. The image pickup apparatus according to claim 1, further comprising: a color filter having a wavelength and a second spectral transmittance lower than the first spectral transmittance. 前記第2のカラーフィルタ群は、分光透過率におけるピーク波長が緑色に対応するピーク波長よりも長いカラーフィルタと、分光透過率におけるピーク波長が緑色に対応するピーク波長よりも短いカラーフィルタと、を含むことを特徴とする請求項1又は2に記載の撮像装置。   The second color filter group includes a color filter having a peak wavelength in spectral transmittance that is longer than a peak wavelength corresponding to green, and a color filter having a peak wavelength in spectral transmittance that is shorter than a peak wavelength corresponding to green. The imaging apparatus according to claim 1, further comprising: 前記撮像装置は更に、
前記第1のカラーフィルタ群のうち前記第1の分光透過率を有するカラーフィルタに対応する前記撮像センサ上の撮像素子の出力である第1のカラー画像、前記第1のカラーフィルタ群のうち前記第2の分光透過率を有するカラーフィルタに対応する前記撮像センサ上の撮像素子の出力である第2のカラー画像、を取得する手段と、
前記第1のカラー画像の輝度値と前記第2のカラー画像の輝度値とを画素ごとに選択的に用いて第3のカラー画像の輝度成分を決定する手段と、
前記第2のカラーフィルタ群に対応する前記撮像センサ上の撮像素子の出力であるカラー画像の輝度値に基づいて、前記第3のカラー画像の色差成分を決定する決定手段と
を備えることを特徴とする請求項2に記載の撮像装置。
The imaging device further includes:
A first color image that is an output of an image sensor on the image sensor corresponding to a color filter having the first spectral transmittance in the first color filter group, and the first color filter group in the first color filter group Means for obtaining a second color image that is an output of the image sensor on the image sensor corresponding to a color filter having a second spectral transmittance;
Means for selectively using a luminance value of the first color image and a luminance value of the second color image for each pixel to determine a luminance component of the third color image;
Determining means for determining a color difference component of the third color image based on a luminance value of a color image that is an output of an image sensor on the image sensor corresponding to the second color filter group. The imaging apparatus according to claim 2.
前記決定手段は、前記第2のカラーフィルタ群に対応する前記撮像センサ上の撮像素子の出力であるカラー画像を合成した画像の輝度値に基づいて、前記第3のカラー画像の色差成分を決定することを特徴とする請求項4に記載の撮像装置。   The determining means determines a color difference component of the third color image based on a luminance value of an image obtained by synthesizing a color image that is an output of an image sensor on the image sensor corresponding to the second color filter group. The imaging apparatus according to claim 4, wherein: 前記決定手段は、前記第2のカラーフィルタ群において同じピーク波長を有するカラーフィルタごとに、該カラーフィルタに対応する前記撮像センサ上の撮像素子の出力であるカラー画像の輝度値を画素ごとに選択的に用いて第4のカラー画像を生成し、該第4のカラー画像に基づいて前記第3のカラー画像の色差成分を決定することを特徴とする請求項4に記載の撮像装置。   The determining means selects, for each pixel, a luminance value of a color image that is an output of an image sensor on the image sensor corresponding to the color filter for each color filter having the same peak wavelength in the second color filter group. The imaging apparatus according to claim 4, wherein the imaging device is used to generate a fourth color image and determine a color difference component of the third color image based on the fourth color image. 前記撮像装置は更に、
前記第3のカラー画像に対してデモザイキング処理を含む画像処理を施して画像処理済み画像を生成し、該画像処理済み画像を出力する手段を備えることを特徴とする請求項4乃至6の何れか1項に記載の撮像装置。
The imaging device further includes:
7. The image processing apparatus according to claim 4, further comprising means for performing image processing including demosaicing processing on the third color image to generate an image processed image and outputting the image processed image. The imaging apparatus of Claim 1.
分光透過率におけるピーク波長が同じで分光透過率の分布が互いに異なる第1のカラーフィルタ群及び該第1のカラーフィルタ群の何れとも分光透過率におけるピーク波長が異なる第2のカラーフィルタ群がベイヤ配置に従って2次元的に配置されている撮像センサを有する撮像装置が、
前記第1のカラーフィルタ群のうち分光透過率におけるピーク波長として緑色に対応するピーク波長を有し且つ第1の分光透過率を有するカラーフィルタに対応する前記撮像センサ上の撮像素子の出力である第1のカラー画像、前記第1のカラーフィルタ群のうち分光透過率におけるピーク波長として緑色に対応するピーク波長を有し且つ該第1の分光透過率よりも低い第2の分光透過率を有するカラーフィルタに対応する前記撮像センサ上の撮像素子の出力である第2のカラー画像、を取得し、
前記第1のカラー画像の輝度値と前記第2のカラー画像の輝度値とを画素ごとに選択的に用いて第3のカラー画像の輝度成分を決定し、
前記第2のカラーフィルタ群に対応する前記撮像センサ上の撮像素子の出力であるカラー画像の輝度値に基づいて、前記第3のカラー画像の色差成分を決定する
ことを特徴とする撮像装置の制御方法。
The first color filter group having the same peak wavelength in the spectral transmittance and the distribution of the spectral transmittance being different from each other and the second color filter group having the different peak wavelength in the spectral transmittance are the Bayer. An imaging apparatus having an imaging sensor arranged two-dimensionally according to the arrangement,
It is the output of the image sensor on the image sensor corresponding to the color filter having the peak wavelength corresponding to green as the peak wavelength in the spectral transmittance of the first color filter group and having the first spectral transmittance. The first color image has a peak wavelength corresponding to green as a peak wavelength in the spectral transmittance of the first color filter group, and has a second spectral transmittance lower than the first spectral transmittance. Obtaining a second color image that is an output of the image sensor on the image sensor corresponding to a color filter;
Determining the luminance component of the third color image by selectively using the luminance value of the first color image and the luminance value of the second color image for each pixel;
The color difference component of the third color image is determined based on a luminance value of a color image that is an output of an image sensor on the image sensor corresponding to the second color filter group. Control method.
JP2016192140A 2016-09-29 2016-09-29 Imaging apparatus and imaging apparatus control method Pending JP2018056848A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016192140A JP2018056848A (en) 2016-09-29 2016-09-29 Imaging apparatus and imaging apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016192140A JP2018056848A (en) 2016-09-29 2016-09-29 Imaging apparatus and imaging apparatus control method

Publications (1)

Publication Number Publication Date
JP2018056848A true JP2018056848A (en) 2018-04-05

Family

ID=61834269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016192140A Pending JP2018056848A (en) 2016-09-29 2016-09-29 Imaging apparatus and imaging apparatus control method

Country Status (1)

Country Link
JP (1) JP2018056848A (en)

Similar Documents

Publication Publication Date Title
JP4004943B2 (en) Image composition method and imaging apparatus
JP4161295B2 (en) Color imaging system that expands the dynamic range of image sensors
KR101247647B1 (en) Image synthesizing device, image synthesizing method, and recording medium
US9288399B2 (en) Image processing apparatus, image processing method, and program
JP3382359B2 (en) Imaging device
KR101388130B1 (en) Image processing apparatus and image processing method
CN105432076B (en) Camera device
WO2014027511A1 (en) Image processing device, image processing method, and program
JP2011109638A (en) Image processing apparatus and image processing method
JP5804857B2 (en) Image processing apparatus, image processing method, and program
JP3999321B2 (en) Electronic camera
JP5990004B2 (en) Imaging device
CN116324882A (en) Image signal processing in a multi-camera system
US8218021B2 (en) Image capture apparatus, method of controlling the same, and program
JP6887853B2 (en) Imaging device, its control method, program
WO2016117137A1 (en) Image-capturing device, image-capturing method, and image display device
US20060115151A1 (en) Imaging apparatus and method of processing images
JP4335728B2 (en) Image processing apparatus and method
JPH07131796A (en) Picture synthesizer
JP2008219230A (en) Imaging apparatus, and image processing method
JP4752434B2 (en) Color correction processing program and electronic camera
JP2007049301A (en) Image processing apparatus and method therefor
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2018056848A (en) Imaging apparatus and imaging apparatus control method
JP4015492B2 (en) Image composition method and imaging apparatus