JP2013118492A - Image processing apparatus, imaging apparatus and image processing method - Google Patents

Image processing apparatus, imaging apparatus and image processing method Download PDF

Info

Publication number
JP2013118492A
JP2013118492A JP2011264803A JP2011264803A JP2013118492A JP 2013118492 A JP2013118492 A JP 2013118492A JP 2011264803 A JP2011264803 A JP 2011264803A JP 2011264803 A JP2011264803 A JP 2011264803A JP 2013118492 A JP2013118492 A JP 2013118492A
Authority
JP
Japan
Prior art keywords
image
estimated
line group
pixel
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011264803A
Other languages
Japanese (ja)
Inventor
Tokumitsu Anada
徳光 穴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2011264803A priority Critical patent/JP2013118492A/en
Publication of JP2013118492A publication Critical patent/JP2013118492A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a wide dynamic range image of high resolution.SOLUTION: An image processing apparatus is provided in which, in a first line group, imaging is performed with a first exposure. In a second line group, for a captured image picked up with a second exposure, a pixel value of the first line group is estimated from a second image formed in the second line group to generate a first estimated image, luminance of the first image is adjusted to luminance almost equal to the second image to generate a first adjusted image, a first blended image resulting from blending the first estimated image and the first adjusted image and the second image are combined to generate a first synthetic image, a pixel value of the second line group is estimated from the first image formed in the first line group to generate a second estimated image, luminance of the second image is adjusted to luminance almost equal to the first image to generate a second adjusted image, and a second blended image resulting from blending the second estimated image and the second adjusted image and the first image are combined to generate a second synthetic image.

Description

本発明は、画像処理装置、撮像装置、及び画像処理方法に関する。   The present invention relates to an image processing device, an imaging device, and an image processing method.

CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどの撮像素子は、写真フィルムに比べるとダイナミックレンジが狭い傾向にある。そのため、こうした撮像素子を用いて撮像する場合、露光量を高くすると入射光量が多い画素で白飛びが生じてしまうことがあり、一方で、露光量を低くすると入射光量が少ない画素で黒つぶれが生じてしまうことがある。こうした課題に対し、同一の被写体を複数の異なる露光量で撮像した画像を合成し、ダイナミックレンジの広い撮像素子で撮像した場合と同等の画質を有する画像(以下、HDR画像)を得る方法が考案された。   Imaging elements such as CMOS (Complementary Metal Oxide Semiconductor) image sensors and CCD (Charge Coupled Device) image sensors tend to have a narrower dynamic range than photographic films. Therefore, when imaging using such an image sensor, white exposure may occur in pixels with a large amount of incident light when the exposure amount is increased, while blackout occurs in pixels with a small amount of incident light when the exposure amount is decreased. May occur. To solve these problems, a method has been devised in which images obtained by imaging the same subject with a plurality of different exposure amounts are combined to obtain an image (hereinafter referred to as an HDR image) having an image quality equivalent to that obtained by imaging with an imaging device having a wide dynamic range. It was done.

例えば、下記の特許文献1には、高露光量で撮像した画像と、低露光量で撮像した画像とを合成することによりHDR画像を得る方法が開示されている。また、下記の特許文献2及び3には、画像のライン毎に異なる露光量で撮像し、高露光量で撮像されたラインを利用した補間処理により、低露光量で撮像されたラインに対応するラインの画素値を算出して高輝度の補間画像を生成し、低露光量で撮像されたラインを利用した補間処理により、高露光量で撮像されたラインに対応するラインの画素値を算出して低輝度の補間画像を生成して両補間画像を合成する構成が開示されている。   For example, Patent Document 1 below discloses a method for obtaining an HDR image by combining an image captured with a high exposure amount and an image captured with a low exposure amount. Further, in Patent Documents 2 and 3 below, images are captured with different exposure amounts for each line of the image, and the interpolation processing using the lines captured with the high exposure amount corresponds to the lines captured with the low exposure amount. The pixel value of the line is calculated to generate a high-intensity interpolation image, and the pixel value of the line corresponding to the line imaged at a high exposure amount is calculated by interpolation processing using the line imaged at a low exposure amount. A configuration is disclosed in which a low-brightness interpolation image is generated and both the interpolation images are combined.

特開2001−016499号公報JP 2001-016499 A 特開2008−118573号公報JP 2008-118573 A 特開2005−348301号公報JP-A-2005-348301

確かに、上記の特許文献1に記載の技術を用いると、高露光量で撮像される画像成分と、低露光量で撮像される画像成分とを含むHDR画像が得られる。しかし、高露光量で撮像するタイミングと低露光量で撮像するタイミングとが同時ではないため、被写体が完全に静止していない場合には、ぶれが生じてしまう。また、上記の特許文献2及び3に記載の技術のように、隣接ラインを用いた補間処理により補間画像を生成した場合、補間処理により得られたラインには、隣接ラインの情報しか含まれない。その結果、補間処理の対象としたラインが本来含むべき情報が欠落している分、解像度が低下してしまう。   Certainly, when the technique described in Patent Document 1 is used, an HDR image including an image component imaged at a high exposure amount and an image component imaged at a low exposure amount is obtained. However, since the timing for imaging with a high exposure amount and the timing for imaging with a low exposure amount are not simultaneous, blurring occurs if the subject is not completely stationary. Further, as in the techniques described in Patent Documents 2 and 3 above, when an interpolation image is generated by an interpolation process using adjacent lines, the line obtained by the interpolation process includes only information on the adjacent lines. . As a result, the resolution is reduced by the amount of information that should be included in the line to be interpolated is missing.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、高解像度の広ダイナミックレンジ画像を生成することが可能な、新規かつ改良された画像処理装置、撮像装置、及び画像処理方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved image processing apparatus capable of generating a high resolution wide dynamic range image, An imaging device and an image processing method are provided.

上記課題を解決するために、本発明のある観点によれば、撮像素子の撮像面を第1のライン群と第2のライン群とに分け、前記第1のライン群については第1の露光量で撮像し、前記第2のライン群については前記第1の露光量と異なる第2の露光量で撮像して得られる撮影画像を取得する画像取得部と、前記撮影画像の第2のライン群で形成される第2の画像から、前記第1のライン群を構成する各画素の画素値を推定して第1の推定画像を生成する第1の推定画像生成部と、前記第1の画像の輝度を前記第2の画像と同じ輝度に調整して第1の調整画像を生成する第1の調整画像生成部と、前記第1の推定画像と前記第1の調整画像とをブレンドして第1のブレンド画像を生成する第1のブレンド画像生成部と、前記第1のブレンド画像と前記第2の画像とを合成して第1の合成画像を生成する第1の画像合成部と、前記撮影画像の第1のライン群で形成される第1の画像から、前記第2のライン群を構成する各画素の画素値を推定して第2の推定画像を生成する第2の推定画像生成部と、前記第2の画像の輝度を前記第1の画像と同じ輝度に調整して第2の調整画像を生成する第2の調整画像生成部と、前記第2の推定画像と前記第2の調整画像とをブレンドして第2のブレンド画像を生成する第2のブレンド画像生成部と、前記第2のブレンド画像と前記第1の画像とを合成して第2の合成画像を生成する第2の画像合成部と、前記第1の合成画像と前記第2の合成画像とを用いて広ダイナミックレンジ画像を生成する広ダイナミックレンジ画像生成部と、を備える、画像処理装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, the imaging surface of the imaging device is divided into a first line group and a second line group, and the first exposure is performed for the first line group. An image acquisition unit configured to acquire a captured image obtained by imaging with a second exposure amount different from the first exposure amount for the second line group; and a second line of the captured image A first estimated image generation unit configured to generate a first estimated image by estimating a pixel value of each pixel constituting the first line group from a second image formed by a group; A first adjusted image generation unit that adjusts the luminance of the image to the same luminance as the second image to generate a first adjusted image, and blends the first estimated image and the first adjusted image. A first blend image generating unit for generating a first blend image and the first blend image From the first image formed by the first image synthesizing unit that synthesizes the second image and generates a first synthesized image, and the first line group of the photographed image, the second line A second estimated image generation unit that estimates a pixel value of each pixel constituting the group and generates a second estimated image; and adjusts the luminance of the second image to the same luminance as the first image A second adjusted image generating unit that generates a second adjusted image; and a second blended image generating unit that generates a second blended image by blending the second estimated image and the second adjusted image. A second image composition unit that synthesizes the second blend image and the first image to generate a second composite image, and the first composite image and the second composite image. A wide dynamic range image generation unit that generates a wide dynamic range image using the image, Management apparatus is provided.

仮に、第1の推定画像と第2の画像とを合成して第1の合成画像を生成した場合、第1の推定画像を生成する際に第1のライン群の情報を利用していないため、欠落している情報の分だけ第1の合成画像の解像度が低下してしまう。同様に、第2の推定画像と第1の画像とを合成して第2の合成画像を生成した場合、第2の推定画像を生成する際に第2のライン群の情報を利用していないため、欠落している情報の分だけ第2の合成画像の解像度が低下してしまう。しかし、上記の画像処理装置は、第1の合成画像を生成する際、第1のブレンド画像を利用している。この第1のブレンド画像は第1の画像の輝度を調整した第1の調整画像を用いて生成されており、第1のライン群の情報を含んでいる。そのため、上記の画像処理装置が生成する第1の合成画像は、第1のライン群の情報が含まれた高い解像度の画像である。第2の合成画像についても同様である。従って、上記の画像処理装置が生成する広ダイナミックレンジ画像は高い解像度を有することになる。   If the first estimated image and the second image are combined to generate the first combined image, the first line group information is not used when generating the first estimated image. The resolution of the first composite image is reduced by the amount of missing information. Similarly, when the second estimated image and the first image are combined to generate the second combined image, the information of the second line group is not used when generating the second estimated image. Therefore, the resolution of the second composite image is reduced by the amount of missing information. However, the image processing apparatus uses the first blend image when generating the first composite image. The first blend image is generated using a first adjusted image obtained by adjusting the luminance of the first image, and includes information on the first line group. Therefore, the first composite image generated by the image processing apparatus is a high-resolution image that includes information on the first line group. The same applies to the second composite image. Therefore, the wide dynamic range image generated by the image processing apparatus has a high resolution.

また、前記第1の推定画像生成部は、前記撮像画像の第2のライン群を構成する各画素の画素値を用いて補間処理を実行することで前記第1のライン群を構成する各画像の画素値を推定し、前記第2の推定画像生成部は、前記撮像画像の第1のライン群を構成する各画素の画素値を用いて補間処理を実行することで前記第2のライン群を構成する各画像の画素値を推定するように構成されていてもよい。このように、比較的負荷の低い補間処理を用いることにより、処理負荷を低減することが可能になる。   In addition, the first estimated image generation unit performs interpolation processing using pixel values of pixels that form the second line group of the captured image, and thereby each image that forms the first line group. The second estimated image generation unit executes the interpolation process using the pixel values of the pixels constituting the first line group of the captured image, thereby performing the second line group. May be configured to estimate the pixel value of each image constituting the image. As described above, the processing load can be reduced by using the interpolation processing with a relatively low load.

また、前記補間処理は、推定対象となる画素の近傍に位置する近傍画素の画素値を当該推定対象となる画素の画素値として利用する近傍補間であってもよい。かかる構成により、低い処理負荷で画素値の推定が実現可能になる。   Further, the interpolation processing may be neighborhood interpolation using a pixel value of a neighboring pixel located in the vicinity of a pixel to be estimated as a pixel value of the pixel to be estimated. With this configuration, it is possible to estimate the pixel value with a low processing load.

また、前記補間処理は、推定対象となる画素の近傍に位置する近傍画素の輝度情報を用いた線形近似によって当該推定対象となる画素の画素値を推定する線形補間であってもよい。かかる構成により、ある程度の精度を実現しつつ、低い処理負荷で画素値の推定が実現可能になる。   Further, the interpolation processing may be linear interpolation that estimates a pixel value of a pixel to be estimated by linear approximation using luminance information of neighboring pixels located in the vicinity of the pixel to be estimated. With such a configuration, it is possible to estimate the pixel value with a low processing load while realizing a certain degree of accuracy.

また、前記補間処理は、推定対象となる画素の近傍に位置する近傍画素の輝度情報を用いた多項式近似によって当該推定対象となる画素の画素値を推定する多項式補間であってもよい。かかる構成により、ある程度の精度を実現しつつ、低い処理負荷で画素値の推定が実現可能になる。   The interpolation processing may be polynomial interpolation that estimates the pixel value of the pixel to be estimated by polynomial approximation using luminance information of neighboring pixels located in the vicinity of the pixel to be estimated. With such a configuration, it is possible to estimate the pixel value with a low processing load while realizing a certain degree of accuracy.

また、前記第1及び第2の推定画像生成部は、推定対象となる画素の近傍に位置する近傍画素のエッジ情報により重み付けした画素値を用いて前記補間処理を実行するように構成されていてもよい。かかる構成により、より高い精度で画素値の推定が実現される。   The first and second estimated image generation units are configured to perform the interpolation processing using pixel values weighted by edge information of neighboring pixels located in the vicinity of the pixel to be estimated. Also good. With this configuration, it is possible to estimate the pixel value with higher accuracy.

また、前記第1のブレンド画像生成部は、前記第1の推定画像と前記第1の調整画像とをアルファブレンドして前記第1のブレンド画像を生成し、前記第2のブレンド画像生成部は、前記第2の推定画像と前記第2の調整画像とをアルファブレンドして前記第2のブレンド画像を生成するように構成されていてもよい。   Further, the first blend image generation unit generates the first blend image by alpha-blending the first estimated image and the first adjustment image, and the second blend image generation unit The second estimated image and the second adjusted image may be alpha-blended to generate the second blended image.

また、前記第1のブレンド画像生成部は、被写体の明るさが所定の閾値を上回る画素領域について前記第1の推定画像を利用し、当該所定の閾値を下回る画素領域について前記第1の調整画像を利用するように前記第1の推定画像と前記第1の調整画像とをブレンドして前記第1のブレンド画像を生成し、前記第2のブレンド画像生成部は、被写体の明るさが所定の閾値を下回る画素領域について前記第2の推定画像を利用し、当該所定の閾値を上回る画素領域について前記第2の調整画像を利用するように前記第2の推定画像と前記第2の調整画像とをブレンドして前記第2のブレンド画像を生成するように構成されていてもよい。かかる構成により、情報の欠落を抑制し、より高解像度のブレンド画像を生成することが可能になる。   In addition, the first blended image generation unit uses the first estimated image for a pixel region where the brightness of the subject exceeds a predetermined threshold, and the first adjusted image for a pixel region below the predetermined threshold. The first estimated image and the first adjusted image are blended to generate the first blend image so that the brightness of the subject is a predetermined value. The second estimated image and the second adjusted image are used so that the second estimated image is used for a pixel region below a threshold and the second adjusted image is used for a pixel region above the predetermined threshold. May be configured to generate the second blended image. With this configuration, it is possible to suppress missing of information and generate a higher resolution blend image.

また、上記課題を解決するために、本発明の別の観点によれば、撮像素子の撮像面を第1のライン群と第2のライン群とに分け、前記第1のライン群については第1の露光量で撮像し、前記第2のライン群については前記第1の露光量と異なる第2の露光量で撮像して撮影画像を得る撮像部と、前記撮影画像の第2のライン群で形成される第2の画像から、前記第1のライン群を構成する各画素の画素値を推定して第1の推定画像を生成する第1の推定画像生成部と、前記第1の画像の輝度を前記第2の画像と同じ輝度に調整して第1の調整画像を生成する第1の調整画像生成部と、前記第1の推定画像と前記第1の調整画像とをブレンドして第1のブレンド画像を生成する第1のブレンド画像生成部と、前記第1のブレンド画像と前記第2の画像とを合成して第1の合成画像を生成する第1の画像合成部と、前記撮影画像の第1のライン群で形成される第1の画像から、前記第2のライン群を構成する各画素の画素値を推定して第2の推定画像を生成する第2の推定画像生成部と、前記第2の画像の輝度を前記第1の画像と同じ輝度に調整して第2の調整画像を生成する第2の調整画像生成部と、前記第2の推定画像と前記第2の調整画像とをブレンドして第2のブレンド画像を生成する第2のブレンド画像生成部と、前記第2のブレンド画像と前記第1の画像とを合成して第2の合成画像を生成する第2の画像合成部と、前記第1の合成画像と前記第2の合成画像とを用いて広ダイナミックレンジ画像を生成する広ダイナミックレンジ画像生成部と、を備える、撮像装置が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, the imaging surface of the imaging device is divided into a first line group and a second line group, and the first line group is the first line group. An imaging unit that captures an image with an exposure amount of 1 and captures the second line group with a second exposure amount different from the first exposure amount, and a second line group of the captured image A first estimated image generation unit configured to generate a first estimated image by estimating a pixel value of each pixel constituting the first line group from the second image formed by the first line group; and the first image A first adjusted image generation unit that generates a first adjusted image by adjusting the luminance of the first image to the same luminance as the second image, and blends the first estimated image and the first adjusted image. A first blend image generating unit for generating a first blend image; the first blend image; and the second blend image The second line group is composed of a first image synthesizing unit that synthesizes the image and generates a first synthesized image, and a first image formed by the first line group of the photographed image. A second estimated image generation unit that estimates a pixel value of each pixel to generate a second estimated image; and a second adjustment by adjusting the luminance of the second image to the same luminance as the first image A second adjusted image generating unit that generates an image; a second blended image generating unit that generates a second blended image by blending the second estimated image and the second adjusted image; A second dynamic image combining unit that generates a second composite image by combining the two blend images and the first image, and a wide dynamic image using the first composite image and the second composite image. Provided by an imaging device comprising a wide dynamic range image generation unit for generating a range image It is.

上記の撮像装置は、第1の合成画像を生成する際、第1のブレンド画像を利用している。この第1のブレンド画像は第1の画像の輝度を調整した第1の調整画像を用いて生成されており、第1のライン群の情報を含んでいる。そのため、上記の撮像装置が生成する第1の合成画像は、第1のライン群の情報が含まれた高い解像度の画像である。第2の合成画像についても同様である。従って、上記の撮像装置が生成する広ダイナミックレンジ画像は高い解像度を有することになる。   The imaging device uses the first blend image when generating the first composite image. The first blend image is generated using a first adjusted image obtained by adjusting the luminance of the first image, and includes information on the first line group. For this reason, the first composite image generated by the imaging apparatus is a high-resolution image including information on the first line group. The same applies to the second composite image. Therefore, the wide dynamic range image generated by the imaging apparatus has a high resolution.

また、上記課題を解決するために、本発明の別の観点によれば、撮像素子の撮像面を第1のライン群と第2のライン群とに分け、前記第1のライン群については第1の露光量で撮像し、前記第2のライン群については前記第1の露光量と異なる第2の露光量で撮像して得られる撮影画像を取得する画像取得工程と、前記撮影画像の第2のライン群で形成される第2の画像から、前記第1のライン群を構成する各画素の画素値を推定して第1の推定画像を生成する第1の推定画像生成工程と、前記第1の画像の輝度を前記第2の画像と同じ輝度に調整して第1の調整画像を生成する第1の調整画像生成工程と、前記第1の推定画像と前記第1の調整画像とをブレンドして第1のブレンド画像を生成する第1のブレンド画像生成工程と、前記第1のブレンド画像と前記第2の画像とを合成して第1の合成画像を生成する第1の画像合成工程と、前記撮影画像の第1のライン群で形成される第1の画像から、前記第2のライン群を構成する各画素の画素値を推定して第2の推定画像を生成する第2の推定画像生成工程と、前記第2の画像の輝度を前記第1の画像と同じ輝度に調整して第2の調整画像を生成する第2の調整画像生成工程と、前記第2の推定画像と前記第2の調整画像とをブレンドして第2のブレンド画像を生成する第2のブレンド画像生成工程と、前記第2のブレンド画像と前記第1の画像とを合成して第2の合成画像を生成する第2の画像合成工程と、前記第1の合成画像と前記第2の合成画像とを用いて広ダイナミックレンジ画像を生成する広ダイナミックレンジ画像生成工程と、を含む、画像処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, the imaging surface of the imaging device is divided into a first line group and a second line group, and the first line group is the first line group. An image acquisition step of acquiring a captured image obtained by imaging with an exposure amount of 1 and capturing an image of the second line group with a second exposure amount different from the first exposure amount; A first estimated image generating step of generating a first estimated image by estimating a pixel value of each pixel constituting the first line group from a second image formed by two line groups; A first adjusted image generating step of generating a first adjusted image by adjusting the luminance of the first image to the same luminance as the second image; the first estimated image; and the first adjusted image; A first blend image generation step of generating a first blend image by blending From the first image composition step of combining the blend image and the second image to generate a first composite image, and the first image formed by the first line group of the captured image, the first image A second estimated image generation step of generating a second estimated image by estimating a pixel value of each pixel constituting the second line group, and setting the luminance of the second image to the same luminance as the first image A second adjusted image generating step of adjusting and generating a second adjusted image; and a second blend for generating a second blended image by blending the second estimated image and the second adjusted image An image generating step, a second image synthesizing step of synthesizing the second blend image and the first image to generate a second synthesized image, and the first synthesized image and the second synthesized image. Wide dynamic range image that generates a wide dynamic range image using image Comprising a forming step, the image processing method is provided.

上記の画像処理方法は、第1の合成画像を生成する際、第1のブレンド画像を利用している。この第1のブレンド画像は第1の画像の輝度を調整した第1の調整画像を用いて生成されており、第1のライン群の情報を含んでいる。そのため、上記の撮像装置が生成する第1の合成画像は、第1のライン群の情報が含まれた高い解像度の画像である。第2の合成画像についても同様である。従って、上記の画像処理方法で生成する広ダイナミックレンジ画像は高い解像度を有することになる。   The image processing method uses the first blend image when generating the first composite image. The first blend image is generated using a first adjusted image obtained by adjusting the luminance of the first image, and includes information on the first line group. For this reason, the first composite image generated by the imaging apparatus is a high-resolution image including information on the first line group. The same applies to the second composite image. Therefore, the wide dynamic range image generated by the above image processing method has a high resolution.

以上説明したように本発明によれば、高解像度の広ダイナミックレンジ画像を生成することが可能になる。   As described above, according to the present invention, it is possible to generate a high resolution wide dynamic range image.

本発明の一実施形態に係る撮像装置の機能構成を示した説明図である。It is explanatory drawing which showed the function structure of the imaging device which concerns on one Embodiment of this invention. 同実施形態に係る撮像装置の画像信号処理部について詳細な機能構成を示した説明図である。It is explanatory drawing which showed the detailed functional structure about the image signal process part of the imaging device which concerns on the embodiment. 同実施形態に係るHDR画像の生成方法を示した説明図である。It is explanatory drawing which showed the production | generation method of the HDR image which concerns on the same embodiment. 同実施形態に係る画像処理の流れを示した説明図である。It is explanatory drawing which showed the flow of the image processing which concerns on the same embodiment. 同実施形態に係る補間処理方法の一例を示した説明図である。It is explanatory drawing which showed an example of the interpolation processing method which concerns on the same embodiment. 同実施形態に係る補間処理方法の一例を示した説明図である。It is explanatory drawing which showed an example of the interpolation processing method which concerns on the same embodiment. 同実施形態に係る補間処理方法の一例を示した説明図である。It is explanatory drawing which showed an example of the interpolation processing method which concerns on the same embodiment. 同実施形態に係る補間処理方法の一例を示した説明図である。It is explanatory drawing which showed an example of the interpolation processing method which concerns on the same embodiment. 同実施形態に係る補間処理方法の一例を示した説明図である。It is explanatory drawing which showed an example of the interpolation processing method which concerns on the same embodiment. 同実施形態に係るブレンド処理について説明するための説明図である。It is explanatory drawing for demonstrating the blend process which concerns on the same embodiment. 同実施形態に係るブレンド処理について説明するための説明図である。It is explanatory drawing for demonstrating the blend process which concerns on the same embodiment. 同実施形態に係るブレンド処理について説明するための説明図である。It is explanatory drawing for demonstrating the blend process which concerns on the same embodiment. 同実施形態に係るブレンド処理について説明するための説明図である。It is explanatory drawing for demonstrating the blend process which concerns on the same embodiment.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[説明の流れについて]
ここで、以下に記載する本発明の実施形態に関する説明の流れについて簡単に述べる。まず、図1を参照しながら、本実施形態に係る撮像装置100の全体的な構成について説明する。次いで、図2を参照しながら、本実施形態に係る撮像装置100が有する画像信号処理部103の詳細な機能構成について説明する。次いで、図3〜図13を参照しながら、本実施形態に係るHDR画像の生成方法について説明する。
[About the flow of explanation]
Here, the flow of explanation regarding the embodiment of the present invention described below will be briefly described. First, an overall configuration of the imaging apparatus 100 according to the present embodiment will be described with reference to FIG. Next, a detailed functional configuration of the image signal processing unit 103 included in the imaging apparatus 100 according to the present embodiment will be described with reference to FIG. Next, an HDR image generation method according to the present embodiment will be described with reference to FIGS.

[概要]
本実施形態は、一定の露光量で撮像した場合に撮像素子が表現できるダイナミックレンジよりも広いダイナミックレンジを有する画像(HDR画像)を生成する方法に関する。特に、本実施形態は、1枚の撮影画像を利用して高解像度のHDR画像を生成する方法に関する。なお、本稿において、ダイナミックレンジとは、撮像素子の飽和信号出力レベルとノイズの最大値との差を意味する。
[Overview]
The present embodiment relates to a method for generating an image (HDR image) having a dynamic range wider than a dynamic range that can be expressed by an image sensor when an image is captured with a constant exposure amount. In particular, the present embodiment relates to a method for generating a high-resolution HDR image using a single photographed image. In this paper, the dynamic range means the difference between the saturation signal output level of the image sensor and the maximum noise value.

<1:撮像装置100の構成>
以下、本実施形態に係るHDR画像の生成方法を実現することが可能な撮像装置100の構成について説明する。
<1: Configuration of Imaging Device 100>
Hereinafter, the configuration of the imaging apparatus 100 capable of realizing the HDR image generation method according to the present embodiment will be described.

[1−1:撮像装置100の全体構成]
まず、図1を参照しながら、本実施形態に係る撮像装置100の全体構成について説明する。図1は、本実施形態に係る撮像装置100の全体構成を示した説明図である。なお、図1に示した全体構成は一例であり、一部の構成要素を省略したり、追加したり、或いは、変更したりしてもよい。また、撮像装置100は、例えば、静止画像を撮影可能なデジタルスチルカメラ、動画像を撮影可能なビデオカメラ、或いは、デジタルスチルカメラやビデオカメラと同等の撮像機能を搭載した携帯電話、ゲーム機、情報端末、パーソナルコンピュータなどである。
[1-1: Overall Configuration of Imaging Device 100]
First, the overall configuration of the imaging apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating the overall configuration of the imaging apparatus 100 according to the present embodiment. The overall configuration shown in FIG. 1 is an example, and some components may be omitted, added, or changed. In addition, the imaging apparatus 100 includes, for example, a digital still camera that can shoot a still image, a video camera that can shoot a moving image, or a mobile phone, game machine, or the like equipped with an imaging function equivalent to a digital still camera or a video camera. Information terminal, personal computer, etc.

図1に示すように、撮像装置100は、主に、レンズ101と、撮像素子102と、画像信号処理部103と、CPU104と、DRAM105と、ROM106と、制御部107と、操作部108と、圧縮処理部109と、モニタ駆動部110と、LCDモニタ111と、メモリインターフェース112と、メモリカード113とにより構成される。但し、メモリカード113は、着脱可能な状態で接続されていてもよい。   As shown in FIG. 1, the imaging apparatus 100 mainly includes a lens 101, an imaging element 102, an image signal processing unit 103, a CPU 104, a DRAM 105, a ROM 106, a control unit 107, an operation unit 108, The compression processing unit 109, the monitor driving unit 110, the LCD monitor 111, the memory interface 112, and the memory card 113 are included. However, the memory card 113 may be connected in a detachable state.

レンズ101は、外部の光情報を撮像素子102に結像させる光学系の一部を成し、被写体からの光を撮像素子102まで導光する。また、レンズ101を含む光学系は、例えば、ズームレンズ、絞り、フォーカスレンズなどで構成される。ズームレンズは、焦点距離を変化させて画角を変えるレンズである。絞りは、透過する光量を調節する機構である。フォーカスレンズは、光軸方向に移動することで撮像素子102の撮像面に被写体像を合焦させる。また、フォーカスレンズは、制御部107によって駆動制御される。   The lens 101 forms part of an optical system that forms an image of external light information on the image sensor 102, and guides light from the subject to the image sensor 102. The optical system including the lens 101 includes, for example, a zoom lens, a diaphragm, and a focus lens. The zoom lens is a lens that changes the angle of view by changing the focal length. The diaphragm is a mechanism that adjusts the amount of light transmitted. The focus lens moves in the optical axis direction to focus the subject image on the imaging surface of the image sensor 102. The focus lens is driven and controlled by the control unit 107.

撮像素子102は、レンズ101を透過して入射した光を電気信号に変換する複数の光電変換素子で構成される。各光電素子は、受光した光量に応じた電気信号を生成する。なお、利用可能な撮像素子102としては、例えば、CCDイメージセンサやCMOSイメージセンサなどがある。また、撮像素子102の露光量を制御するために、撮像装置100には、メカニカルシャッター(非図示)及び/又は電子シャッターが搭載されている。これらメカニカルシャッター及び電子シャッターは、ユーザによる操作部108の操作(シャッターボタンの押下など)に応じて動作する。なお、撮像素子102における露光制御については後述する。   The image sensor 102 includes a plurality of photoelectric conversion elements that convert incident light that has passed through the lens 101 into electrical signals. Each photoelectric element generates an electrical signal corresponding to the amount of light received. Examples of the image sensor 102 that can be used include a CCD image sensor and a CMOS image sensor. In addition, in order to control the exposure amount of the image sensor 102, the image pickup apparatus 100 is equipped with a mechanical shutter (not shown) and / or an electronic shutter. The mechanical shutter and the electronic shutter operate in response to an operation of the operation unit 108 by the user (such as pressing a shutter button). The exposure control in the image sensor 102 will be described later.

また、撮像素子102は、CDS/AMP回路(非図示)に接続される。さらに、CDS/AMP回路は、A/D変換回路(非図示)などに接続される。なお、CDSはCorrelated Double Sampling(相関二重サンプリング)の略であり、AMPはAmplifier(増幅器)の略である。CDS/AMP回路は、撮像素子102から出力された電気信号に含まれるリセットノイズ及びアンプノイズを除去する。さらに、CDS/AMP回路は、リセットノイズ及びアンプノイズを除去した電気信号を所定のレベルまで増幅する。一方、A/D変換回路は、CDS/AMP回路から出力されたアナログの電気信号をデジタル信号に変換する。そして、A/D変換回路により生成されたデジタル信号は、画像信号処理部103に入力される。   The image sensor 102 is connected to a CDS / AMP circuit (not shown). Further, the CDS / AMP circuit is connected to an A / D conversion circuit (not shown). CDS is an abbreviation for Correlated Double Sampling, and AMP is an abbreviation for Amplifier. The CDS / AMP circuit removes reset noise and amplifier noise included in the electrical signal output from the image sensor 102. Further, the CDS / AMP circuit amplifies the electric signal from which the reset noise and the amplifier noise are removed to a predetermined level. On the other hand, the A / D conversion circuit converts an analog electrical signal output from the CDS / AMP circuit into a digital signal. The digital signal generated by the A / D conversion circuit is input to the image signal processing unit 103.

画像信号処理部103は、入力されたデジタル信号を利用してHDR画像を生成する。なお、画像信号処理部103の詳細な機能構成及びHDR画像の生成方法については後述する。まず、デジタル信号が入力されると、画像信号処理部103は、撮像素子102の画素欠陥補正、黒レベル補正、シェーディング補正などの前処理を実行する。また、画像信号処理部103は、前処理後のデジタル信号を輝度信号と色信号とに変換する。さらに、画像信号処理部103は、ホワイトバランス制御値、γ値、エッジ強調制御値などに基づいてデジタル信号を補正し、HDR画像の生成に利用可能な画像信号を生成する。   The image signal processing unit 103 generates an HDR image using the input digital signal. A detailed functional configuration of the image signal processing unit 103 and a method for generating an HDR image will be described later. First, when a digital signal is input, the image signal processing unit 103 performs preprocessing such as pixel defect correction, black level correction, and shading correction of the image sensor 102. The image signal processing unit 103 converts the preprocessed digital signal into a luminance signal and a color signal. Further, the image signal processing unit 103 corrects the digital signal based on the white balance control value, the γ value, the edge enhancement control value, and the like, and generates an image signal that can be used for generating an HDR image.

この画像信号は、DRAM105やメモリカード113に記録されるか、或いは、圧縮処理部109により圧縮符号化(例えば、JPEG形式やMPEG形式など)された後でメモリカード113に記録される。なお、メモリカード113への記録は、メモリインターフェース112を介して実行される。また、この画像信号は、スルー画像としてLCDモニタ111に表示されたり、操作部108を利用したユーザの操作に応じてLCDモニタ111に表示されたりする。なお、LCDモニタ111への表示は、モニタ駆動部110を介して実行される。また、ここでは表示手段としてLCDモニタ111を例示しているが、有機ELディスプレイなどを利用することも可能である。   This image signal is recorded on the DRAM 105 or the memory card 113 or is compressed and encoded (for example, JPEG format or MPEG format) by the compression processing unit 109 and then recorded on the memory card 113. Note that recording to the memory card 113 is executed via the memory interface 112. Further, this image signal is displayed on the LCD monitor 111 as a through image, or is displayed on the LCD monitor 111 in accordance with a user operation using the operation unit 108. The display on the LCD monitor 111 is executed via the monitor driving unit 110. Further, although the LCD monitor 111 is illustrated here as a display means, an organic EL display or the like can also be used.

ところで、画像信号処理部103、制御部107、圧縮処理部109などは、CPU(Central Processor Unit)104の制御に応じて動作する。CPU104は、ROM106などに格納されたプログラムに従って演算処理を実行する演算処理装置であり、撮像装置100を構成する各構成要素の処理を制御する制御手段として機能する。例えば、CPU104は、制御部107に制御信号を入力してフォーカスレンズを駆動させる。また、CPU104は、画像信号処理部103が実行するHDR画像の生成処理に係る演算などを実行するように構成されていてもよい。   By the way, the image signal processing unit 103, the control unit 107, the compression processing unit 109, and the like operate according to the control of a CPU (Central Processor Unit) 104. The CPU 104 is an arithmetic processing device that executes arithmetic processing according to a program stored in the ROM 106 or the like, and functions as a control unit that controls processing of each component constituting the imaging device 100. For example, the CPU 104 inputs a control signal to the control unit 107 to drive the focus lens. Further, the CPU 104 may be configured to execute an operation related to the HDR image generation process executed by the image signal processing unit 103.

ところで、上記の説明においては、記録手段としてメモリカード113を例示したが、カード状ではない半導体記憶媒体、磁気記録媒体、光記録媒体、光磁気記録媒体などを画像信号の記録に利用してもよい。また、操作部108は、上下左右キー、電源スイッチ、モードダイアル、シャッターボタンなどで構成されていてもよい。なお、シャッターボタンは、半押し、全押し、解除などの押下状態を検出可能なものであってもよい。例えば、シャッターボタンが半押しされた場合にフォーカス制御が開始され、半押し解除でフォーカス制御が終了するように構成されていてもよい。さらに、シャッターボタンが全押しされた場合に撮影が開始されるように構成されていてもよい。   In the above description, the memory card 113 is exemplified as the recording means. However, a non-card semiconductor storage medium, magnetic recording medium, optical recording medium, magneto-optical recording medium, etc. may be used for recording image signals. Good. The operation unit 108 may be configured with up / down / left / right keys, a power switch, a mode dial, a shutter button, and the like. The shutter button may be capable of detecting a pressed state such as half-pressed, fully-pressed, or released. For example, the focus control may be started when the shutter button is half-pressed, and the focus control may be ended when the half-press is released. Furthermore, it may be configured such that shooting is started when the shutter button is fully pressed.

(露光制御について)
ここで、本実施形態に係る露光制御について説明する。なお、メカニカルシャッター及び/又は電子シャッターによる露光制御は、制御部107の機能により実現される。
(About exposure control)
Here, the exposure control according to the present embodiment will be described. Note that the exposure control by the mechanical shutter and / or the electronic shutter is realized by the function of the control unit 107.

本実施形態に係る制御部107は、撮像面を複数の撮像領域に分け、撮像領域毎に異なる露光量で撮像するように露光制御する機能を有する。例えば、制御部107は、一又は複数のラインを撮像領域の単位(以下、ライン群)とし、奇数番目のライン群に対する露光量を低く設定し、偶数番目のライン群に対する露光量を高く設定する。このように設定すると、図3に模式的に示した撮影画像PINのように、奇数番目のライン群を構成する画素が低輝度となり、偶数番目のライン群を構成する画素が高輝度となる。このように、本実施形態に係る制御部107は、撮像領域毎に異なる露光量で撮像するように露光制御する。なお、以下では、説明の都合上、奇数番目のライン群に対する露光量を低く設定し、偶数番目のライン群に対する露光量を高く設定する露光制御が行われたことを前提として説明を進めるが、本実施形態に係る技術の適用範囲はこれに限定されない。   The control unit 107 according to the present embodiment has a function of performing exposure control so that an imaging surface is divided into a plurality of imaging areas and imaging is performed with different exposure amounts for each imaging area. For example, the control unit 107 sets one or a plurality of lines as a unit of the imaging region (hereinafter, a line group), sets the exposure amount for the odd-numbered line group low, and sets the exposure amount for the even-numbered line group high. . With this setting, like the captured image PIN schematically shown in FIG. 3, the pixels constituting the odd-numbered line group have low luminance, and the pixels constituting the even-numbered line group have high luminance. As described above, the control unit 107 according to the present embodiment performs exposure control so as to capture images with different exposure amounts for each imaging region. In the following description, for the convenience of explanation, the exposure amount for the odd-numbered line group is set low, and the description is advanced on the assumption that the exposure control for setting the exposure amount for the even-numbered line group is set high. The application range of the technology according to the present embodiment is not limited to this.

以上、撮像装置100の全体構成について説明した。   The overall configuration of the imaging apparatus 100 has been described above.

[1−2:画像信号処理部103の構成]
次に、図2を参照しながら、画像信号処理部103の詳細な機能構成について説明する。図2は、画像信号処理部103の詳細な機能構成を示した説明図である。なお、図2には主にHDR画像の生成に係る構成要素を示し、その他の構成要素については記載を省略している。
[1-2: Configuration of Image Signal Processing Unit 103]
Next, a detailed functional configuration of the image signal processing unit 103 will be described with reference to FIG. FIG. 2 is an explanatory diagram showing a detailed functional configuration of the image signal processing unit 103. Note that FIG. 2 mainly shows constituent elements related to generation of an HDR image, and description of other constituent elements is omitted.

図2に示すように、画像信号処理部103は、主に、画像分離部131と、高輝度画像補間部132と、輝度低減部133と、輝度増加部134と、低輝度画像補間部135と、高輝度画像ブレンド部136と、高輝度画像マージ部137と、低輝度画像ブレンド部138と、低輝度画像マージ部139と、HDR処理部140とにより構成される。   As shown in FIG. 2, the image signal processing unit 103 mainly includes an image separation unit 131, a high luminance image interpolation unit 132, a luminance reduction unit 133, a luminance increase unit 134, and a low luminance image interpolation unit 135. The high luminance image blending unit 136, the high luminance image merging unit 137, the low luminance image blending unit 138, the low luminance image merging unit 139, and the HDR processing unit 140.

画像信号処理部103には、撮像領域毎に異なる露光量で撮像された画像信号(以下、撮影画像PIN)が入力される。ここでは、撮影画像PINを構成する奇数番目のライン群が低露光量で撮像されたものであり、偶数番目のライン群が高露光量で撮像されたものであると仮定して説明を進める。この撮影画像PINは、まず、画像分離部131に入力される。撮影画像PINが入力されると、画像分離部131は、図3に示すように、入力された撮影画像PINを偶数番目のライン群で構成される画像(以下、高輝度画像P1)と、奇数番目のライン群で構成される画像(以下、低輝度画像P2)とに分離する。   The image signal processing unit 103 receives an image signal (hereinafter, “captured image PIN”) captured with different exposure amounts for each imaging region. Here, the description will be made on the assumption that the odd-numbered line group constituting the photographed image PIN is captured with a low exposure amount and the even-numbered line group is captured with a high exposure amount. The captured image PIN is first input to the image separation unit 131. When the captured image PIN is input, the image separation unit 131, as shown in FIG. 3, the input captured image PIN is an image composed of an even-numbered line group (hereinafter referred to as a high brightness image P <b> 1) and an odd number. The image is separated into an image composed of the th line group (hereinafter referred to as a low luminance image P2).

図2に示すように、高輝度画像P1は、高輝度画像補間部132、輝度低減部133、及び高輝度画像マージ部137に入力される。一方、低輝度画像P2は、輝度増加部134、低輝度画像補間部135、及び低輝度画像マージ部139に入力される。   As shown in FIG. 2, the high luminance image P1 is input to the high luminance image interpolation unit 132, the luminance reduction unit 133, and the high luminance image merge unit 137. On the other hand, the low luminance image P2 is input to the luminance increasing unit 134, the low luminance image interpolating unit 135, and the low luminance image merging unit 139.

高輝度画像P1が入力された高輝度画像補間部132は、図3に示すように、入力された高輝度画像P1を構成する偶数番目のライン群を用いて補間処理を実行し、奇数番目のライン群に対応する画素情報を推定して高輝度補間画像PIP1を生成する。なお、補間処理の詳細については後述する。また、高輝度補間画像PIP1は、高輝度画像ブレンド部136に入力される。また、高輝度画像P1が入力された輝度低減部133は、図3に示すように、高輝度画像P1の輝度を低輝度画像P2と同じ輝度まで低減(ゲインダウン)し、輝度低減画像PGDを生成する。そして、輝度低減画像PGDは、低輝度画像ブレンド部138に入力される。   As shown in FIG. 3, the high-brightness image interpolating unit 132 to which the high-brightness image P1 is input performs an interpolation process using the even-numbered line group constituting the input high-brightness image P1, and the odd-numbered Pixel information corresponding to the line group is estimated to generate a high-intensity interpolation image PIP1. Details of the interpolation processing will be described later. The high-intensity interpolation image PIP1 is input to the high-intensity image blending unit 136. Further, as shown in FIG. 3, the luminance reduction unit 133 to which the high luminance image P1 is input reduces (gains down) the luminance of the high luminance image P1 to the same luminance as that of the low luminance image P2, and generates the luminance reduced image PGD. Generate. Then, the reduced brightness image PGD is input to the low brightness image blend unit 138.

一方で、低輝度画像P2が入力された低輝度画像補間部135は、図3に示すように、入力された低輝度画像P2を構成する奇数番目のライン群を用いて補間処理を実行し、偶数番目のライン群に対応する画素情報を推定して低輝度補間画像PIP2を生成する。なお、補間処理の詳細については後述する。また、低輝度補間画像PIP2は、低輝度画像ブレンド部138に入力される。また、低輝度画像P2が入力された輝度増加部134は、図3に示すように、低輝度画像P2の輝度を高輝度画像P1と同じ輝度まで増加(ゲインアップ)し、輝度増加画像PGUを生成する。そして、輝度増加画像PGUは、高輝度画像ブレンド部136に入力される。   On the other hand, as illustrated in FIG. 3, the low-brightness image interpolation unit 135 to which the low-brightness image P2 has been input performs an interpolation process using the odd-numbered line groups that constitute the input low-brightness image P2. The pixel information corresponding to the even-numbered line group is estimated to generate the low luminance interpolation image PIP2. Details of the interpolation processing will be described later. Further, the low-brightness interpolated image PIP2 is input to the low-brightness image blending unit 138. Further, the luminance increasing unit 134 to which the low luminance image P2 is input increases (gains up) the luminance of the low luminance image P2 to the same luminance as the high luminance image P1, as shown in FIG. Generate. Then, the brightness increase image PGU is input to the high brightness image blend unit 136.

上記の通り、高輝度画像ブレンド部136には、高輝度補間画像PIP1及び輝度増加画像PGUが入力される。高輝度補間画像PIP1及び輝度増加画像PGUが入力されると、高輝度画像ブレンド部136は、入力された高輝度補間画像PIP1と輝度増加画像PGUとをブレンドし、高輝度ブレンド画像PBL1を生成する。なお、ブレンド処理の詳細については後述する。高輝度ブレンド画像PBL1は、高輝度画像マージ部137に入力される。このとき、高輝度画像マージ部137には、偶数番目のライン群で構成される高輝度画像P1と、奇数番目のライン群で構成される高輝度ブレンド画像PBL1とが入力されている。   As described above, the high-intensity image blending unit 136 receives the high-intensity interpolation image PIP1 and the luminance-increasing image PGU. When the high luminance interpolation image PIP1 and the luminance increase image PGU are input, the high luminance image blend unit 136 blends the input high luminance interpolation image PIP1 and the luminance increase image PGU, and generates a high luminance blend image PBL1. . Details of the blending process will be described later. The high luminance blend image PBL1 is input to the high luminance image merging unit 137. At this time, the high-intensity image merge unit 137 receives the high-intensity image P1 composed of even-numbered lines and the high-intensity blended image PBL1 composed of odd-numbered lines.

高輝度画像P1及び高輝度ブレンド画像PBL1が入力されると、高輝度画像マージ部137は、入力された高輝度画像P1と高輝度ブレンド画像PBL1とをマージして高輝度マージ画像PM1を生成する。つまり、高輝度マージ画像PM1を構成する偶数番目のライン群は、高輝度画像P1を構成する偶数番目のライン群で形成されている。一方、高輝度マージ画像PM1を構成する奇数番目のライン群は、高輝度ブレンド画像PBL1を構成する奇数番目のライン群で形成されている。このようにして生成された高輝度マージ画像PM1は、HDR処理部140に入力される。   When the high-intensity image P1 and the high-intensity blend image PBL1 are input, the high-intensity image merge unit 137 merges the input high-intensity image P1 and the high-intensity blend image PBL1 to generate a high-intensity merge image PM1. . That is, the even-numbered line group constituting the high-intensity merged image PM1 is formed by the even-numbered line group constituting the high-intensity image P1. On the other hand, the odd-numbered line group constituting the high-intensity merged image PM1 is formed of the odd-numbered line group constituting the high-intensity blended image PBL1. The high-intensity merged image PM1 generated in this way is input to the HDR processing unit 140.

一方で、低輝度画像ブレンド部138には、低輝度補間画像PIP2及び輝度低減画像PGDが入力される。低輝度補間画像PIP2及び輝度低減画像PGDが入力されると、低輝度画像ブレンド部138は、入力された低輝度補間画像PIP2と輝度低減画像PGDとをブレンドし、低輝度ブレンド画像PBL2を生成する。なお、ブレンド処理の詳細については後述する。低輝度ブレンド画像PBL2は、低輝度画像マージ部139に入力される。このとき、低輝度画像マージ部139には、奇数番目のライン群で構成される低輝度画像P2と、偶数番目のライン群で構成される低輝度ブレンド画像PBL2とが入力されている。   On the other hand, the low luminance interpolated image PIP2 and the luminance reduced image PGD are input to the low luminance image blending unit 138. When the low luminance interpolation image PIP2 and the luminance reduced image PGD are input, the low luminance image blending unit 138 blends the input low luminance interpolation image PIP2 and the luminance reduced image PGD to generate a low luminance blended image PBL2. . Details of the blending process will be described later. The low luminance blend image PBL2 is input to the low luminance image merge unit 139. At this time, the low-brightness image merge unit 139 receives the low-brightness image P2 configured by the odd-numbered line group and the low-brightness blended image PBL2 configured by the even-numbered line group.

低輝度画像P2及び低輝度ブレンド画像PBL2が入力されると、低輝度画像マージ部139は、入力された低輝度画像P2と低輝度ブレンド画像PBL2とをマージして低輝度マージ画像PM2を生成する。つまり、低輝度マージ画像PM2を構成する奇数番目のライン群は、低輝度画像P2を構成する奇数番目のライン群で形成されている。一方、低輝度マージ画像PM2を構成する偶数番目のライン群は、低輝度ブレンド画像PBL2を構成する偶数番目のライン群で形成されている。このようにして生成された低輝度マージ画像PM2は、HDR処理部140に入力される。   When the low-intensity image P2 and the low-intensity blend image PBL2 are input, the low-intensity image merge unit 139 merges the input low-intensity image P2 and the low-intensity blend image PBL2 to generate a low-intensity merge image PM2. . That is, the odd-numbered line group constituting the low-luminance merged image PM2 is formed of the odd-numbered line group constituting the low-luminance image P2. On the other hand, the even-numbered line group constituting the low-intensity merged image PM2 is formed of the even-numbered line group constituting the low-intensity blended image PBL2. The low-intensity merged image PM2 generated in this way is input to the HDR processing unit 140.

高輝度マージ画像PM1及び低輝度マージ画像PM2が入力されると、HDR処理部140は、入力された高輝度マージ画像PM1と低輝度マージ画像PM2とを合成してHDR画像PHDRを生成する。このようにして生成されたHDR画像PHDRは、画像信号処理部103から出力され、圧縮処理部109により圧縮処理が施されたり、LCDモニタ111に表示されたり、メモリカード113に記録されたりする。   When the high-intensity merged image PM1 and the low-intensity merged image PM2 are input, the HDR processing unit 140 combines the input high-intensity merged image PM1 and the low-intensity merged image PM2 to generate an HDR image PHDR. The HDR image PHDR generated in this way is output from the image signal processing unit 103 and subjected to compression processing by the compression processing unit 109, displayed on the LCD monitor 111, or recorded on the memory card 113.

以上、画像信号処理部103の詳細な機能構成について説明した。なお、上記の説明において詳細な説明を省略した補間処理やブレンド処理などについては後述する。   The detailed functional configuration of the image signal processing unit 103 has been described above. Note that interpolation processing, blend processing, and the like, which are not described in detail in the above description, will be described later.

<2:HDR画像の生成方法>
次に、本実施形態に係るHDR画像の生成方法について説明する。
<2: HDR image generation method>
Next, an HDR image generation method according to this embodiment will be described.

[2−1:全体的な流れ]
まず、図4を参照しながら、本実施形態に係るHDR画像の生成処理の全体的な流れを説明する。図4は、本実施形態に係るHDR画像の生成処理の全体的な流れを説明するための説明図である。なお、図4に示した処理は、上述した画像信号処理部103の機能により実現される。
[2-1: Overall flow]
First, an overall flow of HDR image generation processing according to the present embodiment will be described with reference to FIG. FIG. 4 is an explanatory diagram for explaining the overall flow of HDR image generation processing according to the present embodiment. Note that the processing shown in FIG. 4 is realized by the function of the image signal processing unit 103 described above.

図4に示すように、まず、画像信号処理部103は、撮影画像PINを高輝度画像P1と低輝度画像P2とに分離する(S101)。次いで、画像信号処理部103は、補間処理により高輝度画像P1から高輝度補間画像PIP1を生成する(S102)。次いで、画像信号処理部103は、高輝度画像P1をゲインダウンして輝度低減画像PGDを生成する(S103)。   As shown in FIG. 4, first, the image signal processing unit 103 separates the captured image PIN into a high luminance image P1 and a low luminance image P2 (S101). Next, the image signal processing unit 103 generates a high luminance interpolation image PIP1 from the high luminance image P1 by interpolation processing (S102). Next, the image signal processing unit 103 reduces the gain of the high luminance image P1 to generate a luminance reduced image PGD (S103).

次いで、画像信号処理部103は、補間処理により低輝度画像P2から低輝度補間画像PIP2を生成する(S104)。次いで、画像信号処理部103は、低輝度画像P2をゲインアップして輝度増加画像PGUを生成する(S105)。次いで、画像信号処理部103は、高輝度補間画像PIP1及び輝度増加画像PGUをブレンドして高輝度ブレンド画像PBL1を生成する(S106)。次いで、画像信号処理部103は、低輝度補間画像PIP2及び輝度低減画像PGDをブレンドして低輝度ブレンド画像PBL2を生成する(S107)。   Next, the image signal processing unit 103 generates a low luminance interpolation image PIP2 from the low luminance image P2 by interpolation processing (S104). Next, the image signal processing unit 103 gains up the low luminance image P2 to generate a luminance increased image PGU (S105). Next, the image signal processing unit 103 blends the high-intensity interpolation image PIP1 and the luminance-increasing image PGU to generate a high-intensity blended image PBL1 (S106). Next, the image signal processing unit 103 blends the low luminance interpolation image PIP2 and the luminance reduced image PGD to generate a low luminance blend image PBL2 (S107).

次いで、画像信号処理部103は、高輝度ブレンド画像PBL1と高輝度画像P1とをマージして高輝度マージ画像PM1を生成する(S108)。次いで、画像信号処理部103は、低輝度ブレンド画像PBR2と低輝度画像P2とをマージして低輝度マージ画像PM2を生成する(S109)。次いで、画像信号処理部103は、高輝度マージ画像PM1と低輝度マージ画像PM2とを合成してHDR画像PHDRを生成し(S110)、一連の処理を終了する。   Next, the image signal processing unit 103 merges the high luminance blend image PBL1 and the high luminance image P1 to generate a high luminance merge image PM1 (S108). Next, the image signal processing unit 103 merges the low luminance blend image PBR2 and the low luminance image P2 to generate a low luminance merge image PM2 (S109). Next, the image signal processing unit 103 combines the high-intensity merge image PM1 and the low-intensity merge image PM2 to generate an HDR image PHDR (S110), and ends a series of processes.

以上、HDR画像の生成処理の全体的な流れについて説明した。なお、一部の処理ステップについては、処理の順序を入れ替えてもよい。   The overall flow of the HDR image generation process has been described above. Note that the processing order of some processing steps may be changed.

(Linterpolation:図5)
ここで、図5を参照しながら、ブレンド画像(上記の高輝度ブレンド画像PBL1又は低輝度ブレンド画像PBL2)の生成方法について、より具体的に説明する。
(Linterpolation: Fig. 5)
Here, a method for generating a blend image (the high-intensity blend image PBL1 or the low-intensity blend image PBL2) will be described more specifically with reference to FIG.

図5には、一例として、低輝度ブレンド画像PBL2の具体的な生成方法を示した。図5に示すように、本実施形態に係るブレンド画像の生成方法は、近隣画素と、輝度値の異なる同一位置の画素とを利用する方法である。図5の例では、高露光量で撮像されたライン群に含まれる画素Qと、低露光量で撮像された近隣のライン群に含まれる画素1〜画素6とを利用して、画素Qの位置に対応する低露光量で撮像された画素(低輝度の画素)を推定している。   FIG. 5 shows a specific method for generating the low-intensity blend image PBL2 as an example. As shown in FIG. 5, the blend image generation method according to this embodiment is a method that uses neighboring pixels and pixels at the same position with different luminance values. In the example of FIG. 5, the pixel Q included in the line group captured with a high exposure amount and the pixels 1 to 6 included in the neighboring line group imaged with a low exposure amount are used. A pixel (low luminance pixel) imaged with a low exposure amount corresponding to the position is estimated.

図5に示すように、画素Qの位置にある低輝度の画素を推定する場合、その画素と同色で近隣に位置する画素(この例では画素1〜画素6)が選択される。そして、画素1〜画素6の画素値を用いた補間処理により、画素Qの位置における画素の画素値が算出される。ここで用いる補間処理としては、例えば、最近傍補間(図6を参照)、線形補間(図7を参照)、多項式補間(図8を参照)などが利用可能である。さらに、画素1〜画素6の位置におけるエッジ情報を補間処理に利用してもよい(図9を参照)。   As shown in FIG. 5, when a low-luminance pixel at the position of the pixel Q is estimated, pixels in the same color and in the vicinity (pixels 1 to 6 in this example) are selected. Then, the pixel value of the pixel at the position of the pixel Q is calculated by interpolation processing using the pixel values of the pixels 1 to 6. As the interpolation process used here, for example, nearest neighbor interpolation (see FIG. 6), linear interpolation (see FIG. 7), polynomial interpolation (see FIG. 8), or the like can be used. Further, the edge information at the positions of the pixels 1 to 6 may be used for the interpolation process (see FIG. 9).

一方で、画素Qの位置にある高輝度の画素(高露光量で撮像された画素)が低露光量で撮像された画素と同じ輝度までゲインダウンされる。そして、ゲインダウン後の画素と、上記の補間処理により生成された画素とがブレンドされ、画素Qの位置における補間画素(低露光量で撮像された画素の推定画素)が生成される。このように、補間処理とブレンド処理とを組み合わせた画素推定手法を本稿においてはLinterpolationと呼ぶことがある。この画素推定手法を用いることで、解像度の低下と位置ずれとを抑制することができる。   On the other hand, a high-luminance pixel at the position of the pixel Q (a pixel imaged with a high exposure amount) is gain-downed to the same luminance as a pixel imaged with a low exposure amount. Then, the pixel after the gain reduction and the pixel generated by the above interpolation process are blended to generate an interpolation pixel at the position of the pixel Q (an estimated pixel imaged with a low exposure amount). Thus, the pixel estimation method combining the interpolation process and the blend process may be referred to as “interpolation” in this paper. By using this pixel estimation method, it is possible to suppress a decrease in resolution and a positional deviation.

[2−2:補間画像の生成方法]
ここで、図6〜図9を参照しながら、補間処理の詳細について説明する。
[2-2: Method for generating interpolation image]
Here, details of the interpolation processing will be described with reference to FIGS.

(最近傍補間:図6)
最も単純な補間手法としては、図6に示すような最近傍補間がある。最近傍補間とは、補間対象の位置に最も近い点を選択し、選択した点の値を補間対象の位置における点の値とする補間手法である。つまり、補間処理により画素値を推定したい画素(以下、推定画素)に最も近い画素を選択し、選択した画素の画素値を推定画素の画素値とする補間手法である。この補間手法は、最近傍画素の画素値をそのまま利用するため、推定精度は劣るが、処理負荷はとても低い。
(Nearest neighbor interpolation: Fig. 6)
As the simplest interpolation method, there is nearest neighbor interpolation as shown in FIG. Nearest neighbor interpolation is an interpolation method in which a point closest to the position to be interpolated is selected and the value of the selected point is used as the value of the point at the position to be interpolated. In other words, this is an interpolation method in which a pixel closest to a pixel whose pixel value is to be estimated by interpolation processing (hereinafter referred to as an estimated pixel) is selected and the pixel value of the selected pixel is used as the pixel value of the estimated pixel. Since this interpolation method uses the pixel value of the nearest pixel as it is, the estimation accuracy is inferior, but the processing load is very low.

(線形補間:図7)
また、比較的単純な補間手法としては、図7に示すような線形補間がある。線形補間とは、隣接する2点を直線で結び、その直線上の値を補間対象の位置における点の値とする補間手法である。例えば、位置xにある画素の画素値PIPは、下記の式(1)に基づいて算出される。但し、係数A及びBは、近隣画素の位置及び画素値から算出される。この補間手法は、最近傍補間に比べて推定精度が高く、また、一次式を利用しているため、比較的処理負荷も低い。
(Linear interpolation: Fig. 7)
As a relatively simple interpolation method, there is a linear interpolation as shown in FIG. Linear interpolation is an interpolation method in which two adjacent points are connected by a straight line, and the value on the straight line is the value of the point at the position to be interpolated. For example, the pixel value PIP of the pixel at the position x is calculated based on the following formula (1). However, the coefficients A and B are calculated from the positions and pixel values of neighboring pixels. This interpolation method has a higher estimation accuracy than the nearest neighbor interpolation and uses a linear expression, so that the processing load is relatively low.


PIP(x)=A*x+B
…(1)

PIP (x) = A * x + B
... (1)

(多項式補間:図8)
また、やや高度な補間手法としては、図8に示すような多項式補間がある。多項式補間とは、近隣にある複数の点を多項式でフィッティングし、その多項式上の点を補間対象の位置における点の値とする補間手法である。例えば、位置xにある画素の画素値PIPは、下記の式(2)に基づいて算出される。但し、係数A0,…,Anは、近隣にある画素の位置及び画素値から算出される。この補間手法は、線形補間よりも推定精度が高いが、多項式を利用しているため、次数nが大きくなると処理負荷が高くなる。
(Polynomial interpolation: Fig. 8)
A somewhat advanced interpolation method is polynomial interpolation as shown in FIG. Polynomial interpolation is an interpolation method in which a plurality of neighboring points are fitted with a polynomial, and points on the polynomial are used as point values at positions to be interpolated. For example, the pixel value PIP of the pixel at the position x is calculated based on the following equation (2). However, the coefficients A0,..., An are calculated from the positions and pixel values of neighboring pixels. This interpolation method has higher estimation accuracy than linear interpolation, but uses a polynomial, so that the processing load increases as the order n increases.


PIP(x)=A0+A1*x+…+An*xn
…(2)

PIP (x) = A0 + A1 * x + ... + An * xn
... (2)

(エッジ情報を考慮した補間:図9)
さらに高度な補間手法として、図9に示すように、近隣画素のエッジ情報を考慮した補間手法(以下、エッジ考慮手法)が考えられる。なお、この補間手法は、上述した線形補間などと組み合わせて利用する。ここでは線形補間と組み合わせる例を念頭において説明を進めることにする。
(Interpolation considering edge information: Fig. 9)
As a more advanced interpolation method, as shown in FIG. 9, an interpolation method that considers edge information of neighboring pixels (hereinafter, an edge consideration method) can be considered. This interpolation method is used in combination with the linear interpolation described above. Here, the explanation will be made with an example in combination with linear interpolation in mind.

まず、画像信号処理部103は、線形補間により近隣画素の画素値から推定画素の画素値を算出する。例えば、画像信号処理部103は、画素px3と画素px3’とを用いて、線形補間により推定画素の画素値PIP3を算出する。さらに、画像信号処理部103は、近隣画素の画素値から各方向についてエッジ情報を抽出する。例えば、画像信号処理部103は、画素px3と画素px3’とを結ぶ方向についてエッジ情報e3を抽出する。そして、画像信号処理部103は、線形補間により算出した画素値PIPd及びエッジ情報ed(図9の例ではd=−3〜3)を用いて推定画素の画素値PIPを算出する。   First, the image signal processing unit 103 calculates the pixel value of the estimated pixel from the pixel value of the neighboring pixel by linear interpolation. For example, the image signal processing unit 103 calculates the pixel value PIP3 of the estimated pixel by linear interpolation using the pixel px3 and the pixel px3 ′. Further, the image signal processing unit 103 extracts edge information for each direction from the pixel values of neighboring pixels. For example, the image signal processing unit 103 extracts the edge information e3 in the direction connecting the pixel px3 and the pixel px3 ′. Then, the image signal processing unit 103 calculates the pixel value PIP of the estimated pixel using the pixel value PIPd calculated by linear interpolation and the edge information ed (d = −3 to 3 in the example of FIG. 9).

画素値PIPは、下記の式(3)に基づいて算出される。また、下記の式(3)に含まれる関数w(・)は、下記の式(4)により定義される。但し、σdは、カーネルの大きさを表す。   The pixel value PIP is calculated based on the following equation (3). A function w (•) included in the following equation (3) is defined by the following equation (4). However, σd represents the size of the kernel.

Figure 2013118492
…(3)

Figure 2013118492
…(4)
Figure 2013118492
... (3)

Figure 2013118492
(4)

以上、補間処理の詳細について説明した。   The details of the interpolation processing have been described above.

[2−3:ブレンド画像の生成方法]
次に、図10〜図13を参照しながら、ブレンド処理の詳細について説明する。
[2-3: Method for generating blend image]
Next, details of the blending process will be described with reference to FIGS.

(閾値を用いたブレンド手法)
図10に示すように、長時間露光の場合、シーンの明るさがbl1からbl2の領域で感度が得られる。しかし、シーンの明るさがbl2を超えると、撮像素子の飽和出力レベルを超えてしまい、出力レベルが一定となって感度が得られなくなる。一方、短時間露光の場合、シーンの明るさがbl3(bl3>bl1)からbl4(bl4>bl2)の領域で感度が得られる。つまり、シーンの明るさがbl3を下回る領域では黒つぶれしてしまうが、シーンの明るさがbl2を超えてもbl4までの領域については白飛びせずに感度が得られる。従って、長時間露光で撮像された画像と、短時間露光で撮像された画像とを合成することにより、広いダイナミックレンジの画像が得られる。
(Blend method using threshold)
As shown in FIG. 10, in the case of long exposure, the sensitivity is obtained in the region where the brightness of the scene is bl1 to bl2. However, when the brightness of the scene exceeds bl2, the saturation output level of the image sensor is exceeded, and the output level becomes constant and sensitivity cannot be obtained. On the other hand, in the case of short-time exposure, sensitivity can be obtained in a region where the brightness of the scene is bl3 (bl3> bl1) to bl4 (bl4> bl2). In other words, the area where the brightness of the scene is less than bl3 is blacked out, but even if the brightness of the scene exceeds bl2, the sensitivity up to the area up to bl4 can be obtained without whiteout. Therefore, an image with a wide dynamic range can be obtained by synthesizing an image captured with long exposure and an image captured with short exposure.

ここで、長時間露光で撮像された画像(以下、長時間露光画像)をゲインダウンする場合について考えてみよう。長時間露光画像をゲインダウンするということは、図11に示すように、長時間露光で撮像した場合の出力信号特性を全体的に抑圧することと等価である(一点鎖線を参照)。ゲインダウンした長時間露光画像に対応する出力信号特性は、シーンの明るさがbl2までの領域において、短時間露光で撮像した場合の出力信号特性と近似しているが、bl2よりもシーンの明るさが大きい領域において異なる。具体的には、シーンの明るさがbl2を超える領域において、ゲインダウンした長時間露光画像に対応する出力信号は、飽和信号レベルよりも低いレベルに抑圧されてしまっている。つまり、ゲインダウンにより明るいシーンの情報が欠落してしまっているのである。   Here, let us consider a case where the gain of an image captured by long exposure (hereinafter, long exposure image) is reduced. Reducing the gain of the long exposure image is equivalent to suppressing the output signal characteristics as a whole when the image is captured with long exposure as shown in FIG. 11 (see the alternate long and short dash line). The output signal characteristic corresponding to the long-exposure image with the gain reduced approximates the output signal characteristic when the image is captured with short-time exposure in an area where the scene brightness is up to bl2, but the brightness of the scene is higher than that of bl2. In large areas. Specifically, in the area where the brightness of the scene exceeds bl2, the output signal corresponding to the long-exposure image with the gain reduced is suppressed to a level lower than the saturation signal level. That is, bright scene information is lost due to gain reduction.

そこで、図12に示すように、シーンの明るさbl2を閾値とし、閾値よりシーンの明るさが大きい領域については短時間露光画像を利用し、閾値よりシーンの明るさが小さい領域についてはゲインダウンした長時間露光画像を利用するブレンド手法が考案された。このブレンド手法を低輝度ブレンド画像PBL2の生成に適用する場合(図4のステップS107への適用)、シーンの明るさが閾値を上回る領域については低輝度補間画像PIP2を利用し、閾値を下回る領域については輝度低減画像PGDを利用するように両画像がブレンドされる。このように閾値を用いたブレンド手法を適用することで、情報の欠落が抑制され、高解像度のブレンド画像が得られる。   Therefore, as shown in FIG. 12, the scene brightness bl2 is used as a threshold value, a short-time exposure image is used for an area where the scene brightness is larger than the threshold value, and gain reduction is performed for an area where the scene brightness is smaller than the threshold value. A blending technique using long exposure images was devised. When this blending method is applied to the generation of the low-intensity blended image PBL2 (application to step S107 in FIG. 4), the region where the brightness of the scene exceeds the threshold uses the low-intensity interpolation image PIP2, and the region falls below the threshold For, both images are blended to utilize the reduced brightness image PGD. By applying the blend method using the threshold value in this way, information loss is suppressed and a high-resolution blend image is obtained.

(αブレンド)
また、図13に示すように、ゲインダウンした長時間露光画像と短時間露光で撮像した画像とをαブレンドする方法も考えられる。αブレンドとは、下記の式(5)のように、係数αを用いてブレンド画像の画素値を算出する方法である。例えば、低輝度補間画像PIP2の画素値をpxIPとし、対応する輝度低減画像PGDの画素値をpxGDとすると、低輝度ブレンド画像PBL2の画素値pxBLは、下記の式(5)に基づいて算出される。
(Α blend)
As shown in FIG. 13, a method of α blending a long-exposure image with reduced gain and an image captured by short-time exposure is also conceivable. The α blend is a method for calculating the pixel value of the blend image using the coefficient α as in the following formula (5). For example, assuming that the pixel value of the low luminance interpolation image PIP2 is pxIP and the pixel value of the corresponding luminance reduced image PGD is pxGD, the pixel value pxBL of the low luminance blend image PBL2 is calculated based on the following equation (5). The


pxBL=α*pxIP+(α−1)*pxGD
…(5)

pxBL = α * pxIP + (α−1) * pxGD
... (5)

以上、ブレンド処理の詳細について説明した。なお、上記の説明においては、低輝度ブレンド画像PBL2の生成方法を例に挙げて説明したが、閾値を用いたブレンド手法及びαブレンドは、いずれも、高輝度ブレンド画像PBL1の生成にも応用可能である。   The details of the blending process have been described above. In the above description, the method for generating the low-intensity blended image PBL2 has been described as an example. However, both the blending method using the threshold and the α blend can be applied to the generation of the high-intensity blended image PBL1. It is.

以上説明したように、本実施形態に係るHDR画像の生成方法及び撮像装置100の構成を適用すると、高解像度のHDR画像を得ることが可能になる。特に、本実施形態の技術を適用すると、広いダイナミックレンジの画像が得られることはもちろん、一回の撮影でHDR画像の生成が実現できるため、動体の撮影に対する適応性が得られる。さらに、位置ずれが無くなり、シャギーなどが発生しない。そして、合成した画像において、重複するダイナミックレンジの解像度が維持される。   As described above, when the HDR image generation method and the configuration of the imaging apparatus 100 according to the present embodiment are applied, a high-resolution HDR image can be obtained. In particular, when the technique of the present embodiment is applied, not only a wide dynamic range image can be obtained, but also HDR image generation can be realized by one shooting, so that adaptability to moving object shooting can be obtained. Further, there is no position shift and no shaggy occurs. In the synthesized image, the resolution of the overlapping dynamic range is maintained.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上記の説明においては、撮像面を2種類のライン群に分け、それぞれ異なる露光量で撮像した画像を利用してHDR画像を生成する方法について紹介したが、3種類以上のライン群に分けてもよいし、ライン群の分け方も様々に変形することができる。さらに、ライン群を構成するライン数も任意である。また、補間手法やブレンド手法の組み合わせも自由であり、複数の手法を組み合わせてもよい。また、上記の説明ではデジタルスチルカメラやデジタルビデオカメラなどの撮像機能を搭載した装置を念頭において説明を進めてきたが、こうした装置で撮像された画像を利用してHDR画像を生成する画像処理装置を実現することも可能である。その場合、上記説明から、画像処理装置の各機能を実現することが可能なコンピュータプログラムや、こうしたコンピュータプログラムが記録された記録媒体などの実現方法にも想到可能であろう。   For example, in the above description, the imaging surface is divided into two types of line groups, and the method of generating an HDR image using images captured with different exposure amounts has been introduced. However, the imaging surface is divided into three or more types of line groups. Alternatively, the way of dividing the line group can be variously modified. Furthermore, the number of lines constituting the line group is also arbitrary. Moreover, the combination of the interpolation method and the blend method is also free, and a plurality of methods may be combined. In the above description, the description has been made with an apparatus equipped with an imaging function such as a digital still camera or a digital video camera in mind, but an image processing apparatus that generates an HDR image using an image captured by such an apparatus. Can also be realized. In that case, from the above description, a computer program capable of realizing each function of the image processing apparatus and a method for realizing a recording medium on which such a computer program is recorded can be conceived.

100 撮像装置
101 レンズ
102 撮像素子
103 画像信号処理部
104 CPU
105 DRAM
106 ROM
107 制御部
108 操作部
109 圧縮処理部
110 モニタ駆動部
111 LCDモニタ
112 メモリインターフェース
113 メモリカード
131 画像分離部
132 高輝度画像補間部
133 輝度低減部
134 輝度増加部
135 低輝度画像補間部
136 高輝度画像ブレンド部
137 高輝度画像マージ部
138 低輝度画像ブレンド部
139 低輝度画像マージ部
140 HDR処理部
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Lens 102 Image pick-up element 103 Image signal processing part 104 CPU
105 DRAM
106 ROM
DESCRIPTION OF SYMBOLS 107 Control part 108 Operation part 109 Compression processing part 110 Monitor drive part 111 LCD monitor 112 Memory interface 113 Memory card 131 Image separation part 132 High brightness image interpolation part 133 Brightness reduction part 134 Brightness increase part 135 Low brightness image interpolation part 136 High brightness Image blending unit 137 High luminance image merging unit 138 Low luminance image blending unit 139 Low luminance image merging unit 140 HDR processing unit

Claims (10)

撮像素子の撮像面を第1のライン群と第2のライン群とに分け、前記第1のライン群については第1の露光量で撮像し、前記第2のライン群については前記第1の露光量と異なる第2の露光量で撮像して得られる撮影画像を取得する画像取得部と、
前記撮影画像の第2のライン群で形成される第2の画像から、前記第1のライン群を構成する各画素の画素値を推定して第1の推定画像を生成する第1の推定画像生成部と、
前記撮影画像の第1のライン群で形成される第1の画像の輝度を前記第2の画像と同じ輝度に調整して第1の調整画像を生成する第1の調整画像生成部と、
前記第1の推定画像と前記第1の調整画像とをブレンドして第1のブレンド画像を生成する第1のブレンド画像生成部と、前記第1のブレンド画像と前記第2の画像とを合成して第1の合成画像を生成する第1の画像合成部と、
前記第1の画像から、前記第2のライン群を構成する各画素の画素値を推定して第2の推定画像を生成する第2の推定画像生成部と、
前記第2の画像の輝度を前記第1の画像と同じ輝度に調整して第2の調整画像を生成する第2の調整画像生成部と、
前記第2の推定画像と前記第2の調整画像とをブレンドして第2のブレンド画像を生成する第2のブレンド画像生成部と、前記第2のブレンド画像と前記第1の画像とを合成して第2の合成画像を生成する第2の画像合成部と、
前記第1の合成画像と前記第2の合成画像とを用いて広ダイナミックレンジ画像を生成する広ダイナミックレンジ画像生成部と、
を備える
ことを特徴とする、画像処理装置。
The imaging surface of the imaging device is divided into a first line group and a second line group, the first line group is imaged with a first exposure amount, and the second line group is the first line group. An image acquisition unit for acquiring a captured image obtained by imaging with a second exposure amount different from the exposure amount;
A first estimated image for generating a first estimated image by estimating a pixel value of each pixel constituting the first line group from a second image formed by the second line group of the photographed image A generator,
A first adjusted image generating unit that generates a first adjusted image by adjusting the luminance of the first image formed by the first line group of the captured image to the same luminance as the second image;
A first blend image generation unit that blends the first estimated image and the first adjustment image to generate a first blend image, and combines the first blend image and the second image. A first image composition unit for generating a first composite image;
A second estimated image generation unit configured to estimate a pixel value of each pixel constituting the second line group from the first image and generate a second estimated image;
A second adjusted image generation unit configured to generate a second adjusted image by adjusting the luminance of the second image to the same luminance as the first image;
A second blend image generation unit that generates a second blend image by blending the second estimated image and the second adjustment image, and combines the second blend image and the first image. A second image composition unit for generating a second composite image;
A wide dynamic range image generating unit that generates a wide dynamic range image using the first composite image and the second composite image;
An image processing apparatus comprising:
前記第1の推定画像生成部は、前記撮像画像の第2のライン群を構成する各画素の画素値を用いて補間処理を実行することで前記第1のライン群を構成する各画像の画素値を推定し、
前記第2の推定画像生成部は、前記撮像画像の第1のライン群を構成する各画素の画素値を用いて補間処理を実行することで前記第2のライン群を構成する各画像の画素値を推定する
ことを特徴とする、請求項1に記載の画像処理装置。
The first estimated image generation unit performs an interpolation process using pixel values of each pixel that constitutes the second line group of the captured image, so that the pixels of each image that constitute the first line group Estimate the value,
The second estimated image generation unit performs interpolation processing using the pixel values of the pixels that form the first line group of the captured image, so that the pixels of the images that form the second line group The image processing apparatus according to claim 1, wherein a value is estimated.
前記補間処理は、推定対象となる画素の近傍に位置する近傍画素の画素値を当該推定対象となる画素の画素値として利用する近傍補間である
ことを特徴とする、請求項2に記載の画像処理装置。
3. The image according to claim 2, wherein the interpolation processing is neighborhood interpolation using a pixel value of a neighboring pixel located in the vicinity of a pixel to be estimated as a pixel value of the pixel to be estimated. Processing equipment.
前記補間処理は、推定対象となる画素の近傍に位置する近傍画素の輝度情報を用いた線形近似によって当該推定対象となる画素の画素値を推定する線形補間である
ことを特徴とする、請求項2に記載の画像処理装置。
The interpolation processing is linear interpolation in which a pixel value of a pixel to be estimated is estimated by linear approximation using luminance information of neighboring pixels located in the vicinity of the pixel to be estimated. 2. The image processing apparatus according to 2.
前記補間処理は、推定対象となる画素の近傍に位置する近傍画素の輝度情報を用いた多項式近似によって当該推定対象となる画素の画素値を推定する多項式補間である
ことを特徴とする、請求項2に記載の画像処理装置。
The interpolation process is a polynomial interpolation for estimating a pixel value of a pixel to be estimated by polynomial approximation using luminance information of neighboring pixels located in the vicinity of the pixel to be estimated. 2. The image processing apparatus according to 2.
前記第1及び第2の推定画像生成部は、推定対象となる画素の近傍に位置する近傍画素のエッジ情報により重み付けした画素値を用いて前記補間処理を実行する
ことを特徴とする、請求項2〜5のいずれか1項に記載の画像処理装置。
The said 1st and 2nd estimated image generation part performs the said interpolation process using the pixel value weighted by the edge information of the neighboring pixel located in the vicinity of the pixel used as estimation object, The said interpolation process is characterized by the above-mentioned. The image processing apparatus according to any one of 2 to 5.
前記第1のブレンド画像生成部は、前記第1の推定画像と前記第1の調整画像とをアルファブレンドして前記第1のブレンド画像を生成し、
前記第2のブレンド画像生成部は、前記第2の推定画像と前記第2の調整画像とをアルファブレンドして前記第2のブレンド画像を生成する
ことを特徴とする、請求項1〜6のいずれか1項に記載の画像処理装置。
The first blend image generation unit generates the first blend image by alpha blending the first estimated image and the first adjustment image,
The second blended image generation unit generates the second blended image by alpha blending the second estimated image and the second adjusted image. The image processing apparatus according to any one of the above.
前記第1のブレンド画像生成部は、被写体の明るさが所定の閾値を上回る画素領域について前記第1の推定画像を利用し、当該所定の閾値を下回る画素領域について前記第1の調整画像を利用するように前記第1の推定画像と前記第1の調整画像とをブレンドして前記第1のブレンド画像を生成し、
前記第2のブレンド画像生成部は、被写体の明るさが所定の閾値を下回る画素領域について前記第2の推定画像を利用し、当該所定の閾値を上回る画素領域について前記第2の調整画像を利用するように前記第2の推定画像と前記第2の調整画像とをブレンドして前記第2のブレンド画像を生成する
ことを特徴とする、請求項1〜6のいずれか1項に記載の画像処理装置。
The first blended image generation unit uses the first estimated image for a pixel region where the brightness of the subject exceeds a predetermined threshold, and uses the first adjusted image for a pixel region below the predetermined threshold. Blending the first estimated image and the first adjusted image to generate the first blended image,
The second blended image generation unit uses the second estimated image for a pixel region where the brightness of the subject is below a predetermined threshold, and uses the second adjusted image for a pixel region above the predetermined threshold. The image according to any one of claims 1 to 6, wherein the second blended image is generated by blending the second estimated image and the second adjusted image. Processing equipment.
撮像素子の撮像面を第1のライン群と第2のライン群とに分け、前記第1のライン群については第1の露光量で撮像し、前記第2のライン群については前記第1の露光量と異なる第2の露光量で撮像して撮影画像を得る撮像部と、
前記撮影画像の第2のライン群で形成される第2の画像から、前記第1のライン群を構成する各画素の画素値を推定して第1の推定画像を生成する第1の推定画像生成部と、
前記第1の画像の輝度を前記第2の画像と同じ輝度に調整して第1の調整画像を生成する第1の調整画像生成部と、
前記第1の推定画像と前記第1の調整画像とをブレンドして第1のブレンド画像を生成する第1のブレンド画像生成部と、
前記第1のブレンド画像と前記第2の画像とを合成して第1の合成画像を生成する第1の画像合成部と、
前記撮影画像の第1のライン群で形成される第1の画像から、前記第2のライン群を構成する各画素の画素値を推定して第2の推定画像を生成する第2の推定画像生成部と、
前記第2の画像の輝度を前記第1の画像と同じ輝度に調整して第2の調整画像を生成する第2の調整画像生成部と、
前記第2の推定画像と前記第2の調整画像とをブレンドして第2のブレンド画像を生成する第2のブレンド画像生成部と、
前記第2のブレンド画像と前記第1の画像とを合成して第2の合成画像を生成する第2の画像合成部と、
前記第1の合成画像と前記第2の合成画像とを用いて広ダイナミックレンジ画像を生成する広ダイナミックレンジ画像生成部と、
を備える
ことを特徴とする、撮像装置。
The imaging surface of the imaging device is divided into a first line group and a second line group, the first line group is imaged with a first exposure amount, and the second line group is the first line group. An imaging unit that obtains a captured image by imaging with a second exposure amount different from the exposure amount;
A first estimated image for generating a first estimated image by estimating a pixel value of each pixel constituting the first line group from a second image formed by the second line group of the photographed image A generator,
A first adjusted image generation unit that adjusts the luminance of the first image to the same luminance as the second image to generate a first adjusted image;
A first blend image generation unit that blends the first estimated image and the first adjustment image to generate a first blend image;
A first image synthesizing unit that synthesizes the first blend image and the second image to generate a first synthesized image;
A second estimated image that generates a second estimated image by estimating a pixel value of each pixel constituting the second line group from a first image formed by the first line group of the captured image. A generator,
A second adjusted image generation unit configured to generate a second adjusted image by adjusting the luminance of the second image to the same luminance as the first image;
A second blended image generator for blending the second estimated image and the second adjusted image to generate a second blended image;
A second image composition unit that composes the second blend image and the first image to generate a second composite image;
A wide dynamic range image generating unit that generates a wide dynamic range image using the first composite image and the second composite image;
An imaging apparatus comprising:
撮像素子の撮像面を第1のライン群と第2のライン群とに分け、前記第1のライン群については第1の露光量で撮像し、前記第2のライン群については前記第1の露光量と異なる第2の露光量で撮像して得られる撮影画像を取得する画像取得工程と、
前記撮影画像の第2のライン群で形成される第2の画像から、前記第1のライン群を構成する各画素の画素値を推定して第1の推定画像を生成する第1の推定画像生成工程と、
前記第1の画像の輝度を前記第2の画像と同じ輝度に調整して第1の調整画像を生成する第1の調整画像生成工程と、
前記第1の推定画像と前記第1の調整画像とをブレンドして第1のブレンド画像を生成する第1のブレンド画像生成工程と、
前記第1のブレンド画像と前記第2の画像とを合成して第1の合成画像を生成する第1の画像合成工程と、
前記撮影画像の第1のライン群で形成される第1の画像から、前記第2のライン群を構成する各画素の画素値を推定して第2の推定画像を生成する第2の推定画像生成工程と、
前記第2の画像の輝度を前記第1の画像と同じ輝度に調整して第2の調整画像を生成する第2の調整画像生成工程と、
前記第2の推定画像と前記第2の調整画像とをブレンドして第2のブレンド画像を生成する第2のブレンド画像生成工程と、
前記第2のブレンド画像と前記第1の画像とを合成して第2の合成画像を生成する第2の画像合成工程と、
前記第1の合成画像と前記第2の合成画像とを用いて広ダイナミックレンジ画像を生成する広ダイナミックレンジ画像生成工程と、
を含む
ことを特徴とする、画像処理方法。
The imaging surface of the imaging device is divided into a first line group and a second line group, the first line group is imaged with a first exposure amount, and the second line group is the first line group. An image acquisition step of acquiring a captured image obtained by imaging with a second exposure amount different from the exposure amount;
A first estimated image for generating a first estimated image by estimating a pixel value of each pixel constituting the first line group from a second image formed by the second line group of the photographed image Generation process;
A first adjusted image generating step of adjusting the luminance of the first image to the same luminance as the second image to generate a first adjusted image;
A first blend image generating step of generating a first blend image by blending the first estimated image and the first adjustment image;
A first image combining step of combining the first blend image and the second image to generate a first combined image;
A second estimated image that generates a second estimated image by estimating a pixel value of each pixel constituting the second line group from a first image formed by the first line group of the captured image. Generation process;
A second adjusted image generation step of adjusting the luminance of the second image to the same luminance as the first image and generating a second adjusted image;
A second blended image generating step of generating a second blended image by blending the second estimated image and the second adjusted image;
A second image composition step of combining the second blend image and the first image to generate a second composite image;
A wide dynamic range image generating step for generating a wide dynamic range image using the first composite image and the second composite image;
An image processing method comprising the steps of:
JP2011264803A 2011-12-02 2011-12-02 Image processing apparatus, imaging apparatus and image processing method Pending JP2013118492A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011264803A JP2013118492A (en) 2011-12-02 2011-12-02 Image processing apparatus, imaging apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011264803A JP2013118492A (en) 2011-12-02 2011-12-02 Image processing apparatus, imaging apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2013118492A true JP2013118492A (en) 2013-06-13

Family

ID=48712770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264803A Pending JP2013118492A (en) 2011-12-02 2011-12-02 Image processing apparatus, imaging apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2013118492A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011049A (en) * 2013-06-26 2015-01-19 富士通セミコンダクター株式会社 Imaging apparatus, selection method, and selection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011049A (en) * 2013-06-26 2015-01-19 富士通セミコンダクター株式会社 Imaging apparatus, selection method, and selection program

Similar Documents

Publication Publication Date Title
JP4987355B2 (en) Imaging apparatus and imaging method
JP5756099B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
KR101303410B1 (en) Image capture apparatus and image capturing method
JP6019964B2 (en) Image processing apparatus, imaging apparatus equipped with the same, and image processing method
JP6082274B2 (en) Imaging apparatus and control method thereof
US9398230B2 (en) Imaging device and imaging method
JP2012050073A (en) Imaging device and image synthesis program
KR20110126053A (en) Image capturing apparatus and camera shake correction method, and computer-readable medium
US20130286254A1 (en) Image capturing apparatus, control method, and recording medium
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP2006245999A (en) Imaging apparatus and program
JP5105139B2 (en) Imaging apparatus, display method, and program
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP2006148550A (en) Image processor and imaging device
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2008294524A (en) Image processor and image processing method
JP2008236739A (en) Imaging apparatus and imaging method
JP4705146B2 (en) Imaging apparatus and imaging method
JP2008072501A (en) Imaging apparatus, imaging method, program, and recording medium
JP2013118492A (en) Image processing apparatus, imaging apparatus and image processing method
JP2012044377A (en) Image compositing device, image compositing method and program
JP5256888B2 (en) Autofocus evaluation device, imaging device, autofocus evaluation method, and program
JP2006121165A (en) Imaging apparatus and image forming method
JP5316098B2 (en) Imaging apparatus, imaging method, and program