JP2011100204A - Image processor, image processing method, image processing program, imaging apparatus, and electronic device - Google Patents

Image processor, image processing method, image processing program, imaging apparatus, and electronic device Download PDF

Info

Publication number
JP2011100204A
JP2011100204A JP2009253126A JP2009253126A JP2011100204A JP 2011100204 A JP2011100204 A JP 2011100204A JP 2009253126 A JP2009253126 A JP 2009253126A JP 2009253126 A JP2009253126 A JP 2009253126A JP 2011100204 A JP2011100204 A JP 2011100204A
Authority
JP
Japan
Prior art keywords
image
luminance
conversion
lim
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009253126A
Other languages
Japanese (ja)
Inventor
Masanobu Kobayashi
雅暢 小林
Haruhisa Kurane
治久 倉根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009253126A priority Critical patent/JP2011100204A/en
Publication of JP2011100204A publication Critical patent/JP2011100204A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor suitable for converting luminance information on an input image to form an output image different in gradation characteristics, and an image processing method, an image processing program, an imaging apparatus and an electronic device. <P>SOLUTION: An imaging system includes an HDR imaging apparatus and an image processor 20. The image processor 20 includes an illumination component converting section 20a generating luminance image data Y and illumination component data L based on color HDR image data; a limit control section 20b determining a limit value lim of a gain coefficient k corresponding to the brightness of an image based on the average luminance AVE of the luminance image data Y and a threshold of luminance; a coefficient computing section 20c computing compressed illumination component data L' from the illumination component data L, computing a gain coefficient k based on L and L' and setting the gain coefficient k to lim when the computed k exceeds lim; and a range compressing section 20d compressing a dynamic range of the color HDR image data based on the gain coefficient k. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、入力画像の輝度を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器等に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, an imaging apparatus, an electronic apparatus, and the like suitable for converting the luminance of an input image to generate an output image having different gradation characteristics.

従来、入力画像の輝度情報を変換して、入力画像のダイナミックレンジを圧縮する手法として、人間の視覚特性を考慮したretinex理論に基づいた手法が多く発表されている。例えば、非特許文献1では、「目に入る光像は照明成分と反射成分の積で表されるが、視覚に強い相関を示すのは反射成分である」と実験から結論付けている。この理論に基づき、ダイナミックレンジを圧縮する際は画像の反射成分を保存し照明成分をのみを圧縮することで、画質劣化を防ぎつつ画像のダイナミックレンジを圧縮する方法が提案されている。
つまり、元画像の輝度成分をI、照明成分をL、反射成分をRとした場合に、これらの関係は、下式(1)で表すことができる。

I=L×R ・・・(1)
Conventionally, many methods based on the retinex theory considering human visual characteristics have been published as methods for compressing the dynamic range of an input image by converting luminance information of the input image. For example, Non-Patent Document 1 concludes from experiments that “the light image entering the eye is represented by the product of the illumination component and the reflection component, but it is the reflection component that shows a strong correlation with the eye”. Based on this theory, when compressing the dynamic range, a method for compressing the dynamic range of the image while preserving image quality degradation by preserving the reflection component of the image and compressing only the illumination component has been proposed.
That is, when the luminance component of the original image is I, the illumination component is L, and the reflection component is R, these relationships can be expressed by the following expression (1).

I = L × R (1)

例えば、特許文献1では、照明成分Lを圧縮したL’を下式(2)から求め、下式(3)に示すように、求めたL’を反射成分Rに掛けることで、圧縮後の画像の輝度成分I’を求めている。

L’=exp(log(L)×c)×n ・・・(2)
I’=L’×R ・・・(3)

上式(2)において、c,nは係数である。
照明成分Lを推定する方法として、元画像の輝度成分Iにローパスフィルタ(例えば、ガウスフィルタ)を掛けたもの「L=LPF(I)」を照明成分Lとし、このLを用いて反射成分R(R=I/L)を求めている。なお、これらの式を変形すると下式(4)と表すことができる。

I’=I×(L’/L) ・・・(4)

つまり、ダイナミックレンジを圧縮した画像の輝度成分I’は、元画像の輝度成分Iに、照明成分の変化量「L’/L」を係数として掛けたものと表現することができる。
For example, in Patent Document 1, L ′ obtained by compressing the illumination component L is obtained from the following equation (2), and the obtained component L ′ is multiplied by the reflected component R as shown in the following equation (3), so that The luminance component I ′ of the image is obtained.

L ′ = exp (log (L) × c) × n (2)
I ′ = L ′ × R (3)

In the above equation (2), c and n are coefficients.
As a method of estimating the illumination component L, “L = LPF (I)” obtained by multiplying the luminance component I of the original image by a low-pass filter (for example, a Gaussian filter) is used as the illumination component L, and this L is used as a reflection component R (R = I / L) is obtained. In addition, when these formulas are modified, they can be expressed as the following formula (4).

I ′ = I × (L ′ / L) (4)

That is, the luminance component I ′ of the image with the compressed dynamic range can be expressed as the luminance component I of the original image multiplied by the change amount “L ′ / L” of the illumination component as a coefficient.

また、特許文献2では、「I→Id→f(Id)→Ad→Adb→O」のステップで、入力画像の輝度成分Iを出力画像の輝度成分Oへと変換している。
ここで、IdはIを非線形空間処理したものであり、f(Id)はIdにダイナミックレンジ圧縮処理を施したもの、Adは、f(Id)をIdで除算したもの(Ad=f(Id)/Id)である。更に、AdbはAdにぼかし処理を施したものであり、出力画像の輝度成分Oは、カラー画像(RGB)の場合に下式(5)で表現される。

Ro=AdbRi
Go=AdbGi
Bo=AdbBi ・・・(5)
In Patent Document 2, the luminance component I of the input image is converted into the luminance component O of the output image in the step “I → Id → f (Id) → Ad → Adb → O”.
Here, Id is obtained by nonlinear space processing of I, f (Id) is obtained by subjecting Id to dynamic range compression processing, and Ad is obtained by dividing f (Id) by Id (Ad = f (Id ) / Id). Further, Adb is obtained by performing blur processing on Ad, and the luminance component O of the output image is expressed by the following expression (5) in the case of a color image (RGB).

Ro = AdbRi
Go = AdbGi
Bo = AdbBi (5)

また、Idは、下式(6)に示すように、logの形式で表現することができる。

Id=log(LPF(exp(μ・I)))/μ ・・・(6)

上記従来技術に見られるように、ダイナミックレンジの圧縮においては、log特性を用いることが多い。これは、人間の視覚特性がlog特性に近い(明るさの物理量が10倍になると、感覚量としては2倍に感じる)ためで、ハイライト部分を感覚量に合わせて圧縮することで、見た目的に自然なダイナミックレンジ圧縮が可能となる。
Further, Id can be expressed in the form of log as shown in the following formula (6).

Id = log (LPF (exp (μ · I))) / μ (6)

As seen in the above prior art, log characteristics are often used in dynamic range compression. This is because the human visual characteristic is close to the log characteristic (when the physical quantity of brightness becomes 10 times, it feels twice as a sensation quantity), so by compressing the highlight part according to the sensation quantity, it looks Natural dynamic range compression becomes possible.

また、先述したように、ハイダイナミックレンジ画像の圧縮は、最終的には、上式(4)や(5)のように元画像の輝度成分Iに係数を乗算する形に変形することができる。このとき、係数をkとして、kはlog特性を含んだものとなる。例えば、ダイナミックレンジAの輝度成分I(画素値I)をダイナミックレンジBの画像(画素値O=I×k)に圧縮する場合に、処理を単純化すると係数kは「k=L’/L」と表現することができる。但し、L’は、「L’=B/A×log(L)」から求め、Lは画素値Iから推定した照明成分であるとする。これにより、L’とLとは、図7(a)に示すような関係となる。
一方、係数kは、図7(b)に示すように、明るい側では定数、暗い側では大きな値をとる急峻な特性を有する。
Further, as described above, the compression of the high dynamic range image can be finally transformed into a form in which the luminance component I of the original image is multiplied by a coefficient as in the above equations (4) and (5). . At this time, the coefficient is k, and k includes log characteristics. For example, when the luminance component I (pixel value I) of the dynamic range A is compressed into an image of the dynamic range B (pixel value O = I × k), the coefficient k is “k = L ′ / L” when the processing is simplified. Can be expressed. However, L ′ is obtained from “L ′ = B / A × log (L)”, and L is an illumination component estimated from the pixel value I. Thereby, L ′ and L have a relationship as shown in FIG.
On the other hand, as shown in FIG. 7B, the coefficient k has a steep characteristic that takes a constant value on the bright side and a large value on the dark side.

特開2006−352825号公報JP 2006-352825 A 特開2008−511048号公報JP 2008-511048 A E.H.Land,J.J.McCann,"Lightness and retinex theory",journal of the Optical Society of America,61(1),1(1971)E.H.Land, J.J.McCann, "Lightness and retinex theory", journal of the Optical Society of America, 61 (1), 1 (1971)

しかしながら、上記従来技術におけるダイナミンクレンジの圧縮手法においては、例えば、図7(b)に示すように、元画像の輝度(A)が低い(暗い)ほど係数(ゲインk)が大きくなる。そのため、低階調部での差異が小さくなり、暗い側のコントラストが低下するといった問題が生じる恐れがあった。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものである。本発明の幾つかの態様によれば、入力画像の輝度情報を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器を提供できる。
However, in the dynamic range compression method in the above-described prior art, for example, as shown in FIG. 7B, the coefficient (gain k) increases as the luminance (A) of the original image is lower (darker). For this reason, there is a possibility that the difference in the low gradation portion becomes small and the contrast on the dark side is lowered.
Therefore, the present invention has been made paying attention to such unsolved problems of the conventional technology. According to some aspects of the present invention, an image processing apparatus, an image processing method, an image processing program, an imaging apparatus, and an electronic apparatus that are suitable for generating luminance information of an input image and generating output images having different gradation characteristics Equipment can be provided.

〔形態1〕 上記目的を達成するために、形態1の画像処理装置は、
入力画像の輝度を変換して階調特性の異なる出力画像を生成する画像変換手段を備え、
前記画像変換手段は、前記入力画像の輝度が低いほど該輝度を変換するゲインを高くする変換特性を有すると共に、前記ゲインに上限を設け、該上限を可変とした。
このような構成であれば、画像変換手段は、入力画像の輝度を変換するときに、入力画像の輝度が低ければ低いほど、該輝度を変換するためのゲインを、設定した上限値まで高くすることができる。
これにより、ゲインの上限値を適切に設定することで、入力画像の輝度を変換後の出力画像における低階調部分のコントラストの低下による画質劣化を低減することができるという効果が得られる。
[Mode 1] In order to achieve the above object, an image processing apparatus according to mode 1 includes:
Image conversion means for converting the luminance of the input image to generate an output image having different gradation characteristics,
The image conversion means has a conversion characteristic of increasing the gain for converting the luminance as the luminance of the input image is lower, and setting an upper limit for the gain, and making the upper limit variable.
With such a configuration, when converting the luminance of the input image, the image conversion means increases the gain for converting the luminance to the set upper limit value as the luminance of the input image is lower. be able to.
Accordingly, by appropriately setting the upper limit value of the gain, it is possible to reduce the image quality deterioration due to the decrease in the contrast of the low gradation portion in the output image after converting the luminance of the input image.

また、入力画像の特性や所望する出力画像の特性などに応じて、ゲインの上限を変更することができる。
これにより、コントラストの低下による画質劣化を低減しつつ、所望の画質特性を有する出力画像を得ることができるという効果も得られる。
ここで、輝度の変換は、一画素の単位で行ってもよいし、特定位置の複数画素の単位で行ってもよい。例えば、複数画素の場合は、平均輝度を求めて、該平均輝度に応じたゲインの上限を設定し、該上限に従って、輝度の変換を行う。
Further, the upper limit of the gain can be changed according to the characteristics of the input image and the desired characteristics of the output image.
As a result, it is possible to obtain an output image having desired image quality characteristics while reducing image quality deterioration due to a decrease in contrast.
Here, the luminance conversion may be performed in units of one pixel or may be performed in units of a plurality of pixels at a specific position. For example, in the case of a plurality of pixels, the average luminance is obtained, an upper limit of the gain corresponding to the average luminance is set, and the luminance is converted according to the upper limit.

〔形態2〕 更に、形態2の画像処理装置は、形態1の画像処理装置において、
前記画像変換手段は、前記入力画像の輝度を変換して、前記入力画像のダイナミックレンジを圧縮した出力画像を生成する。
このような構成であれば、画像変換手段は、例えば、入力画像がハイダイナミックレンジの画像である場合に、該入力画像の輝度を、表示装置などの出力装置の出力可能な階調範囲に合わせて変換し、入力画像のダイナミックレンジをこれより低いレンジへと圧縮した出力画像を生成することができる。
[Mode 2] Furthermore, the image processing apparatus according to mode 2 is the same as the image processing apparatus according to mode 1.
The image conversion means converts the luminance of the input image to generate an output image in which the dynamic range of the input image is compressed.
With such a configuration, for example, when the input image is a high dynamic range image, the image conversion means matches the luminance of the input image with the gradation range that can be output by an output device such as a display device. And an output image in which the dynamic range of the input image is compressed to a lower range can be generated.

〔形態3〕 更に、形態3の画像処理装置は、形態1又は2の画像処理装置において、
前記画像変換手段は、前記入力画像の輝度が、設定された輝度の閾値よりも低輝度であるときに、前記上限を上昇させ、前記輝度の閾値よりも高輝度であるときに、前記上限を低下させる。
このような構成であれば、入力画像の輝度が、比較的低輝度の場合はゲインの上限を上昇させ、比較的高輝度の場合はゲインの上限を低下させることができる。
[Mode 3] Furthermore, the image processing apparatus of mode 3 is the image processing apparatus of mode 1 or 2,
The image conversion means increases the upper limit when the luminance of the input image is lower than a set luminance threshold, and increases the upper limit when the luminance is higher than the luminance threshold. Reduce.
With such a configuration, the upper limit of the gain can be increased when the luminance of the input image is relatively low, and the upper limit of the gain can be decreased when the luminance of the input image is relatively high.

これによって、暗い画像については、変換後の輝度が低くなりすぎないようにゲインの上限を調整することができる。従って、入力画像の低輝度部分が明るくなりすぎないように制限をかけつつも、必要な明るさを確保した画像を生成することができるという効果が得られる。また、明るい画像については、暗い画像の場合と比較して、変換後の輝度が高くなりすぎないようにゲインの上限を調整することができる。従って、入力画像の低輝度部分が明るくなりすぎないように制限をかけつつも、黒浮きのないメリハリの効いた画像を生成することができるという効果が得られる。   As a result, for dark images, the upper limit of gain can be adjusted so that the luminance after conversion does not become too low. Therefore, it is possible to generate an image that secures necessary brightness while limiting the low brightness portion of the input image so as not to be too bright. For bright images, the upper limit of gain can be adjusted so that the luminance after conversion does not become too high as compared to dark images. Therefore, it is possible to generate a sharp image with no black floating while limiting the low luminance portion of the input image so that it is not too bright.

〔形態4〕 更に、形態4の画像処理装置は、形態1乃至3のいずれか1の画像処理装置において、
前記画像変換手段は、前記入力画像の平均輝度に応じて、前記上限を変化させる。
このような構成であれば、入力画像を構成する各画素の輝度を平均した平均輝度に応じて、上限を変化させることができるので、例えば、比較的暗い場所で被写体を撮像して得られた入力画像と、比較的明るい場所で被写体を撮像して得られた入力画像とを容易に判別することができる。そして、例えば、比較的暗い場所で撮像して得られた入力画像に対しては、ゲインの上限を低下させ、比較的明るい場所で撮像して得られた入力画像に対しては、ゲインの上限を上昇させることができる。
これによって、入力画像の明るさに対応した上限の設定を容易に行うことができるという効果が得られる。
[Mode 4] Furthermore, the image processing apparatus according to mode 4 is the image processing apparatus according to any one of modes 1 to 3,
The image conversion means changes the upper limit according to the average luminance of the input image.
With such a configuration, the upper limit can be changed according to the average brightness obtained by averaging the brightness of each pixel constituting the input image, and thus, for example, obtained by imaging a subject in a relatively dark place An input image and an input image obtained by imaging a subject in a relatively bright place can be easily distinguished. For example, the upper limit of the gain is reduced for an input image obtained by imaging in a relatively dark place, and the upper limit of the gain for an input image obtained by imaging in a relatively bright place. Can be raised.
As a result, it is possible to easily set an upper limit corresponding to the brightness of the input image.

〔形態5〕 更に、形態5の画像処理装置は、形態1乃至4のいずれか1の画像処理装置において、
前記画像変換手段は、前記出力画像が、入射光量の電気信号への変換方式の異なる複数種類の撮像素子のいずれか1種類の撮像素子で変換時の画像特性を有するように、前記上限を変化させる。
このような構成であれば、画像変換手段は、入力画像が撮像装置において撮像された撮像画像などである場合に、出力画像が、各種撮像素子の変換方式によって異なる画像特性を有するように、ゲインの上限を変化させることができる。
これによって、入力画像を、所望の撮像素子の画質特性を有する出力画像へと変換することができるという効果が得られる。
[Embodiment 5] Furthermore, the image processing apparatus of Embodiment 5 is the image processing apparatus of any one of Embodiments 1 to 4,
The image conversion means changes the upper limit so that the output image has an image characteristic at the time of conversion by any one of a plurality of types of imaging elements having different conversion methods for converting an incident light amount into an electrical signal. Let
With such a configuration, the image conversion unit gains the output image so that the output image has different image characteristics depending on the conversion method of the various imaging elements when the input image is a captured image captured by the imaging device. The upper limit of can be changed.
As a result, the effect that the input image can be converted into an output image having the image quality characteristics of a desired image sensor can be obtained.

ここで、撮像素子には、例えば、入射光量に応じて電気信号が線形的に変換されて出力されるようにした線形変換型撮像素子(以下、リニアセンサと称す)がある。また、センサの出力特性を入射光量に対して電気信号が対数的に変換されて出力されるようにした対数変換型撮像素子(以下、ログセンサと称す)がある。また、リニアセンサの動作状態である線形動作状態と、ログセンサの動作状態である対数動作状態とを自動的に切り替えることが可能な線形対数変換型撮像素子(以下、リニアログセンサと言う)がある。   Here, as the image pickup device, for example, there is a linear conversion type image pickup device (hereinafter referred to as a linear sensor) in which an electrical signal is linearly converted according to the amount of incident light and output. In addition, there is a logarithmic conversion type imaging device (hereinafter referred to as a log sensor) in which an electrical signal is logarithmically converted with respect to an incident light amount for output characteristics of the sensor. In addition, there is a linear logarithm conversion type imaging device (hereinafter referred to as a linear log sensor) that can automatically switch between a linear operation state that is an operation state of a linear sensor and a logarithmic operation state that is an operation state of a log sensor. .

〔形態6〕 一方、上記目的を達成するために、形態6の画像処理方法は、
入力画像の輝度を変換して階調特性の異なる出力画像を生成する画像変換ステップを含み、
前記画像変換ステップにおいては、前記入力画像の輝度が低いほど該輝度を変換するゲインを高くすると共に、前記ゲインに上限を設け、該上限を可変とする変換処理を行う。
これにより、形態1の画像処理装置と同等の作用及び効果が得られる。
[Mode 6] On the other hand, in order to achieve the above object, an image processing method according to mode 6 includes:
Including an image conversion step of converting the luminance of the input image to generate an output image having different gradation characteristics,
In the image conversion step, as the luminance of the input image is lower, the gain for converting the luminance is increased, and an upper limit is set for the gain, and conversion processing is performed to make the upper limit variable.
Thereby, the same operation and effect as those of the image processing apparatus of aspect 1 can be obtained.

〔形態7〕 また、上記目的を達成するために、形態7の画像処理プログラムは、
入力画像の輝度を変換して階調特性の異なる出力画像を生成する画像変換ステップを有する処理をコンピューターに実行させるための画像処理プログラムを含み、
前記画像変換ステップにおいては、前記入力画像の輝度が低いほど該輝度を変換するゲインを高くすると共に、前記ゲインに上限を設け、該上限を可変とする変換処理を行う。
このような構成であれば、コンピューターによってプログラムが実行されると、形態1に記載の画像処理装置と同等の作用及び効果を得ることができる。
[Mode 7] In order to achieve the above object, an image processing program according to mode 7
Including an image processing program for causing a computer to execute a process having an image conversion step of converting the luminance of an input image to generate an output image having different gradation characteristics;
In the image conversion step, as the luminance of the input image is lower, the gain for converting the luminance is increased, and an upper limit is set for the gain, and conversion processing is performed to make the upper limit variable.
With such a configuration, when the program is executed by a computer, the same operations and effects as those of the image processing apparatus described in the form 1 can be obtained.

〔形態8〕 また、上記目的を達成するために、形態8の撮像装置は、
被写体を撮像する撮像手段と、
形態1乃至5のいずれか1に記載の画像処理装置とを備え、
前記画像処理装置は、前記撮像手段で撮像して得た撮像画像を前記入力画像として変換処理を行う。
このような構成であれば、形態1乃至5に記載の画像処理装置と同等の作用及び効果が得られる。
〔形態9〕 また、上記目的を達成するために、形態9の電子機器は、
形態8に記載の撮像装置を備える。
このような構成であれば、形態8に記載の撮像装置と同等の作用及び効果が得られる。
[Mode 8] In order to achieve the above object, an imaging apparatus according to mode 8
Imaging means for imaging a subject;
An image processing apparatus according to any one of forms 1 to 5,
The image processing apparatus performs conversion processing using a captured image obtained by imaging with the imaging unit as the input image.
With such a configuration, operations and effects equivalent to those of the image processing apparatus according to Embodiments 1 to 5 can be obtained.
[Embodiment 9] In order to achieve the above object, an electronic apparatus of embodiment 9
The imaging apparatus according to the eighth aspect is provided.
With such a configuration, operations and effects equivalent to those of the imaging device according to mode 8 can be obtained.

本発明に係る撮像システム1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging system 1 according to the present invention. HDR撮像装置10の構成を示すブロック図である。1 is a block diagram showing a configuration of an HDR imaging device 10. FIG. 画像処理装置20の構成を示すブロック図である。2 is a block diagram illustrating a configuration of an image processing device 20. FIG. 画像処理装置20におけるレンジ変換処理を示すフローチャートである。3 is a flowchart showing range conversion processing in the image processing apparatus 20. (a)は、カラーHDR画像データIの平均輝度AVEと、ゲイン係数kのリミット値limとの関係の一例を示す図であり、(b)は、ゲイン係数kと、照明成分データLとの関係の一例を示す図である。(A) is a figure which shows an example of the relationship between the average luminance AVE of the color HDR image data I, and the limit value lim of the gain coefficient k, and (b) is the gain coefficient k and the illumination component data L. It is a figure which shows an example of a relationship. (a)及び(b)は、リミット値limを「5」及び「0.25」に設定したときの、カラーHDR画像データIの輝度と、カラーLDR画像データOの輝度との関係の一例を示す図である。(A) and (b) are examples of the relationship between the luminance of the color HDR image data I and the luminance of the color LDR image data O when the limit value lim is set to “5” and “0.25”. FIG. (a)は、画像データにおける照明成分と圧縮後の照明成分との関係の一例を示す図であり、(b)は、照明成分と輝度変換用のゲイン係数kとの関係の一例を示す図である。(A) is a figure which shows an example of the relationship between the illumination component in image data, and the illumination component after compression, (b) is a figure which shows an example of the relationship between the illumination component and the gain coefficient k for brightness | luminance conversion. It is.

以下、本発明の実施形態を図面に基づき説明する。図1〜図6は、本発明に係る撮像装置、撮像方法及び電子機器の実施形態を示す図である。
まず、本発明に係る撮像システムの構成を図1〜図3に基づき説明する。図1は、本発明に係る撮像システム1の構成を示すブロック図である。また、図2(a)は、HDR撮像装置10の内部構成を示すブロック図であり、(b)は、撮像素子11の内部構成を示す模式図であり、(c)は、画像合成部15の内部構成を示すブロック図である。また、図3は、画像処理装置20の内部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1 to 6 are diagrams illustrating embodiments of an imaging apparatus, an imaging method, and an electronic apparatus according to the present invention.
First, the configuration of an imaging system according to the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a configuration of an imaging system 1 according to the present invention. 2A is a block diagram showing the internal configuration of the HDR imaging device 10, FIG. 2B is a schematic diagram showing the internal configuration of the image sensor 11, and FIG. It is a block diagram which shows the internal structure. FIG. 3 is a block diagram showing the internal configuration of the image processing apparatus 20.

撮像システム1は、図1に示すように、HDR撮像装置10と、画像処理装置20とを含んで構成される。
HDR撮像装置10は、図2(a)に示すように、撮像素子11と、メモリ12〜14と、画像合成部15とを含んで構成される。
撮像素子11は、3種類以上の露光量で被写体を撮像する機能を有し、図2(b)に示すように、レンズ11aと、マイクロレンズ11bと、カラーフィルタアレイ11cと、HDRセンサ11dとを含んで構成される。
As illustrated in FIG. 1, the imaging system 1 includes an HDR imaging device 10 and an image processing device 20.
As illustrated in FIG. 2A, the HDR imaging device 10 includes an imaging element 11, memories 12 to 14, and an image synthesis unit 15.
The imaging element 11 has a function of imaging a subject with three or more types of exposure amounts. As shown in FIG. 2B, the lens 11a, the microlens 11b, the color filter array 11c, and the HDR sensor 11d It is comprised including.

以下、説明の便宜上、撮像素子11は、3種類の露光量L1、L2、L3(L1<L2<L3)に対応する露光時間T1、T2、T3(T1<T2<T3)で撮像を行うものとして構成を説明する。
レンズ11aは、被写体からの反射光を集光して、マイクロレンズへと導くものである。なお、撮像条件などに応じて、単焦点レンズ、ズームレンズ、オートアイリスレンズなどの種類がある。
Hereinafter, for convenience of explanation, the imaging device 11 performs imaging with exposure times T1, T2, and T3 (T1 <T2 <T3) corresponding to three types of exposure amounts L1, L2, and L3 (L1 <L2 <L3). The configuration will be described as follows.
The lens 11a collects reflected light from the subject and guides it to the microlens. There are types such as a single focus lens, a zoom lens, and an auto iris lens depending on the imaging conditions.

マイクロレンズ11bは、レンズを透過した光をHDRセンサの有するセンサセルアレイの各センサセル(画素)に集光するものである。
カラーフィルタアレイ11cは、マイクロレンズ11bを透過した光から所定の1種類の色要素に対応する波長の光を分離して該分離した光を対応する各画素に入射するカラーフィルター部(以下、CF部と称す)を少なくとも画素数分含んで構成されるものである。
The microlens 11b collects light transmitted through the lens on each sensor cell (pixel) of the sensor cell array included in the HDR sensor.
The color filter array 11c separates light having a wavelength corresponding to one predetermined type of color element from light transmitted through the microlens 11b and makes the separated light incident on each corresponding pixel (hereinafter referred to as CF). Part) and at least the number of pixels.

HDRセンサ11dは、電子シャッタ方式によって露光時間T1〜T3を制御して露光量の異なる3種類のデジタルの画像データを出力するものである。
具体的に、HDRセンサ11dは、図示しないが、基準タイミング発生器と、走査ラインスキャナと、センサセルアレイと、水平転送部とを含んで構成される。
基準タイミング発生器は、垂直同期信号及び水平同期信号に基づき、基準タイミング信号を発生し、これを走査ラインスキャナに出力する。
The HDR sensor 11d controls the exposure times T1 to T3 by an electronic shutter system and outputs three types of digital image data having different exposure amounts.
Specifically, the HDR sensor 11d includes a reference timing generator, a scanning line scanner, a sensor cell array, and a horizontal transfer unit (not shown).
The reference timing generator generates a reference timing signal based on the vertical synchronization signal and the horizontal synchronization signal, and outputs the reference timing signal to the scanning line scanner.

走査ラインスキャナは、基準タイミング発生器からの各種信号に基づき、リセット処理を行うラインを有効にするリセットライン選択信号を生成する。そして、該生成したリセットライン選択信号をセンサセルアレイに出力する。
更に、走査ラインスキャナは、リセット後で且つ設定された露光時間の電荷の蓄積が行われたラインを画素信号の読出ラインとして有効にする読出しライン選択信号を生成する。そして、該生成した読出ライン選択信号をセンサセルアレイに出力する。
The scanning line scanner generates a reset line selection signal that enables a line to be reset based on various signals from the reference timing generator. Then, the generated reset line selection signal is output to the sensor cell array.
Further, the scanning line scanner generates a readout line selection signal that enables the line on which charge accumulation for the set exposure time has been performed as a readout line of the pixel signal after resetting. The generated read line selection signal is output to the sensor cell array.

センサセルアレイは、CMOS技術を用いて構成された、受光素子(フォトダイオードなど)を含む複数のセンサセル(画素)が2次元マトリクス状に配設された構成の受光領域を備え、各画素のラインに対して、アドレス線、リセット線及び読出し線が共通に接続された構成を有している。そして、前記3つの制御線を介して各種駆動信号(選択信号)が各ラインを構成するセンサセルに送信され、アドレス線及び読出し線が有効になると、信号線を介して蓄積電荷(画素信号)を水平転送部に転送(出力)する。   The sensor cell array includes a light receiving region having a configuration in which a plurality of sensor cells (pixels) including light receiving elements (photodiodes, etc.) are arranged in a two-dimensional matrix, which is configured using CMOS technology. On the other hand, the address line, the reset line, and the readout line are connected in common. Then, various drive signals (selection signals) are transmitted to the sensor cells constituting each line through the three control lines, and when the address line and the readout line become valid, the accumulated charge (pixel signal) is transmitted through the signal line. Transfer (output) to the horizontal transfer unit.

水平転送部は、センサセルアレイの各画素から読み出された画素信号(アナログ信号)のデータをA/D変換して、ライン単位にメモリ12〜14へとシリアルで順次出力する。
メモリ12〜14は、撮像素子11において、異なる複数の露光時間T1〜T3で被写体を撮像して得られた3種類の露光量L1〜L3に対応する画像データを一時記憶し、同期をとって画像合成部15に出力するバッファとしての役割を果たすものである。
The horizontal transfer unit performs A / D conversion on pixel signal (analog signal) data read from each pixel of the sensor cell array, and sequentially outputs the data serially to the memories 12 to 14 in line units.
The memories 12 to 14 temporarily store the image data corresponding to the three types of exposure amounts L1 to L3 obtained by imaging the subject with a plurality of different exposure times T1 to T3 in the image sensor 11, and take synchronization. It serves as a buffer to be output to the image composition unit 15.

画像合成部15は、図2(b)に示すように、HDR信号処理部15aと、フレームメモリ15bとを含んで構成される。
HDR信号処理部15aは、図示しないが、プリプロセス部と、合成処理部と、色処理部と、メモリインターフェース(以下、メモリIFと称す)とを含んで構成される。
プリプロセス部は、メモリ12〜14からの画素信号(デジタルの画素データS1〜S3)に対して、固定パターンノイズの除去処理、クランプ処理などを行う。
As shown in FIG. 2B, the image composition unit 15 includes an HDR signal processing unit 15a and a frame memory 15b.
Although not shown, the HDR signal processing unit 15a includes a preprocessing unit, a synthesis processing unit, a color processing unit, and a memory interface (hereinafter referred to as a memory IF).
The preprocessing unit performs fixed pattern noise removal processing, clamping processing, and the like on the pixel signals (digital pixel data S1 to S3) from the memories 12 to 14.

合成処理部は、メモリ12〜14からの画像データと露光比の情報とに基づき、HDR合成処理を行う。そして、HDR合成処理後の画像データをHDR画像データとして、メモリIFを介してフレームメモリ15bに格納する。
色処理部は、合成して得られたHDR画素データ(処理すべき画素の画素データ)と、処理すべき画素の周辺のHDR画素データとを用いて色補間処理を行う。すなわち、画像の各点について、RGB色空間に規定される色信号(データ)を生成する処理(色信号処理)を行う。具体的に、色処理部は、色補間処理によって、HDR画素データを、画素毎に、RGBの各色要素にそれぞれ対応するカラーHDR画素データに変換する。なお、1フレーム分のカラーHDR画素データからカラーHDR画像データが構成される。
The composition processing unit performs HDR composition processing based on the image data from the memories 12 to 14 and the exposure ratio information. Then, the image data after the HDR synthesizing process is stored as HDR image data in the frame memory 15b via the memory IF.
The color processing unit performs color interpolation processing using the HDR pixel data (pixel data of the pixel to be processed) obtained by combining and the HDR pixel data around the pixel to be processed. That is, processing (color signal processing) for generating color signals (data) defined in the RGB color space is performed for each point of the image. Specifically, the color processing unit converts the HDR pixel data into color HDR pixel data corresponding to each color element of RGB for each pixel by color interpolation processing. Note that color HDR image data is composed of color HDR pixel data for one frame.

メモリIFは、フレームメモリ15bに対するデータの書き込み及びデータの読み出しを調停する機能を有している。具体的に、プリプロセス部、合成処理部、色処理部からの、データの読出要求及び書込要求に応じて、正常に読み書きが行われるように、これらの調停を行う。そして、各構成部からの要求に応じた、フレームメモリ15bからのデータの読み出し処理、及びフレームメモリ15bへのデータの書き込み処理を実行する。
フレームメモリ15bは、HDR信号処理部15aにおいて合成後のカラーHDR画像データを構成する各カラーHDR画素データを各画素位置に対応するアドレス領域にフレーム単位(1画像単位)で記憶するメモリである。
The memory IF has a function of arbitrating data writing to and data reading from the frame memory 15b. Specifically, these mediations are performed so that reading and writing are normally performed in response to data read requests and write requests from the preprocessing unit, the synthesis processing unit, and the color processing unit. Then, data read processing from the frame memory 15b and data write processing to the frame memory 15b are executed in response to requests from the components.
The frame memory 15b is a memory that stores each color HDR pixel data constituting the color HDR image data after the synthesis in the HDR signal processing unit 15a in a frame unit (one image unit) in an address area corresponding to each pixel position.

次に、図3に基づき、画像処理装置20の内部構成について説明する。
図3に示すように、画像処理装置20は、照明成分変換部20aと、リミット制御部20bと、係数計算部20cと、レンジ圧縮部20dと、逆ガンマ処理部20eと、保存部20fとを含んで構成される。
Next, the internal configuration of the image processing apparatus 20 will be described with reference to FIG.
As shown in FIG. 3, the image processing apparatus 20 includes an illumination component conversion unit 20a, a limit control unit 20b, a coefficient calculation unit 20c, a range compression unit 20d, an inverse gamma processing unit 20e, and a storage unit 20f. Consists of including.

照明成分変換部20aは、HDR撮像装置10から入力されたカラーHDR画像データを構成する赤色(R)、緑色(G)、青色(B)に対応するカラーHDR画素データIr(x,y)、Ig(x、y)、Ib(x、y)を、輝度画素データY(x,y)へと変換する機能を有している。なお、1画像分の輝度画素データY(x,y)から輝度画像データYが構成される。また、(x,y)は、画素の位置を示す二次元座標である。例えば、画像の左上を原点(x,y)=(0,0)とした座標となる。   The illumination component conversion unit 20a includes color HDR pixel data Ir (x, y) corresponding to red (R), green (G), and blue (B) constituting color HDR image data input from the HDR imaging device 10, It has a function of converting Ig (x, y) and Ib (x, y) into luminance pixel data Y (x, y). The luminance image data Y is composed of luminance pixel data Y (x, y) for one image. Further, (x, y) is a two-dimensional coordinate indicating the position of the pixel. For example, the upper left corner of the image is the coordinate with the origin (x, y) = (0, 0).

本実施形態において、照明成分変換部20aは、下式(7)に従って、カラーHDR画像データIの各カラーHDR画素データIr(x,y)、Ig(x、y)、Ib(x、y)を、輝度画素データY(x,y)へと変換する。

Y(x,y)=0.3×Ir(x,y)+0.6×Ig(x,y)+0.1×Ib(x,y) ・・・(7)

更に、照明成分変換部20aは、輝度画像データYに対してぼかし処理を施して、輝度画像データYを照明成分データLに変換する機能を有している。
In the present embodiment, the illumination component conversion unit 20a performs the color HDR pixel data Ir (x, y), Ig (x, y), Ib (x, y) of the color HDR image data I according to the following equation (7). Is converted into luminance pixel data Y (x, y).

Y (x, y) = 0.3 × Ir (x, y) + 0.6 × Ig (x, y) + 0.1 × Ib (x, y) (7)

Further, the illumination component conversion unit 20a has a function of performing a blurring process on the luminance image data Y and converting the luminance image data Y into the illumination component data L.

本実施形態において、照明成分変換部20aは、下式(8)に従って、公知のガウシアンフィルタを用いたぼかし処理を行い、輝度画像データYの各輝度画素データY(x,y)を、照明成分データL(x,y)へと変換する。
ここで、照明成分は、比較的低周波数の成分で構成されるため、ガウシアンフィルタなどのローパスフィルタをかけることで、輝度成分から照明成分を抽出する。

L(x,y)=Gauss(Y(x,y)) ・・・(8)

なお、照明成分変換部20aは、輝度画像データYをリミット制御部20bに出力し、照明成分データLを係数計算部20cに出力する。
In the present embodiment, the illumination component conversion unit 20a performs a blurring process using a known Gaussian filter according to the following equation (8), and converts each luminance pixel data Y (x, y) of the luminance image data Y into an illumination component. Conversion into data L (x, y).
Here, since the illumination component is composed of components having a relatively low frequency, the illumination component is extracted from the luminance component by applying a low-pass filter such as a Gaussian filter.

L (x, y) = Gauss (Y (x, y)) (8)

The illumination component conversion unit 20a outputs the luminance image data Y to the limit control unit 20b, and outputs the illumination component data L to the coefficient calculation unit 20c.

リミット制御部20bは、照明成分変換部20aからの輝度画像データYに基づき、平均輝度AVEを算出する機能を有している。更に、算出した平均輝度AVEに基づき、カラーHDR画像データIのダイナミックレンジを圧縮する際の輝度変換用のゲイン係数kのリミット(上限)を決定する機能を有している。なお、リミット制御部20bは、決定したリミットの情報を、係数計算部20cに出力する。   The limit control unit 20b has a function of calculating the average luminance AVE based on the luminance image data Y from the illumination component conversion unit 20a. Further, it has a function of determining the limit (upper limit) of the gain coefficient k for luminance conversion when compressing the dynamic range of the color HDR image data I based on the calculated average luminance AVE. The limit control unit 20b outputs the determined limit information to the coefficient calculation unit 20c.

本実施形態において、リミット制御部20bは、平均輝度AVEが、予め設定した高輝度側の輝度の閾値YHよりも高い輝度の場合は、リミット値を通常よりも低いものに決定する。また、平均輝度AVEが、予め設定した低輝度側の輝度の閾値YLよりも低い輝度の場合は、リミット値を通常よりも高いものに決定する。また、平均輝度AVEが、高輝度側及び低輝度側の閾値YH及びYLに対してこれらの間の値となる場合は、通常のリミット値に決定する。 In the present embodiment, the limit control portion 20b, the average brightness AVE is the case of luminance higher than the threshold value Y H of the high-luminance side of the luminance set in advance, it determines a limit value to be lower than normal. Further, when the average luminance AVE is lower than the preset lower luminance threshold Y L , the limit value is determined to be higher than normal. When the average luminance AVE is a value between the high luminance side and low luminance side threshold values Y H and Y L , the normal limit value is determined.

更に、本実施形態において、リミット制御部20bは、リミット値の決定に際して、平均輝度AVEが比較的高輝度の場合に、出力画像の階調特性がリニアセンサの階調特性となるようにリミット値を決定する。また、AVEが比較的低輝度の場合に、出力画像の階調特性がリニアログセンサの階調特性となるようにリミット値を決定する。また、AVEが通常の輝度範囲の場合は、出力画像の階調特性がログセンサの階調特性となるようにリミット値を決定する。
係数計算部20cは、照明成分変換部20aからの照明成分データLに基づき、ゲイン係数を算出する機能を有している。
本実施形態において、係数計算部20cは、まず、照明成分データLを用いて、下式(9)に従って、ダイナミックレンジAからダイナミックレンジB(A>B)へと、照明成分の圧縮を行い、圧縮照明成分データL’を生成する。

L'(x,y)=B/A×(A×log(L(x,y))/log(A))
・・・(9)
Further, in the present embodiment, the limit control unit 20b determines the limit value so that the gradation characteristic of the output image becomes the gradation characteristic of the linear sensor when the average luminance AVE is relatively high when determining the limit value. To decide. In addition, when the AVE has a relatively low luminance, the limit value is determined so that the gradation characteristic of the output image becomes the gradation characteristic of the linear log sensor. When AVE is in the normal luminance range, the limit value is determined so that the gradation characteristic of the output image becomes the gradation characteristic of the log sensor.
The coefficient calculation unit 20c has a function of calculating a gain coefficient based on the illumination component data L from the illumination component conversion unit 20a.
In the present embodiment, the coefficient calculator 20c first compresses the illumination component from the dynamic range A to the dynamic range B (A> B) according to the following equation (9) using the illumination component data L. Compressed illumination component data L ′ is generated.

L ′ (x, y) = B / A × (A × log (L (x, y)) / log (A))
... (9)

次に、係数計算部20cは、照明成分データLと、圧縮照明成分データL’とを用いて、下式(10)に従い、各画素に対応するカラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)の輝度変換用のゲイン係数k(x,y)を算出する。

k(x,y)=L’(x,y)/L(x,y) ・・・(10)

更に、係数計算部20cは、算出したゲイン係数k(x,y)と、リミット制御部20bから取得したリミット値limとを比較し、k(x,y)がリミット値lim以下の場合は、算出したk(x,y)をそのままとする。一方、k(x,y)がリミット値limを越えていた場合は、k(x,y)=limとする。
Next, the coefficient calculation unit 20c uses the illumination component data L and the compressed illumination component data L ′ to perform color HDR pixel data Ir (x, y), Ig corresponding to each pixel according to the following equation (10). A gain coefficient k (x, y) for luminance conversion of (x, y) and Ib (x, y) is calculated.

k (x, y) = L ′ (x, y) / L (x, y) (10)

Further, the coefficient calculation unit 20c compares the calculated gain coefficient k (x, y) with the limit value lim acquired from the limit control unit 20b, and when k (x, y) is equal to or less than the limit value lim, The calculated k (x, y) is left as it is. On the other hand, if k (x, y) exceeds the limit value lim, k (x, y) = lim is set.

そして、係数計算部20cは、ゲイン係数k(x,y)として、上式(10)で算出した値、又はリミット値limを、カラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)のゲイン係数k(x,y)として、レンジ圧縮部20dに出力する。
なお、照明成分の圧縮に、上式(9)を用いたが、この圧縮方法に限らず、下式(11)に示す、逆ガンマ特性に基づく圧縮方法を用いてもよい。

L'(x,y)=B/A×(A×(L(x,y)/A)0.4) ・・・(11)
Then, the coefficient calculation unit 20c uses the value calculated by the above equation (10) or the limit value lim as the gain coefficient k (x, y), the color HDR pixel data Ir (x, y), Ig (x, y). ) And Ib (x, y) as a gain coefficient k (x, y) and output to the range compression unit 20d.
Although the above equation (9) is used for compression of the illumination component, the present invention is not limited to this compression method, and a compression method based on the inverse gamma characteristic shown in the following equation (11) may be used.

L ′ (x, y) = B / A × (A × (L (x, y) / A) 0.4 ) (11)

レンジ圧縮部20dは、HDR撮像装置10から取得したカラーHDR画像データIの各カラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)の示す輝度値に、係数計算部20cから取得したゲイン係数k(x,y)を乗算する機能を有している。これにより、カラーHDR画像データのダイナミックレンジAをダイナミックレンジBに圧縮する。例えば、10ビットのダイナミックレンジ(0〜1023)を、8ビットのダイナミックレンジ(0〜255)に圧縮する場合は、上式(11)の「B/A」は「255/1023≒0.25」となる。   The range compression unit 20d determines the luminance values indicated by the color HDR pixel data Ir (x, y), Ig (x, y), and Ib (x, y) of the color HDR image data I acquired from the HDR imaging device 10, It has a function of multiplying the gain coefficient k (x, y) acquired from the coefficient calculation unit 20c. As a result, the dynamic range A of the color HDR image data is compressed to the dynamic range B. For example, when compressing a 10-bit dynamic range (0 to 1023) to an 8-bit dynamic range (0 to 255), “B / A” in the above equation (11) is “255/1023 = ≈0.25. "

具体的に、レンジ圧縮部20dは、下式(12)に従って、入力画像データであるカラーHDR画像データIの各カラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)をレンジ圧縮する。このレンジ圧縮されたカラーHDR画素データ(以下、カラーLDR画素データと称す)Or(x,y)、Og(x,y)、Ob(x,y)から、カラーLDR画像データOが構成される。

Or(x,y)=Ir(x,y)×k(x,y)
Og(x,y)=Ig(x,y)×k(x,y)
Ob(x,y)=Ib(x,y)×k(x,y) ・・・(12)
Specifically, the range compression unit 20d performs color HDR pixel data Ir (x, y), Ig (x, y), Ib (x) of the color HDR image data I that is input image data according to the following equation (12). , Y) is range-compressed. This range-compressed color HDR pixel data (hereinafter referred to as color LDR pixel data) Or (x, y), Og (x, y), Ob (x, y) constitutes color LDR image data O. .

Or (x, y) = Ir (x, y) × k (x, y)
Og (x, y) = Ig (x, y) × k (x, y)
Ob (x, y) = Ib (x, y) × k (x, y) (12)

また、レンジ圧縮部20dは、レンジ圧縮して得られたカラーLDR画像データOを、逆ガンマ処理部20eに出力する。
逆ガンマ処理部20eは、レンジ圧縮部20dから取得したカラーLDR画像データOに対して逆ガンマ処理を行う機能を有している。更に、逆ガンマ処理部20eは、逆ガンマ処理後のカラーLDR画像データOを、保存部20fに保存する。
ここで、逆ガンマ処理とは、例えば、ガンマ「γ=2.2」の表示装置で画像を見たときに、中間調が補正されるように、逆ガンマ「1/γ=1/2.2≒0.45」で補正をかける処理となる。
Further, the range compression unit 20d outputs the color LDR image data O obtained by the range compression to the inverse gamma processing unit 20e.
The inverse gamma processing unit 20e has a function of performing inverse gamma processing on the color LDR image data O acquired from the range compression unit 20d. Further, the inverse gamma processing unit 20e stores the color LDR image data O after the inverse gamma processing in the storage unit 20f.
Here, the reverse gamma processing is, for example, the reverse gamma “1 / γ = 1 / 2.2” so that the halftone is corrected when the image is viewed on a display device with a gamma “γ = 2.2”. The process is to apply the correction at “2≈0.45”.

保存部20fは、カラーLDR画像データOを格納するためのフレームメモリを備えており、逆ガンマ処理部20eからの書き込み要求に応じて、逆ガンマ処理後のカラーLDR画像データOをフレームメモリに格納する機能を有している。
なお、画像処理装置20は、上記各構成部を電気回路等のハードウェアで全て構成してもよいし、DSP等のプロセッサーを構成要素に含み、一部の処理をソフトウェアによって実現する構成としてもよい。
The storage unit 20f includes a frame memory for storing the color LDR image data O, and stores the color LDR image data O after the inverse gamma processing in the frame memory in response to a write request from the inverse gamma processing unit 20e. It has a function to do.
Note that the image processing apparatus 20 may be configured such that each of the above-described components is entirely configured by hardware such as an electric circuit, or may include a processor such as a DSP as a component, and a part of processing may be realized by software. Good.

次に、図4に基づき、画像処理装置20におけるレンジ変換処理の流れを説明する。ここで、図4は、画像処理装置20におけるレンジ変換処理を示すフローチャートである。
画像処理装置20において、レンジ変換処理が開始されると、図4に示すように、まず、ステップS100に移行する。
ステップS100では、画像処理装置20において、HDR撮像装置10において、撮影が開始されたか否かを判定し、開始されたと判定した場合(Yes)は、ステップS102に移行し、そうでない場合(No)は、撮影が開始されるまで判定処理を繰り返す。
Next, the flow of range conversion processing in the image processing apparatus 20 will be described with reference to FIG. Here, FIG. 4 is a flowchart showing the range conversion processing in the image processing apparatus 20.
When the range conversion process is started in the image processing apparatus 20, first, the process proceeds to step S100 as shown in FIG.
In step S100, the image processing apparatus 20 determines whether or not the HDR imaging apparatus 10 has started imaging. If it is determined that the imaging has started (Yes), the process proceeds to step S102; otherwise (No). Repeats the determination process until shooting is started.

ステップS102に移行した場合は、画像処理装置20において、HDR撮像装置10からカラーHDR画像データIを取得したか否かを判定し、取得したと判定した場合(Yes)は、ステップS104に移行し、そうでない場合(No)は、取得するまで判定処理を繰り返す。
ステップS104に移行した場合は、照明成分変換部20aにおいて、ステップS102で取得したカラーHDR画像データI(Ir,Ig,Ib)を、上式(7)を用いて、輝度画像データYに変換する。そして、変換して得られた輝度画像データYを、リミット制御部20bに出力して、ステップS106に移行する。
When the process proceeds to step S102, the image processing apparatus 20 determines whether or not the color HDR image data I has been acquired from the HDR imaging apparatus 10, and when it is determined that it has been acquired (Yes), the process proceeds to step S104. If not (No), the determination process is repeated until acquisition.
When the process proceeds to step S104, the illumination component conversion unit 20a converts the color HDR image data I (Ir, Ig, Ib) acquired in step S102 into the luminance image data Y using the above equation (7). . Then, the luminance image data Y obtained by the conversion is output to the limit control unit 20b, and the process proceeds to step S106.

ステップS106では、照明成分変換部20aにおいて、ステップS104で変換して得られた輝度画像データYに対して、上式(8)に示すガウシアンフィルタを用いたぼかし処理を行い、照明成分データLを生成して、ステップS108に移行する。
ステップS108では、リミット制御部20bにおいて、照明成分変換部20aから取得した輝度画像データYに基づき、平均輝度AVEを算出して、ステップS110に移行する。
In step S106, the illumination component conversion unit 20a performs a blurring process using the Gaussian filter shown in the above equation (8) on the luminance image data Y obtained by the conversion in step S104, and the illumination component data L is obtained. Generate and move to step S108.
In step S108, the limit control unit 20b calculates the average luminance AVE based on the luminance image data Y acquired from the illumination component conversion unit 20a, and proceeds to step S110.

ステップS110では、リミット制御部20bにおいて、平均輝度AVEと高輝度側の閾値YHとを比較し、AVEがYHより大きいか否かを判定する。そして、「AVE>YH」であると判定した場合(Yes)は、ステップS112に移行し、そうでない場合(No)は、ステップS128に移行する。
ステップS112に移行した場合は、リミット制御部20bにおいて、ゲイン係数kのリミット値limを「lim=limS」に決定し、決定したlimの情報を、係数計算部20cに出力して、ステップS114に移行する。
In step S110 determines, at limit control unit 20b, compares the threshold value Y H of the average brightness AVE and the high luminance side, AVE is whether greater than Y H. If it is determined that “AVE> Y H ” (Yes), the process proceeds to step S112, and if not (No), the process proceeds to step S128.
When the process proceeds to step S112, the limit control unit 20b determines that the limit value lim of the gain coefficient k is “lim = lim S ”, and outputs the determined lim information to the coefficient calculation unit 20c. Migrate to

ステップS114では、係数計算部20cにおいて、照明成分変換部20aから取得した照明成分データLから、レンジ圧縮処理の未処理なデータL(x,y)を選択する。そして、選択した照明成分データL(x,y)を用いて、上式(9)又は(11)によって、照明成分のレンジを圧縮した圧縮照明成分データL’(x,y)を生成して、ステップS116に移行する。
ステップS116では、係数計算部20cにおいて、照明成分データL及び圧縮照明成分データL’から、上式(10)を用いて、カラーHDR画像の各画素に対応するゲイン係数k(x,y)を算出して、ステップS118に移行する。
In step S114, the coefficient calculation unit 20c selects unprocessed data L (x, y) of the range compression process from the illumination component data L acquired from the illumination component conversion unit 20a. Then, by using the selected illumination component data L (x, y), compressed illumination component data L ′ (x, y) obtained by compressing the range of the illumination component is generated by the above formula (9) or (11). The process proceeds to step S116.
In step S116, the coefficient calculation unit 20c calculates the gain coefficient k (x, y) corresponding to each pixel of the color HDR image from the illumination component data L and the compressed illumination component data L ′ using the above equation (10). Then, the process proceeds to step S118.

ステップS118では、係数計算部20cにおいて、ステップS116で算出したゲイン係数k(x,y)と、リミット制御部20bから取得したリミット値limとを比較する。そして、k(x,y)がlimより大きいか否かを判定し、「k(x,y)>lim」であると判定した場合(Yes)は、ステップS120に移行し、そうでない場合(No)は、k(x,y)の値をそのままレンジ圧縮部20dに出力して、ステップS122に移行する。   In step S118, the coefficient calculation unit 20c compares the gain coefficient k (x, y) calculated in step S116 with the limit value lim acquired from the limit control unit 20b. Then, it is determined whether or not k (x, y) is larger than lim. If it is determined that “k (x, y)> lim” (Yes), the process proceeds to step S120, and otherwise ( No) outputs the value of k (x, y) as it is to the range compressor 20d, and proceeds to step S122.

ステップS120に移行した場合は、係数計算部20cにおいて、「k(x,y)=lim」に変更し、値をlimに変更したk(x,y)を、レンジ圧縮部20dに出力して、ステップS122に移行する。
ステップS122では、レンジ圧縮部20dにおいて、係数計算部20cから取得したk(x,y)を用いて、上式(10)によって、対応するカラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)のレンジを圧縮する処理を実行する。そして、レンジ圧縮後のカラーLDR画素データOr(x,y)、Og(x,y)、Ob(x,y)を、逆ガンマ処理部20eに出力して、ステップS124に移行する。
When the process proceeds to step S120, the coefficient calculation unit 20c changes “k (x, y) = lim” and outputs k (x, y) whose value is changed to lim to the range compression unit 20d. The process proceeds to step S122.
In step S122, the range compression unit 20d uses the k (x, y) acquired from the coefficient calculation unit 20c, and the corresponding color HDR pixel data Ir (x, y), Ig (x , Y) and Ib (x, y) are compressed. Then, the color LDR pixel data Or (x, y), Og (x, y), Ob (x, y) after range compression is output to the inverse gamma processing unit 20e, and the process proceeds to step S124.

ステップS124では、画像処理装置20において、1画像分の全ての画素について処理が終了したか否かを判定し、終了したと判定した場合(Yes)は、ステップS126に移行し、そうでない場合(No)は、ステップS114に移行する。
ステップS126に移行した場合は、画像処理装置20において、HDR撮像装置10の撮影処理が終了したか否かを判定し、終了したと判定した場合(Yes)は、一連の処理を終了し、そうでない場合(No)は、ステップS102に移行する。
In step S124, the image processing apparatus 20 determines whether or not processing has been completed for all pixels for one image. If it is determined that the processing has ended (Yes), the process proceeds to step S126; No) moves to step S114.
When the process proceeds to step S126, the image processing apparatus 20 determines whether or not the shooting process of the HDR imaging apparatus 10 is completed. When it is determined that the imaging process is completed (Yes), the series of processes is ended. If not (No), the process proceeds to step S102.

一方、ステップS110において、輝度平均AVEが高輝度側の閾値YH以下であって、ステップS128に移行した場合は、リミット制御部20bにおいて、輝度平均AVEが低輝度側の閾値YL(YH>YL)よりも小さいか否かを判定する。この判定によって、「AVE<YL」と判定した場合(Yes)は、ステップS130に移行し、そうでない場合(No)は、ステップS132に移行する。
ステップS130に移行した場合は、リミット制御部20bにおいて、ゲイン係数kのリミット値limを「lim=limL」に決定し、決定したlimの情報を、係数計算部20cに出力して、ステップS114に移行する。
On the other hand, if the luminance average AVE is equal to or lower than the high luminance side threshold Y H in step S110 and the process proceeds to step S128, the limit average control unit 20b sets the luminance average AVE to the low luminance side threshold Y L (Y H > Y L ) to determine whether it is smaller. If it is determined by this determination that “AVE <Y L ” (Yes), the process proceeds to step S130. If not (No), the process proceeds to step S132.
When the process proceeds to step S130, the limit control unit 20b determines that the limit value lim of the gain coefficient k is “lim = lim L ”, and outputs the determined lim information to the coefficient calculation unit 20c. Migrate to

また、ステップS128において、輝度平均AVEが「YH≧AVE≧YL」であって、ステップS132に移行した場合は、リミット制御部20bにおいて、ゲイン係数kのリミット値limを「lim=limM」に決定する。そして、決定したlimの情報を、係数計算部20cに出力して、ステップS114に移行する。
なお、limS、limM、limLは、「limS<limM<limL」の関係となる。
In step S128, when the luminance average AVE is “Y H ≧ AVE ≧ Y L ” and the process proceeds to step S132, the limit control unit 20b sets the limit value lim of the gain coefficient k to “lim = lim M Decided. Then, the determined lim information is output to the coefficient calculation unit 20c, and the process proceeds to step S114.
Note that lim S , lim M , and lim L have a relationship of “lim S <lim M <lim L ”.

次に、図5〜図6に基づき、本実施形態の動作を説明する。
ここで、図5(a)は、カラーHDR画像データIの平均輝度AVEと、ゲイン係数kのリミット値limとの関係の一例を示す図であり、(b)は、ゲイン係数kと、照明成分データLとの関係の一例を示す図である。また、図6(a)は、リミット値limを「5」に設定したときの、カラーHDR画像データIの輝度と、カラーLDR画像データOの輝度との関係の一例を示す図である。また、図6(b)は、リミット値limを「0.25」に設定したときの、カラーHDR画像データIの輝度と、カラーLDR画像データOの輝度との関係の一例を示す図である。
ユーザーの操作に応じて、HDR撮像装置10において、被写体の撮影処理が開始されると、被写体から反射された光は、レンズ11aで集光されてマイクロレンズ11bに入射される。レンズ11aからの入射光は、マイクロレンズ11bにおいて平行化されて、カラーフィルタアレイ11cを介してセンサセルアレイの各画素に入射される。
Next, the operation of the present embodiment will be described with reference to FIGS.
Here, FIG. 5A is a diagram illustrating an example of the relationship between the average luminance AVE of the color HDR image data I and the limit value lim of the gain coefficient k, and FIG. 5B is a diagram illustrating the gain coefficient k and the illumination. It is a figure which shows an example of the relationship with the component data. FIG. 6A is a diagram showing an example of the relationship between the luminance of the color HDR image data I and the luminance of the color LDR image data O when the limit value lim is set to “5”. FIG. 6B is a diagram illustrating an example of the relationship between the luminance of the color HDR image data I and the luminance of the color LDR image data O when the limit value lim is set to “0.25”. .
When the subject imaging process is started in the HDR imaging device 10 in response to a user operation, the light reflected from the subject is collected by the lens 11a and is incident on the microlens 11b. Incident light from the lens 11a is collimated by the microlens 11b and is incident on each pixel of the sensor cell array via the color filter array 11c.

一方、HDRセンサ11dにおいて、開始ラインから順に1ラインずつリセットラインRが設定されて、各画素の蓄積電荷がリセットされる。引き続き、各走査ラインに対して、各画素のリセット後において露光時間T1の経過タイミングで非破壊読み出しラインL1が設定され、走査されたラインの各画素(センサセル)から画素信号S1が読み出される。
引き続き、各走査ラインに対して、各画素のリセット後において露光時間T2の経過タイミングで非破壊読み出しラインL2が設定され、走査されたラインの各画素から画素信号S2が読み出される。引き続き、開始ラインから順に読み出し&リセットラインL3&Rが設定され、走査されたラインの各画素から画素信号S3が読み出され、その後、各画素の蓄積電荷がリセットされる。
On the other hand, in the HDR sensor 11d, the reset line R is set one line at a time from the start line, and the accumulated charge of each pixel is reset. Subsequently, for each scanning line, after resetting each pixel, a non-destructive readout line L1 is set at the elapse timing of the exposure time T1, and the pixel signal S1 is read from each pixel (sensor cell) of the scanned line.
Subsequently, for each scanning line, after resetting each pixel, the non-destructive readout line L2 is set at the elapse timing of the exposure time T2, and the pixel signal S2 is read from each pixel of the scanned line. Subsequently, the read & reset line L3 & R is set in order from the start line, the pixel signal S3 is read from each pixel of the scanned line, and then the accumulated charge of each pixel is reset.

以降、撮影処理が行われている間は、上記の手順でL1〜L3&Rの設定、画素信号S1〜S3の読み出し及びリセット処理が繰り返し行われる。
このようにして読み出された画素信号S1〜S3は、HDRセンサ11dにおいて、デジタルの画素データS1〜S3に変換され、ライン単位で且つ画素データS1〜S3の順で順次、メモリ12〜14へと出力される。
Thereafter, while the photographing process is being performed, the setting of L1 to L3 & R, the reading of the pixel signals S1 to S3, and the reset process are repeatedly performed according to the above procedure.
The pixel signals S1 to S3 read out in this way are converted into digital pixel data S1 to S3 in the HDR sensor 11d, and sequentially to the memories 12 to 14 in units of lines and in the order of the pixel data S1 to S3. Is output.

一方、画像合成部15のHDR信号処理部15aは、メモリ12、13、14に1ライン分の画素データS1、S2、S3がそれぞれ格納されると、HDR合成処理を実行する。
HDR合成処理が実行されると、HDR信号処理部15aは、メモリ12〜14から、1ライン分の画素データS1〜S3を取得する。そして、取得したS1〜S3を合成処理して、各画素位置のカラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)を生成する。そして、生成したカラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)を、メモリIFを介して、フレームメモリ15bの各画素位置に対応するアドレスのメモリ領域に格納する。
このようにして、カラーHDR画素データを順次生成し、1画像分(1フレーム分)のカラーHDR画像データIが生成されると、生成したカラーHDR画像データIを画像処理装置20に出力する。
On the other hand, the HDR signal processing unit 15a of the image synthesizing unit 15 executes the HDR synthesizing process when the pixel data S1, S2, and S3 for one line are stored in the memories 12, 13, and 14, respectively.
When the HDR synthesizing process is executed, the HDR signal processing unit 15a acquires pixel data S1 to S3 for one line from the memories 12 to 14. Then, the obtained S1 to S3 are combined to generate color HDR pixel data Ir (x, y), Ig (x, y), and Ib (x, y) at each pixel position. Then, the generated color HDR pixel data Ir (x, y), Ig (x, y), Ib (x, y) is stored in the memory area of the address corresponding to each pixel position of the frame memory 15b via the memory IF. To store.
In this way, color HDR pixel data is sequentially generated, and when the color HDR image data I for one image (one frame) is generated, the generated color HDR image data I is output to the image processing device 20.

一方、画像処理装置20は、HDR撮像装置10において撮影が開始されたことを判定すると(ステップS100の「Yes」の分岐)、HDR撮像装置10からカラーHDR画像データIが送信されるのを待機する。そして、HDR撮像装置10から1フレーム分のカラーHDR画像データIを取得すると(ステップS102の「Yes」の分岐)、まず、照明成分変換部20aにおいて、取得したカラーHDR画像データIを輝度画像データYへと変換する(ステップS104)。   On the other hand, when the image processing device 20 determines that shooting has started in the HDR imaging device 10 (the branch of “Yes” in step S100), the image processing device 20 waits for the color HDR image data I to be transmitted from the HDR imaging device 10. To do. When the color HDR image data I for one frame is acquired from the HDR imaging device 10 (“Yes” in step S102), first, the illumination component conversion unit 20a converts the acquired color HDR image data I into luminance image data. Conversion to Y is performed (step S104).

ここでは、各画素データが10ビットで表現されたカラーHDR画像データIを取得したとする。
例えば、画素位置が「(x,y)=(1,1)」のカラーHDR画素データIr(1,1)、Ig(1,1)、Ib(1,1)が、「(Ir(1,1),Ig(1,1),Ib(1,1))=(250,752,560)」であったとする。
この場合は、上式(9)から、「Y(1,1)=0.3×250+0.6×752+0.1×560≒582」が算出される。
Here, it is assumed that color HDR image data I in which each pixel data is expressed by 10 bits is acquired.
For example, the color HDR pixel data Ir (1, 1), Ig (1, 1), and Ib (1, 1) with the pixel position “(x, y) = (1, 1)” are “(Ir (1 , 1), Ig (1, 1), Ib (1, 1)) = (250, 752, 560) ”.
In this case, “Y (1, 1) = 0.3 × 250 + 0.6 × 752 + 0.1 × 560≈582” is calculated from the above equation (9).

このようにして、取得したカラーHDR画像データIの各画素データを輝度値へと変換し、全画素データについて輝度変換を行うことで輝度画像データYを生成する。
輝度画像データYが生成されると、次に、画像処理装置20は、照明成分変換部20aにおいて、生成した輝度画像データYに対して、上式(8)のガウシアンフィルタを用いたぼかし処理を行い、照明成分データLを生成する(ステップS106)。
In this way, each pixel data of the acquired color HDR image data I is converted into a luminance value, and luminance image data Y is generated by performing luminance conversion on all the pixel data.
Once the luminance image data Y is generated, the image processing device 20 then performs a blurring process using the Gaussian filter of the above equation (8) on the generated luminance image data Y in the illumination component conversion unit 20a. The illumination component data L is generated (step S106).

ガウシアンフィルタは、n×m画素(n、mは3以上の自然数)に対応するカーネル(オペレータともいう)のレートを、ガウス分布関数によって生成したものである。このカーネルを用いて、注目画素とその周辺の画素との輝度値に対して、各画素位置に対応したレートを乗算していくことでぼかし処理を行う。
ぼかし処理によって、照明成分データLが生成されると、照明成分変換部20aは、生成した輝度画像データYをリミット制御部20bに出力し、照明成分データLを、係数計算部20cに出力する。
The Gaussian filter is obtained by generating a kernel (also called an operator) rate corresponding to n × m pixels (n and m are natural numbers of 3 or more) by a Gaussian distribution function. Using this kernel, blurring processing is performed by multiplying the luminance values of the pixel of interest and its surrounding pixels by a rate corresponding to each pixel position.
When the illumination component data L is generated by the blurring process, the illumination component conversion unit 20a outputs the generated luminance image data Y to the limit control unit 20b, and outputs the illumination component data L to the coefficient calculation unit 20c.

リミット制御部20bは、照明成分変換部20aから輝度画像データYを取得すると、取得した輝度画像データYの平均輝度AVEを算出する(ステップS108)。本実施形態では、平均輝度AVEは、輝度画像データYにおける、全画素データの輝度値の総和Wを画素数Nで除算(AVE=W/N)することで算出する。
リミット制御部20bは、平均輝度AVEを算出すると、次に、AVEと、予め設定された高輝度側の閾値YHとを比較し、AVEがYHよりも大きいか否かを判定する(ステップS110)。
When the limit control unit 20b acquires the luminance image data Y from the illumination component conversion unit 20a, the limit control unit 20b calculates the average luminance AVE of the acquired luminance image data Y (step S108). In the present embodiment, the average luminance AVE is calculated by dividing the sum W of luminance values of all pixel data in the luminance image data Y by the number of pixels N (AVE = W / N).
After calculating the average luminance AVE, the limit control unit 20b then compares AVE with a preset threshold Y H on the high luminance side, and determines whether or not AVE is larger than Y H (Step S20). S110).

ここでは、カラーHDR画像データIが、10ビットのデータであることから、高輝度側の閾値YHとして「768」を、また、低輝度側の閾値YLとして「256」を設定している。
本実施形態では、更に、レンジ圧縮後のカラーLDR画像データが所定の階調特性を有するようにゲイン係数kのlimの値が設定されている。具体的に、照明成分データLの値の範囲に対して、低輝度域でログセンサの特性を有し、中輝度域でリニアログセンサの特性を有し、高輝度域でリニアセンサの特性を有するようにリミット値limS、limM、limLの値を設定している。
Here, since the color HDR image data I is 10-bit data, “768” is set as the threshold Y H on the high luminance side, and “256” is set as the threshold Y L on the low luminance side. .
In the present embodiment, the lim value of the gain coefficient k is further set so that the color LDR image data after range compression has a predetermined gradation characteristic. Specifically, with respect to the value range of the illumination component data L, it has log sensor characteristics in the low luminance range, linear log sensor characteristics in the middle luminance range, and linear sensor characteristics in the high luminance range. Limit values lim S , lim M , and lim L are set as follows.

ここでは、10ビットの階調範囲のカラーHDR画像データIを、8ビットの階調範囲のカラーLDR画像データOへとレンジ圧縮するので、図5(b)に示すように、リミット値として「limS=1/4(0.25)、limM=5、limL=22」を設定している。
例えば、輝度平均AVEが「400」である場合は、「YH=768」よりも小さくなり(ステップS110の「Yes」の分岐)、且つ「YL=256」よりも大きくなる(ステップS128の「No」の分岐)。
Here, since the color HDR image data I in the 10-bit gradation range is range-compressed into the color LDR image data O in the 8-bit gradation range, as shown in FIG. lim S = 1/4 (0.25), lim M = 5, lim L = 22 ".
For example, when the luminance average AVE is “400”, it is smaller than “Y H = 768” (the branch of “Yes” in step S110) and larger than “Y L = 256” (in step S128). “No” branch).

従って、リミット制御部20bは、輝度平均AVEが「400」の場合は、ゲイン係数kのリミット値limを、「lim=5」に決定し、決定したlimの情報を係数計算部20cに出力する(ステップS132)。
係数計算部20cは、リミット制御部20bから、リミット値「lim=5」の情報を取得すると、まず、上式(10)に従って、照明成分データLのレンジを圧縮して、圧縮照明成分データL’を生成する(ステップS114)。
Therefore, when the luminance average AVE is “400”, the limit control unit 20b determines that the limit value lim of the gain coefficient k is “lim = 5”, and outputs information on the determined lim to the coefficient calculation unit 20c. (Step S132).
When the coefficient calculation unit 20c acquires information on the limit value “lim = 5” from the limit control unit 20b, first, the coefficient calculation unit 20c compresses the range of the illumination component data L according to the above equation (10), and the compressed illumination component data L 'Is generated (step S114).

例えば、カラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)が「155,158,131」であり、輝度画素データY(x,y)が「154」であり、このときの照明成分データL(x,y)が「150」であるとする。この場合は、上式(9)より、「L’(x,y)=255/1023×(1023×log(150)/log(1023))≒184」となる。   For example, the color HDR pixel data Ir (x, y), Ig (x, y), and Ib (x, y) are “155, 158, 131”, and the luminance pixel data Y (x, y) is “154”. It is assumed that the illumination component data L (x, y) at this time is “150”. In this case, from the above equation (9), “L ′ (x, y) = 255/1023 × (1023 × log (150) / log (1023)) ≈184”.

係数計算部20cは、圧縮照明成分データL’(x,y)が算出されると、次に、上式(10)に従って、画素位置(x,y)に対するゲイン係数k(x,y)を算出する(ステップS116)。
具体的に、L(x,y)が「150」、L’(x,y)が「184」であるので、上式(10)より、「k(x,y)=184/150≒1.2」と算出される。
ゲイン係数kが算出されると、係数計算部20cは、次に、算出したゲイン係数「k(x,y)=1.2」と、リミット値「lim=5」とを比較する(ステップS118)。この場合は、「k(x,y)<lim」となるので(ステップS118の「No」の分岐)、ゲイン係数「k(x,y)=1.2」の情報を、レンジ圧縮部20dに出力する。
When the compressed illumination component data L ′ (x, y) is calculated, the coefficient calculation unit 20c then calculates the gain coefficient k (x, y) for the pixel position (x, y) according to the above equation (10). Calculate (step S116).
Specifically, since L (x, y) is “150” and L ′ (x, y) is “184”, “k (x, y) = 184 / 150≈1 from the above equation (10). .2 ".
When the gain coefficient k is calculated, the coefficient calculation unit 20c then compares the calculated gain coefficient “k (x, y) = 1.2” with the limit value “lim = 5” (step S118). ). In this case, since “k (x, y) <lim” (the branch of “No” in step S118), information on the gain coefficient “k (x, y) = 1.2” is stored in the range compression unit 20d. Output to.

また、例えば、カラーHDR画素データ(Ir(x,y)、Ig(x,y)、Ib(x,y)が「4,25,13」であり、輝度画素データY(x,y)が「18」であり、このときの照明成分データL(x,y)が「15」であるとする。この場合は、上式(9)より、「L’(x,y)=255/1023×(1023×log(15)/log(1023)≒100」となる。   Further, for example, the color HDR pixel data (Ir (x, y), Ig (x, y), Ib (x, y)) is “4, 25, 13”, and the luminance pixel data Y (x, y) is It is assumed that the illumination component data L (x, y) at this time is “15.” In this case, “L ′ (x, y) = 255/1023 from the above equation (9). × (1023 × log (15) / log (1023) ≈100 ”.

係数計算部20cは、L(x,y)が「15」、L’(x,y)が「100」であるので、上式(10)より、ゲイン係数kとして、「k(x,y)=100/15≒6.6」を算出する。この場合は、「k(x,y)>lim」となるので(ステップS118の「No」の分岐)、ゲイン係数k(x,y)を、limの値とする。つまり、「k(x,y)=lim=5」の情報を、レンジ圧縮部20dに出力する。   Since the coefficient calculation unit 20c has L (x, y) of “15” and L ′ (x, y) of “100”, the gain coefficient k is calculated as “k (x, y) from the above equation (10). ) = 100 / 15≈6.6 ”. In this case, since “k (x, y)> lim” (the branch of “No” in step S118), the gain coefficient k (x, y) is set to the value of lim. That is, the information “k (x, y) = lim = 5” is output to the range compression unit 20d.

レンジ圧縮部20dは、係数計算部20cからゲイン係数k(x,y)の情報を取得すると、上式(12)に従って、画素位置(x,y)のカラーHDR画素データIr(x,y)、Ig(x,y)、Ib(x,y)のレンジ圧縮を行う(ステップS122)。
ゲイン係数kが「1.2」の場合は、上式(12)から、「Or(x,y)=1.2×155=186」、「Og(x,y)=1.2×158≒190」、「Ob(x,y)=1.2×131=157」と算出される。
When the range compression unit 20d acquires the gain coefficient k (x, y) information from the coefficient calculation unit 20c, the color HDR pixel data Ir (x, y) at the pixel position (x, y) according to the above equation (12). , Ig (x, y) and Ib (x, y) are compressed (step S122).
When the gain coefficient k is “1.2”, “Or (x, y) = 1.2 × 155 = 186” and “Og (x, y) = 1.2 × 158 are obtained from the above equation (12). ≈ 190 ”and“ Ob (x, y) = 1.2 × 131 = 157 ”.

これにより、レンジ圧縮後のカラーLDR画素データとして、「(Or(x,y)、Og(x,y)、Ob(x,y))=(186,190,157)」が求まる。
また、ゲイン係数kが「5.0」の場合は、上式(12)から、「Or(x,y)=5.0×4=20」、「Og(x,y)=5.0×25=125」、「Ob(x,y)=5.0×13=65」と算出される。
As a result, “(Or (x, y), Og (x, y), Ob (x, y)) = (186, 190, 157)” is obtained as the color LDR pixel data after range compression.
When the gain coefficient k is “5.0”, “Or (x, y) = 5.0 × 4 = 20” and “Og (x, y) = 5.0 are obtained from the above equation (12). × 25 = 125 ”and“ Ob (x, y) = 5.0 × 13 = 65 ”.

これにより、レンジ圧縮後のカラーLDR画素データとして、「(Or(x,y)、Og(x,y)、Ob(x,y))=(20,125,65)」が求まる。
一方、リミット値「5」で制限をかけなかった場合は、ゲイン係数kは「6.6」となるので、上式(12)から、「Or(x,y)=6.6×4≒26」、「Og(x,y)=6.6×25=165」、「Ob(x,y)=6.6×13≒86」と算出される。
As a result, “(Or (x, y), Og (x, y), Ob (x, y)) = (20, 125, 65)” is obtained as the color LDR pixel data after range compression.
On the other hand, when the limit value “5” is not limited, the gain coefficient k is “6.6”. Therefore, from the above equation (12), “Or (x, y) = 6.6 × 4≈ 26 ”,“ Og (x, y) = 6.6 × 25 = 165 ”, and“ Ob (x, y) = 6.6 × 13≈86 ”.

従って、本来ならば、「(Or(x,y)、Og(x,y)、Ob(x,y))=(26,165,86)」となり、明るくなりすぎる低輝度部を、ゲイン係数kにリミットを設けることで、(20,125,65)の輝度に抑えることができる。
このようにして算出されたカラーLDR画素データ(Or(x,y)、Og(x,y)、Ob(x,y))は、逆ガンマ処理部20eにおいて、逆ガンマ処理が施された後に、保存部20fにおいてフレームメモリに保存される。
Therefore, originally, “(Or (x, y), Og (x, y), Ob (x, y)) = (26, 165, 86)” is obtained, and the low-brightness portion that is too bright is determined as the gain coefficient. By providing a limit on k, it is possible to suppress the luminance to (20, 125, 65).
The color LDR pixel data (Or (x, y), Og (x, y), Ob (x, y)) calculated in this way is subjected to inverse gamma processing in the inverse gamma processing unit 20e. In the storage unit 20f, the data is stored in the frame memory.

そして、上記同様の処理を繰り返し行い、カラーHDR画像データIの全ての画素についてレンジ圧縮処理が終了すると(ステップS124の「Yes」の分岐)、次に、撮影処理が終了したか否かを判定する(ステップS126)。ここで、撮影処理が終了していないと判定した場合(ステップS126の「No」の分岐)は、次のフレームのカラーHDR画像データIの送信を待ち(ステップS102)、終了したと判定した場合(ステップS126の「Yes」の分岐)は、一連の処理を終了する。
なお、リミット値limを「5」にした場合は、図6(a)に示すように、カラーHDR画像データI(入力値)に対して、カラーLDR画像データO(出力値)は、低輝度領域で線形に変化し途中からログセンサの変化となる、リニアログセンサの階調特性を有することになる。
Then, the same processing as described above is repeated, and when the range compression processing is completed for all the pixels of the color HDR image data I (“Yes” branch of step S124), it is then determined whether or not the photographing processing is completed. (Step S126). If it is determined that the shooting process has not been completed (“No” branch in step S126), the transmission of the color HDR image data I of the next frame is awaited (step S102), and it is determined that the shooting process has ended. (Step S126: “Yes” branch) terminates the series of processing.
When the limit value lim is “5”, as shown in FIG. 6A, the color LDR image data O (output value) is lower in luminance than the color HDR image data I (input value). It has the gradation characteristic of the linear log sensor, which changes linearly in the region and changes in the log sensor from the middle.

一方、リミット制御部20bにおいて、例えば、輝度平均AVEが「800」である場合は、「YH=768」よりも大きくなるので(ステップS110の「Yes」の分岐)、ゲイン係数kのリミット値limを、最小値である「lim=0.25」に決定する。
図5(b)に示すように、ゲイン係数kの値の範囲よりもリミット値が小さいということは、算出した全てのkがlim(1/4)に固定されることとなり、定数を乗算することと同様となる。従って、この場合は、図6(b)に示すように、カラーHDR画像データIに対して、カラーLDR画像データOは線形に変化し、リニアセンサの階調特性を有することになる。
On the other hand, in the limit control unit 20b, for example, when the luminance average AVE is “800”, it becomes larger than “Y H = 768” (the branch of “Yes” in Step S110), so the limit value of the gain coefficient k The lim is determined to be “lim = 0.25” which is the minimum value.
As shown in FIG. 5B, the fact that the limit value is smaller than the range of the value of the gain coefficient k means that all calculated k are fixed to lim (1/4), and a constant is multiplied. It becomes the same as that. Therefore, in this case, as shown in FIG. 6B, the color LDR image data O changes linearly with respect to the color HDR image data I, and has the gradation characteristics of the linear sensor.

また、リミット制御部20bにおいて、例えば、輝度平均AVEが「200」である場合は、「YH=768」よりも小さくなり(ステップS110の「No」の分岐)、且つ「YL=256」よりも小さくなる。従って、ゲイン係数kのリミット値limを、最大値である「lim=22」に決定する。
リミット値が大きいということは、図5(b)に示すように、Lの値が余程小さくない限りは、算出したkがそのまま用いられるため画像の明るさを確保することができる。更に、低輝度部分においては明るくしすぎないようにkの上限が制限されるため、低輝度部分を明るくしすぎないようにすることができる。この場合は、カラーLDR画像データOは、ログセンサの階調特性を有することになる。
In the limit control unit 20b, for example, when the luminance average AVE is “200”, it becomes smaller than “Y H = 768” (the branch of “No” in Step S110), and “Y L = 256”. Smaller than. Therefore, the limit value lim of the gain coefficient k is determined to be “lim = 22” which is the maximum value.
When the limit value is large, as shown in FIG. 5B, the brightness of the image can be ensured since the calculated k is used as long as the value of L is not so small. Furthermore, since the upper limit of k is limited so that it is not too bright in the low luminance part, it is possible to prevent the low luminance part from being excessively bright. In this case, the color LDR image data O has the gradation characteristics of the log sensor.

以上説明したように、本実施形態の撮像システム1は、画像処理装置20において、カラーHDR画像データIの各画素データの示す輝度値における照明光成分を圧縮することでダイナミックレンジを圧縮(レンジ圧縮)することができる。
更に、レンジ圧縮する際に、照明光成分を圧縮するゲイン係数kを算出すると共に、ゲイン係数kのリミット値limを決定し、決定したlimに基づき輝度変換用のゲイン係数kのリミットを制限することができる。
更に、リミット値limを決定する際に、カラーHDR画像データIから輝度画像データYを生成し、該輝度画像データYの平均輝度AVEを算出する。そして、平均輝度AVEと、予め設定された輝度の閾値YH、YL(YH>YL)とに基づき、画像の明るさに対応する輝度変換用のゲイン係数kのリミット値limを決定することができる。
As described above, the imaging system 1 according to the present embodiment compresses the dynamic range by compressing the illumination light component in the luminance value indicated by each pixel data of the color HDR image data I in the image processing device 20 (range compression). )can do.
Further, when the range compression is performed, the gain coefficient k for compressing the illumination light component is calculated, the limit value lim of the gain coefficient k is determined, and the limit of the gain coefficient k for luminance conversion is limited based on the determined lim. be able to.
Further, when determining the limit value lim, the luminance image data Y is generated from the color HDR image data I, and the average luminance AVE of the luminance image data Y is calculated. Then, based on the average luminance AVE and preset luminance threshold values Y H and Y L (Y H > Y L ), the limit value lim of the luminance conversion gain coefficient k corresponding to the brightness of the image is determined. can do.

更に、比較的高輝度の画像に対しては、通常よりも小さなリミット値(例えば、係数kの最小値よりも小さい値)であって、且つレンジ圧縮後の画像の階調特性がリニアセンサの階調特性となるリミット値limSを設定することができる。また、比較的低輝度の画像に対しては、通常よりも小さなリミット値(limSよりは大きい)であって、且つレンジ圧縮後の画像の階調特性がリニアログセンサの階調特性となるリミット値limMを設定することができる。また、YHとYLとの間の輝度範囲の画像に対しては、レンジ圧縮後の画像の階調特性がログセンサの階調特性となる通常のリミット値lim(L)を設定することができる。
以上より、暗い画像については、入力画像の低輝度部分が明るくなりすぎないように制限をかけつつも、必要な明るさを確保した画像を生成することができる。また、明るい画像については、入力画像の低輝度部分が明るくなりすぎないように制限をかけつつも、黒浮きのないメリハリの効いた画像を生成することができる。
Furthermore, for a relatively high-brightness image, the limit value is smaller than usual (for example, a value smaller than the minimum value of the coefficient k), and the tone characteristics of the image after range compression are It is possible to set a limit value lim S that is a gradation characteristic. For a relatively low-brightness image, the gradation characteristic of the linear log sensor is the gradation value of the image after the range compression with a smaller limit value (larger than lim S ) than usual. The limit value lim M can be set. For an image in the luminance range between Y H and Y L , it is possible to set a normal limit value lim (L) at which the tone characteristics of the image after range compression become the tone characteristics of the log sensor. it can.
As described above, with respect to a dark image, it is possible to generate an image that secures necessary brightness while limiting the low luminance portion of the input image so as not to be too bright. As for a bright image, it is possible to generate a sharp image with no black floating while limiting the low luminance portion of the input image so that it is not too bright.

また、入力画像の明るさに応じて、出力画像の画質特性(階調特性)を、リニアセンサ、リニアログセンサ、ログセンサのうちいずれかの画質特性へと動的に変化させることができる。
上記実施形態において、照明成分変換部20a、リミット制御部20b、係数計算部20c、レンジ圧縮部20dは、形態1〜5のいずれか1に記載の画像変換手段に対応する。
また、上記実施形態において、ステップS100〜S132は、形態6又は7に記載の画像変換ステップに対応する。
Also, the image quality characteristic (gradation characteristic) of the output image can be dynamically changed to any one of the linear sensor, the linear log sensor, and the log sensor in accordance with the brightness of the input image.
In the said embodiment, the illumination component conversion part 20a, the limit control part 20b, the coefficient calculation part 20c, and the range compression part 20d respond | correspond to the image conversion means of any one of the forms 1-5.
Moreover, in the said embodiment, step S100-S132 respond | corresponds to the image conversion step as described in form 6 or 7.

また、上記実施形態において、撮像システム1は、形態8に記載の撮像装置又は形態9に記載の電子機器に対応する。
なお、上記実施形態における、撮像システム1は、HDR撮像装置10と画像処理装置20とを一体形成して撮像装置の構成とすることが可能である。または、表示装置、メモリ装置等の不図示の他の装置と組み合わせて、デジタルカメラ、デジタルビデオカメラなどの電子機器を構成することも可能である。
In the above-described embodiment, the imaging system 1 corresponds to the imaging device according to the eighth aspect or the electronic device according to the ninth aspect.
In the imaging system 1 in the above embodiment, the HDR imaging device 10 and the image processing device 20 can be integrally formed to form a configuration of the imaging device. Alternatively, an electronic device such as a digital camera or a digital video camera can be configured in combination with another device (not shown) such as a display device or a memory device.

また、上記実施形態において、撮像素子11のHDRセンサ11dが、CMOS技術を用いて構成されたセンサセルアレイを有する構成としたが、この構成に限らない。例えば、CCDから構成されるセンサセルアレイを有する構成など他の構成としてもよい。
また、上記実施形態において、平均輝度AVEと輝度の閾値YH及びYLとの比較結果に基づき、リミット値limの値を、lims、limM、limHの3種類の中から選択する構成としたが、この構成に限らない。
例えば、リミット値を、基準値であるlimHだけにし、limHに対して、平均輝度AVEの大きさに応じた補正量を加算又は減算する構成や、4種類以上のリミット値から選択する構成など、他の構成としてもよい。
In the above embodiment, the HDR sensor 11d of the image sensor 11 has the sensor cell array configured using the CMOS technology. However, the configuration is not limited thereto. For example, other configurations such as a configuration having a sensor cell array composed of CCDs may be used.
In the above embodiment, the limit value lim is selected from the three types of lim s , lim M , and lim H based on the comparison result between the average luminance AVE and the luminance threshold values Y H and Y L. However, the present invention is not limited to this configuration.
For example, the limit value, only the lim H is the reference value for lim H, configuration and adding or subtracting the correction amount corresponding to the magnitude of the average brightness AVE, selected from four or more limit values configuration Other configurations may be used.

また、上記実施形態において、lims、limM、limHの値を、0.25、5、22としたが、この値に限らず、大小関係を維持していれば、他の値としてもよい。
また、上記実施形態において、lims、limM、limHの値を、出力画像の階調特性が、リニアセンサ、リニアログセンサ、ログセンサの階調特性となるように設定したが、この構成に限らない。
例えば、階調特性に関係のない値を設定したり、他のセンサの階調特性となる値を設定したりするなど、他の構成としてもよい。
In the above embodiment, the values of lim s , lim M , and lim H are set to 0.25, 5, and 22. However, the values are not limited to these values, and other values may be used as long as the magnitude relationship is maintained. Good.
In the above embodiment, the values of lim s , lim M , and lim H are set so that the gradation characteristics of the output image are the gradation characteristics of the linear sensor, linear log sensor, and log sensor. Not exclusively.
For example, other configurations such as setting a value that is not related to the gradation characteristics, or setting a value that becomes the gradation characteristics of another sensor may be used.

また、上記実施形態は、本発明の好適な具体例であり、技術的に好ましい種々の限定が付されているが、本発明の範囲は、上記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。また、上記の説明で用いる図面は、図示の便宜上、部材ないし部分の縦横の縮尺は実際のものとは異なる模式図である。
また、本発明は上記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
The above embodiments are preferable specific examples of the present invention, and various technically preferable limitations are given. However, the scope of the present invention is described in particular in the above description to limit the present invention. As long as there is no, it is not restricted to these forms. In the drawings used in the above description, for convenience of illustration, the vertical and horizontal scales of members or parts are schematic views different from actual ones.
Further, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.

1…撮像システム、10…HDR撮像装置、11…撮像素子、11a…レンズ、11b…マイクロレンズ、11c…カラーフィルタアレイ、11d…HDRセンサ、12〜14…メモリ、15…画像合成部、15a…HDR信号処理部、15b…フレームメモリ、20…画像処理装置、20a…照明成分変換部、20b…リミット制御部、20c…係数計算部、20d…レンジ圧縮部、20e…逆ガンマ処理部、20f…保存部 DESCRIPTION OF SYMBOLS 1 ... Imaging system, 10 ... HDR imaging device, 11 ... Imaging device, 11a ... Lens, 11b ... Micro lens, 11c ... Color filter array, 11d ... HDR sensor, 12-14 ... Memory, 15 ... Image composition part, 15a ... HDR signal processing unit, 15b ... frame memory, 20 ... image processing device, 20a ... illumination component conversion unit, 20b ... limit control unit, 20c ... coefficient calculation unit, 20d ... range compression unit, 20e ... inverse gamma processing unit, 20f ... Preservation part

Claims (9)

入力画像の輝度を変換して階調特性の異なる出力画像を生成する画像変換手段を備え、
前記画像変換手段は、前記入力画像の輝度が低いほど該輝度を変換するゲインを高くする変換特性を有すると共に、前記ゲインに上限を設け、該上限を可変としたことを特徴とする画像処理装置。
Image conversion means for converting the luminance of the input image to generate an output image having different gradation characteristics,
The image conversion means has a conversion characteristic that increases the gain for converting the luminance as the luminance of the input image is lower, and sets an upper limit for the gain, and makes the upper limit variable. .
前記画像変換手段は、前記入力画像の輝度を変換して、前記入力画像のダイナミックレンジを圧縮した出力画像を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image conversion unit converts the luminance of the input image to generate an output image in which a dynamic range of the input image is compressed. 前記画像変換手段は、前記入力画像の輝度が、設定された輝度の閾値よりも低輝度であるときに、前記上限を上昇させ、前記輝度の閾値よりも高輝度であるときに、前記上限を低下させることを特徴とする請求項1又は請求項2に記載の画像処理装置。   The image conversion means increases the upper limit when the luminance of the input image is lower than a set luminance threshold, and increases the upper limit when the luminance is higher than the luminance threshold. The image processing apparatus according to claim 1, wherein the image processing apparatus is lowered. 前記画像変換手段は、前記入力画像の平均輝度に応じて、前記上限を変化させることを特徴とする請求項1乃至請求項3のいずれか1項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the image conversion unit changes the upper limit in accordance with an average luminance of the input image. 5. 前記画像変換手段は、前記出力画像が、入射光量の電気信号への変換方式の異なる複数種類の撮像素子のいずれか1種類の撮像素子で変換時の画像特性を有するように、前記上限を変化させることを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像処理装置。   The image conversion means changes the upper limit so that the output image has an image characteristic at the time of conversion by any one of a plurality of types of imaging elements having different conversion methods for converting an incident light amount into an electrical signal. The image processing apparatus according to any one of claims 1 to 4, wherein the image processing apparatus is configured to perform the above-described processing. 入力画像の輝度を変換して階調特性の異なる出力画像を生成する画像変換ステップを含み、
前記画像変換ステップにおいては、前記入力画像の輝度が低いほど該輝度を変換するゲインを高くすると共に、前記ゲインに上限を設け、該上限を可変とする変換処理を行うことを特徴とする画像処理方法。
Including an image conversion step of converting the luminance of the input image to generate an output image having different gradation characteristics,
In the image conversion step, the lower the luminance of the input image, the higher the gain for converting the luminance, the upper limit is set on the gain, and the conversion processing is performed to make the upper limit variable. Method.
入力画像の輝度を変換して階調特性の異なる出力画像を生成する画像変換ステップを有する処理をコンピューターに実行させるための画像処理プログラムを含み、
前記画像変換ステップにおいては、前記入力画像の輝度が低いほど該輝度を変換するゲインを高くすると共に、前記ゲインに上限を設け、該上限を可変とする変換処理を行うことを特徴とする画像処理プログラム。
Including an image processing program for causing a computer to execute a process having an image conversion step of converting the luminance of an input image to generate an output image having different gradation characteristics;
In the image conversion step, the lower the luminance of the input image, the higher the gain for converting the luminance, the upper limit is set on the gain, and the conversion processing is performed to make the upper limit variable. program.
被写体を撮像する撮像手段と、
請求項1乃至請求項5のいずれか1項に記載の画像処理装置とを備え、
前記画像処理装置は、前記撮像手段で撮像して得た撮像画像を前記入力画像として変換処理を行うことを特徴とする撮像装置。
Imaging means for imaging a subject;
An image processing apparatus according to any one of claims 1 to 5,
The image processing apparatus performs conversion processing using a captured image obtained by capturing with the imaging unit as the input image.
請求項8に記載の撮像装置を備えることを特徴とする電子機器。   An electronic apparatus comprising the imaging device according to claim 8.
JP2009253126A 2009-11-04 2009-11-04 Image processor, image processing method, image processing program, imaging apparatus, and electronic device Pending JP2011100204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009253126A JP2011100204A (en) 2009-11-04 2009-11-04 Image processor, image processing method, image processing program, imaging apparatus, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253126A JP2011100204A (en) 2009-11-04 2009-11-04 Image processor, image processing method, image processing program, imaging apparatus, and electronic device

Publications (1)

Publication Number Publication Date
JP2011100204A true JP2011100204A (en) 2011-05-19

Family

ID=44191343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253126A Pending JP2011100204A (en) 2009-11-04 2009-11-04 Image processor, image processing method, image processing program, imaging apparatus, and electronic device

Country Status (1)

Country Link
JP (1) JP2011100204A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014034729A1 (en) * 2012-08-31 2014-03-06 国立大学法人京都工芸繊維大学 Digital holography device and digital holography play method
US8989484B2 (en) 2011-07-28 2015-03-24 Samsung Electronics Co., Ltd. Apparatus and method for generating high dynamic range image from which ghost blur is removed using multi-exposure fusion
US9413925B2 (en) 2013-10-30 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2017098676A1 (en) * 2015-12-10 2017-06-15 パナソニックIpマネジメント株式会社 Display device and method for controlling backlight
CN109983754A (en) * 2016-11-17 2019-07-05 松下知识产权经营株式会社 Image processing apparatus, image processing method and program
WO2021144830A1 (en) * 2020-01-14 2021-07-22 オリンパス株式会社 Image processing system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8989484B2 (en) 2011-07-28 2015-03-24 Samsung Electronics Co., Ltd. Apparatus and method for generating high dynamic range image from which ghost blur is removed using multi-exposure fusion
WO2014034729A1 (en) * 2012-08-31 2014-03-06 国立大学法人京都工芸繊維大学 Digital holography device and digital holography play method
JPWO2014034729A1 (en) * 2012-08-31 2016-08-08 国立大学法人京都工芸繊維大学 Digital holography apparatus and digital holography reproduction method
US10108145B2 (en) 2012-08-31 2018-10-23 National University Corporation Kyoto Institute Of Technology Digital holography device and digital holography play method
US9413925B2 (en) 2013-10-30 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2017098676A1 (en) * 2015-12-10 2017-06-15 パナソニックIpマネジメント株式会社 Display device and method for controlling backlight
CN109983754A (en) * 2016-11-17 2019-07-05 松下知识产权经营株式会社 Image processing apparatus, image processing method and program
WO2021144830A1 (en) * 2020-01-14 2021-07-22 オリンパス株式会社 Image processing system
JPWO2021144830A1 (en) * 2020-01-14 2021-07-22
JP7291808B2 (en) 2020-01-14 2023-06-15 株式会社エビデント Image processing system, image processing method
US11900574B2 (en) 2020-01-14 2024-02-13 Evident Corporation Image processing system and image processing method

Similar Documents

Publication Publication Date Title
US8310562B2 (en) Imaging control apparatus, imaging apparatus and imaging control method for compressing the dynamic range of image data
US8363131B2 (en) Apparatus and method for local contrast enhanced tone mapping
US9148578B2 (en) Image capture apparatus, control method thereof, and recording medium
US6825884B1 (en) Imaging processing apparatus for generating a wide dynamic range image
US8970722B2 (en) Image processing apparatus and method of controlling the same
CN110033418B (en) Image processing method, image processing device, storage medium and electronic equipment
US8155441B2 (en) Image processing apparatus, image processing method, and program for color fringing estimation and compensation
US8208039B2 (en) Image processing apparatus and computer-readable medium
JP5408053B2 (en) Image processing apparatus and image processing method
EP2061233A1 (en) Image processing device and image processing method, and image pickup device and image pickup method
CN100366052C (en) Image processing device and method
JP4720537B2 (en) Imaging device
US20100039539A1 (en) Image processing apparatus and image processing method
CN105960658B (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory storage medium that can be processed by computer
KR20080035981A (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
US8085316B2 (en) Image-processing unit, imaging apparatus, and computer program product
JP6824817B2 (en) Image processing device and image processing method
JP2007082181A (en) Imaging apparatus and image processing method
JP2011100204A (en) Image processor, image processing method, image processing program, imaging apparatus, and electronic device
JP5911525B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
US8237829B2 (en) Image processing device, image processing method, and imaging apparatus
JP7297406B2 (en) Control device, imaging device, control method and program
JP5932392B2 (en) Image processing apparatus and image processing method
KR101337667B1 (en) Lens roll-off correction operation using values corrected based on brightness information
JP4024284B1 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110630