JP2014039170A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2014039170A
JP2014039170A JP2012180530A JP2012180530A JP2014039170A JP 2014039170 A JP2014039170 A JP 2014039170A JP 2012180530 A JP2012180530 A JP 2012180530A JP 2012180530 A JP2012180530 A JP 2012180530A JP 2014039170 A JP2014039170 A JP 2014039170A
Authority
JP
Japan
Prior art keywords
pixel
unit
image
exposure
long
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012180530A
Other languages
Japanese (ja)
Inventor
Hirotaka Shinozaki
裕考 篠崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012180530A priority Critical patent/JP2014039170A/en
Priority to PCT/JP2013/067455 priority patent/WO2014027511A1/en
Publication of JP2014039170A publication Critical patent/JP2014039170A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device and method for generating a high dynamic range image by pixel synthesis of an image composed of long exposure pixels and short exposure pixels.SOLUTION: The device comprises: an edge detection unit for executing edge detection of respective constituent pixels of an input image containing long exposure pixels and short exposure pixels; a centroid correction unit for executing centroid correction processing of the long exposure pixels and the short exposure pixels being synthesis targets; and a pixel synthesis unit for executing synthesis processing of the pixels generated by the centroid correction unit. The pixel synthesis unit selects an optimal synthesis result corresponding to the situation of the respective pixels from among a flat portion synthesis result having a blend rate (α) corresponding to the pixel value of the long exposure pixels applied thereto, an edge portion synthesis result having a fixed blend rate applied thereto, and a saturated portion synthesis result adapted to a saturated portion area, generates a high dynamic range (HDR) image on the basis of the selected synthesis result, and outputs the image.

Description

本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、異なる露光時間に設定した画素の合成処理によって高ダイナミックレンジ画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。   The present disclosure relates to an image processing device, an image processing method, and a program. More specifically, the present invention relates to an image processing apparatus, an image processing method, and a program that generate a high dynamic range image by combining pixels set at different exposure times.

ビデオカメラやデジタルスチルカメラなどに用いられるCCDイメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサのような固体撮像デバイスは入射光量に応じた電荷を蓄積し、蓄積した電荷に対応する電気信号を出力する光電変換を行い、蓄積電荷量に応じた画素値からなる画像を生成する。   Solid-state imaging devices such as CCD image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors used in video cameras and digital still cameras store charges according to the amount of incident light and output electrical signals corresponding to the stored charges. Photoelectric conversion is performed to generate an image composed of pixel values corresponding to the accumulated charge amount.

昨今、低輝度領域から高輝度領域まで高精度な画素値を設定した高ダイナミックレンジ(HDR:High Dynamic Range)画像を生成する撮像装置(カメラ)が提案されている。   Recently, an imaging apparatus (camera) that generates a high dynamic range (HDR) image in which highly accurate pixel values are set from a low luminance region to a high luminance region has been proposed.

高ダイナミックレンジ(HDR)画像は、例えば、短時間露光画像と長時間露光画像の複数の画像の合成、または、1枚の撮影画像中に設定された長時間露光画素と、短時間露光画素の画素合成によって生成される。   A high dynamic range (HDR) image is, for example, a combination of a plurality of short exposure images and long exposure images, or long exposure pixels set in one captured image and short exposure pixels. Generated by pixel synthesis.

図1は、短時間露光画像と長時間露光画像の複数の画像の合成による高ダイナミックレンジ(HDR)画像の生成処理構成を示す図である。
2つの異なる露光時間に設定して長時間露光画像11と短時間露光画像12を連続撮影する。合成部20において、これらの2つの画像の対応画素の画素値をブレンドして出力画像としての高ダイナミックレンジ(HDR)画像21の画素値を決定する。
FIG. 1 is a diagram showing a high dynamic range (HDR) image generation processing configuration by combining a plurality of short exposure images and long exposure images.
The long exposure image 11 and the short exposure image 12 are continuously photographed by setting two different exposure times. In the synthesizing unit 20, the pixel values of the corresponding pixels of these two images are blended to determine the pixel value of the high dynamic range (HDR) image 21 as the output image.

例えば、高ダイナミックレンジ(HDR)画像21の画素値D(HDR)は、
長時間露光画像11と短時間露光画像12の対応画素の画素値をそれぞれD(L)、D(S)としたとき、以下の式によって算出される。
D(HDR)=(1−α)×D(L)+α×D(S)×(GAIN)
ただし、
D(L)は、長時間露光画像の画素値、
D(S)は、短時間露光画像の画素値、
GAINは、長時間露光画像と短時間露光画像との露光時間比(露光比)、
αは、ブレンド比率、
である。
上記式に従った画素値算出処理はαブレンド処理と呼ばれる。
For example, the pixel value D (HDR) of the high dynamic range (HDR) image 21 is
When the pixel values of the corresponding pixels of the long exposure image 11 and the short exposure image 12 are D (L) and D (S), respectively, they are calculated by the following equations.
D (HDR) = (1−α) × D (L) + α × D (S) × (GAIN)
However,
D (L) is the pixel value of the long exposure image,
D (S) is the pixel value of the short-time exposure image,
GAIN is the exposure time ratio (exposure ratio) between the long exposure image and the short exposure image,
α is the blend ratio,
It is.
The pixel value calculation process according to the above formula is called an α blend process.

例えば高輝度画素領域等、長時間露光画像の画素値が飽和しているような画素領域では、上記のαブレンド処理において、長時間露光画像の画素値を利用しない、あるいは長時間露光画像の画素値のブレンド比率を低下させて、出力画像である高ダイナミックレンジ(HDR)画像21の画素値D(HDR)を算出する。   For example, in a pixel area where the pixel value of the long-exposure image is saturated, such as a high-luminance pixel area, the pixel value of the long-exposure image is not used in the above-described α blend process, or the pixel of the long-exposure image The pixel value D (HDR) of the high dynamic range (HDR) image 21 that is the output image is calculated by reducing the blend ratio of the values.

また、低輝度領域においては、上記のαブレンド処理において、短時間露光画像の画素値を利用しない、あるいは長時間露光画像の画素値のブレンド比率を増加させる。
このような処理を実行して、合成画像を生成することで、低輝度領域へ高輝度領域までより精度の高い画素値を設定した高ダイナミックレンジ(HDR)画像を生成することが可能となる。
In the low luminance region, the pixel value of the short-time exposure image is not used or the blend ratio of the pixel value of the long-time exposure image is increased in the α blending process.
By executing such processing and generating a composite image, it is possible to generate a high dynamic range (HDR) image in which more accurate pixel values are set from the low luminance region to the high luminance region.

図2は、1枚の撮影画像中に設定された長時間露光画素と、短時間露光画素の画素合成による高ダイナミックレンジ(HDR)画像の生成処理構成を示す図である。
撮影画像30には長時間露光画素と短時間露光画素が所定の画素領域単位で設定される。
図2に示す例は、ベイヤ(Bayer)配列を持つ撮像素子において、2行単位で長時間露光画素と短時間露光画素を交互に設定した例である。なお、長時間露光画素と短時間露光画素の設定構成は、1行おきなど、その他の様々な設定が可能である。
FIG. 2 is a diagram illustrating a configuration for generating a high dynamic range (HDR) image by combining a long-time exposure pixel set in one captured image and a short-time exposure pixel.
In the captured image 30, long exposure pixels and short exposure pixels are set in predetermined pixel area units.
The example shown in FIG. 2 is an example in which long exposure pixels and short exposure pixels are alternately set in units of two rows in an image sensor having a Bayer array. It should be noted that the long-exposure pixel and the short-exposure pixel can be set in various other settings such as every other row.

合成部40は、撮影画像30に含まれる近傍領域の長時間露光画素と短時間露光画素の画素値をブレンドして出力画像の画素値を算出して、高ダイナミックレンジ(HDR)画像41を生成する。
例えば、図に示す2つのR画素、すなわち長時間露光画素R31と、短時間露光画素R32を利用して高ダイナミックレンジ(HDR)画像41の1つのR画素値を決定する。
The synthesizer 40 calculates the pixel value of the output image by blending the pixel values of the long-time exposure pixels and the short-time exposure pixels in the vicinity area included in the captured image 30 to generate a high dynamic range (HDR) image 41. To do.
For example, one R pixel value of the high dynamic range (HDR) image 41 is determined using the two R pixels shown in the drawing, that is, the long exposure pixel R31 and the short exposure pixel R32.

この1枚の撮影画像30を利用した高ダイナミックレンジ(HDR)画像41の画素値D(HDR)の算出処理も、先に図1を参照して説明したブレンド処理と基本的に同様の処理として実行される。すなわち、
高ダイナミックレンジ(HDR)画像41の画素値D(HDR)は、ブレンド対象となる長時間露光画素と短時間露光画素の画素値をそれぞれD(L)、D(S)としたとき、以下の式によって算出される。
D(HDR)=(1−α)×D(L)+α×D(S)×(GAIN)
ただし、
D(L)は、長時間露光画素の画素値、
D(S)は、短時間露光画素の画素値、
GAINは、長時間露光画素と短時間露光画素との露光時間比(露光比)、
αは、ブレンド比率、
である。
The calculation process of the pixel value D (HDR) of the high dynamic range (HDR) image 41 using the single photographed image 30 is basically the same as the blend process described above with reference to FIG. Executed. That is,
The pixel value D (HDR) of the high dynamic range (HDR) image 41 is as follows when the pixel values of the long exposure pixel and the short exposure pixel to be blended are D (L) and D (S), respectively. Calculated by the formula.
D (HDR) = (1−α) × D (L) + α × D (S) × (GAIN)
However,
D (L) is the pixel value of the long exposure pixel,
D (S) is the pixel value of the short-time exposure pixel,
GAIN is the exposure time ratio (exposure ratio) between the long exposure pixel and the short exposure pixel,
α is the blend ratio,
It is.

なお、1枚の画像に、異なる露光時間の画素を設定し、これらの画素を合成して高ダイナミックレンジ画像を生成する処理については、例えば特許文献1(特開2011−244309号公報)、特許文献2(特開2012−80297号公報)等に記載されている。   For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2011-244309), Japanese Patent Laid-Open No. 2011-244309 discloses a process for setting pixels with different exposure times in one image and combining these pixels to generate a high dynamic range image. Document 2 (Japanese Patent Laid-Open No. 2012-80297) and the like.

しかし、このように、1枚の撮影画像に基づく高ダイナミックレンジ(HDR)画像の生成を行なう場合、1枚の画像中の異なる画素位置にある長時間露光画素と短時間露光画素の合成処理が必要となる。
1枚の画像中の長時間露光画素と短時間露光画素は、厳密には異なる位置の被写体の撮影画素であり、この異なる被写体位置を撮影した画素値を合成して1つの出力画像の画素値を算出しなければならない。
However, when generating a high dynamic range (HDR) image based on a single photographed image in this way, a combination process of long exposure pixels and short exposure pixels at different pixel positions in one image is performed. Necessary.
Strictly speaking, a long-time exposure pixel and a short-time exposure pixel in one image are shooting pixels of a subject at different positions, and pixel values of one output image are synthesized by combining pixel values obtained by shooting the different subject positions. Must be calculated.

このような処理により高ダイナミックレンジ画像を生成すると、輝度変化の大きいエッジ領域などにジャギーが発生しやすくなる。ジャギーは、例えばエッジ等の境界が階段状のギザギザ模様に出力されてしまう現象である。
本来なら、なめらかなエッジ境界であっても、階段状の不自然なエッジ境界として出力されてしまう。多くの場合、「ジャギー」は入力信号の帯域に対してサンプリング数が足りないため発生するエイリアシングであり、画像内の例えば被写体境界や模様のあるテクスチャ領域等に現れやすい。
When a high dynamic range image is generated by such processing, jaggies are likely to occur in an edge region having a large luminance change. Jaggy is a phenomenon in which a boundary such as an edge is output in a stepped jagged pattern.
Originally, even a smooth edge boundary is output as a step-like unnatural edge boundary. In many cases, “jaggy” is aliasing that occurs because the number of samplings is insufficient with respect to the band of the input signal, and is likely to appear in, for example, a subject boundary or a textured area with a pattern in an image.

特開2011−244309号公報JP 2011-244309 A 特開2012−80297号公報JP 2012-80297 A

本開示は、例えばこのような状況に鑑みてなされたものであり、一枚の撮影画像を利用して高ダイナミックレンジ画像を生成する構成において高品質な画像生成を行なう画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。   The present disclosure has been made in view of, for example, such a situation, and an image processing apparatus that performs high-quality image generation in a configuration that generates a high dynamic range image using a single captured image, and image processing It is an object to provide a method and a program.

本開示の第1の側面は、
長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
前記信号処理部は、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正部と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画素合成部を有する画像処理装置にある。
The first aspect of the present disclosure is:
A signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including the long-time exposure pixel and the short-time exposure pixel;
The signal processing unit
An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
A centroid correction unit that executes centroid correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputs the centroid correction unit output long-time exposure pixel and centroid correction unit output short-time exposure pixel;
The image processing apparatus includes a pixel synthesizing unit that performs a synthesizing process between the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel generated by the centroid correction unit.

さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記重心補正処理として、合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する構成であり、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力長時間露光画素の画素値を算出し、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力短時間露光画素の画素値を算出する処理を実行する。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the centroid correction unit performs a process of matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel that are to be combined as the centroid correction process. The pixel value of the long-time exposure pixel output from the centroid correction unit is calculated by weighted addition using pixel values of a plurality of long-exposure pixels of the same color at different pixel positions, and a plurality of identical pixels at different pixel positions are calculated. Processing for calculating the pixel value of the short-time exposure pixel output by the centroid correction unit is performed by weighted addition using the pixel value of the short-time exposure pixel of color.

さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記入力画像の画素値を前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素の画素値とし、前記重心補正処理に適用した画素が飽和していない場合は、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力長時間露光画素の画素値とし、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力短時間露光画素の画素値として選択出力する。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the centroid correction unit includes a saturation determination unit that determines whether or not a pixel applied to the centroid correction process is saturated, and the centroid correction process includes When the applied pixel is saturated, the pixel value of the input image is set as the pixel value of the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel, and the pixel applied to the centroid correction process is If not saturated, the pixel value calculated by weighted addition using the pixel values of a plurality of long-time exposure pixels of the same color at different pixel positions is used as the pixel value of the centroid correction unit output long-time exposure pixel and is different A pixel value calculated by weighted addition using pixel values of a plurality of short-time exposure pixels of the same color at pixel positions is selectively output as a pixel value of the centroid correction unit output short-time exposure pixel.

さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記重心補正部出力長時間露光画素の画素値を、入力画像の長時間露光画素の画素値とし、前記重心補正部出力短時間露光画素の画素値を、入力画像の短時間露光画素の複数の画素値に基づく平滑化処理によって算出した画素値として設定する。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the centroid correction unit includes a saturation determination unit that determines whether or not a pixel applied to the centroid correction process is saturated, and the centroid correction process includes When the applied pixel is saturated, the pixel value of the centroid correction unit output long-time exposure pixel is set as the pixel value of the long-time exposure pixel of the input image, and the pixel value of the centroid correction unit output short-time exposure pixel is The pixel value calculated by the smoothing process based on the plurality of pixel values of the short-time exposure pixels of the input image is set.

さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記平滑化処理を、前記エッジ検出部から入力するエッジ方向に応じた係数の設定された平滑化フィルタを適用して実行する。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the center-of-gravity correction unit applies the smoothing process to a smoothing filter in which a coefficient corresponding to an edge direction input from the edge detection unit is set. Run.

さらに、本開示の画像処理装置の一実施態様において、前記画素合成部は、前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する合成部として、平坦部領域に適応した合成処理を実行する平坦部合成部と、エッジ部領域に適応した合成処理を実行するエッジ部合成部と、飽和部領域に適応した合成処理を実行する飽和部合成部と、前記各合成部の合成結果を選択して合成結果画像を生成する選択部を有し、前記選択部は、前記エッジ情報、および前記重心補正処理に適用した画素が飽和画素であるか否かを示す飽和フラグを入力し、前記重心補正処理に適用した画素が飽和画素である場合は、前記飽和部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域である場合は、前記エッジ部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域でない場合は、前記平坦部合成部の合成結果を選択する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the pixel synthesis unit is a flat as a synthesis unit that performs a synthesis process of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel. A flat part synthesis unit that executes synthesis processing adapted to the sub-region, an edge synthesis unit that performs synthesis processing adapted to the edge region, a saturation unit synthesis unit that performs synthesis processing adapted to the saturation region, A selection unit configured to select a synthesis result of each of the synthesis units and generate a synthesis result image, and the selection unit determines whether the edge information and a pixel applied to the centroid correction processing are saturated pixels; When the saturation flag is input and the pixel applied to the centroid correction process is a saturated pixel, the combination result of the saturation unit synthesizer is selected, and the pixel applied to the centroid correction process is not a saturated pixel but an edge In the area If selects the synthesis results of the edge portion combining unit, the center of gravity correction processing pixel is not saturated pixel applied to, if not an edge region, selects the combined result of the flat portion synthesis unit.

さらに、本開示の画像処理装置の一実施態様において、前記平坦部合成部は、前記重心補正部出力長時間露光画素の画素値に応じて変化するブレンド率(α)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記エッジ部合成部は、前記重心補正部出力長時間露光画素の画素値に依存しない固定ブレンド率(β)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記飽和部合成部は、前記重心補正部出力短時間露光画素の画素値を合成結果の画素値として算出する。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the flat portion synthesis unit includes the centroid correction unit according to a blend rate (α) that changes according to a pixel value of the centroid correction unit output long-time exposure pixel. The pixel value of the output long time exposure pixel and the centroid correction unit output short time exposure pixel are blended to calculate a pixel value as a synthesis result, and the edge synthesis unit calculates the pixel value of the centroid correction unit output long time exposure pixel. The saturation value is calculated by blending pixel values of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel according to a fixed blend rate (β) independent of The synthesis unit calculates the pixel value of the centroid correction unit output short-time exposure pixel as a pixel value of the synthesis result.

さらに、本開示の画像処理装置の一実施態様において、前記画素合成部は、さらに、動被写体領域に適応した合成処理を実行する動被写体部合成部を有し、前記選択部は、前記重心補正処理に適用した画素が動被写体領域であるか否かを示す動被写体検出フラグを入力し、前記重心補正処理に適用した画素が動被写体領域である場合は、前記動被写体合成部の合成結果を選択する。   Furthermore, in an embodiment of the image processing apparatus according to the present disclosure, the pixel composition unit further includes a moving subject unit composition unit that performs composition processing adapted to the moving subject region, and the selection unit includes the center-of-gravity correction. When a moving subject detection flag indicating whether or not a pixel applied to the process is a moving subject region is input, and a pixel applied to the centroid correction processing is a moving subject region, the composition result of the moving subject composition unit is displayed. select.

さらに、本開示の画像処理装置の一実施態様において、前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、前記エッジ検出部は、G画素のみを用いたエッジ検出処理を実行する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the input image is a Bayer array image composed of RGB pixels, and the edge detection unit performs an edge detection process using only G pixels.

さらに、本開示の第2の側面は、
長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
前記信号処理部は、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
前記入力画像の特定色高域信号と全色低域信号を生成する配列変換重心補正部と、
前記特定色高域信号と全色低域信号を入力して、特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を生成する画素合成部と、
前記特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数の高ダイナミックレンジ(HDR)画像を生成する相関処理部を有する画像処理装置にある。
Furthermore, the second aspect of the present disclosure is:
A signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including the long-time exposure pixel and the short-time exposure pixel;
The signal processing unit
An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
An array conversion centroid correction unit that generates a specific color high-frequency signal and an all-color low-frequency signal of the input image;
A pixel synthesizer that inputs the specific color high-frequency signal and the all-color low-frequency signal, and generates a specific color high-frequency high-dynamic range (HDR) signal and an all-color low-frequency high dynamic range (HDR) signal;
Correlation processing for generating the high dynamic range (HDR) image having the same number of pixels as the input image by inputting the specific color high frequency range high dynamic range (HDR) signal and the all color low frequency range high dynamic range (HDR) signal. An image processing apparatus having a unit.

さらに、本開示の画像処理装置の一実施態様において、前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、前記配列変換重心補正部は、前記入力画像のG色高域信号とRGB各色低域信号を生成し、前記画素合成部は、前記G色高域信号と前記RGB各色低域信号を入力して、G色高域高ダイナミックレンジ(HDR)信号と、RGB各色低域高ダイナミックレンジ(HDR)信号を生成し、前記前記相関処理部は、前記G色高域高ダイナミックレンジ(HDR)信号と、前記RGB各色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数のベイヤ配列からなる高ダイナミックレンジ(HDR)画像を生成する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the input image is a Bayer array image configured by RGB pixels, and the array conversion centroid correction unit includes a G color high-frequency signal of the input image and RGB Each color low-frequency signal is generated, and the pixel synthesizing unit inputs the G color high-frequency signal and the RGB low-frequency signal, the G color high-frequency high dynamic range (HDR) signal, and the RGB low-frequency color high-frequency signal. A dynamic range (HDR) signal is generated, and the correlation processing unit inputs the G color high frequency high dynamic range (HDR) signal and the RGB color low frequency high dynamic range (HDR) signal, and inputs the input A high dynamic range (HDR) image including a Bayer array having the same number of pixels as the image is generated.

さらに、本開示の第3の側面は、
画像処理装置において実行する画像処理方法であり、
信号処理部が、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行し、
前記信号処理ステップにおいて、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画像処理方法にある。
Furthermore, the third aspect of the present disclosure is:
An image processing method executed in an image processing apparatus,
The signal processing unit executes a signal processing step of generating an output image by performing pixel value synthesis processing of pixels included in the input image including the long exposure pixels and the short exposure pixels,
In the signal processing step,
Edge detection processing for executing edge detection for each component pixel of the input image and outputting edge information corresponding to each pixel;
The center-of-gravity correction processing for executing the center-of-gravity correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined and outputting the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output
In the image processing method, the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel generated by the centroid correction unit are combined.

さらに、本開示の第4の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
信号処理部に、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行させ、
前記信号処理ステップにおいて、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行させるプログラムにある。
Furthermore, the fourth aspect of the present disclosure is:
A program for executing image processing in an image processing apparatus;
Causing the signal processing unit to execute a signal processing step of generating an output image by performing pixel value synthesis processing of pixels included in the input image including the long exposure pixels and the short exposure pixels;
In the signal processing step,
Edge detection processing for executing edge detection for each component pixel of the input image and outputting edge information corresponding to each pixel;
The center-of-gravity correction processing for executing the center-of-gravity correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined and outputting the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output
A program for executing a synthesis process of the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output short-time exposure pixel generated by the barycentric correction unit.

なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。   Note that the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.

本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present disclosure will become apparent from a more detailed description based on embodiments of the present disclosure described below and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本開示の一実施例の構成によれば、長時間露光画素と短時間露光画素からなる画像の画素合成による高品質な高ダイナミックレンジ画像を生成する装置、方法が実現される。
具体的には、長時間露光画素と短時間露光画素を含む入力画像の各構成画素に対するエッジ検出を実行するエッジ検出部と、合成対象となる長時間露光画素と短時間露光画素の重心補正処理を実行する重心補正部と、重心補正部の生成画素の合成処理を実行する画素合成部を有する。画素合成部は、長時間露光画素の画素値に応じたブレンド率(α)を適用した平坦部合成結果と、固定ブレンド率を適用したエッジ部合成結果と、飽和部領域に適応した飽和部合成結果から、各画素の状況に応じた最適な合成結果を選択し、選択された合成結果に基づいて高ダイナミックレンジ(HDR)画像を生成して出力する。
上記手法の適用により、各構成画素の状況に応じた画素対応の最適な合成結果が得られ、高品質な高ダイナミックレンジ画像を生成することが可能となる。
According to the configuration of an embodiment of the present disclosure, an apparatus and a method for generating a high-quality, high dynamic range image by pixel synthesis of an image including long-time exposure pixels and short-time exposure pixels are realized.
Specifically, an edge detection unit that performs edge detection for each component pixel of the input image including the long exposure pixel and the short exposure pixel, and a centroid correction process of the long exposure pixel and the short exposure pixel to be combined And a pixel composition unit that performs composition processing of the generated pixels of the center of gravity correction unit. The pixel compositing unit is a flat part compositing result obtained by applying a blend ratio (α) corresponding to the pixel value of the long-time exposure pixel, an edge part compositing result applying a fixed blend ratio, and a saturated part compositing adapted to the saturated part region. From the result, an optimum synthesis result corresponding to the situation of each pixel is selected, and a high dynamic range (HDR) image is generated and output based on the selected synthesis result.
By applying the above method, it is possible to obtain an optimum synthesis result corresponding to the pixel in accordance with the situation of each constituent pixel, and to generate a high-quality, high dynamic range image.

複数画像に基づく高ダイナミックレンジ画像生成処理について説明する図である。It is a figure explaining the high dynamic range image generation process based on multiple images. 単一画像に基づく高ダイナミックレンジ画像生成処理について説明する図である。It is a figure explaining the high dynamic range image generation process based on a single image. 本開示の画像処理装置の一構成例について説明する図である。It is a figure explaining an example of 1 composition of an image processing device of this indication. 本開示の画像処理装置の信号処理部の一構成例について説明する図である。It is a figure explaining the example of 1 composition of the signal processing part of the image processing device of this indication. 撮像素子の画素配列構成例について説明する図である。It is a figure explaining the example of pixel arrangement composition of an image sensor. 撮像素子の露光制御構成について説明する図である。It is a figure explaining the exposure control structure of an image pick-up element. 本開示の画像処理装置のHDR画像生成部の一構成例について説明する図である。It is a figure explaining the structural example of the HDR image generation part of the image processing apparatus of this indication. 本開示の画像処理装置のHDR画像生成部のエッジ検出部の一構成例について説明する図である。It is a figure explaining one structural example of the edge detection part of the HDR image generation part of the image processing apparatus of this indication. エッジ検出部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which an edge detection part performs. エッジ検出部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which an edge detection part performs. 本開示の画像処理装置のHDR画像生成部の重心補正部の一構成例について説明する図である。It is a figure explaining one structural example of the gravity center correction | amendment part of the HDR image generation part of the image processing apparatus of this indication. 重心補正部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which a gravity center correction | amendment part performs. 重心補正部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which a gravity center correction | amendment part performs. 重心補正部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which a gravity center correction | amendment part performs. 本開示の画像処理装置のHDR画像生成部の画素合成部の一構成例について説明する図である。It is a figure explaining one structural example of the pixel synthetic | combination part of the HDR image generation part of the image processing apparatus of this indication. 画素合成部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which a pixel synthetic | combination part performs. 画素合成部の実行する処理のシーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the sequence of the process which a pixel synthetic | combination part performs. 画素合成部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which a pixel synthetic | combination part performs. 本開示の画像処理装置のHDR画像生成部の重心補正部の一構成例について説明する図である。It is a figure explaining one structural example of the gravity center correction | amendment part of the HDR image generation part of the image processing apparatus of this indication. 重心補正部において実行する一処理例について説明する図である。It is a figure explaining the example of 1 process performed in a gravity center correction | amendment part. 本開示の画像処理装置のHDR画像生成部の画素合成部の一構成例について説明する図である。It is a figure explaining one structural example of the pixel synthetic | combination part of the HDR image generation part of the image processing apparatus of this indication. 画素合成部の実行する処理のシーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the sequence of the process which a pixel synthetic | combination part performs. 撮像素子の画素配列構成例について説明する図である。It is a figure explaining the example of pixel arrangement composition of an image sensor. 撮像素子の露光制御構成について説明する図である。It is a figure explaining the exposure control structure of an image pick-up element. 本開示の画像処理装置のHDR画像生成部の一構成例について説明する図である。It is a figure explaining the structural example of the HDR image generation part of the image processing apparatus of this indication. エッジ検出部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which an edge detection part performs. エッジ検出部の実行する処理の一例について説明する図である。It is a figure explaining an example of the process which an edge detection part performs. 本開示の画像処理装置のHDR画像生成部の配列変換重心補正部の一構成例について説明する図である。It is a figure explaining the structural example of the arrangement | sequence conversion gravity center correction | amendment part of the HDR image generation part of the image processing apparatus of this indication. 配列変換重心補正部の実行する処理の一処理例について説明する図である。It is a figure explaining one process example of the process which the arrangement | sequence conversion gravity center correction | amendment part performs. 配列変換重心補正部の実行する処理の一処理例について説明する図である。It is a figure explaining one process example of the process which the arrangement | sequence conversion gravity center correction | amendment part performs. 配列変換重心補正部の実行する処理の一処理例について説明する図である。It is a figure explaining one process example of the process which the arrangement | sequence conversion gravity center correction | amendment part performs. 本開示の画像処理装置のHDR画像生成部の画素合成部の一構成例について説明する図である。It is a figure explaining one structural example of the pixel synthetic | combination part of the HDR image generation part of the image processing apparatus of this indication. 本開示の画像処理装置のHDR画像生成部の相関処理部の一構成例について説明する図である。It is a figure explaining one structural example of the correlation process part of the HDR image generation part of the image processing apparatus of this indication. 本開示の画像処理装置の一構成例について説明する図である。It is a figure explaining an example of 1 composition of an image processing device of this indication.

以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログ
ラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.画像処理装置の全体構成例について
2.HDR画像生成部の構成と処理について
2−1.エッジ検出部の構成と処理について
2−2.重心補正部の構成と処理について
2−3.画素合成部の構成と処理について
3.実施例2:重心補正部の構成を変更した実施例
4.実施例3:画素合成部の構成を変更した実施例
5.実施例4:撮像素子の画素配列と長短露光画素設定の変更例
6.実施例5:画素数を削減することのないHDR画像を生成する実施例について
6−1.エッジ検出部の構成と処理について
6−2.配列変換重心補正部の構成と処理について
6−3.画素合成部の構成と処理について
6−4.相関処理部の構成と処理について
7.実施例6:階調変換部、カメラ信号処理部を有する撮像装置の構成例について
8.本開示の構成のまとめ
The details of the image processing apparatus, the image processing method, and the program of the present disclosure will be described below with reference to the drawings. The description will be made according to the following items.
1. 1. Example of overall configuration of image processing apparatus 2. Configuration and processing of HDR image generation unit 2-1. Configuration and processing of edge detection unit 2-2. Regarding the configuration and processing of the gravity center correction unit 2-3. 2. Configuration and processing of pixel composition unit Example 2: Example in which the configuration of the gravity center correction unit is changed. Example 3 Example in which the configuration of the pixel synthesis unit is changed. Example 4: Example of change in pixel arrangement of image sensor and long / short exposure pixel setting Example 5: Example of generating an HDR image without reducing the number of pixels 6-1. Configuration and processing of edge detection unit 6-2. Configuration and processing of array conversion centroid correction unit 6-3. Configuration and processing of pixel composition unit 6-4. 6. Configuration and processing of correlation processing unit Example 6: Configuration example of imaging apparatus having gradation conversion unit and camera signal processing unit Summary of composition of this disclosure

[1.画像処理装置の全体構成例について]
まず、本開示の第1実施例の画像処理装置の全体構成例について説明する。
図3に、本開示の画像処理装置の一構成例である撮像装置100の構成例を示す。
[1. Example of overall configuration of image processing apparatus]
First, an overall configuration example of the image processing apparatus according to the first embodiment of the present disclosure will be described.
FIG. 3 illustrates a configuration example of the imaging apparatus 100 that is a configuration example of the image processing apparatus of the present disclosure.

光学レンズ101を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像素子102に入射し、光電変換による画像データを出力する。出力画像データは信号処理部103に入力される。信号処理部103は、例えば、以下に説明する画素合成処理を実行し、さらに、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行して出力画像120を生成する。出力画像120は図示しない記憶部に格納される。あるいは表示部に出力される。   Light incident through the optical lens 101 is incident on an image sensor 102 constituted by an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion. The output image data is input to the signal processing unit 103. For example, the signal processing unit 103 performs pixel synthesis processing described below, and further performs signal processing in a general camera such as white balance (WB) adjustment and gamma correction to generate the output image 120. The output image 120 is stored in a storage unit (not shown). Or it outputs to a display part.

制御部105は、例えば図示しないメモリに格納されたプログラムに従って各部に制御信号を出力し、各種の処理の制御を行う。   The control unit 105 outputs a control signal to each unit according to a program stored in a memory (not shown), for example, and controls various processes.

次に、信号処理部103の構成例について図4を参照して説明する。
図4は、本開示の一実施例の信号処理部103の構成を示す図である。
信号処理部103は、図4に示すようにHDR画像生成部131、後段信号処理部132、出力部133を有する。
Next, a configuration example of the signal processing unit 103 will be described with reference to FIG.
FIG. 4 is a diagram illustrating a configuration of the signal processing unit 103 according to an embodiment of the present disclosure.
As shown in FIG. 4, the signal processing unit 103 includes an HDR image generation unit 131, a subsequent signal processing unit 132, and an output unit 133.

HDR画像生成部131は、撮像素子102から入力する画素信号の合成処理を実行する。
後段信号処理部132は、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行する。
出力部133は、これらの信号処理のなされた処理画像を出力画像120として出力する。
The HDR image generation unit 131 executes a synthesis process of pixel signals input from the image sensor 102.
The post-stage signal processing unit 132 executes signal processing in a general camera such as white balance (WB) adjustment and gamma correction.
The output unit 133 outputs the processed image that has been subjected to the signal processing as an output image 120.

撮像素子102は、多数の画素各々に被写体光に基づく電荷を蓄積し画像データを出力する。なお、撮像素子102は、長時間露光を行う高感度画素と、短時間露光を行う低感度画素を有する構成となっている。
なお、以下の説明では、
長時間露光を行う高感度画素を「長露光画素」、
短時間露光を行う低感度画素を「短露光画素」、
として説明する。
The image sensor 102 accumulates electric charges based on subject light in each of a large number of pixels and outputs image data. Note that the image sensor 102 has a configuration including a high-sensitivity pixel that performs long-time exposure and a low-sensitivity pixel that performs short-time exposure.
In the following explanation,
High-sensitivity pixels that are exposed for a long time are called “long exposure pixels”.
Low-sensitivity pixels that perform short-time exposure are called “short-exposure pixels”
Will be described.

HDR画像生成部131は、長露光画素の画素値と、短露光画素の画素値の合成(ブレンド)処理を実行する。例えば、撮像素子の垂直方向近傍にある長露光画素の画素値と、短露光画素の画素値の合成(ブレンド)処理を実行し、さらに、この合成後に、水平方向の合成画素同士を再合成する。このような画素値合成処理を実行して画素数を削減した高ダイナミックレンジ(HDR)画像を生成する。
なお、画素数を削減せずに高ダイナミックレンジ(HDR)画像を生成する手法もある。これらの高ダイナミックレンジ(HDR)画像の生成構成については、後段で詳細に説明する。
The HDR image generation unit 131 executes a synthesis (blending) process of the pixel value of the long exposure pixel and the pixel value of the short exposure pixel. For example, a process of combining (blending) the pixel value of the long exposure pixel and the pixel value of the short exposure pixel in the vicinity of the vertical direction of the image sensor is performed, and after this combining, the combined pixels in the horizontal direction are recombined. . Such a pixel value synthesis process is executed to generate a high dynamic range (HDR) image with a reduced number of pixels.
There is also a method of generating a high dynamic range (HDR) image without reducing the number of pixels. The generation configuration of these high dynamic range (HDR) images will be described in detail later.

以下では、一例として、撮像素子102が図5に示すようなRGB配列、すなわちベイヤ(Bayer)配列を持つCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである場合の処理例について説明する。   Hereinafter, as an example, a processing example in the case where the image sensor 102 is a CMOS (Complementary Metal Oxide Semiconductor) image sensor having an RGB array, that is, a Bayer array as illustrated in FIG. 5 will be described.

撮像素子102は、図6に示すように2行毎に異なる露光時間の画素、すなわち短露光画素と長露光画素を有する構成である。
この画素単位の露光時間制御は制御部105の制御によって実行される。
As shown in FIG. 6, the image sensor 102 is configured to have pixels with different exposure times for every two rows, that is, short exposure pixels and long exposure pixels.
This exposure time control for each pixel is executed under the control of the control unit 105.

図6に示すグレー領域が露光時間の短い短露光画素領域であり、白領域が露光時間の長い長露光画素領域である。各矩形領域が1つの画素を示す。   The gray area shown in FIG. 6 is a short exposure pixel area with a short exposure time, and the white area is a long exposure pixel area with a long exposure time. Each rectangular area represents one pixel.

以下の実施例では、図6に示すように2行単位で短露光画素と長露光画素を設定して撮影された画像に対する処理例を説明する。
なお、このように画素ごとに露光時間を変える露光処理をSVE(Spatially Varying Exposure)方式と呼び、このSVE方式によって得られた画像をSVE画像、SVE配列画像、あるいはSVE信号と呼ぶ。
In the following embodiment, a processing example for an image photographed by setting a short exposure pixel and a long exposure pixel in units of two rows as shown in FIG. 6 will be described.
Note that such an exposure process that changes the exposure time for each pixel is referred to as an SVE (Spatially Variable Exposure Exposure) method, and an image obtained by this SVE method is referred to as an SVE image, an SVE array image, or an SVE signal.

このように画素ごとに露光時間を変えて撮影したSVE画像の長露光画素と短露光画素の各画素信号を合成することで、ダイナミックレンジの広い画像を得ることができる。この合成処理によって生成する画像を高ダイナミックレンジ(HDR:High Dynamic Range)画像と呼ぶ。   In this way, an image having a wide dynamic range can be obtained by combining the pixel signals of the long exposure pixel and the short exposure pixel of the SVE image captured by changing the exposure time for each pixel. An image generated by this combining process is called a high dynamic range (HDR) image.

[2.HDR画像生成部の構成と処理について]
次に、本開示の第1実施例の画像処理装置におけるHDR画像生成部131の構成と処理について説明する。
図7は、HDR画像生成部131の詳細構成を示すブロック図である。
HDR画像生成部131は、撮像素子102の出力画像、すなわち、2行単位で長露光画素と短露光画素が交互に設定された入力画像(SVE配列画像)141を入力する。
HDR画像生成部131は、この入力画像(SVE配列画像)141を構成する長露光画素と短露光画素画素を合成して高ダイナミックレンジ(HDR)画像142を生成して出力する。
例えば、N×M画素の入力画像(SVE配列画像)141を入力して、P×Q画素のHDR画像142を生成して出力する。
ただし、
P≦N,
Q≦M
である。
[2. Regarding configuration and processing of HDR image generation unit]
Next, the configuration and processing of the HDR image generation unit 131 in the image processing apparatus according to the first embodiment of the present disclosure will be described.
FIG. 7 is a block diagram illustrating a detailed configuration of the HDR image generation unit 131.
The HDR image generation unit 131 inputs an output image of the image sensor 102, that is, an input image (SVE array image) 141 in which long exposure pixels and short exposure pixels are alternately set in units of two rows.
The HDR image generation unit 131 generates a high dynamic range (HDR) image 142 by combining the long exposure pixels and the short exposure pixel pixels that form the input image (SVE array image) 141 and outputs the high dynamic range (HDR) image 142.
For example, an N × M pixel input image (SVE array image) 141 is input, and a P × Q pixel HDR image 142 is generated and output.
However,
P ≦ N,
Q ≦ M
It is.

図7に示すように、HDR画像生成部131は、エッジ検出部151、重心補正部152、画素合成部153を有する。
エッジ検出部151は、入力されたSVE配列の各画素領域におけるエッジの有無やエッジ方向を解析し、これらの解析情報からなるエッジ情報を生成して出力する。
重心補正部152は、エッジ検出部151の検出したエッジ情報を利用して、合成対象となる長露光画素と短露光画素の重心位置を補正する。
画素合成部153は、重心補正部152の出力である重心補正画素値を利用して、エッジ成分情報を利用して、長露光画素と短露光画素の合成を行う。
以下、HDR画像生成部131の各構成部の詳細構成と処理について、順次説明する。
As illustrated in FIG. 7, the HDR image generation unit 131 includes an edge detection unit 151, a centroid correction unit 152, and a pixel synthesis unit 153.
The edge detection unit 151 analyzes the presence / absence of an edge and the edge direction in each pixel region of the input SVE array, and generates and outputs edge information including the analysis information.
The centroid correction unit 152 uses the edge information detected by the edge detection unit 151 to correct the centroid position of the long exposure pixel and the short exposure pixel to be combined.
The pixel synthesis unit 153 uses the centroid correction pixel value that is the output of the centroid correction unit 152 to synthesize the long exposure pixel and the short exposure pixel using the edge component information.
Hereinafter, the detailed configuration and processing of each component of the HDR image generation unit 131 will be sequentially described.

(2−1.エッジ検出部の構成と処理について)
まず、図8以下を参照してエッジ検出部151の構成と処理について説明する。
図8はエッジ検出部151の詳細構成を示すブロック図である。
エッジ検出部151は、撮像素子102からの出力画像である図7に示す入力画像(SVE配列画像)141から、エッジ検出対象とする注目画素をほぼ中心画素とした注目画素の近傍9×9画素領域のG画素のみからなる画像信号、すなわち、図8に示すエッジ検出用画像141Gを利用して、注目画素対応のエッジ情報を生成して、図7に示す重心補正部152と画素合成部153に出力する。
(2-1. Configuration and processing of edge detection unit)
First, the configuration and processing of the edge detection unit 151 will be described with reference to FIG.
FIG. 8 is a block diagram showing a detailed configuration of the edge detection unit 151.
The edge detection unit 151 uses the input image (SVE array image) 141 shown in FIG. 7, which is an output image from the image sensor 102, and 9 × 9 pixels in the vicinity of the pixel of interest with the pixel of interest as the edge detection target being substantially the central pixel. Edge information corresponding to the target pixel is generated using an image signal composed only of G pixels in the region, that is, the edge detection image 141G shown in FIG. 8, and the centroid correction unit 152 and the pixel synthesis unit 153 shown in FIG. Output to.

なお、図7に示すHDR画像生成部131が最終的に生成するHDR画像142の各画素は、入力画像(SVE配列画像)141中の少なくとも1つの長露光画素と短露光画素を含む複数画素の画素値合成によって生成される。
従って、HDR画像生成部131は、入力画像(SVE配列画像)中の長露光画素のみを順次、処理対象画素(注目画素)として選択して処理を行なう設定としてよい。短露光画素は、処理対象画素(注目画素)として選択された長露光画素との合成に適用する画素として自動的に選択される。
Each pixel of the HDR image 142 finally generated by the HDR image generation unit 131 shown in FIG. 7 is a plurality of pixels including at least one long exposure pixel and short exposure pixel in the input image (SVE array image) 141. Generated by pixel value synthesis.
Therefore, the HDR image generation unit 131 may be set to perform processing by sequentially selecting only the long exposure pixels in the input image (SVE array image) as processing target pixels (target pixels). The short exposure pixel is automatically selected as a pixel to be applied to synthesis with the long exposure pixel selected as the processing target pixel (target pixel).

なお、処理対象画素(注目画素)として選択された長露光画素との合成対象となる短露光画素は、例えば選択された長露光画素の垂直方向の近傍にある同一色の短露光画素である。この合成対象とする長露光画素と短露光画素の組み合わせは予め設定されており、HDR画像生成部131は、この設定情報に基づいて画素合成を行なう。   Note that the short exposure pixel to be combined with the long exposure pixel selected as the processing target pixel (target pixel) is, for example, a short exposure pixel of the same color in the vicinity of the selected long exposure pixel in the vertical direction. A combination of the long exposure pixel and the short exposure pixel to be combined is set in advance, and the HDR image generation unit 131 performs pixel combination based on the setting information.

図8に示すエッジ検出部151が生成するエッジ情報は、図8に示すように以下の各信号である。
(a)長露光エッジフラグ(LEdge_flg)171、
(b)長露光エッジ方向フラグ(LDir_flg)172、
(c)短露光エッジフラグ(SEdge_flg)173、
(d)短露光エッジ方向フラグ(SDir_flg)174、
エッジ検出部151は、これら(a)〜(d)からなるエッジ情報を生成して重心補正部152と画素合成部153に出力する。
The edge information generated by the edge detection unit 151 shown in FIG. 8 is the following signals as shown in FIG.
(A) Long exposure edge flag (LEedge_flg) 171,
(B) Long exposure edge direction flag (LDir_flg) 172,
(C) Short exposure edge flag (SEedge_flg) 173,
(D) Short exposure edge direction flag (SDir_flg) 174,
The edge detection unit 151 generates edge information composed of (a) to (d) and outputs the edge information to the centroid correction unit 152 and the pixel synthesis unit 153.

図8に示すように、エッジ検出部151は、差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164を有する。
さらに、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168を有する。
As illustrated in FIG. 8, the edge detection unit 151 includes a difference calculation unit (vertical) 161, a difference calculation unit (horizontal) 162, a difference calculation unit (upper right) 163, and a difference calculation unit (upper left) 164.
Further, a long exposure edge detection unit 165, a long exposure edge direction determination unit 166, a short exposure edge detection unit 167, and a short exposure edge direction determination unit 168 are provided.

差分算出部(垂直)161は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの垂直方向の画素値差分情報を算出する。
垂直方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_v)、
垂直方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_v)、
これらを算出する。
The difference calculation unit (vertical) 161 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 × 9 pixel region in the vicinity of the target pixel, and the following two pieces of vertical pixel value difference information Is calculated.
Average value (LDiff_v) of pixel value difference between two long-exposure G pixels that are close in the vertical direction,
An average value (SDiff_v) of pixel value differences between two short-time exposure G pixels adjacent in the vertical direction;
These are calculated.

差分算出部(水平)162は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの水平方向の画素値差分情報を算出する。
水平方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_h)、
水平方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_h)、
これらを算出する。
The difference calculation unit (horizontal) 162 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 × 9 pixel region in the vicinity of the target pixel, and the following two pieces of horizontal pixel value difference information Is calculated.
Average value (LDiff_h) of pixel value difference between two long-exposure G pixels adjacent in the horizontal direction,
An average value (SDiff_h) of pixel value differences between two short-time exposure G pixels adjacent in the horizontal direction;
These are calculated.

差分算出部(右上)163は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの右上方向の画素値差分情報を算出する。
右上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_a)、
右上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_a)、
これらを算出する。
The difference calculation unit (upper right) 163 applies the edge detection image 141G illustrated in FIG. 8, that is, the G pixel included in the 9 × 9 pixel region in the vicinity of the target pixel, and the following two pieces of pixel value difference information in the upper right direction: Is calculated.
Average value (LDiff_a) of pixel value difference between two long-exposure G pixels adjacent in the upper right direction,
An average value (SDiff_a) of pixel value differences between two short-time exposure G pixels adjacent in the upper right direction;
These are calculated.

差分算出部(左上)164は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの左上方向の画素値差分情報を算出する。
左上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_d)、
左上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_d)、
これらを算出する。
The difference calculation unit (upper left) 164 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 × 9 pixel region in the vicinity of the target pixel, and the following two upper left pixel value difference information Is calculated.
Average value (LDiff_d) of pixel value difference between two long-exposure G pixels adjacent in the upper left direction,
Average value (SDiff_d) of pixel value difference between two short-exposure G pixels adjacent in the upper left direction,
These are calculated.

図9は、差分算出部161〜164において実行する長露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
(Lv)長露光垂直方向、
(Lh)長露光水平方向、
(La)長露光右上方向、
(Ld)長露光左上方向、
これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
FIG. 9 is a diagram illustrating a specific example of vertical, horizontal, upper right, and upper left difference calculation processes regarding long exposure pixels executed by the difference calculation units 161 to 164.
(Lv) Long exposure vertical direction,
(Lh) Long exposure horizontal direction,
(La) Long exposure upper right direction,
(Ld) Long exposure upper left direction,
In each of these processes, a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.

複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
(1)長露光画素垂直方向画素値差分平均値(LDiff_v)、
(2)長露光画素水平方向画素値差分平均値(LDiff_h)、
(3)長露光画素右上方向画素値差分平均値(LDiff_a)、
(4)長露光画素左上方向画素値差分平均値(LDiff_d)、
これらの各値の算出式は、以下の(式1)に示す通りである。
The pixel value differences of a plurality of pixel pairs are calculated, and the average value is calculated to calculate the following values.
(1) Long exposure pixel vertical direction pixel value difference average value (LDiff_v),
(2) Long exposure pixel horizontal direction pixel value difference average value (LDiff_h),
(3) Long exposure pixel upper right direction pixel value difference average value (LDiff_a),
(4) Long exposure pixel upper left direction pixel value difference average value (LDiff_d),
The calculation formula of these values is as shown in the following (Formula 1).

・・・・・(式1)
なお、上記式において、N,M.O,Pは算出した差分の数である。
... (Formula 1)
In the above formula, N, M. O and P are the calculated numbers of differences.

図10は、差分算出部161〜164において実行する短露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
(Sv)短露光垂直方向、
(Sh)短露光水平方向、
(Sa)短露光右上方向、
(Sd)短露光左上方向、
これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
FIG. 10 is a diagram illustrating a specific example of vertical, horizontal, upper right, and upper left difference calculation processes relating to short exposure pixels executed by the difference calculation units 161 to 164.
(Sv) Short exposure vertical direction,
(Sh) horizontal direction of short exposure,
(Sa) Short exposure upper right direction,
(Sd) Short exposure upper left direction,
In each of these processes, a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.

複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
(1)短露光画素垂直方向画素値差分平均値(SDiff_v)、
(2)短露光画素水平方向画素値差分平均値(SDiff_h)、
(3)短露光画素右上方向画素値差分平均値(SDiff_a)、
(4)短露光画素左上方向画素値差分平均値(S)Diff_d)、
これらの各値の算出式は、以下の(式2)に示す通りである。
The pixel value differences of a plurality of pixel pairs are calculated, and the average value is calculated to calculate the following values.
(1) Short exposure pixel vertical direction pixel value difference average value (SDiff_v),
(2) Short exposure pixel horizontal direction pixel value difference average value (SDiff_h),
(3) Short exposure pixel upper right direction pixel value difference average value (SDiff_a),
(4) Short exposure pixel upper left direction pixel value difference average value (S) Diff_d),
The calculation formulas for these values are as shown in (Formula 2) below.

・・・・・(式2)
なお、上記式において、Q,R.S,Tは算出した差分の数である。
... (Formula 2)
In the above formula, Q, R. S and T are the calculated numbers of differences.

図8に示す差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164は、このように長時間露光G画素および短時間露光G画素を適用して4方向の画素値差分平均値を算出する。この算出値は、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168に出力される。   The difference calculation unit (vertical) 161, the difference calculation unit (horizontal) 162, the difference calculation unit (upper right) 163, and the difference calculation unit (upper left) 164 shown in FIG. A pixel value difference average value in four directions is calculated by applying the pixels. This calculated value is output to the long exposure edge detection unit 165, the long exposure edge direction determination unit 166, the short exposure edge detection unit 167, and the short exposure edge direction determination unit 168.

長露光エッジ検出部165、長露光エッジ方向判定部166は、長時間露光G画素の4方向の画素値差分平均値を入力し、長露光画素の各方向の画素値差分平均値を用いて、長露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
また、短露光エッジ検出部167、短露光エッジ方向判定部168は、短時間露光G画素の4方向の画素値差分平均値を入力し、短露光画素の各方向の画素値差分平均値を用いて、短露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
The long exposure edge detection unit 165 and the long exposure edge direction determination unit 166 input the pixel value difference average value in the four directions of the long exposure G pixel, and use the pixel value difference average value in each direction of the long exposure pixel, The presence / absence of an edge determined from the long exposure pixel and the edge direction are determined.
Further, the short exposure edge detection unit 167 and the short exposure edge direction determination unit 168 receive the pixel value difference average values in the four directions of the short exposure G pixels and use the pixel value difference average values in the respective directions of the short exposure pixels. Thus, the presence / absence of the edge and the edge direction determined from the short exposure pixel are determined.

長露光エッジ検出部165は、以下に示す(式3)に従って、長露光画素から判断されるエッジの有無を示す長露光エッジ判定フラグ(LEdge_flg)171を算出する。   The long exposure edge detection unit 165 calculates a long exposure edge determination flag (LEEdge_flg) 171 indicating the presence / absence of an edge determined from the long exposure pixel according to the following (Equation 3).

・・・・・(式3) ... (Formula 3)

上記(式3)において、
THは予め定めた閾値である。
長露光エッジ判定フラグ(LEdge_flg)171は、
LEdge_flg=1の場合、注目画素がエッジ領域であることを示し、
LEdge_flg=0の場合、注目画素がエッジ領域でない、すなわち平坦領域であることを示す。
In the above (Formula 3),
TH is a predetermined threshold value.
The long exposure edge determination flag (LEEdge_flg) 171 is
When LEEdge_flg = 1, this indicates that the pixel of interest is an edge region,
When LEEdge_flg = 0, it indicates that the pixel of interest is not an edge region, that is, a flat region.

長露光エッジ方向判定部166は、以下に示す(式4)に従って、長露光画素から判断されるエッジの方向を示す長露光エッジ方向フラグ(LDir_flg)172を算出する。   The long exposure edge direction determination unit 166 calculates a long exposure edge direction flag (LDir_flg) 172 indicating the direction of the edge determined from the long exposure pixel according to the following (Equation 4).

・・・・・(式4) (Formula 4)

上記(式4)において、
min{a,b,c,d}は、a,b,c,dから最小値を選択する関数である。
In the above (Formula 4),
min {a, b, c, d} is a function for selecting the minimum value from a, b, c, d.

長露光エッジ方向フラグ(LDir_flg)172は、上記(式4)によって定義される各値0〜3に応じて以下のエッジ方向であることをほ示す。
LDir_flg=0:エッジ方向が垂直方向、
LDir_flg=1:エッジ方向が水平方向、
LDir_flg=2:エッジ方向が左上方向、
LDir_flg=3:エッジ方向が右上方向、
The long exposure edge direction flag (LDir_flg) 172 indicates the following edge direction according to each value 0 to 3 defined by (Equation 4).
LDir_flg = 0: the edge direction is the vertical direction,
LDir_flg = 1: the edge direction is the horizontal direction,
LDir_flg = 2: the edge direction is the upper left direction,
LDir_flg = 3: The edge direction is the upper right direction,

また、短露光エッジ検出部167は、以下に示す(式5)に従って、短露光画素から判断されるエッジの有無を示す短露光エッジ判定フラグ(SEdge_flg)173を算出する。   Further, the short exposure edge detection unit 167 calculates a short exposure edge determination flag (SEdge_flg) 173 indicating the presence / absence of an edge determined from the short exposure pixel according to the following (Equation 5).

・・・・・(式5) ... (Formula 5)

上記(式5)において、
THは予め定めた閾値である。
短露光エッジ判定フラグ(SEdge_flg)173は、
SEdge_flg=1の場合、注目画素がエッジ領域であることを示し、
SEdge_flg=0の場合、注目画素がエッジ領域でない、すなわち平坦領域であることを示す。
In the above (Formula 5),
TH is a predetermined threshold value.
The short exposure edge determination flag (SEdge_flg) 173 is
When SEedge_flg = 1, it indicates that the target pixel is an edge region,
When SEedge_flg = 0, it indicates that the pixel of interest is not an edge region, that is, a flat region.

短露光エッジ方向判定部168は、以下に示す(式6)に従って、短露光画素から判断されるエッジの方向を示す長露光エッジ方向フラグ(SDir_flg)174を算出する。   The short exposure edge direction determination unit 168 calculates a long exposure edge direction flag (SDir_flg) 174 indicating the direction of the edge determined from the short exposure pixel according to the following (Equation 6).

・・・・・(式6) ... (Formula 6)

上記(式6)において、
min{a,b,c,d}は、a,b,c,dから最小値を選択する関数である。
In the above (formula 6),
min {a, b, c, d} is a function for selecting the minimum value from a, b, c, d.

短露光エッジ方向フラグ(SDir_flg)174は、上記(式6)によって定義される各値0〜3に応じて以下のエッジ方向であることを示す。
SDir_flg=0:エッジ方向が垂直方向、
SDir_flg=1:エッジ方向が水平方向、
SDir_flg=2:エッジ方向が左上方向、
SDir_flg=3:エッジ方向が右上方向、
The short exposure edge direction flag (SDir_flg) 174 indicates the following edge direction according to each value 0 to 3 defined by the above (Expression 6).
SDir_flg = 0: the edge direction is the vertical direction,
SDir_flg = 1: Edge direction is horizontal,
SDir_flg = 2: the edge direction is the upper left direction,
SDir_flg = 3: The edge direction is the upper right direction,

このように、エッジ検出部151は。注目画素対応の以下の各情報をエッジ情報として生成して、重心補正部152と画素合成部153に出力する。
(1)長露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す長露光エッジフラグ(LEdge_flg)171
(2)長露光画素に基づいて判定した注目画素におけるエッジ方向を示す長露光エッジ方向フラグ(LDir_flg)172
(3)短露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す短露光エッジフラグ(SEdge_flg)173
(4)短露光画素に基づいて判定した注目画素におけるエッジ方向を示す短露光エッジ方向フラグ(SDir_flg)174
Thus, the edge detection unit 151 is. The following information corresponding to the target pixel is generated as edge information and output to the centroid correction unit 152 and the pixel synthesis unit 153.
(1) A long exposure edge flag (LEEdge_flg) 171 indicating whether or not the target pixel determined based on the long exposure pixel is an edge region.
(2) Long exposure edge direction flag (LDir_flg) 172 indicating the edge direction of the target pixel determined based on the long exposure pixel
(3) A short exposure edge flag (SEedge_flg) 173 indicating whether or not the target pixel determined based on the short exposure pixel is an edge region.
(4) A short exposure edge direction flag (SDir_flg) 174 indicating the edge direction of the target pixel determined based on the short exposure pixel.

(2−2.重心補正部の構成と処理について)
次に、図11以下を参照して重心補正部152の構成と処理について説明する。
図11は重心補正部152の詳細構成を示すブロック図である。
(2-2. Configuration and Processing of Center of Gravity Correction)
Next, the configuration and processing of the gravity center correction unit 152 will be described with reference to FIG.
FIG. 11 is a block diagram illustrating a detailed configuration of the gravity center correction unit 152.

図7に示すHDR画像生成部131は、撮像素子102からの出力画像である図7に示す入力画像(SVE配列画像)141に含まれる長露光画素と短露光画素を合成して出力画像であるHDR画像142の1つの出力画素値を算出する。
例えば合成処理後の出力画像であるHDR画像142は、合成処理前の入力画像である入力画像(SVE配列画像)141を水平垂直方向とも画素数を1/2とした設定となる。
The HDR image generation unit 131 illustrated in FIG. 7 combines the long exposure pixels and the short exposure pixels included in the input image (SVE array image) 141 illustrated in FIG. 7 which is an output image from the image sensor 102, and is an output image. One output pixel value of the HDR image 142 is calculated.
For example, the HDR image 142 that is the output image after the synthesis process is set to halve the number of pixels in the horizontal and vertical directions of the input image (SVE array image) 141 that is the input image before the synthesis process.

図12に示すように、合成対象となる長露光画素と短露光画素は、異なる画素位置にあり、異なる被写体位置の撮影画素値を合成することになる。
このような処理を行なうと、例えばエッジ等の境界が階段状に設定されるジャギーや、偽色等のエイリアシングが発生する場合がある。
このようなジャギー、エイリアシングの発生を抑制するためには、合成対象となる長露光画素と短露光画素の画素位置を同じ画素位置とする調整を行なうことが有効となる。この処理を重心補正と呼ぶ。
As shown in FIG. 12, the long exposure pixel and the short exposure pixel to be combined are at different pixel positions, and photographic pixel values at different subject positions are combined.
When such processing is performed, for example, jaggies in which boundaries such as edges are set in a staircase shape or aliasing such as false colors may occur.
In order to suppress the occurrence of such jaggy and aliasing, it is effective to perform adjustment so that the pixel positions of the long exposure pixel and the short exposure pixel to be combined are the same pixel position. This process is called center of gravity correction.

図11に示す重心補正部152の垂直重心補正部181は、入力画像(SVE配列画像)141に含まれる長露光画素と短露光画素に対して、各画素位置を同じ画素位置とした場合の各画素値を算出し、これらを「重心補正あり長露光画素(L_w)」と「重心補正あり短露光画素(S_w)」として補正結果選択部183に出力する。   The vertical centroid correction unit 181 of the centroid correction unit 152 illustrated in FIG. 11 has each pixel position when the pixel positions are the same for the long exposure pixels and the short exposure pixels included in the input image (SVE array image) 141. Pixel values are calculated and output to the correction result selection unit 183 as “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)”.

重心補正部152の垂直重心補正部181は、このように合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する。具体的には、
異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、重心補正部出力長時間露光画素の画素値を算出する。
また、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、重心補正部出力短時間露光画素の画素値を算出する処理を実行する。
The vertical centroid correction unit 181 of the centroid correction unit 152 executes processing for matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel that are to be combined in this way. In particular,
The pixel value of the long-time exposure pixel output by the centroid correction unit is calculated by weighted addition using the pixel values of the plurality of long-time exposure pixels of the same color at different pixel positions.
In addition, a process of calculating the pixel value of the centroid correction unit output short-time exposure pixel is performed by weighted addition using the pixel values of a plurality of short-time exposure pixels of the same color at different pixel positions.

例えば図13に示すような処理を行なう。
図13には、以下の各処理例を示している。
(a)長露光画素の重心補正処理、
(b)短露光画素の重心補正処理、
図13に示す処理例は、処理対象とする注目画素を入力画像(SVE配列画像)における第5,6,9,10行目の長露光画素とした場合の処理例を説明している。
For example, processing as shown in FIG. 13 is performed.
FIG. 13 shows the following processing examples.
(A) Long-exposure pixel centroid correction processing;
(B) Short-exposure pixel centroid correction processing;
The processing example illustrated in FIG. 13 illustrates a processing example when the target pixel to be processed is the long exposure pixel in the fifth, sixth, ninth, and tenth rows in the input image (SVE array image).

なお、前述したように、図7に示すHDR画像生成部131が最終的に生成するHDR画像142の各画素は、入力画像(SVE配列画像)141中の少なくとも1つの長露光画素と短露光画素を含む複数画素の画素値合成によって生成される。
従って、HDR画像生成部131は、処理対象画素(注目画素)として入力画像(SVE配列画像)中の長露光画素のみを順次選択する設定としてよい。短露光画素は、処理対象画素(注目画素)として選択された長露光画素との合成に適用する画素として自動的に選択されるからである。
Note that, as described above, each pixel of the HDR image 142 finally generated by the HDR image generation unit 131 illustrated in FIG. 7 is at least one long exposure pixel and short exposure pixel in the input image (SVE array image) 141. Is generated by combining pixel values of a plurality of pixels.
Accordingly, the HDR image generation unit 131 may be configured to sequentially select only the long exposure pixels in the input image (SVE array image) as the processing target pixel (target pixel). This is because the short exposure pixel is automatically selected as a pixel to be applied to synthesis with the long exposure pixel selected as the processing target pixel (target pixel).

図13に示す例は、入力画像(SVE配列画像)における第5,6,9,10行目の長露光画素を処理対象画素(注目画素)として選択した場合の重心補正処理を示している。具体的には、
(a)重心補正あり長露光画素(L_w)、
(b)重心補正あり短露光画素(S_w)、
これらの各露光画素の重心補正処理例を示している。
The example illustrated in FIG. 13 illustrates the centroid correction process when the long exposure pixels in the fifth, sixth, ninth, and tenth rows in the input image (SVE array image) are selected as the processing target pixel (target pixel). In particular,
(A) Long exposure pixel with center of gravity correction (L_w),
(B) Short exposure pixel with center of gravity correction (S_w),
An example of the center of gravity correction processing of each of these exposure pixels is shown.

例えば、図13(a)に示す長露光画素の重心補正処理においては、以下の処理を実行する。
入力画像(SVE配列画像)における第5行目のGRGR画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第1行目の画素位置の長露光画素(GRGR)の画素値と、第5行目の長露光画素(GRGR)の画素値と、第9行目の長露光画素(GRGR)の画素値とを1:6:1で加算平均することで、図13(a2)長時間露光重心補正画像の最上段(5行目相当)の各画素(GRGR)の画素値を算出する。
図13(a2)長時間露光重心補正画像の右端に示す(x行目相当)は、重心補正画素の画素値が、入力画像においてどの画素位置(x行目)に対応する画素値に相当するかを示している。
For example, in the long-exposure pixel centroid correction process shown in FIG. 13A, the following process is executed.
If any of the GRGR pixels in the fifth row in the input image (SVE array image) is the target pixel, the pixel value of the long exposure pixel (GRGR) at the pixel position in the first row of the input image (SVE array image) And the pixel value of the long-exposure pixel (GRGR) in the fifth row and the pixel value of the long-exposure pixel (GRGR) in the ninth row are added and averaged at 1: 6: 1, thereby obtaining FIG. ) The pixel value of each pixel (GRGR) in the uppermost stage (corresponding to the fifth row) of the long-time exposure gravity center corrected image is calculated.
In FIG. 13 (a2), the pixel value of the center-of-gravity correction pixel corresponds to the pixel value corresponding to which pixel position (the x-th row) in the input image. It shows.

また、入力画像(SVE配列画像)における第6行目のBGBG画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第6行目の画素位置の長露光画素(BGBG)の画素値と、第10行目の長露光画素(BGBG)の画素値を3:1で加算平均することで、(a2)長時間露光重心補正画像の二番目(7行目相当)の各画素(BGBG)の画素値を算出する。   Further, when any of the BGBG pixels in the sixth row in the input image (SVE array image) is the target pixel, the long exposure pixel (BGBG) at the pixel position in the sixth row of the input image (SVE array image). The pixel value and the pixel value of the long exposure pixel (BGBG) in the tenth row are added and averaged at 3: 1, so that (a2) each second pixel (corresponding to the seventh row) of the long-time exposure centroid-corrected image The pixel value of (BGBG) is calculated.

以下同様に、入力画像(SVE配列画像)における第9行目のGRGR画素のいずれかが注目画素である場合、第5行目の処理と同様、入力画像(SVE配列画像)の第5行目の画素位置の長露光画素(GRGR)の画素値と、第9行目の長露光画素(GRGR)の画素値と、第13行目の長露光画素(GRGR)の画素値とを1:6:1で加算平均することで、図13(a2)長時間露光重心補正画像の三番目(9行目相当)の各画素(GRGR)の画素値を算出する。
また、入力画像(SVE配列画像)における第10行目のBGBG画素のいずれかが注目画素である場合、第6行目の処理と同様、入力画像(SVE配列画像)の第10行目の画素位置の長露光画素(BGBG)の画素値と、第14行目の長露光画素(BGBG)の画素値を3:1で加算平均することで、(a2)長時間露光重心補正画像の四番目(11行目相当)の各画素(BGBG)の画素値を算出する。
Similarly, when any of the GRGR pixels in the ninth row in the input image (SVE array image) is the target pixel, the fifth row in the input image (SVE array image) is the same as the processing in the fifth row. The pixel value of the long exposure pixel (GRGR) at the pixel position, the pixel value of the long exposure pixel (GRGR) in the ninth row, and the pixel value of the long exposure pixel (GRGR) in the thirteenth row are 1: 6. The pixel value of each pixel (GRGR) of the third (equivalent to the 9th row) of the long-time exposure center-of-gravity correction image in FIG.
When any of the BGBG pixels in the 10th row in the input image (SVE array image) is the target pixel, the pixels in the 10th row of the input image (SVE array image) are the same as in the process in the 6th row. The pixel value of the long exposure pixel (BGBG) at the position and the pixel value of the long exposure pixel (BGBG) in the 14th row are added and averaged at a ratio of 3: 1. The pixel value of each pixel (BGBG) in the (11th row) is calculated.

図13(a2)長時間露光重心補正画像には、
処理対象画素(注目画素)が、入力画像(SVE配列画像)の第5,6,9,10行目の長露光画素である場合の重心補正画素の画素値が、入力画像においてどの画素位置(x行目)に対応するかを示している。
処理対象画素(注目画素)が、入力画像の第5行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第5行の位置となる。
処理対象画素(注目画素)が、入力画像の第6行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第7行の位置となる。
処理対象画素(注目画素)が、入力画像の第9行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第9行の位置となる。
処理対象画素(注目画素)が、入力画像の第10行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第11行の位置となる。
このように、重心補正画素は、入力画像において垂直方向に均等間隔に配置した画素に対応する画素値として算出される。
In FIG. 13 (a2) long-time exposure centroid correction image,
When the pixel to be processed (target pixel) is a long exposure pixel in the fifth, sixth, ninth, and tenth rows of the input image (SVE array image), the pixel value of the center-of-gravity correction pixel is x line)).
When the processing target pixel (target pixel) is the GRGR pixel in the fifth row of the input image, the pixel position of the gravity center corrected image is the position of the fifth row in the input image.
When the pixel to be processed (target pixel) is the BGBG pixel in the sixth row of the input image, the pixel position of the center-of-gravity correction image is the position of the seventh row in the input image.
When the processing target pixel (target pixel) is the GRGR pixel in the ninth row of the input image, the pixel position of the gravity center corrected image is the position of the ninth row in the input image.
When the processing target pixel (target pixel) is the BGBG pixel in the 10th row of the input image, the pixel position of the gravity center corrected image is the 11th row position in the input image.
As described above, the center-of-gravity correction pixels are calculated as pixel values corresponding to pixels arranged at equal intervals in the vertical direction in the input image.

一方、図13(b)短露光画素の重心補正処理においては、以下の処理を実行する。
入力画像(SVE配列画像)における第5行目のGRGR画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第3行目の画素位置の短露光画素(GRGR)の画素値と、第7行目の短露光画素(GRGR)の画素値の画素値とを1:1で加算平均することで、図13(b2)短時間露光重心補正画像の最上段(5行目相当)の各画素(GRGR)の画素値を算出する。
On the other hand, in the center of gravity correction processing of the short exposure pixel in FIG. 13B, the following processing is executed.
When any of the GRGR pixels in the fifth row in the input image (SVE array image) is the target pixel, the pixel value of the short exposure pixel (GRGR) at the pixel position in the third row in the input image (SVE array image) And the pixel value of the pixel value of the short exposure pixel (GRGR) in the seventh row are added and averaged by 1: 1, whereby the uppermost stage (corresponding to the fifth row) of FIG. ) For each pixel (GRGR).

また、入力画像(SVE配列画像)における第6行目のBGBG画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第4行目の画素位置の短露光画素(BGBG)の画素値と、第8行目の短露光画素(BGBG)の画素値を1:3で加算平均することで、(b2)短時間露光重心補正画像の二番目(7行目相当)の各画素(BGBG)の画素値を算出する。   Further, when any of the BGBG pixels in the sixth row in the input image (SVE array image) is the target pixel, the short exposure pixel (BGBG) at the pixel position in the fourth row in the input image (SVE array image). The pixel value and the pixel value of the short exposure pixel (BGBG) in the eighth row are added and averaged by 1: 3, whereby (b2) each second pixel (corresponding to the seventh row) of the short-time exposure centroid-corrected image The pixel value of (BGBG) is calculated.

以下同様に、入力画像(SVE配列画像)における第9行目のGRGR画素のいずれかが注目画素である場合、第5行目の処理と同様、入力画像(SVE配列画像)の第7行目の画素位置の短露光画素(GRGR)の画素値と、第11行目の短露光画素(GRGR)の画素値を1:1で加算平均することで、図13(b2)短時間露光重心補正画像の三番目(9行目相当)の各画素(GRGR)の画素値を算出する。
また、入力画像(SVE配列画像)における第10行目のBGBG画素のいずれかが注目画素である場合、第6行目の処理と同様、入力画像(SVE配列画像)の第8行目の画素位置の短露光画素(BGBG)の画素値と、第12行目の短露光画素(BGBG)の画素値を1:3で加算平均することで、(b2)短時間露光重心補正画像の四番目(11行目相当)の各画素(BGBG)の画素値を算出する。
Similarly, when any of the GRGR pixels in the ninth row in the input image (SVE array image) is the target pixel, the seventh row in the input image (SVE array image) is the same as the processing in the fifth row. The pixel value of the short-exposure pixel (GRGR) at the pixel position and the pixel value of the short-exposure pixel (GRGR) in the eleventh row are added and averaged 1: 1, thereby FIG. A pixel value of each third pixel (corresponding to the ninth row) of the image (GRGR) is calculated.
When any of the BGBG pixels in the 10th row in the input image (SVE array image) is the target pixel, the pixels in the 8th row of the input image (SVE array image) are the same as in the process in the 6th row. The pixel value of the short-exposure pixel (BGBG) at the position and the pixel value of the short-exposure pixel (BGBG) in the twelfth row are added and averaged by 1: 3. The pixel value of each pixel (BGBG) in the (11th row) is calculated.

図13(b2)短時間露光重心補正画像には、
処理対象画素(注目画素)が、入力画像(SVE配列画像)の第5,6,9,10行目の長露光画素である場合の重心補正画素の画素値が、入力画像においてどの画素位置(x行目)に対応するかを示している。
処理対象画素(注目画素)が、入力画像の第5行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第5行の位置となる。
処理対象画素(注目画素)が、入力画像の第6行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第7行の位置となる。
処理対象画素(注目画素)が、入力画像の第9行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第9行の位置となる。
処理対象画素(注目画素)が、入力画像の第10行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第11行の位置となる。
このように、重心補正画素は、入力画像において垂直方向に均等間隔に配置した画素に対応する画素値として算出される。
In FIG. 13 (b2) the short-time exposure centroid correction image,
When the pixel to be processed (target pixel) is a long exposure pixel in the fifth, sixth, ninth, and tenth rows of the input image (SVE array image), the pixel value of the center-of-gravity correction pixel is x line)).
When the processing target pixel (target pixel) is the GRGR pixel in the fifth row of the input image, the pixel position of the gravity center corrected image is the position of the fifth row in the input image.
When the pixel to be processed (target pixel) is the BGBG pixel in the sixth row of the input image, the pixel position of the center-of-gravity correction image is the position of the seventh row in the input image.
When the processing target pixel (target pixel) is the GRGR pixel in the ninth row of the input image, the pixel position of the gravity center corrected image is the position of the ninth row in the input image.
When the processing target pixel (target pixel) is the BGBG pixel in the 10th row of the input image, the pixel position of the gravity center corrected image is the 11th row position in the input image.
As described above, the center-of-gravity correction pixels are calculated as pixel values corresponding to pixels arranged at equal intervals in the vertical direction in the input image.

図13(a2),(b2)に示す長露光および短露光の各重心補正画像から理解されるように、各重心補正画像の各画素の画素値は、入力画像における第5,7,9,11行目に相当する位置の画素値に相当するものとなる。   As understood from the long-exposure and short-exposure center-of-gravity correction images shown in FIGS. 13A2 and 13B2, the pixel values of the pixels of each center-of-gravity correction image are the fifth, seventh, ninth, This corresponds to the pixel value at the position corresponding to the eleventh row.

このように図13(a2)に示す長時間露光重心補正画像と、図13(b2)に示す短時間露光重心補正画像の同一行、例えば第5行目は、それぞれ同じ被写体画像位置の画素値に対応し、これらを合成することで、同じ被写体位置の短露光画素と長露光画素同士の合成処理と同等の処理が行われることになる。
この合成結果が、図13(c)に示す合成結果となる。
As described above, the same row, for example, the fifth row of the long-time exposure centroid correction image shown in FIG. 13 (a2) and the short-time exposure centroid correction image shown in FIG. By combining these, processing equivalent to the combining processing of the short exposure pixels and the long exposure pixels at the same subject position is performed.
This synthesis result is the synthesis result shown in FIG.

図14(a)〜(d)は、処理対象画素(注目画素)を、入力画像の第5,6,9,10各行に対応する長露光画素とした場合の垂直重心補正部181の処理例を示した図である。それぞれ長時間露光画素と短露光画素の重心補正画素の画素値算出処理の具体的処理を示している。   FIGS. 14A to 14D show processing examples of the vertical centroid correction unit 181 when the processing target pixel (target pixel) is a long exposure pixel corresponding to each of the fifth, sixth, ninth, and tenth rows of the input image. FIG. The specific processing of the pixel value calculation processing of the center-of-gravity correction pixels of the long exposure pixel and the short exposure pixel is shown.

(1)入力画像の第5行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
(1L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第1行、第5行、第9目行の各長露光画素の画素値を1:6:1の比率で加算して算出する。
(1S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第3行、第7行の各短露光画素の画素値を1:1の比率で加算して算出する。
(1) Processing when the long-time exposure pixel in the fifth row of the input image is the processing target pixel (target pixel) is as follows.
(1L) The pixel value of the long-time exposure centroid correction pixel is the ratio of the pixel values of the long exposure pixels in the first row, the fifth row, and the ninth row of the input image (SVE array image) at a ratio of 1: 6: 1. Calculate by adding.
(1S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the third row and the seventh row of the input image (SVE array image) at a ratio of 1: 1.

(2)入力画像の第6行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
(2L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第6行、第10行の各長露光画素の画素値を3:1の比率で加算して算出する。
(2S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第4行、第8行の各短露光画素の画素値を1:3の比率で加算して算出する。
(2) Processing when the long-time exposure pixel in the sixth row of the input image is the processing target pixel (target pixel) is as follows.
(2L) The pixel value of the long-time exposure centroid correction pixel is calculated by adding the pixel values of the long exposure pixels in the sixth and tenth rows of the input image (SVE array image) at a ratio of 3: 1.
(2S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the fourth and eighth rows of the input image (SVE array image) at a ratio of 1: 3.

(3)入力画像の第9行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
(3L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第5行、第9行、第13目行の各長露光画素の画素値を1:6:1の比率で加算して算出する。
(3S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第7行、第11行の各短露光画素の画素値を1:1の比率で加算して算出する。
(3) Processing when the long-time exposure pixel in the ninth row of the input image is set as a processing target pixel (target pixel) is as follows.
(3L) The pixel value of the long-time exposure centroid correction pixel is the ratio of the pixel values of the long exposure pixels in the fifth row, the ninth row, and the thirteenth row of the input image (SVE array image) at a ratio of 1: 6: 1. Calculate by adding.
(3S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the seventh row and the eleventh row of the input image (SVE array image) at a ratio of 1: 1.

(4)入力画像の第10行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
(4L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第10行、第14行の各長露光画素の画素値を3:1の比率で加算して算出する。
(4S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第8行、第12行の各短露光画素の画素値を1:3の比率で加算して算出する。
(4) Processing when the long-time exposure pixel in the tenth row of the input image is the processing target pixel (target pixel) is as follows.
(4L) The pixel value of the long-time exposure centroid correction pixel is calculated by adding the pixel values of the long exposure pixels in the 10th and 14th rows of the input image (SVE array image) at a ratio of 3: 1.
(4S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the eighth and twelfth rows of the input image (SVE array image) at a ratio of 1: 3.

このようにして、入力画像の同じ画素位置に長露光画素と短露光画素を設定したと仮定した場合の各画素値を、長時間露光重心補正画素、短時間露光重心補正画素として算出する。   In this way, the respective pixel values when it is assumed that the long exposure pixel and the short exposure pixel are set at the same pixel position of the input image are calculated as the long exposure centroid correction pixel and the short exposure centroid correction pixel.

図11に示す重心補正部152の垂直重心補正部181は、図13、図14を参照して説明した処理を実行して、図11に示すように、以下のデータを生成する。
重心補正あり長露光画素(L_w)、
重心補正あり短露光画素(S_w)、
垂直重心補正部181は、これらの各画素値情報を算出して補正結果選択部183に出力する。
これらの各画素値は、1つの処理対象画素(注目画素)として選択された1つの長露光画素に対応する重心補正画素値データとして生成され補正結果選択部183に出力される。
The vertical centroid correction unit 181 of the centroid correction unit 152 illustrated in FIG. 11 executes the processing described with reference to FIGS. 13 and 14 to generate the following data as illustrated in FIG.
Long exposure pixel with center of gravity correction (L_w),
Short exposure pixel with center of gravity correction (S_w),
The vertical centroid correction unit 181 calculates each piece of pixel value information and outputs it to the correction result selection unit 183.
Each of these pixel values is generated as centroid correction pixel value data corresponding to one long exposure pixel selected as one processing target pixel (target pixel), and is output to the correction result selection unit 183.

補正結果選択部183は、さらに、入力画像(SVE配列画像)141に含まれる以下の各画素情報を入力する。
重心補正なし長露光画素(L_n)
重心補正なし短露光画素(S_n)
これらは、入力画像(SVE配列画像)141自身の画素情報である。
The correction result selection unit 183 further inputs the following pixel information included in the input image (SVE array image) 141.
Long exposure pixel without center of gravity correction (L_n)
Short exposure pixel without center of gravity correction (S_n)
These are pixel information of the input image (SVE array image) 141 itself.

補正結果選択部183は、さらに、飽和判定部182の生成する飽和フラグ(Sat_flg)185を入力する。
飽和判定部182は、入力画像(SVE配列画像)141に含まれる長露光画素の画素値が飽和しているか否かを判定し、各長露光画素単位で飽和しているか否かを示す飽和フラグ(Sat_flg)185を設定して出力する。
The correction result selection unit 183 further receives a saturation flag (Sat_flg) 185 generated by the saturation determination unit 182.
The saturation determination unit 182 determines whether or not the pixel value of the long exposure pixel included in the input image (SVE array image) 141 is saturated, and indicates whether or not each long exposure pixel is saturated. (Sat_flg) 185 is set and output.

例えば長露光画素の画素値が最大値であれば、飽和していると判断し、その長露光画素に対応する飽和フラグ(Sat_flg)185の値を1、すなわち、
Sat_flg=1
として出力する。
長露光画素の画素値が飽和していない場合は、その長露光画素に対応する飽和フラグ(Sat_flg)185の値を0、すなわち、
Sat_flg=0
として出力する。
飽和判定部182の生成する飽和フラグ(Sat_flg)185は、重心補正部152の補正結果選択部183に出力され、さらに、図7に示すHDR画像生成部131の画素合成部153にも出力される。
For example, if the pixel value of the long exposure pixel is the maximum value, it is determined that the pixel is saturated, and the value of the saturation flag (Sat_flg) 185 corresponding to the long exposure pixel is set to 1, that is,
Sat_flg = 1
Output as.
When the pixel value of the long exposure pixel is not saturated, the value of the saturation flag (Sat_flg) 185 corresponding to the long exposure pixel is set to 0, that is,
Sat_flg = 0
Output as.
The saturation flag (Sat_flg) 185 generated by the saturation determination unit 182 is output to the correction result selection unit 183 of the centroid correction unit 152, and is also output to the pixel synthesis unit 153 of the HDR image generation unit 131 shown in FIG. .

図11に示す重心補正部152の補正結果選択部183の処理について説明する。
補正結果選択部183は、以下の各データを入力する。
(1)重心補正なし長露光画素(L_n)
(2)重心補正なし短露光画素(S_n)
(3)重心補正あり長露光画素(L_w)、
(4)重心補正あり短露光画素(S_w)、
(5)飽和フラグ(Sat_flg)185
Processing of the correction result selection unit 183 of the gravity center correction unit 152 illustrated in FIG. 11 will be described.
The correction result selection unit 183 inputs the following data.
(1) Long exposure pixel without center of gravity correction (L_n)
(2) Short exposure pixel without center of gravity correction (S_n)
(3) Long exposure pixel with center of gravity correction (L_w),
(4) Short exposure pixel with center of gravity correction (S_w),
(5) Saturation flag (Sat_flg) 185

(1)重心補正なし長露光画素(L_n)と、(2)重心補正なし短露光画素(S_n)、これらのデータは、入力画像(SVE配列画像)141に含まれる各画素情報である。
(3)重心補正あり長露光画素(L_w)、(4)重心補正あり短露光画素(S_w)、これらのデータは、図13、図14を参照して説明した処理に従って、垂直重心補正部181の生成したデータである。
(5)飽和フラグ(Sat_flg)185は、飽和判定部182の生成した長露光画素の飽和判定情報である。
(1) Long exposure pixel without center of gravity correction (L_n), (2) Short exposure pixel without center of gravity correction (S_n), and these data are pixel information included in the input image (SVE array image) 141.
(3) Long exposure pixel with center-of-gravity correction (L_w), (4) Short exposure pixel with center-of-gravity correction (S_w), these data are obtained according to the processing described with reference to FIGS. The data generated by
(5) A saturation flag (Sat_flg) 185 is the saturation determination information of the long exposure pixel generated by the saturation determination unit 182.

補正結果選択部183は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に、飽和フラグ(Sat_flg)185が1の画素、すなわち飽和画素が含まれるか否かを判定する。   The correction result selection unit 183 includes a pixel whose saturation flag (Sat_flg) 185 is 1, that is, a saturated pixel, in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181. It is determined whether or not.

垂直重心補正部181がある処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」が、入力画像中の飽和画素を含む長露光画素を適用した処理によって生成されている場合、この処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」は重心補正部152の出力画素として選択しない。   The “long exposure pixel with centroid correction (L_w)” generated for the processing target pixel (target pixel) with the vertical centroid correction unit 181 is generated by the process of applying the long exposure pixel including the saturated pixel in the input image. In this case, the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” generated for this processing target pixel (target pixel) are output pixels of the center of gravity correction unit 152. Do not select.

この場合は、処理対象画素(注目画素)自身の画素情報、すなわち入力画像中の「重心補正なし長露光画素(L_n)」と、HDR画像生成に際してこの処理対象画素(注目画素)と合成される短露光画素である「重心補正なし短露光画素(S_n)」を選択して、重心補正部152の出力とする。
「重心補正なし短露光画素(S_n)」は、入力画像中の「重心補正なし長露光画素(L_n)」に対して垂直方向近傍にある同一色の短露光画素である。
In this case, the pixel information of the processing target pixel (target pixel) itself, that is, the “long exposure pixel without center of gravity correction (L_n)” in the input image, and the processing target pixel (target pixel) when generating the HDR image are combined. The short exposure pixel “short exposure pixel without center of gravity correction (S_n)” is selected as the output of the center of gravity correction unit 152.
The “short exposure pixel without center of gravity correction (S_n)” is a short exposure pixel of the same color in the vicinity in the vertical direction with respect to the “long exposure pixel without center of gravity correction (L_n)” in the input image.

一方、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に飽和画素が含まれない場合は、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」を、重心補正部152の出力画素とする。   On the other hand, when the saturated pixel is not included in the long exposure pixel applied to the generation of the “long exposure pixel with center of gravity correction (L_w)” generated by the vertical center of gravity correction unit 181, the “center of gravity correction generated by the vertical center of gravity correction unit 181 is used. “Long exposure pixel (L_w)” and “Short exposure pixel with center of gravity correction (S_w)” are output pixels of the center of gravity correction unit 152.

すなわち、図11に示す重心補正部152の出力である、
(1)重心補正部出力長露光画素(Lo)、
(2)重心補正部出力短露光画素(So)、
は以下のように選択出力される。
That is, the output of the center of gravity correction unit 152 shown in FIG.
(1) Center of gravity correction unit output length exposure pixel (Lo),
(2) Center of gravity correction unit output short exposure pixel (So),
Is selected and output as follows.

垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
(1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
(2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
(1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
(2)重心補正部出力短露光画素(So)=重心補正なし短露光画素(S_n)、
このような設定となる。
In the case where no saturated pixel is included in the long exposure pixel applied to the generation of “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel with center of gravity correction (L_w),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel with center of gravity correction (S_w),
When one or more saturated pixels are included in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel without center of gravity correction (L_n),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel without center of gravity correction (S_n),
This is the setting.

このような選択出力は、各処理対象画素(注目画素)単位で実行される。
例えば、処理対象画素(注目画素)が、図14(a)の第5行に示す長露光画素Rである場合、以下の処理を行なう。
この場合、垂直重心補正部181は、第1行の長露光画素Rと、第5行の長露光画素Rと、第9行の長露光画素Rを適用して1:6:1の配分比率で加重平均を行い、「重心補正あり長露光画素(L_w)」を算出する。
同様に、垂直重心補正部181は、第3行の短露光画素Rと、第7行の短露光画素Rを適用して1:1の配分比率で加重平均を行い、「重心補正あり短露光画素(S_w)」を算出する。
Such selection output is executed for each processing target pixel (target pixel).
For example, when the processing target pixel (target pixel) is the long exposure pixel R shown in the fifth row of FIG. 14A, the following processing is performed.
In this case, the vertical center-of-gravity correction unit 181 applies a long exposure pixel R in the first row, a long exposure pixel R in the fifth row, and a long exposure pixel R in the ninth row to obtain a distribution ratio of 1: 6: 1. The weighted average is performed to calculate “long exposure pixel with center of gravity correction (L_w)”.
Similarly, the vertical centroid correction unit 181 applies a weighted average at a 1: 1 distribution ratio by applying the short exposure pixels R in the third row and the short exposure pixels R in the seventh row, and “short exposure with centroid correction” is performed. Pixel (S_w) "is calculated.

ここで、「重心補正あり長露光画素(L_w)」の生成に適用した第1行の長露光画素Rと、第5行の長露光画素Rと、第9行の長露光画素Rの少なくとも1つの画素が飽和画素である場合、補正結果選択部183は、垂直重心補正部181の算出した「重心補正あり長露光画素(L_w)」と「重心補正あり短露光画素(S_w)」これらの画素は出力画素として選択しない。
この場合、処理対象画素(注目画素)自身の画素情報、すなわち入力画像中の「重心補正なし長露光画素(L_n)」と、HDR画像の生成に際してこの処理対象画素(注目画素)と合成対象となる短露光画素である「重心補正なし短露光画素(S_n)」を選択して、重心補正部152の出力とする。
Here, at least one of the long exposure pixel R in the first row, the long exposure pixel R in the fifth row, and the long exposure pixel R in the ninth row applied to the generation of the “long exposure pixel with center of gravity correction (L_w)”. When one pixel is a saturated pixel, the correction result selection unit 183 calculates the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” calculated by the vertical center of gravity correction unit 181. Are not selected as output pixels.
In this case, the pixel information of the processing target pixel (target pixel) itself, that is, the “long exposure pixel without center of gravity correction (L_n)” in the input image, and the processing target pixel (target pixel) and the synthesis target when generating the HDR image. The short exposure pixel “Short exposure pixel without center of gravity correction (S_n)” is selected and used as the output of the center of gravity correction unit 152.

一方、「重心補正あり長露光画素(L_w)」の生成に適用した第1行の長露光画素Rと、第5行の長露光画素Rと、第9行の長露光画素Rに1つも飽和画素が含まれない場合、補正結果選択部183は、垂直重心補正部181の算出した「重心補正あり長露光画素(L_w)」と「重心補正あり短露光画素(S_w)」これらの画素情報を出力する。   On the other hand, all of the long exposure pixels R in the first row, the long exposure pixels R in the fifth row, and the long exposure pixels R in the ninth row applied to the generation of the “long exposure pixel with center of gravity correction (L_w)” are saturated. When the pixel is not included, the correction result selection unit 183 calculates the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” calculated by the vertical center of gravity correction unit 181. Output.

このように、重心補正部152は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
(1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
(2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
As described above, when the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181 does not include any saturated pixel,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel with center of gravity correction (L_w),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel with center of gravity correction (S_w),
These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.

また、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
(1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
(2)重心補正部出力短露光画素(So)=重心補正なし短露光画素(S_n)、
このような設定となる。
これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
Further, when one or more saturated pixels are included in the long exposure pixel applied to the generation of “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel without center of gravity correction (L_n),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel without center of gravity correction (S_n),
This is the setting.
These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.

さらに、重心補正部152は、図11に示す飽和判定部182の生成した飽和フラグ(Sat_flg)185も図7に示すHDR画像生成部131の画素合成部153に出力する。
飽和フラグ(Sat_flg)185は入力画像(SVE配列画像)中の長露光画素が飽和しているか否かを示す情報である。
Furthermore, the center-of-gravity correction unit 152 also outputs a saturation flag (Sat_flg) 185 generated by the saturation determination unit 182 shown in FIG. 11 to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.
The saturation flag (Sat_flg) 185 is information indicating whether or not the long exposure pixel in the input image (SVE array image) is saturated.

(2−3.画素合成部の構成と処理について)
次に、図15以下を参照して、図7に示すHDR画像生成部131の画素合成部153の構成と処理について説明する。
(2-3. Configuration and processing of pixel composition unit)
Next, the configuration and processing of the pixel composition unit 153 of the HDR image generation unit 131 illustrated in FIG. 7 will be described with reference to FIG.

図15は画素合成部153の詳細構成を示すブロック図である。
図15に示すように、画素合成部153は、平坦部合成部211、エッジ部合成部212、飽和部合成部213、長短合成結果選択&最終合成結果生成部214を有する。
FIG. 15 is a block diagram illustrating a detailed configuration of the pixel synthesis unit 153.
As illustrated in FIG. 15, the pixel synthesis unit 153 includes a flat part synthesis unit 211, an edge part synthesis unit 212, a saturation unit synthesis unit 213, and a long / short synthesis result selection & final synthesis result generation unit 214.

平坦部合成部211、エッジ部合成部212、飽和部合成部213の各々は、先に図11を参照して説明した重心補正部152の生成した出力信号である、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号をそれぞれ異なる態様で合成し、生成した合成信号を長短合成結果選択&最終合成結果生成部214に出力する。
Each of the flat part synthesizing unit 211, the edge part synthesizing unit 212, and the saturation unit synthesizing unit 213 is an output signal generated by the centroid correcting unit 152 described above with reference to FIG.
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
These signals are combined in different manners, and the generated combined signal is output to the long / short combining result selection & final combining result generating unit 214.

平坦部合成部211は、平坦部用の合成信号である平坦部合成結果(Syn_f)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
エッジ部合成部212は、エッジ部用の合成信号であるエッジ部合成結果(Syn_e)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
飽和部合成部213は、飽和部用の合成信号である飽和部合成結果(Syn_s)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
The flat part synthesizing unit 211 generates a flat part synthesis result (Syn_f), which is a synthesized signal for the flat part, and outputs the result to the long / short synthesis result selection & final synthesis result generation unit 214.
The edge part synthesis unit 212 generates an edge part synthesis result (Syn_e) that is a synthesized signal for the edge part, and outputs the result to the long / short synthesis result selection & final synthesis result generation unit 214.
The saturation unit synthesis unit 213 generates a saturation unit synthesis result (Syn_s) that is a synthesized signal for the saturation unit, and outputs the result to the long / short synthesis result selection & final synthesis result generation unit 214.

長短合成結果選択&最終合成結果生成部214は、これらの3つの合成部からの長短露光画素の合成結果を入力する。
さらに、図8を参照して説明したエッジ検出部151から、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのエッジ情報を入力する。
さらに、図11を参照して説明した重心補正部152から、
飽和フラグ(Sat_flg)185、
この飽和情報を入力する。
The long / short synthesis result selection & final synthesis result generation unit 214 inputs the synthesis result of the long / short exposure pixels from these three synthesis units.
Further, from the edge detection unit 151 described with reference to FIG.
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
The edge information is input.
Furthermore, from the center of gravity correction unit 152 described with reference to FIG.
Saturation flag (Sat_flg) 185,
Enter this saturation information.

長短合成結果選択&最終合成結果生成部214は、
(a)長露光エッジフラグ(LEdge_flg)171、
(b)短露光エッジフラグ(SEdge_flg)173、
(c)飽和フラグ(Sat_flg)185、
これらの各情報を参照して、以下のいずれかの長短露光画素の合成結果を選択する。
すなわち、
(1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
(2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
(3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
長短合成結果選択&最終合成結果生成部214は、処理対象画素(注目画素)単位で、これらの3信号の中からいずれかを選択する。
The long / short synthesis result selection & final synthesis result generation unit 214
(A) Long exposure edge flag (LEedge_flg) 171,
(B) a short exposure edge flag (SEdge_flg) 173;
(C) Saturation flag (Sat_flg) 185,
With reference to these pieces of information, a combination result of one of the following long and short exposure pixels is selected.
That is,
(1) Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part,
(2) Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion,
(3) Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion,
The long / short synthesis result selection & final synthesis result generation unit 214 selects one of these three signals for each processing target pixel (target pixel).

さらに、選択した長短露光画素の合成結果に基づいて、水平方向の画素合成を実行して最終合成結果を生成し、合成結果(Syn)として出力する。   Further, based on the combination result of the selected long and short exposure pixels, horizontal pixel combination is performed to generate a final combination result, which is output as a combination result (Syn).

各構成部の処理について説明する。
平坦部合成部211は、図11を参照して説明した重心補正部152の生成した出力信号を入力して、これらの信号に応じた平坦部対応の合成信号を生成する。すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号に対して平坦部用の合成処理を実行して平坦部合成結果(Syn_f)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
The processing of each component will be described.
The flat part synthesizing unit 211 receives the output signal generated by the centroid correcting unit 152 described with reference to FIG. 11 and generates a synthetic signal corresponding to the flat part according to these signals. That is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
A flat portion synthesis result (Syn_f) is generated for each of these signals to generate a flat portion synthesis result (Syn_f), which is output to the long / short synthesis result selection & final synthesis result generation unit 214.

平坦部合成部211は、入力信号、すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号の信号レベルに応じたブレンド比率を適用して、これら2つの画素の画素値、具体的には露光比調整後の2つの画素値のブレンド(合成)により合成結果としての平坦部合成結果(Syn_f)を生成する。
The flat part synthesizing unit 211 receives an input signal, that is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
By applying a blend ratio according to the signal level of each of these signals, a flat portion as a composite result is obtained by blending (combining) the pixel values of these two pixels, specifically, the two pixel values after adjusting the exposure ratio. A synthesis result (Syn_f) is generated.

撮像素子102において撮影された入力画像(SVE配列画像)141の構成画素である短露光画素と長露光画素の露光時間の比率を1:Eとしたとき、
合成対象となる長露光画素と短露光画素の各画素値、すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各画素値は、以下の関係式(式7)の関係にある。
Lo≒So×E・・・(式7)
When the ratio of the exposure time of the short exposure pixels and the long exposure pixels that are constituent pixels of the input image (SVE array image) 141 photographed by the image sensor 102 is 1: E,
Each pixel value of the long exposure pixel and the short exposure pixel to be combined, that is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
These pixel values are in the relationship of the following relational expression (formula 7).
Lo≈So × E (Expression 7)

平坦部、すなわち、一定領域において画素値の変動が少ない画素領域では、
画素値が小さい場合、すなわち、
長露光画素の画素値である重心補正部出力長露光信号(Lo)、
短露光画素の画素値である重心補正部出力短露光信号(So)、
これらのいずれの画素値も小さい場合、
短露光画素に含まれるノイズ量が信号値に比べて高くなる。すなわち短露光画素の画素値は、SN比が悪い信号である可能性が高い。
従って、このような場合は、長露光画素の画素値である重心補正部出力長露光信号(Lo)のブレンド比率を高くした合成処理(ブレンド処理)を実行して平坦部合成結果(Syn_f)を生成する。
In a flat part, that is, a pixel region in which the pixel value varies little in a certain region,
If the pixel value is small, i.e.
The center of gravity correction unit output length exposure signal (Lo) which is the pixel value of the long exposure pixel,
The center of gravity correction unit output short exposure signal (So), which is the pixel value of the short exposure pixel,
If any of these pixel values are small,
The amount of noise included in the short exposure pixel is higher than the signal value. That is, there is a high possibility that the pixel value of the short exposure pixel is a signal with a poor SN ratio.
Accordingly, in such a case, a synthesis process (blend process) in which the blend ratio of the barycenter correction unit output length exposure signal (Lo), which is the pixel value of the long exposure pixel, is increased to execute the flat part synthesis result (Syn_f). Generate.

一方、画素値が大きい場合、すなわち、
長露光画素の画素値である重心補正部出力長露光信号(Lo)、
短露光画素の画素値である重心補正部出力短露光信号(So)、
これらのいずれの画素値も大きい場合、
長露光画素は飽和値または飽和値に近い画素値である可能性が高く正確な画素値を反映していない可能性が高くなる。
従って、このような場合は、短露光画素の画素値である重心補正部出力短露光信号(So)のブレンド比率を高くした合成処理(ブレンド処理)を実行して平坦部合成結果(Syn_f)を生成する。
On the other hand, when the pixel value is large, that is,
The center of gravity correction unit output length exposure signal (Lo) which is the pixel value of the long exposure pixel,
The center of gravity correction unit output short exposure signal (So), which is the pixel value of the short exposure pixel,
If any of these pixel values are large,
The long exposure pixel is likely to be a saturated value or a pixel value close to the saturated value, and is more likely not to reflect an accurate pixel value.
Therefore, in such a case, a synthesis process (blend process) in which the blend ratio of the center-of-gravity correction unit output short exposure signal (So), which is the pixel value of the short exposure pixel, is increased to execute the flat part synthesis result (Syn_f). Generate.

平坦部合成部211において実行する合成処理結果として生成する画素値である平坦部合成結果(Syn_f)に対する、重心補正部出力短露光信号(So)の寄与率に相当する値をブレンド率(α)とする。
また、重心補正部出力長露光信号(Lo)の寄与率に相当する値を(1−α)とする。
A value corresponding to the contribution ratio of the centroid correction unit output short exposure signal (So) to the flat portion synthesis result (Syn_f) that is a pixel value generated as a result of the synthesis processing executed in the flat portion synthesis unit 211 is a blend rate (α). And
In addition, a value corresponding to the contribution ratio of the gravity center correction unit output length exposure signal (Lo) is defined as (1-α).

この設定とした場合、平坦部合成部211における合成処理によって算出する平坦部合成結果である合成画素値(Syn_f)は、以下の(式8)によって算出される。
Syn_f=(1−α)×Lo+α×So×E ・・・(式8)
When this setting is made, the combined pixel value (Syn_f), which is the flat portion combining result calculated by the combining processing in the flat portion combining unit 211, is calculated by the following (Equation 8).
Syn_f = (1−α) × Lo + α × So × E (Equation 8)

上記(式8)において、
Eは、短露光画素と長露光画素の露光比、
αは0から1までの値を取るブレンド率である。
αはLoとSo×Eの値に応じて変化する。
図16はブレンド率αの設定例を示す図である。
横軸が、長露光画素の画素値である重心補正部出力長露光信号(Lo)の画素値、縦軸が、ブレンド率(α)、すなわち、合成画素値における短露光信号(So)の寄与率である。
In (Equation 8) above,
E is the exposure ratio between short exposure pixels and long exposure pixels,
α is a blend ratio that takes values from 0 to 1.
α varies depending on the values of Lo and So × E.
FIG. 16 is a diagram showing an example of setting the blend rate α.
The horizontal axis represents the pixel value of the center-of-gravity correction unit output length exposure signal (Lo), which is the pixel value of the long exposure pixel, and the vertical axis represents the blend ratio (α), that is, the contribution of the short exposure signal (So) in the combined pixel value. Rate.

図16および(式8)から理解されるように、長露光画素である重心補正部出力長露光信号(Lo)の画素値が大きい場合は、ブレンド率αが大きく設定される。ブレンド比率αが大きく設定されると、(式8)に従った合成画素値(Syn_h)の算出において、短時間露光画素の画素値の反映度が高くなる。
すなわち、例えば長時間露光画素の画素値が飽和画素値に近いような場合は、短時間露光画素の画素値が大きく反映される。
As understood from FIG. 16 and (Equation 8), when the pixel value of the centroid correction unit output length exposure signal (Lo), which is a long exposure pixel, is large, the blend rate α is set large. When the blend ratio α is set to be large, in the calculation of the composite pixel value (Syn_h) according to (Equation 8), the reflection degree of the pixel value of the short-time exposure pixel becomes high.
That is, for example, when the pixel value of the long-time exposure pixel is close to the saturation pixel value, the pixel value of the short-time exposure pixel is greatly reflected.

一方、重心補正部出力長露光信号(Lo)の画素値が小さい場合は、ブレンド率αが小さい値に設定される。ブレンド率αが小さく設定されると、(式8)から理解されるように、長時間露光画素の画素値の反映度が高くなる。
すなわち、例えば短時間露光画素の画素値が小さく、短時間露光画素に含まれるノイズが大きいと推定される場合は、長時間露光画素の画素値が大きく反映される。
On the other hand, when the pixel value of the gravity center correction unit output length exposure signal (Lo) is small, the blend rate α is set to a small value. When the blend rate α is set to be small, the reflection degree of the pixel value of the long-time exposure pixel increases as understood from (Equation 8).
That is, for example, when the pixel value of the short-time exposure pixel is small and the noise contained in the short-time exposure pixel is estimated to be large, the pixel value of the long-time exposure pixel is largely reflected.

このような画素合成を実行することで、低輝度〜高輝度まで、ノイズの少ない精度の高い画素値設定が可能となる。   By executing such pixel synthesis, it is possible to set pixel values with high accuracy and low noise from low luminance to high luminance.

次に、エッジ部合成部212の処理について説明する。
エッジ部合成部212は、図11を参照して説明した重心補正部152の生成した出力信号を入力して、これらの信号に応じたエッジ部対応の合成信号を生成する。すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号に対してエッジ部用の合成処理を実行してエッジ部合成結果(Syn_e)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
Next, the process of the edge part synthetic | combination part 212 is demonstrated.
The edge portion synthesis unit 212 receives the output signal generated by the centroid correction unit 152 described with reference to FIG. 11 and generates a synthesized signal corresponding to the edge portion according to these signals. That is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
An edge portion synthesis process (Syn_e) is generated on each of these signals to generate an edge portion synthesis result (Syn_e), which is output to the long / short synthesis result selection & final synthesis result generation unit 214.

エッジ部合成部212は、入力信号、すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号の信号レベルに関係なく、これら2つの画素の画素値、具体的には露光比調整後の2つの画素値を固定したブレンド率(β)を適用してブレンド(合成)することで合成結果としてのエッジ部合成結果(Syn_e)を生成する。
The edge synthesis unit 212 receives an input signal, that is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
Regardless of the signal level of each of these signals, blend (synthesize) by applying a blend ratio (β) in which the pixel values of these two pixels, specifically, the two pixel values after adjusting the exposure ratio are fixed. To generate an edge synthesis result (Syn_e) as a synthesis result.

エッジ部合成部212において実行する合成処理結果として生成する画素値であるエッジ部合成結果(Syn_e)に対する、重心補正部出力短露光信号(So)の寄与率に相当する値をブレンド率(β)とする。
また、重心補正部出力長露光信号(Lo)の寄与率に相当する値を(1−β)とする。
A value corresponding to the contribution ratio of the centroid correction unit output short exposure signal (So) to the edge portion synthesis result (Syn_e) which is a pixel value generated as a result of the synthesis processing executed in the edge portion synthesis unit 212 is a blend rate (β). And
In addition, a value corresponding to the contribution ratio of the gravity center correction unit output length exposure signal (Lo) is defined as (1-β).

この設定とした場合、エッジ部合成部212における合成処理によって算出するエッジ部合成結果である合成画素値(Syn_e)は、以下の(式9)によって算出される。
Syn_e=(1−β)×Lo+β×So×E ・・・(式9)
When this setting is made, the combined pixel value (Syn_e), which is the edge portion combining result calculated by the combining processing in the edge portion combining unit 212, is calculated by the following (Equation 9).
Syn_e = (1−β) × Lo + β × So × E (Equation 9)

上記(式9)において、
Eは、短露光画素と長露光画素の露光比、
βは、0〜1の範囲の値であり、予め設定された固定値とする。例えば、
β=0.5
とする。
In (Equation 9) above,
E is the exposure ratio between short exposure pixels and long exposure pixels,
β is a value in the range of 0 to 1, and is a preset fixed value. For example,
β = 0.5
And

次に、飽和部合成部213の処理について説明する。
飽和部合成部213は、図11を参照して説明した重心補正部152の生成した出力信号を入力して、これらの信号に応じた飽和部対応の合成信号を生成する。すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号に対して飽和部用の合成処理を実行して飽和部合成結果(Syn_s)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
Next, the processing of the saturation unit combining unit 213 will be described.
The saturation unit synthesis unit 213 receives the output signal generated by the centroid correction unit 152 described with reference to FIG. 11 and generates a synthesis signal corresponding to the saturation unit according to these signals. That is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
A saturation part synthesis process is executed on each of these signals to generate a saturation part synthesis result (Syn_s) and output it to the long / short synthesis result selection & final synthesis result generation unit 214.

飽和部合成部213は、入力信号、すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各信号中、重心補正部出力短露光信号(So)を選択し、選択した重心補正部出力短露光信号(So)を飽和部合成結果(Syn_s)として長短合成結果選択&最終合成結果生成部214に出力する。
The saturation unit synthesis unit 213 receives an input signal, that is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
Of these signals, the center of gravity correction unit output short exposure signal (So) is selected, and the selected center of gravity correction unit output short exposure signal (So) is used as the saturated portion synthesis result (Syn_s) to select the long / short synthesis result and generate the final synthesis result. To the unit 214.

すなわち、飽和部合成結果(Syn_s)である合成画素値(Syn_s)は、以下の(式10)によって算出される。
Syn_s=So×E・・・(式10)
なお、上記(式10)において、
Eは、短露光画素と長露光画素の露光比、
である。
That is, the synthesized pixel value (Syn_s) that is the saturation portion synthesis result (Syn_s) is calculated by the following (Equation 10).
Syn_s = So × E (Equation 10)
In the above (Formula 10),
E is the exposure ratio between short exposure pixels and long exposure pixels,
It is.

長短合成結果選択&最終合成結果生成部214は、上述した3つの合成部211〜213からの合成結果を入力する。
さらに、図8を参照して説明したエッジ検出部151から、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのエッジ情報を入力する。
さらに、図11を参照して説明した重心補正部152から、
飽和フラグ(Sat_flg)185、
この飽和情報を入力する。
The long / short synthesis result selection & final synthesis result generation unit 214 inputs the synthesis results from the three synthesis units 211 to 213 described above.
Further, from the edge detection unit 151 described with reference to FIG.
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
The edge information is input.
Furthermore, from the center of gravity correction unit 152 described with reference to FIG.
Saturation flag (Sat_flg) 185,
Enter this saturation information.

長短合成結果選択&最終合成結果生成部214は、
(a)長露光エッジフラグ(LEdge_flg)171、
(b)短露光エッジフラグ(SEdge_flg)173、
(c)飽和フラグ(Sat_flg)185、
これらの各情報を参照して、以下のいずれかの合成結果を選択する。
すなわち、
(1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
(2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
(3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
長短合成結果選択&最終合成結果生成部214は、処理対象画素(注目画素)単位で、これらの3信号の中からいずれかを選択する。
さらに、選択した長短露光画素の合成結果に基づいて、さらに、水平方向の画素合成を実行して最終合成結果を生成し、合成結果(Syn)として出力する。
The long / short synthesis result selection & final synthesis result generation unit 214
(A) Long exposure edge flag (LEedge_flg) 171,
(B) a short exposure edge flag (SEdge_flg) 173;
(C) Saturation flag (Sat_flg) 185,
With reference to these pieces of information, one of the following synthesis results is selected.
That is,
(1) Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part,
(2) Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion,
(3) Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion,
The long / short synthesis result selection & final synthesis result generation unit 214 selects one of these three signals for each processing target pixel (target pixel).
Further, based on the combination result of the selected long and short exposure pixels, horizontal pixel combination is further performed to generate a final combination result, which is output as a combination result (Syn).

長短合成結果選択&最終合成結果生成部214の実行する合成結果(Syn)の生成処理について、図17に示すフローチャートを参照して説明する。   The synthesis result (Syn) generation process executed by the long / short synthesis result selection & final synthesis result generation unit 214 will be described with reference to the flowchart shown in FIG.

まず、ステップS101において、各合成部211〜213の合成結果と、各フラグ情報を入力する。すなわち、以下の各データを入力する。
(1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
(2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
(3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
(a)長露光エッジフラグ(LEdge_flg)171、
(b)短露光エッジフラグ(SEdge_flg)173、
(c)飽和フラグ(Sat_flg)185、
First, in step S101, the composition result of each composition part 211-213 and each flag information are inputted. That is, the following data is input.
(1) Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part,
(2) Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion,
(3) Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion,
(A) Long exposure edge flag (LEedge_flg) 171,
(B) a short exposure edge flag (SEdge_flg) 173;
(C) Saturation flag (Sat_flg) 185,

次に、ステップS102において、図11を参照して説明した重心補正部152から入力する飽和フラグ(Sat_flg)185を参照し、合成処理の対象画素(注目画素)である重心補正部出力長露光画素の生成元の画素が飽和画素であるか否かを判定する。
飽和画素である場合、すなわち、ステップS102の判定がTrueである場合は、ステップS104に進む。
ステップS104では、飽和部合成部213の生成した飽和部用の合成信号である飽和部合成結果(Syn_s)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS107において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
Next, in step S102, the saturation flag (Sat_flg) 185 input from the centroid correction unit 152 described with reference to FIG. 11 is referred to, and the centroid correction unit output length exposure pixel which is the target pixel (target pixel) of the synthesis process It is determined whether or not the generation source pixel is a saturated pixel.
If it is a saturated pixel, that is, if the determination in step S102 is True, the process proceeds to step S104.
In step S104, the saturation portion combination result (Syn_s), which is the combined signal for the saturated portion generated by the saturation portion combining portion 213, is selected and used as the combination result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S107, the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

一方、ステップS102において、合成処理の対象画素(注目画素)である重心補正部出力長露光画素の生成元の画素が飽和画素でないと判定した場合、すなわち、ステップS102の判定がfalseである場合は、ステップS103に進む。   On the other hand, if it is determined in step S102 that the pixel from which the center-of-gravity correction unit output length exposure pixel that is the target pixel (target pixel) of the synthesis process is generated is not a saturated pixel, that is, if the determination in step S102 is false. The process proceeds to step S103.

ステップS103では、図8を参照して説明したエッジ検出部151から入力する長露光エッジフラグ(LEdge_flg)171と、短露光エッジフラグ(SEdge_flg)173を参照し、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素が平坦部領域にあるかエッジ領域にあるかを判定する。   In step S103, the long exposure edge flag (LEEdge_flg) 171 and the short exposure edge flag (SEedge_flg) 173 input from the edge detection unit 151 described with reference to FIG. It is determined whether the pixel from which the center-of-gravity correction unit output pixel is generated is in the flat region or the edge region.

具体的には、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのフラグのいずれもが、エッジ領域であることを示す値(1)である場合には、エッジ領域であると判定し、ステップS105に進む。
In particular,
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
If any of these flags is a value (1) indicating an edge region, it is determined that the flag is an edge region, and the process proceeds to step S105.

一方、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのフラグのいずれかが、エッジ領域でないことを示す値(0)である場合には、平坦領域であると判定し、ステップS106に進む。
on the other hand,
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
If any of these flags is a value (0) indicating that the region is not an edge region, it is determined that the region is a flat region, and the process proceeds to step S106.

ステップS103において、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素がエッジ領域にあると判定した場合は、ステップS105に進む。
ステップS105では、エッジ部合成部212の生成したエッジ部用の合成信号であるエッジ部合成結果(Syn_e)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS107において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
If it is determined in step S103 that the pixel from which the center-of-gravity correction unit output pixel that is the target pixel (target pixel) of the synthesis process is generated is in the edge region, the process proceeds to step S105.
In step S105, the edge portion combination result (Syn_e), which is the combined signal for the edge portion generated by the edge portion combining portion 212, is selected and used as the combination result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S107, the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

一方、ステップS103において、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素が平坦領域にあると判定した場合は、ステップS106に進む。
ステップS106では、平坦部合成部211の生成した平坦部用の合成信号である平坦部合成結果(Syn_f)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS107において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
On the other hand, if it is determined in step S103 that the pixel from which the center-of-gravity correction unit output pixel that is the target pixel (target pixel) of the synthesis process is generated is in a flat region, the process proceeds to step S106.
In step S106, the flat portion combining result (Syn_f), which is the combined signal for the flat portion generated by the flat portion combining portion 211, is selected and used as the combining result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S107, the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

ステップS107では、ステップS104〜S106のいずれかの処理によって生成した垂直方向の画素合成結果を利用してさらに水平方向の画素合成を実行して最終的な合成結果(Syn)を生成して出力する。
図17のフローにおけるステップS101〜S106の垂直方向の長短露光画素の合成による中間合成データの生成と、ステップS107において実行する中間合成データの構成画素の水平方向の画素合成による最終合成結果(Syn)の生成処理について説明する。
In step S107, the pixel synthesis result in the horizontal direction is further performed using the pixel synthesis result in the vertical direction generated by the processing in any of steps S104 to S106, and the final synthesis result (Syn) is generated and output. .
In step S101 to S106 in the flow of FIG. 17, intermediate synthesized data is generated by synthesizing long and short exposure pixels in the vertical direction, and final synthesized result (Syn) by horizontal pixel synthesis of the constituent pixels of the intermediate synthesized data executed in step S107. The generation process will be described.

図18には、以下の3つのデータを示している。
(1)入力画像(SVE)画像
(2)長短露光画素合成結果(中間合成データ)
(3)最終合成結果(Syn)
FIG. 18 shows the following three data.
(1) Input image (SVE) image (2) Long / short exposure pixel composition result (intermediate composition data)
(3) Final synthesis result (Syn)

(1)入力画像(SVE)画像は撮像素子の撮像データであり、ベイヤ配列において行毎に露光時間を変更した場合に撮影される画像を示している。
白い部分が長時間露光画素であり、グレー部分が短時間露光画素を示している。
(1) The input image (SVE) image is image data of the image sensor, and shows an image that is captured when the exposure time is changed for each row in the Bayer array.
A white part is a long-time exposure pixel, and a gray part indicates a short-time exposure pixel.

(2)長短露光画素合成結果(中間合成データ)は、図17に示すフローチャートのステップS101〜S106の処理によって生成される中間合成データである。
この(2)長短露光画素合成結果(中間合成データ)は、処理対象となる注目画素が平坦領域であるか、エッジ領域であるか、飽和領域であるかに応じてステップS104〜S106の合成結果から選択された画素から構成される。
しかし、この合成結果は、図11を参照して説明した重心補正部の出力、すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの信号の合成結果であり、垂直方向の複数画素を合成したものとなる。すなわち中間合成データである。
(2) The long / short exposure pixel combination result (intermediate combination data) is intermediate combination data generated by the processes of steps S101 to S106 in the flowchart shown in FIG.
This (2) long / short exposure pixel synthesis result (intermediate synthesis data) is the synthesis result of steps S104 to S106 depending on whether the target pixel to be processed is a flat region, an edge region, or a saturated region. From the selected pixels.
However, the synthesis result is the output of the center of gravity correction unit described with reference to FIG.
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
The result of combining these signals is a combination of a plurality of vertical pixels. That is, it is intermediate composite data.

図17に示すフローのステップS107では、この中間合成データの水平方向の同一色画素を加算平均して、最終的な合成結果(Syn)を生成して出力する。
このステップS107の処理によって、入力画像(SVE画像)に対して、水平方向、垂直方向とも画素数が1/2となった高ダイナミックレンジ(HDR)画像が生成され出力される。
In step S107 of the flow shown in FIG. 17, the same color pixels in the horizontal direction of the intermediate combined data are added and averaged to generate and output a final combined result (Syn).
By the processing in step S107, a high dynamic range (HDR) image in which the number of pixels is halved in both the horizontal direction and the vertical direction is generated and output with respect to the input image (SVE image).

[3.実施例2:重心補正部の構成を変更した実施例]
次に、本開示の画像処理装置の第2実施例として、重心補正部の構成を変更した実施例について説明する。
第2実施例において、前述した第1実施例と異なる点は重心補正部の構成と処理である。その他の構成と処理は、第1実施例と同様である。例えば画像処理装置の全体構成は図3を参照して説明した撮像装置100であり、信号処理部103の構成は、図4を参照して説明したとおり、HDR画像生成部131、後段信号処理部132、出力部133を有する。HDR画像生成部131は、図7に示すように、エッジ検出部151、重心補正部152、画素合成部153を有する。
[3. Example 2: Example in which the configuration of the gravity center correction unit is changed]
Next, an embodiment in which the configuration of the gravity center correction unit is changed will be described as a second embodiment of the image processing apparatus of the present disclosure.
The second embodiment differs from the first embodiment described above in the configuration and processing of the centroid correction unit. Other configurations and processes are the same as those in the first embodiment. For example, the overall configuration of the image processing apparatus is the imaging apparatus 100 described with reference to FIG. 3, and the configuration of the signal processing unit 103 is the HDR image generation unit 131, the subsequent signal processing unit, as described with reference to FIG. 132 and an output unit 133. As illustrated in FIG. 7, the HDR image generation unit 131 includes an edge detection unit 151, a centroid correction unit 152, and a pixel synthesis unit 153.

第2実施例の画像処理装置におけるHDR画像生成部131の重心補正部152の構成を図19に示す。
前述した実施例1では、先に図11を参照して説明したように、補正結果選択部183は、飽和判定部182から入力する飽和フラグ(Sat_flg)に基づいて、処理対象画素(注目画素)となる長露光画素が飽和しているか否かを判定し、飽和している場合は、入力画像(SVE画像)141の構成画素値をそのまま選択して出力していた。
FIG. 19 shows the configuration of the centroid correction unit 152 of the HDR image generation unit 131 in the image processing apparatus of the second embodiment.
In the first embodiment described above, as described above with reference to FIG. 11, the correction result selection unit 183 is based on the saturation flag (Sat_flg) input from the saturation determination unit 182, and the processing target pixel (target pixel) It is determined whether or not the long exposure pixel is saturated, and if it is saturated, the constituent pixel value of the input image (SVE image) 141 is selected and output as it is.

すなわち、実施例1の図11に示す重心補正部152は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
(1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
(2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
また、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
(1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
(2)重心補正部出力短露光画素(So)=重心補正なし短露光画素(S_n)、
これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
このような処理を行なっていた。
That is, the center-of-gravity correction unit 152 illustrated in FIG. 11 according to the first embodiment does not include any saturated pixel in the long exposure pixel applied to the generation of the “long exposure pixel with center of gravity correction (L_w)” in the vertical center-of-gravity correction unit 181. ,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel with center of gravity correction (L_w),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel with center of gravity correction (S_w),
These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.
Further, when one or more saturated pixels are included in the long exposure pixel applied to the generation of “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel without center of gravity correction (L_n),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel without center of gravity correction (S_n),
These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.
Such processing was performed.

本実施例2の重心補正部152は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合の処理が異なる。
本実施例では、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、短露光画素について、図19に示す飽和部短露光画素補正部301が生成した平滑化短露光画素(S_d)を選択して、重心補正部出力短露光画素(So)として出力する。
飽和部短露光画素補正部301は、平滑化短露光画素(S_d)を、注目画素のエッジ方向に応じた短露光画素の平滑化処理によって生成する。
The center-of-gravity correction unit 152 of the second embodiment is different in processing when one or more saturated pixels are included in the long exposure pixel applied to the generation of “long exposure pixel with center of gravity correction (L_w)” in the vertical center-of-gravity correction unit 181. .
In the present embodiment, when one or more saturated pixels are included in the long exposure pixel applied to the generation of “long exposure pixel with center of gravity correction (L_w)” in the vertical centroid correction unit 181, the short exposure pixel is illustrated in FIG. 19. The smoothed short exposure pixel (S_d) generated by the saturated portion short exposure pixel correction unit 301 is selected and output as the gravity center correction unit output short exposure pixel (So).
The saturated portion short exposure pixel correction unit 301 generates a smoothed short exposure pixel (S_d) by a short exposure pixel smoothing process according to the edge direction of the target pixel.

すなわち、本実施例2の図19に示す重心補正部152は、垂直重心補正部181が「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に1つも飽和画素が含まれない場合、
(1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
(2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
これらの処理は実施例1と同様の処理である。
That is, the center-of-gravity correction unit 152 illustrated in FIG. 19 according to the second embodiment includes at least one saturated pixel in the long exposure pixels that the vertical center-of-gravity correction unit 181 applies to the generation of “long exposure pixel with center of gravity correction (L_w)”. If not,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel with center of gravity correction (L_w),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel with center of gravity correction (S_w),
These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.
These processes are the same as those in the first embodiment.

しかし、垂直重心補正部181が「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
(1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
(2)重心補正部出力短露光画素(So)=平滑化短露光画素(S_d)、
これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
However, when one or more saturated pixels are included in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” by the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel without center of gravity correction (L_n),
(2) Center of gravity correction unit output short exposure pixel (So) = smoothed short exposure pixel (S_d),
These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.

飽和部短露光画素補正部301は、エッジ方向に応じた平滑化フィルタを適用した画素値補正処理を実行し、この平滑化処理結果としての画素値を平滑化短露光画素(S_d)として、補正結果選択部183に出力する。   The saturated short exposure pixel correction unit 301 executes a pixel value correction process to which a smoothing filter corresponding to the edge direction is applied, and corrects the pixel value as a result of the smoothing process as a smoothed short exposure pixel (S_d). The result is output to the result selection unit 183.

飽和部短露光画素補正部301は、図8を参照して説明したエッジ検出部151の生成する短露光エッジ方向フラグ(SDir_flg)174を入力する。
この短露光エッジ方向フラグ(SDir_flg)174は、先に説明したように、短露光画素に基づいて判定した注目画素におけるエッジ方向を示す情報である。
The saturated portion short exposure pixel correction unit 301 receives the short exposure edge direction flag (SDir_flg) 174 generated by the edge detection unit 151 described with reference to FIG.
As described above, the short exposure edge direction flag (SDir_flg) 174 is information indicating the edge direction of the target pixel determined based on the short exposure pixel.

飽和部短露光画素補正部301は、エッジ検出部151から入力する短露光エッジ方向フラグ(SDir_flg)174に基づいて判定されるエッジ方向に応じて、予めメモリに保持した複数の平滑化フィルタから適用する平滑化フィルタを選択する。
飽和部短露光画素補正部301は、選択した平滑化フィルタを適用して注目画素との合成対象となる短露光画素をエッジ方向に沿って平滑化する画素値補正処理を実行して、平滑化処理結果としての画素値を平滑化短露光画素(S_d)として、補正結果選択部183に出力する。
The saturated portion short exposure pixel correction unit 301 is applied from a plurality of smoothing filters stored in advance in the memory according to the edge direction determined based on the short exposure edge direction flag (SDir_flg) 174 input from the edge detection unit 151. Select the smoothing filter to be used.
The saturated portion short exposure pixel correction unit 301 executes a pixel value correction process that applies the selected smoothing filter to smooth the short exposure pixels that are to be combined with the target pixel along the edge direction, and performs smoothing. The pixel value as the processing result is output to the correction result selection unit 183 as a smoothed short exposure pixel (S_d).

飽和部短露光画素補正部301の利用するエッジ方向に応じた平滑化フィルタの構成例を図20に示す。
図20には、平滑化フィルタを適用する入力画像と、4つのエッジ方向に応じた平滑化フィルタの係数設定例を示している。すなわち、以下の各データを示している。
(1)入力画像(SVE画像)
(2a)エッジ方向が垂直方向の場合の適用フィルタの係数設定例
(2b)エッジ方向が水平方向の場合の適用フィルタの係数設定例
(2c)エッジ方向が左上方向の場合の適用フィルタの係数設定例
(2d)エッジ方向が右上方向の場合の適用フィルタの係数設定例
A configuration example of a smoothing filter corresponding to the edge direction used by the saturated portion short exposure pixel correction unit 301 is shown in FIG.
FIG. 20 shows an input image to which the smoothing filter is applied and an example of coefficient setting of the smoothing filter according to the four edge directions. That is, the following data are shown.
(1) Input image (SVE image)
(2a) Coefficient setting example of applied filter when edge direction is vertical (2b) Coefficient setting example of applied filter when edge direction is horizontal (2c) Coefficient setting of applied filter when edge direction is upper left direction Example (2d) Application filter coefficient setting example when the edge direction is the upper right direction

この図20に示す例は、処理対象画素である注目画素を中心画素(図20(1)に示す例では中央のG画素)とする9×9画素の領域を平滑化フィルタ適用領域とした例である。また、注目画素Gを含む垂直ライン上の短露光G画素を、画素値補正を行なう補正対象画素としている。   The example shown in FIG. 20 is an example in which a 9 × 9 pixel area in which a target pixel as a processing target pixel is a central pixel (a central G pixel in the example shown in FIG. 20A) is a smoothing filter application area. It is. Further, the short exposure G pixel on the vertical line including the target pixel G is set as a correction target pixel for performing pixel value correction.

平滑化処理に適用する平滑化フィルタは、例えば図20(2a)〜(2d)に示すように、エッジ方向に応じた係数を各短露光G画素に設定したフィルタとする。
これらのフィルタを適用することで、補正対象となる短露光画素の画素値はエッジ方向になめらかに変化するように平滑化された画素値に変更される。
なお、図20に示すフィルタ係数の例は一例であり、この他の係数の設定も可能である。エッジ方向に沿って画素値をなめらかに変化するように変更する平滑化フィルタであればよい。
As shown in FIGS. 20 (2a) to (2d), for example, the smoothing filter applied to the smoothing process is a filter in which a coefficient corresponding to the edge direction is set for each short-exposure G pixel.
By applying these filters, the pixel value of the short exposure pixel to be corrected is changed to a smoothed pixel value so as to change smoothly in the edge direction.
Note that the example of the filter coefficient shown in FIG. 20 is an example, and other coefficients can be set. Any smoothing filter may be used as long as the pixel value is changed smoothly along the edge direction.

飽和部短露光画素補正部301は、例えば図20に示す係数を持つ平滑化フィルタを適用した平滑化処理によって補正した短露光画素の画素値を平滑化短露光画素(S_d)として、補正結果選択部183に出力する。   The saturated portion short exposure pixel correction unit 301 selects a correction result using, for example, the pixel value of the short exposure pixel corrected by the smoothing process using the smoothing filter having the coefficient illustrated in FIG. 20 as the smoothed short exposure pixel (S_d). To the unit 183.

図19に示すように、補正結果選択部183は、以下の各データを入力する。
(1)重心補正なし長露光画素(L_n)
(2)平滑化短露光画素(S_d)
(3)重心補正あり長露光画素(L_w)、
(4)重心補正あり短露光画素(S_w)、
(5)飽和フラグ(Sat_flg)185
As illustrated in FIG. 19, the correction result selection unit 183 inputs the following data.
(1) Long exposure pixel without center of gravity correction (L_n)
(2) Smoothed short exposure pixel (S_d)
(3) Long exposure pixel with center of gravity correction (L_w),
(4) Short exposure pixel with center of gravity correction (S_w),
(5) Saturation flag (Sat_flg) 185

(1)重心補正なし長露光画素(L_n)は、入力画像(SVE配列画像)141に含まれる画素情報である。
(2)平滑化短露光画素(S_d)は、飽和部短露光画素補正部301の生成したエッジ方向に平滑化された画素値を持つ短露光画素情報である。
(3)重心補正あり長露光画素(L_w)、(4)重心補正あり短露光画素(S_w)、これらのデータは、図13、図14を参照して説明した処理に従って、垂直重心補正部181の生成したデータである。
(5)飽和フラグ(Sat_flg)185は、飽和判定部182の生成した長露光画素の飽和判定情報である。
(1) The long exposure pixel (L_n) without centroid correction is pixel information included in the input image (SVE array image) 141.
(2) The smoothed short exposure pixel (S_d) is short exposure pixel information having a pixel value smoothed in the edge direction generated by the saturated portion short exposure pixel correction unit 301.
(3) Long exposure pixel with center-of-gravity correction (L_w), (4) Short exposure pixel with center-of-gravity correction (S_w), these data are obtained according to the processing described with reference to FIGS. The data generated by
(5) A saturation flag (Sat_flg) 185 is the saturation determination information of the long exposure pixel generated by the saturation determination unit 182.

補正結果選択部183は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に、飽和フラグ(Sat_flg)185が1の画素、すなわち飽和画素が含まれるか否かを判定する。   The correction result selection unit 183 includes a pixel whose saturation flag (Sat_flg) 185 is 1, that is, a saturated pixel, in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181. It is determined whether or not.

垂直重心補正部181がある処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」が、入力画像中の飽和画素を含む長露光画素を適用した処理によって生成されている場合、この処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」は重心補正部152の出力画素として選択しない。   The “long exposure pixel with centroid correction (L_w)” generated for the processing target pixel (target pixel) with the vertical centroid correction unit 181 is generated by the process of applying the long exposure pixel including the saturated pixel in the input image. In this case, the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” generated for this processing target pixel (target pixel) are output pixels of the center of gravity correction unit 152. Do not select.

この場合は、処理対象画素(注目画素)自身の画素情報、すなわち入力画像中の「重心補正なし長露光画素(L_n)」と、飽和部短露光画素補正部301の生成したエッジ方向に平滑化された画素値を持つ「平滑化短露光画素(S_d)」を選択して、重心補正部152の出力とする。   In this case, the pixel information of the processing target pixel (target pixel) itself, that is, “long exposure pixel without center of gravity correction (L_n)” in the input image, and the edge direction generated by the saturated portion short exposure pixel correction unit 301 are smoothed. The “smoothed short exposure pixel (S_d)” having the pixel value thus selected is selected as the output of the centroid correction unit 152.

一方、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に飽和画素が含まれない場合は、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」を、重心補正部152の出力画素とする。   On the other hand, when the saturated pixel is not included in the long exposure pixel applied to the generation of the “long exposure pixel with center of gravity correction (L_w)” generated by the vertical center of gravity correction unit 181, the “center of gravity correction generated by the vertical center of gravity correction unit 181 is used. “Long exposure pixel (L_w)” and “Short exposure pixel with center of gravity correction (S_w)” are output pixels of the center of gravity correction unit 152.

すなわち、図19に示す重心補正部152の出力である、
(1)重心補正部出力長露光画素(Lo)、
(2)重心補正部出力短露光画素(So)、
は以下のように選択出力される。
That is, it is the output of the gravity center correction unit 152 shown in FIG.
(1) Center of gravity correction unit output length exposure pixel (Lo),
(2) Center of gravity correction unit output short exposure pixel (So),
Is selected and output as follows.

垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
(1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
(2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
(1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
(2)重心補正部出力短露光画素(So)=平滑化短露光画素(S_d)、
このような設定となる。
このような選択出力は、各処理対象画素(注目画素)単位で実行される。
In the case where no saturated pixel is included in the long exposure pixel applied to the generation of “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel with center of gravity correction (L_w),
(2) Center of gravity correction unit output short exposure pixel (So) = short exposure pixel with center of gravity correction (S_w),
When one or more saturated pixels are included in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181,
(1) Center of gravity correction unit output long exposure pixel (Lo) = long exposure pixel without center of gravity correction (L_n),
(2) Center of gravity correction unit output short exposure pixel (So) = smoothed short exposure pixel (S_d),
This is the setting.
Such selection output is executed for each processing target pixel (target pixel).

[4.実施例3:画素合成部の構成を変更した実施例]
次に、本開示の画像処理装置の第3実施例として、画素合成部の構成を変更した実施例について説明する。
第3実施例において、前述した第1実施例と異なる点は画素合成部153の構成と処理である。その他の構成と処理は、第1実施例と同様である。例えば画像処理装置の全体構成は図3を参照して説明した撮像装置100であり、信号処理部103の構成は、図4を参照して説明したとおり、HDR画像生成部131、後段信号処理部132、出力部133を有する。HDR画像生成部131は、図7に示すように、エッジ検出部151、重心補正部152、画素合成部153を有する。
[4. Example 3: Example in which the configuration of the pixel synthesis unit is changed]
Next, an embodiment in which the configuration of the pixel composition unit is changed will be described as a third embodiment of the image processing apparatus of the present disclosure.
The third embodiment differs from the first embodiment described above in the configuration and processing of the pixel synthesis unit 153. Other configurations and processes are the same as those in the first embodiment. For example, the overall configuration of the image processing apparatus is the imaging apparatus 100 described with reference to FIG. 3, and the configuration of the signal processing unit 103 is the HDR image generation unit 131, the subsequent signal processing unit, as described with reference to FIG. 132 and an output unit 133. As illustrated in FIG. 7, the HDR image generation unit 131 includes an edge detection unit 151, a centroid correction unit 152, and a pixel synthesis unit 153.

実施例1において説明したように、撮像素子102において撮影された入力画像(SVE配列画像)141の構成画素である短露光画素と長露光画素の露光時間の比率を1:Eとしたとき、
合成対象となる長露光画素と短露光画素の各画素値、すなわち、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらの各画素値は、先に説明した以下の関係式(式7)の関係にある。
Lo≒So×E・・・(式7)
As described in the first embodiment, when the ratio of the exposure time of the short exposure pixel and the long exposure pixel which are constituent pixels of the input image (SVE array image) 141 photographed by the image sensor 102 is 1: E,
Each pixel value of the long exposure pixel and the short exposure pixel to be combined, that is,
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
These pixel values are in the relationship of the following relational expression (formula 7) described above.
Lo≈So × E (Expression 7)

しかし、この(式7)は、
(1)重心補正部出力長露光信号(Lo)、
(2)重心補正部出力短露光信号(So)、
これらがほぼ同じ被写体位置を撮影していることが条件となる。
しかし、撮像装置によって、撮影された画像中には動く被写体(動被写体)が含まれる可能性がある。
動被写体領域では、近接する長露光画素と短露光画素であっても、異なる被写体位置を撮影することになり、上記の関係式(式7)が成立しなくなる。
以下に説明する実施例3は、このような動被写体領域について考慮した合成処理を実行する。
However, this (Equation 7) is
(1) Center of gravity correction unit output length exposure signal (Lo),
(2) Center of gravity correction unit output short exposure signal (So),
The condition is that they are shooting almost the same subject position.
However, there is a possibility that a moving subject (moving subject) may be included in the captured image by the imaging device.
In the moving subject region, even if the long exposure pixel and the short exposure pixel are close to each other, different subject positions are photographed, and the relational expression (Expression 7) is not satisfied.
In Example 3 described below, a composition process is performed in consideration of such a moving subject region.

第3実施例の画像処理装置におけるHDR画像生成部131の画素合成部153の構成を図21に示す。
本実施例では、図21に示す画素合成部153内の動被写体合成部321において、他の合成部211〜213と異なる長短露光画素合成処理を実行する。
動被写体合成部321は、動被写体領域に適応した合成処理によって、重心補正部出力長露光信号(Lo)と、重心補正部出力短露光信号(So)の合成処理を実行し、動被写体部長短合成結果(Syn_m)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
FIG. 21 shows the configuration of the pixel composition unit 153 of the HDR image generation unit 131 in the image processing apparatus of the third embodiment.
In the present embodiment, the moving subject composition unit 321 in the pixel composition unit 153 shown in FIG. 21 executes long / short exposure pixel composition processing different from the other composition units 211 to 213.
The moving subject combining unit 321 executes combining processing of the centroid correction unit output length exposure signal (Lo) and the centroid correction unit output short exposure signal (So) by combining processing adapted to the moving subject region, and the moving subject unit length is short. A synthesis result (Syn_m) is generated and output to the long / short synthesis result selection & final synthesis result generation unit 214.

動被写体合成部321は、具体的には、例えば、(1)重心補正部出力長露光信号(Lo)、または、重心補正部出力短露光信号(So)のいずれか一方のみの信号を選択して、選択信号を動被写体部長短合成結果(Syn_m)とする処理を行なう。   Specifically, the moving subject combining unit 321 selects, for example, only one of (1) the center of gravity correction unit output length exposure signal (Lo) or the center of gravity correction unit output short exposure signal (So). Then, the process of setting the selection signal as the moving subject part length / short synthesis result (Syn_m) is performed.

なお、図21に示すように、本実施例3の画素合成部153は、先の実施例1の画素合成部153と同様、図8を参照して説明したエッジ検出部151から、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのエッジ情報を入力する。
さらに、図11を参照して説明した重心補正部152から、
飽和フラグ(Sat_flg)185、
この飽和情報を入力する。
さらに、本実施例では、これらの情報に加えて、
動被写体検出フラグ(Move_flg)322を入力する。
As shown in FIG. 21, the pixel composition unit 153 of the third embodiment is similar to the pixel composition unit 153 of the first embodiment, and the edge detection unit 151 described with reference to FIG.
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
The edge information is input.
Furthermore, from the center of gravity correction unit 152 described with reference to FIG.
Saturation flag (Sat_flg) 185,
Enter this saturation information.
Furthermore, in this embodiment, in addition to these information,
A moving subject detection flag (Move_flg) 322 is input.

なお、動被写体検出フラグ(Move_flg)322は、例えば、撮像装置に備えられた動被写体領域検出部から入力する。動被写体領域検出部は、例えば画像解析、例えば連続撮影画像のブロックマッチング処理などによって画像中の動被写体領域を判別する。さらに、各画素が動被写体領域であるか否かを示す画素対応の動被写体検出フラグ(Move_flg)322を生成して画素合成部153に出力する。   The moving subject detection flag (Move_flg) 322 is input from, for example, a moving subject region detection unit provided in the imaging apparatus. The moving subject area detection unit discriminates the moving subject area in the image by, for example, image analysis, for example, block matching processing of continuously shot images. Further, a moving subject detection flag (Move_flg) 322 corresponding to a pixel indicating whether each pixel is a moving subject region is generated and output to the pixel composition unit 153.

長短合成結果選択&最終合成結果生成部214は、これらの外部からの画素情報、すなわち、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
飽和フラグ(Sat_flg)185、
動被写体検出フラグ(Move_flg)322、
これらのフラグに基づいて、処理対象画素(注目画素)の状態を判別する。
The long / short synthesis result selection & final synthesis result generation unit 214 outputs pixel information from the outside, that is,
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
Saturation flag (Sat_flg) 185,
A moving subject detection flag (Move_flg) 322,
Based on these flags, the state of the processing target pixel (target pixel) is determined.

長短合成結果選択&最終合成結果生成部214は、さらに、判別結果に基づいて、
(1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
(2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
(3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
(4)動被写体領域用の合成信号である動被写体部合成結果(Syn_m)、
長短合成結果選択&最終合成結果生成部214は、処理対象画素(注目画素)単位で、これらの4信号の中からいずれかを選択する。
さらに、選択した長短露光画素の合成結果に基づいて、水平方向の画素合成を実行して最終合成結果を生成し、合成結果(Syn)として出力する。
The long / short synthesis result selection & final synthesis result generation unit 214 further, based on the determination result,
(1) Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part,
(2) Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion,
(3) Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion,
(4) Moving subject portion synthesis result (Syn_m), which is a synthesized signal for the moving subject region,
The long / short synthesis result selection & final synthesis result generation unit 214 selects one of these four signals in units of processing target pixels (target pixels).
Further, based on the combination result of the selected long and short exposure pixels, horizontal pixel combination is performed to generate a final combination result, which is output as a combination result (Syn).

長短合成結果選択&最終合成結果生成部214の実行する合成結果(Syn)の生成処理について、図22に示すフローチャートを参照して説明する。   The synthesis result (Syn) generation process executed by the long / short synthesis result selection & final synthesis result generation unit 214 will be described with reference to the flowchart shown in FIG.

まず、ステップS21において、各合成部211〜213,321の合成結果と、各フラグ情報を入力する。すなわち、以下の各データを入力する。
(1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
(2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
(3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
(4)動被写体領域用の合成信号である動被写体部合成結果(Syn_m)、
(a)長露光エッジフラグ(LEdge_flg)171、
(b)短露光エッジフラグ(SEdge_flg)173、
(c)飽和フラグ(Sat_flg)185、
(d)動被写体検出フラグ(Move_flg)322、
First, in step S21, the composition result of each composition part 211-213,321 and each flag information are inputted. That is, the following data is input.
(1) Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part,
(2) Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion,
(3) Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion,
(4) Moving subject portion synthesis result (Syn_m), which is a synthesized signal for the moving subject region,
(A) Long exposure edge flag (LEedge_flg) 171,
(B) a short exposure edge flag (SEdge_flg) 173;
(C) Saturation flag (Sat_flg) 185,
(D) a moving subject detection flag (Move_flg) 322;

次に、ステップS202において、図11を参照して説明した重心補正部152から入力する飽和フラグ(Sat_flg)185を参照し、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素に飽和画素が含まれるか否かを判定する。
飽和画素が含まれる場合、すなわち、ステップS102の判定がTrueである場合は、ステップS205に進む。
ステップS205では、飽和部合成部213の生成した飽和部用の合成信号である飽和部合成結果(Syn_s)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS09において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
Next, in step S202, with reference to the saturation flag (Sat_flg) 185 input from the centroid correction unit 152 described with reference to FIG. 11, generation of a centroid correction unit output pixel that is a target pixel (target pixel) of the synthesis process It is determined whether or not a saturated pixel is included in the original pixel.
If a saturated pixel is included, that is, if the determination in step S102 is True, the process proceeds to step S205.
In step S205, the saturated portion synthesis result (Syn_s), which is the synthesized signal for the saturated portion generated by the saturated portion synthesizing unit 213, is selected and used as the combined result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S09, the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

一方、ステップS202において、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素に飽和画素が含まれないと判定した場合、すなわち、ステップS202の判定がfalseである場合は、ステップS203に進む。   On the other hand, when it is determined in step S202 that a saturated pixel is not included in the generation source pixel of the center-of-gravity correction unit output pixel that is the target pixel (target pixel) of the synthesis process, that is, when the determination in step S202 is false. Advances to step S203.

ステップS203では、外部から入力する動被写体フラグ(Move_flg)322を参照して、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素が動被写体領域にあるか否かを判定する。   In step S203, with reference to the moving subject flag (Move_flg) 322 input from the outside, whether or not the pixel that is the generation source of the center-of-gravity correction unit output pixel that is the target pixel (target pixel) of the synthesis process is in the moving subject region. Determine.

ステップS203において、重心補正部出力画素の生成元の画素が動被写体領域であると判定した場合は、ステップS206に進む。
ステップS206では、動被写体部合成部321の生成した動被写体領域用の合成信号である動被写体部合成結果(Syn_m)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS209において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
If it is determined in step S203 that the pixel from which the center-of-gravity correction unit output pixel is generated is a moving subject region, the process proceeds to step S206.
In step S206, a moving subject portion synthesis result (Syn_m), which is a synthesized signal for the moving subject area generated by the moving subject portion synthesis unit 321 is selected, and this is used as a synthesis result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S209, the intermediate pixels are used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

一方、ステップS203において、重心補正部出力画素の生成元の画素が動被写体領域でないと判定した場合は、ステップS204進む。
ステップS204では、図8を参照して説明したエッジ検出部151から入力する長露光エッジフラグ(LEdge_flg)171と、短露光エッジフラグ(SEdge_flg)173を参照し、重心補正部出力画素の生成元の画素がエッジ領域画素であるかを判定する。
On the other hand, if it is determined in step S203 that the pixel from which the center-of-gravity correction unit output pixel is generated is not a moving subject area, the process proceeds to step S204.
In step S204, the long exposure edge flag (LEEdge_flg) 171 and the short exposure edge flag (SEedge_flg) 173 input from the edge detection unit 151 described with reference to FIG. It is determined whether the pixel is an edge region pixel.

具体的には、合成処理対象画素の生成にの適用した画素のいずれかが、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのフラグのいずれもが、エッジ領域であることを示す値(1)である場合には、エッジ領域であると判定し、ステップS207に進む。
Specifically, one of the pixels applied to generate the synthesis target pixel is
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
If any of these flags is a value (1) indicating an edge region, it is determined that the flag is an edge region, and the process proceeds to step S207.

一方、
長露光エッジフラグ(LEdge_flg)171、
短露光エッジフラグ(SEdge_flg)173、
これらのフラグのいずれかが、エッジ領域でないことを示す値(0)である場合には、平坦領域であると判定し、ステップS208に進む。
on the other hand,
Long exposure edge flag (LEedge_flg) 171,
Short exposure edge flag (SEdge_flg) 173,
If any of these flags is a value (0) indicating that the region is not an edge region, it is determined that the region is a flat region, and the process proceeds to step S208.

ステップS204において、エッジ領域にあると判定した場合は、ステップS207に進む。
ステップS207では、エッジ部合成部212の生成したエッジ部用の合成信号であるエッジ部合成結果(Syn_e)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS209において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
If it is determined in step S204 that it is in the edge region, the process proceeds to step S207.
In step S207, the edge portion combination result (Syn_e), which is the combined signal for the edge portion generated by the edge portion combining portion 212, is selected and used as the combination result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S209, the intermediate pixels are used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

一方、ステップS204において、重心補正部出力画素の生成元の画素が平坦領域にあると判定した場合は、ステップS208に進む。
ステップS208では、平坦部合成部211の生成した平坦部用の合成信号である平坦部合成結果(Syn_f)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS209において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
On the other hand, if it is determined in step S204 that the pixel from which the center-of-gravity correction unit output pixel is generated is in a flat region, the process proceeds to step S208.
In step S208, the flat portion combining result (Syn_f), which is the combined signal for the flat portion generated by the flat portion combining portion 211, is selected and used as the combining result of the long and short exposure pixels. The combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S209, the intermediate pixels are used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).

ステップS209では、ステップS205〜S208のいずれかの処理によって生成した垂直方向の画素合成結果を利用してさらに水平方向の画素合成を実行して最終的な合成結果(Syn)を生成して出力する。
水平方向の画素合成は、先に図18を参照して説明した処理である。
In step S209, the pixel synthesis result in the horizontal direction is generated using the vertical pixel synthesis result generated by any one of steps S205 to S208, and the final synthesis result (Syn) is generated and output. .
The pixel synthesis in the horizontal direction is the process described above with reference to FIG.

このように、本実施例3では、撮影画像に動被写体が含まれる場合に、動被写体領域を抽出し、動被写体領域に最適な長短露光画素の合成処理を実行する。   As described above, in the third embodiment, when a moving subject is included in a captured image, a moving subject region is extracted, and a combination process of long and short exposure pixels optimum for the moving subject region is executed.

[5.実施例4:撮像素子の画素配列と長短露光画素設定の変更例]
上述した実施例では、先に図5、図6を参照して説明したように、ベイヤ(Bayer)配列を持つ撮像素子において、2行単位で長露光画素と短露光画素を交互に設定した構成で撮影した画像に対する処理例を説明した。
[5. Example 4: Example of changing pixel arrangement of image sensor and long / short exposure pixel setting]
In the embodiment described above, as described above with reference to FIGS. 5 and 6, in the image pickup device having the Bayer array, the long exposure pixels and the short exposure pixels are alternately set in units of two rows. The processing example for the image photographed in FIG.

しかし、上述の実施例における高ダイナミックレンジ(HDR)画像生成処理は、上述した画素配列や長短露光画素設定に限らず、その他の配列および設定とした構成に対しても適用可能である。   However, the high dynamic range (HDR) image generation process in the above-described embodiment is not limited to the pixel arrangement and the long / short exposure pixel setting described above, but can be applied to other arrangements and configurations.

画素配列としては、例えば、図23に示すように、
(1)ほぼ全可視光の波長光の光を受光するホワイト(W)画素を有するRGBW型の画素配列、
(2)ベイヤ型のRGB各画素を4画素単位で設定した配列、
これらの配列を適用してもよい。
As a pixel array, for example, as shown in FIG.
(1) RGBW type pixel array having white (W) pixels that receive light of substantially all visible wavelength light;
(2) An array in which Bayer-type RGB pixels are set in units of four pixels,
These sequences may be applied.

なお、図23(1)に示すW画素を有する構成に対して本開示の処理を適用する場合、画素密度が高いW画素を適用したエッジ検出を実行することが好ましい。
また、図23(2)に示すベイヤ型のRGB各画素を4画素単位で設定した配列に対して本開示の処理を適用する場合、以下の処理を行なうことが好ましい。
Note that when the process of the present disclosure is applied to the configuration having the W pixels illustrated in FIG. 23A, it is preferable to perform edge detection using W pixels having a high pixel density.
In addition, when the processing of the present disclosure is applied to an array in which Bayer-type RGB pixels illustrated in FIG. 23B are set in units of four pixels, it is preferable to perform the following processing.

図23(2)に示す画素配列では、同色4画素内において対角上に存在する同じ露光時間の画素と加算平均をとることで、短露光画素と長露光画素の重心位置を揃えることが可能である。従って、実施例1において説明したHDR画像生成部131の重心補正部152内の垂直重心補正部181を、斜め加算重心補正部として設定し、斜め方向での重心補正を実行する構成に変更して処理を行なう。   In the pixel array shown in FIG. 23 (2), it is possible to align the gravity center positions of the short exposure pixels and the long exposure pixels by averaging the pixels with the same exposure time existing diagonally within the four pixels of the same color. It is. Therefore, the vertical centroid correction unit 181 in the centroid correction unit 152 of the HDR image generation unit 131 described in the first embodiment is set as an oblique addition centroid correction unit, and is changed to a configuration that executes centroid correction in an oblique direction. Perform processing.

また、長短露光画素の設定についても2行単位の設定ではなく、図24に示すように、斜め方向に長短露光画素を交互に設定した構成としてもよい。図24には、以下の設定例を示している。
(3)ベイヤ配列において斜め方向のラインに沿って長短露光画素を交互配列した例、
(4)RGBW配列において斜め方向のラインに沿って長短露光画素を交互配列した例、
これらの例を示している。
In addition, the setting of the long and short exposure pixels is not a setting in units of two rows, and a configuration in which the long and short exposure pixels are alternately set in an oblique direction as shown in FIG. FIG. 24 shows the following setting examples.
(3) An example in which long and short exposure pixels are alternately arranged along a diagonal line in the Bayer array,
(4) An example in which long and short exposure pixels are alternately arranged along a diagonal line in the RGBW arrangement,
Examples of these are shown.

[6.実施例5:画素数を削減することのないHDR画像を生成する実施例について]
次に、画素数を削減することのないHDR画像を生成する実施例について説明する。
先に説明した実施例1では、HDR画像生成部131は、入力画像(SVE画像)の画素数に対して出力HDR画像142の画素数が例えば1/4に減少する構成である。これは、入力画像の複数画素の合成処理によってHDR画像の1画素を生成する構成であるためである。
以下に説明する実施例5は、HDR画像生成部において、画素数の削減を行なうことなく、入力画像と同じ画素数のHDR画像を生成する実施例である。
[6. Example 5: Example of generating HDR image without reducing the number of pixels]
Next, an embodiment for generating an HDR image without reducing the number of pixels will be described.
In the first embodiment described above, the HDR image generation unit 131 is configured such that the number of pixels of the output HDR image 142 is reduced to, for example, 1/4 with respect to the number of pixels of the input image (SVE image). This is because one pixel of the HDR image is generated by a synthesis process of a plurality of pixels of the input image.
Example 5 described below is an example in which an HDR image generation unit generates an HDR image having the same number of pixels as the input image without reducing the number of pixels.

第5実施例において、前述した第1実施例と異なる点はHDR画像生成部131の構成と処理である。その他の構成と処理は、第1実施例と同様である。例えば画像処理装置の全体構成は図3を参照して説明した撮像装置100であり、信号処理部103の構成は、図4を参照して説明したように、HDR画像生成部131、後段信号処理部132、出力部133を有する。   The fifth embodiment differs from the first embodiment described above in the configuration and processing of the HDR image generation unit 131. Other configurations and processes are the same as those in the first embodiment. For example, the overall configuration of the image processing apparatus is the imaging apparatus 100 described with reference to FIG. 3, and the configuration of the signal processing unit 103 is the HDR image generation unit 131, the post-stage signal processing, as described with reference to FIG. Part 132 and output part 133.

本実施例において、HDR画像生成部131は、図25に示すように、エッジ検出部151、配列変換重心補正部351、画素合成部352、相関処理部353を有する。
本実施例は、撮像素子102からの入力画像(SVE画像)350と同じ画素数のHDR画像360を生成して出力する。
なお、本実施例では、入力画像(SVE画像)350を、図24(3)において説明したベイヤ配列において斜め方向に長短露光画素を配列したSVE画像とした例について説明する。
In the present embodiment, the HDR image generation unit 131 includes an edge detection unit 151, an array conversion centroid correction unit 351, a pixel synthesis unit 352, and a correlation processing unit 353 as illustrated in FIG.
In this embodiment, an HDR image 360 having the same number of pixels as the input image (SVE image) 350 from the image sensor 102 is generated and output.
In the present embodiment, an example will be described in which the input image (SVE image) 350 is an SVE image in which long and short exposure pixels are arranged in an oblique direction in the Bayer arrangement described with reference to FIG.

以下、図25に示すHDR画像生成部131の各構成要素の処理について説明する。
(6−1.エッジ検出部の構成と処理について)
エッジ検出部151は、先に図8を参照して説明した実施例1におけるエッジ検出部151と同様の処理を実行する。
すなわち、図8に示すように、エッジ検出部151は、差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164を有する。
さらに、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168を有する。
Hereinafter, processing of each component of the HDR image generation unit 131 illustrated in FIG. 25 will be described.
(6-1. Configuration and processing of edge detection unit)
The edge detection unit 151 performs the same process as the edge detection unit 151 in the first embodiment described above with reference to FIG.
That is, as illustrated in FIG. 8, the edge detection unit 151 includes a difference calculation unit (vertical) 161, a difference calculation unit (horizontal) 162, a difference calculation unit (upper right) 163, and a difference calculation unit (upper left) 164.
Further, a long exposure edge detection unit 165, a long exposure edge direction determination unit 166, a short exposure edge detection unit 167, and a short exposure edge direction determination unit 168 are provided.

差分算出部(垂直)161は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
垂直方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_v)、
垂直方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_v)、
これらを算出する。
The difference calculation unit (vertical) 161 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 × 9 pixel region in the vicinity of the target pixel,
Average value (LDiff_v) of pixel value difference between two long-exposure G pixels that are close in the vertical direction,
An average value (SDiff_v) of pixel value differences between two short-time exposure G pixels adjacent in the vertical direction;
These are calculated.

差分算出部(水平)162は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
水平方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_h)、
水平方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_h)、
これらを算出する。
The difference calculation unit (horizontal) 162 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 × 9 pixel region in the vicinity of the target pixel,
Average value (LDiff_h) of pixel value difference between two long-exposure G pixels adjacent in the horizontal direction,
An average value (SDiff_h) of pixel value differences between two short-time exposure G pixels adjacent in the horizontal direction;
These are calculated.

差分算出部(右上)163は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
右上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_a)、
右上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_a)、
これらを算出する。
The difference calculation unit (upper right) 163 applies the edge detection image 141G shown in FIG. 8, that is, the G pixel included in the 9 × 9 pixel region in the vicinity of the target pixel,
Average value (LDiff_a) of pixel value difference between two long-exposure G pixels adjacent in the upper right direction,
An average value (SDiff_a) of pixel value differences between two short-time exposure G pixels adjacent in the upper right direction;
These are calculated.

差分算出部(左上)164は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
左上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_d)、
左上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_d)、
これらを算出する。
The difference calculation unit (upper left) 164 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 × 9 pixel region in the vicinity of the target pixel,
Average value (LDiff_d) of pixel value difference between two long-exposure G pixels adjacent in the upper left direction,
Average value (SDiff_d) of pixel value difference between two short-exposure G pixels adjacent in the upper left direction,
These are calculated.

図26は、差分算出部161〜164において実行する長露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
(Lv)長露光垂直方向、
(Lh)長露光水平方向、
(La)長露光右上方向、
(Ld)長露光左上方向、
これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
FIG. 26 is a diagram illustrating a specific example of vertical, horizontal, upper right, and upper left difference calculation processes regarding long exposure pixels executed in the difference calculation units 161 to 164.
(Lv) Long exposure vertical direction,
(Lh) Long exposure horizontal direction,
(La) Long exposure upper right direction,
(Ld) Long exposure upper left direction,
In each of these processes, a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.

図26は、先に実施例1において説明した図9と同様、差分算出部161〜164において実行する長露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
ただし、図9に示す例は、水平方向の2行単位で長露光画素と短露光画素を交互に配列したSVE画像に対する処理例である。
図26に示す例は、図24(3)において説明したベイヤ配列において斜め方向に長短露光画素を配列したSVE画像に対する処理例である。
FIG. 26 is a diagram showing a specific example of each vertical difference, horizontal, upper right, and upper left difference calculation process regarding long exposure pixels executed in the difference calculation units 161 to 164 as in FIG. 9 described in the first embodiment. .
However, the example shown in FIG. 9 is a processing example for an SVE image in which long exposure pixels and short exposure pixels are alternately arranged in units of two rows in the horizontal direction.
The example shown in FIG. 26 is an example of processing for an SVE image in which long and short exposure pixels are arranged in an oblique direction in the Bayer arrangement described in FIG.

エッジ検出部151は、複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
(1)長露光画素垂直方向画素値差分平均値(LDiff_v)、
(2)長露光画素水平方向画素値差分平均値(LDiff_h)、
(3)長露光画素右上方向画素値差分平均値(LDiff_a)、
(4)長露光画素左上方向画素値差分平均値(LDiff_d)、
これらの各値の算出式は、以下の(式11)に示す通りである。
The edge detection unit 151 calculates pixel value differences of a plurality of pixel pairs, calculates the average value, and calculates the following values.
(1) Long exposure pixel vertical direction pixel value difference average value (LDiff_v),
(2) Long exposure pixel horizontal direction pixel value difference average value (LDiff_h),
(3) Long exposure pixel upper right direction pixel value difference average value (LDiff_a),
(4) Long exposure pixel upper left direction pixel value difference average value (LDiff_d),
The calculation formulas for these values are as shown in (Formula 11) below.

・・・・・(式11)
なお、上記式において、N,M.O,Pは算出した差分の数である。
... (Formula 11)
In the above formula, N, M. O and P are the calculated numbers of differences.

図27は、差分算出部161〜164において実行する短露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
(Sv)短露光垂直方向、
(Sh)短露光水平方向、
(Sa)短露光右上方向、
(Sd)短露光左上方向、
これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
FIG. 27 is a diagram illustrating a specific example of vertical, horizontal, upper right, and upper left difference calculation processes relating to short exposure pixels executed in the difference calculation units 161 to 164.
(Sv) Short exposure vertical direction,
(Sh) horizontal direction of short exposure,
(Sa) Short exposure upper right direction,
(Sd) Short exposure upper left direction,
In each of these processes, a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.

複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
(1)短露光画素垂直方向画素値差分平均値(SDiff_v)、
(2)短露光画素水平方向画素値差分平均値(SDiff_h)、
(3)短露光画素右上方向画素値差分平均値(SDiff_a)、
(4)短露光画素左上方向画素値差分平均値(S)Diff_d)、
これらの各値の算出式は、以下の(式12)に示す通りである。
The pixel value differences of a plurality of pixel pairs are calculated, and the average value is calculated to calculate the following values.
(1) Short exposure pixel vertical direction pixel value difference average value (SDiff_v),
(2) Short exposure pixel horizontal direction pixel value difference average value (SDiff_h),
(3) Short exposure pixel upper right direction pixel value difference average value (SDiff_a),
(4) Short exposure pixel upper left direction pixel value difference average value (S) Diff_d),
The calculation formula of these values is as shown in the following (Formula 12).

・・・・・(式12)
なお、上記式において、Q,R.S,Tは算出した差分の数である。
(Equation 12)
In the above formula, Q, R. S and T are the calculated numbers of differences.

図8に示す差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164は、このように長時間露光G画素および短時間露光G画素を適用して4方向の画素値差分平均値を算出する。この算出値は、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168に出力される。   The difference calculation unit (vertical) 161, the difference calculation unit (horizontal) 162, the difference calculation unit (upper right) 163, and the difference calculation unit (upper left) 164 shown in FIG. A pixel value difference average value in four directions is calculated by applying the pixels. This calculated value is output to the long exposure edge detection unit 165, the long exposure edge direction determination unit 166, the short exposure edge detection unit 167, and the short exposure edge direction determination unit 168.

長露光エッジ検出部165、長露光エッジ方向判定部166は、長時間露光G画素の4方向の画素値差分平均値を入力し、長露光画素の各方向の画素値差分平均値を用いて、長露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
また、短露光エッジ検出部167、短露光エッジ方向判定部168は、短時間露光G画素の4方向の画素値差分平均値を入力し、短露光画素の各方向の画素値差分平均値を用いて、短露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
The long exposure edge detection unit 165 and the long exposure edge direction determination unit 166 input the pixel value difference average value in the four directions of the long exposure G pixel, and use the pixel value difference average value in each direction of the long exposure pixel, The presence / absence of an edge determined from the long exposure pixel and the edge direction are determined.
Further, the short exposure edge detection unit 167 and the short exposure edge direction determination unit 168 receive the pixel value difference average values in the four directions of the short exposure G pixels and use the pixel value difference average values in the respective directions of the short exposure pixels. Thus, the presence / absence of the edge and the edge direction determined from the short exposure pixel are determined.

これらの処理は、先に実施例1において説明した処理と同様の処理である。
先に説明した(式3)〜(式6)に従って、注目画素対応の以下の各情報をエッジ情報として生成して、配列変換重心補正部351と画素合成部352に出力する。
(1)長露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す長露光エッジフラグ(LEdge_flg)171
(2)長露光画素に基づいて判定した注目画素におけるエッジ方向を示す長露光エッジ方向フラグ(LDir_flg)172
(3)短露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す短露光エッジフラグ(SEdge_flg)173
(4)短露光画素に基づいて判定した注目画素におけるエッジ方向を示す短露光エッジ方向フラグ(SDir_flg)174
These processes are the same as the processes described in the first embodiment.
According to (Equation 3) to (Equation 6) described above, the following information corresponding to the target pixel is generated as edge information, and is output to the array conversion centroid correction unit 351 and the pixel synthesis unit 352.
(1) A long exposure edge flag (LEEdge_flg) 171 indicating whether or not the target pixel determined based on the long exposure pixel is an edge region.
(2) Long exposure edge direction flag (LDir_flg) 172 indicating the edge direction of the target pixel determined based on the long exposure pixel
(3) A short exposure edge flag (SEedge_flg) 173 indicating whether or not the target pixel determined based on the short exposure pixel is an edge region.
(4) A short exposure edge direction flag (SDir_flg) 174 indicating the edge direction of the target pixel determined based on the short exposure pixel.

(6−2.配列変換重心補正部の構成と処理について)
次に、配列変換重心補正部351の構成と処理について説明する。
図28は配列変換重心補正部352の構成と処理を説明する図である。
図28に示すように、配列変換重心補正部352は、重心補正高域信号生成部361と、低域信号生成部362を有する。
(6-2. Configuration and Processing of Array Conversion Center of Gravity Correction)
Next, the configuration and processing of the array conversion centroid correction unit 351 will be described.
FIG. 28 is a diagram illustrating the configuration and processing of the array conversion centroid correction unit 352.
As illustrated in FIG. 28, the array conversion center-of-gravity correction unit 352 includes a center-of-gravity correction high-frequency signal generation unit 361 and a low-frequency signal generation unit 362.

重心補正高域信号生成部361は、撮像素子102の出力である斜め方向に長短露光画素を交互配列した入力画像(SVE画像)350を入力し、この入力画像350内のG画素を重心補正してG信号高域成分を生成する。
また、低域信号生成部362は、9×9画素の入力画像350のRGB各画素の平均値を算出する。
The center-of-gravity correction high-frequency signal generation unit 361 inputs an input image (SVE image) 350 in which long and short exposure pixels are alternately arranged in an oblique direction that is an output of the image sensor 102, and corrects the center of gravity of G pixels in the input image 350. To generate a G signal high frequency component.
In addition, the low-frequency signal generation unit 362 calculates an average value of each RGB pixel of the 9 × 9 pixel input image 350.

重心補正高域信号生成部361は、9×9画素の入力画像350の全画素にG画素を推定して設定する処理を行なう。G画素値は、各画素ごとに長露光のG画素値と短露光のG画素値の2つのG画素値を推定する。
この処理に際して、エッジ検出部151から入力するエッジ方向情報を用い、エッジ方向に沿ったG画素の重みを大きく設定したエッジ方向対応のフィルタを利用して、各注目画素位置にG画素値を推定して設定する。
The center-of-gravity correction high-frequency signal generation unit 361 performs processing for estimating and setting G pixels in all pixels of the 9 × 9 pixel input image 350. As the G pixel value, two G pixel values of a long exposure G pixel value and a short exposure G pixel value are estimated for each pixel.
In this process, the edge direction information input from the edge detection unit 151 is used, and a G pixel value is estimated at each target pixel position using a filter corresponding to the edge direction in which the weight of the G pixel along the edge direction is set large. And set.

この重心補正高域信号生成部361の実行する処理について、図29〜図31を参照して説明する。
重心補正高域信号生成部361は、まず、図29に示すように、9×9画素の入力画像350から長露光G画素と短露光G画素をそれぞれ抽出する。
図29に示す以下のデータを抽出する。
(2)長露光G画素データ
(3)短露光G画素データ
Processing executed by the center-of-gravity correction high-frequency signal generation unit 361 will be described with reference to FIGS. 29 to 31.
First, the center-of-gravity correction high-frequency signal generation unit 361 extracts long exposure G pixels and short exposure G pixels from an input image 350 of 9 × 9 pixels, as shown in FIG.
The following data shown in FIG. 29 is extracted.
(2) Long exposure G pixel data (3) Short exposure G pixel data

さらに、これらの図29(2),(3)の各々のG画素データを利用して、G画素の未設定位置のG画素値を推定する。
図30、図31に、各推定位置、およびエッジ方向に応じたフィルタ適用によるG画素値推定処理例を示す。
図30には、以下の場合に使用するフィルタ係数例を示している。
(1)エッジ方向が垂直方向、
(2)エッジ方向が水平方向、
これらの場合のフィルタ係数の設定例である。
図に示すa,b,c,dはG画素値を推定する位置のパターンである。
各推定位置に応じて適用するフィルタを変更する。
Furthermore, the G pixel value of the unset position of the G pixel is estimated using the G pixel data of each of FIGS. 29 (2) and 29 (3).
30 and 31 show an example of G pixel value estimation processing by applying a filter according to each estimated position and edge direction.
FIG. 30 shows an example of filter coefficients used in the following cases.
(1) Edge direction is vertical,
(2) The edge direction is horizontal,
It is a setting example of the filter coefficient in these cases.
In the figure, a, b, c, and d are patterns of positions where G pixel values are estimated.
The filter to be applied is changed according to each estimated position.

図31には、以下の場合に使用するフィルタ係数例を示している。
(3)エッジ方向が左上方向、
(4)エッジ方向が右上方向、
これらの場合のフィルタ係数の設定例である。
図に示すa,b,c,dはG画素値を推定する位置のパターンである。
各推定位置に応じて適用するフィルタを変更する。
FIG. 31 shows an example of filter coefficients used in the following cases.
(3) The edge direction is the upper left direction,
(4) The edge direction is the upper right direction,
It is a setting example of the filter coefficient in these cases.
In the figure, a, b, c, and d are patterns of positions where G pixel values are estimated.
The filter to be applied is changed according to each estimated position.

図30、図31は、長露光G画素データに対する処理例であるが、短露光G画素データについても同様に処理を行なう。
この処理によって、すべての画素位置の長露光G画素値と短露光G画素値を推定する。
重心補正高域信号生成部361は、この2つのG画素推定値を画素合成部352に出力する。
30 and 31 show processing examples for the long exposure G pixel data, but the same processing is performed for the short exposure G pixel data.
By this processing, the long exposure G pixel value and the short exposure G pixel value at all pixel positions are estimated.
The center-of-gravity correction high-frequency signal generation unit 361 outputs the two G pixel estimated values to the pixel synthesis unit 352.

一方、低域信号生成部362は、9×9画素領域からなる入力画像(SVE画像)350内の長露光RGB画素の平均値、短露光RGB画素の平均値をそれぞれ算出する。
低域信号生成部362は、算出した露光RGB画素の平均値、短露光RGB画素の平均値を画素合成部352に出力する。
On the other hand, the low-frequency signal generation unit 362 calculates the average value of the long exposure RGB pixels and the average value of the short exposure RGB pixels in the input image (SVE image) 350 including the 9 × 9 pixel region.
The low-frequency signal generation unit 362 outputs the calculated average value of the exposure RGB pixels and the average value of the short exposure RGB pixels to the pixel synthesis unit 352.

(6−3.画素合成部の構成と処理について)
次に、図25に示すHDR画像生成部131の画素合成部352の構成と処理について説明する。
図32を参照して、画素合成部352の構成と処理について説明する。
(6-3. Configuration and Processing of Pixel Combining Unit)
Next, the configuration and processing of the pixel composition unit 352 of the HDR image generation unit 131 illustrated in FIG. 25 will be described.
With reference to FIG. 32, the configuration and processing of the pixel composition unit 352 will be described.

図32に示すように、画素合成部352は、重心補正高域信号合成部371と、低域信号合成部372を有する。
重心補正高域信号合成部371と、低域信号合成部372は、いずれも、先に実施例1においてせ辣名した図15の構成を有し、平坦部、エッジ部、飽和部に応じた合成信号を生成して、処理対象画素(注目画素)の画素領域に応じていずれかの合成信号を選択出力する処理を実行する。
As illustrated in FIG. 32, the pixel synthesis unit 352 includes a center-of-gravity correction high-frequency signal synthesis unit 371 and a low-frequency signal synthesis unit 372.
The center-of-gravity correction high-frequency signal synthesis unit 371 and the low-frequency signal synthesis unit 372 both have the configuration shown in FIG. 15 previously named in the first embodiment, and correspond to the flat portion, the edge portion, and the saturation portion. A process of generating a synthesized signal and selectively outputting one of the synthesized signals according to the pixel region of the processing target pixel (target pixel) is executed.

ただし、本実施例において、重心補正高域信号合成部371と、低域信号合成部372は、それぞれ以下の各信号を合成処理対象として処理を実行する。
重心補正高域信号合成部371は、配列変換重心補正部351の重心補正高域信号生成部361の生成した長露光G画素信号と短露光G画素信号との合成処理を実行する。
低域信号合成部372は、配列変換重心補正部351の低域信号生成部362の生成した長露光RGB平均値信号と短露光RGB平均値信号との合成処理を実行する。
However, in the present embodiment, the center-of-gravity correction high-frequency signal synthesis unit 371 and the low-frequency signal synthesis unit 372 execute processing with the following signals as synthesis processing targets.
The center-of-gravity correction high-frequency signal combining unit 371 executes a combination process of the long exposure G pixel signal and the short exposure G pixel signal generated by the center-of-gravity correction high-frequency signal generation unit 361 of the array conversion center-of-gravity correction unit 351.
The low-frequency signal synthesis unit 372 executes synthesis processing of the long exposure RGB average value signal and the short exposure RGB average value signal generated by the low-frequency signal generation unit 362 of the array conversion centroid correction unit 351.

この合成処理の結果として、図32に示すように、以下の信号を生成して相関処理部353に出力する。
重心補正高域信号合成部371は、配列変換重心補正部351の重心補正高域信号生成部361の生成した長露光G画素信号と短露光G画素信号との合成処理を実行して高域HDR信号(G)を生成して、相関処理部353に出力する。
低域信号合成部372は、配列変換重心補正部351の低域信号生成部362の生成した長露光RGB平均値信号と短露光RGB平均値信号との合成処理を実行して、低域HDR信号(mR,mG,mB)を生成して、相関処理部353に出力する。
As a result of this synthesis processing, the following signals are generated and output to the correlation processing unit 353 as shown in FIG.
The center-of-gravity correction high-frequency signal combining unit 371 executes a combination process of the long exposure G pixel signal and the short exposure G pixel signal generated by the center-of-gravity correction high-frequency signal generation unit 361 of the array conversion center-of-gravity correction unit 351 to perform high-frequency HDR. A signal (G) is generated and output to the correlation processing unit 353.
The low-frequency signal synthesis unit 372 performs a synthesis process on the long-exposure RGB average value signal and the short-exposure RGB average value signal generated by the low-frequency signal generation unit 362 of the array conversion centroid correction unit 351, and performs a low-frequency HDR signal. (MR, mG, mB) is generated and output to the correlation processing unit 353.

(6−4.相関処理部の構成と処理について)
次に、図25に示すHDR画像生成部131の相関処理部353の構成と処理について説明する。
図33を参照して、相関処理部353の構成と処理について説明する。
(6-4. Configuration and processing of correlation processing unit)
Next, the configuration and processing of the correlation processing unit 353 of the HDR image generation unit 131 illustrated in FIG. 25 will be described.
The configuration and processing of the correlation processing unit 353 will be described with reference to FIG.

図33に示すように、相関処理部353は、出力色選択部381と、相関演算部382を有する。
出力色選択部381は、画素合成部352の低域信号合成部372の生成信号である長露光RGB平均値信号と短露光RGB平均値信号との合成結果である低域HDR信号(mR,mG,mB)を入力し、これらの3つの色の低域HDR信号(mR,mG,mB)から、出力するHDR画像360の画素位置に応じた出力色に対応する低域HDR信号を、順次選択して相関演算部382に出力する。図33にはこの出力をmCとして示している。mCはmR、またはmB、またはmGのいずれかである。
As illustrated in FIG. 33, the correlation processing unit 353 includes an output color selection unit 381 and a correlation calculation unit 382.
The output color selection unit 381 generates a low-frequency HDR signal (mR, mG) that is a synthesis result of the long exposure RGB average value signal and the short exposure RGB average value signal that are generated by the low-frequency signal synthesis unit 372 of the pixel synthesis unit 352. , MB) and sequentially select the low-frequency HDR signal corresponding to the output color according to the pixel position of the HDR image 360 to be output from the low-frequency HDR signals (mR, mG, mB) of these three colors. And output to the correlation calculation unit 382. FIG. 33 shows this output as mC. mC is either mR, mB, or mG.

相関演算部382は、
(1)出力色選択部381からmC、
(2)画素合成部352の低域信号合成部372の生成信号である低域HDR信号(mG)、
(3)画素合成部352の重心補正高域信号合成部371の生成信号である高域HDR信号(G)、
これらの各信号を入力する。
The correlation calculation unit 382
(1) mC from the output color selection unit 381;
(2) a low-frequency HDR signal (mG) that is a generated signal of the low-frequency signal synthesis unit 372 of the pixel synthesis unit 352,
(3) A high-frequency HDR signal (G) that is a generated signal of the center-of-gravity correction high-frequency signal combining unit 371 of the pixel combining unit 352,
Each of these signals is input.

相関演算部382は、これらの入力信号を用いた演算処理を実行して出力するHDR画像360の各合成画素値を算出して出力する。   The correlation calculation unit 382 calculates and outputs each synthesized pixel value of the HDR image 360 that is output by executing a calculation process using these input signals.

相関演算部382の実行する出力画素値の算出は、以下の演算によって実行される。
mC=mR、
すなわち出力色がR画素である場合の出力画素値(R_out)の算出は、以下に示す(式13)に従って実行する。
R_out=mR/mG×G ・・・(式13)
The calculation of the output pixel value executed by the correlation calculation unit 382 is executed by the following calculation.
mC = mR,
That is, the calculation of the output pixel value (R_out) when the output color is an R pixel is executed according to (Equation 13) shown below.
R_out = mR / mG × G (Formula 13)

mC=mG、
すなわち出力色がG画素である場合の出力画素値(G_out)の算出は、以下に示す(式14)に従って実行する。
G_out=mG/mG×G ・・・(式14)
mC = mG,
That is, the calculation of the output pixel value (G_out) when the output color is a G pixel is executed according to (Equation 14) shown below.
G_out = mG / mG × G (Expression 14)

mC=mB、
すなわち出力色がB画素である場合の出力画素値(B_out)の算出は、以下に示す(式15)に従って実行する。
B_out=mB/mG×G ・・・(式15)
mC = mB,
That is, the calculation of the output pixel value (B_out) when the output color is a B pixel is executed according to (Equation 15) shown below.
B_out = mB / mG × G (Equation 15)

上記の演算により、高周波成分を含んだRGB信号が生成される。出力する色信号を適切に選択する事で、入力画像と同様の画素配列、例えばベイヤ(Bayer)配列を持つHDR画像360を生成して出力することが可能となる。   By the above calculation, an RGB signal including a high frequency component is generated. By appropriately selecting the color signal to be output, it is possible to generate and output an HDR image 360 having the same pixel arrangement as that of the input image, for example, a Bayer arrangement.

[7.実施例6:階調変換部、カメラ信号処理部を有する撮像装置の構成例について]
上述した実施例はいずれも、例えば先に図3等を参照して説明した撮像装置100において実行可能である。
しかし、本開示の処理は、図3に示す撮像装置の他、様々な装置において実行可能である。撮像装置に限らず、撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置において実行することも可能である。

また、撮像装置の構成も図3に示す構成に限らず、様々な構成を持つ撮像装置において本開示の処理が実行できる。
図34は、本開示の処理を実行する図3に示す撮像装置とは異なる構成を持つ撮像装置500の一例を示す図である。
[7. Example 6: Configuration Example of Imaging Device Having Gradation Conversion Unit and Camera Signal Processing Unit]
Any of the embodiments described above can be executed in the imaging apparatus 100 described above with reference to FIG.
However, the processing of the present disclosure can be executed in various apparatuses in addition to the imaging apparatus illustrated in FIG. The present invention is not limited to the imaging apparatus, and can be executed by an information processing apparatus such as a PC that inputs an image captured by the imaging apparatus and executes image processing.

Further, the configuration of the imaging apparatus is not limited to the configuration illustrated in FIG. 3, and the processing of the present disclosure can be executed in imaging apparatuses having various configurations.
FIG. 34 is a diagram illustrating an example of an imaging apparatus 500 having a configuration different from that of the imaging apparatus illustrated in FIG. 3 that executes the processing of the present disclosure.

図34に示す撮像装置500の構成と処理について説明する。
光学レンズ501を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像素子502に入射し、光電変換による画像データを出力する。出力画像データは、例えば、先に、図5、図6を参照して説明した長露光画素と短露光画素からなるSVE画像521である。あるいは、図23、図24を参照して説明したSVE画像521である。
A configuration and processing of the imaging apparatus 500 illustrated in FIG. 34 will be described.
Light incident through the optical lens 501 is incident on an image sensor 502 constituted by an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion. The output image data is, for example, the SVE image 521 composed of the long exposure pixels and the short exposure pixels described above with reference to FIGS. Or it is the SVE image 521 demonstrated with reference to FIG. 23, FIG.

SVE画像521は、高ダイナミックレンジ(HDR)画像生成部503に入力される。
高ダイナミックレンジ(HDR)画像生成部503は、上述の各実施例において説明した処理に従ってHDR画像522を生成して出力する。
高ダイナミックレンジ(HDR)画像生成部503は、例えば先に図7を参照して説明した構成を持つ。
The SVE image 521 is input to the high dynamic range (HDR) image generation unit 503.
The high dynamic range (HDR) image generation unit 503 generates and outputs an HDR image 522 according to the processing described in the above embodiments.
The high dynamic range (HDR) image generation unit 503 has, for example, the configuration described above with reference to FIG.

高ダイナミックレンジ(HDR)画像生成部503の生成したHDR画像504は、階調変換部504に入力される。
諧調変換部504は、HDR画像522の各画素の画素値を構成するビット情報を通常のカメラ信号処理部で処理可能なビット数に変換する。例えばHDR画像522の画素値を示すビット値が10ビットである場合、これを8ビットに変換する諧調変換を実行しNDR(Normal Dyamic Range)画像523を生成してカメラ信号処理部505に出力する。
The HDR image 504 generated by the high dynamic range (HDR) image generation unit 503 is input to the gradation conversion unit 504.
The gradation conversion unit 504 converts the bit information constituting the pixel value of each pixel of the HDR image 522 into the number of bits that can be processed by a normal camera signal processing unit. For example, when the bit value indicating the pixel value of the HDR image 522 is 10 bits, gradation conversion is performed to convert the bit value to 8 bits, an NDR (Normal Dynamic Range) image 523 is generated, and output to the camera signal processing unit 505. .

カメラ信号処理部505は、例えば、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行して出力画像530を生成する。出力画像530は図示しない記憶部に格納される。あるいは表示部に出力される。   The camera signal processing unit 505 generates signal 530 by executing signal processing in a general camera such as white balance (WB) adjustment and gamma correction. The output image 530 is stored in a storage unit (not shown). Or it outputs to a display part.

制御部510は、例えば図示しないメモリに格納されたプログラムに従って各部に制御信号を出力し、各種の処理の制御を行う。   The control unit 510 outputs a control signal to each unit according to a program stored in a memory (not shown), for example, and controls various processes.

[8.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
[8. Summary of composition of the present disclosure]
As described above, the embodiments of the present disclosure have been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present disclosure. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present disclosure, the claims should be taken into consideration.

なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
前記信号処理部は、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正部と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画素合成部を有する画像処理装置。
The technology disclosed in this specification can take the following configurations.
(1) having a signal processing unit that executes pixel value synthesis processing of pixels included in an input image including long exposure pixels and short exposure pixels to generate an output image;
The signal processing unit
An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
A centroid correction unit that executes centroid correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputs the centroid correction unit output long-time exposure pixel and centroid correction unit output short-time exposure pixel;
An image processing apparatus comprising: a pixel synthesis unit that performs a synthesis process of the center-of-gravity correction unit output long-time exposure pixels generated by the barycentric correction unit and the center-of-gravity correction unit output short-time exposure pixels.

(2)前記重心補正部は、前記重心補正処理として、合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する構成であり、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力長時間露光画素の画素値を算出し、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力短時間露光画素の画素値を算出する処理を実行する前記(1)に記載の画像処理装置。   (2) The center-of-gravity correction unit is configured to execute processing for matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel that are to be combined as the center-of-gravity correction processing. Calculates the pixel value of the long-time exposure pixel output from the centroid correction unit by weighted addition using the pixel value of the long-time exposure pixel of the color, and applies the pixel value of multiple short-time exposure pixels of the same color at different pixel positions The image processing apparatus according to (1), wherein a process of calculating a pixel value of the short-time exposure pixel output from the centroid correction unit is performed by performing the weighted addition.

(3)前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記入力画像の画素値を前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素の画素値とし、前記重心補正処理に適用した画素が飽和していない場合は、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力長時間露光画素の画素値とし、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力短時間露光画素の画素値として選択出力する前記(2)に記載の画像処理装置。   (3) The center-of-gravity correction unit includes a saturation determination unit that determines whether or not the pixel applied to the center-of-gravity correction process is saturated, and when the pixel applied to the center-of-gravity correction process is saturated, If the pixel value of the input image is the pixel value of the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel, and the pixel applied to the centroid correction process is not saturated, A pixel value calculated by weighted addition using pixel values of a plurality of long-time exposure pixels of the same color is used as the pixel value of the center-of-gravity correction unit output long-time exposure pixel, and a plurality of short-time exposures of the same color at different pixel positions are performed. The image processing apparatus according to (2), wherein a pixel value calculated by weighted addition using a pixel value of the pixel is selectively output as a pixel value of the centroid correction unit output short-time exposure pixel.

(4)前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記重心補正部出力長時間露光画素の画素値を、入力画像の長時間露光画素の画素値とし、前記重心補正部出力短時間露光画素の画素値を、入力画像の短時間露光画素の複数の画素値に基づく平滑化処理によって算出した画素値として設定する前記(2)または(3)に記載の画像処理装置。
(5)前記重心補正部は、前記平滑化処理を、前記エッジ検出部から入力するエッジ方向に応じた係数の設定された平滑化フィルタを適用して実行する前記(4)に記載の画像処理装置。
(4) The centroid correction unit includes a saturation determination unit that determines whether or not the pixel applied to the centroid correction process is saturated, and when the pixel applied to the centroid correction process is saturated, The pixel value of the center-of-gravity correction unit output long-time exposure pixel is set as the pixel value of the long-time exposure pixel of the input image, and the pixel value of the center-of-gravity correction unit output short-time exposure pixel is set to a plurality of short-time exposure pixels of the input image. The image processing apparatus according to (2) or (3), wherein the image value is set as a pixel value calculated by a smoothing process based on a pixel value.
(5) The image processing according to (4), wherein the center-of-gravity correction unit performs the smoothing process by applying a smoothing filter set with a coefficient corresponding to an edge direction input from the edge detection unit. apparatus.

(6)前記画素合成部は、前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する合成部として、平坦部領域に適応した合成処理を実行する平坦部合成部と、エッジ部領域に適応した合成処理を実行するエッジ部合成部と、飽和部領域に適応した合成処理を実行する飽和部合成部と、前記各合成部の合成結果を選択して合成結果画像を生成する選択部を有し、前記選択部は、前記エッジ情報、および前記重心補正処理に適用した画素が飽和画素であるか否かを示す飽和フラグを入力し、前記重心補正処理に適用した画素が飽和画素である場合は、前記飽和部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域である場合は、前記エッジ部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域でない場合は、前記平坦部合成部の合成結果を選択する前記(1)〜(5)いずれかに記載の画像処理装置。   (6) The pixel synthesizing unit is a synthesis unit that performs synthesis processing of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel. A synthesis unit, an edge synthesis unit that executes synthesis processing adapted to the edge region, a saturation synthesis unit that executes synthesis processing adapted to the saturation region, and a synthesis result of each synthesis unit A selection unit configured to generate a synthesis result image, and the selection unit receives the edge information and a saturation flag indicating whether a pixel applied to the centroid correction process is a saturated pixel, and the centroid correction process When the pixel applied to is a saturated pixel, the combination result of the saturation unit combining unit is selected, and when the pixel applied to the centroid correction process is not a saturated pixel but an edge region, the edge unit combining unit Select synthesis result The center of gravity correction processing pixel is not saturated pixel applied to, if not an edge region, wherein selecting the combined result of the flat portion combining unit (1) to (5) The image processing apparatus according to any one.

(7)前記平坦部合成部は、前記重心補正部出力長時間露光画素の画素値に応じて変化するブレンド率(α)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記エッジ部合成部は、前記重心補正部出力長時間露光画素の画素値に依存しない固定ブレンド率(β)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記飽和部合成部は、前記重心補正部出力短時間露光画素の画素値を合成結果の画素値として算出する前記(6)に記載の画像処理装置。   (7) The flat portion synthesis unit outputs the centroid correction unit output long-time exposure pixel and the centroid correction unit output according to a blend ratio (α) that changes according to a pixel value of the centroid correction unit output long-time exposure pixel. The pixel value of the short-time exposure pixel is blended to calculate a pixel value as a synthesis result, and the edge synthesis unit responds to a fixed blend rate (β) that does not depend on the pixel value of the long-time exposure pixel output from the centroid correction unit. The centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel are blended to calculate a pixel value as a synthesis result, and the saturation unit synthesis unit outputs the centroid correction unit output short-time The image processing apparatus according to (6), wherein a pixel value of an exposure pixel is calculated as a pixel value as a synthesis result.

(8)前記画素合成部は、さらに、動被写体領域に適応した合成処理を実行する動被写体部合成部を有し、前記選択部は、前記重心補正処理に適用した画素が動被写体領域であるか否かを示す動被写体検出フラグを入力し、前記重心補正処理に適用した画素が動被写体領域である場合は、前記動被写体合成部の合成結果を選択する前記(6)または(7)に記載の画像処理装置。
(9)前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、前記エッジ検出部は、G画素のみを用いたエッジ検出処理を実行する前記(1)〜(8)いずれかに記載の画像処理装置。
(8) The pixel synthesizing unit further includes a moving subject unit synthesizing unit that executes a synthesizing process adapted to the moving subject region, and the selection unit is such that the pixel applied to the centroid correction processing is the moving subject region. When the moving subject detection flag indicating whether or not the pixel applied to the center-of-gravity correction processing is a moving subject region, the synthesis result of the moving subject synthesis unit is selected in (6) or (7). The image processing apparatus described.
(9) The input image is a Bayer array image configured by RGB pixels, and the edge detection unit executes edge detection processing using only G pixels, according to any one of (1) to (8). Image processing apparatus.

(10) 長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
前記信号処理部は、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
前記入力画像の特定色高域信号と全色低域信号を生成する配列変換重心補正部と、
前記特定色高域信号と全色低域信号を入力して、特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を生成する画素合成部と、
前記特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数の高ダイナミックレンジ(HDR)画像を生成する相関処理部を有する画像処理装置。
(10) having a signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including long-time exposure pixels and short-time exposure pixels;
The signal processing unit
An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
An array conversion centroid correction unit that generates a specific color high-frequency signal and an all-color low-frequency signal of the input image;
A pixel synthesizer that inputs the specific color high-frequency signal and the all-color low-frequency signal, and generates a specific color high-frequency high-dynamic range (HDR) signal and an all-color low-frequency high dynamic range (HDR) signal;
Correlation processing for generating the high dynamic range (HDR) image having the same number of pixels as the input image by inputting the specific color high frequency range high dynamic range (HDR) signal and the all color low frequency range high dynamic range (HDR) signal. An image processing apparatus having a unit.

(11)前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、
前記配列変換重心補正部は、前記入力画像のG色高域信号とRGB各色低域信号を生成し、前記画素合成部は、前記G色高域信号と前記RGB各色低域信号を入力して、G色高域高ダイナミックレンジ(HDR)信号と、RGB各色低域高ダイナミックレンジ(HDR)信号を生成し、前記前記相関処理部は、前記G色高域高ダイナミックレンジ(HDR)信号と、前記RGB各色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数のベイヤ配列からなる高ダイナミックレンジ(HDR)画像を生成する前記(10)に記載の画像処理装置。
(11) The input image is a Bayer array image composed of RGB pixels,
The array conversion center-of-gravity correction unit generates a G-color high-frequency signal and RGB low-frequency signals of the input image, and the pixel composition unit inputs the G-color high-frequency signal and RGB low-frequency signals. , A G color high frequency range high dynamic range (HDR) signal and RGB color low frequency range high dynamic range (HDR) signal, and the correlation processing unit, the G color high frequency range high dynamic range (HDR) signal, The image processing apparatus according to (10), wherein the RGB low color high dynamic range (HDR) signal is input to generate a high dynamic range (HDR) image having a Bayer array having the same number of pixels as the input image.

さらに、上記した装置およびシステムにおいて実行する処理の方法や、処理を実行させるプログラムおよびプログラムを記録した記録媒体も本開示の構成に含まれる。   Furthermore, the configuration of the present disclosure also includes a method of processing executed in the above-described apparatus and system, a program that executes the processing, and a recording medium that records the program.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet and can be installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本開示の一実施例の構成によれば、長時間露光画素と短時間露光画素からなる画像の画素合成による高品質な高ダイナミックレンジ画像を生成する装置、方法が実現される。
具体的には、長時間露光画素と短時間露光画素を含む入力画像の各構成画素に対するエッジ検出を実行するエッジ検出部と、合成対象となる長時間露光画素と短時間露光画素の重心補正処理を実行する重心補正部と、重心補正部の生成画素の合成処理を実行する画素合成部を有する。画素合成部は、長時間露光画素の画素値に応じたブレンド率(α)を適用した平坦部合成結果と、固定ブレンド率を適用したエッジ部合成結果と、飽和部領域に適応した飽和部合成結果から、各画素の状況に応じた最適な合成結果を選択し、選択された合成結果に基づいて高ダイナミックレンジ(HDR)画像を生成して出力する。
上記手法の適用により、各構成画素の状況に応じた画素対応の最適な合成結果が得られ、高品質な高ダイナミックレンジ画像を生成することが可能となる。
As described above, according to the configuration of an embodiment of the present disclosure, an apparatus and a method for generating a high-quality, high dynamic range image by pixel synthesis of an image including a long-time exposure pixel and a short-time exposure pixel are realized. Is done.
Specifically, an edge detection unit that performs edge detection for each component pixel of the input image including the long exposure pixel and the short exposure pixel, and a centroid correction process of the long exposure pixel and the short exposure pixel to be combined And a pixel composition unit that performs composition processing of the generated pixels of the center of gravity correction unit. The pixel compositing unit is a flat part compositing result obtained by applying a blend ratio (α) corresponding to the pixel value of the long-time exposure pixel, an edge part compositing result applying a fixed blend ratio, and a saturated part compositing adapted to the saturated part region. From the result, an optimum synthesis result corresponding to the situation of each pixel is selected, and a high dynamic range (HDR) image is generated and output based on the selected synthesis result.
By applying the above method, it is possible to obtain an optimum synthesis result corresponding to the pixel in accordance with the situation of each constituent pixel, and to generate a high-quality, high dynamic range image.

100 撮像装置
101 光学レンズ
102 撮像素子
103 信号処理部
105 制御部
120 出力画像
131 HDR画素生成部
132 後段信号処理部
133 出力部
141 入力画像(SVE画像)
142 高ダイナミックレンジ(HDR)画像
151 エッジ検出部
152 重心補正部
153 画素合成部
161〜164 差分算出部
165 長露光エッジ検出部
166 長露光方向判定部
167 短露光エッジ検出部
168 短露光方向判定部
181 垂直重心補正部
182 飽和判定部
183 補正結果選択部
211 平坦部合成部
212 エッジ部合成部
213 飽和部合成部
214 長短合成結果選択&最終合成結果生成部
301 飽和部短露光画素補正部
321 動被写体部合成部
351 配列変換重心補正部
352 画素合成部
353 相関処理部
361 重心補正高域信号生成部
362 低域信号生成部
371 重心補正高域信号合成部
372 低域信号合成部
381 出力色選択部
382 相関演算部
500 撮像装置
501 光学レンズ
502 撮像素子
503 高ダイナミックレンジ(HDR)画像生成部
504 諧調変換部
505 カメラ信号処理部
510 制御部
DESCRIPTION OF SYMBOLS 100 Image pick-up apparatus 101 Optical lens 102 Image pick-up element 103 Signal processing part 105 Control part 120 Output image 131 HDR pixel production | generation part 132 Later stage signal processing part 133 Output part 141 Input image (SVE image)
142 High Dynamic Range (HDR) Image 151 Edge Detection Unit 152 Center of Gravity Correction Unit 153 Pixel Composition Unit 161-164 Difference Calculation Unit 165 Long Exposure Edge Detection Unit 166 Long Exposure Direction Determination Unit 167 Short Exposure Edge Detection Unit 168 Short Exposure Direction Determination Unit 181 Vertical center of gravity correction unit 182 Saturation determination unit 183 Correction result selection unit 211 Flat part synthesis unit 212 Edge unit synthesis unit 213 Saturation unit synthesis unit 214 Long / short synthesis result selection & final synthesis result generation unit 301 Saturation unit short exposure pixel correction unit 321 Subject portion synthesis unit 351 Array conversion centroid correction unit 352 Pixel synthesis unit 353 Correlation processing unit 361 Center of gravity correction high-frequency signal generation unit 362 Low-frequency signal generation unit 371 Center-of-gravity correction high-frequency signal synthesis unit 372 Low-frequency signal synthesis unit 381 Output color selection Unit 382 Correlation calculation unit 500 Imaging device 501 Optical lens 5 02 Image sensor 503 High dynamic range (HDR) image generation unit 504 Gradation conversion unit 505 Camera signal processing unit 510 Control unit

Claims (13)

長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
前記信号処理部は、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正部と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画素合成部を有する画像処理装置。
A signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including the long-time exposure pixel and the short-time exposure pixel;
The signal processing unit
An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
A centroid correction unit that executes centroid correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputs the centroid correction unit output long-time exposure pixel and centroid correction unit output short-time exposure pixel;
An image processing apparatus comprising: a pixel synthesis unit that performs a synthesis process of the center-of-gravity correction unit output long-time exposure pixels generated by the barycentric correction unit and the center-of-gravity correction unit output short-time exposure pixels.
前記重心補正部は、
前記重心補正処理として、合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する構成であり、
異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力長時間露光画素の画素値を算出し、
異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力短時間露光画素の画素値を算出する処理を実行する請求項1に記載の画像処理装置。
The center of gravity correction unit is
As the centroid correction process, a process of executing the process of matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel to be combined,
By calculating the pixel value of the centroid correction unit output long exposure pixel by weighted addition applying the pixel values of a plurality of long exposure pixels of the same color at different pixel positions,
The image processing according to claim 1, wherein a process of calculating a pixel value of the centroid correction unit output short-time exposure pixel is performed by weighted addition using pixel values of a plurality of short-time exposure pixels of the same color at different pixel positions. apparatus.
前記重心補正部は、
前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、
前記重心補正処理に適用した画素が飽和している場合は、前記入力画像の画素値を前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素の画素値とし、
前記重心補正処理に適用した画素が飽和していない場合は、
異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力長時間露光画素の画素値とし、
異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力短時間露光画素の画素値として選択出力する請求項2に記載の画像処理装置。
The center of gravity correction unit is
A saturation determination unit that determines whether or not a pixel applied to the centroid correction process is saturated;
When the pixel applied to the centroid correction process is saturated, the pixel value of the input image is the pixel value of the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel,
If the pixel applied to the centroid correction process is not saturated,
A pixel value calculated by weighted addition applying pixel values of a plurality of long-time exposure pixels of the same color at different pixel positions is set as a pixel value of the centroid correction unit output long-time exposure pixel,
The pixel value calculated by weighted addition using pixel values of a plurality of short-time exposure pixels of the same color at different pixel positions is selectively output as a pixel value of the centroid correction unit output short-time exposure pixel. Image processing device.
前記重心補正部は、
前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、
前記重心補正処理に適用した画素が飽和している場合は、
前記重心補正部出力長時間露光画素の画素値を、入力画像の長時間露光画素の画素値とし、
前記重心補正部出力短時間露光画素の画素値を、入力画像の短時間露光画素の複数の画素値に基づく平滑化処理によって算出した画素値として設定する請求項2に記載の画像処理装置。
The center of gravity correction unit is
A saturation determination unit that determines whether or not a pixel applied to the centroid correction process is saturated;
If the pixel applied to the centroid correction process is saturated,
The pixel value of the center-of-gravity correction unit output long exposure pixel is the pixel value of the long exposure pixel of the input image,
The image processing apparatus according to claim 2, wherein the pixel value of the centroid correction unit output short-time exposure pixel is set as a pixel value calculated by a smoothing process based on a plurality of pixel values of the short-time exposure pixel of the input image.
前記重心補正部は、
前記平滑化処理を、前記エッジ検出部から入力するエッジ方向に応じた係数の設定された平滑化フィルタを適用して実行する請求項4に記載の画像処理装置。
The center of gravity correction unit is
The image processing apparatus according to claim 4, wherein the smoothing process is executed by applying a smoothing filter set with a coefficient corresponding to an edge direction input from the edge detection unit.
前記画素合成部は、
前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する合成部として、
平坦部領域に適応した合成処理を実行する平坦部合成部と、
エッジ部領域に適応した合成処理を実行するエッジ部合成部と、
飽和部領域に適応した合成処理を実行する飽和部合成部と、
前記各合成部の合成結果を選択して合成結果画像を生成する選択部を有し、
前記選択部は、前記エッジ情報、および前記重心補正処理に適用した画素が飽和画素であるか否かを示す飽和フラグを入力し、
前記重心補正処理に適用した画素が飽和画素である場合は、前記飽和部合成部の合成結果を選択し、
前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域である場合は、前記エッジ部合成部の合成結果を選択し、
前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域でない場合は、前記平坦部合成部の合成結果を選択する請求項1に記載の画像処理装置。
The pixel composition unit
As a synthesizing unit that executes a synthesizing process between the center-of-gravity correction unit output long exposure pixel and the center of gravity correction unit output short-time exposure pixel,
A flat part synthesis unit that executes a synthesis process adapted to the flat part region;
An edge synthesis unit that executes synthesis processing adapted to the edge region;
A saturation unit synthesis unit that performs synthesis processing adapted to the saturation unit region;
A selection unit that selects a synthesis result of each of the synthesis units and generates a synthesis result image;
The selection unit inputs the edge information and a saturation flag indicating whether a pixel applied to the centroid correction process is a saturated pixel,
If the pixel applied to the centroid correction process is a saturated pixel, select the combined result of the saturated portion combining unit,
If the pixel applied to the centroid correction processing is not a saturated pixel but an edge region, select the synthesis result of the edge synthesis unit,
The image processing apparatus according to claim 1, wherein when the pixel applied to the centroid correction processing is not a saturated pixel and is not an edge region, a synthesis result of the flat portion synthesis unit is selected.
前記平坦部合成部は、前記重心補正部出力長時間露光画素の画素値に応じて変化するブレンド率(α)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、
前記エッジ部合成部は、前記重心補正部出力長時間露光画素の画素値に依存しない固定ブレンド率(β)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、
前記飽和部合成部は、前記重心補正部出力短時間露光画素の画素値を合成結果の画素値として算出する請求項6に記載の画像処理装置。
The flat part synthesizing unit outputs the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure according to a blend ratio (α) that changes according to a pixel value of the centroid correction unit output long-time exposure pixel. Blend the pixel values of the pixels to calculate the resulting pixel value,
The edge synthesizing unit is configured to output the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel according to a fixed blend ratio (β) that does not depend on a pixel value of the centroid correction unit output long-time exposure pixel. To calculate the pixel value of the composite result by blending the pixel values of
The image processing apparatus according to claim 6, wherein the saturation unit combination unit calculates a pixel value of the centroid correction unit output short-time exposure pixel as a pixel value of a combination result.
前記画素合成部は、さらに、
動被写体領域に適応した合成処理を実行する動被写体部合成部を有し、
前記選択部は、前記重心補正処理に適用した画素が動被写体領域であるか否かを示す動被写体検出フラグを入力し、
前記重心補正処理に適用した画素が動被写体領域である場合は、前記動被写体合成部の合成結果を選択する請求項6に記載の画像処理装置。
The pixel composition unit further includes:
A moving subject unit synthesizing unit that performs synthesis processing adapted to the moving subject region;
The selection unit inputs a moving subject detection flag indicating whether a pixel applied to the gravity center correction process is a moving subject region,
The image processing apparatus according to claim 6, wherein when the pixel applied to the center-of-gravity correction process is a moving subject region, a synthesis result of the moving subject synthesis unit is selected.
前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、
前記エッジ検出部は、G画素のみを用いたエッジ検出処理を実行する請求項1に記載の画像処理装置。
The input image is a Bayer array image composed of RGB pixels,
The image processing apparatus according to claim 1, wherein the edge detection unit performs an edge detection process using only G pixels.
長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
前記信号処理部は、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
前記入力画像の特定色高域信号と全色低域信号を生成する配列変換重心補正部と、
前記特定色高域信号と全色低域信号を入力して、特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を生成する画素合成部と、
前記特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数の高ダイナミックレンジ(HDR)画像を生成する相関処理部を有する画像処理装置。
A signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including the long-time exposure pixel and the short-time exposure pixel;
The signal processing unit
An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
An array conversion centroid correction unit that generates a specific color high-frequency signal and an all-color low-frequency signal of the input image;
A pixel synthesizer that inputs the specific color high-frequency signal and the all-color low-frequency signal, and generates a specific color high-frequency high-dynamic range (HDR) signal and an all-color low-frequency high dynamic range (HDR) signal;
Correlation processing for generating the high dynamic range (HDR) image having the same number of pixels as the input image by inputting the specific color high frequency range high dynamic range (HDR) signal and the all color low frequency range high dynamic range (HDR) signal. An image processing apparatus having a unit.
前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、
前記配列変換重心補正部は、前記入力画像のG色高域信号とRGB各色低域信号を生成し、
前記画素合成部は、前記G色高域信号と前記RGB各色低域信号を入力して、G色高域高ダイナミックレンジ(HDR)信号と、RGB各色低域高ダイナミックレンジ(HDR)信号を生成し、
前記前記相関処理部は、前記G色高域高ダイナミックレンジ(HDR)信号と、前記RGB各色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数のベイヤ配列からなる高ダイナミックレンジ(HDR)画像を生成する請求項10に記載の画像処理装置。
The input image is a Bayer array image composed of RGB pixels,
The array conversion center-of-gravity correction unit generates a G color high frequency signal and an RGB color low frequency signal of the input image,
The pixel synthesizing unit inputs the G color high-frequency signal and the RGB color low-frequency signals, and generates a G color high-frequency high dynamic range (HDR) signal and an RGB color low-frequency high dynamic range (HDR) signal. And
The correlation processing unit receives the G color high-frequency high dynamic range (HDR) signal and the RGB low-color high-frequency dynamic range (HDR) signals, and includes a Bayer array having the same number of pixels as the input image. The image processing apparatus according to claim 10, wherein the image processing apparatus generates a high dynamic range (HDR) image.
画像処理装置において実行する画像処理方法であり、
信号処理部が、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行し、
前記信号処理ステップにおいて、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画像処理方法。
An image processing method executed in an image processing apparatus,
The signal processing unit executes a signal processing step of generating an output image by performing pixel value synthesis processing of pixels included in the input image including the long exposure pixels and the short exposure pixels,
In the signal processing step,
Edge detection processing for executing edge detection for each component pixel of the input image and outputting edge information corresponding to each pixel;
The center-of-gravity correction processing for executing the center-of-gravity correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined and outputting the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output
An image processing method for executing a synthesis process of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel generated by the centroid correction unit.
画像処理装置において画像処理を実行させるプログラムであり、
信号処理部に、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行させ、
前記信号処理ステップにおいて、
前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行させるプログラム。
A program for executing image processing in an image processing apparatus;
Causing the signal processing unit to execute a signal processing step of generating an output image by performing pixel value synthesis processing of pixels included in the input image including the long exposure pixels and the short exposure pixels;
In the signal processing step,
Edge detection processing for executing edge detection for each component pixel of the input image and outputting edge information corresponding to each pixel;
The center-of-gravity correction processing for executing the center-of-gravity correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined and outputting the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output
A program for executing a synthesis process of the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output short-time exposure pixel generated by the barycentric correction unit.
JP2012180530A 2012-08-16 2012-08-16 Image processing device, image processing method, and program Pending JP2014039170A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012180530A JP2014039170A (en) 2012-08-16 2012-08-16 Image processing device, image processing method, and program
PCT/JP2013/067455 WO2014027511A1 (en) 2012-08-16 2013-06-26 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012180530A JP2014039170A (en) 2012-08-16 2012-08-16 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2014039170A true JP2014039170A (en) 2014-02-27

Family

ID=50286981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180530A Pending JP2014039170A (en) 2012-08-16 2012-08-16 Image processing device, image processing method, and program

Country Status (2)

Country Link
JP (1) JP2014039170A (en)
WO (1) WO2014027511A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167140A1 (en) * 2015-04-13 2016-10-20 ソニーセミコンダクタソリューションズ株式会社 Image-capturing device, image-capturing method, and program
JP2017055333A (en) * 2015-09-11 2017-03-16 セイコーエプソン株式会社 Measuring apparatus, electronic apparatus, and measuring method
WO2017141544A1 (en) * 2016-02-16 2017-08-24 ソニー株式会社 Image processing device, image processing method, and program
JP2017153069A (en) * 2016-02-22 2017-08-31 キヤノン株式会社 Imaging apparatus and playback apparatus
WO2018012051A1 (en) * 2016-07-13 2018-01-18 ソニー株式会社 Solid-state imaging element, imaging device, and control method for solid-state imaging element
CN109429021A (en) * 2017-09-01 2019-03-05 半导体元件工业有限责任公司 For generating the high dynamic range imaging device and method of high dynamic range images
CN110168606A (en) * 2016-06-08 2019-08-23 谷歌有限责任公司 Composograph is generated from physical item
WO2020261815A1 (en) * 2019-06-28 2020-12-30 ソニーセミコンダクタソリューションズ株式会社 Transmission device, reception device, and communication system
WO2022219874A1 (en) * 2021-04-15 2022-10-20 ソニーセミコンダクタソリューションズ株式会社 Signal processing device and method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911698B2 (en) * 2016-09-30 2021-02-02 Huddly As ISP bias-compensating noise reduction systems and methods
CN115410370A (en) * 2022-08-31 2022-11-29 南京慧尔视智能科技有限公司 Abnormal parking detection method and device, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238126A (en) * 2000-02-22 2001-08-31 Minolta Co Ltd Imaging apparatus and image processing method
JP2008236739A (en) * 2007-02-20 2008-10-02 Kyocera Corp Imaging apparatus and imaging method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167140A1 (en) * 2015-04-13 2016-10-20 ソニーセミコンダクタソリューションズ株式会社 Image-capturing device, image-capturing method, and program
US10677655B2 (en) 2015-09-11 2020-06-09 Seiko Epson Corporation Measuring device, electronic apparatus, and measuring method
JP2017055333A (en) * 2015-09-11 2017-03-16 セイコーエプソン株式会社 Measuring apparatus, electronic apparatus, and measuring method
JP7000861B2 (en) 2016-02-16 2022-02-04 ソニーグループ株式会社 How to operate image processing equipment and medical equipment and programs
US10523874B2 (en) 2016-02-16 2019-12-31 Sony Corporation Image processing apparatus, image processing method, and program
JPWO2017141544A1 (en) * 2016-02-16 2018-12-13 ソニー株式会社 Image processing apparatus, image processing method, and program
WO2017141544A1 (en) * 2016-02-16 2017-08-24 ソニー株式会社 Image processing device, image processing method, and program
JP2017153069A (en) * 2016-02-22 2017-08-31 キヤノン株式会社 Imaging apparatus and playback apparatus
CN110168606A (en) * 2016-06-08 2019-08-23 谷歌有限责任公司 Composograph is generated from physical item
CN110168606B (en) * 2016-06-08 2023-09-26 谷歌有限责任公司 Method and system for generating composite image of physical object
US10652476B2 (en) 2016-07-13 2020-05-12 Sony Corporation Solid-state image pickup element, image pickup apparatus, and control method of solid-state image pickup element
WO2018012051A1 (en) * 2016-07-13 2018-01-18 ソニー株式会社 Solid-state imaging element, imaging device, and control method for solid-state imaging element
CN109429021A (en) * 2017-09-01 2019-03-05 半导体元件工业有限责任公司 For generating the high dynamic range imaging device and method of high dynamic range images
CN109429021B (en) * 2017-09-01 2022-10-28 半导体元件工业有限责任公司 High dynamic range imaging apparatus and method for generating high dynamic range image
WO2020261815A1 (en) * 2019-06-28 2020-12-30 ソニーセミコンダクタソリューションズ株式会社 Transmission device, reception device, and communication system
US12041344B2 (en) 2019-06-28 2024-07-16 Sony Semiconductor Solutions Corporation Transmitting apparatus, receiving apparatus, and transmission system
WO2022219874A1 (en) * 2021-04-15 2022-10-20 ソニーセミコンダクタソリューションズ株式会社 Signal processing device and method, and program

Also Published As

Publication number Publication date
WO2014027511A1 (en) 2014-02-20

Similar Documents

Publication Publication Date Title
WO2014027511A1 (en) Image processing device, image processing method, and program
JP5935876B2 (en) Image processing apparatus, imaging device, image processing method, and program
US9560290B2 (en) Image processing including image correction
US9288399B2 (en) Image processing apparatus, image processing method, and program
JP3838243B2 (en) Image processing method, image processing apparatus, and computer program
JP6434963B2 (en) Image processing apparatus, image processing method, electronic device, and program
US8547451B2 (en) Apparatus and method for obtaining high dynamic range image
US8798395B2 (en) Image processing apparatus, image processing method, and program
JP5016715B2 (en) Multi-exposure pattern to improve image dynamic range
JP5367640B2 (en) Imaging apparatus and imaging method
JP6446790B2 (en) Image processing apparatus, imaging apparatus, image correction method, and program
CN110365961B (en) Image demosaicing device and method
JP5589446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6312487B2 (en) Image processing apparatus, control method therefor, and program
JP2012235332A (en) Imaging apparatus, imaging apparatus control method and program
KR20120102509A (en) Image processing apparatus and image processing method and program
CA2827605A1 (en) Image pickup apparatus, method of controlling image pickup apparatus, and program
JP2014030073A (en) Image processing apparatus, image processing method, and program
WO2018230119A1 (en) Imaging device, imaging element and image processing method
US9892497B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6087612B2 (en) Image processing apparatus and image processing method
JP6887853B2 (en) Imaging device, its control method, program
WO2016167140A1 (en) Image-capturing device, image-capturing method, and program
JP2015041984A (en) Image processing apparatus and image processing method
JP5814610B2 (en) Image processing apparatus, control method therefor, and program