JP5123137B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5123137B2
JP5123137B2 JP2008271065A JP2008271065A JP5123137B2 JP 5123137 B2 JP5123137 B2 JP 5123137B2 JP 2008271065 A JP2008271065 A JP 2008271065A JP 2008271065 A JP2008271065 A JP 2008271065A JP 5123137 B2 JP5123137 B2 JP 5123137B2
Authority
JP
Japan
Prior art keywords
pixel
output
filter
color
saturated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008271065A
Other languages
Japanese (ja)
Other versions
JP2009201094A (en
Inventor
賢二 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008271065A priority Critical patent/JP5123137B2/en
Priority to CN2009100035885A priority patent/CN101494797B/en
Publication of JP2009201094A publication Critical patent/JP2009201094A/en
Application granted granted Critical
Publication of JP5123137B2 publication Critical patent/JP5123137B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置および撮像方法に関し、特に撮影画像のダイナミックレンジを拡大することができる撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method such as a digital still camera and a digital video camera, and more particularly to an imaging apparatus and an imaging method that can expand a dynamic range of a captured image.

銀塩写真フィルムを用いる従来の銀塩カメラで撮影される画像のダイナミックレンジに比べ、CCD等の固体撮像素子を有するデジタルスチルカメラやデジタルビデオカメラ等で撮影される画像のダイナミックレンジは極めて狭い。ダイナミックレンジが狭いと、被写体の暗い部分は「黒つぶれ」といわれる現象が発生し、逆に被写体の明るい部分は「白とび」といわれる現象が発生して画像品質が低下する。   Compared to the dynamic range of images taken with a conventional silver salt camera using a silver salt photographic film, the dynamic range of images taken with a digital still camera or a digital video camera having a solid-state image sensor such as a CCD is extremely narrow. When the dynamic range is narrow, a phenomenon called “blackout” occurs in the dark part of the subject, and conversely, a phenomenon called “overexposure” occurs in the bright part of the subject, and the image quality deteriorates.

そこで、CCD等の固体撮像素子で撮像される画像のダイナミックレンジを拡大するために、例えば、同一被写体に対して露光量を変えて複数回の撮影を行い、露光量の異なる複数の画像を取得し、これらの画像を加算してダイナミックレンジが拡大された合成画像を生成する技術が従来より知られている(例えば、特許文献1参照)。
特開2000−92378号公報
Therefore, in order to expand the dynamic range of an image captured by a solid-state imaging device such as a CCD, for example, the same subject is shot multiple times with different exposure amounts to obtain a plurality of images with different exposure amounts. A technique for adding these images to generate a composite image with an expanded dynamic range has been known (see, for example, Patent Document 1).
JP 2000-92378 A

ところで、ダイナミックレンジを拡大するために、前記特許文献1のように露光量を変えて複数回の撮影を行う方法では、移動物体の被写体を撮影したりすると、被写体が2重にずれた画像になり、正しく画像を合成できないことがある。   By the way, in order to expand the dynamic range, in the method of performing photographing a plurality of times while changing the exposure amount as in the above-mentioned Patent Document 1, when photographing a moving object, the subject is doubled. Therefore, the image may not be synthesized correctly.

そこで、本発明は、露光量を変え複数回の撮影を行って画像を合成することなく、1回の撮影によってダイナミックレンジを拡大することができる撮像装置および撮像方法を提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging apparatus and an imaging method capable of expanding the dynamic range by one shooting without changing the exposure amount and performing a plurality of shootings to combine images. .

前記目的を達成するために請求項1に記載の発明は、光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子と、前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理手段と、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理手段と、撮影時における被写体の色温度を検出する色温度検出手段と、色温度に対応して前記色分解フィルタの各色に対する画素出力比率を保存した画素出力比率保存手段と、を備え、前記非飽和画素補正処理手段は、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率を、前記色温度検出手段で検出した色温度に応じて、前記画素出力比率保存手段に保存されている画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の各出力値を補正することを特徴としている。   In order to achieve the above object, according to the first aspect of the present invention, a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and the front side of each pixel is provided. An image sensor in which color separation filters of a plurality of colors are arranged, and a pixel output detection unit that determines whether or not an output from any one of the pixels has reached a predetermined saturation level or more with respect to an output from each of the pixels. When the pixel output detection unit determines that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more, the color other than the specific color around the pixel A saturated pixel correction processing unit that corrects a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from a pixel in which the filter is disposed, and the specific color corrected by the saturated pixel correction processing unit A non-saturated pixel correction processing unit that corrects an output value of a pixel in which the other color filter that is not saturated is arranged around the pixel in which the filter is arranged, and a color that detects the color temperature of the subject at the time of shooting Temperature detection means, and pixel output ratio storage means for storing a pixel output ratio for each color of the color separation filter corresponding to a color temperature, and the non-saturated pixel correction processing means is the saturated pixel correction processing means. The color detected by the color temperature detecting means is the ratio between the corrected output value of the pixel in which the filter of the specific color is arranged and the output value of the pixel in which the filter of the other color around the pixel is arranged According to the temperature, each output value of the pixel in which the filter of the other color is arranged is corrected so as to be the same as the pixel output ratio stored in the pixel output ratio storage unit.

請求項2に記載の発明は、前記色温度検出手段は、前記撮像素子の全画素の受光面に対応した画面を縦横に複数に分割した領域毎における、前記特定色のフィルタ及びその周囲の前記他の色のフィルタが配置された各画素からの出力値の比率に応じて撮影時での被写体の光源の色温度を決定することを特徴としている。   According to a second aspect of the present invention, the color temperature detection unit includes the filter of the specific color and the surroundings in each of the areas obtained by dividing the screen corresponding to the light receiving surfaces of all the pixels of the image sensor into a plurality of vertical and horizontal areas. It is characterized in that the color temperature of the light source of the subject at the time of shooting is determined according to the ratio of the output values from each pixel in which filters of other colors are arranged.

請求項3に記載の発明は、撮影時の光源に応じてホワイトバランスを合わせるための補正係数を算出する補正係数算出手段をさらに備え、前記補正係数算出手段は、前記特定色のフィルタ及びその周囲の前記他の色のフィルタが配置された各画素から出力される出力値の比率に基づいて前記補正係数を算出することを特徴としている。   The invention according to claim 3 further includes correction coefficient calculation means for calculating a correction coefficient for adjusting white balance according to a light source at the time of photographing, wherein the correction coefficient calculation means includes the filter of the specific color and its surroundings. The correction coefficient is calculated based on a ratio of output values output from the pixels in which the other color filters are arranged.

請求項4に記載の発明は、光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子と、前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理手段と、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理手段と、色温度に対応して前記色分解フィルタの各色に対する画素出力比率を保存した画素出力比率保存手段と、を備え、前記非飽和画素補正処理手段は、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率を、前記画素出力比率保存手段に保存されている画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の各出力値を補正することを特徴としている。   According to a fourth aspect of the present invention, a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are provided on the front side of each pixel. A pixel output detecting unit that determines whether or not an output from any of the pixels has reached a predetermined saturation level or more with respect to the output from each of the pixels; and the pixel output detecting unit. When it is determined that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more, the pixel in which a filter of a color other than the specific color is arranged around the pixel An image in which a saturated pixel correction processing unit that corrects a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from the image and a filter of the specific color corrected by the saturated pixel correction processing unit is arranged. The pixel output ratio for each color of the color separation filter corresponding to the color temperature, and a non-saturated pixel correction processing means for correcting an output value of a pixel in which the other color filters that are not saturated are arranged. A non-saturated pixel correction processing unit, wherein the non-saturated pixel correction processing unit includes an output value of the pixel in which the filter of the specific color corrected by the saturated pixel correction processing unit is arranged, and surroundings of the pixel The filter of the other color is arranged so that the ratio of the output value of the pixel in which the filter of the other color is arranged is the same as the pixel output ratio stored in the pixel output ratio storage means It is characterized by correcting each output value of the pixel.

請求項5に記載の発明は、光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子と、前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理手段と、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理手段と、前記撮像素子の全画素の受光面に対応した画面を縦横に複数に分割した領域毎における出力の比率を算出する画素出力比率算出手段と、を備え、前記非飽和画素補正処理手段は、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率が、前記画素出力比率算出手段で算出された画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の出力値を補正することを特徴としている。   According to a fifth aspect of the present invention, a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are provided on the front side of each pixel. A pixel output detecting unit that determines whether or not an output from any of the pixels has reached a predetermined saturation level or more with respect to the output from each of the pixels; and the pixel output detecting unit. When it is determined that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more, the pixel in which a filter of a color other than the specific color is arranged around the pixel An image in which a saturated pixel correction processing unit that corrects a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from the image and a filter of the specific color corrected by the saturated pixel correction processing unit is arranged. A non-saturated pixel correction processing unit that corrects an output value of a pixel around which a filter of the other color that is not saturated is arranged, and a plurality of screens corresponding to the light receiving surfaces of all the pixels of the image sensor vertically and horizontally A pixel output ratio calculating unit that calculates a ratio of output in each divided area, and the non-saturated pixel correction processing unit includes the filter of the specific color corrected by the saturated pixel correction processing unit The ratio of the output value of the pixel and the output value of the pixel in which the filter of the other color around the pixel is arranged is the same as the pixel output ratio calculated by the pixel output ratio calculating unit. It is characterized in that the output value of a pixel in which filters of other colors are arranged is corrected.

請求項6および請求項に記載の発明は、前記各画素の出力を検出する際の処理単位は、水平・垂直方向に2×2画素の大きさであることを特徴としている。 The inventions according to claims 6 and 8 are characterized in that the processing unit when detecting the output of each pixel is 2 × 2 pixels in the horizontal and vertical directions.

請求項に記載の発明は、光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子を備えた撮像装置の撮像方法において、前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する判定処理ステップと、前記判定処理ステップにより、前記特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理ステップと、前記飽和画素補正処理ステップで補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理ステップと、前記撮像素子の全画素の受光面に対応した画面を縦横に複数に分割した領域毎における出力の比率を算出する画素出力比率算出ステップと、を含み、前記非飽和画素補正処理ステップは、前記飽和画素補正処理ステップで補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率が、前記画素出力比率算出ステップで算出された画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の出力値を補正することを特徴としている。 According to the seventh aspect of the present invention, a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electric signal, and a plurality of color separation filters are provided on the front side of each pixel. In an imaging method of an imaging apparatus including an image sensor arranged, a determination processing step for determining whether an output from any pixel has reached a predetermined saturation level or higher with respect to an output from each pixel; When the determination processing step determines that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more, the color other than the specific color around the pixel A saturation pixel correction processing step for correcting a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from a pixel in which the filter is disposed, and the saturation pixel correction processing step. A non-saturated pixel correction processing step for correcting an output value of a pixel in which the filter of the other color that is not saturated is arranged around the pixel in which the filter of the specific color that has been corrected is arranged; A pixel output ratio calculating step for calculating a ratio of output in each region obtained by dividing a screen corresponding to the light receiving surface of all pixels into a plurality of vertical and horizontal directions, and the unsaturated pixel correction processing step includes the saturated pixel correction processing step. In the pixel output ratio calculation step, the ratio between the output value of the pixel in which the filter of the specific color corrected in step S3 is arranged and the output value of the pixel in which the filter of the other color around the pixel is arranged is calculated. The output value of the pixel in which the filter of the other color is arranged is corrected so as to be the same as the pixel output ratio.

本発明によれば、特定色のフィルタが配置された画素からの出力が所定の飽和レベル以上に達していると判定した場合に、その周囲の飽和していない他の色のフィルタが配置された画素からの出力に基づいて、飽和レベル以上領域における画素出力を補正してダイナミックレンジを拡大することにより、露光量を変え複数回の撮影を行って画像を合成することなく、1回の撮影によって撮像素子のダイナミックレンジを拡大することができる。   According to the present invention, when it is determined that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more, the filter of another color that is not saturated is arranged around the output. Based on the output from the pixel, the pixel output in the region above the saturation level is corrected to expand the dynamic range, thereby changing the exposure amount and performing a plurality of shootings without synthesizing the image. The dynamic range of the image sensor can be expanded.

更に、飽和レベル以上に達した特定色のフィルタが配置された画素の出力を補正した場合でも、その画素の周囲の飽和レベルに達していない他の色のフィルタが配置された画素との出力バランスがくずれるのを防止することができるので、色相(色合い)のずれによる違和感をなくすことができる。   Furthermore, even when the output of a pixel in which a filter of a specific color that has reached a saturation level or higher is corrected, the output balance with a pixel in which a filter of another color that has not reached the saturation level around that pixel is arranged Since it is possible to prevent the image from being lost, it is possible to eliminate a sense of incongruity due to a shift in hue (hue).

以下、本発明を図示の実施形態に基づいて説明する。
〈実施形態1〉
図1(a)は、本発明の実施形態1に係る撮像装置の一例としてのデジタルスチルカメラ(以下、「デジタルカメラ」という)を示す正面図、図1(b)は、その上面図、図1(c)は、その背面図、図2は、図1(a),(b),(c)に示したデジタルカメラ内のシステム構成の概要を示すブロック図である。
Hereinafter, the present invention will be described based on the illustrated embodiments.
<Embodiment 1>
FIG. 1A is a front view showing a digital still camera (hereinafter referred to as “digital camera”) as an example of an imaging apparatus according to Embodiment 1 of the present invention, and FIG. 1 (c) is a rear view thereof, and FIG. 2 is a block diagram showing an outline of a system configuration in the digital camera shown in FIGS. 1 (a), (b), and (c).

(デジタルカメラの外観構成)
図1(a),(b),(c)に示すように、本実施形態に係るデジタルカメラ1の上面側には、レリーズボタン(シャッタボタン)2、電源ボタン3、撮影・再生切替ダイアル4が設けられており、デジタルカメラ1の正面(前面)側には、撮影レンズ系5を有する鏡胴ユニット6、ストロボ発光部(フラッシュ)7、光学ファインダ8が設けられている。
(Appearance structure of digital camera)
As shown in FIGS. 1A, 1B, and 1C, a release button (shutter button) 2, a power button 3, a shooting / playback switching dial 4 are provided on the upper surface side of the digital camera 1 according to the present embodiment. In the front (front) side of the digital camera 1, a lens barrel unit 6 having a photographing lens system 5, a strobe light emitting unit (flash) 7, and an optical viewfinder 8 are provided.

デジタルカメラ1の背面側には、液晶モニタ(LCD)9、前記光学ファインダ8の接眼レンズ部8a、広角側ズーム(W)スイッチ10、望遠側ズーム(T)スイッチ11、メニュー(MENU)ボタン12、確定ボタン(OKボタン)13等が設けられている。また、デジタルカメラ1の側面内部には、撮影した画像データを保存するためのメモリカード14(図2参照)を収納するメモリカード収納部15が設けられている。   On the back side of the digital camera 1, there are a liquid crystal monitor (LCD) 9, an eyepiece 8 a of the optical viewfinder 8, a wide-angle zoom (W) switch 10, a telephoto zoom (T) switch 11, and a menu (MENU) button 12. , A confirmation button (OK button) 13 and the like are provided. Further, a memory card storage unit 15 for storing a memory card 14 (see FIG. 2) for storing captured image data is provided inside the side surface of the digital camera 1.

(デジタルカメラのシステム構成)
図2に示すように、このデジタルカメラ1は、鏡胴ユニット6の撮影レンズ系5を通して入射される被写体画像が受光面上に結像する固体撮像素子としてのCCD20、CCD20から出力される電気信号(アナログRGB画像信号)をデジタル信号に処理するアナログフロントエンド部(以下、「AFE部」という)21、AFE部21から出力されるデジタル信号を処理する信号処理部22、データを一時的に格納するSDRAM23、制御プログラム等が記憶されたROM24、鏡胴ユニット6を駆動するモータドライバ25等を有している。
(Digital camera system configuration)
As shown in FIG. 2, the digital camera 1 includes a CCD 20 serving as a solid-state imaging device on which a subject image incident through a photographing lens system 5 of a lens barrel unit 6 forms an image on a light receiving surface, and electrical signals output from the CCD 20. An analog front-end unit (hereinafter referred to as “AFE unit”) 21 that processes (analog RGB image signal) into a digital signal, a signal processing unit 22 that processes a digital signal output from the AFE unit 21, and temporarily stores data SDRAM 23 for controlling, ROM 24 for storing a control program, a motor driver 25 for driving the lens barrel unit 6 and the like.

鏡胴ユニット6は、ズームレンズやフォーカスレンズ等を有する撮影レンズ系5、絞りユニット26、メカシャッタユニット27を備えており、撮影レンズ系5、絞りユニット26、メカシャッタユニット27の各駆動ユニットは、モータドライバ25によって駆動される。モータドライバ25は、信号処理部22の制御部(CPU)28からの駆動信号により駆動制御される。   The lens barrel unit 6 includes a photographic lens system 5 having a zoom lens, a focus lens, and the like, an aperture unit 26, and a mechanical shutter unit 27. The drive units of the photographic lens system 5, the aperture unit 26, and the mechanical shutter unit 27 are as follows. It is driven by the motor driver 25. The motor driver 25 is driven and controlled by a drive signal from a control unit (CPU) 28 of the signal processing unit 22.

CCD20は、図3に示すように、CCD20を構成する複数の画素20a上にベイヤ配列のRGB原色フィルタ(以下、「RGBフィルタ」という)が配置されており、各画素からRGB3原色に対応した電気信号(アナログRGB画像信号)が出力される。   As shown in FIG. 3, the CCD 20 has a Bayer array RGB primary color filter (hereinafter referred to as “RGB filter”) arranged on a plurality of pixels 20 a constituting the CCD 20. A signal (analog RGB image signal) is output.

AFE部21は、CCD20を駆動するTG(タイミング信号発生部)30、CCD20から出力される電気信号(アナログRGB画像信号)をサンプリングするCDS(相関2重サンプリング部)31、CDS31にてサンプリングされた信号のゲインを調整するAGC(アナログ利得制御部)32、AGC32でゲイン調整された信号をデジタル信号(以下、「RAW−RGBデータ」という)に変換するA/D変換部33を備えている。   The AFE unit 21 is sampled by a TG (timing signal generating unit) 30 that drives the CCD 20, a CDS (correlated double sampling unit) 31 that samples an electrical signal (analog RGB image signal) output from the CCD 20, and the CDS 31. An AGC (analog gain control unit) 32 that adjusts the gain of the signal, and an A / D conversion unit 33 that converts the signal gain-adjusted by the AGC 32 into a digital signal (hereinafter referred to as “RAW-RGB data”).

信号処理部22は、AFE部21のTG30へ画面水平同期信号(HD)と画面垂直同期信号(VD)の出力を行い、これらの同期信号に合わせて、AFE部21のA/D変換部33から出力されるRAW−RGBデータを取り込むCCDインターフェース(以下、「CCDI/F」という)34と、SDRAM23を制御するメモリコントローラ35と、取り込んだRAW−RGBデータを表示や記録が可能なYUV形式の画像データに変換するYUV変換部36と、表示や記録される画像データのサイズに合わせて画像サイズを変更するリサイズ処理部37と、画像データの表示出力を制御する表示出力制御部38と、画像データをJPEG形成などで記録するためのデータ圧縮部39と、画像データをメモリカード14へ書き込み、又はメモリカード14に書き込まれた画像データを読み出すメディアインターフェース(以下、「メディアI/F」という)40と、操作部41からの操作入力情報に基づき、ROM24に記憶された制御プログラムに基づいてデジタルカメラ1全体のシステム制御等を行う制御部(CPU)28を備えている。   The signal processing unit 22 outputs a screen horizontal synchronization signal (HD) and a screen vertical synchronization signal (VD) to the TG 30 of the AFE unit 21, and an A / D conversion unit 33 of the AFE unit 21 in accordance with these synchronization signals. CCD interface (hereinafter referred to as “CCD I / F”) 34 that captures RAW-RGB data output from the CPU, a memory controller 35 that controls the SDRAM 23, and a YUV format that can display and record the captured RAW-RGB data. A YUV conversion unit 36 for converting to image data, a resizing processing unit 37 for changing the image size in accordance with the size of image data to be displayed or recorded, a display output control unit 38 for controlling display output of the image data, and an image A data compression unit 39 for recording data by JPEG formation and the like, and writing image data to the memory card 14; A digital camera based on a control program stored in the ROM 24 based on a media interface (hereinafter referred to as “media I / F”) 40 for reading image data written in the memory card 14 and operation input information from the operation unit 41. 1 is provided with a control unit (CPU) 28 for performing overall system control and the like.

操作部41は、デジタルカメラ1(図1(a),(b),(c)参照)の外観表面に設けられているレリーズボタン2、電源ボタン3、撮影・再生切替ダイアル4、広角側ズームスイッチ10、望遠側ズームスイッチ11、メニューボタン12、確定ボタン13等であり、撮影者の操作によって所定の動作指示信号が制御部28に入力される。   The operation unit 41 includes a release button 2, a power button 3, a shooting / playback switching dial 4, and a wide-angle zoom provided on the external surface of the digital camera 1 (see FIGS. 1A, 1B, and 1C). The switch 10, the telephoto zoom switch 11, the menu button 12, the confirm button 13, and the like, and a predetermined operation instruction signal is input to the control unit 28 by the photographer's operation.

SDRAM23には、CCDI/F34に取り込まれたRAW−RGBデータが保存されると共に、YUV変換部36で変換処理されたYUVデータ(YUV形式の画像データ)が保存され、更に、データ圧縮部39で圧縮処理されたJPEG形成などの画像データが保存される。   The SDRAM 23 stores the RAW-RGB data captured by the CCD I / F 34, and stores the YUV data (YUV format image data) converted by the YUV conversion unit 36. Further, the SDRAM 23 stores the RAW-RGB data. The compressed image data such as JPEG formation is stored.

なお、前記YUVデータのYUVは、輝度データ(Y)と、色差(輝度データと青色(B)成分データの差分(U)と、輝度データと赤色(R)成分データの差分(V))の情報で色を表現する形式である。   Note that YUV of the YUV data is luminance data (Y), color difference (difference (U) between luminance data and blue (B) component data, and difference (V) between luminance data and red (R) component data). It is a format that expresses color with information.

(デジタルカメラのモニタリング動作、静止画撮影動作)
次に、前記したデジタルカメラ1のモニタリング動作と静止画撮影動作について説明する。このデジタルカメラ1は、静止画撮影モード時には、以下に説明するようなモニタリング動作を実行しながら静止画撮影動作が行われる。
(Digital camera monitoring and still image shooting)
Next, the monitoring operation and still image shooting operation of the digital camera 1 will be described. In the still image shooting mode, the digital camera 1 performs a still image shooting operation while executing a monitoring operation as described below.

先ず、撮影者が電源ボタン3をONし、撮影・再生切替ダイアル4を撮影モードに設定することで、デジタルカメラ1が記録モードで起動する。電源ボタン3がONされて、撮影・再生切替ダイアル4が撮影モードに設定されたことを制御部28が検知すると、制御部28はモータドライバ25に制御信号を出力して、鏡胴ユニット6を撮影可能位置に移動させ、かつ、CCD20、AFE部21、信号処理部22、SDRAM23、ROM24、液晶モニタ9等を起動させる。   First, when the photographer turns on the power button 3 and sets the photographing / playback switching dial 4 to the photographing mode, the digital camera 1 is activated in the recording mode. When the control unit 28 detects that the power button 3 is turned on and the shooting / playback switching dial 4 is set to the shooting mode, the control unit 28 outputs a control signal to the motor driver 25 to switch the lens barrel unit 6. The camera 20 is moved to a photographing position and the CCD 20, the AFE unit 21, the signal processing unit 22, the SDRAM 23, the ROM 24, the liquid crystal monitor 9 and the like are activated.

そして、鏡胴ユニット6の撮影レンズ系5を被写体に向けることにより、撮影レンズ系5を通して入射される被写体画像がCCD20の各画素の受光面上に結像する。そして、CCD20から出力される被写体画像に応じた電気信号(アナログRGB画像信号)は、CDS31、AGC32を介してA/D変換部33に入力され、A/D変換部33により12ビット(bit)のRAW−RGBデータに変換する。   Then, by directing the photographic lens system 5 of the lens barrel unit 6 toward the subject, a subject image incident through the photographic lens system 5 is formed on the light receiving surface of each pixel of the CCD 20. Then, an electrical signal (analog RGB image signal) corresponding to the subject image output from the CCD 20 is input to the A / D conversion unit 33 via the CDS 31 and the AGC 32, and 12 bits (bit) by the A / D conversion unit 33. To RAW-RGB data.

このRAW−RGBデータは、信号処理部22のCCDI/F34に取り込まれてメモリコントローラ35を介してSDRAM23に保存される。そして、SDRAM23から読み出されたRAW−RGBデータは、YUV変換部36で表示可能な形式であるYUVデータ(YUV信号)に変換された後に、メモリコントローラ35を介してSDRAM23にYUVデータが保存される。   This RAW-RGB data is taken into the CCD I / F 34 of the signal processing unit 22 and stored in the SDRAM 23 via the memory controller 35. The RAW-RGB data read from the SDRAM 23 is converted into YUV data (YUV signal) in a format that can be displayed by the YUV converter 36, and then the YUV data is stored in the SDRAM 23 via the memory controller 35. The

そして、SDRAM23からメモリコントローラ35を介して読み出したYUVデータは、表示出力制御部38を介して液晶モニタ(LCD)9へ送られ、撮影画像が表示される。前記した液晶モニタ(LCD)9に撮影画像を表示しているモニタリング時においては、CCDI/F34による画素数の間引き処理により1/30秒の時間で1フレームを読み出している。   The YUV data read from the SDRAM 23 via the memory controller 35 is sent to the liquid crystal monitor (LCD) 9 via the display output control unit 38, and a captured image is displayed. At the time of monitoring in which a photographed image is displayed on the liquid crystal monitor (LCD) 9 described above, one frame is read out in a time of 1/30 second by thinning out the number of pixels by the CCD I / F 34.

なお、このモニタリング動作時は、電子ファインダとして機能する液晶モニタ(LCD)9に撮影画像が表示されているだけで、まだレリーズボタン2が押圧(半押も含む)操作されていない状態である。   In this monitoring operation, the photographed image is only displayed on the liquid crystal monitor (LCD) 9 functioning as an electronic viewfinder, and the release button 2 is not yet pressed (including half-pressed).

この撮影画像の液晶モニタ(LCD)9への表示によって、撮影画像を撮影者が確認することができる。なお、表示出力制御部38からTVビデオ信号として出力して、ビデオケーブルを介して外部のTV(テレビ)に撮影画像を表示することもできる。   The photographer can confirm the photographed image by displaying the photographed image on the liquid crystal monitor (LCD) 9. In addition, it can output as a TV video signal from the display output control part 38, and can display a picked-up image on external TV (television) via a video cable.

そして、信号処理部22のCCDI/F34は、取り込まれたRAW−RGBデータより、AF(自動合焦)評価値、AE(自動露出)評価値、AWB(オートホワイトバランス)評価値を算出する。   The CCD I / F 34 of the signal processing unit 22 calculates an AF (automatic focus) evaluation value, an AE (automatic exposure) evaluation value, and an AWB (auto white balance) evaluation value from the captured RAW-RGB data.

AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ系5内の各フォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。   The AF evaluation value is calculated by, for example, the output integrated value of the high frequency component extraction filter or the integrated value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By utilizing this, at the time of AF operation (at the time of focus detection operation), an AF evaluation value at each focus lens position in the photographing lens system 5 is acquired, and the point where the maximum is obtained is used as the focus detection position for AF. The action is executed.

AE評価値とAWB評価値は、RAW−RGBデータにおけるRGB値のそれぞれの積分値から算出される。例えば、CCD20の全画素の受光面に対応した画面を1024エリアに等分割(水平32分割、垂直32分割)し、それぞれのエリアのRGB積算を算出する。   The AE evaluation value and the AWB evaluation value are calculated from the integrated values of the RGB values in the RAW-RGB data. For example, the screen corresponding to the light receiving surfaces of all the pixels of the CCD 20 is equally divided into 1024 areas (horizontal 32 divisions and vertical 32 divisions), and the RGB integration of each area is calculated.

そして、制御部28は、算出されたRGB積算値を読み出し、AE処理では、画面のそれぞれのエリアの輝度を算出して、輝度分布から適正な露光量を決定する。決定した露光量に基づいて、露光条件(CCD20の電子シャッタ回数、絞りユニット26の絞り値等)を設定する。また、AWB処理では、RGBの分布から被写体色や光源色を判定し、光源の色に合わせたAWBの制御値を決定する。このAWB処理により、YUV変換部36でYUVデータに変換処理するときのホワイトバランスを合わせる。なお、前記したAE処理とAWB処理は、前記モニタリング時には連続的に行われている。   Then, the control unit 28 reads the calculated RGB integrated value, and in the AE process, calculates the luminance of each area of the screen and determines an appropriate exposure amount from the luminance distribution. Based on the determined exposure amount, exposure conditions (the number of electronic shutters of the CCD 20, the aperture value of the aperture unit 26, etc.) are set. In the AWB process, the subject color and the light source color are determined from the RGB distribution, and the AWB control value according to the color of the light source is determined. By this AWB process, white balance is adjusted when the YUV conversion unit 36 performs conversion to YUV data. The AE process and AWB process described above are continuously performed during the monitoring.

そして、前記したモニタリング動作時に、レリーズボタン2が押圧(半押しから全押し)操作されて静止画撮影動作が開始されると、合焦位置検出動作であるAF動作と静止画記録処理が行われる。   When the release button 2 is pressed (half-pressed to full-press) and the still image shooting operation is started during the monitoring operation described above, the AF operation and the still image recording process that are the focus position detection operations are performed. .

即ち、レリーズボタン2が押圧(半押しから全押し)操作されると、制御部28からモータドライバ25への駆動指令により撮影レンズ系5のフォーカスレンズが移動し、例えば、いわゆる山登りAFと称されるコントラスト評価方式のAF動作が実行される。   That is, when the release button 2 is pressed (half-pressed to full-pressed), the focus lens of the photographing lens system 5 is moved by a drive command from the control unit 28 to the motor driver 25, and is referred to as so-called hill-climbing AF, for example. The contrast evaluation AF operation is executed.

AF(合焦)対象範囲が無限から至近までの全領域であった場合、撮影レンズ系5のフォーカスレンズは、至近から無限、又は無限から至近までの間の各フォーカス位置に移動し、CCDI/F34で算出されている各フォーカス位置における前記AF評価値を制御部28が読み出す。そして、各フォーカス位置のAF評価値が極大になる点を合焦位置としてフォーカスレンズを合焦位置に移動させ、合焦させる。   When the AF (focusing) target range is the entire region from infinity to close, the focus lens of the photographing lens system 5 moves to each focus position from close to infinity, or from infinity to close, and CCDI / The control unit 28 reads out the AF evaluation value at each focus position calculated in F34. Then, the focus lens is moved to the in-focus position with the point where the AF evaluation value at each focus position is maximized as the in-focus position, and in-focus.

そして、前記したAE処理が行われ、露光完了時点で、制御部28からモータドライバ25への駆動指令によりメカシャッタユニット27が閉じられ、CCD20から静止画用のアナログRGB画像信号が出力される。そして、前記モニタリング時と同様に、AFE部21のA/D変換部33によりRAW−RGBデータに変換される。   Then, the AE process described above is performed, and when the exposure is completed, the mechanical shutter unit 27 is closed by a drive command from the control unit 28 to the motor driver 25, and an analog RGB image signal for a still image is output from the CCD 20. As in the monitoring, the A / D conversion unit 33 of the AFE unit 21 converts the data into RAW-RGB data.

そして、このRAW−RGBデータは、信号処理部22のCCDI/F34に取り込まれ、後述するYUV変換部36でYUVデータに変換されて、メモリコントローラ35を介してSDRAM23に保存される。そして、このYUVデータはSDRAM23から読み出されて、リサイズ処理部37で記録画素数に対応するサイズに変換され、データ圧縮部39でJPEG形式等の画像データへと圧縮される。   The RAW-RGB data is taken into the CCD I / F 34 of the signal processing unit 22, converted into YUV data by a YUV conversion unit 36 described later, and stored in the SDRAM 23 via the memory controller 35. The YUV data is read from the SDRAM 23, converted into a size corresponding to the number of recorded pixels by the resizing processing unit 37, and compressed into image data such as JPEG format by the data compression unit 39.

圧縮されたJPEG形式等の画像データは、SDRAM23に書き戻された後にメモリコントローラ35を介してSDRAM23から読み出され、メディアI/F40を介してメモリカード14に保存される。   The compressed image data such as JPEG format is written back to the SDRAM 23, read out from the SDRAM 23 through the memory controller 35, and stored in the memory card 14 through the media I / F 40.

(本発明におけるダイナミックレンジの拡大原理)
デジタルカメラ1のCCD20を構成する各画素上には、ベイヤ配列のRGBフィルタ(図3参照)が配置されているが、太陽光のように広い波長帯域を持つ光に対して、通常のRGBフィルタは各色毎に輝度に対する感度が異なっている。
(Principle of dynamic range expansion in the present invention)
A Bayer-arranged RGB filter (see FIG. 3) is arranged on each pixel constituting the CCD 20 of the digital camera 1, but a normal RGB filter for light having a wide wavelength band such as sunlight. Have different luminance sensitivities for each color.

例えば、図4に示すように、G(グリーン)フィルタの感度が、R(レッド)フィルタ、B(ブルー)フィルタの2倍程度の感度を有するRGBフィルタ(図4のa、b、c)を有するCCD20の場合、太陽光のように広い波長帯域を持つ光が同じだけRGBフィルタに入射したときに、R、Bフィルタの各画素出力に対してGフィルタ(図4のcの斜線部分)の画素出力の方が先に飽和レベルAに達してしまう。なお、図4において、fはGフィルタの画素感度特性、gはR、Bフィルタの各画素感度特性であり、Gフィルタの画素感度特性は、R、Bフィルタの各画素感度特性の2倍程度の感度を有している。   For example, as shown in FIG. 4, an RGB filter (a, b, c in FIG. 4) has a sensitivity of the G (green) filter that is about twice that of an R (red) filter and a B (blue) filter. In the case of the CCD 20 having the same, when the same amount of light having a wide wavelength band such as sunlight is incident on the RGB filter, the G filter (shaded portion in FIG. 4c) is applied to each pixel output of the R and B filters. The pixel output first reaches the saturation level A. In FIG. 4, f is the pixel sensitivity characteristic of the G filter, g is the pixel sensitivity characteristic of the R and B filters, and the pixel sensitivity characteristic of the G filter is about twice the pixel sensitivity characteristics of the R and B filters. It has the sensitivity of.

ところで、RGBフィルタが配置されたCCDなどの固体撮像素子を有する従来のデジタルカメラでは、図4のa、b、cのRGBフィルタのように、感度の高いGフィルタの画素出力に応じた飽和レベルAに合わせてダイナミックレンジの範囲を設定している。このため、Gフィルタの画素出力が飽和レベルAに達している場合でも、R、Bフィルタの画素出力は飽和レベルAの1/2程度である。   By the way, in a conventional digital camera having a solid-state imaging device such as a CCD in which an RGB filter is arranged, a saturation level corresponding to the pixel output of a high-sensitivity G filter, such as the RGB filters of a, b, and c in FIG. The dynamic range is set according to A. For this reason, even when the pixel output of the G filter reaches the saturation level A, the pixel output of the R and B filters is about ½ of the saturation level A.

これに対して、本発明では、図4のd、eのRGBフィルタのように、Gフィルタの画素出力が飽和レベルAを超えていても、R、Bフィルタの各画素出力が飽和レベルAを超えていない範囲内にあるときに、R、Bフィルタの各画素出力レベルから、R、Bフィルタの各画素感度特性(図4のg)とGフィルタの画素感度特性(図4のf)とに基づいてGフィルタの画素出力レベルを予測補間(一点鎖線部分)するように補正し、この予測補間(補正)した分だけダイナミックレンジを拡大するようにした。   On the other hand, in the present invention, even if the pixel output of the G filter exceeds the saturation level A, as in the RGB filters of d and e in FIG. From within the pixel output levels of the R and B filters, the pixel sensitivity characteristics of the R and B filters (g in FIG. 4) and the pixel sensitivity characteristics of the G filter (f in FIG. 4) Based on this, the pixel output level of the G filter is corrected so as to perform prediction interpolation (dotted line portion), and the dynamic range is expanded by this prediction interpolation (correction).

前記したように本実施形態では、太陽光のように広い波長帯域を持つ光に対して、Gフィルタの画素感度特性は、R、Bフィルタの各画素感度特性の2倍程度の感度を有している。よって、本実施形態におけるダイナミックレンジの拡大度合の最大値は、ダイナミックレンジの拡大処理動作を行わない通常の撮影動作時に対して2倍程度である。   As described above, in the present embodiment, the pixel sensitivity characteristic of the G filter has a sensitivity about twice that of each pixel sensitivity characteristic of the R and B filters with respect to light having a wide wavelength band such as sunlight. ing. Therefore, the maximum value of the dynamic range expansion degree in the present embodiment is about twice that of a normal photographing operation in which the dynamic range expansion processing operation is not performed.

なお、本実施形態では、Gフィルタの画素感度特性がR、Bフィルタの各画素感度特性の2倍程度の感度を有し、これに基づいてダイナミックレンジの拡大度合の最大値が2倍としたが、R、G、Bフィルタの各画素感度特性を変化させることにより、ダイナミックレンジの拡大度合の最大値を2倍以上の所定値、あるいは2倍以下の所定値に設定することができる。   In this embodiment, the pixel sensitivity characteristic of the G filter has a sensitivity that is about twice that of the pixel sensitivity characteristics of the R and B filters, and based on this, the maximum value of the degree of expansion of the dynamic range is doubled. However, by changing the pixel sensitivity characteristics of the R, G, and B filters, the maximum value of the degree of expansion of the dynamic range can be set to a predetermined value that is two times or more, or a predetermined value that is two times or less.

(YUV変換部36によるダイナミックレンジ拡大処理)
本実施形態に係るデジタルカメラ1のYUV変換部36は、前記したダイナミックレンジを拡大するためのダイナミックレンジ拡大処理機能を有している。
(Dynamic range expansion processing by the YUV converter 36)
The YUV conversion unit 36 of the digital camera 1 according to the present embodiment has a dynamic range expansion processing function for expanding the dynamic range described above.

図5に示すように、YUV変換部36は、後述するダイナミックレンジ拡大予測補間部(以下、「Dレンジ拡大予測補間部」という)50、ビット圧縮変換部51、ホワイトバランス制御部52、同時化部53、トーン変換部54、RGB−YUV変換部55、画像サイズコンバータ部56、輝度ヒストグラム生成部57、およびエッジエンハンス部58を備えている。   As shown in FIG. 5, the YUV conversion unit 36 includes a dynamic range expansion prediction interpolation unit (hereinafter referred to as “D range expansion prediction interpolation unit”) 50, a bit compression conversion unit 51, a white balance control unit 52, and synchronization described later. A unit 53, a tone conversion unit 54, an RGB-YUV conversion unit 55, an image size converter unit 56, a luminance histogram generation unit 57, and an edge enhancement unit 58.

図6に示すように、Dレンジ拡大予測補間部50は、輝度レベル判定部60、飽和画素補正処理部61、非飽和画素補正処理部62、およびビット拡張処理部63を備えている。   As illustrated in FIG. 6, the D range expansion prediction interpolation unit 50 includes a luminance level determination unit 60, a saturated pixel correction processing unit 61, a non-saturated pixel correction processing unit 62, and a bit extension processing unit 63.

輝度レベル判定部60は、入力されるRAW−RGBデータからRGBフィルタを設けた各画素の画素出力を検出するとともに、感度が一番高いGフィルタを設けた画素の画素出力(以下、「Gフィルタの画素出力」という)が所定の飽和レベル以上に達したか否かを判定する。   The luminance level determination unit 60 detects the pixel output of each pixel provided with the RGB filter from the input RAW-RGB data, and also outputs the pixel output of the pixel provided with the highest sensitivity G filter (hereinafter referred to as “G filter”). It is determined whether or not the “pixel output of” has reached a predetermined saturation level or higher.

飽和画素補正処理部61は、輝度レベル判定部60でGフィルタの画素出力が所定の飽和レベル以上に達したと判定した場合に、そのGフィルタが配置された画素周囲のR、Bフィルタを設けた画素の画素出力(以下、「R、Bフィルタの画素出力」という)によって所定の飽和レベル以上に達しているGフィルタの画素出力の補正(予測補間処理)を行う(詳細は後述する)。非飽和画素補正処理部62は、飽和画素補正処理部61で補正されたGフィルタの画素出力の値に基づいて、そのGフィルタが配置された画素周囲のR、Bフィルタの画素出力を補正する(詳細は後述する)。   When the luminance level determination unit 60 determines that the pixel output of the G filter has reached a predetermined saturation level or higher, the saturated pixel correction processing unit 61 provides R and B filters around the pixel where the G filter is disposed. Correction (prediction interpolation processing) of the pixel output of the G filter that has reached a predetermined saturation level or more is performed by the pixel output of the selected pixel (hereinafter referred to as “R, B filter pixel output”) (details will be described later). Based on the pixel output value of the G filter corrected by the saturated pixel correction processing unit 61, the non-saturated pixel correction processing unit 62 corrects the pixel output of the R and B filters around the pixel where the G filter is arranged. (Details will be described later).

ビット拡張処理部63は、輝度レベル判定部60でGフィルタの画素出力が飽和レベルに達していないと判定された場合に、Gフィルタの画素出力、およびR、Bフィルタの画素出力に対して、出力レベルの補正を行うことなく12ビットから14ビットにそれぞれビット拡張のみを行う。   When the luminance level determination unit 60 determines that the pixel output of the G filter has not reached the saturation level, the bit extension processing unit 63 performs the pixel output of the G filter and the pixel output of the R and B filters. Only bit expansion is performed from 12 bits to 14 bits without correcting the output level.

以下、本実施形態におけるダイナミックレンジの拡大処理動作について説明する。   The dynamic range expansion processing operation in this embodiment will be described below.

例えば、撮影したい被写体の背景の一部に極端に明るい部分があり、ダイナミックレンジを拡大したいときなどに、撮影者がメニューボタン12(図1(C)参照)を押圧操作することにより、例えば、図7に示すような撮影設定画面が液晶モニタ(LCD)9に表示される。   For example, when there is an extremely bright part of the background of the subject to be photographed and the photographer wants to expand the dynamic range, the photographer presses the menu button 12 (see FIG. 1C), for example, A shooting setting screen as shown in FIG. 7 is displayed on a liquid crystal monitor (LCD) 9.

そして、図7に示すように、メニューボタン12の押圧操作により選択された「ダイナミックレンジ2倍」の項目に対し、確定ボタン(図1(C)参照)13を押して「ダイナミックレンジ2倍」を決定する。これにより、ダイナミックレンジ拡大処理動作がONされ、制御部28から輝度レベル判定部60へダイナミックレンジの拡大率を2倍とする制御信号が出力される。   Then, as shown in FIG. 7, with respect to the item “dynamic range doubling” selected by pressing the menu button 12, the confirmation button (see FIG. 1C) 13 is pressed to set “dynamic range doubling”. decide. As a result, the dynamic range expansion processing operation is turned ON, and a control signal for doubling the dynamic range expansion rate is output from the control unit 28 to the luminance level determination unit 60.

なお、本実施形態におけるダイナミックレンジの拡大率は、前記した2倍を最大値として、1.1〜2倍の範囲で任意に設定することが可能である。   Note that the dynamic range expansion ratio in the present embodiment can be arbitrarily set in a range of 1.1 to 2 times, with the above-mentioned double being the maximum value.

そして、制御部28から輝度レベル判定部60へダイナミックレンジの拡大率を2倍とする制御信号が出力されて、ダイナミックレンジ拡大処理動作が実行されると、Dレンジ拡大予測補間部50の輝度レベル判定部60は、入力されるRAW−RGBデータに基づいてGフィルタの画素出力が所定の飽和レベル以上に達したか否かを判定処理する。   When a control signal for doubling the dynamic range expansion rate is output from the control unit 28 to the luminance level determination unit 60 and the dynamic range expansion processing operation is executed, the luminance level of the D range expansion prediction interpolation unit 50 is The determination unit 60 determines whether or not the pixel output of the G filter has reached a predetermined saturation level or more based on the input RAW-RGB data.

この判定処理を行う場合において、本実施形態では、RGBフィルタが設置されたCCD20の各画素に対して、図3に示したように、太枠A内の2×2画素(Gフィルタが2画素、R、Bフィルタがそれぞれ1画素)を処理単位(最小単位)とする。   In the case where this determination process is performed, in the present embodiment, as shown in FIG. 3, 2 × 2 pixels in the thick frame A (2 pixels for the G filter) for each pixel of the CCD 20 in which the RGB filter is installed. , R and B filters are each one pixel) as a processing unit (minimum unit).

この処理単位(太枠A)内にある2つのGフィルタの画素のうちの少なくとも1つの画素出力が所定の飽和レベル以上に達している場合に、Gフィルタの感度は、前記したようにR、Bフィルタの感度の約2倍であるため、Gフィルタの画素出力値(G)は、下記の式(1)から算出する。   When at least one pixel output of two G filter pixels in the processing unit (thick frame A) reaches a predetermined saturation level or higher, the sensitivity of the G filter is R, as described above. Since it is about twice the sensitivity of the B filter, the pixel output value (G) of the G filter is calculated from the following equation (1).

G={(R+B)/2}×2 …式(1)   G = {(R + B) / 2} × 2 Formula (1)

飽和画素補正処理部61は、式(1)のように、R、Bフィルタの画素出力の平均値を算出して、それを2倍することでGフィルタの画素出力値を算出する。算出されたGフィルタの画素出力値は、処理単位(2×2画素)内にある2つのGフィルタの画素出力値として置き換えられる。なお、前記Gフィルタの画素出力値は12ビットを超えたデータになるため、ここでは一度14ビットのデータに置き換える。よって、R、Bフィルタの画素出力の最大値はいずれも4095(12ビット)なので、Gフィルタの画素出力の最大値は8190となることによって、14ビットのデータとして扱うことができる。   The saturated pixel correction processing unit 61 calculates the average value of the pixel outputs of the R and B filters and doubles the average value of the pixel outputs of the R and B filters as shown in the equation (1) to calculate the pixel output value of the G filter. The calculated pixel output values of the G filter are replaced with the pixel output values of the two G filters in the processing unit (2 × 2 pixels). Since the pixel output value of the G filter exceeds 12 bits, it is replaced here with 14-bit data. Therefore, since the maximum value of the pixel output of the R and B filters is 4095 (12 bits), the maximum value of the pixel output of the G filter is 8190, so that it can be handled as 14-bit data.

なお、前記式(1)では、Gフィルタの画素出力値の算出を2×2画素で行っているが、これに限定するものではなく、補正対象のGフィルタの画素周辺のR、Bフィルタの画素をそれぞれn(2以上)個用いて、式(1)と同様にその平均値を算出し、それを2倍するようにしてもよい。   In the equation (1), the calculation of the pixel output value of the G filter is performed with 2 × 2 pixels. However, the present invention is not limited to this, and the R and B filters around the pixel of the correction target G filter are not limited thereto. It is also possible to use n (two or more) pixels, calculate the average value in the same manner as in equation (1), and double the average value.

ところで、前記したように飽和画素補正処理部61で所定の飽和レベル以上に達しているGフィルタの画素出力の補正を行ったときに、飽和したGフィルタの画素出力のみを補正すると、その周囲の飽和していないR、Bフィルタの画素出力とのバランスがくずれて、色相(色合い)がずれてしまう場合がある。そこで、非飽和画素補正処理部62は、飽和画素補正処理部61で補正されたGフィルタの画素出力に応じて、以下のようにR、Bフィルタの画素出力を補正すようにした。   By the way, when the pixel output of the G filter that has reached the predetermined saturation level or higher is corrected by the saturated pixel correction processing unit 61 as described above, if only the pixel output of the saturated G filter is corrected, In some cases, the balance with the pixel outputs of the R and B filters that are not saturated is lost, and the hue (hue) is shifted. Therefore, the non-saturated pixel correction processing unit 62 corrects the R and B filter pixel outputs as follows according to the G filter pixel output corrected by the saturated pixel correction processing unit 61.

図8は、光源の色温度(2000K(ケルビン)以下〜9000K(ケルビン)以上)の違いに対するRGBフィルタの各画素出力の比率の一例を示した特性図である。図8から明らかなように、Gフィルタの画素出力は色温度が変化しても殆ど変化しないが、Rフィルタの画素出力は色温度が低い(赤っぽい光源)ほど大きくなり、Bフィルタの画素出力は色温度が高い(青っぽい光源)ほど大きくなる。   FIG. 8 is a characteristic diagram showing an example of a ratio of each pixel output of the RGB filter with respect to a difference in color temperature of the light source (2000K (Kelvin) or less to 9000K (Kelvin) or more). As apparent from FIG. 8, the pixel output of the G filter hardly changes even when the color temperature changes, but the pixel output of the R filter increases as the color temperature decreases (red light source), and the pixel of the B filter The output increases as the color temperature increases (blue light source).

図8に示したような色温度とRGBフィルタの各画素出力値の比率関係は、RGBフィルタが配置されたCCDに依存している。そこで、デジタルカメラ1に前記RGBフィルタが配置されたCCD20を組み込む際に、このRGBフィルタが配置されたCCD20に応じた図8のような異なる色温度に対するRGBフィルタの各画素出力値の比率関係を示したテーブル(以下、「RGB出力比率テーブル」という)が、ROM24に保存されている。   The ratio relationship between the color temperature and each pixel output value of the RGB filter as shown in FIG. 8 depends on the CCD in which the RGB filter is arranged. Therefore, when the CCD 20 with the RGB filter is incorporated in the digital camera 1, the ratio relationship of the pixel output values of the RGB filter with respect to different color temperatures as shown in FIG. The table shown (hereinafter referred to as “RGB output ratio table”) is stored in the ROM 24.

そして、制御部28は、CCDI/F34から取得したAWB評価値であるRGBの分布から撮影時における被写体の色温度を決定した後、ROM24から前記RGB出力比率テーブルを読み出し、非飽和画素補正処理部62に出力する。このように、本実施形態では、「特許請求範囲」における画素出力比率保存手段がROM24に相当し、色温度検出手段が制御部28に相当する。   Then, the control unit 28 determines the color temperature of the subject at the time of shooting from the RGB distribution that is the AWB evaluation value acquired from the CCD I / F 34, and then reads the RGB output ratio table from the ROM 24, and the unsaturated pixel correction processing unit To 62. Thus, in this embodiment, the pixel output ratio storage means in the “claims” corresponds to the ROM 24, and the color temperature detection means corresponds to the control unit 28.

そして、非飽和画素補正処理部62は、撮影時における被写体の色温度に対する、飽和画素補正処理部61で補正されたGフィルタの画素出力値と該Gフィルタの画素周囲のR、Bフィルタの画素出力値との比率が、前記RGB出力比率テーブルの画素出力比率と同じになるように、R、Bフィルタの画素出力値を補正する。   Then, the non-saturated pixel correction processing unit 62 corrects the pixel output value of the G filter corrected by the saturated pixel correction processing unit 61 with respect to the color temperature of the subject at the time of shooting, and the R and B filter pixels around the pixels of the G filter. The pixel output values of the R and B filters are corrected so that the ratio with the output value is the same as the pixel output ratio in the RGB output ratio table.

なお、輝度レベル判定部60でGフィルタの画素出力が飽和レベルに達していないと判定された場合には、ビット拡張処理部63によりGフィルタの画素出力、およびR、Bフィルタの画素出力に対して、出力レベルの補正を行うことなく12ビットから14ビットにそれぞれビット拡張のみを行う。   When the luminance level determination unit 60 determines that the pixel output of the G filter has not reached the saturation level, the bit expansion processing unit 63 outputs the pixel output of the G filter and the pixel output of the R and B filters. Thus, only bit expansion is performed from 12 bits to 14 bits without correcting the output level.

ところで、輝度レベル判定部60でGフィルタの画素出力が飽和レベル以上に達しているか否かを判定処理する前に、欠陥画素の補正が完了している必要がある。即ち、Gフィルタを設けた画素に欠陥画素があり、常に飽和する値を出力する画素があった場合、同じ処理単位内にあるGフィルタを設けた画素を大きな値に置き換えてしまうため、新たな欠陥画素を生成してしまうことになる。   By the way, before the luminance level determination unit 60 determines whether or not the pixel output of the G filter has reached the saturation level or higher, the correction of the defective pixel needs to be completed. That is, if there is a defective pixel in the pixel provided with the G filter and there is a pixel that always outputs a saturated value, the pixel provided with the G filter in the same processing unit is replaced with a large value. A defective pixel will be generated.

また、R、Bフィルタが配置された画素に欠陥画素がある場合、前記式(1)によるGフィルタを設けた画素の換算が正しくない値になってしまう。このため、本実施形態では、CCDI/F34に欠陥画素の出力を取り除く欠陥画素出力除去処理部(不図示)を備えている。   Further, when a pixel in which the R and B filters are arranged has a defective pixel, the conversion of the pixel provided with the G filter according to the equation (1) becomes an incorrect value. For this reason, in this embodiment, the CCD I / F 34 includes a defective pixel output removal processing unit (not shown) that removes the output of the defective pixel.

そして、Dレンジ拡大予測補間部50の飽和画素補正処理部61、非飽和画素補正処理部62でそれぞれ補正されたRGBフィルタの画素出力値データ、またはビット拡張処理部63でビット拡張されたのみのRGBフィルタの画素出力値データは、ビット圧縮変換部51に出力される。   Then, pixel output value data of the RGB filter corrected by the saturated pixel correction processing unit 61 and the non-saturated pixel correction processing unit 62 of the D range expansion prediction interpolation unit 50 or only bit-extended by the bit expansion processing unit 63, respectively. The pixel output value data of the RGB filter is output to the bit compression conversion unit 51.

ビット圧縮変換部51は、例えば、図9(a)に示すような変換特性(3箇所の節点を指定し、それらの間を直線で近似する4区間の折れ線近似特性)によって、14ビットに拡張されたRGBフィルタの画素出力のうちのGフィルタの画素出力を12ビットに圧縮する。なお、図9(a)において、aは12ビットの範囲であり、bは最大値8190のデータを1/2倍する単純な線形変換特性(一点鎖線部分)である。   The bit compression conversion unit 51 expands to 14 bits by, for example, conversion characteristics as shown in FIG. 9A (four-segment broken line approximation characteristics in which three nodes are designated and approximated by a straight line). Of the RGB filter pixel outputs, the G filter pixel output is compressed to 12 bits. In FIG. 9A, a is a 12-bit range, and b is a simple linear conversion characteristic (one-dot chain line portion) that halves the data of the maximum value 8190.

図9(a)に示す変換特性では、Gフィルタの画素出力の最大値は8190なので、8190が4095になるように圧縮する。そして、Gフィルタの画素出力の圧縮倍率に合わせて、R、Bフィルタの画素出力の値も圧縮する。   In the conversion characteristic shown in FIG. 9A, since the maximum value of the pixel output of the G filter is 8190, compression is performed so that 8190 becomes 4095. Then, the pixel output values of the R and B filters are also compressed in accordance with the compression magnification of the pixel output of the G filter.

前記したように本実施形態では、最大値が8190に拡張されたGフィルタの画素出力を最大値が4095に圧縮する場合の一例として、図9(a)の実線で示したような3つの節点を有する変換特性を用いた。本実施形態では、単純な節点のない線形変換特性(図9(a)のb)では得られない以下のような2つの効果が得られる。   As described above, in this embodiment, as an example of the case where the pixel output of the G filter whose maximum value is expanded to 8190 is compressed to 4095, three nodes as shown by the solid line in FIG. A conversion characteristic with In the present embodiment, the following two effects that cannot be obtained with a linear conversion characteristic without a simple node (b in FIG. 9A) are obtained.

第1の効果としては、データの信頼性が高いデータにより多くのビット数を割り当てることができる。即ち、飽和レベル以上に達しているGフィルタの画素出力に対して予測補間処理する場合、前記したようにGフィルタの画素出力の飽和レベル付近の規定値以上の値になった範囲について補正(予測補間)を行い、この規定値以下の範囲では補正は行われない。よって、補正を行う範囲と行わない範囲とでは、データの精度が異なっている。   As a first effect, a larger number of bits can be assigned to data with high data reliability. That is, when predictive interpolation processing is performed on the pixel output of the G filter that has reached the saturation level or higher, as described above, the range in which the value of the pixel output of the G filter becomes equal to or higher than the specified value near the saturation level is corrected (predicted). Interpolation) is performed, and correction is not performed within the range below this specified value. Therefore, the accuracy of data differs between the range where correction is performed and the range where correction is not performed.

即ち、例えば、前記式(1)によって飽和しているGフィルタの画素出力値を補正(予測補間)する場合、主被写体の色によっては、補正を行う範囲においては被写体の輝度レベルが正確に再現できていない場合がある。これに対して補正を行っていない範囲は、RGBフィルタが配置されたCCD20から出力される実際のデータ(アナログRGB画像信号)をA/D変換したデータであるので、このデータの信頼性は高いものとなる。   That is, for example, when correcting (predicting interpolation) the pixel output value of the G filter that is saturated by the equation (1), the luminance level of the subject is accurately reproduced within the correction range depending on the color of the main subject. It may not be possible. On the other hand, since the range where correction is not performed is data obtained by A / D conversion of actual data (analog RGB image signal) output from the CCD 20 in which the RGB filter is arranged, the reliability of this data is high. It will be a thing.

即ち、図9(a)に示した本実施形態における変換特性(実線で示した部分)では、例えば、入力14ビットデータが1024ときに出力12ビットデータは1024になっており、元のデータがそのまま使われている。これに対し、例えば、入力14ビットデータが3072ときに出力12ビットデータは2560になっており、この範囲では補正前のビット割付よりも少ない割付となることによって、多少のビット誤差が発生する。   That is, in the conversion characteristic (part indicated by the solid line) in this embodiment shown in FIG. 9A, for example, when the input 14-bit data is 1024, the output 12-bit data is 1024, and the original data is It is used as it is. On the other hand, for example, when the input 14-bit data is 3072, the output 12-bit data is 2560, and in this range, the bit allocation is smaller than the bit allocation before correction, so that some bit error occurs.

このように、単純な節点のない線形変換を行う特性(一点鎖線で示した部分)ではなく、本実施形態のように3つの節点を有する変換特性(実線で示した部分)を採用することにより、ビット割付をだんだんと少なくしていくことができるので、データの信頼性が高いデータにより多くのビット数を割り当てることができる。   In this way, by adopting a conversion characteristic (part indicated by a solid line) having three nodes as in this embodiment, instead of a characteristic for performing linear conversion without a simple node (part indicated by a one-dot chain line). Since the bit allocation can be gradually reduced, a larger number of bits can be allocated to data with high data reliability.

そして、第2の効果としては、低・中輝度における階調を正確に保存することができる。即ち、単純な線形変換特性(図9(a)のb)でビット圧縮を行った場合、低輝度側の予測補間が行われていない範囲では、ビット割付が1/4になってしまう。このため、階調感のない画像になってしまう。これに対し、図9(a)に示したような本実施形態における変換特性(実線部分)でビット圧縮を行った場合には、飽和レベル以下で低輝度レベルにおける画素出力に対応したデータに対しては、ビット圧縮変換部51でビット圧縮する前とビット圧縮した後で略同じ値となるような圧縮率を用いることにより、低輝度レベルにおける階調性を良好に保持することができる。   As a second effect, gradations at low and medium luminance can be accurately stored. That is, when bit compression is performed with a simple linear conversion characteristic (b in FIG. 9A), the bit allocation becomes ¼ in a range where predictive interpolation on the low luminance side is not performed. For this reason, the image has no tone. On the other hand, when bit compression is performed with the conversion characteristic (solid line portion) in the present embodiment as shown in FIG. 9A, the data corresponding to the pixel output at the low luminance level below the saturation level is obtained. Thus, by using a compression rate that gives substantially the same value before bit compression by the bit compression conversion unit 51 and after bit compression, it is possible to maintain good gradation at a low luminance level.

なお、本実施形態では、拡張したGフィルタの画素出力の14ビットデータを12ビットに縮小するときに、図9(a)のように3つの節点を指定し、それらの間を直線で近似する4区間の折れ線近似特性(変換特性)でビット圧縮を行う構成であったが、この区間数は特に限定されるものではない。例えば、1つの節点を指定する2区間の折れ線近似特性としてもよいが、節点付近でビット割付が大きく変わることにより、前記した2つの効果が小さくなる。よって、3区間以上の区間数を有する折れ線近似特性(変換特性)が好ましい。   In this embodiment, when the 14-bit data of the pixel output of the expanded G filter is reduced to 12 bits, three nodes are designated as shown in FIG. Although the bit compression is performed with the broken line approximation characteristic (conversion characteristic) of four sections, the number of sections is not particularly limited. For example, it may be a polygonal line approximate characteristic of two sections designating one node, but the above-mentioned two effects are reduced by changing the bit allocation in the vicinity of the node. Therefore, a broken line approximation characteristic (conversion characteristic) having three or more sections is preferable.

また、拡張したGフィルタの画素出力の14ビットデータを12ビットに縮小する変換特性を、図9(b)に示すように、複数の節点を有していない曲線による変換特性としてもよい。即ち、図9(a)の4区間を有する変換特性に対して、区間数を8192にしたものがこの曲線による変換特性となる。なお、図9(b)において、aは12ビットの範囲である。   Further, the conversion characteristic for reducing the 14-bit data of the pixel output of the expanded G filter to 12 bits may be a conversion characteristic by a curve not having a plurality of nodes as shown in FIG. That is, in contrast to the conversion characteristic having four sections in FIG. 9A, the conversion characteristic based on this curve is obtained by setting the number of sections to 8192. In FIG. 9B, a is a 12-bit range.

更に、入力14ビットデータの0〜8192に対して、12ビットに縮小変換後の数値データを持ったルックアップテーブルを設けておくことにより、この曲線による変換特性で、拡張したGフィルタの画素出力の14ビットデータを良好に12ビットに圧縮することができる。   Further, by providing a lookup table having numeric data after reduction conversion to 12 bits for 0 to 8192 of input 14-bit data, the pixel output of the expanded G filter with the conversion characteristics by this curve is provided. The 14-bit data can be successfully compressed to 12 bits.

そして、ビット圧縮変換部51で14ビットから12ビットに圧縮変換されたRGBフィルタの画素出力データは、ホワイトバランス制御部52に入力される。   The pixel output data of the RGB filter that has been compression-converted from 14 bits to 12 bits by the bit compression conversion unit 51 is input to the white balance control unit 52.

ホワイトバランス制御部52は、入力されるRGBフィルタの画素出力値データに対してホワイトバランスを合わせるための補正係数を乗算する。この補正係数は、CCDI/F34で生成された前記AWB評価値に基づいて制御部28で算出される。なお、この補正係数は、光源色を白くするような係数である。このように、本実施形態では、「特許請求範囲」における補正係数算出手段がホワイトバランス制御部52に相当する。   The white balance control unit 52 multiplies the input pixel output value data of the RGB filter by a correction coefficient for adjusting white balance. This correction coefficient is calculated by the control unit 28 based on the AWB evaluation value generated by the CCD I / F 34. The correction coefficient is a coefficient that makes the light source color white. Thus, in the present embodiment, the correction coefficient calculation means in “Claims” corresponds to the white balance control unit 52.

具体的には、図8に示したような異なる色温度に対するRGBフィルタの画素出力値の比率に基づいて、Rフィルタの画素出力値には、補正係数としてのG/R(Gフィルタの画素出力値/Rフィルタの画素出力値)を乗算し、Bフィルタの画素出力値には、補正係数としてのG/B(Gフィルタの画素出力値/Bフィルタの画素出力値)を乗算することによって、RGBフィルタの画素出力値のレベルを合わせる。   Specifically, based on the ratio of the RGB filter pixel output values to different color temperatures as shown in FIG. 8, the R filter pixel output values include G / R (G filter pixel output as a correction coefficient). Value / R filter pixel output value), and the B filter pixel output value is multiplied by G / B (G filter pixel output value / B filter pixel output value) as a correction coefficient. Match the level of the pixel output value of the RGB filter.

ところで、前記したDレンジ拡大予測補間部50の飽和画素補正処理部61、非飽和画素補正処理部62での補正処理により、RGBフィルタの画素出力値の比率は、光源色より決定したRGBフィルタの画素出力値の比率になっている。   By the way, with the correction processing in the saturated pixel correction processing unit 61 and the unsaturated pixel correction processing unit 62 of the D range expansion prediction interpolation unit 50 described above, the ratio of the pixel output values of the RGB filter is determined by the RGB filter determined from the light source color. This is the ratio of the pixel output value.

よって、Dレンジ拡大予測補間部50からの出力にホワイトバランス制御部52で前記補正係数が乗算された出力は、RGBフィルタのレベルが略同じになり、無彩色に近い値となる。なお、RGBフィルタのすべての画素出力値が飽和している画像領域は白とびが生じ、白く飛んでしまう。また、感度の高いGフィルタの画素出力値のみが飽和している画像領域も、輝度が高く入射している光量が大きい可能性が高いため、画素出力の補正対象となる画像領域が無彩色でも違和感は少なくなる。   Therefore, the output obtained by multiplying the output from the D-range expansion prediction interpolation unit 50 by the correction coefficient by the white balance control unit 52 has substantially the same RGB filter level and a value close to an achromatic color. Note that an image region in which all the pixel output values of the RGB filter are saturated is overexposed and whitened. In addition, an image region where only the pixel output value of the high-sensitivity G filter is saturated is also likely to have a high luminance and a large amount of incident light, so even if the image region to be corrected for pixel output is an achromatic color There is less discomfort.

そして、ホワイトバランス制御部52からホワイトバランスが合わされたRGBフィルタの画素出力値データ(12ビット)は、同時化部53に入力される。同時化部53は、ベイヤ配列の1画素に1色のデータしか持っていないRAWデータに対して補間演算処理を行い、1画素に対してRGBの全てのデータを生成する。   Then, the pixel output value data (12 bits) of the RGB filter with the white balance adjusted from the white balance control unit 52 is input to the synchronization unit 53. The synchronization unit 53 performs an interpolation calculation process on the RAW data having only one color data in one pixel of the Bayer array, and generates all RGB data for one pixel.

そして、同時化部53で生成されたRGBの全てのデータ(12ビット)は、トーン変換部54に入力される。トーン変換部54は、図10に示すような変換テーブルによって12ビットのRGBのデータを8ビットのRGBのデータに変換するγ変換を行って、8ビットのRGB値を生成し、RGB−YUV変換部55に出力する。   All the RGB data (12 bits) generated by the synchronization unit 53 is input to the tone conversion unit 54. The tone conversion unit 54 performs γ conversion that converts 12-bit RGB data into 8-bit RGB data using a conversion table as shown in FIG. 10 to generate an 8-bit RGB value, and performs RGB-YUV conversion. To the unit 55.

RGB−YUV変換部55は、入力されるRGBデータ(8ビット)をマトリックス演算によりYUVデータに変換し、画像サイズコンバータ部56に出力する。画像サイズコンバータ部56は、入力されるYUVデータ(8ビット)に対して所望の画像サイズに縮小または拡大を行い、輝度ヒストグラム生成部57およびエッジエンハンス部58に出力する。   The RGB-YUV conversion unit 55 converts input RGB data (8 bits) into YUV data by matrix calculation and outputs the YUV data to the image size converter unit 56. The image size converter unit 56 reduces or enlarges the input YUV data (8 bits) to a desired image size, and outputs it to the luminance histogram generation unit 57 and the edge enhancement unit 58.

輝度ヒストグラム生成部57は、入力されるYUVデータにより輝度ヒストグラムを生成する。エッジエンハンス部58は、入力されるYUVデータに対して画像に合わせたエッジ強調等の処理を行い、メモリコントローラ35を介してSDRAM23に保存する。   The luminance histogram generation unit 57 generates a luminance histogram based on the input YUV data. The edge enhancement unit 58 performs processing such as edge enhancement according to the image on the input YUV data, and stores the processed data in the SDRAM 23 via the memory controller 35.

このように、本実施形態では、処理単位内の感度の高いGフィルタの画素出力が飽和レベルを超えているような場合においても、その周囲の飽和レベルに達していないR、Bフィルタの画素出力に基づいて、飽和しているGフィルタの画素出力を補正(予測補間処理)することにより、図4に示したように、Gフィルタ(図4のd、e)の画素出力の補正(予測補間処理)した拡張領域(図4のd、eのGフィルタの画素出力の一点鎖線部分)に基づいて、1回の撮影でダイナミックレンジを2倍に拡大することが可能となる。   As described above, in the present embodiment, even when the pixel output of the G filter with high sensitivity in the processing unit exceeds the saturation level, the pixel output of the R and B filters that have not reached the surrounding saturation level. As shown in FIG. 4, the pixel output of the G filter (d and e in FIG. 4) is corrected (predicted interpolation) by correcting the pixel output of the saturated G filter (predictive interpolation processing) based on Based on the expanded region (the one-dot chain line portion of the pixel output of the G filter of d and e in FIG. 4), the dynamic range can be doubled by one shooting.

よって、撮影画像内の背景等に高輝度部分がある場合でも、白とびの発生を防止して良好な階調性を得ることが可能となる。   Therefore, even when there is a high-luminance portion in the background or the like in the captured image, it is possible to prevent the occurrence of overexposure and obtain good gradation.

更に、本実施形態では、前記したように非飽和画素補正処理部62により、撮影時における被写体の色温度に対する、飽和画素補正処理部61で補正されたGフィルタの画素出力値と該Gフィルタの画素周囲のR、Bフィルタの画素出力値との比率が、前記RGB出力比率テーブルの画素出力比率と同じになるように、R、Bフィルタの画素出力値を補正する。   Furthermore, in this embodiment, as described above, the pixel output value of the G filter corrected by the saturated pixel correction processing unit 61 with respect to the color temperature of the subject at the time of shooting by the unsaturated pixel correction processing unit 62 and the G filter The pixel output values of the R and B filters are corrected so that the ratio of the pixel output values of the R and B filters around the pixels is the same as the pixel output ratio of the RGB output ratio table.

これにより、飽和レベル以上に達したGフィルタの画素出力を補正した場合でも、そのGフィルタの画素周囲の飽和レベルに達していないR、Bフィルタの画素出力との出力バランスがくずれるのを防止することができるので、色相(色合い)のずれによる違和感をなくすことができる。   Thereby, even when the pixel output of the G filter that has reached the saturation level or higher is corrected, the output balance with the pixel outputs of the R and B filters that have not reached the saturation level around the pixel of the G filter is prevented from being lost. Therefore, a sense of incongruity due to a shift in hue (hue) can be eliminated.

図11(a)は、Gフィルタの画素出力が飽和レベルを超えたときに、前記した本実施形態におけるダイナミックレンジの拡大処理を行った場合の、輝度ヒストグラム生成部57で生成されたヒストグラムの一例である。このヒストグラムから明らかなように、ダイナミックレンジの拡大処理を行ったことにより、最大輝度部分(255)における白飛びがほとんど発生していなく、良好な階調で再現されている。   FIG. 11A shows an example of a histogram generated by the luminance histogram generation unit 57 when the dynamic range expansion process in the present embodiment described above is performed when the pixel output of the G filter exceeds the saturation level. It is. As is apparent from this histogram, by performing the dynamic range expansion processing, whiteout in the maximum luminance portion (255) hardly occurs, and reproduction is performed with good gradation.

これに対し、図11(b)は、Gフィルタの画素出力が飽和レベルを超えたときに、前記した本実施形態におけるダイナミックレンジの拡大処理を行わなかった場合の、輝度ヒストグラム生成部57で生成されたヒストグラムの一例である。このヒストグラムから明らかなように、ダイナミックレンジの拡大処理を行わなかったことにより、最大輝度部分(255)に度数があり、白飛びが発生しているのが分かる。   On the other hand, FIG. 11B is generated by the luminance histogram generation unit 57 when the dynamic range expansion process in the present embodiment is not performed when the pixel output of the G filter exceeds the saturation level. It is an example of the done histogram. As is apparent from this histogram, it can be seen that, by not performing the dynamic range expansion process, the maximum luminance portion (255) has a frequency and whiteout occurs.

なお、前記した実施形態1の説明および図4において、所定の飽和レベル判定値である図4の飽和レベルAと、補正後の12ビットの最大値である4095とが一致しているように説明したが、これに限定するものではない。例えば、出力が完全に飽和する付近の高輝度部において、出力の直線性(リニアリティー)が良くないRGBフィルタを有するCCDでは、例えば完全に飽和する4095よりも小さい値である4032を所定の飽和レベル値(図4の飽和レベルA)とおいて、その値を超えた画素出力を補正処理(予測補間処理)の対象としてもよい。   In the description of the first embodiment and FIG. 4, the saturation level A in FIG. 4 that is a predetermined saturation level determination value and the corrected 12-bit maximum value 4095 are described so as to coincide with each other. However, the present invention is not limited to this. For example, in a CCD having an RGB filter whose output linearity (linearity) is not good in a high-luminance part near where the output is completely saturated, for example, 4032 which is a value smaller than 4095 which is completely saturated is set to a predetermined saturation level With respect to the value (saturation level A in FIG. 4), the pixel output exceeding that value may be subject to correction processing (predictive interpolation processing).

また、デジタルカメラのシステム構成によっては、高輝度被写体でも12ビットの最大値である4095にならないものもある。その場合も同様に所定の飽和レベルを4095よりも低い値に設定するとよい。   Also, depending on the system configuration of the digital camera, even a high-luminance subject may not reach 4095, which is the maximum value of 12 bits. In that case as well, the predetermined saturation level may be set to a value lower than 4095.

このように、4095未満を所定の飽和レベルとしたときでも、その特性に合わせて図10の変換カーブを切り替えることで、ビット圧縮変換部51の出力を4095にすることができ、後段の処理を変えることなくダイナミックレンジの拡大が可能となる。   As described above, even when the predetermined saturation level is less than 4095, the output of the bit compression conversion unit 51 can be set to 4095 by switching the conversion curve of FIG. 10 according to the characteristics, and the subsequent processing can be performed. The dynamic range can be expanded without change.

〈実施形態2〉
前記実施形態1では、撮影時における被写体の色温度に合わせて、補正されたGフィルタの画素出力値と該Gフィルタの画素周囲のR、Bフィルタの画素出力値との比率が、前記RGB出力比率テーブルの画素出力比率と同じになるように、R、Bフィルタの画素出力値を補正するようにしたが、簡易的な構成として、特定の光源下におけるRGBフィルタの画素出力の感度差に応じた比率を予め測定してROM24(図2参照)に記憶しておき、この予め測定されている比率と同じになるようにR、Bフィルタの画素出力値を補正するようにしてもよい。他の構成は、前記した実施形態1のデジタルカメラと同様である。
<Embodiment 2>
In the first embodiment, the ratio between the pixel output value of the corrected G filter and the pixel output values of the R and B filters around the pixel of the G filter in accordance with the color temperature of the subject at the time of shooting is the RGB output. The pixel output values of the R and B filters are corrected so as to be the same as the pixel output ratio of the ratio table. However, as a simple configuration, according to the sensitivity difference of the pixel output of the RGB filter under a specific light source The ratio may be measured in advance and stored in the ROM 24 (see FIG. 2), and the pixel output values of the R and B filters may be corrected so as to be the same as the ratio measured in advance. Other configurations are the same as those of the digital camera of the first embodiment.

例えば、図12(a),(b)は、特定の光源下においてそれぞれ感度特性が異なる2つのRGBフィルタの画素出力の一例を示したものである。   For example, FIGS. 12A and 12B show examples of pixel outputs of two RGB filters having different sensitivity characteristics under a specific light source.

図12(a)のRGBフィルタの画素出力特性を有するデジタルカメラ(撮像装置)では、このRGBフィルタの画素出力の比率が予め記憶されることになる。また、図12(b)のRGBフィルタの画素出力特性を有するデジタルカメラ(撮像装置)では、このRGBフィルタの画素出力の比率が予め記憶されることになる。   In the digital camera (imaging apparatus) having the pixel output characteristics of the RGB filter of FIG. 12A, the pixel output ratio of the RGB filter is stored in advance. In the digital camera (imaging device) having the pixel output characteristics of the RGB filter shown in FIG. 12B, the pixel output ratio of the RGB filter is stored in advance.

そして、例えば、図12(a)に示したようなRGBフィルタの画素出力の比率が予め記憶されているデジタルカメラ(撮像装置)では、この予め測定されている比率と同じになるようにR、Bフィルタの画素出力値を補正する。   For example, in a digital camera (imaging device) in which the pixel output ratio of the RGB filter as shown in FIG. 12 (a) is stored in advance, R, so as to be the same as the ratio measured in advance. The pixel output value of the B filter is corrected.

なお、通常のホワイトバランスの制御範囲が2000〜8000K(ケルビン)程度なので、その中心付近の4000〜5000K(ケルビン)程度の色温度を有する光源下で測定したRGBフィルタの画素出力の比率を予め記憶しておくことが望ましい。   Since the normal white balance control range is about 2000 to 8000K (Kelvin), the pixel output ratio of the RGB filter measured under a light source having a color temperature of about 4000 to 5000K (Kelvin) near the center is stored in advance. It is desirable to keep it.

このように、本実施形態では、特定の光源下におけるRGBフィルタの画素出力の感度差に応じた比率を予め測定して記憶しておき、この予め測定されている比率と同じになるようにR、Bフィルタの画素出力値を補正する構成なので、実施形態1の場合よりも簡易な構成とすることができる。   As described above, in this embodiment, a ratio according to the sensitivity difference of the pixel output of the RGB filter under a specific light source is measured and stored in advance, and R is set to be the same as the ratio measured in advance. Since the configuration is such that the pixel output value of the B filter is corrected, the configuration can be made simpler than in the first embodiment.

〈実施形態3〉
図13は、本実施形態におけるDレンジ拡大予測補間部50aの構成を示すブロック図であり、画素出力比率設定部64をさらに有している。他の構成は前記実施形態1と同様であり、重複する説明は省略する。
<Embodiment 3>
FIG. 13 is a block diagram illustrating a configuration of the D range expansion prediction interpolation unit 50a in the present embodiment, and further includes a pixel output ratio setting unit 64. Other configurations are the same as those of the first embodiment, and a duplicate description is omitted.

実施形態1で説明したように、CCDI/F34で生成される前記AWB評価値は、CCD20の全画素の受光面に対応した画面を1024エリア(水平32分割、垂直32分割)に等分割した各エリアでのRGB積算から算出される。そして、制御部28(図2参照)は、生成されたAWB評価値から前記各エリアにおけるRGBフィルタの画素出力の比率を算出する。算出した前記各エリアにおけるRGBフィルタの画素出力の比率は、Dレンジ拡大予測補間部50aの画素出力比率設定部64に設定される。このように、本実施形態では、「特許請求範囲」における画素出力比率算出手段が制御部28に相当する。   As described in the first embodiment, the AWB evaluation value generated by the CCD I / F 34 is obtained by equally dividing the screen corresponding to the light receiving surface of all the pixels of the CCD 20 into 1024 areas (horizontal 32 divisions and vertical 32 divisions). Calculated from RGB integration in the area. And the control part 28 (refer FIG. 2) calculates the ratio of the pixel output of the RGB filter in each said area from the produced | generated AWB evaluation value. The calculated pixel output ratio of the RGB filter in each area is set in the pixel output ratio setting unit 64 of the D range expansion prediction interpolation unit 50a. Thus, in the present embodiment, the pixel output ratio calculation means in “Claims” corresponds to the control unit 28.

そして、前記実施形態1と同様にダイナミックレンジ拡大処理動作が実行されると、Dレンジ拡大予測補間部50aの輝度レベル判定部60は、入力されるRAW−RGBデータに基づいてGフィルタの画素出力が所定の飽和レベル以上に達したか否かを判定処理する。この判定でGフィルタの画素出力が所定の飽和レベル以上に達していると判定した場合には、飽和画素補正処理部61により、そのGフィルタの画素周囲のR、Bフィルタの画素出力によって所定の飽和レベル以上に達しているGフィルタの画素出力の補正(予測補間処理)を行う。   When the dynamic range expansion processing operation is executed as in the first embodiment, the luminance level determination unit 60 of the D range expansion prediction interpolation unit 50a outputs the pixel output of the G filter based on the input RAW-RGB data. It is determined whether or not has reached a predetermined saturation level or higher. If it is determined in this determination that the pixel output of the G filter has reached a predetermined saturation level or higher, the saturation pixel correction processing unit 61 performs a predetermined output based on the pixel output of the R and B filters around the pixel of the G filter. Correction (predictive interpolation processing) of the pixel output of the G filter that has reached the saturation level or higher is performed.

この際、飽和レベル以上に達しているGフィルタの画素位置情報が、輝度レベル判定部60から画素出力比率設定部64に出力される。画素出力比率設定部64は、飽和レベル以上に達しているGフィルタの画素が前記1024エリア(水平32分割、垂直32分割)のどのエリアに含まれるかを判定し、該当エリアでのRGBフィルタの画素出力値の比率を非飽和画素補正処理部62に出力する。   At this time, pixel position information of the G filter that has reached the saturation level or higher is output from the luminance level determination unit 60 to the pixel output ratio setting unit 64. The pixel output ratio setting unit 64 determines in which area of the 1024 areas (horizontal 32 divisions and vertical 32 divisions) the G filter pixels that have reached the saturation level or more are included. The ratio of pixel output values is output to the unsaturated pixel correction processing unit 62.

非飽和画素補正処理部62では、飽和画素補正処理部61で補正されたGフィルタの画素出力値とその周囲のR、Bフィルタの画素出力値との比率が、画素出力比率設定部64に設定された画素出力比率と同じになるように、前記R、Bフィルタの画素出力値を補正する。以下の処理は、前記実施形態1と同様である。   In the non-saturated pixel correction processing unit 62, the ratio between the pixel output value of the G filter corrected by the saturated pixel correction processing unit 61 and the pixel output value of the surrounding R and B filters is set in the pixel output ratio setting unit 64. The pixel output values of the R and B filters are corrected so that the pixel output ratio is the same. The following processing is the same as in the first embodiment.

このように、本実施形態では、飽和画素補正処理部61で補正されたGフィルタの画素出力値とそのGフィルタが配置された画素周囲のR、Bフィルタの画素出力値との比率が、画素出力比率設定部64に設定された画素出力比率と同じになるように、前記R、Bフィルタの画素出力値を補正することにより、補正されたRGBフィルタの画素出力値の比率を、その周辺領域の色相(色合い)に近い値にすることができる。よって、ダイナミックレンジを拡大した場合でも、色相(色合い)のずれによる違和感をなくすことができる。   As described above, in this embodiment, the ratio between the pixel output value of the G filter corrected by the saturated pixel correction processing unit 61 and the pixel output value of the R and B filters around the pixel where the G filter is arranged is the pixel. By correcting the pixel output values of the R and B filters so as to be the same as the pixel output ratio set in the output ratio setting unit 64, the ratio of the corrected pixel output values of the RGB filter is changed to its peripheral region. It can be set to a value close to the hue (hue). Therefore, even when the dynamic range is expanded, it is possible to eliminate a sense of incongruity due to a hue (hue) shift.

なお、本実施形態では、CCD20の全画素の受光面に対応した画面を1024エリアに等分割(水平32分割、垂直32分割)し、飽和レベル以上に達しているGフィルタの画素が前記1024エリア(水平32分割、垂直32分割)のどのエリアに含まれるかを判定するようにしたが、CCD20の全画素の受光面に対応した画面を、例えば1画素単位等のようにさらに細かいエリアに分割しない方がよい。   In the present embodiment, the screen corresponding to the light receiving surface of all the pixels of the CCD 20 is equally divided into 1024 areas (horizontal 32 divisions and vertical 32 divisions), and the pixels of the G filter that reach the saturation level or more are in the 1024 areas. Although it is determined which area is included (horizontal 32 divisions, vertical 32 divisions), the screen corresponding to the light receiving surface of all the pixels of the CCD 20 is divided into finer areas such as one pixel unit. It is better not to.

これは、RGBフィルタの画素出力は、画素毎に多少の感度差があり、また欠陥画素のように、入射光によらずに特定の出力を出してしまうものがあるためである。このため、例えば、AWB評価値の生成時の積分対象が10画素以上あれば、平均化により画素毎の特性ばらつきを吸収できるようなばらつきを有しているRGBフィルタが設置されたCCDを用いるようにすることが望ましい。   This is because the pixel output of the RGB filter has a slight sensitivity difference for each pixel, and there are some pixels that output a specific output regardless of incident light, such as defective pixels. For this reason, for example, if the integration target at the time of generating the AWB evaluation value is 10 pixels or more, a CCD provided with an RGB filter having a variation that can absorb the characteristic variation for each pixel by averaging is used. It is desirable to make it.

前記した各実施形態では、輝度レベル判定部60は、最も感度が高いGフィルタの画素出力が飽和レベル以上に達したか否かを判定したが、これに限らず、最も感度が高いGフィルタの画素出力以外で判定してもよい。例えば、Rフィルタの画素出力が所定レベル以上に達したか否かを判定することで、前記した補正(予測補間処理)を実行するかを判断するようにしてもよい。   In each of the embodiments described above, the luminance level determination unit 60 determines whether or not the pixel output of the G filter with the highest sensitivity has reached the saturation level or higher. The determination may be made other than the pixel output. For example, it may be determined whether or not to perform the above-described correction (predictive interpolation process) by determining whether or not the pixel output of the R filter has reached a predetermined level or more.

図3に示したようなベイヤ配列のRGBフィルタでは、Rフィルタの画素出力が飽和レベルの例えば70%に達していれば、Gフィルタの画素出力は飽和レベル以上に達していると判断することができる。なお、同様にRフィルタの画素出力が所定レベル以上に達したか否かを判定することで、前記した補正(予測補間処理)を実行するかを判断するようにしてもよい。   In the RGB filter having the Bayer array as shown in FIG. 3, if the pixel output of the R filter reaches, for example, 70% of the saturation level, it can be determined that the pixel output of the G filter has reached the saturation level or more. it can. Similarly, it may be determined whether the correction (predictive interpolation process) is performed by determining whether the pixel output of the R filter has reached a predetermined level or more.

また、色温度に対して、RGBフィルタの画素出力の比率が図8のように変化することから、Rフィルタの画素出力とBフィルタの画素出力の平均値が所定レベルに達しているか否かを判定することで、前記した補正(予測補間処理)を実行するかを判断するようにしてもよい。   Further, since the ratio of the pixel output of the RGB filter to the color temperature changes as shown in FIG. 8, it is determined whether or not the average value of the pixel output of the R filter and the pixel output of the B filter has reached a predetermined level. By determining, it may be determined whether to execute the above-described correction (predictive interpolation process).

なお、前記した各実施形態では、色分解フィルタとしてRGBの3原色系フィルタを配置した構成であったが、色分解フィルタとして補色系フィルタを配置した構成においても、同様に本発明を適用することができる。   In each of the embodiments described above, the RGB three primary color filters are arranged as the color separation filters. However, the present invention is similarly applied to a configuration in which the complementary color filters are arranged as the color separation filters. Can do.

また、前記した各実施形態では、撮影レンズ系とCCD等の固体撮像素子を有するデジタルカメラなどの撮像装置についての説明であったが、画像処理装置においも同様に本発明を適用することが可能である。例えば、単板式カラー撮像素子からのアナログ出力をデジタル信号に変換して保存したRAWデータを入力して、RGBデータやYCbCrデータを出力するような画像処理装置においても、同様に本発明を適用することが可能である。   In each of the above-described embodiments, the description has been made on the imaging device such as a digital camera having a photographing lens system and a solid-state imaging device such as a CCD. However, the present invention can be similarly applied to an image processing device. It is. For example, the present invention is similarly applied to an image processing apparatus in which analog data from a single-plate color image sensor is converted into digital signals and stored, and RAW data is input to output RGB data or YCbCr data. It is possible.

(a)は、本発明の実施形態1に係る撮像装置の一例としてのデジタルカメラを示す正面図、(b)は、その上面図、(c)は、その背面図。(A) is a front view which shows the digital camera as an example of the imaging device which concerns on Embodiment 1 of this invention, (b) is the top view, (c) is the back view. 本発明の実施形態1に係る撮像装置の一例としてのデジタルカメラ内のシステム構成の概要を示すブロック図。1 is a block diagram showing an outline of a system configuration in a digital camera as an example of an imaging apparatus according to Embodiment 1 of the present invention. 本発明の実施形態1におけるRGBフィルタが配置されたCCDの画素配置位置と処理単位を示す図。FIG. 3 is a diagram illustrating a pixel arrangement position and a processing unit of a CCD in which an RGB filter according to Embodiment 1 of the present invention is arranged. 本発明の実施形態1におけるダイナミックレンジ拡大の原理を説明するための図。The figure for demonstrating the principle of the dynamic range expansion in Embodiment 1 of this invention. 本発明の実施形態1におけるYUV変換部の構成を示すブロック図。The block diagram which shows the structure of the YUV conversion part in Embodiment 1 of this invention. 本発明の実施形態1におけるDレンジ拡大予測補間部の構成を示すブロック図。The block diagram which shows the structure of the D range expansion prediction interpolation part in Embodiment 1 of this invention. 液晶モニタに表示された撮影設定画面の一例を示す図。The figure which shows an example of the imaging | photography setting screen displayed on the liquid crystal monitor. 色温度とRGBフィルタの画素出力との関係を示す図。The figure which shows the relationship between color temperature and the pixel output of an RGB filter. (a)は、本発明の実施形態1における、拡張したGフィルタの画素出力の14ビットデータを12ビットに圧縮する変換特性を示す図、(b)は、本発明の実施形態1の他の例における、拡張したGフィルタの画素出力の14ビットデータを12ビットに圧縮する変換特性を示す図。(A) is a figure which shows the conversion characteristic which compresses the 14-bit data of the pixel output of the extended G filter in Embodiment 1 of this invention to 12 bits, (b) is other of Embodiment 1 of this invention The figure which shows the conversion characteristic which compresses 14 bits data of the pixel output of the extended G filter in an example to 12 bits. 12ビットのRGBのデータを8ビットのRGBのデータに変換(γ変換)する変換テーブルを示す図。The figure which shows the conversion table which converts 12-bit RGB data into 8-bit RGB data (gamma conversion). (a)は、本発明の実施形態1におけるダイナミックレンジの拡大処理を行った場合のヒストグラムを示す図、(b)は、本実施形態におけるダイナミックレンジの拡大処理を行わなかった場合のヒストグラムを示す図。(A) is a figure which shows the histogram at the time of performing the expansion process of the dynamic range in Embodiment 1 of this invention, (b) shows the histogram at the time of not performing the expansion process of the dynamic range in this embodiment. Figure. (a),(b)は、特定の光源下においてそれぞれ感度特性が異なるR、G、Bフィルタの画素出力の一例を示す図。(A), (b) is a figure which shows an example of the pixel output of the R, G, B filter from which a sensitivity characteristic each differs under a specific light source. 本発明の実施形態3におけるDレンジ拡大予測補間部の構成を示すブロック図。The block diagram which shows the structure of the D range expansion prediction interpolation part in Embodiment 3 of this invention.

符号の説明Explanation of symbols

1 デジタルカメラ(撮像装置)
5 撮影レンズ系(光学系)
6 鏡胴ユニット
9 液晶モニタ
12 メニューボタン
20 CCD(撮像素子)
21 アナログフロントエンド部
22 信号処理部
23 SDRAM
28 制御部
34 CCDインターフェース
35 メモリコントローラ
36 YUV変換部
50、50a Dレンジ拡大予測補間部
51 ビット圧縮変換部
60 輝度レベル判定部(画素出力検出手段)
61 飽和画素補正処理部(飽和画素補正処理手段)
62 非飽和画素補正処理部(非飽和画素補正処理手段)
63 ビット拡張処理部
64 画素出力比率設定部
1 Digital camera (imaging device)
5 Shooting lens system (optical system)
6 Lens unit 9 LCD monitor 12 Menu button 20 CCD (image sensor)
21 Analog Front End 22 Signal Processor 23 SDRAM
28 Control Unit 34 CCD Interface 35 Memory Controller 36 YUV Conversion Unit 50, 50a D Range Expansion Prediction Interpolation Unit 51 Bit Compression Conversion Unit 60 Luminance Level Determination Unit (Pixel Output Detection Unit)
61 Saturated pixel correction processing unit (saturated pixel correction processing means)
62 Unsaturated pixel correction processing unit (unsaturated pixel correction processing means)
63-bit extension processing unit 64 pixel output ratio setting unit

Claims (8)

光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子と、
前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、
前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理手段と、
前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理手段と、
撮影時における被写体の色温度を検出する色温度検出手段と、
色温度に対応して前記色分解フィルタの各色に対する画素出力比率を保存した画素出力比率保存手段と、を備え、
前記非飽和画素補正処理手段は、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率を、前記色温度検出手段で検出した色温度に応じて、前記画素出力比率保存手段に保存されている画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の各出力値を補正することを特徴とする撮像装置。
An image sensor in which a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are disposed on the front side of each pixel;
Pixel output detection means for determining whether the output from any pixel reaches or exceeds a predetermined saturation level with respect to the output from each pixel;
When it is determined by the pixel output detection means that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or higher, other colors other than the specific color around the pixel are detected. Saturated pixel correction processing means for correcting a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from a pixel in which a filter is disposed;
Non-saturated pixel correction processing for correcting an output value of a pixel in which the other color filter that is not saturated is arranged around the pixel in which the filter of the specific color corrected by the saturated pixel correction processing unit is arranged Means,
Color temperature detecting means for detecting the color temperature of the subject at the time of shooting;
Pixel output ratio storage means for storing a pixel output ratio for each color of the color separation filter corresponding to a color temperature,
The non-saturated pixel correction processing means outputs an output value of a pixel in which the filter of the specific color corrected by the saturated pixel correction processing means and a pixel in which the filter of the other color around the pixel is arranged. The filters of the other colors are arranged so that the ratio to the output value is the same as the pixel output ratio stored in the pixel output ratio storage unit according to the color temperature detected by the color temperature detection unit An image pickup apparatus that corrects each output value of a pixel that has been corrected.
前記色温度検出手段は、前記撮像素子の全画素の受光面に対応した画面を縦横に複数に分割した領域毎における、前記特定色のフィルタ及びその周囲の前記他の色のフィルタが配置された各画素からの出力値の比率に応じて撮影時での被写体の光源の色温度を決定することを特徴とする請求項1に記載の撮像装置。   In the color temperature detection means, the filter of the specific color and the filters of the other colors around it are arranged for each region obtained by dividing the screen corresponding to the light receiving surface of all the pixels of the image sensor into a plurality of vertical and horizontal directions. The imaging apparatus according to claim 1, wherein the color temperature of the light source of the subject at the time of shooting is determined according to a ratio of output values from each pixel. 撮影時の光源に応じてホワイトバランスを合わせるための補正係数を算出する補正係数算出手段をさらに備え、前記補正係数算出手段は、前記特定色のフィルタ及びその周囲の前記他の色のフィルタが配置された各画素から出力される出力値の比率に基づいて前記補正係数を算出することを特徴とする請求項1又は2に記載の撮像装置。   It further comprises correction coefficient calculation means for calculating a correction coefficient for adjusting the white balance according to the light source at the time of shooting, and the correction coefficient calculation means includes the filter of the specific color and the filters of the other colors around it. The imaging apparatus according to claim 1, wherein the correction coefficient is calculated based on a ratio of output values output from the respective pixels. 光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子と、
前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、
前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理手段と、
前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理手段と、
色温度に対応して前記色分解フィルタの各色に対する画素出力比率を保存した画素出力比率保存手段と、を備え、
前記非飽和画素補正処理手段は、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率を、前記画素出力比率保存手段に保存されている画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の各出力値を補正することを特徴とする撮像装置。
An image sensor in which a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are disposed on the front side of each pixel;
Pixel output detection means for determining whether the output from any pixel reaches or exceeds a predetermined saturation level with respect to the output from each pixel;
When it is determined by the pixel output detection means that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or higher, other colors other than the specific color around the pixel are detected. Saturated pixel correction processing means for correcting a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from a pixel in which a filter is disposed;
Non-saturated pixel correction processing for correcting an output value of a pixel in which the other color filter that is not saturated is arranged around the pixel in which the filter of the specific color corrected by the saturated pixel correction processing unit is arranged Means,
Pixel output ratio storage means for storing a pixel output ratio for each color of the color separation filter corresponding to a color temperature,
The non-saturated pixel correction processing means outputs an output value of a pixel in which the filter of the specific color corrected by the saturated pixel correction processing means and a pixel in which the filter of the other color around the pixel is arranged. Correcting each output value of the pixel in which the filter of the other color is arranged so that the ratio with the output value is the same as the pixel output ratio stored in the pixel output ratio storage unit An imaging device.
光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子と、
前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、
前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理手段と、
前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理手段と、
前記撮像素子の全画素の受光面に対応した画面を縦横に複数に分割した領域毎における出力の比率を算出する画素出力比率算出手段と、を備え、
前記非飽和画素補正処理手段は、前記飽和画素補正処理手段で補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率が、前記画素出力比率算出手段で算出された画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の出力値を補正することを特徴とする撮像装置。
An image sensor in which a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are disposed on the front side of each pixel;
Pixel output detection means for determining whether the output from any pixel reaches or exceeds a predetermined saturation level with respect to the output from each pixel;
When it is determined by the pixel output detection means that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or higher, other colors other than the specific color around the pixel are detected. Saturated pixel correction processing means for correcting a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from a pixel in which a filter is disposed;
Non-saturated pixel correction processing for correcting an output value of a pixel in which the other color filter that is not saturated is arranged around the pixel in which the filter of the specific color corrected by the saturated pixel correction processing unit is arranged Means,
A pixel output ratio calculating means for calculating a ratio of output in each region obtained by dividing a screen corresponding to the light receiving surface of all pixels of the image sensor into a plurality of vertical and horizontal directions,
The non-saturated pixel correction processing means outputs an output value of a pixel in which the filter of the specific color corrected by the saturated pixel correction processing means and a pixel in which the filter of the other color around the pixel is arranged. Imaging that corrects an output value of a pixel in which the filter of the other color is arranged so that a ratio to an output value is the same as a pixel output ratio calculated by the pixel output ratio calculating unit apparatus.
前記画素出力検出手段が画素の出力を検出する際の処理単位は、水平・垂直方向に2×2画素の大きさであることを特徴とする請求項1乃至5のいずれか一項に記載の撮像装置。   The processing unit when the pixel output detection unit detects the output of the pixel is a size of 2 × 2 pixels in the horizontal and vertical directions, according to claim 1. Imaging device. 光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子を備えた撮像装置の撮像方法において、
前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する判定処理ステップと、
前記判定処理ステップにより、前記特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その画素の周囲の前記特定色以外の他の色のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補正する飽和画素補正処理ステップと、
前記飽和画素補正処理ステップで補正された前記特定色のフィルタが配置された画素の周囲の、飽和していない前記他の色のフィルタが配置された画素の出力値を補正する非飽和画素補正処理ステップと、
前記撮像素子の全画素の受光面に対応した画面を縦横に複数に分割した領域毎における出力の比率を算出する画素出力比率算出ステップと、を含み、
前記非飽和画素補正処理ステップは、前記飽和画素補正処理ステップで補正された前記特定色のフィルタが配置された画素の出力値とその画素の周囲の前記他の色のフィルタが配置された画素の出力値との比率が、前記画素出力比率算出ステップで算出された画素出力比率と同じになるように、前記他の色のフィルタが配置された画素の出力値を補正することを特徴とする撮像方法。
An imaging device including an imaging device in which a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are arranged on the front side of each pixel. In the imaging method of the apparatus,
A determination processing step for determining whether the output from any of the pixels has reached a predetermined saturation level or higher with respect to the output from each of the pixels;
When it is determined in the determination processing step that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or higher, other colors other than the specific color around the pixel A saturated pixel correction processing step for correcting a pixel output determined to be equal to or higher than the predetermined saturation level based on an output from a pixel in which a filter is disposed;
Non-saturated pixel correction processing for correcting an output value of a pixel in which the filter of the other color that is not saturated is arranged around the pixel in which the filter of the specific color corrected in the saturated pixel correction processing step is arranged Steps,
A pixel output ratio calculating step for calculating a ratio of output in each region obtained by dividing a screen corresponding to the light receiving surface of all pixels of the image sensor into a plurality of vertical and horizontal directions,
The non-saturated pixel correction processing step includes an output value of a pixel in which the filter of the specific color corrected in the saturated pixel correction processing step and a pixel in which the filter of the other color around the pixel is disposed. Imaging that corrects an output value of a pixel in which the filter of the other color is arranged so that a ratio to an output value is the same as a pixel output ratio calculated in the pixel output ratio calculating step Method.
前記判定処理ステップが各画素の出力を検出する際の処理単位は、水平・垂直方向に2×2画素の大きさであることを特徴とする請求項7に記載の撮像方法。 The imaging method according to claim 7, wherein a processing unit when the determination processing step detects an output of each pixel is a size of 2 × 2 pixels in the horizontal and vertical directions.
JP2008271065A 2008-01-22 2008-10-21 Imaging apparatus and imaging method Expired - Fee Related JP5123137B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008271065A JP5123137B2 (en) 2008-01-22 2008-10-21 Imaging apparatus and imaging method
CN2009100035885A CN101494797B (en) 2008-01-22 2009-01-20 Image picking-up device and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008011414 2008-01-22
JP2008011414 2008-01-22
JP2008271065A JP5123137B2 (en) 2008-01-22 2008-10-21 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2009201094A JP2009201094A (en) 2009-09-03
JP5123137B2 true JP5123137B2 (en) 2013-01-16

Family

ID=40925148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008271065A Expired - Fee Related JP5123137B2 (en) 2008-01-22 2008-10-21 Imaging apparatus and imaging method

Country Status (2)

Country Link
JP (1) JP5123137B2 (en)
CN (1) CN101494797B (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102843519A (en) * 2011-06-23 2012-12-26 鸿富锦精密工业(深圳)有限公司 Image processing system and method
JP6206299B2 (en) * 2013-08-29 2017-10-04 株式会社Jvcケンウッド Imaging device and color correction method for captured image
CN105100576B (en) * 2014-04-21 2018-03-23 展讯通信(上海)有限公司 light source detection method and device
CN106303488A (en) * 2015-05-18 2017-01-04 小米科技有限责任公司 Camera lens module, mobile terminal and the method for remedial frames colour cast
KR20180036463A (en) * 2016-09-30 2018-04-09 삼성전자주식회사 Method for Processing Image and the Electronic Device supporting the same
CN106851121B (en) * 2017-01-05 2019-07-05 Oppo广东移动通信有限公司 Control method and control device
JP6789904B2 (en) * 2017-09-20 2020-11-25 株式会社東芝 Dynamic range compression device and image processing device
EP3663801B1 (en) * 2018-12-07 2022-09-28 Infineon Technologies AG Time of flight sensor module, method, apparatus and computer program for determining distance information based on time of flight sensor data
KR102664754B1 (en) * 2019-02-20 2024-05-10 삼성전자주식회사 Method for Applying Image Effect and the Electronic Device supporting the same
JP7262412B2 (en) * 2020-03-19 2023-04-21 セコム株式会社 Image processing device and image processing program
KR20210156553A (en) * 2020-06-18 2021-12-27 에스케이하이닉스 주식회사 Image sensing device and operating method of the image sensing device
CN113691716B (en) * 2021-08-26 2023-07-11 维沃移动通信有限公司 Image sensor, image processing method, image processing device, electronic apparatus, and storage medium
CN113973197B (en) * 2021-11-29 2023-09-12 维沃移动通信有限公司 Pixel structure, pixel array, image sensor and electronic equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6040858A (en) * 1994-11-18 2000-03-21 Canon Kabushiki Kaisha Method and apparatus for expanding the dynamic range of sensed color images
AU7313000A (en) * 1999-09-17 2001-04-24 Nature Technology Co., Ltd. Image pickup system, image processor, and camera
JP3988457B2 (en) * 2001-12-25 2007-10-10 ソニー株式会社 Imaging apparatus and signal processing method for solid-state imaging device
JP4666681B2 (en) * 2006-01-20 2011-04-06 株式会社日立国際電気 Image processing apparatus and image processing method
CN100539648C (en) * 2006-05-11 2009-09-09 精工爱普生株式会社 Imaging apparatus and camera head and method

Also Published As

Publication number Publication date
JP2009201094A (en) 2009-09-03
CN101494797A (en) 2009-07-29
CN101494797B (en) 2010-12-22

Similar Documents

Publication Publication Date Title
JP5123137B2 (en) Imaging apparatus and imaging method
JP5347707B2 (en) Imaging apparatus and imaging method
JP4567593B2 (en) Imaging apparatus and imaging method
EP2186345B1 (en) Imaging apparatus and imaging method
US7884866B2 (en) Imaging apparatus and imaging method
US8319864B2 (en) Imaging apparatus and imaging method
JP5223686B2 (en) Imaging apparatus and imaging method
JP2017022610A (en) Image processing apparatus and image processing method
JP2010054730A (en) Focusing position detecting device, imaging apparatus, and focusing position detecting method
JP5256947B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD
JP2008053931A (en) Imaging apparatus
JP5277863B2 (en) Imaging apparatus and imaging method
JP5138521B2 (en) Imaging apparatus and imaging method
JP5091781B2 (en) Imaging apparatus and imaging method
JP5948997B2 (en) Imaging apparatus and imaging method
JP2010068331A (en) Imaging device and imaging method
JP5310331B2 (en) Imaging apparatus and imaging method
JP5803233B2 (en) Imaging apparatus and imaging method
KR101408359B1 (en) Imaging apparatus and imaging method
JP5169540B2 (en) Imaging apparatus and imaging method
JP5091734B2 (en) Imaging apparatus and imaging method
JP5145876B2 (en) Imaging apparatus and imaging method
JP2010068064A (en) Imaging device and imaging method
JP2005311843A (en) Image pickup device
JP2006295722A (en) Photographing apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121025

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5123137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees