JP2009089358A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2009089358A JP2009089358A JP2008172327A JP2008172327A JP2009089358A JP 2009089358 A JP2009089358 A JP 2009089358A JP 2008172327 A JP2008172327 A JP 2008172327A JP 2008172327 A JP2008172327 A JP 2008172327A JP 2009089358 A JP2009089358 A JP 2009089358A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- output
- data
- saturation level
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 46
- 239000000203 mixture Substances 0.000 claims abstract description 7
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 113
- 238000006243 chemical reaction Methods 0.000 claims description 73
- 238000007906 compression Methods 0.000 claims description 58
- 230000006835 compression Effects 0.000 claims description 58
- 230000002950 deficient Effects 0.000 claims description 29
- 238000012937 correction Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000000926 separation method Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 30
- 238000013213 extrapolation Methods 0.000 abstract 2
- 230000035945 sensitivity Effects 0.000 description 19
- 230000000875 corresponding effect Effects 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 8
- 229920006395 saturated elastomer Polymers 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000013144 data compression Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置および撮像方法に関し、特に撮影画像のダイナミックレンジを拡大することができる撮像装置および撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method such as a digital still camera and a digital video camera, and more particularly to an imaging apparatus and an imaging method that can expand a dynamic range of a captured image.
銀塩写真フィルムを用いる従来の銀塩カメラで撮影される画像のダイナミックレンジに比べ、CCD等の固体撮像素子を有するデジタルスチルカメラやデジタルビデオカメラ等で撮影される画像のダイナミックレンジは極めて狭い。ダイナミックレンジが狭いと、被写体の暗い部分は「黒つぶれ」といわれる現象が発生し、逆に被写体の明るい部分は「白とび」といわれる現象が発生して画像品質が低下する。 Compared to the dynamic range of images taken with a conventional silver salt camera using a silver salt photographic film, the dynamic range of images taken with a digital still camera or a digital video camera having a solid-state image sensor such as a CCD is extremely narrow. When the dynamic range is narrow, a phenomenon called “blackout” occurs in the dark part of the subject, and conversely, a phenomenon called “overexposure” occurs in the bright part of the subject, and the image quality deteriorates.
そこで、CCD等の固体撮像素子で撮像される画像のダイナミックレンジを拡大するために、例えば、同一被写体に対して露光量を変えて複数回の撮影を行い、露光量の異なる複数の画像を取得し、これらの画像を加算してダイナミックレンジが拡大された合成画像を生成する技術が従来より知られている(例えば、特許文献1参照)。
ところで、ダイナミックレンジを拡大するために、前記特許文献1のように露光量を変えて複数回の撮影を行う方法では、移動物体の被写体を撮影したりすると、被写体が2重にずれた画像になり、正しく画像を合成できないことがある。
By the way, in order to expand the dynamic range, in the method of performing photographing a plurality of times while changing the exposure amount as in the above-mentioned
そこで、本発明は、露光量を変え複数回の撮影を行って画像を合成することなく、1回の撮影によってダイナミックレンジを拡大することができる撮像装置および撮像方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging apparatus and an imaging method capable of expanding the dynamic range by one shooting without changing the exposure amount and performing a plurality of shootings to combine images. .
前記目的を達成するために請求項1に記載の撮像装置は、光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子を備え、前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その周囲の前記特定色以外のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補間する画素出力補正処理手段と、前記画素出力補正処理手段により前記補間処理された画素出力から生成される第1YUVデータと前記画素出力補正処理手段で前記補間処理を行うことなく前記所定の飽和レベル以上に達している画素出力から生成される第2YUVデータとを取り込み、前記第1YUVデータから取り出した輝度データと前記第2YUVデータから取り出した色差データとを合成した第3YUVデータを生成するYUV合成手段と、を有することを特徴としている。
In order to achieve the above object, an imaging apparatus according to
請求項2に記載の撮像装置は、前記画素出力検出手段で前記各画素の出力を検出する際の処理単位は、水平・垂直方向に2×2画素の大きさであることを特徴としている。
The image pickup apparatus according to
請求項3に記載の撮像装置は、前記特定色のフィルタが配置された画素の出力に対して、前記所定の飽和レベル以上に達しているときに前記補間させる動作を、選択して実行させるための動作選択手段を備えていることを特徴としている。
The image pickup apparatus according to
請求項4に記載の撮像装置は、前記特定色のフィルタが配置された画素の出力が前記所定の飽和レベル以上に達している場合に前記画素出力補正処理手段から出力される、前記所定の飽和レベル以下における第1のビット数から第2のビット数に一度拡張された画素出力のデータを、再度前記第1のビット数に圧縮するビット圧縮変換手段を備え、前記ビット圧縮変換手段は、前記飽和レベル以上領域における画素出力に対応したデータに対する圧縮率よりも、前記飽和レベル以下における画素出力に対応したデータに対する圧縮率を小さくして圧縮することを特徴としている。 The imaging apparatus according to claim 4, wherein the predetermined saturation output from the pixel output correction processing means when an output of a pixel in which the filter of the specific color is arranged has reached or exceeds the predetermined saturation level. Bit compression conversion means for compressing the pixel output data once expanded from the first bit number below the level to the second bit number to the first bit number again, the bit compression conversion means, The compression is performed by reducing the compression rate for the data corresponding to the pixel output at the saturation level or lower than the compression rate for the data corresponding to the pixel output in the region above the saturation level.
請求項5に記載の撮像装置は、前記飽和レベル以下で低輝度レベルにおける画素出力に対応したデータに対しては、前記ビット圧縮変換手段でビット圧縮する前とビット圧縮した後で略同じ値となるような圧縮率を用いることを特徴としている。
The imaging apparatus according to
請求項6に記載の撮像装置は、前記処理単位内に欠陥画素がある場合には、前記欠陥画素の代わりに該欠陥画素の周囲にある前記欠陥画素と同じ色のフィルタが配置された画素を用いることを特徴としている。
The imaging apparatus according to
請求項7に記載の撮像方法は、光学系を通して入射される被写体像を複数の画素を有する受光面に受光して電気信号に変換するとともに、前記各画素の前面側に複数色の色分解フィルタが配置された撮像素子を備えた撮像装置の撮像方法において、前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する判定処理ステップと、前記判定処理ステップにより、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その周囲の前記特定色以外のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補間する補間処理ステップと、前記補間処理ステップにより前記補間処理された画素出力から生成される第1YUVデータと前記補間処理ステップで前記補間処理を行うことなく前記所定の飽和レベル以上に達している画素出力から生成される第2YUVデータとを取り込み、前記第1YUVデータから取り出した輝度データと前記第2YUVデータから取り出した色差データとを合成して第3YUVデータを生成するYUV合成処理ステップと、を含むことを特徴としている。
The imaging method according to
請求項8に記載の撮像方法は、前記判定処理ステップで前記各画素の出力を検出する際の処理単位は、水平・垂直方向に2×2画素の大きさであることを特徴としている。 The imaging method according to an eighth aspect is characterized in that a processing unit when detecting the output of each pixel in the determination processing step is a size of 2 × 2 pixels in the horizontal and vertical directions.
請求項9に記載の撮像方法は、前記特定色のフィルタが配置された画素からの出力に対して、前記所定の飽和レベル以上に達しているときに前記補間させる動作は、動作選択手段で動作選択することにより実行されることを特徴としている。
The imaging method according to
請求項10に記載の撮像方法は、前記特定色のフィルタが配置された画素の出力が前記所定の飽和レベル以上に達している場合に前記補間処理ステップから出力される、前記所定の飽和レベル以下における第1のビット数から第2のビット数に一度拡張された画素出力のデータを、再度前記第1のビット数に圧縮するビット圧縮変換ステップを有し、前記ビット圧縮変換ステップでは、前記飽和レベル以上領域における画素出力に対応したデータに対する圧縮率よりも、前記飽和レベル以下における画素出力に対応したデータに対する圧縮率を小さくして圧縮することを特徴としている。
The imaging method according to
請求項11に記載の撮像方法は、前記飽和レベル以下で低輝度レベルにおける画素出力に対応したデータに対しては、前記ビット圧縮変換ステップでビット圧縮する前とビット圧縮した後で略同じ値となるような圧縮率を用いて圧縮することを特徴としている。
In the imaging method according to
請求項12に記載の撮像方法は、前記処理単位内に欠陥画素がある場合には、前記欠陥画素の代わりに該欠陥画素の周囲にある前記欠陥画素と同じ色のフィルタが配置された画素を用いることを特徴としている。
The imaging method according to
請求項1、7に記載の発明によれば、特定色のフィルタが配置された画素からの出力が所定の飽和レベル以上に達していると判定した場合に、その周囲の飽和していない他の色のフィルタが配置された画素からの出力に基づいて、飽和レベル以上領域における画素出力を補間してダイナミックレンジを拡大することにより、露光量を変え複数回の撮影を行って画像を合成することなく、1回の撮影によってダイナミックレンジを拡大することができる。 According to the first and seventh aspects of the present invention, when it is determined that the output from the pixel in which the filter of the specific color is arranged has reached a predetermined saturation level or more, the other surroundings that are not saturated Based on the output from the pixel where the color filter is placed, the pixel output in the region above the saturation level is interpolated to expand the dynamic range, thereby changing the exposure amount and shooting multiple times to compose the image In addition, the dynamic range can be expanded by one shooting.
更に、請求項1、7に記載の発明によれば、補間処理された画素出力から生成される第1YUVデータと、補間処理を行うことなく所定の飽和レベル以上に達している画素出力から生成される第2YUVデータを取り込んで、第1YUVデータから取り出した輝度データ(Yデータ)と、第2YUVデータから取り出した色差データ(UVデータ)とを合成して、第3YUVデータを生成する。これにより、補間処理された画素出力から生成される第1YUVデータの輝度データについてのみダイナミックレンジの拡大を行い、色は元の色差データを用いることで、色相のずれを防止して正確な色の再現を行うことができる。 Further, according to the first and seventh aspects of the present invention, the first YUV data generated from the interpolated pixel output and the pixel output that has reached a predetermined saturation level or higher without performing the interpolation processing are generated. The second YUV data is taken in, and the luminance data (Y data) taken out from the first YUV data and the color difference data (UV data) taken out from the second YUV data are combined to generate third YUV data. As a result, the dynamic range is expanded only for the luminance data of the first YUV data generated from the interpolated pixel output, and the original color difference data is used as the color, thereby preventing hue shift and accurate color matching. Reproduction can be performed.
請求項3、9に記載の発明によれば、特定色のフィルタが配置された画素の出力に対して、前記所定の飽和レベル以上に達しているときに補間させる動作を、動作選択手段で動作選択することにより撮影者の判断で行うことができる。 According to the third and ninth aspects of the present invention, an operation for interpolating the output of the pixel in which the filter of the specific color is arranged when the predetermined saturation level or higher is reached is performed by the operation selection unit. This can be done at the photographer's discretion.
請求項4、10に記載の発明によれば、飽和レベル以上領域における画素出力に対応したデータに対する圧縮率よりも、飽和レベル以下における画素出力に対応したデータに対する圧縮率を小さくして圧縮することにより、飽和レベル以下における階調性を良好に保持することができる。 According to the fourth and tenth aspects of the present invention, the compression rate for the data corresponding to the pixel output below the saturation level is made smaller than the compression rate for the data corresponding to the pixel output in the region above the saturation level, and the compression is performed. As a result, it is possible to satisfactorily maintain the gradation property below the saturation level.
請求項5、11に記載の発明によれば、飽和レベル以下で低輝度レベルにおける画素出力に対応したデータに対しては、ビット圧縮する前とビット圧縮した後で略同じ値となるような圧縮率を用いることにより、低輝度レベルにおける階調性を良好に保持することができる。 According to the fifth and eleventh aspects of the present invention, the compression corresponding to the pixel output at the low luminance level and below the saturation level is compressed so as to have substantially the same value before the bit compression and after the bit compression. By using the rate, the gradation at a low luminance level can be maintained satisfactorily.
請求項6、12に記載の発明によれば、処理単位内に欠陥画素がある場合には、欠陥画素の代わりに該欠陥画素の周囲にある前記欠陥画素と同じ色のフィルタが配置された画素を用いることにより、特定色のフィルタが配置された画素の出力が飽和レベル以上に達しているか否かを判定処理する際に、欠陥画素を用いることがなくなるので、特定色のフィルタが配置された画素の出力に対して、所定の飽和レベル以上に達しているときに精度の高い補間を行うことができる。
According to the invention described in
以下、本発明を図示の実施形態に基づいて説明する。
〈実施形態1〉
Hereinafter, the present invention will be described based on the illustrated embodiments.
<
図1(a)は、本発明の実施形態1に係る撮像装置の一例としてのデジタルスチルカメラ(以下、「デジタルカメラ」という)を示す正面図、図1(b)は、その上面図、図1(c)は、その背面図、図2は、図1(a),(b),(c)に示したデジタルカメラ内のシステム構成の概要を示すブロック図である。
FIG. 1A is a front view showing a digital still camera (hereinafter referred to as “digital camera”) as an example of an imaging apparatus according to
(デジタルカメラの外観構成)
図1(a),(b),(c)に示すように、本実施形態に係るデジタルカメラ1の上面側には、レリーズボタン(シャッタボタン)2、電源ボタン3、撮影・再生切替ダイアル4が設けられており、デジタルカメラ1の正面(前面)側には、撮影レンズ系5を有する鏡胴ユニット6、ストロボ発光部(フラッシュ)7、光学ファインダ8が設けられている。
(Appearance structure of digital camera)
As shown in FIGS. 1A, 1B, and 1C, a release button (shutter button) 2, a
デジタルカメラ1の背面側には、液晶モニタ(LCD)9、前記光学ファインダ8の接眼レンズ部8a、広角側ズーム(W)スイッチ10、望遠側ズーム(T)スイッチ11、メニュー(MENU)ボタン12、確定ボタン(OKボタン)13等が設けられている。また、デジタルカメラ1の側面内部には、撮影した画像データを保存するためのメモリカード14(図2参照)を収納するメモリカード収納部15が設けられている。
On the back side of the
(デジタルカメラのシステム構成)
図2に示すように、このデジタルカメラ1は、鏡胴ユニット6の撮影レンズ系5を通して入射される被写体画像が受光面上に結像する固体撮像素子としてのCCD20、CCD20から出力される電気信号(アナログRGB画像信号)をデジタル信号に処理するアナログフロントエンド部(以下、「AFE部」という)21、AFE部21から出力されるデジタル信号を処理する信号処理部22、データを一時的に格納するSDRAM23、制御プログラム等が記憶されたROM24、鏡胴ユニット6を駆動するモータドライバ25等を有している。
(Digital camera system configuration)
As shown in FIG. 2, the
鏡胴ユニット6は、ズームレンズやフォーカスレンズ等を有する撮影レンズ系5、絞りユニット26、メカシャッタユニット27を備えており、撮影レンズ系5、絞りユニット26、メカシャッタユニット27の各駆動ユニットは、モータドライバ25によって駆動される。モータドライバ25は、信号処理部22の制御部(CPU)28からの駆動信号により駆動制御される。
The
CCD20は、CCD20を構成する複数の画素上にRGB原色フィルタ(図7参照:以下、「RGBフィルタ」という)が配置されており、RGB3原色に対応した電気信号(アナログRGB画像信号)が出力される。
In the
AFE部21は、CCD20を駆動するTG(タイミング信号発生部)30、CCD20から出力される電気信号(アナログRGB画像信号)をサンプリングするCDS(相関2重サンプリング部)31、CDS31にてサンプリングされた画像信号のゲインを調整するAGC(アナログ利得制御部)32、AGC32でゲイン調整された画像信号をデジタル信号(以下、「RAW−RGBデータ」という)に変換するA/D変換部33を備えている。
The
信号処理部22は、AFE部21のTG30へ画面水平同期信号(HD)と画面垂直同期信号(VD)の出力を行い、これらの同期信号に合わせて、AFE部21のA/D変換部33から出力されるRAW−RGBデータを取り込むCCDインターフェース(以下、「CCDI/F」という)34と、SDRAM23を制御するメモリコントローラ35と、取り込んだRAW−RGBデータを表示や記録が可能なYUV形式の画像データに変換するYUV変換部36と、後述するYUV合成部37と、表示や記録される画像データのサイズに合わせて画像サイズを変更するリサイズ処理部38と、画像データの表示出力を制御する表示出力制御部39と、画像データをJPEG形成などで記録するためのデータ圧縮部40と、画像データをメモリカード14へ書き込み、又はメモリカード14に書き込まれた画像データを読み出すメディアインターフェース(以下、「メディアI/F」という)41と、操作部42からの操作入力情報に基づき、ROM24に記憶された制御プログラムに基づいてデジタルカメラ1全体のシステム制御等を行う制御部(CPU)28を備えている。
The
操作部42は、デジタルカメラ1(図1(a),(b),(c)参照)の外観表面に設けられているレリーズボタン2、電源ボタン3、撮影・再生切替ダイアル4、広角側ズームスイッチ10、望遠側ズームスイッチ11、メニューボタン12、確定ボタン13等であり、撮影者の操作によって所定の動作指示信号が制御部28に入力される。
The
SDRAM23には、CCDI/F34に取り込まれたRAW−RGBデータが保存されると共に、YUV変換部36で変換処理されたYUVデータ(YUV形式の画像データ)およびYUV合成部37で合成処理されたYUVデータ(詳細は後述する)が保存され、更に、データ圧縮部40で圧縮処理されたJPEG形成などの画像データ等が保存される。
In the
なお、前記YUVデータのYUVは、輝度データ(Y)と、色差(輝度データと青色(B)データの差分(U)と、輝度データと赤色(R)の差分(V))の情報で色を表現する形式である。 The YUV of the YUV data is color information based on luminance data (Y), color difference (difference (U) between luminance data and blue (B) data, and difference (V) between luminance data and red (R)). Is a format that expresses
(デジタルカメラのモニタリング動作、静止画撮影動作)
次に、前記したデジタルカメラ1のモニタリング動作と静止画撮影動作について説明する。このデジタルカメラ1は、静止画撮影モード時には、以下に説明するようなモニタリング動作を実行しながら静止画撮影動作が行われる。
(Digital camera monitoring and still image shooting)
Next, the monitoring operation and still image shooting operation of the
先ず、撮影者が電源ボタン3をONし、撮影・再生切替ダイアル4を撮影モードに設定することで、デジタルカメラ1が記録モードで起動する。電源ボタン3がONされて、撮影・再生切替ダイアル4が撮影モードに設定されたことを制御部28が検知すると、制御部28はモータドライバ25に制御信号を出力して、鏡胴ユニット6を撮影可能位置に移動させ、かつ、CCD20、AFE部21、信号処理部22、SDRAM23、ROM24、液晶モニタ9等を起動させる。
First, when the photographer turns on the
そして、鏡胴ユニット6の撮影レンズ系5を被写体に向けることにより、撮影レンズ系5を通して入射される被写体画像がCCD20の各画素の受光面上に結像する。そして、CCD20から出力される被写体画像に応じた電気信号(アナログRGB画像信号)は、CDS31、AGC32を介してA/D変換部33に入力され、A/D変換部33により12ビット(bit)のRAW−RGBデータに変換する。
Then, by directing the
このRAW−RGBデータは、信号処理部22のCCDI/F34に取り込まれてメモリコントローラ35を介してSDRAM23に保存される。そして、SDRAM23から読み出されたRAW−RGBデータは、YUV変換部36で表示可能な形式であるYUVデータ(YUV信号)に変換された後に、メモリコントローラ35を介してSDRAM23にYUVデータが保存される。
This RAW-RGB data is taken into the CCD I /
そして、SDRAM23からメモリコントローラ35を介して読み出したYUVデータは、表示出力制御部39を介して液晶モニタ(LCD)9へ送られ、撮影画像(動画)が表示される。前記した液晶モニタ(LCD)9に撮影画像を表示しているモニタリング時においては、CCDI/F34による画素数の間引き処理により1/30秒の時間で1フレームを読み出している。
The YUV data read from the
なお、このモニタリング動作時は、電子ファインダとして機能する液晶モニタ(LCD)9に撮影画像が表示されているだけで、まだレリーズボタン2が押圧(半押も含む)操作されていない状態である。
In this monitoring operation, the photographed image is only displayed on the liquid crystal monitor (LCD) 9 functioning as an electronic viewfinder, and the
この撮影画像の液晶モニタ(LCD)9への表示によって、撮影画像を撮影者が確認することができる。なお、表示出力制御部39からTVビデオ信号として出力して、ビデオケーブルを介して外部のTV(テレビ)に撮影画像(動画)を表示することもできる。
The photographer can confirm the photographed image by displaying the photographed image on the liquid crystal monitor (LCD) 9. In addition, it can output as a TV video signal from the display
そして、信号処理部22のCCDI/F34は、取り込まれたRAW−RGBデータより、AF(自動合焦)評価値、AE(自動露出)評価値、AWB(オートホワイトバランス)評価値を算出する。
The CCD I /
AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ系5内の各フォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。
The AF evaluation value is calculated by, for example, the output integrated value of the high frequency component extraction filter or the integrated value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By utilizing this, at the time of AF operation (at the time of focus detection operation), an AF evaluation value at each focus lens position in the photographing
AE評価値とAWB評価値は、RAW−RGBデータにおけるRGB値のそれぞれの積分値から算出される。例えば、CCD20の全画素の受光面に対応した画面を256エリアに等分割(水平16分割、垂直16分割)し、それぞれのエリアのRGB積算を算出する。
The AE evaluation value and the AWB evaluation value are calculated from the integrated values of the RGB values in the RAW-RGB data. For example, the screen corresponding to the light receiving surfaces of all the pixels of the
そして、制御部28は、算出されたRGB積算値を読み出し、AE処理では、画面のそれぞれのエリアの輝度を算出して、輝度分布から適正な露光量を決定する。決定した露光量に基づいて、露光条件(CCD20の電子シャッタ回数、絞りユニット26の絞り値等)を設定する。また、AWB処理では、RGBの分布から被写体の光源の色に合わせたAWBの制御値を決定する。このAWB処理により、YUV変換部36でYUVデータに変換処理するときのホワイトバランスを合わせる。なお、前記したAE処理とAWB処理は、前記モニタリング時には連続的に行われている。
Then, the
そして、前記したモニタリング動作時に、レリーズボタン2が押圧(半押しから全押し)操作される静止画撮影動作が開始されると、合焦位置検出動作であるAF動作と静止画記録処理が行われる。
When the still image shooting operation in which the
即ち、レリーズボタン2が押圧(半押しから全押し)操作されると、制御部28からモータドライバ25への駆動指令により撮影レンズ系5のフォーカスレンズが移動し、例えば、いわゆる山登りAFと称されるコントラスト評価方式のAF動作が実行される。
That is, when the
AF(合焦)対象範囲が無限から至近までの全領域であった場合、撮影レンズ系5のフォーカスレンズは、至近から無限、又は無限から至近までの間の各フォーカス位置に移動し、CCDI/F34で算出されている各フォーカス位置における前記AF評価値を制御部28が読み出す。そして、各フォーカス位置のAF評価値が極大になる点を合焦位置としてフォーカスレンズを合焦位置に移動させ、合焦させる。
When the AF (focusing) target range is the entire region from infinity to close, the focus lens of the photographing
そして、前記したAE処理が行われ、露光完了時点で、制御部28からモータドライバ25への駆動指令によりメカシャッタユニット27が閉じられ、CCD20から静止画用のアナログRGB画像信号が出力される。そして、前記モニタリング時と同様に、AFE部21のA/D変換部33によりRAW−RGBデータに変換される。
Then, the AE process described above is performed, and when the exposure is completed, the
そして、このRAW−RGBデータは、信号処理部22のCCDI/F34に取り込まれ、後述するYUV変換部36でYUVデータに変換されて、メモリコントローラ35を介してSDRAM23に保存される。そして、このYUVデータはSDRAM23から読み出されて、リサイズ処理部38で記録画素数に対応するサイズに変換され、データ圧縮部40でJPEG形式等の画像データへと圧縮される。圧縮されたJPEG形式等の画像データは、SDRAM23に書き戻された後にメモリコントローラ35を介してSDRAM23から読み出され、メディアI/F41を介してメモリカード14に保存される。
The RAW-RGB data is taken into the CCD I /
(YUV変換部36によるダイナミックレンジ拡大処理)
本実施形態に係るデジタルカメラ1のYUV変換部36は、ダイナミックレンジを拡大するためのダイナミックレンジ拡大処理機能を有している。
(Dynamic range expansion processing by the YUV converter 36)
The
デジタルカメラ1のCCD20を構成する各画素上には、ベイヤ配列のRGBフィルタ(図7参照)が配置されているが、太陽光のように広い波長帯域を持つ光に対して、通常のRGBフィルタは各色毎に輝度に対する感度が異なっている。
A Bayer array RGB filter (see FIG. 7) is arranged on each pixel constituting the
例えば、図3に示すように、G(グリーン)フィルタの感度が、R(レッド)フィルタ、B(ブルー)フィルタの2倍程度の感度を有するRGBフィルタ(図3のa、b、c)を有するCCD20の場合、太陽光のように広い波長帯域を持つ光が同じだけRGBフィルタに入射したときに、R、Bフィルタの各画素出力に対してGフィルタ(図3のcの斜線部分)の画素出力の方が先に飽和レベルAに達してしまう。なお、図3において、fはGフィルタの画素感度特性、gはR、Bフィルタの各画素感度特性であり、Gフィルタの画素感度特性は、R、Bフィルタの各画素感度特性の2倍程度の感度を有している。
For example, as shown in FIG. 3, an RGB filter (a, b, c in FIG. 3) has a sensitivity of a G (green) filter that is about twice that of an R (red) filter and a B (blue) filter. In the case of the
ところで、従来のRGBフィルタを有するCCDなどの固体撮像素子を有するデジタルカメラでは、図3のa、b、cのRGBフィルタのように、感度の高いGフィルタの画素出力に応じた飽和レベルAに合わせてダイナミックレンジの範囲を設定している。即ち、Gフィルタの画素出力が飽和レベルAに達している場合でも、R、Bフィルタの画素出力は飽和レベルAの1/2程度である。 By the way, in a digital camera having a solid-state image sensor such as a CCD having a conventional RGB filter, a saturation level A corresponding to the pixel output of a highly sensitive G filter, such as the RGB filters of a, b, and c in FIG. In addition, the dynamic range is set. That is, even when the pixel output of the G filter reaches the saturation level A, the pixel output of the R and B filters is about ½ of the saturation level A.
これに対して、本発明では、図3のd、eのRGBフィルタのように、Gフィルタの画素出力が飽和レベルAを超えていても、R、Bフィルタの各画素出力が飽和レベルAを超えていない範囲内にあるときに、R、Bフィルタの各画素出力レベルから、R、Bフィルタの各画素感度特性(図3のg)とGフィルタの画素感度特性(図3のf)とに基づいてGフィルタの画素出力レベルを予測補間(一点鎖線部分)し、この予測補間した分だけダイナミックレンジを拡大するようにした。 On the other hand, in the present invention, even if the pixel output of the G filter exceeds the saturation level A, as in the RGB filters of d and e in FIG. From within the pixel output level of the R and B filters, the pixel sensitivity characteristics of the R and B filters (g in FIG. 3) and the pixel sensitivity characteristics of the G filter (f in FIG. 3) Based on the above, the pixel output level of the G filter is subjected to predictive interpolation (dotted line portion), and the dynamic range is expanded by this predicted interpolation.
以下、本実施形態におけるダイナミックレンジの拡大処理動作について説明する。 The dynamic range expansion processing operation in this embodiment will be described below.
本実施形態では、撮影者がメニュー(MENU)ボタン12(図1(C)参照)を押圧操作することにより、例えば、図4に示すような撮影設定画面が液晶モニタ(LCD)9に表示され、この表示画面から「ダイナミックレンジ2倍」の項目を選択することにより、制御部28からYUV変換部36へ制御信号が出力され、ダイナミックレンジを2倍に拡大する処理動作が実行される。
In the present embodiment, when the photographer presses the menu (MENU) button 12 (see FIG. 1C), for example, a photographing setting screen as shown in FIG. 4 is displayed on the liquid crystal monitor (LCD) 9. By selecting the item “dynamic range doubling” from this display screen, a control signal is output from the
例えば、被写体の背景の一部に極端に明るい部分がある場合などに、撮影者の判断によりメニュー(MENU)ボタン12を押圧操作して「ダイナミックレンジ2倍」の項目を選択することにより、ダイナミックレンジの拡大処理が行われる。
For example, when there is an extremely bright part of the background of the subject, the menu (MENU)
なお、本実施形態では、前記したようにGフィルタの画素感度特性が、R、Bフィルタの各画素感度特性の2倍程度の感度を有していることを前提としているため、極端に赤い光源下や青い光源下では、Gフィルタの画素感度よりもR、Bフィルタの画素感度の方が飽和してしまう場合がある。このような状況下で前記したダイナミックレンジの拡大処理を行うと正確な諧調および色再現が得られないので、このような場合には撮影者の判断により、前記した「ダイナミックレンジ2倍」の項目を選択しないようにする。 In the present embodiment, as described above, it is assumed that the pixel sensitivity characteristic of the G filter has a sensitivity about twice that of each pixel sensitivity characteristic of the R and B filters. Under the blue light source, the pixel sensitivity of the R and B filters may be saturated rather than the pixel sensitivity of the G filter. If the dynamic range expansion process described above is performed under such circumstances, accurate gradation and color reproduction cannot be obtained. In such a case, the item “dynamic range doubling” described above is determined by the photographer. Do not select.
ダイナミックレンジの拡大処理は、YUV変換部36で行われる。図5に示すように、YUV変換部36は、ダイナミックレンジ拡大予測補間部(以下、「Dレンジ拡大予測補間部」という)50、ビット圧縮変換部51、ホワイトバランス制御部52、同時化部53、トーンカーブ変換部54、RGB−YUV変換部55、画像サイズコンバータ部56、輝度ヒストグラム生成部57、エッジエンハンス部58を備えている。
The dynamic range expansion process is performed by the
そして、本実施形態におけるダイナミックレンジの拡大処理では、RAW−RGBデータ(図5のA)がDレンジ拡大予測補間部50に入力される後述する第1の処理と、RAW−RGBデータ(図5のB)がDレンジ拡大予測補間部50側に入力されることなくホワイトバランス制御部52に入力される後述する第2の処理を実行する。最初に前記第1の処理について説明する。なお、Dレンジ拡大予測補間部50に入力されるRAW−RGBデータ(図5のA)と、Dレンジ拡大予測補間部50側に入力されることなくホワイトバランス制御部52に入力されるRAW−RGBデータ(図5のB)は、SDRAM23から読み出される一つのRAW−RGBデータである。
In the dynamic range expansion process according to the present embodiment, RAW-RGB data (A in FIG. 5) is input to the D range expansion
(第1の処理)
図6に示すように、Dレンジ拡大予測補間部50は、SDRAM23から読み出したRAW−RGBデータ(図5のA)からRGBフィルタを設けた各画素の画素出力を検出するとともに、感度が一番高いGフィルタを設けた画素の画素出力(以下、「Gフィルタの画素出力」という)が飽和レベル以上に達したか否かを判定する輝度レベル判定部60と、輝度レベル判定部60でGフィルタの画素出力が飽和レベル以上に達したと判定した場合に、その周囲のR、Bフィルタを設けた画素の画素出力(以下、「R、Bフィルタの画素出力」という)によって飽和レベル以上に達しているGフィルタの画素出力の予測補間処理を行う画素出力補正処理部61と、輝度レベル判定部60でGフィルタの画素出力が飽和レベルに達していないと判定された場合に、Gフィルタの画素出力、およびR、Bフィルタの画素出力に対して、出力レベルの変換を行うことなく12ビットから14ビットにそれぞれビット拡張のみを行うビット拡張処理部62を備えている。
(First process)
As shown in FIG. 6, the D range expansion
輝度レベル判定部60でGフィルタの画素出力が飽和レベル以上に達したか否かを判定処理する際において、本実施形態では、RGBフィルタを有するCCD20の各画素に対して、図7に示すように、太枠A内の2×2画素(GrおよびGbの2つのGフィルタの画素、1つずつのR、Bフィルタの画素)を処理単位(最小単位)とする。この処理単位(太枠A)内にある2つのGフィルタの画素のうちの少なくとも1つの画素出力が飽和レベル以上に達している場合に、Gフィルタの感度は、前記したようにR、Bフィルタの感度の約2倍であるため、Gフィルタの画素出力値(Gr’、Gb’)は、下記の式(1)から算出する。なお、式(1)おいて、係数kr、kb、kgbは、それぞれホワイトバランスゲインに基づいて設定される係数である。
When the luminance
Gr’=krR+kbB+kgbGb
Gb’=krR+kbB+kgrGr …式(1)
画素出力補正処理部61は、式(1)のように、R、B、Gbフィルタの画素出力に、係数(kr、kb、kgb)を乗算し、それらを足し合わせることでGrフィルタの画素出力値Gr’を算出する。同様に、Gbフィルタについても式(1)のように画素出力値Gb’を算出し、処理単位(2×2画素)内にあるGrおよびGbの画素値を置き換える。なお、前記Gフィルタの画素出力値(Gr’、Gb’)は12ビットを超えたデータになるため、ここでは一度14ビットのデータに置き換える。よって、R、Bフィルタの画素出力の最大値はいずれも4095(12ビット)なので、Gフィルタの画素出力の最大値は8190となるので、14ビットのデータとして扱うことができる。
Gr ′ = krR + kbB + kgbGb
Gb ′ = krR + kbB + kgrGr (1)
The pixel output
ところで、輝度レベル判定部60でGフィルタの画素出力が飽和レベル以上に達しているか否かを判定処理する際に、欠陥画素をこの判定に用いないようにする必要がある。即ち、Gフィルタを設けた画素に欠陥画素があり、常に飽和する値を出力する場合、同じ処理単位内にあるGフィルタを設けた画素を大きな値に置き換えてしまうため、新たな欠陥画素を生成してしまうことになる。また、R、Bフィルタを設けた画素に欠陥画素がある場合、前記式(1)によるGフィルタを設けた画素の換算が正しくない値になってしまう。
By the way, when the luminance
このため、輝度レベル判定部60により、処理単位(2×2画素)内に欠陥画素があると判断した場合、欠陥画素を用いずにその処理単位の周囲にある欠陥画素と同じ色のフィルタを有する画素を代わりに用いる。これにより、輝度レベル判定部60でGフィルタの画素出力が飽和レベル以上に達しているか否かを判定処理する際に、欠陥画素を用いることがなくなるので、Gフィルタが配置された画素の出力に対して、所定の飽和レベル以上に達しているときに精度の高い予測補間を行うことができる。
For this reason, when the brightness
そして、Dレンジ拡大予測補間部50からR、Bフィルタの画素出力データ、および飽和レベル以上に達して予測補間処理されたGフィルタの画素出力データが、ビット圧縮変換部51に出力される。ビット圧縮変換部51は、例えば、図8(a)に示すような変換特性(図8(a)では、3箇所の節点を指定し、それらの間を直線で近似する4区間の折れ線近似特性)によって、14ビットに拡張されたR、G、Bフィルタの画素出力のうちのGフィルタの画素出力を12ビットに縮小する。なお、図8(a)において、aは12ビットの範囲であり、bは最大値8190のデータを1/2倍する単純な線形変換特性(一点鎖線で示した部分)である。
The D range expansion
図8(a)に示す変換特性では、Gフィルタの画素出力の最大値は8190なので、8190が4095になるように圧縮する。そして、Gフィルタの画素出力の圧縮倍率に合わせて、R、Bフィルタの画素出力の値も圧縮する。 In the conversion characteristics shown in FIG. 8A, since the maximum value of the pixel output of the G filter is 8190, compression is performed so that 8190 becomes 4095. Then, the pixel output values of the R and B filters are also compressed in accordance with the compression magnification of the pixel output of the G filter.
前記したように本実施形態では、最大値が8190に拡張されたGフィルタの画素出力を最大値が4095に圧縮する場合の一例として、図8(a)に示したような3つの節点を有する変換特性(実線で示した部分)を用いた。本実施形態では、単純な節点のない線形変換特性(図8(a)のb)では得られない以下のような2つの効果が得られる。 As described above, this embodiment has three nodes as shown in FIG. 8A as an example of the case where the pixel output of the G filter whose maximum value is expanded to 8190 is compressed to 4095. Conversion characteristics (part indicated by a solid line) were used. In the present embodiment, the following two effects that cannot be obtained with a linear conversion characteristic without a simple node (b in FIG. 8A) are obtained.
第1の効果としては、データの信頼性が高いデータにより多くのビット数を割り当てることができる。即ち、飽和レベル以上に達しているGフィルタの画素出力に対して予測補間処理する場合、前記したようにGフィルタの画素出力の飽和レベル付近の規定値以上の値になった範囲について予測補間を行い、この規定値以下の範囲では予測補間は行われない。よって、予測補間を行う範囲と行わない範囲とでは、データの精度が異なっている。 As a first effect, a larger number of bits can be assigned to data with high data reliability. That is, when predictive interpolation processing is performed on the pixel output of the G filter that has reached the saturation level or higher, the prediction interpolation is performed for the range in which the value of the pixel output of the G filter exceeds the specified value near the saturation level as described above. The prediction interpolation is not performed in the range below the specified value. Therefore, the accuracy of the data differs between the range in which predictive interpolation is performed and the range in which it is not performed.
即ち、例えば前記式(1)によって飽和しているGフィルタの画素出力値を予測補間(補正)する場合、主被写体の色によっては、予測補間を行う範囲においては被写体の輝度レベルが正確に再現できていない場合がある。これに対して予測補間を行っていない範囲は、RGBフィルタを有するCCD20から出力される実際のデータ(アナログRGB画像信号)をA/D変換したデータであるので、このデータの信頼性は高いものとなる。
That is, for example, when predictive interpolation (correction) is performed on the pixel output value of the G filter that is saturated according to the equation (1), the luminance level of the subject is accurately reproduced in the range where the predictive interpolation is performed depending on the color of the main subject. It may not be possible. On the other hand, the range in which the prediction interpolation is not performed is data obtained by A / D conversion of actual data (analog RGB image signal) output from the
即ち、図8(a)に示した本実施形態における変換特性(実線で示した部分)では、例えば、入力14ビットデータが1024ときに出力12ビットデータは1024になっており、元のデータがそのまま使われている。これに対し、例えば、入力14ビットデータが3072ときに出力12ビットデータは2560になっており、この範囲では予測補間前のビット割付よりも少ない割付となることによって、多少のビット誤差が発生する。 That is, in the conversion characteristic (part indicated by the solid line) in this embodiment shown in FIG. 8A, for example, when the input 14-bit data is 1024, the output 12-bit data is 1024, and the original data is It is used as it is. On the other hand, for example, when the input 14-bit data is 3072, the output 12-bit data is 2560. In this range, the bit allocation is smaller than the bit allocation before the prediction interpolation, so that a bit error occurs. .
このように、単純な節点のない線形変換を行う特性(一点鎖線で示した部分)ではなく、本実施形態のように3つの節点を有する変換特性(実線で示した部分)を採用することにより、ビット割付をだんだんと少なくしていくことができるので、データの信頼性が高いデータにより多くのビット数を割り当てることができる。 In this way, by adopting a conversion characteristic (part indicated by a solid line) having three nodes as in this embodiment, instead of a characteristic for performing linear conversion without a simple node (part indicated by a one-dot chain line). Since the bit allocation can be gradually reduced, a larger number of bits can be allocated to data with high data reliability.
そして、第2の効果としては、低・中輝度における階調を正確に保存することができる。即ち、単純な線形変換特性(図8(a)のb)でビット圧縮を行った場合、低輝度側の予測補間が行われていない範囲では、ビット割付が1/4になってしまう。このため、階調感のない画像になってしまう。これに対し、図8(a)に示したような本実施形態における変換特性(実線で示した部分)でビット圧縮を行った場合には、飽和レベル以下で低輝度レベルにおける画素出力に対応したデータに対しては、ビット圧縮変換部51でビット圧縮する前とビット圧縮した後で略同じ値となるような圧縮率を用いることにより、低輝度レベルにおける階調性を良好に保持することができる。
As a second effect, gradations at low and medium luminance can be accurately stored. That is, when bit compression is performed with a simple linear conversion characteristic (b in FIG. 8A), the bit allocation becomes ¼ in a range where predictive interpolation on the low luminance side is not performed. For this reason, the image has no tone. On the other hand, when bit compression is performed with the conversion characteristics (part indicated by the solid line) in this embodiment as shown in FIG. 8A, it corresponds to the pixel output at the low luminance level below the saturation level. With respect to data, it is possible to satisfactorily maintain gradation at a low luminance level by using a compression rate that is substantially the same value before bit compression by the bit
なお、本実施形態では、拡張したGフィルタの画素出力の14ビットデータを12ビットに縮小するときに、図8(a)のように3つの節点を指定し、それらの間を直線で近似する4区間の折れ線近似特性(変換特性)でビット圧縮を行う構成であったが、この区間数は特に限定されるものではない。例えば、1つの節点を指定する2区間の折れ線近似特性としてもよいが、節点付近でビット割付が大きく変わることにより、前記した2つの効果が小さくなる。よって、3区間以上の区間数を有する折れ線近似特性(変換特性)が好ましい。 In this embodiment, when the 14-bit data of the pixel output of the expanded G filter is reduced to 12 bits, three nodes are designated as shown in FIG. 8A and approximated by a straight line between them. Although the bit compression is performed with the broken line approximation characteristic (conversion characteristic) of four sections, the number of sections is not particularly limited. For example, it may be a polygonal line approximate characteristic of two sections designating one node, but the above-mentioned two effects are reduced by changing the bit allocation in the vicinity of the node. Therefore, a broken line approximation characteristic (conversion characteristic) having three or more sections is preferable.
また、拡張したGフィルタの画素出力の14ビットデータを12ビットに圧縮する変換特性を、図8(b)に示すように、複数の節点を有していない曲線による変換特性としてもよい。即ち、図8(a)の4区間を有する変換特性に対して、区間数を8192にしたものがこの曲線による変換特性となる。なお、図8(b)において、aは12ビットの範囲である。 Also, the conversion characteristic for compressing the 14-bit data of the pixel output of the expanded G filter to 12 bits may be a conversion characteristic by a curve not having a plurality of nodes as shown in FIG. That is, with respect to the conversion characteristic having four sections in FIG. 8A, the conversion characteristic by this curve is obtained by setting the number of sections to 8192. In FIG. 8B, a is a 12-bit range.
更に、入力14ビットデータの0〜8192に対して、12ビットに圧縮変換後の数値データを持ったルックアップテーブルを設けておくことにより、この曲線による変換特性で、拡張したGフィルタの画素出力の14ビットデータを良好に12ビットに圧縮することができる。 Further, by providing a lookup table having numerical data after compression conversion to 12 bits for 0 to 8192 of input 14-bit data, the pixel output of the expanded G filter with the conversion characteristics by this curve is provided. The 14-bit data can be successfully compressed to 12 bits.
そして、ビット圧縮変換部51で14ビットから12ビットに圧縮変換されたR、G、Bフィルタの画素出力データは、ホワイトバランス制御部52に入力される。ホワイトバランス制御部52は、入力されるRAW−RGBデータ(R、G、Bフィルタの画素出力データ)をそれぞれ増幅する。この際、制御部28は、CCDI/F34で算出された前記AWB評価値に基づいてホワイトバランスを合わせるための補正値を算出し、算出した補正値をホワイトバランス制御部52に出力する。ホワイトバランス制御部52は、入力される前記補正値に基づいてホワイトバランスを合わせる。
The pixel output data of the R, G, and B filters that have been compression-converted from 14 bits to 12 bits by the bit
そして、ホワイトバランス制御部52からホワイトバランスが合わされたR、G、Bフィルタの画素出力データ(12ビット)は、同時化部53に入力される。同時化部53は、ベイヤ配列等の1画素に1色のデータしか持っていないRAWデータに対して補間演算処理を行い、1画素に対してRGBの全てのデータを生成する。
Then, the pixel output data (12 bits) of the R, G, and B filters with the white balance adjusted from the white
そして、同時化部53で生成されたRGBの全てのデータ(12ビット)は、トーンカーブ変換部54に入力される。トーンカーブ変換部54は、図9に示すような変換テーブルによって12ビットのRGBのデータを8ビットのRGBのデータに変換するγ変換を行って、8ビットのRGB値を生成し、RGB−YUV変換部55に出力する。
All the RGB data (12 bits) generated by the
RGB−YUV変換部55は、入力されるRGBデータ(8ビット)をマトリックス演算によりYUVデータに変換し、画像サイズコンバータ部56に出力する。画像サイズコンバータ部56は、入力されるYUVデータ(8ビット)に対して所望の画像サイズに縮小または拡大を行い、輝度ヒストグラム生成部57およびエッジエンハンス部57に出力する。
The RGB-
輝度ヒストグラム生成部57は、入力されるYUVデータにより輝度ヒストグラムを生成する。エッジエンハンス部57は、入力されるYUVデータに対して画像に合わせたエッジ強調等の処理を行い、前記したGフィルタの画素出力の予測補間処理が実行されているYUVデータ(以下、「第1YUVデータ」という)を、メモリコントローラ35を介してSDRAM23に保存する。
The luminance
(第2の処理)
次に、前記第2の処理について説明する。第2の処理では、SDRAM23から読み出したRAW−RGBデータ(図5のB)がDレンジ拡大予測補間部50に入力されることなくホワイトバランス制御部52に入力される。以下、第1の処理と同様である。
(Second process)
Next, the second process will be described. In the second process, the RAW-RGB data (B in FIG. 5) read from the
即ち、ホワイトバランス制御部52は、入力されるRAW−RGBデータ(R、G、Bフィルタの画素出力データ)をそれぞれ増幅する。この際、制御部28は、CCDI/F34で算出された前記AWB評価値に基づいてホワイトバランスを合わせるための補正値を算出し、算出した補正値をホワイトバランス制御部52に出力する。ホワイトバランス制御部52は、入力される前記補正値に基づいてホワイトバランスを合わせる。
That is, the white
そして、ホワイトバランス制御部52からホワイトバランスが合わされたR、G、Bフィルタの画素出力データ(12ビット)は、同時化部53に入力される。同時化部53は、ベイヤ配列等の1画素に1色のデータしか持っていないRAWデータに対して補間演算処理を行い、1画素に対してRGBの全てのデータを生成する。
Then, the pixel output data (12 bits) of the R, G, and B filters with the white balance adjusted from the white
そして、同時化部53で生成されたRGBの全てのデータ(12ビット)は、トーンカーブ変換部54に入力される。トーンカーブ変換部54は、図9に示すような変換テーブルによって12ビットのRGBのデータを8ビットのRGBのデータに変換するγ変換を行って、8ビットのRGB値を生成し、RGB−YUV変換部55に出力する。
All the RGB data (12 bits) generated by the
RGB−YUV変換部55は、入力されるRGBデータ(8ビット)をマトリックス演算によりYUVデータに変換し、画像サイズコンバータ部56に出力する。画像サイズコンバータ部56は、入力されるYUVデータ(8ビット)に対して所望の画像サイズに縮小または拡大を行い、エッジエンハンス部57に出力する。
The RGB-
エッジエンハンス部57は、入力されるYUVデータに対して画像に合わせたエッジ強調等の処理を行い、Gフィルタの画素出力の予測補間処理が実行されていない通常処理のYUVデータ(以下、「第2YUVデータ」という)を、メモリコントローラ35を介してSDRAM23に保存する。
The
そして、YUV合成部37は、SDRAM23から読み出した前記第1YUVデータからYデータ(輝度データ)のみを取り出すとともに、SDRAM23から読み出した前記第2YUVデータからUVデータ(色差データ)のみを取り出して、1つのYUVデータ(以下、「第3YUVデータ」という)を合成する。この合成処理された第3YUVデータは、メモリコントローラ35を介してSDRAM23に保存される。
The
そして、この第3YUVデータはSDRAM23から読み出されて、リサイズ処理部38で記録画素数に対応するサイズに変換され、データ圧縮部40でJPEG形式等の画像データへと圧縮される。圧縮されたJPEG形式等の画像データは、SDRAM23に書き戻された後にメモリコントローラ35を介してSDRAM23から読み出され、メディアI/F41を介してメモリカード14に保存される。
The third YUV data is read from the
このように、本実施形態では、処理単位内の感度の高いGフィルタの画素出力が飽和レベル以上に達しているような撮影においても、感度の低いR、Bフィルタの画素出力に基づいて、飽和しているGフィルタの画素出力を予測補間処理することにより、図3に示すように、Gフィルタ(図3のd、e)の画素出力の予測補間した拡張領域(図3のd、eのGフィルタの画素出力の一点鎖線で示した部分)に基づいて、1回の撮影でダイナミックレンジを2倍に拡大することが可能となる。 As described above, in the present embodiment, saturation is performed based on the pixel outputs of the low-sensitivity R and B filters even when the pixel output of the high-sensitivity G filter within the processing unit has reached the saturation level or higher. By performing predictive interpolation processing on the pixel output of the G filter, the expanded region obtained by predictive interpolation of the pixel output of the G filter (d, e in FIG. 3) (d, e in FIG. 3) Based on the pixel output of the G filter, the dynamic range can be doubled by one shooting.
よって、撮影画像内の背景等に高輝度部分がある場合でも、白とびの発生を防止して良好な階調性を得ることが可能となる。 Therefore, even when there is a high-luminance portion in the background or the like in the captured image, it is possible to prevent the occurrence of overexposure and obtain good gradation.
更に、本実施形態では、SDRAM23から一つのRAW−RGBデータを読み出して、前記第1の処理により画素出力補正処理部61で予測補間された画素出力から生成される第1YUVデータと、前記第2の処理により画素出力補正処理部61で予測補間処理を行うことなく所定の飽和レベル以上に達している画素出力から生成される第2YUVデータをYUV合成部37に取り込み、YUV合成部37で第1YUVデータから取り出したYデータ(輝度データ)と、第2YUVデータから取り出したUVデータ(色差データ)とを合成して、第3YUVデータを生成する。
Further, in the present embodiment, one RAW-RGB data is read from the
これにより、画素出力補正処理部61により予測補間された画素出力から生成される第1YUVデータのYデータ(輝度データ)についてのみダイナミックレンジの拡大を行い、色は元のUVデータ(色差データ)を用いることで、色相のずれを防止して正確な色の再現を行うことができる。
Thereby, only the Y data (luminance data) of the first YUV data generated from the pixel output predicted and interpolated by the pixel output
例えば、Dレンジ拡大予測補間部50により飽和レベルに達しているGフィルタの画素出力の予測補間処理を例えば前記式(1)を用いて行って、ダイナミックレンジの拡大処理を行ったときに、例えば主被写体がマゼンタ色の場合には、R、Bフィルタの画素出力が大きくなる。このため、これに伴ってGフィルタの画素出力は本来よりも大きな値に算出されてしまい、その結果、正確な色の再現ができない場合がある。
For example, when the prediction interpolation process of the pixel output of the G filter that has reached the saturation level by the D range expansion
このような状況の場合でも、前記した本実施形態による処理動作を行うことにより、第1YUVデータのYデータ(輝度データ)についてのみダイナミックレンジの拡大を行い、色は元のUVデータ(色差データ)を用いることで、色相のずれを防止して正確な色の再現を行うことができる。 Even in such a situation, by performing the processing operation according to the above-described embodiment, the dynamic range is expanded only for the Y data (luminance data) of the first YUV data, and the color is the original UV data (color difference data). By using, it is possible to prevent color shift and perform accurate color reproduction.
また、図10(a)は、Gフィルタの画素出力が飽和レベルを超えたときに、前記した本実施形態におけるダイナミックレンジの拡大処理を行った場合の、輝度ヒストグラム生成部57で生成されたヒストグラムの一例である。このヒストグラムから明らかなように、ダイナミックレンジの拡大処理を行ったことにより、最大輝度部分(255)における白飛びがほとんど発生していなく、良好な階調で再現されている。
FIG. 10A shows a histogram generated by the luminance
これに対し、図10(b)は、Gフィルタの画素出力が飽和レベルを超えたときに、前記した本実施形態におけるダイナミックレンジの拡大処理を行わなかった場合の、輝度ヒストグラム生成部57で生成されたヒストグラムの一例である。このヒストグラムから明らかなように、ダイナミックレンジの拡大処理を行わなかったことにより、最大輝度部分(255)に度数があり、白飛びが発生しているのが分かる。
On the other hand, FIG. 10B is generated by the luminance
なお、前記した実施形態1の説明および図3において、所定の飽和レベル判定値である図3の飽和レベルAと、補正後の12ビットの最大値である4095とが一致しているように説明したが、これに限定するものではない。例えば、出力が完全に飽和する付近の高輝度部において、出力の直線性(リニアリティー)が良くないRGBフィルタを有するCCDでは、例えば完全に飽和する4095よりも小さい値である4032を所定の飽和レベル値(図3の飽和レベルA)とおいて、その値を超えた画素出力を予測補間処理の対象としてもよい。 In the description of the first embodiment and FIG. 3, the saturation level A in FIG. 3 that is a predetermined saturation level determination value and 4095 that is the maximum value of 12 bits after correction are matched. However, the present invention is not limited to this. For example, in a CCD having an RGB filter whose output linearity (linearity) is not good in a high-luminance part near where the output is completely saturated, for example, 4032 which is a value smaller than 4095 which is completely saturated is set to a predetermined saturation level. As a value (saturation level A in FIG. 3), a pixel output exceeding the value may be a target of the predictive interpolation process.
また、デジタルカメラのシステム構成によっては、高輝度被写体でも12ビットの最大値である4095にならないものもある。その場合も同様に所定の飽和レベルを4095よりも低い値に設定するとよい。 Also, depending on the system configuration of the digital camera, even a high-luminance subject may not reach 4095, which is the maximum value of 12 bits. In that case as well, the predetermined saturation level may be set to a value lower than 4095.
このように、4095未満を所定の飽和レベルとしたときでも、その特性に合わせて図9の変換カーブを切り替えることで、ビット圧縮変換部51の出力を4095にすることができ、後段の処理を変えることなくダイナミックレンジの拡大が可能となる。
As described above, even when the predetermined saturation level is less than 4095, the output of the bit
また、本実施形態では、図5に示したように、Dレンジ拡大予測補間部50から出力される14ビットのRAW−RGBデータ(R、G、Bフィルタの画素出力データ)をビット圧縮変換部51で12ビットに圧縮処理し、ホワイトバランス制御部52、同時化部53においては12ビットのデータ処理を行う構成であったが、これ以外にも、同時化部53の後にビット圧縮変換部51を設けて、同時化部53から出力される14ビットのデータを12ビットのデータに圧縮処理する構成でもよい。
In the present embodiment, as shown in FIG. 5, 14-bit RAW-RGB data (pixel output data of R, G, and B filters) output from the D range expansion
〈実施形態2〉
前記実施形態1では図7に示したように、RGB原色フィルタを有するCCD20に対して、2×2画素を処理単位(最小単位)としていたが、本実施形態では、図11に示すように、太枠A内の5画素(中央部に1つのGフィルタの画素(Gb)、垂直方向に2つのR(R1,R2)フィルタの画素、水平方向に2つのB(B1,B2)フィルタの画素)を処理単位(最小単位)とし、処理単位を前記実施形態1の場合よりも広い範囲とした例である。なお、デジタルカメラの構成、モニタリング動作、静止画撮影動作、およびダイナミックレンジの拡大処理動作は、前記実施形態1と同様である。
<
In the first embodiment, as shown in FIG. 7, 2 × 2 pixels are used as the processing unit (minimum unit) for the
図11に示した太枠Aの処理単位内にあるGフィルタ(Gb)の画素出力が飽和レベル以上に達している場合、Gフィルタの感度は、前記したようにR、Bフィルタの感度の約2倍であるため、Gフィルタの画素出力値(G’)は、下記の式(2)から算出する。なお、式(2)において、係数kr、kbは、それぞれホワイトバランスゲインに基づいて設定される係数である。 When the pixel output of the G filter (Gb) in the processing unit of the thick frame A shown in FIG. 11 has reached the saturation level or higher, the sensitivity of the G filter is about the sensitivity of the R and B filters as described above. Since it is twice, the pixel output value (G ′) of the G filter is calculated from the following equation (2). In Equation (2), coefficients kr and kb are coefficients set based on the white balance gain.
G’={kr(R1+R2)/2}+{kb(B1+B2)/2} …式(2)
そして、図6に示したDレンジ拡大予測補間部50の画素出力補正処理部61は、前記式(2)より算出されたGフィルタの画素出力値を、前記処理単位(図11参照)内にあるGフィルタの画素出力値として置き換え、以下、前記実施形態1と同様の処理を行う。
G ′ = {kr (R1 + R2) / 2} + {kb (B1 + B2) / 2} (2)
Then, the pixel output
このように、処理単位を広くすることで、処理単位内の他のR1,R2フィルタの画素、B1,B2フィルタの画素が持っている感度差による影響を緩和することができ、Gフィルタの画素出力に対して、より正確なダイナミックレンジ拡大予測補間が可能となる。 In this way, by widening the processing unit, it is possible to reduce the influence due to the sensitivity difference of the other R1, R2 filter pixels and B1, B2 filter pixels in the processing unit. More accurate dynamic range expansion prediction interpolation can be performed on the output.
〈実施形態3〉
本実施形態では、図12に示すように、RGBフィルタを有するCCD20に対して、太枠A内の水平方向5画素、垂直方向5画素の5×5画素(13個のGフィルタの画素(Gr、Gb)、6個ずつのR、Bフィルタ)を処理単位とした例である。なお、デジタルカメラの構成、モニタリング動作、静止画撮影動作、およびダイナミックレンジの拡大処理動作は、前記実施形態1と同様である。
<
In the present embodiment, as shown in FIG. 12, for a
処理単位を前記実施形態1、2の場合よりも広くすると、広い範囲の輝度情報に基づいて処理することになるため、ローパスフィルタをかけたことと等価になってしまう。そのため、輝度変化のエッジ部分がなまってしまう。そこで、本実施形態では、広くした処理単位の大きさを、例えば、前記AF評価値を利用して部分的に変更するものとする。 If the processing unit is wider than those in the first and second embodiments, processing is performed based on a wide range of luminance information, which is equivalent to applying a low-pass filter. Therefore, the edge portion of the luminance change is lost. Therefore, in the present embodiment, the size of the widened processing unit is partially changed using, for example, the AF evaluation value.
即ち、図2に示した信号処理部22のCCDI/F34では、前記したようにAFを行うためのAF評価値を算出している。これは、ハイパスフィルタ(HPF)の出力であり、撮影画像の画面内に輝度の変化がある部分では大きな値が出力される。そして、制御部28は、静止画撮影時のAF評価値を読み出し、画面内の輝度変化がある部分とない部分を判別する。そして、制御部28は、この判別データを基にDレンジ拡大予測補間部50に対して、輝度変化がある部分には処理単位が狭くなるような設定を行い、輝度変化がない部分には、図12に示したように処理単位が広い範囲になるように設定を行う。
That is, the CCD I /
このように、処理単位を更に広くした場合でも、輝度変化がある部分には処理単位が狭くなるような設定を行うことで、解像度を落とすことなく、正確なダイナミックレンジ拡大予測補間が可能となる。 Thus, even when the processing unit is further widened, accurate dynamic range expansion prediction interpolation can be performed without reducing the resolution by setting the processing unit to be narrower in a portion where there is a luminance change. .
なお、前記した各実施形態では、色分解フィルタとしてRGBの3原色系フィルタを配置した構成であったが、色分解フィルタとして補色系フィルタを配置した構成においても、同様に本発明を適用することができる。 In each of the embodiments described above, the RGB three primary color filters are arranged as the color separation filters. However, the present invention is similarly applied to a configuration in which the complementary color filters are arranged as the color separation filters. Can do.
1 デジタルカメラ(撮像装置)
5 撮影レンズ系(光学系)
6 鏡胴ユニット
9 液晶モニタ
12 メニューボタン(動作選択手段)
20 CCD(撮像素子)
21 アナログフロントエンド部
22 信号処理部
23 SDRAM
28 制御部
34 CCDインターフェース
35 メモリコントローラ
36 YUV変換部
37 YUV合成部(YUV合成手段)
50 Dレンジ拡大予測補間部
51 ビット圧縮変換部(ビット圧縮変換手段)
60 輝度レベル判定部(画素出力検出手段)
61 画素出力補正処理部(画素出力補正処理手段)
62 ビット拡張処理部
1 Digital camera (imaging device)
5 Shooting lens system (optical system)
6
20 CCD (imaging device)
21
28
50 D range expansion
60 Luminance level determination unit (pixel output detection means)
61 Pixel output correction processing unit (pixel output correction processing means)
62-bit extension processing section
Claims (12)
前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する画素出力検出手段と、
前記画素出力検出手段により、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その周囲の前記特定色以外のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補間する画素出力補正処理手段と、
前記画素出力補正処理手段により前記補間処理された画素出力から生成される第1YUVデータと、前記画素出力補正処理手段で前記補間処理を行うことなく前記所定の飽和レベル以上に達している画素出力から生成される第2YUVデータとを取り込み、前記第1YUVデータから取り出した輝度データと、前記第2YUVデータから取り出した色差データとを合成した第3YUVデータを生成するYUV合成手段と、を有する、
ことを特徴とする撮像装置。 An object image incident through the optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and an image pickup device in which a plurality of color separation filters are arranged on the front side of each pixel is provided.
Pixel output detection means for determining whether the output from any pixel reaches or exceeds a predetermined saturation level with respect to the output from each pixel;
When the pixel output detection means determines that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or higher, the pixel in which the filter other than the specific color is arranged around it Pixel output correction processing means for interpolating the pixel output determined to be equal to or higher than the predetermined saturation level based on the output from
From the first YUV data generated from the pixel output subjected to the interpolation processing by the pixel output correction processing means, and the pixel output reaching the predetermined saturation level or higher without performing the interpolation processing by the pixel output correction processing means. YUV synthesizing means that takes in the generated second YUV data and generates third YUV data by synthesizing the luminance data extracted from the first YUV data and the color difference data extracted from the second YUV data,
An imaging apparatus characterized by that.
ことを特徴とする請求項1に記載の撮像装置。 The processing unit when the output of each pixel is detected by the pixel output detection means is a size of 2 × 2 pixels in the horizontal and vertical directions.
The imaging apparatus according to claim 1.
ことを特徴とする請求項1または2に記載の撮像装置。 An operation selecting means for selecting and executing the operation to be interpolated when the predetermined saturation level is reached or higher with respect to the output of the pixel in which the filter of the specific color is disposed;
The imaging apparatus according to claim 1 or 2, wherein
前記ビット圧縮変換手段は、前記飽和レベル以上領域における画素出力に対応したデータに対する圧縮率よりも、前記飽和レベル以下における画素出力に対応したデータに対する圧縮率を小さくして圧縮する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。 When the output of the pixel in which the filter of the specific color is arranged reaches or exceeds the predetermined saturation level, the pixel output correction processing means outputs the first bit number below the predetermined saturation level. Bit compression conversion means for compressing the pixel output data once expanded to the number of bits of 2 to the first number of bits again,
The bit compression conversion means compresses the compression corresponding to the pixel output at the saturation level or lower than the compression corresponding to the data corresponding to the pixel output in the region above the saturation level.
The imaging apparatus according to any one of claims 1 to 3, wherein
ことを特徴とする請求項4に記載の撮像装置。 For the data corresponding to the pixel output at the low luminance level below the saturation level, use a compression ratio that is substantially the same value before and after bit compression by the bit compression conversion means,
The imaging apparatus according to claim 4.
ことを特徴とする請求項1乃至5のいずれか一項に記載の撮像装置。 When there is a defective pixel in the processing unit, a pixel in which a filter of the same color as the defective pixel around the defective pixel is arranged instead of the defective pixel.
The imaging device according to any one of claims 1 to 5, wherein
前記各画素からの出力に対し、いずれかの画素からの出力が所定の飽和レベル以上に達しているか否かを判定する判定処理ステップと、
前記判定処理ステップにより、特定色のフィルタが配置された画素からの出力が前記所定の飽和レベル以上に達していると判定した場合に、その周囲の前記特定色以外のフィルタが配置された画素からの出力に基づいて、前記所定の飽和レベル以上と判定した画素出力を補間する補間処理ステップと、
前記補間処理ステップにより前記補間処理された画素出力から生成される第1YUVデータと、前記補間処理ステップで前記補間処理を行うことなく前記所定の飽和レベル以上に達している画素出力から生成される第2YUVデータとを取り込み、前記第1YUVデータから取り出した輝度データと、前記第2YUVデータから取り出した色差データとを合成して第3YUVデータを生成するYUV合成処理ステップと、を含む、
ことを特徴とする撮像方法。 An imaging device including an imaging device in which a subject image incident through an optical system is received by a light receiving surface having a plurality of pixels and converted into an electrical signal, and a plurality of color separation filters are arranged on the front side of each pixel. In the imaging method of the apparatus,
A determination processing step for determining whether the output from any of the pixels has reached a predetermined saturation level or higher with respect to the output from each of the pixels;
When it is determined in the determination processing step that the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more, the surrounding pixels from which the filter other than the specific color is arranged An interpolation processing step of interpolating the pixel output determined to be equal to or higher than the predetermined saturation level based on the output of
First YUV data generated from the pixel output subjected to the interpolation processing in the interpolation processing step, and first output generated from the pixel output that has reached the predetermined saturation level or higher without performing the interpolation processing in the interpolation processing step. YUV composition processing step of taking in 2YUV data and synthesizing luminance data extracted from the first YUV data and color difference data extracted from the second YUV data to generate third YUV data,
An imaging method characterized by the above.
ことを特徴とする請求項7に記載の撮像方法。 The processing unit when detecting the output of each pixel in the determination processing step is a size of 2 × 2 pixels in the horizontal and vertical directions.
The imaging method according to claim 7.
ことを特徴とする請求項7または8に記載の撮像方法。 The operation of performing the interpolation when the output from the pixel in which the filter of the specific color is arranged has reached the predetermined saturation level or more is performed by selecting an operation with an operation selection unit.
The imaging method according to claim 7 or 8, wherein
前記ビット圧縮変換ステップでは、前記飽和レベル以上領域における画素出力に対応したデータに対する圧縮率よりも、前記飽和レベル以下における画素出力に対応したデータに対する圧縮率を小さくして圧縮する、
ことを特徴とする請求項7乃至9のいずれか一項に記載の撮像方法。 When the output of the pixel in which the filter of the specific color is disposed has reached the predetermined saturation level or higher, the second output from the first number of bits below the predetermined saturation level is output from the interpolation processing step. A bit compression conversion step of compressing the pixel output data expanded once to the number of bits into the first number of bits again;
In the bit compression conversion step, compression is performed by reducing the compression rate for data corresponding to the pixel output at the saturation level or lower than the compression rate for data corresponding to the pixel output in the region above the saturation level,
The imaging method according to claim 7, wherein:
ことを特徴とする請求項10に記載の撮像方法。 The data corresponding to the pixel output at the low luminance level below the saturation level is compressed using a compression ratio that is substantially the same value before and after bit compression in the bit compression conversion step. ,
The imaging method according to claim 10.
ことを特徴とする請求項7乃至11のいずれか一項に記載の撮像方法。 When there is a defective pixel in the processing unit, a pixel in which a filter of the same color as the defective pixel around the defective pixel is arranged instead of the defective pixel.
The imaging method according to any one of claims 7 to 11, wherein:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008172327A JP5169540B2 (en) | 2007-09-14 | 2008-07-01 | Imaging apparatus and imaging method |
US12/209,599 US7884866B2 (en) | 2007-09-14 | 2008-09-12 | Imaging apparatus and imaging method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007240018 | 2007-09-14 | ||
JP2007240018 | 2007-09-14 | ||
JP2008172327A JP5169540B2 (en) | 2007-09-14 | 2008-07-01 | Imaging apparatus and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009089358A true JP2009089358A (en) | 2009-04-23 |
JP5169540B2 JP5169540B2 (en) | 2013-03-27 |
Family
ID=40662084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008172327A Expired - Fee Related JP5169540B2 (en) | 2007-09-14 | 2008-07-01 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5169540B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102465070B1 (en) | 2018-06-20 | 2022-11-09 | 삼성전자주식회사 | Method and device to recover image |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001112010A (en) * | 1999-10-05 | 2001-04-20 | Sony Corp | Color image pickup device |
JP2003199117A (en) * | 2001-12-25 | 2003-07-11 | Sony Corp | Image pickup device and signal processing method for solid-state imaging element |
-
2008
- 2008-07-01 JP JP2008172327A patent/JP5169540B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001112010A (en) * | 1999-10-05 | 2001-04-20 | Sony Corp | Color image pickup device |
JP2003199117A (en) * | 2001-12-25 | 2003-07-11 | Sony Corp | Image pickup device and signal processing method for solid-state imaging element |
Also Published As
Publication number | Publication date |
---|---|
JP5169540B2 (en) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5347707B2 (en) | Imaging apparatus and imaging method | |
JP5123137B2 (en) | Imaging apparatus and imaging method | |
US8269852B2 (en) | Imaging apparatus and imaging method | |
JP4567593B2 (en) | Imaging apparatus and imaging method | |
US7884866B2 (en) | Imaging apparatus and imaging method | |
US8319864B2 (en) | Imaging apparatus and imaging method | |
JP5223686B2 (en) | Imaging apparatus and imaging method | |
JP2017022610A (en) | Image processing apparatus and image processing method | |
JP5343588B2 (en) | Imaging device | |
JP5277863B2 (en) | Imaging apparatus and imaging method | |
JP5256947B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD | |
JP2008053931A (en) | Imaging apparatus | |
JP5138521B2 (en) | Imaging apparatus and imaging method | |
JP5091781B2 (en) | Imaging apparatus and imaging method | |
JP5948997B2 (en) | Imaging apparatus and imaging method | |
JP5803233B2 (en) | Imaging apparatus and imaging method | |
JP2010068331A (en) | Imaging device and imaging method | |
JP4934617B2 (en) | Imaging apparatus and imaging method | |
JP5310331B2 (en) | Imaging apparatus and imaging method | |
JP5169540B2 (en) | Imaging apparatus and imaging method | |
KR101408359B1 (en) | Imaging apparatus and imaging method | |
JP5145876B2 (en) | Imaging apparatus and imaging method | |
JP5091734B2 (en) | Imaging apparatus and imaging method | |
JP2010068064A (en) | Imaging device and imaging method | |
JP2006109046A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121217 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5169540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |