以下、この発明の実施の形態に係る撮像装置及び撮像方法を図面に基づいて説明する。
[構成]
(デジタルスチルカメラの外観構成)
図1(a)は本実施形態に係る撮像装置としてのデジタルスチルカメラの正面図、図1(b)は図1(a)のデジタルスチルカメラの背面図、図1(c)は図1(b)のデジタルスチルカメラの平面図である。図1(a)〜(c)において、1はこの発明に係るデジタルスチルカメラのカメラ本体(カメラボディ)である。
このカメラ本体1の正面1aの中央には、図1(a)に示したように、撮影用の鏡胴ユニットである撮影レンズ2が設けられている。また、カメラ本体1の正面1aの右上にはフラッシュ3が設けられ、カメラ本体1の正面1aの中央上部には光学ファインダ4の透窓4aが設けられている。
また、図1(b)に示したように、カメラ本体1の背面1bの中央上部にはファインダ4の覗き窓4bが設けられており、カメラ本体1の背面1bの略左側には液晶表示器(LCDディスプレイ)5が画像表示装置(画像表示手段)として設けられている。また、カメラ本体1の背面1b右側上部には、ワイドボタンである広角方向ズームスイッチ(ワイドスイッチ)6及び望遠ボタンである望遠方向ズームスイッチ(テレスイッチ)7が設けられている。
更に、カメラ本体1の背面1b右側の下部には、図1(b)に示したようにメニュースイッチ(メニューボタン)8及び確定スイッチ(確定ボタン)9が設けられている。このメニュースイッチ8をONさせることで、液晶表示器5には撮影条件設定や画像選択或いはその他のメニュー画面が表示されるようになっている。このメニュー画面の内容としては、周知のディジタルカメラに採用されているものを用いることができるので、その詳細な説明は省略する。
また、カメラ本体1の背面1b右側の上下方向の中央には、図1(b)に示したように、選択スイッチ(選択ボタン、選択手段)10が設けられている。この選択スイッチ10は、例えばメニュースイッチ8で液晶表示器5に表示されるメニュー画面のメニューの選択や撮影条件の選択等に用いられる。尚、選択スイッチ10には、上下左右に選択カーソル(図示せず)を移動させる上移動スイッチUP,下移動スイッチDOWN,横移動スイッチRIGHT,横移動スイッチLEFT等が設けられている。
更に、図1(c)に示したように、カメラ本体1の上面1cの右側には、撮影/再生切換ダイヤル(モード切替手段としてのモードダイヤル)11と、電源釦12及びレリーズシャッターボタンであるレリーズ釦(レリーズスイッチ)13等を備えている。
この撮影/再生切換ダイヤル11には、上面1cのマーク(モード設定線)14に合わせることにより撮影モードとするカメラマーク11aや、再生モードとする右向きの三角マーク11b等が設けられている。更に、電源釦12は撮影/再生切換ダイヤル11の中央に設けられ、レリーズ釦13は撮影/再生切換ダイヤル11に近接して上面1cに設けられている。
尚、図1(c)に示したように、カメラ本体1にはメモリカード収納部15が設けられ、メモリカード収納部15にはメモリカード15aが収納されている。
(デジタルスチルカメラのシステム構成)
また、図2は、図1(a)〜図1(c)に示したデジタルスチルカメラの光学系(撮影レンズ2)及び制御回路等を含む撮像処理システムの概要図である。
<撮影レンズ2>
この図2において、図1の撮影レンズ2は、複数枚のレンズ又はレンズ群からなる撮影光学系(ズームAFレンズ即ちズームオートフォーカスレンズ)16とメカニカルシャッタ17を備えている。このズームレンズである撮影光学系16は、図示しないレンズ駆動モータによりズーム及びオートフォーカスのための駆動ができるようになっている。また、メカニカルシャッタ17は、図示しないシャッター駆動モータにより駆動されるようになっている。これらの構成には周知の構成を採用できるので、その詳細な説明は省略する。
尚、図2において、18は上述したカメラ本体1の操作部である。この操作部18は、カメラ本体1の広角方向ズームスイッチ6,望遠方向ズームスイッチ7,メニュースイッチ8,確定スイッチ9,撮影/再生切換ダイヤル11,電源釦12及びレリーズ釦13等を含んでいる。
<撮像処理システム>
また、撮影レンズ2を透過した被写体からの光束は撮像処理システムにより信号処理されるようになっている。この撮像処理システムは、撮影レンズ2を透過した光束により被写体像を結像させて撮像する撮像センサー(撮像部)19と、撮像センサー19から出力されるデジタル信号を処理する信号処理部(信号処理IC)20と、画像データ等を一時的に格納するSDRAM21(フレームメモリ)と、制御プログラム等が記憶されたROM22、撮影レンズ2を駆動するモータドライバ23等を有している。
尚、このモータドライバ23は、撮影光学系16のレンズを光軸方向に移動させるレンズ駆動モータ(図示せず)、及び、メカニカルシャッタ17のシャッター駆動モータ(図示せず)を駆動するようになっている。
(撮像センサー19)
この撮像センサー19は、撮影レンズ2を透過した被写体からの光束が入射して被写体像が結像される撮像素子(二次元の受光センサー、イメージセンサ、撮像手段)24と、この撮像素子24から出力されるRGBのアナログ信号(映像信号)を12bitのデジタルデータ(以下、「RAW−RGBデータ」という)に変換するA/D変換部25と、撮像素子24及びA/D変換部25を駆動するTG(タイミング信号発生部)26を有する。
尚、本実施例では撮像素子24に800万画素のCMOSイメージセンサー等の固体撮像素子が用いられている。また、CMOSイメージセンサーには例えばRGBのフィルタがベイヤ配列されたものが用いられていて、CMOSイメージセンサーからはRGBの画像信号が出力されるようになっている。
この撮像素子24は、静止画撮影時は全画素を1/30秒ごとに出力することができる。また、撮像素子24は、ファインダモード時、周辺画素を加算と間引きを組み合わせて、全画素よりも少ない画素数で出力する。この加算する画素数および間引き率は設定により変更可能である。
(信号処理部20)
この信号処理部(信号処理IC)20は、センサーI/F部(センサーインタフェース部)27、CPU(中央演算制御装置)28、メモリコントローラ29、YUV変換部30、圧縮処理部31、表示出力制御部32、リサイズ処理部33、及びメディアインタフェース(メディアI/F)34等を備えている。
このセンサーI/F部(センサーインタフェース部)27は、制御手段(演算制御手段)であるCPU(中央演算制御装置)28及びメモリコントローラ29に接続されている。また、CPU28は、メモリコントローラ29,YUV変換部30,メディアインタフェース(メディアI/F)34に接続されている。更に、メモリコントローラ29は、SDRAM21(フレームメモリ),表示出力制御部32及びリサイズ処理部33に接続されている。この表示出力制御部32は、液晶表示器5に接続されていると共に、TV(図示せず)に接続される。そして、表示出力制御部32は、液晶表示器5に動画や静止画像等の画像信号を表示のために出力するようになっている。
<センサーI/F部(画像取込手段)27>
この画像取込手段であるセンサーI/F部27には、撮影レンズ2のTG(タイミング信号発生部)26から入力される画面水平同期信号(HD)と画面垂直同期信号(VD)に合わせて、A/D変換部25で変換された12bitのRAW−RGBデータ(デジタルデータ、RGBのデジタル画像データ)を取り込むようになっている。
しかも、センサーI/F部27は、RGBのデジタルデータを取り込むと、取り込んだRAW−RGBデータから、画面の合焦度合いを示すAF評価値(自動合焦評価値)、被写体輝度を検出したAE評価値(自動露出評価値)、及び被写体色や光源色を検出したAWB評価値(オートホワイトバランス評価値)等の特徴データを算出するようになっている。従って、センサーI/F部27は、AF評価値,AE評価値,AWB評価値等の評価値算出手段(特徴データ算出手段)としての機能を有するので、画像取込・評価値算出手段又は画像取込・特徴データ算出手段ということもできる。そして、このAF評価値,AE評価値,AWB評価値等の特徴データの算出は、動画を構成するフレーム(画像フレーム)毎に行うことができる。
しかし、実際、センサーI/F部27は、動画を構成するフレーム(画像フレーム)毎にA/D変換部25から出力されるRAW−RGBデータ(RGBのディジタルデータ)を順次取り込んで、各フレーム毎のAF評価値,AE評価値,AWB評価値等の特徴データを算出させるようになっている。尚、センサーI/F部27は、評価値算出用のフォーカス位置に対応するフレーム数になる毎にAF評価値,AE評価値,AWB評価値等の特徴データを算出させるようにすることもできる。
この特徴データの算出は、例えば撮像素子24の受光面(画面)を16×16のブロックに分割して、この分割したブロックのそれぞれの領域で算出されるようになっている。
また、AF評価値は、例えば高周波成分抽出フィルタ(図示せず)の出力積分値や、近接画素の輝度差の積分値によって算出(作成)される。尚、被写体が撮影光学系16により撮像素子24に対して合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が増加し、AF評価値が一番高くなる。
更に、AE評価値とAWB評価値は、RGBのそれぞれのディジタルデータの積分値から算出(作成)される。この際、センサーI/F部27は、撮像素子24の受光面(画面)を256エリア(水平16分割、垂直16分割)に分割して、各エリアのRGBのディジタルデータの積算値からAE評価値とAWB評価値を算出する。
<CPU28>
この制御手段(制御回路)であるCPU28には、カメラ本体1の広角方向ズームスイッチ6,望遠方向ズームスイッチ7,メニュースイッチ8,確定スイッチ9,撮影/再生切換ダイヤル11,電源釦12及びレリーズ釦13等の操作部18から、所定の動作指示信号(操作信号)が入力されるようになっている。
そして、CPU28は、レリーズ釦13が操作されると、メカニカルシャッタ17を操作部18からの撮影条件情報(例えば、露出条件信号)等に基づいてメカニカルシャッタ17のシャッター駆動モータ(図示せず)を駆動制御し、メカニカルシャッタ17を所定量開かせる。
これに伴い、CPU28は、フレームレートに同期してモータドライバ23を作動制御して、撮影レンズ2に設けた撮影光学系16のレンズ駆動モータ(図示せず)を駆動制御し、撮影光学系16のフォーカスレンズ(図示せず)を光軸方向に移動制御して、合焦検出動作を開始するようになっている。このようなレリーズ釦13の半押し操作の構成やメカニカルシャッタ17の駆動構造及びフォーカスレンズ(図示せず)の駆動構造については、周知の構造を採用できるので、その詳細な説明は省略する。
この制御に際して、CPU28は、AF対象範囲が無限から至近までの全領域であった場合、フォーカスレンズを至近から無限、または無限から至近の方向に移動させて、撮影レンズ2の撮像素子24で動画を撮像させるようになっている。尚、CPU28は、フォーカスレンズの光軸方向への移動に伴い、光軸方向への移動位置の複数箇所を評価値を算出するフォーカス位置とするように設定されている。
尚、センサーI/F部27は、上述したように動画を構成するフレーム(画像フレーム)毎にA/D変換部25から出力されるRAW−RGBデータ(RGBのディジタルデータ)を順次取り込んで、評価値算出用のフォーカス位置に対応するフレーム数になる毎にAF評価値,AE評価値,AWB評価値等の特徴データを算出させるようになっている。
また、CPU28は、メモリコントローラ29,YUV変換部30及びメディアインタフェース(メディアI/F)34等を動作制御するようになっている。
更に、CPU28は、評価値算出用のフォーカス位置に対応するフレームのAF評価値,AE評価値,AWB評価値等の特徴データをセンサーI/F部27から順次読み出して、AE,AF,AWBのそれぞれの処理に利用するようになっている。
このAF評価値は、上述したように被写体が撮影光学系16により撮像素子24に対して合焦状態にあるときに、一番高くなる。これを利用してCPU28は、AFによる合焦検出動作時に、モータドライバ23を作動制御して撮影レンズ2のレンズ駆動モータ(図示せず)を作動制御することにより、撮影光学系16のフォーカスレンズ(図示せず)をレンズ駆動モータ(図示せず)により光軸方向に移動させながら、それぞれのフォーカスレンズ位置におけるAF評価値をセンサーI/F部27から取得して、その極大になる点を合焦位置としてAF(自動合焦)を実行する。
また、CPU28は、解像度の高いものがあるかどうかの判断にも利用できる。即ち、撮像素子24の受光面を例えば16×16の複数のブロックに分割した領域のうち、例えば文字などがたくさん書いてある領域では、高周波成分が高くなり、高周波成分抽出ができるハイパスフィルタの出力値は大きくなる。逆に真っ白の紙など輝度の変化がない領域では、高周波成分がないために、ハイパスフィルタの出力は小さくなる。そのため、CPU28は、撮像素子24の16×16にブロックに分割された受光面の各領域におけるAF評価値を比較することで、どの領域に先鋭度の高いものが存在するかの判定をすることができる。
更に、CPU28は、センサーI/F部27からRGBのディジタルデータの変化の積分値を読み出し、AEでの露光時間やAWBの制御値を決定するようになっている。
即ち、AEにおいてCPU28は、撮像素子24の16×16にブロックに分割された受光面の各領域(エリア)の輝度を算出して、この算出した輝度から撮像素子24の受光面の輝度分布を求め、この算出した輝度分布から適正な露光時間を決定する。また、AWBにおいてCPU28は、RGBの分布から被写体色や光源色を判定し、光源の色に合わせたAWBの制御値を決定する。このAEとAWBの処理は、ファインダモード中は連続的に行われている。
また、CPU28は、AWBなどの変換係数をYUV変換部30に入力するようになっている。
<メモリコントローラ29>
このメモリコントローラ29は、CPU(中央演算制御装置)28により動作制御されて、SDRAM(フレームメモリ)21を作動制御すると共に、センサーI/F部27から取り込まれたRAW−RGBデータをSDRAM(フレームメモリ)21に記録させるようになっている。
また、メモリコントローラ29は、SDRAM21に記録されたRAW−RGBデータ(画像データ)を読み込んでYUV変換部30に入力させ、このRAW−RGBデータをYUV変換部30によりYUVデータ(YUV画像データ)に変換させ、この変換されたYUVデータ(YUV画像データ)をSDRAM(フレームメモリ)21に記録させるようになっている。
しかも、メモリコントローラ29は、YUVデータをメディアインタフェース34を介してメモリカード15aに記録させるようになっている。
また、メモリコントローラ29は、SDRAM21に記録されたYUVデータをリサイズ処理部33に入力して、リサイズ処理部33でYUVデータの記録画素数に対応するサイズに変換させる。しかも、メモリコントローラ29は、リサイズ処理部33で記録画素数に対応するサイズに変換したYUVデータを圧縮処理部31に入力して、このYUVデータを圧縮処理部31でJPEG形式等の画像データへと圧縮させ、この圧縮処理された画像データをSDRAM(フレームメモリ)21に記録させるようになっている。また、メモリコントローラ29は、圧縮処理されたJPEG形式等の画像データもメディアインタフェース34を介してメモリカード15aに記録させるようになっている。
更に、メモリコントローラ29からは動画又は静止画像の画像データ信号が操作部18の操作に応じて出力される。
<YUV変換部30>
このYUV変換部30は、RAW−RGBデータを輝度データ(Y),色差(輝度データと青色(B)データの差分(U),輝度データと赤色(R)の差分(V)等の情報で色を表現する形式に変換する。
<表示出力制御部32>
この表示出力制御部32は、メモリコントローラ29からの画像データ信号を表示用の画像信号に処理して、この画像信号を液晶表示器5に入力させ、液晶表示器5に撮像した動画又は静止画像を表示させる。また、表示出力制御部32は、表示用の画像信号をTV出力として出力させる。
<リサイズ処理部33>
このリサイズ処理部33は、SDRAM21に記録されたYUVデータを記録画素数に対応するサイズに変換させる。
[作用]
次に、このような構成の撮像装置の作用を説明する。
図1の撮影/再生切り替えの撮影/再生切換ダイヤル(モードダイヤル)11を回動操作して、撮影/再生切換ダイヤル11のマーク11aをマーク14に合わせることにより、ディジタルカメラを撮影モードに設定する。次に、電源釦2を押すことで、ディジタルカメラが記録モードで起動する。
即ち、上述の撮影/再生切換ダイヤル11および電源釦2は図2における操作部18に含まれているので、撮影/再生切換ダイヤル11の状態が撮影モードの状態で電源釦2がONさせられると、CPU28,撮像センサー19,LCDディスプレイ5等のディジタルカメラの各部に電源が投入される。そして、CPU28は、電源が供給されると各部の制御動作を開始する。この際、CPU28は、モータドライバ23を動作制御して、鏡胴ユニットである撮影レンズ2を撮影可能位置に移動させると共に、メカニカルシャッタ17を所定面積開口させる。
また、ディジタルカメラは、各部に電源が投入されるとファインダモードの動作が開始する。
このファインダモードでは、先ず被写体からの撮影光束が撮影レンズ2の撮影光学系(レンズ)16を通して撮像センサー(ここではCMOSセンサーとする)である撮像素子24に入射すると、被写体像が撮影光学系(レンズ)16により撮像素子24に結像される。この際、撮像素子24からはRGBのアナログ信号(画像信号)が出力され、このアナログ信号がA/D変換部25に送られる。このA/D変換部25では、入力されたアナログ信号を12bitのRGBのデジタルデータ(RAW−RGBデータ)に変換する。
このデジタルデータに変換されたRGBのそれぞれのデジタルデータ(RAW−RGBデータ)は、信号処理部(デジタル信号処理IC)20内のセンサーI/F部27に取り込まれる。そして、メモリコントローラ29は、センサーI/F部27に取り込まれたデジタルデータ(RAW−RGBデータ)は画像データとしてフレームメモリであるSDRAM21に書き込まれる。
また、メモリコントローラ29は、SDRAM21に書き込まれたデジタルデータ(RAW−RGBデータ)を読み出してYUV変換部30に入力させる。このYUV変換部30は、入力されたRGBのそれぞれの信号を表示可能な形式であるYUVデータに変換する。そして、YUVデータは、メモリコントローラ29によってフレームメモリであるSDRAM21に書き込まれる。このYUVデータは、メモリコントローラ29に読み出されて、表示出力制御部32を介してTVや液晶表示器(LCDモニタ)5へ送られて表示が行われる。このようなファインダモードでの撮像から表示までの処理は、1/60秒間隔で行われて更新される。
一方、信号処理部(デジタル信号処理IC)20のセンサーI/F部27は、撮像素子24の受光面を複数のブロックに分割したときに、各ブロック内に取り込まれたデジタルRGB信号より、画面の合焦度合いを示すAF評価値と、被写体輝度を検出したAE評価値と、被写体色や光源色を検出したAWB評価値が算出する。
このAF評価値,AE評価値,AWB評価値の算出は、例えば撮像素子24の受光面(画面)を16×16のブロックに分割したそれぞれのブロックの領域に対して実行され、特徴データとしてCPU28に読み出されて、AE、AF、AWBのそれぞれの処理に利用される。
AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって作成される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が増加し、AF評価値が一番高くなる。これを利用して、AFによる合焦検出動作時は、フォーカスレンズを移動させながら、それぞれのフォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦位置としてAFを実行する。
また解像度の高いものがあるかどうかの判断にも利用できる。文字などがたくさん書いてある領域では、高周波成分が高くなり、高周波成分抽出ができるハイパスフィルタの出力値は大きくなる。逆に真っ白の紙など輝度の変化がない領域では、高周波成分がないために、ハイパスフィルタの出力は小さくなる。そのためブロック分割された各領域におけるAF評価値を比較することで、どの領域に先鋭度の高いもの存在するかの判定をすることができる。
AE評価値とAWB評価値は、RGBのそれぞれの積分値から作成される。画面を256エリア(水平16分割、垂直16分割)のエリアのRGB積算を算出する。CPU28はRGB積分値を読み出し、AEでは、それぞれのブロックのエリアの輝度を算出して、輝度分布から適正な露光時間を決定する。AWBでは、RGBの分布から被写体色や光源色を判定し、光源の色に合わせたAWBの制御値を決定する。このAEとAWBの処理は、ファインダモード中は連続的に行われている。
また、図1のレリーズ釦(レリーズシャッタボタン)13が操作されると、合焦位置検出であるAF動作と静止画記録処理が行われる。
即ち、レリーズ釦13が押されると、図2のカメラ操作部18から静止画撮影開始信号がCPU28に取り込まれ、CPU28がフレームレートに同期してモータドライバ23を介して撮影光学系16の図示しないフォーカスレンズを光軸方向に移動制御(駆動制御)して、AF(自動合焦)を実行する。
この際、AF対象範囲が無限から至近までの全領域であった場合、フォーカスレンズは至近から無限の合焦方向、または無限から至近の合焦方向に移動させられる。尚、CPU28は、フォーカスレンズの光軸方向への移動に伴い、光軸方向への移動位置の複数箇所を評価値を算出するフォーカス位置とする。そして、このフォーカスレンズの移動に伴い、各フォーカス位置で信号処理部(デジタル信号処理IC)20のセンサーI/F部27で作成された各フレーム(=各フォーカス位置)におけるAF評価値をCPU28が読み出す。
このCPU28は、複数のフォーカス位置で読み出した複数のAF評価値のうち、AF評価値が極大になる点を被写体への合焦位置とし、モータドライバ23を動作制御してフォーカスレンズを合焦位置に移動させて、撮像素子24の受光面を被写体にAF(自動合焦)させ、AF動作を完了させる。
このようなAF(自動合焦)動作の完了後に、撮像素子24(撮像センサー)から出力された画像信号はA/D変換部25でデジタルRGB信号、即ちデジタルデータ(RAW−RGBデータ)に変換され、信号処理部(デジタル信号処理IC)20のセンサーI/F部27及びメモリコントローラ29を介してSDRAM21(フレームメモリ)に格納(記憶)される。また、このSDRAM21に格納されたデジタルデータ(RAW−RGBデータ)は、メモリコントローラ29に読み込まれて、YUV変換部30に入力されてYUVデータに変換されて、このYUVデータがSDRAM21に記録される(書き戻される)。
(i).YUV変換部30の処理
ところで、通常撮影時のYUV変換部30の内部処理は図6に示すような処理で行われ、ダイナミックレンジ拡大撮影時のYUV変換部30の内部処理は図7に示すような処理で行われるようになっている。
即ち、図7のYUV変換部30の内部処理ではDレンジ拡大処理部301及びBit圧縮変換部303を用いているが、このDレンジ拡大処理部301及びBit圧縮変換部303の処理は通常撮影時では行われない。
この図7においてDレンジ拡大処理部301は、後で詳述するように、主露光及び副露光による12bitのCCD−RAWデータが入力されると、Dレンジ拡大処理部301は12bitのCCD−RAWデータ(即ち、RAW−RGBデータ)のダイナミックレンジの拡大処理をして、ダイナミックレンジが拡大処理された合成画像データ(主露光画像データ及び副露光画像データの合成画像データ)を生成し、合成画像データを14bitのCCD−RAWデータに処理してWB−AMP302(ホワイトバランスアンプ)に入力する。
このWB−AMP302は、AWB評価値から算出された光源色温度に合わせたAWB補正係数によってホワイトバランスの補正を14bitのCCD−RAWデータに対して実行する。このようにしてホワイトバランスの補正がされた画像データはBit圧縮変換部303に入力される。
このBit圧縮変換部303は、14bitのCCD−RAWデータを圧縮して12bitのCCD−RAWデータに変換し、同時化ブロック304に入力する。
このようなダイナミックレンジ拡大撮影時のダイナミックレンジの拡大処理以外は、図6の通常撮影時のYUV変換部30のの内部処理で実行されるので、この通常撮影時のYUV変換部30の処理について先ず説明する。
.通常撮影時のYUV変換部30の内部処理
図6のYUV変換部30の内部処理では、12bitのCCD−RAWデータがWB−AMP302(ホワイトバランスアンプ)に入力される。
このWB−AMP302は、AWB評価値から算出された光源色温度に合わせたAWB補正係数によってホワイトバランスの補正を12bitのCCD−RAWデータに対して実行する。このようにしてホワイトバランスの補正がされた画像データは同時化ブロック304に入力される。
この同時化ブロック304は、ベイヤ配列のデータ(12bitのCCD−RAWデータ)に対して補間処理を行ない、各画素位置に12bitのRGB全ての値を生成させ、この12bitのRGBのデータをトーン変換部305に入力する。
次に、トーン変換(γ変換)305は、12bitのRGBのデータを階調補正して8bitのRGBのデータに変換し、この階調補正がされた8bitのRGBのデータをRGB-YUV変換部306に入力する。このRGB-YUV変換部306は、8bitのRGBのデータをRGB-YUV変換によって色空間変換により8bitのYUVデータに変換して、8bitのYUVデータを画像サイズコンバータ307に入力する。
この画像サイズコンバータ307は、8bitのYUVデータの画像サイズを所望のサイズに変更して、エッジエンハンス部308及び輝度ヒストグラム生成部309に入力する。
このエッジエンハンス部308は、エッジ強調やノイズリダクションを行って、最終的なYUVデータとして出力する。
尚、スチル画像撮像時は、YUV変換部30でYUV変換された画像データ(YUVデータ)がメモリコントローラ29により信号処理部(デジタル信号処理IC)20内の圧縮処理部(画像圧縮伸張回路)31に送られる。また、圧縮処理部(画像圧縮伸張回路)31に送られたYUVデータは圧縮され、メモリコントローラ29によりSDRAM21(フレームメモリ)に書き戻される。SDRAM21の圧縮データはメモリコントローラ29を介して読み出され、メディアインターフェース34を介してメモリカード(データ記憶メモリ)15aに格納される。
このような通常撮影時のYUV変換部30の処理はダイナミックレンジ拡大撮影時のダイナミックレンジの拡大処理にも用いられる。
(iii).ダイナミックレンジ拡大撮影時のYUV変換部30の内部処理
次に本発明の特徴となる動作であるダイナミックレンジ拡大撮影及びダイナミックレンジ拡大処理について説明する。
<ダイナミックレンジ拡大撮影>
図3は露光タイミングチャートである。上述したようにレリーズ釦(レリーズシャッタ)13が押されると、AF(自動合焦)が実行される。そして、AF終了後に、図3で示すように、最初に露光時間の短い副露光がCMOSセンサーを用いた撮像素子24のローリングシャッタによって実行され、撮像素子24から出力される副露光画像の画像信号の取り込みが信号処理部20によって行われる。
続いて、露光時間の長い主露光は、副露光による画像信号の取り込みが時間t1で終了した後、撮像素子24の一括電子シャッタによる初期化が時間t2で終了すると開始され、メカニカルシャッタ17が時間t3閉じられたところで停止する。そして、この主露光により撮像素子24から出力される主露光画像の画像信号の取り込みが信号処理部20によって行われる。
この副露光による画像信号は、A/D変換部25でRAW−RGBデータ(デジタルデータ)に変換され、上述したように信号処理部20によってフレームメモリであるSDRAM21に副露光画像データ(RAW−RGBデータ)として保存される。また、主露光による画像信号は、A/D変換部25でRAW−RGBデータ(デジタルデータ)に変換され、上述したように信号処理部20によってフレームメモリであるSDRAM21に主露光画像データ(RAW−RGBデータ)として保存される。
図4は露光量が多く画素数が多い主露光画像と、露光量が少なく画素数が少ない副露光画像の被写体輝度に対する露光画像データ出力の関係を示している。
この図4から明らかなように、主露光は露光時間が長いために被写体輝度Lx1からLx4までの高輝度部分では飽和(白飛び)してしまっている。しかし、副露光は露光時間が短いために被写体輝度Lx1を超えても飽和が起こっておらず、被写体輝度Lx4の時点で飽和することが分かる。この副露光画像データによる副露光画像は、露光時間が短いために主露光画像データが飽和する被写体輝度Lx1では主露光画像よりも暗い画像となる。
<ダイナミックレンジ拡大処理>
この主露光画像データ(RAW−RGBデータ)と副露光画像データ(RAW−RGBデータ)は、図2のメモリコントローラ29により読み出されて、図7のYUV変換部30のDレンジ拡大処理部301に入力される。この副露光画像データによる副露光画像を主露光画像データによる主露光画像と略同じ輝度の明るい画像にするには副露光画像データと主露光画像データの出力信号値を略同じレベルにすれば良い。
そして、Dレンジ拡大処理部301は、副露光画像データの輝度が主露光画像データの輝度より低いと判断した場合、主露光画像データの輝度が露光画像データの輝度に対して何倍の倍率であるかを求めて、副露光画像データの輝度を主露光画像データの輝度と同じ又は略同じになるように、副露光画像データの輝度を主露光画像データの輝度に合わせた倍率に拡大処理する。
このためには、副露光画像データと主露光画像データの出力信号値を略同じレベルにするために、図5に示すような主露光と副露光の合成原理で副露光画像データを主露光画像データと同じレベル出力になるように拡大処理を行うと良い。
例えば、図5(a)では、被写体輝度Lx1からLx4までの高輝度部分で主露光の露光量は飽和状態となっていると共に、副露光が被写体輝度Lx4の部分で飽和状態となるので、副露光が飽和するまでには主露光が飽和するまでの4倍であることが分かる。
従って、この場合、副露光画像データと主露光画像データの出力信号値を略同じレベルにするためには、副露光画像データの輝度を主露光画像データ輝度の4倍に拡大処理すれば良い。
そして、この増幅した副露光画像データと主露光画像データの2つのデータを、図5(b)のような割合で合成することで広いダイナミックレンジの合成画像データを生成する。
即ち、Dレンジ拡大処理部301は、被写体輝度Lx1より輝度の低い低輝度側(D1側)では主露光画像データを用い、主露光の飽和付近の被写体輝度LxからLx1の間(D2)では主露光画像データと副露画像光データの加重平均を行い、主露光が飽和を超える被写体輝度Lx1以上の部分(D3)では副露光画像データを用いて、副露光画像データと主露光画像データの2つのデータを合成する拡大処理を実行する。
このDレンジ拡大処理部301で拡大処理された合成画像データは14bitのデータとしてWB−AMP302に入力される。このWB−AMP302は、この副露光画像データと主露光画像データの2つのデータの合成画像データをホワイトバランス処理をして14bitで出力し、Bit圧縮変換部303に入力する。
尚、図7におけるYUV変換部30のDレンジ拡大処理部301に入力されるCCD−RAWデータ(RAW−RGBデータ)は主露光も副露光もいずれも12ビットである。即ち、Dレンジ拡大処理部301に入力される主露光画像データ(RAW−RGBデータ)と副露光画像データ(RAW−RGBデータ)は、もともといずれも12ビットである。この副露光画像データを4倍にするために、WB−AMP302(ホワイトバランス増幅部)の部分で合成データ(合成画像データ)を14ビットに拡張する。
そして、この14ビットの合成データを元に12ビットのデータに置き換えるBit圧縮変換部303のところで、全14ビット中のどの範囲までを利用するかの割合を変更すると、Dレンジの拡大幅が変更されたことになる。
図8は、このようにして合成された14ビットの合成データを全Dレンジを利用して圧縮する場合のビット圧縮特性である。この図8は全Dレンジを利用して圧縮する場合を示しているので、直線的に傾斜する特性線fで示すようにBit圧縮変換部303に入力される14bitの全ビットデータが12bitの範囲のビットデータ4096の4倍の16384である。このBit圧縮変換部303への入力をもとの12bitの範囲に戻して出力するには、直線的な特性線fに基づく変換係数で12bitに圧縮処理すればよい。
従って、このようにDレンジ拡大処理部301からBit圧縮変換部303までの処理を行うことにより、短時間の副露光によって撮像素子24から出力される画像信号による副露光画像データの輝度が低くても、副露光画像データの輝度を副露光よりも長時間の主露光によって撮像素子24から出力される主画像信号よる主画像データの輝度と同等又は略同等とできるので、副露光画像データの輝度を撮像素子24が本来持っているDレンジを4倍に拡大することができたことになる。
図9は、特性線f1で示すように、合成された全Dレンジのうちの一部だけを利用する場合のビット圧縮特性である。この特性線f1で示す利用リミット値(利用限界値)は、Bit圧縮変換部303に入力される14bitビットデータの5120ビットと6144ビットとの間であるので、Dレンジの拡大幅は狭くなっているが、副露光が使われる割合が下がっていることがわかる。この場合も、Bit圧縮変換部303への入力をもとの12bitの範囲に戻して出力するには、特性線f1に基づく変換係数で12bitに圧縮処理すればよい。
図10は、12ビットのRAWデータを8ビットに非線形変換(γ変換)する時の変換係数である。この場合には、Bit圧縮変換部303への入力をもとの12bitの範囲に戻して出力するには、特性線f2に基づく変換係数で12bitに圧縮処理すればよい。
この図8〜図10に示したような圧縮特性による変換係数のデータは、ROM23に記憶させておいて、CPU28により読み出してYUV変換部30に入力させ、YUVデータの処理に用いられる。
<ダイナミックレンジ拡大処理の概要>
このように拡大処理は、上述したように図7のようなYUV変換ブロック30内の回路の内部動作で行われる。即ち、SDRAM21(フレームメモリ)に保存されている主露光画像データと副露光画像データの2つのRAW−RGBデータは、それぞれYUV変換ブロック30に読み込まれる。Dレンジ拡大処理ブロック301では、図5で示す条件に従って上述のように副露光を増幅し、副露光画像データと主露光画像データとの合成を行い、Dレンジが拡大処理された合成画像データを出力させる。続いてWB−AMP302では、合成画像データのWB補正(ホワイトバランス補正)を行った後に、WB補正された合成画像データをBit圧縮変換部303でビット圧縮を行う。このビット圧縮では、図8や図9に示すような圧縮特性によって圧縮が行われる。その後の処理は、上述した通常のYUV変換30と同じであり、同時化に進み、最終的にYUV変換された結果が出力される。
<ダイナミックレンジの拡大処理の使用例>
ところで、上記図8や図9に示したビット圧縮特性による圧縮処理例を以下に説明する。例えば、図11に示したように、1m程度のところに人物P1,P2がいる構図等の場合である。この図11の縦点線Lvと横点線Lhで区画された部分は、図2のセンサーI/F部27でAF評価値を生成するときの分割エリア(16×16分割のエリア)Aを仮想的に示したものである。AF評価値は前記のように、各分割エリアAでのハイパスフィルタ出力の積分結果であるから、分割エリアA内にはっきりとしたエッジが存在すると、大きな値が出力される。つまり近い範囲に人物がおり、その人物にピントが合っていると、その範囲からは高いAF評価値が出力されることになる。
図11の太線枠Fは、高いAF評価値が出力されたところである。図2のCPU28は、撮影時の主露光画像データより生成されたAF評価値および副露光画像データより生成されたAF評価値をそれぞれ読み込み、この2つのAF評価値の最大値を選択する。そして、CPU28は、この最大値によって画面内に解像度の高い(詳細度の高い)データがあるかを判定し、Dレンジの拡大幅の処理の変換係数等を変更して、この変換係数をYUV変換部30に入力する。尚、センサーI/F27及びCPU28は、合焦状態の詳細度を検出する詳細度検出手段を構成している。
そして、Dレンジの拡大幅の処理の変換係数等の変更には、図13のAF評価値と利用リミット値の関係が用いられる。この図13のように、AF評価値の最大値がある特定の値を超えた場合、例えばAF評価値の詳細度の高い(詳細度の大きい)データd1がある場合、利用される範囲が制限される。図11の被写体は、人物P1,P2の部分で詳細な部分があると判断され、図9にあるようなビット圧縮特性を用いることで、利用範囲の制限が行われる。
このような制限が行われない場合、例えば右側の人物P2の胸にある文字Chが白い文字で反射率が高く輝度が高くなっていた場合、この文字Chのある領域A(S1),A(S2)は画素数が少ないデータが利用されてしまうことになり、文字Chがつぶれてしまうことになる。
今回のような利用範囲の制限を行うことで、ダイナミックレンジの拡大幅は狭くなってしまうが、文字などの詳細部分がつぶれてしまうことを抑制でき、違和感のない画像を作ることができる。
図12はDレンジ拡大幅の制限が行われないような画像である。この画像は遠景画像であり、AF評価値が高くなる部分がないために、文字がつぶれてしまうなどの違和感は発生しないので、図8のビット圧縮を行う特性で14ビットを12ビットに変換し、全Dレンジを利用するようにする。
以上のように、被写体の条件によって、画面内に詳細な部分があり、2画面合成(主露光画像と副露光画像の合成)により違和感がある画像が生成されてしまう可能性がある場合は、Dレンジ拡大幅を変えて、違和感がある画像を生成しないようにすることができる。
[変形例]
上記第1の実施形態では、画面内のAF評価値の最大値を見つけて、その最大値によってDレンジの拡大幅の制限を見つけた。
しかし画面内の全ての範囲が詳細な部分ではない場合、特に詳細な部分は低輝度にしか存在せず、高輝度部分には詳細な被写体がいない場合に、活用できるDレンジを使わないという無駄が発生してしまっている。そこで本実施形態では、AF評価値を取得する分割エリア(16×16分割エリア)Aごとに、図13によるDレンジ拡大幅をコントロールするようにする。
図11では、人物P1,P2がいる太線枠Fの中は、その詳細度(AF評価値)に合せて利用する範囲の制限が設定され、背景では拡大された全Dレンジが利用できるようになる。
この方法を用いれば、詳細な被写体が存在し、画素数が少ないデータが利用されると解像がつぶれて違和感がある画像が生成されてしまう範囲では、Dレンジ拡大幅を制限することで違和感がある画像が生成されないようにするとともに、詳細な被写体が存在しない範囲では、活用できるDレンジの全範囲を利用することができるようになる。
本実施例では、詳細度(AF評価値)を用いて判断を行ったが、さらにAE評価値を使った輝度分布データを用いてもよい。
AE評価値は前記のように各エリアにおけるRGBそれぞれの積算値から算出している。このデータからそのエリアの輝度を算出することが可能である。
そこで主露光画像の輝度情報で飽和した領域であり、かつその領域のAF評価値が高い(詳細部分が存在する)領域のみで、図13でDレンジ拡大幅を制限する条件としてもよい。
以上説明したように、この発明の実施の形態の撮像装置は、露光量および画素数が異なる複数の画像信号を連続して出力する撮像素子24と、前記画像信号による複数の画像を合成してダイナミックレンジを拡大させる画像合成手段(信号処理部20)を備えている。しかも、前記画像合成手段(信号処理部20)は、前記画像の合焦状態の詳細度を検出する詳細度検出手段(センサーI/F27及びCPU28を備える検出手段)と、前記被写体の詳細度の高低によりダイナミックレンジ拡大幅を変更する拡大幅変更手段(制御手段であるCPU28)を備えている。
この撮像装置によれば、特殊なセンサーを用いず、複数回の連続露光により一般的なセンサーを使ってダイナミックレンジを拡大できると共に、連続露光による画質の劣化を少なくできる。尚、上述した実施例では、撮像素子24による露光を連続して2回行って、2枚の連続する被写体の画像を撮像するようにしているが、連続して撮像する画像は3枚以上であっても良い。
また、この発明の実施の形態の撮像装置において、前記拡大幅変更手段(CPU28)は、複数画像を合成するときに利用される複数画像の合成割合の割合係数を前記詳細度の高低で変更することでダイナミックレンジ拡大幅を変更するようになっている。
この構成によれば、撮像素子24による露光を連続して複数回行って、複数枚の連続する被写体の画像データを撮像する場合、先のデータ量を後のデータ量よりも少なくするか、後のデータ量を先のデータ量よりも少なくするかすることで、複数枚の画像間でのずれの発生をより小さくできる。
更に、この発明の実施の形態の撮像装置において、前記画像合成手段(信号処理部20)は、詳細度が高い画像(画像データ)と詳細度が低い画像(画像データ)とを合成する際、詳細度が高い画像(画像データ)を詳細度が低い画像(画像データ)よりも大きな割合で利用することにより、ダイナミックレンジ拡大幅を変更するようになっている。
尚、上述した実施例では、撮像素子24による露光を連続して2回行って、2枚の連続する被写体の画像データを撮像するので、1回目の画像データ読み出しから2回目の画像データ読み出しまでに時間を短くしないと、2枚の画像間でずれが発生してしまう。この2枚の露光タイミング差を小さくするために、1枚目の画像データの読み出しを早くする必要があり、1枚目の読み出しデータ量を少なくすることで、それを達成することができる。このように先のデータ量を後のデータ量よりも少なくすることで、2枚の画像間でのずれの発生をより小さくできる。尚、2枚目の読み出しデータ量を1枚目の読み出しデータ量よりも少なくすることも可能である。
このようなデータ量に関する条件は、撮像素子24による露光を連続して3回以上行って、3枚以上の連続する被写体の画像データを撮像する場合、先のデータ量を後のデータ量よりも少なくすることで、複数枚の画像間でのずれの発生をより小さくできる。
しかし、何らかの方法で読み出しデータ量を少なくするということは、解像度が落ちてしまうことになる。このため、解像度の低下による画質の劣化を少なくすることを実現するために、例えば、画面内の合焦状態の詳細度を検出し、詳細度が高いと判断したら、画面全体または部分的に画素数の少ないデータの依存度を下げる。また、解像度の高い画像と低い画像との間には露光量の差があるが、どちらかの画像を利用する割合が大きくなるということは、ダイナミックレンジの拡大幅は狭くなることになる。しかし、解像度の高い画像をより大きな割合で利用すれば、解像度が落ちてしまうことによる画質の劣化を少なくし、違和感のない画像の生成を行うことができる。
また、この発明の実施の形態の撮像装置において、前記画像合成手段(信号処理部20)は、2枚の画像を合成をする際に、高輝度部に詳細度が高いものが検出された場合に、少ない画素のデータを使う輝度範囲を狭くして、全Dレンジにおける画素数が少ないデータが使用される割合を下げるようになっている。
この構成において、画素数が少なく解像度の低い画像は、高速で読みだしが必要なために短い露光であり白飛びしない程度に露光されたデータである。また、画素数が多い画像は、長い露光で白飛び部分を含んでいる。この露光時間が長い(画素数が多い)画像に対して、白飛びしてしまっている輝度領域を、短い露光データで補うというような合成をすることでDレンジの拡大を行う。しかしこの高輝度部分に解像度が高いもの、例えば文字のようなものがあった場合に、白飛びは防止できるが、文字がつぶれたようになってしまい違和感が出てしまう。そのため2画面合成を行う場合において、合成で利用される係数を変更する。例えば、完全に白飛びしてしまう領域だけしか解像度の低い画像を使わないような合成係数にすることで、解像度低下による画質廉価を目立たなくすることができる。
また、この発明の実施の形態の撮像装置において、前記拡大幅変更手段(CPU28)は、合成で利用される割合係数は画面内の場所によって異なる係数を用いる。
この構成によれば、詳細度が高いかどうかの判断を部分的または画素単位で行い、高輝度部に詳細データがある部分は少ない画素数のデータの割合を下げ、高輝度部に詳細なデータがない部分では少ない画像のデータの割合に制限を行わないようにすることができる。
また、この発明の実施の形態の撮像装置において、前記拡大幅変更手段(CPU28)は、画面内を複数の分割エリアAに分けて各分割エリアAの前記画像の合焦状態の詳細度を検出させると共に、前記複数画像の合成の際に各分割エリアAで検出された前記詳細度の高低に応じて各分割エリアAの前記割合係数を異ならせるようになっている。
この構成によれば、詳細度が高いかどうかの判断を各分割エリアAで行い、高輝度部に詳細データがある部分は少ない画素数のデータの割合を下げ、高輝度部に詳細なデータがない部分では少ない画像のデータの割合に制限を行わないようにすることができる。
更に、この発明の実施の形態の撮像方法は、露光量および画素数が異なる複数の画像信号を撮像素子から連続して出力させて、前記画像信号による複数の画像を画像合成手段で合成することによりダイナミックレンジを拡大させるようになっている。しかも、前記画像の合焦状態の詳細度を詳細度検出手段で検出させ、前記被写体の詳細度の高低によりダイナミックレンジ拡大幅を拡大幅変更手段で変更させるようになっている。
この撮像方法によれば、特殊なセンサーを用いず、複数回の連続露光により一般的なセンサーを使ってダイナミックレンジを拡大できると共に、連続露光による画質の劣化を少なくできる。尚、上述した実施例では、撮像素子24による露光を連続して2回行って、2枚の連続する被写体の画像を撮像するようにしているが、連続して撮像する画像は3枚以上であっても良い。
また、この発明の実施の形態の撮像方法において、前記拡大幅変更手段(CPU28)は、複数画像を合成するときに利用される複数画像の合成割合の割合係数を前記詳細度の高低に応じて変更することでダイナミックレンジ拡大幅を変更するようになっている。
この撮像方法によれば、撮像素子24による露光を連続して複数回行って、複数枚の連続する被写体の画像データを撮像する場合、先のデータ量を後のデータ量よりも少なくするか、後のデータ量を先のデータ量よりも少なくするかすることで、複数枚の画像間でのずれの発生をより小さくできる。
また、この発明の実施の形態の撮像方法において、前記画像合成手段(信号処理部20)は、詳細度が高い画像(画像データ)と詳細度が低い画像(画像データ)とを合成する際、詳細度が高い画像(画像データ)を詳細度が低い画像(画像データ)よりも大きな割合で利用することにより、ダイナミックレンジ拡大幅を変更するようになっている。
尚、上述した実施例では、撮像素子24による露光を連続して2回行って、2枚の連続する被写体の画像データを撮像するので、1回目の画像データ読み出しから2回目の画像データ読み出しまでに時間を短くしないと、2枚の画像間でずれが発生してしまう。この2枚の露光タイミング差を小さくするために、1枚目の画像データの読み出しを早くする必要があり、1枚目の読み出しデータ量を少なくすることで、それを達成することができる。このように先のデータ量を後のデータ量よりも少なくすることで、2枚の画像間でのずれの発生をより小さくできる。尚、2枚目の読み出しデータ量を1枚目の読み出しデータ量よりも少なくすることも可能である。
このようなデータ量に関する条件は、撮像素子24による露光を連続して3回以上行って、3枚以上の連続する被写体の画像データを撮像する場合、先のデータ量を後のデータ量よりも少なくすることで、複数枚の画像間でのずれの発生をより小さくできる。
しかし、何らかの方法で読み出しデータ量を少なくするということは、解像度が落ちてしまうことになる。このため、解像度の低下による画質の劣化を少なくすることを実現するために、例えば、画面内の合焦状態の詳細度を検出し、詳細度が高いと判断したら、画面全体または部分的に画素数の少ないデータの依存度を下げる。また、解像度の高い画像と低い画像との間には露光量の差があるが、どちらかの画像を利用する割合が大きくなるということは、ダイナミックレンジの拡大幅は狭くなることになる。しかし、解像度の高い画像をより大きな割合で利用すれば、解像度が落ちてしまうことによる画質の劣化を少なくし、違和感のない画像の生成を行うことができる。
また、この発明の実施の形態の撮像方法において、前記画像合成手段(信号処理部20)は、2枚の画像を合成をする際に、高輝度部に詳細度が高いものが検出された場合に、少ない画素のデータを使う輝度範囲を狭くして、全Dレンジにおける画素数が少ないデータが使用される割合を下げるようになっている。
この撮像方法において、画素数が少なく解像度の低い画像は、高速で読みだしが必要なために短い露光であり白飛びしない程度に露光されたデータである。また、画素数が多い画像は、長い露光で白飛び部分を含んでいる。この露光時間が長い(画素数が多い)画像に対して、白飛びしてしまっている輝度領域を、短い露光データで補うというような合成をすることでDレンジの拡大を行う。しかしこの高輝度部分に解像度が高いもの、例えば文字のようなものがあった場合に、白飛びは防止できるが、文字がつぶれたようになってしまい違和感が出てしまう。そのため2画面合成を行う場合において、合成で利用される係数を変更する。例えば、完全に白飛びしてしまう領域だけしか解像度の低い画像を使わないような合成係数にすることで、解像度低下による画質廉価を目立たなくすることができる。
また、この発明の実施の形態の撮像方法において、前記拡大幅変更手段(CPU28)は、合成で利用される割合係数は画面内の場所によって異なる係数を用いるようになっている。
この撮像方法によれば、詳細度が高いかどうかの判断を部分的または画素単位で行い、高輝度部に詳細データがある部分は少ない画素数のデータの割合を下げ、高輝度部に詳細なデータがない部分では少ない画像のデータの割合に制限を行わないようにすることができる。
また、この発明の実施の形態の撮像方法において、前記拡大幅変更手段(CPU28)は、画面内を複数の分割エリアAに分けて各分割エリアAの前記画像の合焦状態の詳細度を検出させた後、前記複数画像の合成の際に各分割エリアAで検出された前記詳細度の高低に応じて各分割エリアAの前記割合係数を異ならせるようになっている。
この撮像方法によれば、詳細度が高いかどうかの判断を各分割エリアAで行い、高輝度部に詳細データがある部分は少ない画素数のデータの割合を下げ、高輝度部に詳細なデータがない部分では少ない画像のデータの割合に制限を行わないようにすることができる。