以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。なお、以下の各実施形態では、撮像装置の例としてレンズ交換式のデジタルカメラを例に挙げて説明する。
<第1実施形態>
図1は、第1実施形態の撮像素子100の断面図である。撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。撮像素子100は、入射光に対応した画素信号を出力する撮像チップ113と撮像チップ113から出力された画素信号を処理する信号処理チップ111と信号処理チップ111で処理された画素信号を記憶するメモリチップ112とを備える。撮像チップ113、信号処理チップ111及びメモリチップ112は積層されており、撮像チップ113及び信号処理チップ111は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。また、信号処理チップ111及びメモリチップ112は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
図示した座標軸で示すように、入射光は主にZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸で示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸及びX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。
撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のフォトダイオード(Photodiode;以下、PDという。)104、及び、PD104に対応して設けられたトランジスタ105を有する。
PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、可視光のうち特定の波長領域を通過させるフィルタである。このカラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104、及びトランジスタ105の組が一つの画素を形成する。
カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。
配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子及び能動素子が設けられてもよい。配線層108の表面には複数のバンプ109が配される。これら複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされる。そして、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。
同様に、信号処理チップ111及びメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされる。そして、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。
なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位グループに対して一つ程度設ければよい。従って、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域(図2に示す画素領域113A)以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。
信号処理チップ111は、表面及び裏面にそれぞれ設けられた回路を互いに接続するTSV(Through-Silicon Via;シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられる。また、TSV110は、撮像チップ113の周辺領域や、メモリチップ112に設けられてもよい。
図2は、撮像チップ113の画素配列と単位グループを説明する図である。図2では、特に、撮像チップ113を裏面側から観察した様子を示す。撮像チップ113において画素が配列された領域を画素領域(撮像領域)113Aという。画素領域113Aには2000万個以上もの画素がマトリックス状に配列されている。図2に示す例では、隣接する4画素×4画素の16画素が一つの単位グループ131を形成する。図2の格子線は、隣接する画素がグループ化されて単位グループ131を形成する概念を示す。単位グループ131を形成する画素の数はこれに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。
画素領域113Aの部分拡大図に示すように、単位グループ131は、緑色画素Gb,Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光する。赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。
図3は、撮像チップ113の単位グループに対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。
上述したように、単位グループ131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続される。各転送トランジスタ302のゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。
各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されるとともに、転送トランジスタ302のドレインと各リセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFD(電荷検出部)が増幅トランジスタ304のゲートに接続される。各リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続される。各リセットトランジスタ303のゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。
各々の増幅トランジスタ304のドレインは電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。各々の選択トランジスタ305のゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。
ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加される。これと同時に、TX配線307を通じて転送パルスが転送トランジスタ302に印加される。これにより、PD104及びフローティングディフュージョンFDの電位はリセットされる。
PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、PD104において蓄積された電荷はフローティングディフュージョンFDへ転送される。これにより、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304及び選択トランジスタ305を介して出力配線309に伝わる。このような回路の動作により、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。
図3に示すように、本実施形態においては、単位グループ131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素すべてに対して同時に印加される。従って、単位グループ131を形成するすべての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309に出力される。また、リセット配線306、TX配線307、出力配線309は、単位グループ131毎に別個に設けられる。
このように単位グループ131を基準として回路を構成することにより、単位グループ131ごとに電荷蓄積時間を制御することができる。換言すると、単位グループ131間で、異なった電荷蓄積時間による画素信号をそれぞれ出力させることができる。更に言えば、一方の単位グループ131に1回の電荷蓄積を行わせている間に、他方の単位グループ131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位グループ131間で異なるフレームレートで動画用の各フレームを出力することもできる。
図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位グループ131を形成する16個のPD104を順番に選択する。そして、マルチプレクサ411は、16個のPD104のそれぞれの画素信号を当該単位グループ131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104とともに、撮像チップ113に形成される。
マルチプレクサ411を介して出力されたアナログ信号の画素信号は、信号処理チップ111に形成されたアンプ412により増幅される。そして、アンプ412で増幅された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS;Correlated Double Sampling)・アナログ/デジタル(Analog/Digital)変換を行う信号処理回路413により、相関二重サンプリングの信号処理が行われるとともに、A/D変換(アナログ信号からデジタル信号への変換)が行われる。画素信号が信号処理回路413において相関二重サンプリングの信号処理が行われることにより、画素信号のノイズが低減される。A/D変換された画素信号は、デマルチプレクサ414に引き渡され、それぞれの画素に対応する画素メモリ415に格納される。デマルチプレクサ414及び画素メモリ415は、メモリチップ112に形成される。
演算回路(信号処理部)416は、画素メモリ415に格納された画素信号を処理して後段の画像処理部に引き渡す。本実施形態では、演算回路416は、所定領域(図5に示す第2領域210)を構成する各ブロックに含まれる複数の画素からの画素信号を平均化する処理を実行する。演算回路416は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位グループ131の分の接続を示すが、実際にはこれらが単位グループ131ごとに存在して、並列で動作する。ただし、演算回路416は単位グループ131ごとに存在しなくてもよい。例えば、一つの演算回路416がそれぞれの単位グループ131に対応する画素メモリ415の値を順に参照しながらシーケンシャルに処理してもよい。
上記した通り、単位グループ131のそれぞれに対応して出力配線309が設けられている。撮像素子100は、撮像チップ113、信号処理チップ111、及びメモリチップ112を積層している。このため、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。
次に、撮像素子100の画素領域113A(図2参照)に設定されるブロックについて説明する。本実施形態において、撮像素子100の画素領域113Aは、複数のブロックに分割される。複数のブロックは、1ブロックにつき単位グループ131を少なくとも1つ含むように定義される。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素が制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、制御パラメータが異なる画素信号が取得される。制御パラメータとしては、例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン、間引き率(画素間引き率)、画素信号を加算する加算行数又は加算列数(画素加算数)、デジタル化のビット数などがあげられる。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。
ここで、電荷の蓄積時間とは、PD104が電荷の蓄積を開始してから終了するまでの時間のことをいう。この電荷蓄積時間のことを露光時間又はシャッター速度(シャッタースピード)ともいう。また、電荷の蓄積回数とは、単位時間あたりにPD104が電荷を蓄積する回数のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。フレームレートが高くなる程、動画における被写体(すなわち撮像される対象物)の動きが滑らかになる。
また、ゲインとは、アンプ412の利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子100の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子100が光をとらえる能力を表す値となる。ゲインを上げるとISO感度も向上する。例えば、ゲインを倍にすると電気信号(画素信号)も倍になり、入射光の光量が半分でも適切な明るさとなる。しかし、ゲインを上げると、電気信号に含まれるノイズも増幅されるため、ノイズが多くなってしまう。
また、間引き率とは、所定領域においてすべての画素数に対する画素信号の読み出しを行わない画素数の割合をいう。例えば、所定領域の間引き率が0である場合は、その所定領域内のすべての画素から画素信号の読み出しが行われることを意味する。また、所定領域の間引き率が0.5である場合は、その所定領域内の半分の画素から画素信号を読み出しが行われることを意味する。具体的には、単位グループ131がベイヤー配列である場合、垂直方向についてベイヤー配列の単位の一つ置き、すなわち、画素単位の2画素ずつ(2行ずつ)交互に画素信号が読み出される画素と読み出されない画素とが設定される。なお、画素信号の読み出しの間引きが行われると画像の解像度が低下する。しかし、撮像素子100には2000万以上の画素が配置されているため、例えば間引き率0.5で間引きを行ったとしても、1000万以上の画素で画像を表示することができる。このため、使用者(撮影者)にとって解像度の低下は気にならないものと考えられる。
また、加算行数とは、垂直方向に隣接する画素の画素信号を加算する場合に、その加算する垂直方向の画素の数(行数)をいう。また、加算列数とは、水平方向に隣接する画素の画素信号を加算する場合に、その加算する水平方向の画素の数(列数)をいう。このような加算の処理は、例えば演算回路416において行われる。演算回路416が垂直方向又は水平方向に隣接する所定数の画素の画素信号を加算する処理を行うことにより、所定の間引き率で間引いて画素信号を読み出す処理と同じような効果を奏する。なお、上記した加算の処理において、演算回路416が加算した行数または列数で加算値を割ることにより平均値を算出するようにしてもよい。
また、デジタル化のビット数とは、信号処理回路413がA/D変換においてアナログ信号をデジタル信号に変換したときのビット数をいう。デジタル信号のビット数が多くなる程、輝度や色変化などがより詳細に表現される。
本実施形態において、蓄積条件とは、撮像素子100における電荷の蓄積に関する条件のことをいう。具体的には、蓄積条件は、上記した制御パラメータのうち、電荷の蓄積時間又は蓄積回数、フレームレート、及びゲインのことをいう。フレームレートは電荷の蓄積時間や蓄積回数に応じて変化し得るので、フレームレートが蓄積条件に含まれる。また、ゲインに応じて適正露出の光量は変化し、適正露出の光量に応じて電荷の蓄積時間又は蓄積回数も変化し得る。このため、ゲインは蓄積条件に含まれる。
また、本実施形態において、撮像条件とは、被写体の撮像に関する条件のことをいう。具体的には、撮像条件は、上記した蓄積条件を含む制御パラメータのことをいう。撮像条件は、撮像素子100を制御するための制御パラメータ(例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン)のほかに、撮像素子100からの信号の読み出しを制御するための制御パラメータ(例えば、間引き率、画素信号を加算する加算行数又は加算列数)、撮像素子100からの信号を処理するための制御パラメータ(例えば、デジタル化のビット数、後述する画像処理部30が画像処理を実行するための制御パラメータ)も含まれる。
図5は、第1実施形態の撮像素子100における第1領域200と第2領域210とを示す図である。図5に示すように、撮像素子100(撮像チップ113)の画素領域113Aが第1領域200と第2領域210とに分割されている。第1領域200は、画素領域113Aの中央部分の複数のブロック(図5中の「A」で示すブロック)からなる方形状の領域である。第2領域210は、画素領域113Aの周辺部分の複数のブロック(図5中の「B」で示すブロック)からなる枠状の領域である。すなわち、第2領域210は、第1領域200の周囲を囲うように配置された複数のブロックで構成されている領域である。なお、第1領域200及び第2領域210を構成する各ブロックは、例えば120×60画素で構成されている。
なお、図5において、領域ごとのブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックを設定しているが、図5に示すブロックの数よりも多い数のブロックを画素領域113Aに設定するようにしてもよい。
本実施形態では、第1領域200は、通常の撮影用の領域(撮影用領域)である。第2領域210は、後述するように蛍光灯や水銀灯などの光源(図6の光源L参照)の明滅(フリッカー)を検知するために使用されるフリッカー検知用領域である。商用電源の周波数は、東日本が50Hz、西日本が60Hzとなっている。例えば蛍光灯は、その倍の周波数で発光する。このため、蛍光灯は、東日本では1秒間に100回明滅し、西日本では1秒間に120回明滅する。このような蛍光灯などの光源の明滅が生じることをフリッカー現象(ちらつき現象)という。
デジタルカメラ1が短い露光時間(つまり、速いシャッタースピード)で撮像した場合、撮像開始のタイミング(つまり、シャッターを押したタイミング)が蛍光灯の明滅のどのタイミングであるかによって、明るい画像となったり、暗い画像となったりする。また、蛍光灯の場合、100Hz又は120Hzの明るさの変化に加え、発光する箇所も1秒間に50回又は60回移動する。従って、画像の影のつき方なども移動してしまう。また、撮像素子100の場合、色ごとに画素(緑色画素Gb,Gr、青色画素B、及び赤色画素R)からの信号の読み出しタイミングが異なる。従って、色ごとの光量のずれが色ずれとなって現れることがある。本実施形態では、図5に示したように、撮像素子100において、通常の撮影用の第1領域200とは別に第2領域210を設ける。そして、本実施形態のデジタルカメラ1は、第2領域210から読み出される信号を用いて光源の明滅タイミングを検知する。そして、本実施形態のデジタルカメラ1は、検知した明滅タイミングに応じた最適な露光開始タイミングで撮像を行う。
図6は、撮像装置の一例であるデジタルカメラ1の概略構成を示す横断面図である。なお、図6に示すように、蛍光灯などの光源Lが設置された室内において、本実施形態のデジタルカメラ1が撮影を行うことを想定している。
本実施形態のデジタルカメラ1は、レンズ部10及びカメラボディ2を備えている。レンズ部10は、交換式レンズである。カメラボディ2には、レンズ部10を装着するためのボディ側マウント部80Aが設けられている。また、レンズ部10には、ボディ側マウント部80Aと対応するレンズ側マウント部80Bが設けられている。使用者がボディ側マウント部80Aとレンズ側マウント部80Bとを接合することにより、レンズ部10がカメラボディ2に装着される。レンズ部10がカメラボディ2に装着されると、ボディ側マウント部80Aに設けられた電気接点81Aと、レンズ側マウント部80Bに設けられた電気接点81Bとが電気的に接続される。
レンズ部10は、撮影光学系11、絞り14、及びレンズ駆動制御装置15を備えている。撮像光学系11には、レンズ11a、ズーミング用レンズ11b及びフォーカシング用レンズ11cが含まれる。レンズ駆動制御装置15は、レンズ側CPU(Central Processing Unit)、メモリ及び駆動制御回路を有している。レンズ駆動制御装置15は、電気接点81A,81Bを介してカメラボディ2側のシステム制御部70と電気的に接続され、レンズ部10に備えられた撮影光学系11の光学特性に関するレンズ情報の送信とズーミング用レンズ11b、フォーカシング用レンズ11c及び絞り14を駆動するための制御情報の受信とを行う。
レンズ駆動制御装置15のレンズ側CPUは、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて駆動制御回路にフォーカシング用レンズ11cの駆動制御を実行させる。レンズ駆動制御装置15のレンズ側CPUは、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいてズーミング用レンズ11bの駆動制御を駆動制御回路に実行させる。絞り14は、撮影光学系11の光軸に沿って配置されている。絞り14は、光量及びボケ量調整のために光軸中心に開口径が可変な開口を形成する。レンズ駆動制御装置15のレンズ側CPUは、絞り14の開口径調節を行うために、システム制御部70から送信される制御情報に基づいて絞り14の駆動制御を駆動制御回路に実行させる。
カメラボディ2は、撮像部20、画像処理部30、表示部50、記憶部60及びシステム制御部70を備えている。撮像部20は、撮像素子100を有する。撮像素子100には、レンズ部10の撮影光学系11から射出された光束が入射する。撮像素子100は、入射した光束を光電変換して撮像素子の各画素の画素信号(画素信号は画像データに含まれる。)を生成する。各画素の画素信号からなるRAWデータ(RAWデータも画像データに含まれる。)が撮像部20から画像処理部30に送られる。画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。表示部50は、画像処理部30が生成した画像データを表示する。記憶部60は、画像処理部30が生成した画像データを記憶する。
なお、「画像データ」のことを「画像信号」ということがある。また、画像には、静止画、動画、ライブビュー画像が含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部20により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。
システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。なお、システム制御部70の処理及び動作の詳細、及びカメラボディ2内の構成の詳細については、以下の図7において説明する。
図7は、第1実施形態に係るデジタルカメラ1の構成を示すブロック図である。図7に示すように、デジタルカメラ1は、カメラボディ2とレンズ部10とを備える。上述したように、レンズ部10は、カメラボディ2に対して着脱可能な交換式レンズである。従って、デジタルカメラ1は、レンズ部10を備えていなくてもよい。ただし、レンズ部10はデジタルカメラ1と一体構成であってもよい。レンズ部10は、カメラボディ2に接続された状態において、被写体からの光束を撮像部20へ導く。
レンズ部10は、上述したように、レンズ駆動制御装置15を有している(図6参照)。また、レンズ部10は、撮影光学系11としての複数のレンズ群、つまり、レンズ11a、ズーミング用レンズ11b、及びフォーカシング用レンズ11cを有している。レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、メモリに記憶されているレンズ情報をカメラボディ2のシステム制御部70に送信する。また、レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、システム制御部70から送信される制御情報を受信する。レンズ駆動制御装置15は、制御情報に基づいて、ズーミング用レンズ11b、フォーカシング用レンズ11c、及び絞り14の駆動制御を行う。
図7に示すように、カメラボディ2は、撮像部20、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、システム制御部70及びストロボ90を備える。
撮像部20は、撮像素子100及び駆動部21を有している。駆動部21は、システム制御部70からの指示に従って、撮像素子100の駆動を制御する制御回路である。ここで、駆動部21は、リセットパルス及び転送パルスをそれぞれリセットトランジスタ303及び転送トランジスタ302に印加するタイミング(又はタイミングの周期)を制御することにより、制御パラメータである電荷の蓄積時間又は蓄積回数を制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスをそれぞれリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305に印加するタイミング(又はタイミングの周期)を制御することにより、フレームレートを制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスを印加する画素を設定することにより、間引き率を制御する。
また、駆動部21は、アンプ412のゲイン(利得率、増幅率ともいう。)を制御することにより、撮像素子100のISO感度を制御する。また、駆動部21は、演算回路416に指示を送ることにより、画素信号を加算する加算行数又は加算列数を設定する。また、駆動部21は、信号処理回路413に指示を送ることにより、デジタル化のビット数を設定する。さらに、駆動部21は、撮像素子100の画素領域(撮像領域)113Aにおいてブロック単位で領域を設定する。このように、駆動部21は、撮像素子100に対して複数のブロックごとに異なる撮像条件で撮像させて画素信号を出力させる撮像素子制御部の機能を担う。システム制御部70は、駆動部21に対するブロックの位置、形状、範囲などの指示を行う。また、駆動部21は、演算回路416に指示を送ることにより、第2領域210のブロックごとに、各ブロックに含まれる複数の画素からの画素信号を平均化する処理を実行させる。演算回路416は、各ブロックに含まれる複数の画素からの画素信号を平均化した平均化信号を画像処理部30に出力する。
撮像素子100は、撮像素子100からの画素信号を画像処理部30へ引き渡す。画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30は、以下の画像処理を実行する。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する。また、画像処理部30は、RGB画像信号に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。
画像処理部30が画像処理を行う際に参照されるパラメータも制御パラメータ(撮像条件)に含まれる。例えば、色信号処理(色調補正)、ホワイトバランス調整、階調調整、圧縮率などのパラメータが制御パラメータに含まれる。電荷の蓄積時間などに応じて撮像素子100から読み出される信号が変化し、その信号の変化に応じて画像処理を行う際に参照されるパラメータも変化する。画像処理部30は、ブロック単位ごとに異なる制御パラメータを設定し、これらの制御パラメータに基づいて色信号処理などの画像処理を実行する。
なお、本実施形態では、画像処理部30は、演算回路416から出力される第2領域210の各ブロックごとの平均化信号に基づいて、その平均化信号の信号レベルを判定する。そして、画像処理部30は、平均化信号の信号レベルの判定結果をシステム制御部70に出力する。
ワークメモリ40は、画像処理部30による画像処理が行われる際に画像データなどを一時的に記憶する。表示部50は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどの表示パネル51を有している。表示部50の表示パネル51上にはタッチパネル52が形成されている。タッチパネル52は、使用者がメニューの選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。
操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動作の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。
システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。このシステム制御部70はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部70は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部70は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部21に対して指示する。
また、システム制御部70は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部70は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部21に対して指示する。また、画像処理部30は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部70は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部30に指示する。
また、システム制御部70は、画像処理部30において生成された画像データを記録部60に記録させる。また、システム制御部70は、画像処理部30において生成された画像データを表示部50に出力させることにより、表示部50に画像を表示させる。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させることにより、表示部50に画像を表示させる。表示部50に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。
また、システム制御部70は、制御情報をレンズ駆動制御装置15に出力することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cの駆動制御及び絞り14の駆動制御を実行させる。
本実施形態では、システム制御部70は、図7に示すように、分割部71、駆動制御部72、制御部73及び明滅検知部74を備えている。分割部71は、撮像素子100の画素領域113Aを、図5に示すようにブロック単位で第1領域200と第2領域210とに分割する処理を行う。
駆動制御部72は、第1領域200の撮像条件を設定するとともに、第2領域210の撮像条件を設定する。また、駆動制御部72は、使用者によるレリーズスイッチや動画スイッチの操作に応じて撮像素子100の駆動制御を実行する。また、駆動制御部72は、ライブビュー画像の撮像時(すなわち、電源投入後の撮影動作の開始後)においても、撮像素子100の駆動制御を実行する。制御部73は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示パネル51に画像を表示させる制御を行う。明滅検知部74は、第2領域210から読み出す信号に基づいて光源Lの明滅(フリッカー)の周波数及び位相を検知する。
なお、システム制御部70において、分割部71、駆動制御部72、制御部73及び明滅検知部74は、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。
次に、第1実施形態に係るデジタルカメラ1の静止画撮影動作について説明する。図8は、第1実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。図8に示す処理において、デジタルカメラ1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、分割部71は、撮像素子100の画素領域113Aにおいて、図5に示すような第1領域200と第2領域210とに分割して設定する。また、駆動制御部72は、分割部71が分割した第1領域200及び第2領域210に対して撮像条件を設定する(ステップS1)。
例えば、駆動制御部72は、ライブビュー画像の撮像時における第1領域200のフレームレートとして、例えば60fps(ライブビュー画像の撮像時の標準のフレームレート)を設定する。また、駆動制御部72は、ライブビュー画像の撮像時における第2領域210のフレームレートとして、第1領域200のフレームレートよりも高いフレームレート(例えば光源Lの周波数の4倍以上のフレームレート)を設定する。一例としては、駆動制御部72は、光源Lの明滅周波数(例えば100Hz)の整数倍のフレームレート(例えば、4倍の400fps)で第2領域210を駆動制御する。
また、駆動制御部72は、ライブビュー画像の撮像時における第1領域200のフレームレート以外の撮像条件(露光時間やゲインなど)としては、ライブビュー画像の撮像時における通常の撮像条件(例えば適正露出となるような撮像条件)を設定する。また、駆動制御部72は、ライブビュー画像の撮像時における第2領域210のフレームレート以外の撮像条件(露光時間やゲインなど)としては、光源Lのフリッカーの検知に適した撮像条件を設定する。
ステップS1では、分割部71は、駆動部21に対して第1領域200及び第2領域210に対応するブロックの位置などを指示する指示信号を出力する。また、駆動制御部72は、駆動部21に対して第1領域200及び第2領域210の撮像条件を指示する指示信号を出力する。
次に、システム制御部70が撮影動作を開始する(ステップS2)。すなわち、駆動制御部72は、駆動部21に対して指示信号を出力することにより、ステップS1において指示した撮像条件で撮像素子100の駆動制御を実行させる。これにより、撮像素子100の第1領域200の各画素から読み出された画素信号が画像処理部30に出力される。また、撮像素子100の第2領域210の各画素から読み出された画素信号が演算回路416で平均化される。そして、演算回路416は、平均化した平均化信号を画像処理部30に出力する。画像処理部30は、演算回路416から出力された平均化信号の信号レベルを判定し、その判定結果をシステム制御部70に出力する。
撮影が開始されると、制御部73は、撮像素子100の第1領域200で撮像されたライブビュー画像を表示部50の表示パネル51に表示させる(ステップS3)。図9は、光源Lの明滅周期と第1領域200の露光時間及び信号出力とを示すタイミングチャートである。図9において、一番上に図示した波形は、光源Lの明滅の周期を示している。縦軸は光源Lの光量であり、横軸は時間を表している。図9に示す例では、光源Lの周波数は100Hz(周期は10ms)とされている。
また、図9では、第1領域200のライブビュー画像の露光時間Aと、その露光時間Aで露光した場合の信号出力Aとの関係も示している。図9に示す例では、第1領域200のフレームレートは60fps(周期は16.667ms)で、露光時間Aは短い時間(速いシャッタースピード)とされている。また、図9では、第1領域200のライブビュー画像の露光時間Bと、その露光時間Bで露光した場合の信号出力Bとの関係も示している。図9に示す例では、第1領域200のフレームレートは60fps(周期16.667ms)で、露光時間Bは長い時間(遅いシャッタースピード)とされている。
図9に示すように、短い露光時間Aの場合は、露光開始のタイミングにおける光源Lの明滅周期の位相(明滅位相、フリッカー位相)に応じて、信号出力A(第1領域200から読み出される画素信号の出力A)のレベルが大きく変化する。従って、ライブビュー画像においてフリッカー現象が生じ、使用者にとってはちらつきが目障りとなる。
図9に示すように、長い露光時間Bの場合は、露光開始のタイミングにおける光源Lの明滅位相の影響を受けにくくなり、信号出力B(第1領域200から読み出される画素信号の出力B)のレベルの変化が低減される。また、通常、露光時間を光源の明滅周期の整数倍にすることにより、フリッカー現象の発生を抑制することができる。図9に示す例では、露光時間Bは光源Lの明滅周期と同じ時間(1倍)とされているため、ライブビュー画像においてフリッカー現象が生じていない。このように、ライブビュー画像においては、長い露光時間を設定することによりフリッカー現象の影響を少なくすることと、露光時間を光源の明滅周期の整数倍にしてフリッカー現象の発生を抑えることとの一方又は両方が行われる。しかし、使用者のレリーズスイッチの操作に基づく静止画の撮像では、撮影環境に応じて露光時間が設定される。従って、静止画の撮像時の露光時間が短い場合や明滅周期の整数倍でない場合は、フリッカー現象が生じ得る。
図8の説明に戻り、明滅検知部74は、ライブビュー画像の表示中に、画像処理部30からの平均化信号の信号レベルの判定結果に基づいて、光源Lの明滅位相の検知を実行する(ステップS4)。図10は、光源Lの明滅周期と第2領域210の露光時間及び信号出力とを示すタイミングチャートである。図10に示すように、駆動制御部72は、第2領域210のフレームレートとして、第1領域200のフレームレートよりも高いフレームレートを設定している。また、駆動制御部72は、第2領域210の露光時間として短い露光時間を設定している。この場合、図10に示すように、第2領域210の信号出力は短い間隔で出現する。また、第2領域210からの信号出力のレベルは、光源Lの明滅位相に応じて大きく変化する。すなわち、第2領域210の信号出力のレベルが高くなったり低くなったりする変化を周期的に繰り返す。従って、明滅検知部74は、第2領域210の信号出力のレベルの変化に基づいて、光源Lの明滅周波数(明滅周期)と明滅位相とを検知することができる。なお、第2領域210のフレームレートが高いほど、明滅検知部74による光源Lの明滅周波数や明滅位相の検知の精度が高くなる。例えば、第2領域210のフレームレートが1000fps以上であれば、明滅検知部74は光源Lの綺麗な波形の明滅周期を検知することができる。
以上のようなステップS1からS4までの処理は、使用者による操作部55のレリーズスイッチの半押し操作(ステップS5)が行われるまで繰り返し実行される。本実施形態では、駆動制御部72は、明滅検知部74が検知した光源Lの明滅周波数に合わせて変更したフレームレートで第2領域210を駆動制御する(ステップS1及びS2参照)。例えば、電源投入の直後は、駆動制御部72はステップS1で第2領域210のフレームレートを1000fpsと設定する。その後に明滅検知部74がステップS4で光源Lの明滅周波数が100Hzと検知した場合は、駆動制御部72はステップS1で第2領域210のフレームレートを400fpsに設定する。このような構成によれば、電源の投入直後は、光源Lの明滅の波形がどのような波形になるかわからないため、第2領域210のフレームレートを高くし、明滅検知部74が精度の高い光源Lの明滅周波数及び明滅位相の検知を実行する。一方、明滅検知部74により光源Lの明滅周波数及び明滅位相が検知された後は、光源Lの明滅周波数の整数倍のフレームレートであれば、明滅検知部74が精度の高い光源Lの明滅周波数及び明滅位相の検知を実行することができる。従って、第2領域210のフレームレートを低くし、消費電力を低減させる。
システム制御部70は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS5)。半押し操作は、撮影準備を開始させる指示として用いられる。なお、図8において図示していないが、システム制御部70は、自動的に焦点調節を行うオートフォーカス(AF)の制御や、自動的に露出調節を行う自動露出(AE)の制御などを実行する。
次に、システム制御部70は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS6)。全押し操作が行われたと判定した場合は、駆動制御部72は、ステップS4で明滅検知部74が検知した光源Lの明滅位相に基づいて、静止画の撮像における露光開始の最適なタイミング(ベストタイミングという。図10中、「BT」と記す)について判定する。本実施形態では、露光開始のベストタイミングとして、露光時間が光源Lの光量が高くなる期間に同期するようなタイミングとしている。図10に示す例では、光源Lの光量のピークの手前のタイミングとしている。ただし、露光開始のベストタイミングは、露光時間(シャッタースピード)によって変化する。露光時間が短いほど、光源Lの光量のピークに近いタイミングが露光開始のベストタイミングとなる。露光時間が一定以上長くなれば、露光開始のタイミングによる静止画の画像への影響は小さくなる。駆動制御部72は、判定した露光開始のベストタイミングに基づいて露光開始のタイミングを調整する(ステップS7)。そして、駆動制御部72は、ステップS7で調整したタイミングにおいて、撮像素子100に撮像を実行させる撮像処理を行う(ステップS8)。なお、ステップS10における全押し操作に基づく撮像のことを本撮像という。
本実施形態では、撮像部20は、オートフォーカスや自動露出の制御に基づいて、焦点位置における適正な露出となる撮像条件で本撮像を行う。このとき、撮像部20は、撮像素子100の画素領域(撮像領域)113Aに対して本撮像を行う。すなわち、撮像部20は、ライブビュー画像を撮像していた第1領域200についてだけでなく、光源Lの明滅の検知に用いていた第2領域210についても撮像を実行させる。なお、撮像部20が第1領域200だけで本撮像を行うように構成してもよい。
以上に説明したように、第1実施形態では、撮像素子100を駆動制御する駆動制御部72と、撮像素子100を第1領域200と第2領域210とに分割する分割部71と、駆動制御部72が第2領域210から読み出す信号に基づいて光源Lの明滅を検知する明滅検知部74と、を備える。このような構成によれば、撮像素子100の一部の第2領域210で光源Lの明滅を検知することで、画像に生じるフリッカー現象を防止することができる。
また、第1実施形態では、駆動制御部72は、明滅検知部74により検知された光源Lの明滅に基づいて撮像開始のタイミングを変更する。このような構成によれば、最適なタイミングで静止画の撮像を行うことができる。また、第1実施形態では、駆動制御部72が第1領域200から読み出す信号に基づいてライブビュー画像を表示部50に表示させる制御部73を備え、明滅検知部74は、ライブビュー画像の表示中に、光源Lの明滅を検知する。このような構成によれば、常に光源Lの明滅に合わせた最適なタイミングで撮像を行うことができる。すなわち、システム制御部が電源投入の直後にだけ光源Lの明滅を検知し、検知した光源Lの明滅に基づいて撮像を行う構成も考えられる。しかし、そのような構成の場合、ライブビュー画像の表示中に光源Lの明滅位相と最適な撮像タイミングとがずれてしまうことがある。上記のような構成では、ライブビュー画像の表示中も常に明滅検知部74が光源Lの明滅位相を検知しているので、撮像時において光源Lの明滅に合わせた最適な撮像タイミングとずれてしまうことがない。また、このような構成によれば、静止画の単写だけでなく連写の場合でも最適な撮像タイミングで撮像を行うことができる。
また、第1実施形態では、駆動制御部72は、第1領域200のフレームレートよりも高いフレームレートで第2領域210を駆動制御する。このような構成によれば、明滅検知部74が光源Lの明滅を精度よく検知することができる。また、第1実施形態では、駆動制御部72は、光源Lの明滅周波数の整数倍のフレームレートで第2領域210を駆動制御する。このような構成によれば、必要以上にフレームレートを高くしなくても、明滅検知部74が精度よく光源Lの明滅を検知することができる。また、第1実施形態では、駆動制御部72は、光源Lの明滅周波数に合わせて変更したフレームレートで第2領域210を駆動制御する。このような構成によれば、明滅検知部74による光源Lの明滅の検知精度を担保するとともに、消費電力を低減することができる。
また、第1実施形態では、第2領域210は複数のブロックで構成され、各ブロックに含まれる複数の画素からの信号を平均化する信号処理部416を含む。このような構成によれば、明滅検知部74が安定した信号に基づいて光源Lの明滅の検知を行うことができる。すなわち、第2領域210の各ブロックにおける画素信号の信号レベルは画素によってバラツキがある。従って、明滅検知部74が光源Lの明滅に応じて信号レベルが安定して変化する信号に基づいて光源Lの明滅を検知する必要がある。上記のような構成では、各画素の画素信号を平均化することで信号レベルのバラツキが少なくなり、安定した信号に基づいて光源Lの明滅の検知が可能となる。また、各ブロック内の信号の平均化を行うことにより、1ブロック1データとなるため、データ量が削減される。従って、画像処理部30やシステム制御部70の負担が軽減される。また、分割部71は、第2領域210を第1領域200の周囲に設定するので、精度よく光源Lの明滅の検知を行うことができる。すなわち、光源Lはどこに強い光量があるかわからないため(むらがあるため)、撮像素子100における偏った特定の領域だけで光源Lからの光量を検知しても正確な光源Lの明滅を検知することができない場合がある。上記のような構成では、光源Lの光量の強弱によらずに明滅の検知を行うことができる。
なお、図7に示したように、第1実施形態では、撮像装置の一例としてデジタルカメラ1について説明した。しかし、撮像装置はデジタルカメラ1に限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図7に示す第1実施形態に係るデジタルカメラ1において、表示部50は撮像装置の外部に設けられる構成であってもよい。この場合、システム制御部70及び表示部50のそれぞれには、有線又は無線で信号(画像データや制御信号など)を送受信する通信部が設けられる。また、画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。
また、上記した第1実施形態では、第2領域210の各ブロックの画素信号を平均化する信号処理部416を撮像部20内に設けていたが、画像処理部30に設けてもよい。また、明滅検知部74はシステム制御部70内に設けていたが、撮像部20又は画像処理部30内に設けてもよい。すなわち、撮像部20の信号処理部(演算回路)416が光源Lの明滅の検知を行う機能を備え、又は画像処理部30が光源Lの明滅の検知を行う機能を備えてもよい。この場合、撮像部20又は画像処理部30内の明滅検知部が光源Lの明滅周波数や明滅位相を検知し、検知信号をシステム制御部70に出力する。
また、上記した第1実施形態では、駆動制御部72は、明滅検知部74により検知された光源Lの明滅に基づいて静止画の撮像開始のタイミングを調整していた(図8のステップS4,S7参照)。しかし、このような構成に限定されず、駆動制御部72は、明滅検知部74により検知された光源Lの明滅に基づいてライブビュー画像の撮像開始のタイミングを調整してもよい。このように、駆動制御部72がライブビュー画像においてもベストタイミングで露光することにより、ライブビュー画像の感度を上げることができるとともに、適正なホワイトバランスのライブビュー画像を取得することができる。
<第2実施形態>
上記した第1実施形態では、分割部71は、撮像素子100を第1領域200と第2領域210とに2分割していた。これに対し、第2実施形態では、分割部71は、撮像素子100を第1領域200と領域210Aと領域210Bとに3分割する。なお、第2実施形態では、領域210Aのことを第3領域といい、領域210Bのことを第4領域という。第3領域210A及び第4領域210Bは、第1実施形態の第2領域210に相当する。従って、第2実施形態では、分割部71が第2領域210を第3領域210Aと第4領域210Bとにさらに分割したことになる。
図11は、第2実施形態の撮像素子100における第1領域200と第3領域210と第4領域211とを示す図である。図11に示すように、撮像素子100の画素領域113Aは、第1領域200と第3領域210Aと第4領域210Bとに分割されている。第1領域200は、画素領域113Aの中央部分の複数のブロック(図11中の「A」で示すブロック)からなる方形状の領域である。第3領域210Aは、画素領域113Aの周辺部分の複数のブロック(図5中の「B」で示すブロック)からなる領域である。すなわち、第3領域210Aは、第1領域200の周囲を囲うように配置された複数のブロックで構成されている領域である。第4領域210Bは、画素領域113Aの周辺部分の複数のブロック(図5中の「C」で示すブロック)からなる領域である。すなわち、第4領域210Bは、第1領域200の周囲を囲うように配置された複数のブロックで構成されている領域である。上記したように、第3領域210Aと第4領域210Bが第2領域210に対応する。なお、第1領域200、第3領域210A及び第4領域210Bを構成する各ブロックは、例えば120×60画素で構成されている。
なお、図11において、領域ごとのブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックを設定しているが、図11に示すブロックの数よりも多い数のブロックを画素領域113Aに設定するようにしてもよい。
本実施形態では、第1領域200は、通常の撮影用の領域(撮影用領域)である。第3領域210A及び第4領域210Bは、いずれも光源(図6の光源L参照)の明滅(フリッカー)を検知するために使用されるフリッカー検知用領域である。ただし、第3領域210Aと第4領域210Bとは、異なるフレームレートが設定される。
図12は、光源Lの明滅周期と第3領域210Aの露光時間及び信号出力と第4領域210Bの露光時間及び信号出力とを示すタイミングチャートである。図12に示すように、駆動制御部72は、第3領域210Aのフレームレートとして、第1領域200のフレームレートよりも高いフレームレート(例えば100Hzの4倍のフレームレート)を設定する。また、駆動制御部72は、第4領域210Bのフレームレートとして、第1領域200のフレームレートよりも高く、かつ第3領域210Aのフレームレートとは異なるフレームレート(例えば120Hzの4倍のフレームレート)を設定する。このような構成によれば、明滅検知部74が異なる商用電源の周波数(50Hz、60Hz)に対応した異なる明滅周波数(100Hz、120Hz)の光源Lに対して確実に光源Lの明滅周波数や明滅周期を検知することができる。
なお、第3領域210Aのフレームレートと第4領域210Bのフレームレートは、商用電源の周波数に対応したフレームレートに限定されない。例えば、駆動制御部72は、第3領域210Aのフレームレートと第4領域210Bのフレームレートとを同じフレームレートとするが、これらのフレームレートの位相を90度ずらすように設定する。このような構成によれば、光源Lの明滅位相をより一層検知しやすくなる。
以上のように、第2実施形態では、分割部71は、第2領域210を第3領域210Aと第4領域210Bとに分割し、駆動制御部72は、第3領域210Aと第4領域210Bとを異なるフレームレートで駆動制御する。このような構成によれば、光源Lの様々な周波数の明滅を精度よく検知することができる。
<第3実施形態>
上記した第1実施形態では、明滅検知部74はライブビュー画像の表示中に明滅の検知を実行していた(図8のステップS4参照)。これに対し、第3実施形態では、明滅検知部74は、使用者によるレリーズスイッチの半押し操作に応じて明滅の検知を実行する。
図13は、第3実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。図13に示すように、システム制御部70が使用者によるレリーズスイッチの半押し操作が行われたと判定した場合に(ステップS5のYES)、明滅検知部74は、光源Lの明滅を検知する(ステップS11)。なお、その他の処理については、図8で説明したものと同様であるため説明を省略する。このような構成によれば、ライブビュー画像の表示中に第2領域210(第2実施形態では第3領域210A、第4領域210B)において駆動制御を行う必要がなくなるため、消費電力が低減される。なお、第1実施形態と同様に、明滅検知部74は、ライブビュー画像の表示中に光源Lの明滅を検知するとともに、レリーズスイッチの半押し操作が行われた場合についても光源Lの明滅を検知するように構成してもよい。
なお、明滅検知部74が光源Lの明滅を検知する処理を実行するタイミング(契機)としては、様々なタイミングが考えられる。例えば、使用者が部屋を移動した場合は、光源Lが変化することがある。光源が蛍光灯の部屋から光源がLEDの部屋に移動したような場合である。この場合、画像処理部30が画像のホワイトバランスが変化したことなどを検知したことにより部屋が移動されたと判定し、明滅検知部74が光源Lの明滅を検知するようにしてもよい。デジタルカメラ1にGPS機能(Global Positioning System)を設け、GPSで所定距離以上の移動を検知したことに応じて、明滅検知部74が光源Lの明滅を検知するようにしてもよい。また、ライブビュー画像の表示中は、第2領域210のフレームレートを商用電源の周波数の4倍とし、半押し操作に応じて第2領域210のフレームレートを商用電源の周波数の8倍としてもよい。
<第4実施形態>
上記した第1実施形態では、演算回路416が第2領域210の各ブロックの画素信号を平均化していた。これに対し、第4実施形態では、演算回路(ブロック判定部)416が第2領域210の各ブロックの画素信号に基づいて、光源Lの明滅のコントラストが高いブロックを判定する。そして、明滅検知部74は、演算回路416が判定したブロックからの信号レベルに基づいて、光源Lの明滅を検知する。
具体的には、撮像素子100の第2領域210の各画素から読み出された画素信号が演算回路416に出力される。演算回路416は、各画素信号の信号レベルに基づいて、光源Lの明滅のコントラスト(高低)を検出する。演算回路416は、光源Lの明滅のコントラストが最も高いブロックを判定する。演算回路416は、光源Lの明滅のコントラストが最も高いブロックの各画素の画素信号を平均化する。そして、演算回路416は、平均化した平均化信号を画像処理部30に出力する。画像処理部30は、演算回路416から出力された平均化信号の信号レベルを判定し、その判定結果をシステム制御部70に出力する。この様な構成によれば、より一層、明滅検知部74の明滅の検知精度が向上する。
<第5実施形態>
上記した第1実施形態では、図6等に示したように、1つの撮像素子100を撮影用の領域(第1領域200)と光源Lの明滅検知用の領域(第2領域210)とに分割していた。これに対し、第5実施形態では、撮影用の撮像素子100とは別に、光源Lの明滅検知用の撮像素子400を設けている。
図14は、第5実施形態に係る2つの撮像素子100,400の配置を示す図である。図14に示すように、撮影光学系11から導かれた光束は、ハーフミラー300を通過して一部は撮像素子100に到達し、他の一部はハーフミラー300で反射されて撮像素子400に到達する。撮像素子400は、光源Lの明滅を検知するための撮像素子である。明滅検知部74は、撮像素子400からの信号に基づいて光源Lの明滅周波数や明滅位相を検知する。この第5実施形態では、撮像素子100を第1撮像素子といい、撮像素子400を第2撮像素子という。このような構成よっても、撮像素子100とは別の撮像素子400により光源Lの明滅を検知することで、画像に生じるフリッカー現象を防止することができる。
<第6実施形態>
第6実施形態では、上記した第1実施形態におけるデジタルカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
図15は、第6実施形態に係る撮像装置1A及び電子機器1Bの構成を示すブロック図である。図15に示す構成において、撮像装置1Aは、被写体の撮像を行う装置である。この撮像装置1Aは、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部(制御部)70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。また、第2システム制御部70Bは、予め設定されているメニュー画像を第2表示部53に表示させる。
また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、画像表示領域510内の各表示領域を選択する制御を行う。また、第1システム制御部70Aは、使用者による操作部(電子機器1B側に設けられた静止画や動画の撮像開始を指示する操作部)55の操作に応じて撮像の制御を実行する。
図7に示す構成(分割部71、駆動制御部72、制御部73、及び明滅検知部74)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図7に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図7に示す構成の一部が第1システム制御部70Aに設けられ、図7に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。
なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。
図15に示す第1システム制御部70Aは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図15に示す第2システム制御部70Bは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。
以上に説明したように、第6実施形態では、第1実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されているライブビュー画像を利用して光源の明滅を検知することができる。
なお、図15に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。
また、上記した各実施形態において、駆動部21は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部30の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部70の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。
また、上記した各実施形態において、明滅検知部74が検知した光源Lの明滅周波数及び明滅位相に基づいて最適な撮像タイミングで静止画を撮像する構成であった。しかし、明滅検知部74が検知した光源Lの明滅周波数及び明滅位相に基づいて、フリッカー現象が生じないようなフレームレートを決定し、決定したフレームレートで動画を撮影する構成でもよい。
また、上記した第1実施形態では、撮像素子100を第1領域200と第2領域210の2分割とし、第2実施形態では、撮像素子100を第1領域200と第3領域210Aと第4領域210Bの3分割としていたが、4分割以上としてもよい。また、第2領域210(第3領域210A、第4領域210B)は、第1領域200の周囲に配置していたが、そのような位置に限定されない。例えば、中央部に配置してもよいし、また撮像素子100の全面に均等に配置してもよい。
<第7実施形態>
第7実施形態においては、画像には、静止画、動画、ライブビュー画像、部分動画が含まれる。まず、部分動画について説明する。図16は、部分動画の概要を説明するための図である。図16に示す画像1500には、被写体としての人物O10と、その人物O10の耳に付けられた被写体としてのイヤリングO20とが写っている。画像1500においてイヤリングO20及びその周囲の領域(イヤリングO20よりも少し広めの領域)1501が動画で構成されている。図16に示す例では、領域1501の動画はイヤリングO20が揺れている動画となっている。一方、画像1500において領域1501以外の領域(つまり、人物O10が写っている領域)が静止画で構成されている。従って、領域1501以外の領域の画像は止まっている。使用者には画像1500においてイヤリングO20だけが動いているように見える。このように、画像の一部分が動画で他の部分が静止画である画像のこと「部分動画」という。また、「部分動画」のことを「シネマフォト」又は「シネマグラフ」ともいう。部分動画は、写真(静止画)を部分的に動かすことで、その動いている部分に注目させる手法である。使用者は、時間が止まっている写真の中で、動いている部分だけは時間が進んでいるように見える。本実施形態では、上記した撮像素子1100を用いて部分動画を生成する。
図17は、第7実施形態に係るデジタルカメラ1001の構成を示すブロック図である。なお、図17において、電子機器の一例であるデジタルカメラ1001は図7のデジタルカメラ1に相当し、レンズ部1010は図7のレンズ部10に相当し、撮像部1020は図7の撮像部20に相当し、撮像素子1100は図7の撮像素子100に相当し、駆動部1021は図7の駆動部21に相当し、画像処理部1030は図7の画像処理部30に相当し、ワークメモリ1040は図7のワークメモリ40に相当し、表示部1050は図7の表示部50に相当し、表示パネル1051は図7の表示パネル51に相当し、タッチパネル1052は図7のタッチパネル52に相当し、操作部1055は図7の操作部55に相当し、記録部1060は図7の記憶部60に相当し、システム制御部1070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部1010、撮像部1020、撮像素子1100、駆動部1021、ワークメモリ1040、表示部1050、操作部1055、記録部1060の構成については説明を省略する。
画像処理部1030は、図17に示すように、画像生成部1031及び検出部1032を含む。画像生成部1031は、撮像部1020から出力される各画素の画素信号からなるRAWデータに対して種々の画像処理を施すことにより画像データを生成する。本実施形態では、画像生成部1031は、動画(ライブビュー画像を含む)及び静止画の画像データを生成するだけでなく、上記した部分動画の画像データも生成することができる。検出部1032は、画像生成部1031で生成した画像データから被写体を検出する。本実施形態では、検出部1032は、画像生成部1031から時系列的に得られる複数の画像データ(フレーム)を比較して、移動する被写体(移動被写体)を検出する機能を備えている。また、検出部1032は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の境界を特定して被写体を検出する機能を備えている。なお、検出部1032は、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。
ここで、撮像部1020で撮像される対象物である被写体は、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。また、被写体のうち、使用者(撮影者)に注目される被写体又は使用者に注目されると推定される被写体のことを「主要被写体」という。主要被写体も、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。
本実施形態では、表示パネル1051上に形成されたタッチパネル1052のタッチ操作が行われることによって、タッチされた被写体に対する焦点調節(AF:Automatic Focusing)が行われる。
システム制御部1070は、デジタルカメラ1001の全体の処理及び動作を制御する。このシステム制御部1070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部1070は、撮像素子1100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部1070は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部1021に対して指示する。
また、システム制御部1070は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部1070は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部1021に対して指示する。また、画像処理部1030は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部1070は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部1030に指示する。
また、システム制御部1070は、画像処理部1030において生成された画像データを記録部1060に記録させる。また、システム制御部1070は、画像処理部1030において生成された画像データを表示部1050に出力させることにより、表示部1050に画像を表示させる。また、システム制御部1070は、記録部1060に記録されている画像データを読み出して表示部1050に出力させることにより、表示部1050に画像を表示させる。表示部1050に表示される画像としては、静止画、動画、ライブビュー画像、部分動画(図16参照)が含まれる。
また、システム制御部1070は、制御情報をレンズ駆動制御装置15に出力することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cの駆動制御及び絞り14の駆動制御を実行させる。
本実施形態では、システム制御部1070は、図17に示すように、表示制御部1071、設定部(フレームレート設定部)1072、撮像制御部1073、及びAF処理部1074を備えている。表示制御部1071は、画像処理部1030で生成された画像データを表示部1050に出力させて、表示部1050の表示パネル1051に画像(ライブビュー画像、静止画、動画、部分動画)を表示させる制御を行う。また、表示制御部1071は、予め設定されているメニュー画像(図18参照)を表示部1050の表示パネル1051に表示させる制御を行う。
設定部1072は、使用者によるタッチパネル1052のタッチ操作に基づいて、検出部1032が検出した被写体に応じた領域(以下、被写体領域という)に対応する画素領域113Aの領域を、動画を撮像する領域(以下、動画領域という)又は静止画を撮像する領域(以下、静止画領域という)としてブロック単位で設定する制御を行う。また、設定部1072は、使用者によるタッチパネル1052のタッチ操作によって選択された領域(以下、選択領域という)に対応する画素領域113Aの領域を、動画領域又は静止画領域としてブロック単位で設定する制御を行う。また、設定部1072は、使用者によるタッチパネル1052のタッチ操作に応じて、又は自動的に、フレームレートを含む撮像条件を設定する制御を行う。
撮像制御部1073は、設定部1072により設定された撮像条件で撮像を行うように撮像素子1100の駆動制御を行う。ここで、撮像制御部1073は、撮影動作の開始時には、ライブビュー画像の撮像を行うように撮像素子1100の駆動制御を行う。また、撮像制御部1073は、設定部1072により設定された動画領域において動画の撮像を行うように撮像素子1100の駆動制御を行う。また、撮像制御部1073は、設定部1072により設定された静止画領域において静止画の撮像を行うように撮像素子1100の駆動制御を行う。また、撮像制御部1073は、画像生成部1031により生成された動画、静止画、及び部分動画の画像データを記録部1060に記録する制御を行う。
AF処理部1074は、使用者によるタッチパネル1052のタッチ操作に応じて、コントラストAFと呼ばれる被写体のコントラストが最大となるように焦点調節処理(AF処理)を実行する。具体的には、AF処理部1074は、電気接点81A,81Bを介して制御情報をレンズ駆動制御装置15に対して送信することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cを移動させる。また、AF処理部1074は、撮像部1020が撮像した被写体の像のコントラスト(本実施形態では、使用者により選択された被写体の像のコントラスト:図20のステップS1029,S1030参照)を表すコントラスト信号を画像処理部1030から取得する。AF処理部1074は、フォーカシング用レンズ11cを移動させながら、画像処理部1030からのコントラスト信号に基づいて、被写体の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部1074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御情報をレンズ駆動制御装置15に送信する。
なお、システム制御部1070において、表示制御部1071、設定部1072、撮像制御部1073、及びAF処理部1074は、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。
図18は、第7実施形態のデジタルカメラに係る表示部を示す図である。図18に示すように、表示部1050の表示パネル1051は、画像表示領域1510と操作ボタン表示領域1520とが設けられている。画像表示領域1510は、撮像部1020で撮像された画像、すなわち、静止画、動画、ライブビュー画像、及び部分動画を表示する領域である。また、操作ボタン表示領域1520は、使用者が撮像条件などを設定するためのメニュー画像1520Mを表示する領域である。
画像表示領域1510内には、複数のブロックB(i,j)が設定されている。図18に示す例では、ブロックB(i,j)は、画像表示領域1510において、水平方向(図18の横方向)に8個のブロック(i=1〜8)が設定され、垂直方向(図18の縦方向)に6個のブロック(j=1〜6)が設定されている。つまり、画像表示領域1510が8×6個(=48個)のブロックに分割されている。また、タッチパネル1052が画像表示領域1510上に設けられている。タッチパネル1052において、複数のタッチ領域P(i,j)が複数のブロックB(i,j)のそれぞれに重なるように形成されている。各タッチ領域P(i,j)は、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部1070に出力する。
画像表示領域1510に設定される複数のブロックB(i,j)は、上述した画素領域113A(図2参照)に設定される複数のブロックに対応する。ただし、画素領域113Aに設定されるブロックは、画像表示領域1510に設定されるブロックの数よりも多くてもよいし少なくてもよい。なお、図18において、画像表示領域1510内のブロックの配置を見えやすくするために、画像表示領域1510において少ない数のブロックを設定しているが、図18に示すブロックの数よりも多い数のブロックを画像表示領域1510に設定するようにしてもよい。
操作ボタン表示領域1520は、画像表示領域1510の近傍に設けられている。操作ボタン表示領域1520内には、使用者が撮影モード、領域(動画領域、静止画領域)、撮像条件、及びAF処理の実行を設定するためのメニュー画像1520Mが表示される。メニュー画像1520Mには、撮影モードボタン画像1521、タッチ動画ボタン画像1522、タッチ静止画ボタン画像1523、フレームレートボタン画像1524、及びAFボタン画像1525が含まれる。撮影モードボタン画像1521は、使用者が通常の動画や静止画を撮影するモード(通常モード)と部分動画を撮影するモード(部分動画モード)とを選択する場合に用いられる。タッチ動画ボタン画像1522は、使用者が画像表示領域1510において動画領域(例えば、後述する図21の領域1511)を設定する場合に用いられる。タッチ静止画ボタン画像1523は、使用者が画像表示領域1510において静止画領域(例えば、後述する図24の領域1512)を設定する場合に用いられる。フレームレートボタン画像1524は、使用者が動画のフレームレートを設定する場合に用いられる。AFボタン画像1525は、使用者がタッチパネル1052のタッチ操作で指定した被写体に対するAF処理を実行させる場合に用いられる。
タッチパネル1052において、タッチ領域1521aが撮影モードボタン画像1521上に重なるように形成されている。タッチ領域1522aがタッチ動画ボタン画像1522上に重なるように形成されている。タッチ領域1523aがタッチ静止画ボタン画像1523上に重なるように形成されている。タッチ領域1524aがフレームレートボタン画像1524上に重なるように形成されている。タッチ領域1525aがAFボタン画像1525上に重なるように形成されている。タッチ領域1521a、タッチ領域1521a、タッチ領域1521a及びタッチ領域1525aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部1070に出力する。
実施形態(第7実施形態、後述する第8及び第9実施形態)において、「第1領域」とは、表示パネル1051の画像表示領域1510において使用者の操作に応じて又は自動的に設定部1072により設定された領域(動画領域又は静止画領域)に対応する撮像素子1100の画素領域113A内の領域のことをいう。また、「第2領域」とは、表示パネル1051の画像表示領域1510において使用者の操作に応じて又は自動的に設定部1072により設定された領域(動画領域又は静止画領域)に対応する撮像素子1100の画素領域113A内の領域のことをいう。第1領域及び第2領域は、いずれも、1つの領域に限らず、複数の領域であってもよい。
次に、第7実施形態に係るデジタルカメラ1001の部分動画の撮影動作について説明する。図19は、第7実施形態のシステム制御部1070が実行する部分動画の撮影動作を説明するためのフローチャートである。
使用者が撮影モードとして部分動画モードを選択することにより、図19に示す部分動画の撮影動作(ステップS1001〜S1012の処理)が開始される。使用者による撮影モードの選択は、例えば以下のように行われる。デジタルカメラ1001の電源が投入されると、表示制御部1071は図18に示した画面が表示部1050の表示パネル1051に表示される。使用者が撮影モードボタン画像1521(すなわちタッチ領域1521a)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域1521aに対応する検出信号をシステム制御部1070に出力する。表示制御部1071は、タッチ領域1521aに対応する検出信号に基づいて、撮像モードボタン画像1521の横に、撮影モードの種類の画像として「通常モード」及び「部分動画モード」を表示させる。設定部1072は、タッチパネル1052において、撮影モードの種類の画像の領域と重なるように新たにタッチ領域を設定する。使用者は撮影モードの種類の画像として「部分動画モード」をタッチする。タッチパネル1052は、使用者によりタッチされた「部分動画モード」上のタッチ領域に対応する検出信号をシステム制御部1070に出力する。設定部1072は、撮影モードの種類として「部分動画モード」を設定する。その後、図19に示す処理が開始される。
図19に示す処理において、まず、撮像制御部1073がライブビュー画像の撮影動作を開始する(ステップS1001)。ライブビュー画像の撮影が開始されると、表示制御部1071は、撮像部1020で撮像されたライブビュー画像を表示パネル1051の画像表示領域1510に表示する(ステップS1002)。例えば、画像表示領域1510には滝のライブビュー画像が表示される(後述する図21、図23、及び図24参照)。
次に、設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたか否かを判定する(ステップS1003)。使用者は、画像表示領域1510において動画領域を設定する場合、タッチ動画ボタン画像1522(すなわちタッチ領域1522a)を指でタッチする。また、使用者は、画像表示領域1510において静止画領域を設定する場合、タッチ静止画ボタン画像1523(すなわちタッチ領域1523a)を指でタッチする。使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523がタッチされると、タッチパネル1052は、使用者によりタッチされたタッチ領域1522a又は1523aに対応する検出信号をシステム制御部1070に出力する。設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたと判定した場合は、領域(動画領域、静止画領域)や撮像条件などを設定する設定処理を実行する(ステップS1004)。なお、ステップS1004の設定処理では、AF処理部1074によるAF処理も実行される。
(1)使用者によりタッチ動画ボタン画像1522がタッチされた場合:
図20は、図19に示す設定処理(ステップS1004)を説明するためのフローチャートである。また、図21は、使用者が動画領域1511を設定するときの表示パネル1051の表示例を示す図である。また、図22は、撮像素子1100の画素領域113Aにおける動画領域1211を示す図である。また、図23は、使用者がフレームレートを設定するときの表示パネル1051の表示例を示す図である。
図21に示すように、表示制御部1071は、タッチ領域1522aに対応する検出信号に基づいて、タッチ動画ボタン画像1522の横に、領域設定モードの画像1522vとして「オート」及び「マニュアル」を表示させる。ここで、「オート」は、設定部1072が自動で動画領域を設定する領域設定モード(自動モード)である。「マニュアル」は使用者が手動で動画領域を設定する領域設定モード(手動モード)である。設定部1072は、タッチパネル1052において、領域設定モードの画像1522vの領域(「オート」及び「マニュアル」の領域)と重なるように新たにタッチ領域を設定する。使用者は領域設定モードの画像1522vとして「オート」又は「マニュアル」をタッチする。タッチパネル1052は、使用者によりタッチされた「オート」又は「マニュアル」のタッチ領域に対応する検出信号をシステム制御部1070に出力する。
図20に示す処理において、設定部1072は、「オート」又は「マニュアル」のタッチ領域に対応する検出信号に基づいて、使用者によって領域設定モードとして「オート」が選択されたか「マニュアル」が選択されたかを判定する(ステップS1021)。設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定した場合は(ステップS1021のYES)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に表示されている被写体のブロックB(i,j)を指でタッチすることにより、画像表示領域1510に表示されている被写体を選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。
設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択されたブロックB(i,j)を認識する。図21に示す例では、使用者によって領域1511(図21中の線が引かれている領域)内の所定のブロックB(i,j)が選択されたものとする。設定部1072は、使用者により選択された所定のブロックB(i,j)の位置を示す位置信号を画像処理部1030に出力することにより、検出部1032に被写体の検出を実行させる(ステップS1022)。検出部1032は、システム制御部1070からの位置信号が示す位置のブロックを認識する。そして、検出部1032は、認識したブロックを含む被写体を検出する。具体的には、検出部1032は、画像生成部1031から時系列的に得られる複数の画像データを比較して、移動する被写体(図21中の滝)を検出する。または、検出部1032は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体(図21中の滝)の境界を特定して被写体を検出する。検出部1032は、検出した被写体の位置及び範囲を示す被写体検出信号をシステム制御部1070に出力する。
設定部1072は、画像処理部1030からの被写体検出信号に基づいて、検出部1032が検出した被写体の位置及び範囲を認識する。そして、設定部1072は、認識した被写体の位置及び範囲に応じた被写体領域(図21中の領域1511)に対応する画素領域113A内の被写体領域(図22中の領域1211)を設定する(ステップS1023)。具体的には、設定部1072は、駆動部1021に対して被写体領域1211のブロックの位置などを指示する指示信号を出力する。なお、図21に示すように、設定部1072は、被写体の不規則な動きが生じた場合でも被写体の動画を撮像することができるように、検出部1032が検出した被写体(図21中の滝)の領域よりも少し広めの領域を被写体領域1511として設定している。
次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたと判定した場合は、被写体領域1211(図21の被写体領域1511)を動画領域として設定する(ステップS1026)。
そして、設定部1072は、使用者によるフレームレートボタン画像1524のタッチ操作に基づいて、動画領域のフレームレートを設定する(ステップS1028)。具体的には、使用者がフレームレートボタン画像1524(すなわちタッチ領域1524a)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域1524aに対応する検出信号をシステム制御部1070に出力する。図23に示すように、表示制御部1071は、タッチ領域1524aに対応する検出信号に基づいて、フレームレートボタン画像1524の横に、複数のフレームレート値の画像1524vを表示させる。図23に示す例では、フレームレート値として、「30」「60」「90」「120」「240」が表示されている。設定部1072は、タッチパネル1052において、複数のフレームレート値の画像1524vの領域と重なるように新たにタッチ領域を設定する。使用者は複数のフレームレート値の画像1524vのいずれかをタッチする。タッチパネル1052は、使用者によりタッチされたフレームレート値の画像上のタッチ領域に対応する検出信号をシステム制御部1070に出力する。設定部1072は、タッチパネル1052からの検出信号に応じたフレームレートの値(例えば240fps)を設定する。
設定部1072は、ステップS1028において、フレームレート以外の撮像条件も設定する。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。
その後、AF処理部1074は、使用者によりAFボタン画像1525のタッチ操作が行われたか否かを判定する(ステップS1029)。そして、AF処理部1074は、使用者によりAFボタン画像1525のタッチ操作が行われたと判定した場合に、AF処理を実行する(ステップS1030)。具体的には、使用者は、AFボタン画像1525(すなわちタッチ領域1525a)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域1525aに対応する検出信号をシステム制御部1070に出力する。次に、使用者は、焦点位置の調節を行う被写体を選択するために、画像表示領域1510内の被写体をタッチする。例えば、使用者は、焦点位置の調節を行う被写体として図21及び図23に示す滝の被写体内のブロックB(i,j)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。AF処理部1074は、タッチパネル1052からの検出信号に基づいて、使用者によって選択されたブロックB(i,j)の被写体についての焦点調節処理(AF処理)を実行する。
すなわち、AF処理部1074は、フォーカシング用レンズ11cを移動させながら、画像処理部1030からのコントラスト信号に基づいて、滝の被写体像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部1074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御情報をレンズ駆動制御装置15に送信する。
図20のステップS1021において、設定部1072は、使用者により領域設定モードとして「マニュアル」が選択されたと判定した場合は(ステップS1021のNO)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、画像表示領域1510内の領域をブロック単位で選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。
設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択された選択領域を認識する。図21に示す例では、使用者によって選択領域1511が選択されたものとする。設定部1072は、認識した選択領域1512に対応する画素領域113A内の選択領域(図22中の領域1211)を設定する(ステップS1024)。具体的には、設定部1072は、駆動部1021に対して選択領域1211のブロックの位置などを指示する指示信号を出力する。なお、図21に示すように、設定部1072は、被写体の不規則な動きが生じた場合でも被写体の静止画を撮像することができるように、使用者が選択した領域よりも少し広めの領域を選択領域1511として設定してもよい。
次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたと判定した場合は、選択領域1211(図21の選択領域1511)を動画領域として設定する(ステップS1026)。
そして、設定部1072は、上記した場合と同様に、使用者によるフレームレートボタン画像1524のタッチ操作に基づいて、動画領域のフレームレートを設定する(ステップS1028)。また、設定部1072は、ステップS1028において、フレームレート以外の撮像条件も設定する。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。その後、AF処理部1074は、上記した場合と同様に、使用者によりAFボタン画像1525のタッチ操作が行われたことに基づいて(ステップS1029のYES)、AF処理を実行する(ステップS1030)。
(2)使用者によりタッチ静止画ボタン画像1523がタッチされた場合:
図24は、使用者が静止画領域1512を設定するときの表示パネル1051の表示例を示す図である。また、図25は、撮像素子1100の画素領域113Aにおける静止画領域1212を示す図である。なお、使用者によりタッチ静止画ボタン画像1523がタッチされた場合も、図20に示す設定処理(ステップS1004)が実行される。
図24に示すように、表示制御部1071は、タッチ領域1523aに対応する検出信号に基づいて、タッチ静止画ボタン画像1523の横に、領域設定モードの画像1523vとして「オート」及び「マニュアル」を表示させる。設定部1072は、タッチパネル1052において、領域設定モードの画像1523vの領域(「オート」及び「マニュアル」の領域)と重なるように新たにタッチ領域を設定する。使用者は領域設定モードの画像1523vとして「オート」又は「マニュアル」をタッチする。タッチパネル1052は、使用者によりタッチされた「オート」又は「マニュアル」のタッチ領域に対応する検出信号をシステム制御部1070に出力する。
図20に示す処理において、設定部1072は、「オート」又は「マニュアル」のタッチ領域に対応する検出信号に基づいて、使用者によって領域設定モードとして「オート」が選択されたか「マニュアル」が選択されたかを判定する(ステップS1021)。設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定した場合は(ステップS1021のYES)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に表示されている被写体のブロックB(i,j)を指でタッチすることにより、画像表示領域1510に表示されている被写体を選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。
設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択されたブロックB(i,j)を認識する。図24に示す例では、使用者によって領域1512(図24中の白線が引かれている領域)内の所定のブロックB(i,j)が選択されたものとする。設定部1072は、使用者により選択された所定のブロックB(i,j)の位置を示す位置信号を画像処理部1030に出力することにより、検出部1032に被写体の検出を実行させる(ステップS1022)。検出部1032は、システム制御部1070からの位置信号が示す位置のブロックを認識する。そして、検出部1032は、認識したブロックを含む被写体を検出する。具体的には、検出部1032は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体(図24中の滝の後ろの背景)の境界を特定して被写体を検出する。検出部1032は、検出した被写体の位置及び範囲を示す被写体検出信号をシステム制御部1070に出力する。
設定部1072は、画像処理部1030からの被写体検出信号に基づいて、検出部1032が検出した被写体の位置及び範囲を認識する。そして、設定部1072は、認識した被写体の位置及び範囲に応じた被写体領域(図24中の領域1512)に対応する画素領域113A内の被写体領域(図25中の領域1212)を設定する(ステップS1023)。具体的には、設定部1072は、駆動部1021に対して被写体領域1212のブロックの位置などを指示する指示信号を出力する。
次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたのではなく、タッチ静止画ボタン画像1523がタッチされたと判定した場合は、被写体領域1212(図24の被写体領域1512)を静止画領域として設定する(ステップS1027)。
設定部1072は、ステップS1028において、フレームレート以外の撮像条件を設定する(ステップS1028)。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。なお、設定部1072がステップS1027で静止画領域を設定した場合は、フレームレートの設定処理を実行しない。
その後、AF処理部1074は、上記した場合と同様に、使用者によりAFボタン画像1525のタッチ操作が行われたか否かを判定する(ステップS1029)。そして、AF処理部1074は、使用者によりAFボタン画像1525のタッチ操作が行われたと判定した場合に、AF処理を実行する(ステップS1030)。
図20のステップS1021において、設定部1072は、使用者により領域設定モードとして「マニュアル」が選択されたと判定した場合は(ステップS1021のNO)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、画像表示領域1510内の領域をブロック単位で選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。
設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択された選択領域を認識する。図24に示す例では、使用者によって選択領域1512が選択されたものとする。設定部1072は、認識した選択領域1512に対応する画素領域113A内の選択領域(図25中の領域1212)を設定する(ステップS1024)。具体的には、設定部1072は、駆動部1021に対して選択領域1212のブロックの位置などを指示する指示信号を出力する。
次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたのではなく、タッチ静止画ボタン画像1523がタッチされたと判定した場合は、選択領域1212(図24の選択領域1512)を静止画領域として設定する(ステップS1028)。
そして、設定部1072は、上記した場合と同様に、フレームレート以外の撮像条件も設定する(ステップS1028)。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。その後、AF処理部1074は、上記した場合と同様に、使用者によりAFボタン画像1525のタッチ操作が行われたことに基づいて(ステップS1029のYES)、AF処理を実行する(ステップS1030)。
なお、AF処理(ステップS1030)では、使用者が選択した被写体(領域)の焦点調節が行われる。使用者が滝の被写体(動画領域)を選択した場合は、滝の被写体に対する焦点調節が行われる。また、使用者が滝の後ろの背景の被写体(静止画領域)を選択した場合は、滝の後ろの被写体に対する焦点調節が行われる。一般的には、焦点調節の対象の被写体は、使用者が注目している被写体とされる。AF処理部1074は静止画領域において静止画を撮像する場合にだけ静止画領域に対するAF処理を実行するようにしてもよい。
以上のような図19のステップS1001〜S1004の処理は、使用者により操作部1055の録画スイッチが押されるまで繰り返し実行される。なお、撮像素子1100はブロック単位で動画又は静止画を撮像することが可能である。従って、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、複数の動画領域を設定することが可能である。また、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、複数の静止画領域を設定することも可能である。また、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、動画領域として設定した領域を静止画領域に設定し直すことも可能であり、静止画領域として設定した領域を動画領域として設定し直すことも可能である。また、設定部1072は、動画領域として設定した領域内において静止画領域を設定することも可能である。また、設定部1072は、静止画領域として設定した領域内において動画領域を設定することも可能である。
ステップS1004の設定処理において、設定部1072により動画領域や静止画領域が設定された場合は、ステップS1001において、撮像制御部1073は、撮像素子1100を駆動制御することにより、動画領域において動画の撮像を行い、静止画領域において静止画の撮像を行う。また、ステップS2において、表示制御部1071は、撮像素子1100で撮像された部分動画(部分動画のライブビュー画像)を表示パネル1051の画像表示領域1510に表示させる。これにより、使用者は、どのような部分動画が撮像されるかを事前に確認することができる。
システム制御部1070が使用者による動画スイッチの操作が行われたと判定した場合は(ステップS1005のYES)、撮像制御部1073は、撮像処理を実行する(ステップS1006)。このとき、ステップS1004の設定処理において、設定部1072により動画領域や静止画領域が設定された場合は、ステップS1006において、撮像制御部1073は、撮像素子1100を駆動制御することにより、動画領域において動画の撮像を行い、静止画領域において静止画の撮像を行う。また、表示制御部1071は、撮像素子1100で撮像された画像を表示パネル1051の画像表示領域1510に表示させる(ステップS1007)。このとき、ステップS1004の設定処理において、設定部1072により動画領域や静止画領域が設定された場合は、ステップS1007において、表示制御部1071は、撮像素子1100で撮像された部分動画を表示パネル1051の画像表示領域1510に表示させる。これにより、使用者は、どのような部分動画が撮像されているかを確認することができる。なお、撮像素子1100で撮像された画像(動画、部分動画)は、撮像制御部1073により記録部1060に記録される。
次に、設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたか否かを判定する(ステップS1008)。設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたと判定した場合は、領域(動画領域、静止画領域)や撮像条件などを設定する設定処理を実行する(ステップS1009)。ステップS1009の設定処理は、図20に示したステップS1004の設定処理と同様である。すなわち、設定部1072は、表示部1050の表示パネル1051にライブビュー画像を表示させているときに設定処理(ステップS1004)を行うだけでなく、動画(部分動画を含む)の撮像中においても設定処理(ステップS1009)を行う。
この場合においても、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、動画領域として設定した領域を静止画領域に設定し直すことも可能であり、静止画領域として設定した領域を動画領域として設定し直すことも可能である。また、設定部1072は、動画領域として設定した領域内において静止画領域を設定することも可能である。また、設定部1072は、静止画領域として設定した領域内において動画領域を設定することも可能である。
図19のステップS1006〜S1009の処理は、使用者により操作部1055の録画スイッチが押されて録画の終了となるまで繰り返し実行される。システム制御部1070が使用者による動画スイッチの操作が行われたと判定した場合は(ステップS1010のYES)、撮像制御部1073は、記録部1060に記録した動画データ(部分動画のデータを含む)のファイル化を行う(ステップS1011)。例えば、撮像制御部1073は、動画データ(部分動画のデータを含む)のファイルに名前を付け、撮影日時などの情報を付加する。そして、撮像制御部1073は、動画データ(部分動画のデータを含む)のファイルを記録部1060に保存する(ステップS1012)。
なお、図19においてステップS1004又はステップS1009の設定処理(図20)が実行されなかった場合は、通常の動画が撮像されることになる。
以上に説明したように、第7実施形態では、撮像素子1100を有し、撮像素子1100の撮像領域113Aにおいて動画と静止画のうち少なくともいずれか一方を撮像可能な撮像部1020と、撮像部1020により撮像領域113Aにおいて動画を撮像中に、撮像領域113A内に第1領域(例えば図22の領域1211又は図25の領域1212)を設定する設定部1072と、設定部1072により第1領域が設定されると、第1領域と第1領域とは異なる第2領域(例えば図22の領域1211又は図25の領域1212)とのいずれか一方について動画を生成し、他方について静止画を生成する画像生成部1031と、を備える。このような構成によれば、撮像素子1100を用いて動画の撮像中に画像の一部分が動画で他の部分が静止画である画像(部分動画)を生成することができる。
また、上記のような構成によれば、記録部1060の記録容量を少なくすることができる。すなわち、従来は、使用者がデジタルカメラ1001で動画を撮像した後に、動画を編集することにより部分動画を作成していた。しかし、このような構成では、撮像素子のすべての撮像領域で撮像した動画データ分の容量が必要となる。また、編集前の動画データを残しておきたい場合には、編集後の部分動画のデータと、編集前の動画データを記録部に記録することとなり、記録部は大きな記録容量が必要となる。一方、上記のような構成では、撮像素子1100を用いて動画の撮像中に部分動画を生成することができるので、記録部1060は部分動画のデータ分の容量だけでよい。従って、記録部1060の記録容量を少なくすることができる。
また、上記のような構成によれば、撮像素子1100の一部の領域についてだけ動画を撮像するので、消費電力を低減させることができる。また、撮像部1020による動画の撮像中において設定部1072がリアルタイムに第1領域を設定することができるので、使用者は動画の撮像中において部分動画を編集することができる。
また、第7実施形態では、撮像部1020により撮像された動画と静止画のうち少なくともいずれか一方から被写体を検出する検出部1032を備え、設定部1072は、検出部1032により検出された一又は複数の被写体の領域を第1領域として設定する。このような構成によれば、設定部1072は被写体の形や範囲などに応じた領域を第1領域として設定することができる。従って、例えば被写体の形状が複雑な形状であったり、被写体の範囲が小さな範囲であっても、設定部1072は被写体の領域を第1領域として容易に設定することができる。また、使用者による部分動画の作成作業も簡易化される。
また、第7実施形態では、撮像部1020により撮像された動画と静止画の少なくともいずれか一方を表示部1050に表示させる表示制御部1071と、表示部1050に表示された動画と静止画の少なくともいずれか一方において、第1領域を選択可能な選択部1052と、をさらに備える。このような構成によれば、使用者が任意の領域を第1領域として選択することができる。従って、使用者の好みに応じた部分動画を作成することができる。また、第7実施形態では、選択部1052は、表示部1050に形成されたタッチパネル1052を有するので、使用者による操作の利便性が向上する。
また、第7実施形態では、設定部1072は、撮像部1020により撮像されたライブビュー画像を表示部1050に表示させているときに、第1領域を設定する。このような構成によれば、使用者はどのような部分動画が撮像されるかを事前に確認することができる。また、第7実施形態では、動画のフレームレートを設定するフレームレート設定部1072を備える。このような構成によれば、動画の動きの滑らかさを適宜変更することができる。また、フレームレートに応じてスローモーション動画として記録部1060に記録し、又はハイスピード動画として記録部1060に記録することも可能となる。また、第7実施形態では、フレームレート設定部1072は、動画が生成される第1領域または第2領域が複数ある場合、領域毎に動画のフレームレートを異ならせる。このような構成によれば、領域毎に動画の動きの滑らかさを変更することができる。よって、より面白みのある部分動画を作成することができる。
なお、上記した第7実施形態において、設定部1072が使用者のタッチ操作に応じて動画領域を設定した場合、画素領域113Aにおける動画領域以外の領域を自動的に静止画領域として設定するようにしてもよい。また、設定部1072が使用者のタッチ操作に応じて静止画領域を設定した場合、画素領域113Aにおける静止画領域以外の領域を自動的に動画領域として設定するようにしてもよい。
なお、上記した第7実施形態では、電子機器の一例としてデジタルカメラ1001を挙げていたが、これに限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図17に示す画像処理部1030とシステム制御部1070は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部1030の機能とシステム制御部1070の機能を担う。
<第8実施形態>
上記した第7実施形態では、撮像部1020が非移動被写体(図21等に示した滝及びその後ろの背景のような移動しない被写体)を撮像する場合を例として説明したが、撮像部1020が人物のような移動する移動被写体を撮像する場合にも適用することができる。しかし、撮像部1020が移動被写体を撮像する場合、移動被写体の移動に伴って画像データ(静止画の画像データ)が欠損してしまうことがある。そこで、第8実施形態では、移動被写体の移動に伴って欠損する画像データを補完する技術を提案する。
図26は、移動被写体O30の領域1513を動画領域として設定するときの表示パネル1051の表示例を示す図である。図19のステップS1004又はステップS1009の設定処理において、設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定し(図20のステップS1021参照)、検出部1032が検出した移動被写体である人物O30に応じた被写体領域1513を設定し(図20のステップS1022、S1023参照)、被写体領域1513を動画領域として設定したものとする(図20のステップS1026参照)。また、設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定し(図20のステップS1021参照)、検出部1032が検出した被写体領域1513以外の領域を設定し(図20のステップS1022、S1023参照)、被写体領域1513以外の領域を静止画領域として設定したものとする(図20のステップS1027参照)。
上述したように、図19のステップS1006の撮像処理において、撮像制御部1073が動画領域(図26に示す例では被写体領域1513)において動画を撮像させるとともに、静止画領域(図26に示す例では被写体領域1513以外の領域)において静止画を撮像させる。本実施形態では、設定部1072は、図26に示すように移動被写体である人物O30が移動すると、被写体領域1513も移動させる。すなわち、設定部1072は、移動被写体を追尾するように被写体領域1513を設定する。撮像制御部1073が静止画領域において静止画を撮像させた後に、被写体領域1513が移動すると、撮像された静止画の画像データのうち、被写体領域1513の部分の画像データが欠損してしまう。
図27は、第8実施形態における撮像処理を示すフローチャートである。また、図28は、移動被写体の移動に伴う画像の補完を説明するための図である。図27に示す撮像処理は、図19のステップS1006の処理に対応する。図26に示す処理において、撮像制御部1073は、ステップS1004又はステップS1009の設定処理において動画領域が設定された場合は(ステップS31のYES)、動画領域において動画を撮像させる(ステップS32)。図28に示す例では、撮像制御部1073は、動画領域としての被写体領域1513aにおいて動画を撮像させる。また、撮像制御部1073は、ステップS1004又はステップS1009の設定処理において静止画領域が設定された場合は(ステップS33のYES)、静止画領域において静止画を撮像させる(ステップS34)。図28に示す例では、撮像制御部1073は、被写体領域1513a以外の領域において静止画を撮像させる。
次に、撮像制御部1073は、動画領域が一定以上の距離を移動したか否かを判定する(ステップS35)。図28に示す例では、人物O30が移動して被写体領域1513aが被写体領域1513bに移動している。このとき、撮像制御部1073は、動画領域が一定以上の距離を移動したと判定する。撮像制御部1073は、動画領域が一定上の距離を移動したと判定した場合は、動画領域以外の領域(ここで、複数の動画領域が設定されている場合は、複数の動画領域以外の領域)において静止画を再度撮像させる(ステップS36)。図28に示す例では、撮像制御部1073は、被写体領域1513b以外の領域において静止画を撮像させる。そして、撮像制御部1073は、ステップS36で再撮像した静止画の画像データのうち、移動前の動画領域における静止画の画像データで、ステップS34で撮像した静止画の画像データの欠損部分を補完する(ステップS37)。図28に示す例では、撮像制御部1073は、ステップS36で再撮像した静止画の画像データのうち、被写体領域1513aの静止画の画像データで、ステップS34で撮像した静止画の画像データの欠損部分(被写体領域1513aの部分)を補完する。
このような構成によれば、移動被写体の移動に伴って画像データが欠損してしまった場合でも、その画像データを補完することができる。よって、画像データの欠損がある不自然な部分動画が生成されてしまうことを防止することができる。
なお、上記した図19においては、ステップS1004又はステップS1009の設定処理(図20)が実行されなかった場合は、通常の動画が撮像されることになる。この場合は、従来と同様に、撮像素子1100により動画が撮像された後に、使用者が動画を編集することにより部分動画を作成することになる。しかし、同一の被写体についての2つの動画を同時に撮像することができれば、動画の撮像後の部分動画の編集作業が容易になると考えられる。そこで、図29に示すような構成により、同一の被写体についての2つの動画を同時に撮像するように構成する。
図29は、各ブロックにおける配列パターンを示す図である。図29に示す配列パターンは、画素領域113Aが一の領域と他の領域とに2分割される配列パターンである。この配列パターンでは、画素領域113Aにおいて、奇数の列(2m−1)における奇数の行(2n−1)のブロックと、偶数の列(2m)における偶数の行(2n)のブロックとで一の領域が構成されている。また、偶数の列(2m)における奇数の行(2n−1)のブロックと、奇数の列(2m−1)における偶数の行(2n)のブロックとで他の領域が構成されている。すなわち、画素領域113Aにおける各ブロックが市松模様となるように分割されている。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。このような構成によれば、撮像素子1100は、一の領域において動画を撮像するとともに、他の領域においても動画を撮像することにより、同一の被写体に対して同時に2つの動画を同時に撮像することができる。同一の被写体に対する2つの動画を用いれば、使用者は様々なバリエーションの部分動画を容易に作成することができる。
<第9実施形態>
第9実施形態では、上記した第7実施形態におけるデジタルカメラ1001を、撮像装置1001Aと電子機器1001Bとに分離した構成としている。
図30は、第9実施形態に係る撮像装置1001A及び電子機器1001Bの構成を示すブロック図である。図30に示す構成において、撮像装置1001Aは、被写体の撮像を行う装置である。この撮像装置1001Aは、レンズ部1010、撮像部1020、画像処理部1030、ワークメモリ1040、操作部1055、記録部1060、及び第1システム制御部1070Aを備える。なお、撮像装置1001Aのうち、レンズ部1010、撮像部1020、画像処理部1030、ワークメモリ1040、操作部1055、及び記録部1060の構成は、図17に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
また、電子機器1001Bは、画像(静止画、動画、ライブビュー画像、部分動画)の表示を行う装置である。この電子機器1001Bは、表示部1050及び第2システム制御部1070Bを備える。なお、電子機器1001Bのうちの表示部1050の構成は、図17に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
第1システム制御部1070Aは、第1通信部1075Aを有している。また、第2システム制御部1070Bは、第2通信部1075Bを有している。第1通信部1075Aと第2通信部1075Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部1070Aは、第1通信部1075Aを介して画像データ(画像処理部1030が画像処理した画像データ、記録部1060に記録されている画像データ)を第2通信部1075Bに送信する。第2システム制御部1070Bは、第2通信部1075Bにおいて受信した画像データを表示部1050に表示させる。また、第2システム制御部1070Bは、予め設定されているメニュー画像を第2表示部53に表示させる。
また、第2システム制御部1070Bは、使用者によるタッチパネル1052のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部1070Bは、使用者によるタッチパネル1052のタッチ操作に応じて、又は自動的に、画像表示領域1510内の各表示領域を選択する制御を行う。また、第1システム制御部1070Aは、使用者による操作部(電子機器1001B側に設けられた静止画や動画の撮像開始を指示する操作部)1055の操作に応じて撮像の制御を実行する。
図17に示す構成(表示制御部1071、設定部1072、撮像制御部1073、及びAF処理部1074)は、第1システム制御部1070Aと第2システム制御部1070Bのいずれに設けられてもよい。図17に示すすべての構成は、第1システム制御部1070A又は第2システム制御部1070Bに設けられてもよく、また図17に示す構成の一部が第1システム制御部1070Aに設けられ、図17に示す構成の一部以外の構成が第2システム制御部1070Bに設けられてもよい。
なお、撮像装置1001Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1001Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。
図30に示す第1システム制御部1070Aは、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図30に示す第2システム制御部1070Bは、CPUが制御プログラムに基づいて処理を実行することにより実現される。
以上に説明したように、第9実施形態では、第7実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1001Aで撮像されている部分動画を確認した上で撮像を行うことができる。
なお、図30に示す構成において、画像処理部1030と第1システム制御部1070Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部1030の機能と第1システム制御部1070Aの機能を担う。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。
また、上記した各実施形態において、駆動部1021は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部1030の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部1070の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。
また、上記した各実施形態において、画素領域113Aにおいて静止画領域を設定せずに動画領域だけを設定してもよい。この場合、複数の動画領域を設定し、複数の動画領域毎にフレームレート変更する。このようにフレームレートの異なる複数の動画を含む画像も部分動画に含めてもよい。このような構成によれば、動きの遅い動画と動きの速い動画とが混在した画像を生成することができ、より一層、面白みのある画像を作成することができる。
また、図29に示したブロックの配列パターンでは、画素領域113Aを2分割していたが、3分割以上としてもよい。画素領域113Aを3分割以上とした場合は、同一の被写体についての3以上の動画を同時に撮像することができる。従って、より一層、面白みのある部分動画を作成することができるようになる。
また、上記した第7実施形態において、検出部1032が検出可能な被写体としては、人物などに限定されず、特徴検出が可能であれば車などの物であってもよい。また、撮像制御部1073は、静止画と動画とを別々に記録部1060に記録してもよい。また、撮像制御部1073は、静止画と動画のタイムラインをリンクさせて記録部1060に記録する。また、検出部1032は、予め特定の人物などを登録しておき、登録した特定の人物などが被写体として撮像されていることをパターンマッチングにより検知した場合に、その特定の人物を自動的に追尾して動画撮影を行うようにしてもよい。また、タッチパネル1052のタッチ操作を操作部1055におけるスイッチやダイヤルなどの操作に代えてもよい。
また、上記した各実施形態において、デジタルカメラ1001は三脚などで固定した状態で撮像を行うことが望ましい。撮像中に画角が変化すると、動画と静止画をうまく合成することができなくなるおそれがあるからである。
<第10実施形態>
図31は、第10実施形態に係るデジタルカメラ2001の構成を示すブロック図である。なお、図31において、電子機器の一例であるデジタルカメラ2001は図7のデジタルカメラ1に相当し、レンズ部2010は図7のレンズ部10に相当し、撮像部2020は図7の撮像部20に相当し、撮像素子2100は図7の撮像素子100に相当し、駆動部2021は図7の駆動部21に相当し、画像処理部2030は図7の画像処理部30に相当し、ワークメモリ2040は図7のワークメモリ40に相当し、表示部2050は図7の表示部50に相当し、表示パネル2051は図7の表示パネル51に相当し、タッチパネル2052は図7のタッチパネル52に相当し、操作部2055は図7の操作部55に相当し、記録部2060は図7の記憶部60に相当し、システム制御部2070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部2010、撮像部2020、撮像素子2100、駆動部2021、ワークメモリ2040、表示部2050、操作部2055、記録部2060の構成については説明を省略する。
なお、本実施形態において、フォーカシング用レンズ11cの駆動制御は、フォーカシング用レンズ11cの焦点調節を行うための制御であり、AF処理(Automatic Focusing)という。また、絞り14の駆動制御は、絞り14の開口径調節を行うための制御であり、AE処理(Automatic Exposure)という。
画像処理部2030は、図31に示すように、検出部(態様検出部)2031を含む。検出部2031は、画像処理部2030で生成した画像データから主要被写体を検出する。本実施形態では、検出部2031は、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を主要被写体として検出する機能を備えている。また、検出部2031は、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、公知の顔検出機能を用いて人物の顔を検出する機能も備えている。また、検出部2031は、主要被写体としての人物の表情を検出し、検出した表情が特定の表情(例えば笑顔)であるか否かを判定する機能も備えている。
ここで、撮像部2020で撮像される対象物である被写体は、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。また、被写体のうち、使用者(撮影者)に注目される被写体又は使用者に注目されると推定される被写体のことを「主要被写体」という。主要被写体も、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。
システム制御部2070は、デジタルカメラ2001の全体の処理及び動作を制御する。このシステム制御部2070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部2070は、撮像素子2100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部2070は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部2021に対して指示する。
また、システム制御部2070は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部2070は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部2021に対して指示する。また、画像処理部2030は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部2070は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部2030に指示する。
また、システム制御部2070は、画像処理部2030において生成された画像データを記録部2060に記録させる。また、システム制御部2070は、画像処理部2030において生成された画像データを表示部2050に出力させることにより、表示部2050に画像を表示させる。また、システム制御部2070は、記録部2060に記録されている画像データを読み出して表示部2050に出力させることにより、表示部2050に画像を表示させる。表示部2050に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。
本実施形態では、システム制御部2070は、図31に示すように、設定部2071、制御部2072、表示制御部2073、AF処理部(焦点検出部)2074、及びAE処理部2075を備えている。設定部2071は、撮像素子2100の画素領域(撮像領域)113Aにおいて、検出部2031が検出した主要被写体(例えば人物)を含む主要被写体領域(例えば図34に示す人物O110を含む主要被写体領域2201)と、主要被写体を含まない非主要被写体領域(例えば図34に示す非主要被写体領域2203)とをブロック単位で設定する。また、設定部2071は、撮像素子2100の画素領域113Aにおいて、検出部2031が検出した主要被写体の一部分(例えば人物の顔)を含む部分領域(例えば図34に示す部分領域2202)をブロック単位で設定する。なお、後述する図34に示すように、部分領域は主要被写体領域に含まれる領域である。また、設定部2071は、検出部2031が検出した主要被写体の移動に合わせて主要被写体領域、非主要被写体領域、及び部分領域の位置及びサイズを変化させる。また、設定部2071は、画素領域113Aにおいて領域ごとに異なる撮像条件を設定する。すなわち、設定部2071は、主要被写体領域と部分領域と非主要被写体領域とで異なる撮像条件を設定する。
制御部2072は、主要被写体領域と部分領域と非主要被写体領域とを異なる撮像条件で撮像を行わせるように撮像素子2100の駆動制御を行う。また、制御部2072は、検出部2031により検出された主要被写体としての人物の表情が特定の表情(例えば笑顔)であることを条件に、撮像素子2100に本撮像(後述する図32のステップS2017の撮像、すなわちレリーズスイッチの全押し操作に基づく撮像)を実行させる。また、制御部2072は、画像処理部2030により生成された静止画及び動画の画像データを記録部2060に記録する制御を行う。表示制御部2073は、画像処理部2030で生成された画像データを表示部2050に出力させて、表示部2050の表示面2051に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。
AF処理部2074は、ライブビュー画像の撮影中において、コントラストAFと呼ばれる被写体のコントラストが最大となるように焦点調節処理(AF処理)を実行する(図32のステップS2007参照)。また、AF処理部2074は、レリーズスイッチの半押し操作が行われた場合や動画スイッチの操作が行われた場合においても焦点調節処理(AF処理)を実行する(図32のステップS2013参照、図33のステップS2027参照)。
具体的には、AF処理部2074は、電気接点81A,81Bを介して制御情報をレンズ駆動制御装置15に対して送信することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cを移動させる。また、AF処理部2074は、撮像部2020が撮像した被写体の像のコントラスト(ここで、検出部2031が主要被写体を検出した場合は、その主要被写体の像のコントラストの評価値)を表すコントラスト信号を画像処理部2030から取得する。AF処理部2074は、フォーカシング用レンズ11cを移動させながら、画像処理部2030からのコントラスト信号に基づいて、被写体の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部2074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御信号をレンズ駆動制御装置15に送信する。
AE処理部2075は、ライブビュー画像の撮影中において露出調節処理(AE処理)を実行する(図32のステップS2008参照)。また、AE処理部2075は、レリーズスイッチの半押し操作が行われた場合や動画スイッチの操作が行われた場合においても露出調節処理(AE処理)を実行する(図32のステップS2014参照、図33のステップS2028参照)。具体的には、AE処理部2075は、画像の輝度分布を示す輝度分布データを画像処理部2030から取得する。そして、AE処理部2075は、輝度分布データを用いて測光を行う。また、AE処理部2075は、測光した結果に基づいて撮像条件(シャッター速度(露光時間、電荷蓄積時間)、フレームレート、及びゲイン(ISO感度))と絞り値とを決定する。このとき、AE処理部2075は、撮像素子2100の画素領域113Aにおけるブロックごとに適正露出となるような撮像条件を決定することが可能である。なお、絞り値については、ブロックごとに設定することはできず画素領域113A全面に対して設定する。
AE処理部2075は、適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部2075は、適正露出に応じたシャッター速度(電荷蓄積時間)、フレームレート、及びゲイン(ISO感度)を指示する指示信号を駆動部2021に出力する。駆動部2021は、指示信号により指示されたシャッター速度、フレームレート、及びゲインで撮像素子2100を駆動制御する。
なお、システム制御部2070において、設定部2071、制御部2072、表示制御部2073、AF処理部2074、及びAE処理部2075は、それぞれ、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。
次に、第10実施形態に係るデジタルカメラ2001の撮影動作について説明する。図32及び図33は、第10実施形態のシステム制御部2070が実行する撮影動作を説明するためのフローチャートである。図32及び図33に示す処理において、デジタルカメラ2001に電源が投入された後、使用者が撮影を開始するために操作部2055などの操作を行うと、制御部2072は、ライブビュー画像の撮影を開始する(ステップS2001)。すなわち、制御部2072は、駆動部2021に対して指示信号を出力することにより撮像素子2100の駆動制御を実行させる。また、表示制御部2073は、撮像素子2100で撮像されたライブビュー画像を表示部2050の表示面2051に表示する(ステップS2002)。
次に、設定部2071は、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の検出を実行させる(ステップS2003)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに含まれる人物(人体)を主要被写体として検出する。そして、検出部2031は、検出した人物の位置及びサイズを示す信号をシステム制御部2070に出力する。また、設定部2071は、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の一部分である人物の顔の検出を実行させる(ステップS2004)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに基づいて公知の顔検出機能を用いて主要被写体の一部分である人物の顔を検出する。そして、検出部2031は、検出した人物の顔の位置及びサイズを示す信号をシステム制御部2070に出力する。
次に、設定部2071は、画素領域113Aにおいて領域を設定する(ステップS2005)。具体的には、設定部2071は、検出部2031からの人物の位置及びサイズを示す信号に基づいて、人物を含む主要被写体領域をブロック単位で設定する。また、設定部2071は、検出部2031からの人物の顔の位置及びサイズを示す信号に基づいて、主要被写体領域内に顔を含む部分領域をブロック単位で設定する。また、設定部2071は、画素領域113Aにおいて主要被写体領域以外の領域を非主要被写体領域として設定する。
図34は、第10実施形態の撮像素子2100の撮像領域113Aにおける主要被写体領域2201と部分領域2202と非主要被写体領域2203とを示す図である。図34に示す例では、撮像素子2100の画素領域(撮像領域)113Aにおいて、歩いている人物O110と、道路O120と、複数の木O130とが撮像されている。人物O110は主要被写体であり、道路O120及び木O130は背景の被写体である。この場合、検出部2031は、人物O110を主要被写体として検出する。また、検出部2031は、顔検出機能を用いて人物O110の顔についても検出する。設定部2071は、検出部2031が検出した人物O110を含む領域を主要被写体領域2201として設定する。また、設定部2071は、検出部2031が検出した人物O110の顔を含む領域を主要被写体領域2201における部分領域2202として設定する。さらに、設定部2071は、画素領域113Aにおける主要被写体領域2201以外の領域を非主要被写体領域2203として設定する。なお、図34に示すように、設定部2071は、検出部2031が検出した主要被写体の領域よりも少し広めに領域を主要被写体領域2201として設定している。また、設定部2071は、検出部2031が検出した主要被写体の一部分の領域よりも少し広めの領域を部分領域2202として設定している。
図35は、第10実施形態の表示部2050の表示面2051における主要被写体領域2511と部分領域2512と非主要被写体領域2513とを示す図である。撮像素子2100が図34に示す被写体O110,O120,O130を撮像した場合は、図35に示すように、表示部2050の表示面2051には、歩いている人物O110の画像と、道路O120の画像と、複数の木O130の画像とが表示される。図35に示す人物O110を含む主要被写体領域2511は、図34に示す画素領域113Aにおける主要被写体領域2201に対応する領域である。図35に示す人物O110の顔を含む部分領域2512は、図34に示す画素領域113Aにおける部分領域2202に対応する領域である。図35に示す非主要被写体領域2513は、図34に示す画素領域113Aにおける非主要被写体領域2203に対応する領域である。
本実施形態では、図35に示すように、表示制御部2073は、検出部2031が主要被写体(人物O110)を検出したときは、その主要被写体を囲う枠2601と、その主要被写体の一部分(人物O110の顔)を囲う枠2602とを表示部2050の表示面2051に表示する。枠2601は、検出部2031が主要被写体を捕捉したことを使用者に知らせるとともに、主要被写体の位置やサイズなどを使用者に知らせるために表示される。枠2602は、検出部2031が主要被写体の一部分を捕捉したことを使用者に知らせるとともに、主要被写体の一部分の位置やサイズなどを使用者に知らせるために表示される。なお、図35に示す例では、枠2601は主要被写体領域2511の周囲の枠であり、枠2602は部分領域2512の周囲の枠である。
また、本実施形態では、図35に示すように、表示面2051の右上には、小さい領域のサブ画面2051Sが設けられている。表示制御部2073は、検出部2031が主要被写体(人物O110)を検出したときは、部分領域2202の画像をサブ画面2051Sに表示する(後述するステップS2009参照)。
図32の説明に戻り、設定部2071は、ステップS2005で設定した領域ごとに撮像条件を設定する(ステップS2006)。ここで、設定部2071は、主要被写体領域2201と部分領域2202と非主要被写体領域2203とで異なる撮像条件を設定する。具体的には、設定部2071は、主要被写体領域2201において非主要被写体領域2203よりも高いフレームレートかつ高いゲインを設定する。これにより、検出部2031は、主要被写体領域2201において非主要被写体領域2203よりも高い精度で高速に主要被写体の検出を行うことができる。従って、検出部2031による主要被写体の検出のレスポンスが高くなる。また、設定部2071は、部分領域2202において主要被写体領域2201よりも高いフレームレートかつ高いゲインを設定する。これにより、検出部2031は、主要被写体である人物O110の顔の表情を速く正確に判定することができる。
なお、設定部2071は、フレームレートやゲイン以外の撮像条件については、それぞれの領域2201,2202,203の被写体に適した撮像条件を自動的に設定し、又は使用者の操作部2055などの操作に応じて設定する。
次に、AF処理部2074は、自動的に焦点調節を行うAF処理を実行する(ステップS2007)。具体的には、AF処理部2074は、主要被写体である人物O110の像のコントラストを表すコントラスト信号を画像処理部2030から取得する。また、AF処理部2074は、フォーカシング用レンズ11cの移動を指示する制御情報をレンズ駆動制御装置15に対して送信する。これにより、レンズ駆動制御装置15は、AF処理部2074からの制御情報に基づいて、フォーカシング用レンズ11cを移動させる制御を行う。そして、AF処理部2074は、フォーカシング用レンズ11cを移動させながら人物O110の像のコントラストが最も高くなるフォーカシング用レンズ11cのレンズ位置を焦点位置として検出する。AF処理部2074は、検出した焦点位置にフォーカシング用レンズ11cを移動させる。上述したように、設定部2071により主要被写体領域2201に対して高いフレームレートかつ高いゲインが設定されている。従って、画像処理部2030は主要被写体の像のコントラストの評価値を素早く算出することができる。その結果、AF処理部2074は、素早く焦点位置の検出を行うことができる。
本実施形態では、AF処理部2074は、ステップS2007のAF処理で検出した焦点位置に基づいて主要被写体までの距離を算出する。また、AF処理部2074は、主要被写体の焦点位置の情報及び主要被写体までの距離の情報を記憶する。そして、主要被写体が移動している場合、AF処理部2074は、主要被写体の焦点位置の情報の履歴及び主要被写体までの距離の情報の履歴に基づいて、主要被写体の位置を予測する。AF処理部2074は、予測した主要被写体の位置に基づいて主要被写体の焦点位置を予測し、予測した焦点位置にフォーカシング用レンズ11cを移動させる。このような構成によれば、AF処理部2074は、高速に移動している主要被写体に対して常に合焦させることができる。
また、本実施形態では、主要被写体が移動している場合、ステップS2005において、設定部2071は、主要被写体の焦点位置の情報の履歴及び主要被写体までの距離の情報の履歴に基づいて、主要被写体の位置及びサイズを予測する。設定部2071は、予測した主要被写体の位置及びサイズに基づいて主要被写体領域の位置及びサイズを予測する。そして、設定部2071は、予測した位置及びサイズの主要被写体領域を設定する。このような構成によれば、主要被写体が高速に移動している場合でも、主要被写体の移動に合わせて主要被写体領域を設定することができる。
なお、図34に示すように、主要被写体が人物O110である場合は、AF処理部2074は、人物O110の顔に対して合焦させる。ただし、AF処理部2074は、人物O110の最も近い位置などに合焦させてもよい。また、主要被写体は人物に限らず、車などの物体であってもよい。また、検出部2031により複数の主要被写体が検出された場合は、AF処理部2074は、例えば複数の主要被写体のうちの人物を優先して合焦させるようにしてもよい。また、検出部2031により複数の人物が検出された場合は、AF処理部2074は、例えば複数の人物のうちの最も中央に存在する人物に対して合焦させるようにしてもよい。また、検出部2031により複数の主要被写体が検出された場合は、設定部2071は、複数の主要被写体のそれぞれに対して主要被写体領域を設定する。ただし、設定部2071は、複数の主要被写体のうちの一部の主要被写体(例えば、最も中央に存在する主要被写体)に対してだけ主要被写体領域を設定してもよい。
また、AE処理部2075は、適正露出となるように露出を制御するAE処理を実行する(ステップS2008)。具体的には、AE処理部2075は、画像処理部2030が生成した画像データの輝度分布を示す輝度分布データを画像処理部2030から取得する。そして、AE処理部2075は、輝度分布データに基づいて、適正露出となるような撮像条件(フレームレート、シャッター速度、及びゲイン(ISO感度)など)と絞り値とを決定する。AE処理部2075は、決定した適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部2075は、適正露出に応じた撮像条件(フレームレート、シャッター速度、及びゲインなど)を指示する指示信号を駆動部2021に出力する。駆動部2021は、指示信号により指示された撮像条件を設定する。
なお、ステップS2006において、設定部2071がフレームレートやゲインなどの撮像条件を設定し、ステップS2008において、AE処理部2075がステップS2006で設定された撮像条件に応じた絞り値を設定するようにしてもよい。また、AE処理部2075がステップS2008において絞り値だけでなくフレームレートやゲインなどの撮像条件を設定する場合は、主要被写体領域2201において非主要被写体領域2203よりも高いフレームレートかつ高いゲインを設定し、部分領域2202において主要被写体領域2201よりも高いフレームレートかつ高いゲインを設定する。これにより、検出部2031による主要被写体である人物の検出のレスポンスを維持し、検出部2031による表情の判定の精度を維持することができる。
表示制御部2073は、ステップS2003において検出部2031が主要被写体を検出した場合は、図35に示すように、表示面2051のサブ画面2051Sに部分領域202の画像(主要被写体である人物O110の顔の画像)を拡大表示する(ステップS2009)。これにより、表示面2051のサイズが小さい場合でも、使用者が人物O110の顔(及びその表情)を容易に確認することができる。なお、サブ画面2051Sに表示される画像は、主要被写体の一部(人物O110の顔)の画像に限らず、主要被写体の全部の画像であってもよい。また、サブ画面2051Sに表示される主要被写体の一部の画像は、人物O110の顔の画像に限らず、人物O110の上半身の画像などであってもよい。
その後、システム制御部2070は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS2010)。システム制御部2070は、レリーズスイッチの半押し操作が行われていないと判定した場合は、動画スイッチの操作が行われたか否かを判定する(ステップS2020)。システム制御部2070は、レリーズスイッチの半押し操作が行われるか、又は動画スイッチの操作が行われるまでステップS2001からステップS2009の処理を繰り返し実行する。従って、検出部2031による主要被写体の検出(ステップS2003)と顔の検出(ステップS2004)とが随時行われる。すなわち、検出部2031による主要被写体の追尾が行われる。また、検出部2031が検出した主要被写体の動きに応じて、設定部2071による領域(主要被写体領域2201、部分領域202、非主要被写体領域2203)の設定(ステップS2005)が随時行われ、設定部2071による領域ごとの撮像条件の設定も随時行われる。その結果、検出部2031が主要被写体の動きを高精度かつ高速に検出することができ、検出部2031による主要被写体の追尾のレスポンスが向上する。
システム制御部2070は、レリーズスイッチの半押し操作が行われたと判定した場合は(ステップS2010のYES)、制御部2072は、ライブビュー画像の撮影を行い(ステップS2011)、表示制御部2073は、撮像素子2100で撮像されたライブビュー画像を表示部2050の表示面2051に表示する(ステップS2012)。また、AF処理部2074は、ステップS2007で説明した場合と同様にAF処理を実行し(ステップS2013)、AE処理部2075は、ステップS2008で説明した場合と同様にAE処理を実行する(ステップS2014)。なお、AF処理部2074は、レリーズスイッチの半押し操作が行われた場合にだけAF処理を実行する構成でもよい。すなわち、AF処理部2074は、ライブビュー画像の撮像中においてはAF処理を実行しない構成でもよい。同様に、AE処理部2075は、レリーズスイッチの半押し操作が行われた場合にだけAE処理を実行する構成でもよい。すなわち、AE処理部2075は、ライブビュー画像の撮像中においてはAE処理を実行しない構成でもよい。
その後、システム制御部2070は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS2015)。システム制御部2070がレリーズスイッチの全押し操作が行われていないと判定した場合は(ステップS2015のNO)、上記したステップS2010からステップS2014までの処理を繰り返し実行する。システム制御部2070がレリーズスイッチの全押し操作が行われたと判定した場合は(ステップS2015のYES)、制御部2072は、主要被写体の表情が笑顔であるか否かを判定する(ステップS2016)。本実施形態では、検出部2031は、顔検出機能を用いて主要被写体としての人物の表情を検出し、検出した表情を示す情報をシステム制御部2070に出力する。制御部2072は、検出部2031から出力される人物の表情を示す情報に基づいて人物の表情が特定の表情(笑顔)であるか否かを判定する。
図36は、笑顔の画像及び笑顔でない画像の一例を示す図である。図36(A)は人物の表情が笑顔である場合を示し、図36(B)は人物の表情が笑顔でない場合を示している。検出部2031は、顔検出機能を用いて検出した人物の表情が笑顔であるか否かを判定する。検出部2031は、図36(A)に示すように、人物の表情が笑顔であると判定した場合は、人物の表情が笑顔であることを示す情報をシステム制御部2070に出力する。また、検出部2031は、図36(B)に示すように、人物の表情が笑顔でないと判定した場合は、人物の表情が笑顔でないことを示す情報をシステム制御部2070に出力する。制御部2072は、検出部2031から出力される人物の表情を示す情報に基づいて人物の表情が笑顔であるか否かを判定する。
制御部2072は、検出部2031から出力される人物の表情を示す情報に基づいて、主要被写体である人物の表情が特定の表情(笑顔)であると判定した場合、撮像処理を実行する(ステップS2017)。上述したように、ステップS2014のAE処理において、AE処理部2075は、適正露出の輝度レベルに基づいて被写体に適した撮像条件を決定している。ステップS2017の撮像処理では、制御部2072は、ステップS2014のAE処理で決定された撮像条件を指示する指示信号を駆動部2021に出力する。そして、制御部2072は、撮像を指示する指示信号を駆動部2021に出力する。駆動部2021は、制御部2072から指示された撮像条件で撮像素子2100を駆動制御して撮像を実行する。なお、画素領域113Aの各画素において、同じ撮像条件による撮像が行われてもよく、また、被写体ごとに異なる撮像条件による撮像が行われてもよい。
なお、制御部2072は、ステップS2016で人物の表情が笑顔であるか否かを判定し、笑顔であると判定したことを条件にステップS2017の撮像処理を実行している。しかし、このような構成に限定されず、制御部2072は、人物が目をつぶっているか否かを判定し、目をつぶっていないと判定したことを条件にステップS2017の撮像処理を実行してもよい。すなわち、撮像処理を実行するための条件としては、人物の表情に関わる条件に限らず、人物が特定の動作を行っていることなどを条件としてもよい。
ステップS2020において、システム制御部2070が動画スイッチの操作が行われたと判定した場合は(ステップS2020のYES)、制御部2072は、動画の撮影を開始する(図33のステップS2021)。また、表示制御部2073は、撮像素子2100で撮像された動画を表示部2050の表示面2051に表示する(ステップS2022)。また、設定部2071は、ステップS2003で説明した場合と同様に、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の検出を実行させる(ステップS2023)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに含まれる人物(人体)を主要被写体として検出する。また、設定部2071は、ステップS2004で説明した場合と同様に、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の一部分である人物の顔の検出を実行させる(ステップS2024)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに基づいて公知の顔検出機能を用いて主要被写体の一部分である人物の顔を検出する。
次に、設定部2071は、ステップS2005で説明した場合と同様に、画素領域113Aにおいて領域を設定する(ステップS2025)。すなわち、設定部2071は、検出部2031が主要被写体を検出した場合は、主要被写体を含む主要被写体領域及び部分領域をブロック単位で設定する。また、設定部2071は、画素領域113Aにおいて主要被写体領域以外の領域を非主要被写体領域として設定する。
また、設定部2071は、ステップS2006で説明した場合と同様に、主要被写体領域と部分領域と非主要被写体領域とで異なる撮像条件を設定する(ステップS2026)。すなわち、設定部2071は、主要被写体領域において非主要被写体領域よりも高いフレームレートかつ高いゲインを設定する。また、設定部2071は、部分領域において主要被写体領域よりも高いフレームレートかつ高いゲインを設定する。また、AF処理部2074は、ステップS2007で説明した場合と同様にAF処理を実行し(ステップS2027)、AE処理部2075は、ステップS2008で説明した場合と同様にAE処理を実行する(ステップS2028)。そして、表示制御部2073は、ステップS2009で説明した場合と同様に、表示面2051のサブ画面2051Sに部分領域の画像(例えば人物の顔の画像)を拡大表示する(ステップS2029)。
制御部2072は、画像処理部2030により生成された動画の画像データを記録部2060に記録する制御を行う(ステップS2030)。その後、システム制御部2070は、使用者による動画スイッチの操作(動画の撮影を終了させるための操作)が行われたか否かを判定する(ステップS2031)。システム制御部2070は、動画スイッチの操作が行われていないと判定した場合は、上記したステップS2021からステップS2031までの処理を繰り返し実行する。システム制御部2070は、動画スイッチの操作が行われたと判定した場合は、処理を終了する。
以上に説明したように、第10実施形態では、撮像素子2100を有する撮像部2020と、主要被写体(例えば図34に示す人物O110)を検出する検出部2031と、撮像素子2100の撮像領域113Aにおいて、検出部2031が検出した主要被写体を含む第1領域(例えば主要被写体領域2201)と第1領域とは異なる第2領域(例えば非主要被写体領域2203)とを設定する設定部2071と、第1領域と第2領域とを異なる撮像条件で撮像を行わせる制御部2072と、を備える。このような構成によれば、主要被写体に合わせて領域を設定し、領域に対応した撮像条件で撮像を行うことができる。従って、検出部2031が第1領域で撮像された画像データに基づいて高精度で主要被写体の追尾を行うことができる。
また、第10実施形態では、設定部2071は、主要被写体の移動に合わせて第1領域を変化させる。このような構成によれば、検出部2031が第1領域の画像データに基づいて主要被写体の動きを高精度かつ高速に検出することができる。また、第10実施形態では、主要被写体の焦点位置を検出する焦点検出部2074を備え、設定部2071は、焦点検出部2074が検出した焦点位置に関する情報に基づいて主要被写体の移動を予測する。このような構成によれば、主要被写体が移動している場合でも、主要被写体の移動に合わせて主要被写体領域を設定することができる。
また、第10実施形態では、制御部2072は、第1領域に対して、撮像条件としてのゲイン及びフレームレートの少なくとも一方について第2領域よりも高く設定する。このような構成によれば、検出部2031による主要被写体の追尾のレスポンスが向上する。
また、第10実施形態では、第1領域を表示部2050に表示する表示制御部2073を備える。このような構成によれば、検出部2031が主要被写体を検出したことを使用者に知らせるとともに、第1領域の位置やサイズなどを使用者に知らせることができる。また、表示制御部2073は、主要被写体の少なくとも一部(例えば人物O110の顔)を第2領域の所定位置(例えばサブ画面2051S)に拡大表示する。このような構成によれば、表示部2050の表示面2051のサイズが小さい場合でも、使用者が主要被写体又は主要被写体の一部を容易に確認することができる。
また、第10実施形態では、主要被写体としての人物の表情及び動作(例えば瞬き)を含む態様を検出する態様検出部2031を備え、制御部2072は、態様検出部2031により検出された態様が特定態様(例えば笑顔、目をつぶっていない状態)である場合に、撮像部2020に本撮像を行わせる。このような構成によれば、最適な人物の表情や動作などが行われているタイミングで撮像を行うことができる。
なお、上記した第10実施形態では、電子機器の一例としてデジタルカメラ2001を挙げていたが、これに限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図31に示す画像処理部2030とシステム制御部2070は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部2030の機能とシステム制御部2070の機能を担う。
<第11実施形態>
上記した第10実施形態では、検出部2031が主要被写体を検出した場合と主要被写体を検出していない場合とで非主要被写体領域が変化していなかった。一方、第11実施形態では、検出部2031が主要被写体を検出した場合と主要被写体を検出していない場合とで非主要被写体領域が変化する。
図37は、第11実施形態における領域の設定処理(図32のステップS2005、図33のステップS2025を説明するためのフローチャートである。図32のステップS2005又は図33のステップS2025における領域の設定処理において、設定部2071は、検出部2031が主要被写体を検出したか否かを判定する(ステップS2041)。設定部2071は、検出部2031が主要被写体を検出したと判定した場合は、検出部2031からの主要被写体の位置及びサイズを示す信号に基づいて、画素領域(撮像領域)113Aにおいて主要被写体領域と非主要被写体領域とを設定する(ステップS2042)。また、設定部2071は、検出部2031からの主要被写体の一部分の位置及びサイズを示す信号に基づいて、主要被写体領域内に部分領域を設定する(ステップS2043)。このようなステップS2041からステップS2043の処理は、第10実施形態で説明した処理と同様である。
設定部2071は、検出部2031が主要被写体を検出していないと判定した場合は、画素領域(撮像領域)113AにおいてAF領域とAE領域とを設定する(ステップS2044)。AF領域は、AF処理部2074がAF処理(ステップS2007、S2013,S2027)を実行する際に参照する画像(被写体)を撮像する領域である。AE領域は、AE処理部2075がAE処理(ステップS2008,S2014,S2028)を実行する際に参照する画像(被写体)を撮像する領域である。
図38は、第11実施形態に係るAF領域2114とAE領域2115との配列パターンを示す図である。図38に示す配列パターンは、画素領域113AがAF領域2114とAE領域2115とに2分割される配列パターンである。この配列パターンでは、画素領域113Aにおいて、奇数の列(2m−1)における奇数の行(2n−1)のブロックと、偶数の列(2m)における偶数の行(2n)のブロックとでAF領域2114が構成されている。また、偶数の列(2m)における奇数の行(2n−1)のブロックと、奇数の列(2m−1)における偶数の行(2n)のブロックとでAE領域2115が構成されている。すなわち、画素領域113Aにおける各ブロックが市松模様となるように分割されている。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。このような構成では、撮像素子2100の画素領域113A全面においてAF領域2114とAE領域2115とが分散的に配置されているので、撮像素子2100はAF領域2114とAE領域2115とにおいて同時に撮像することができる。
なお、図38において、ブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックが設定されているが、図38に示すブロックの数よりも多い数のブロックが画素領域113Aに設定されてもよい。
図39は、検出部2031により主要被写体が検出されなかった場合の非主要被写体領域2213を示す図である。図39に示すように、検出部2031が主要被写体(例えば図34に示した人物O110)を検出しなかった場合は、設定部2071は、画素領域113Aの全面(すなわち非主要被写体領域2213)においてAF領域2114とAE領域2115とを設定する(ステップS2044参照)。この場合、設定部2071は、撮像条件として、AF領域2114に対してAE領域2115よりも高いフレームレートかつ高いゲインを設定する(ステップS2006,S2026参照)。
また、AF処理(ステップS2007,S2013,S2027参照)では、AF処理部2074は、AF領域2114で撮像された背景の被写体O120,O130の像のコントラストを表すコントラスト信号を画像処理部2030から取得する。そして、AF処理部2074は、フォーカシング用レンズ11cを移動させながら、画像処理部2030からのコントラスト信号に基づいて、被写体O120,O130の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部2074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御信号をレンズ駆動制御装置15に送信する。
また、AE処理(ステップS2008,S2014,S2028参照)では、AE処理部2075は、AE領域2115で撮像された背景の被写体O120,O130の画像データの輝度分布を示す輝度分布データを画像処理部2030から取得する。そして、AE処理部2075は、輝度分布データに基づいて、適正露出となるような撮像条件(フレームレート、シャッター速度、及びゲインなど)と絞り値とを決定する。AE処理部2075は、決定した適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部2075は、適正露出に応じた撮像条件(フレームレート、シャッター速度、及びゲインなど)を指示する指示信号を駆動部2021に出力する。駆動部2021は、指示信号により指示された撮像条件を設定する。
このように、検出部2031が主要被写体を検出しなかった場合に、設定部2071は、画素領域113AにおいてAF領域2114とAE領域2115とを設定し、また、AF領域2114においてAE領域2115よりも高いフレームレートかつ高いゲインを設定する。このような構成の場合は、画像処理部2030は非主要被写体領域2213における被写体O120,O130の像のコントラストの評価値を素早く算出することができる。その結果、AF処理部2074は、AF処理において素早く焦点位置の検出を行うことができる。一方、AE処理部2075がAE処理で測光を行うために用いる画像データは、高いフレームレートや高いゲインである必要はない。従って、AE領域2115のフレームレートをAF領域2114よりも低くし、AE領域2115のゲインをAF領域2114よりも低くすることにより、消費電力を抑制し、AE領域2115の画像データのノイズを低減している。
以上に説明したように、第11実施形態では、設定部2071は、検出部2031が主要被写体を検出していない場合に、撮像領域113Aにおいて、第3領域(例えばAF領域2114)を分散的に配置するとともに第3領域とは異なる第4領域(例えばAE領域2115)を分散的に配置し、制御部2072は、第3領域を焦点検出に関する撮像条件で撮像させ、第4領域を露出検出に関する撮像条件で撮像させる。このような構成によれば、焦点検出部2074が素早く焦点位置の検出を行うことができる。
次に、第11実施形態の変形例について説明する。図40は、検出部2031により主要被写体が検出された場合の主要被写体領域2211と部分領域2212と非主要被写体領域2213とを示す図である。上記した第11実施形態では、設定部2071は、検出部2031が主要被写体を検出しなかった場合に(図37のステップS2041のNO参照)、画素領域113AにおいてAF領域2114とAE領域2115とを設定していた(図37のステップS2044参照)。これに対して、第11実施形態の変形例では、設定部2071は、検出部2031が主要被写体を検出した場合に(図37のステップS2041のYES参照)、図40に示すように、非主要被写体領域2213においてAF領域2114とAE領域2115とを設定する。このように第11実施形態の変形例では、設定部2071は、検出部2031が主要被写体を検出した場合に、第2領域(例えば非主要被写体領域2213)において、第3領域(例えばAF領域2114)を分散的に配置するとともに第3領域とは異なる第4領域(例えばAE領域2115)を分散的に配置し、制御部2072は、第3領域を焦点検出に関する撮像条件で撮像させ、第4領域を露出検出に関する撮像条件で撮像させる。このような構成によれば、第2領域(非主要被写体領域2213)に新たに主要被写体(例えば人物O110とは異なる主要被写体)が入った場合に、画像処理部2030が第2領域(非主要被写体領域2213)における主要被写体の像のコントラストの評価値を素早く算出することができる。
図41は、第11実施形態に係るAF領域2116とAE領域2117との配列パターンの変形例を示す図である。上記した第11実施形態では、図38に示したように、配列パターンは画素領域113Aにおける各ブロックが市松模様となるように配置されていた。これに対して、第11実施形態の変形例では、図41に示すように、画素領域113Aにおいて、複数のAF領域2116が離散的かつ均等に形成されている。AF領域2116は、複数の小さい方形状の領域として形成されている。また、画素領域113Aにおいて、AE領域2117はAF領域2116以外の領域である。図41に示す例では、AE領域2117の面積は、AF領域2116の面積よりも広くなっている。すなわち、AF領域2116とAE領域2117とで面積比率が異なる。
なお、図41において、ブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックが設定されているが、図41に示すブロックの数よりも多い数のブロックが画素領域113Aに設定されてもよい。
このような構成によれば、AE処理部2075が広い範囲のAE領域2117で生成される画像データの輝度分布に基づいて測光を行うことができる。その結果、AE処理部2075による測光の精度が向上する。
<第12実施形態>
上記した第11実施形態では、画素領域113AにおいてAF領域とAE領域とが設定されていた(図38及び図41参照)。これに対して、第12実施形態では、画素領域113Aにおいて静止画を撮像するための静止画領域と動画を撮像するための動画領域とが設定される。
図42は、第12実施形態のシステム制御部2070が実行する撮影モード設定処理を説明するためのフローチャートである。図42に示す撮影モード設定処理は、図32及び図33に示した撮影動作が行われる前に実行される。図42に示すように、まず、システム制御部2070は、使用者が操作部2055などの操作により設定した撮影モードを確認する(ステップS2051)。そして、システム制御部2070は、ステップS2051で確認した撮影モードが通常撮影モードであるか否かを判定する(ステップS2052)。ここで、通常撮影モードとは、設定部2071が画素領域(撮像領域)113Aを静止画領域と動画領域とに分割せずに、画素領域113Aを1つの領域として被写体の静止画又は動画を撮影する撮影モードをいう。この通常撮影モードは、一般的に行われている通常の静止画又は動画を撮影する撮影モードである。すなわち、第10実施形態及び第11実施形態で説明した静止画又は動画を撮影する撮影モードである。
システム制御部2070は、ステップS2051で確認した撮影モードが通常撮影モードであると判定した場合は、撮影モードとして通常撮影モードに設定する(ステップS2053)。一方、システム制御部2070は、ステップS2051で確認した撮影モードが通常撮影モードでないと判定した場合は、撮影モードをミックスモードに設定する(ステップS2054)。ここで、ミックスモードとは、設定部2071が画素領域113Aを静止画領域と動画領域とに分割し、静止画領域において静止画を撮影し、動画領域において動画を撮影する撮影モードをいう。このミックスモードでは、静止画と動画とを同時に撮影することができる。なお、ライブビュー画像は静止画領域において撮影される。
図43は、第12実施形態に係る静止画領域2118と動画領域2119との配列パターンを示す図である。図43に示す静止画領域2118と動画領域2119との配列パターンは、図38に示したAF領域2114とAE領域2115との配列パターンと同様である。すなわち、画素領域113Aにおいて静止画領域2118と動画領域2119とが市松模様を構成するように配置されている。なお、図43において、ブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックが設定されているが、図43に示すブロックの数よりも多い数のブロックが画素領域113Aに設定されてもよい。
図44は、第12実施形態の撮像素子2100の撮像領域113Aにおける主要被写体領域2221と部分領域2222と非主要被写体領域2223とを示す図である。図44に示すように、設定部2071は、検出部2031が検出した主要被写体である人物O110を含む主要被写体領域2221を設定する。また、設定部2071は、検出部2031が検出した主要被写体である人物O110の顔を含む部分領域2222を設定する。また、設定部2071は、画素領域113Aにおける主要被写体領域2221及び部分領域2222以外の領域を非主要被写体領域2223として設定する(ステップS2005参照)。なお、本実施形態では、表示制御部2073は、静止画領域2118で撮影された画像をライブビュー画像として表示部2050の表示面2051に表示する(ステップS2002参照)。また、検出部2031は、静止画領域2118で撮影された被写体の画像データに基づいて主要被写体(人物O110)の検出と主要被写体の一部分(人物O110の顔)の検出を行う(ステップS2003,S2004参照)。
設定部2071は、第10実施形態で説明した場合と同様に、主要被写体領域2221と部分領域2222と非主要被写体領域2223とで異なる撮像条件を設定する(ステップS2006参照)。具体的には、設定部2071は、主要被写体領域2221に対して非主要被写体領域2223よりも高いフレームレートかつ高いゲインを設定する。また、設定部2071は、部分領域2222に対して主要被写体領域2221よりも高いフレームレートかつ高いゲインを設定する。さらに、設定部2071は、主要被写体領域2221において、静止画領域2118に対して動画領域2119よりも低いフレームレートを設定する。同様に、設定部2071は、部分領域2222において、静止画領域2118に対して動画領域2119よりも低いフレームレートを設定する。同様に、設定部2071は、非主要被写体領域2223において、静止画領域2118に対して動画領域2119よりも低いフレームレートを設定する。このように、静止画領域2118のフレームレートを動画領域2119のフレームレートよりも低くするのは、ライブビュー画像は被写体の動きの滑らかな画像である必要がないためである。なお、設定部2071は、フレームレートやゲイン以外の撮像条件については、それぞれの領域の被写体に適した撮像条件を自動的に設定し、又は使用者の操作部2055などの操作に応じて設定する。
その後、AF処理部2074は、静止画領域2118で撮影された被写体の画像データに基づいてAF処理を実行する(ステップS2007参照)。また、AE処理部2075は、静止画領域2118で撮影された被写体の画像データに基づいてAE処理を実行する(ステップS2008参照)。
その後、システム制御部2070は、使用者によるレリーズスイッチの半押し操作(ステップS2010)に応じて、図32に示したステップS2011からステップS2014の処理を静止画領域2118で生成された画像データに基づいて実行する。また、システム制御部2070は、使用者によるレリーズスイッチの全押し操作(ステップS2015)に応じて、図32に示したステップS2016,S2017の処理を静止画領域2118で生成された画像データに基づいて実行する。また、システム制御部2070は、使用者による動画スイッチの操作(ステップS2020)に応じて、図33に示したステップS2021からステップS2030の処理を動画領域2119で生成された画像データに基づいて実行する。
図45は、第12実施形態の表示部2050Aの第1表示例を示す図である。図45に示すように、第12実施形態の表示部2050Aは、静止画領域2118で撮影された静止画(静止画の撮影前はライブビュー画像)を表示するための第1表示領域2051Aと、動画領域2119で撮影された動画を表示するための第2表示領域2051Bとが形成されている。図45に示すように、第1表示領域2051Aでは、図35に示した表示例と同様に、主要被写体である人物O110を囲う枠2601と、人物O110の顔を囲う枠2602とが表示されている。このような構成によれば、使用者が静止画(又はライブビュー画像)と動画とを同時に確認することができる。
図46は、第12実施形態の表示部2050Bの第2表示例を示す図である。図46に示すように、第12実施形態の表示部2050Bは、静止画領域2118で撮影された静止画(静止画の撮影前はライブビュー画像)を表示するための第1表示領域2051Aと、動画領域2119で撮影された動画を表示するための第2表示領域2051Bと、主要被写体である人物O110(つまり主要被写体領域2511)を拡大表示するための第3表示領域2051Cと、主要被写体の一部分である人物O110の顔(つまり部分領域2512)を拡大表示するための第4表示領域2051Dとが形成されている。図46に示すように、第1表示領域2051A及び第3表示領域2051Cでは、図35に示した表示例と同様に、主要被写体である人物O110を囲う枠2601と、人物O110の顔を囲う枠2602とが表示されている。また、第4表示領域2051Dでは、人物O110の顔を囲う枠2602が表示されている。このような構成によれば、使用者が静止画(又はライブビュー画像)と動画とを同時に確認することができる。また、使用者が人物O110及びその顔(顔の表情)を容易に確認することができる。
以上に説明したように、第12実施形態では、設定部2071は、撮像領域113Aにおいて、静止画を撮像するための第5領域(例えば静止画領域2118)と、動画を撮像するための第6領域(例えば動画領域2119)とを設定し、第5領域において、第1領域(例えば主要被写体領域2221)と第2領域(例えば非主要被写体領域2223)とを設定する。このような構成によれば、上記した第10実施形態の効果に加え、静止画と動画とを同時に撮像することが可能となる。
また、第12実施形態では、制御部2072は、第5領域(例えば静止画領域2118)と第6領域(例えば動画領域2119)とを異なる撮像条件で撮像を行わせる。このような構成によれば、静止画を撮像するために適した撮像条件で撮像することができるとともに、動画を撮像するために適した撮像条件で動画を撮像することができる。また、第12実施形態では、設定部2071は、撮像領域113Aにおいて、第5領域(例えば静止画領域2118)を分散的に配置するとともに第6領域(例えば動画領域2119)を分散的に配置する。このような構成によれば、同一の被写体(厳密には使用者にとって同一に見える被写体)について静止画と動画とを同時に撮像することができる。
なお、上記した第12実施形態では、静止画領域2118のフレームレートを動画領域2119のフレームレートよりも低くしていたが、静止画領域2118のフレームレートを動画領域2119のフレームレートよりも高くしてもよい。また、静止画の本撮像を行うときには(つまりステップS17の撮像処理を実行するときには)、制御部2072は静止画領域2118で撮像を行うのではなく画素領域113Aの全画素で撮像を行うようにしてもよい。また、図46において、検出部2031が主要被写体(人物O110)を検出していない場合には、表示部2050Bにおいて第1表示領域2051Aだけを大きく表示するようにしてもよい。また、静止画領域2118を構成する各ブロック内において例えば図41に示したAF領域とAE領域とを設定してもよい。また、動画領域2119を構成する各ブロック内において例えば図41に示したAF領域とAE領域とを設定してもよい。
<第13実施形態>
第13実施形態では、上記した第10実施形態におけるデジタルカメラ2001を、撮像装置2001Aと電子機器2001Bとに分離した構成としている。
図47は、第13実施形態に係る撮像装置2001A及び電子機器2001Bの構成を示すブロック図である。図47に示す構成において、撮像装置2001Aは、被写体の撮像を行う装置である。この撮像装置2001Aは、レンズ部2010、撮像部2020、画像処理部2030、ワークメモリ2040、操作部2055、記録部2060、及び第1システム制御部2070Aを備える。なお、撮像装置2001Aのうち、レンズ部2010、撮像部2020、画像処理部2030、ワークメモリ2040、操作部2055、及び記録部2060の構成は、図31に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
また、電子機器2001Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器2001Bは、表示部2050及び第2システム制御部2070Bを備える。なお、電子機器2001Bのうちの表示部2050の構成は、図31に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
第1システム制御部2070Aは、第1通信部2075Aを有している。また、第2システム制御部2070Bは、第2通信部2075Bを有している。第1通信部2075Aと第2通信部2075Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部2070Aは、第1通信部2075Aを介して画像データ(画像処理部2030が画像処理した画像データ、記録部2060に記録されている画像データ)を第2通信部2075Bに送信する。第2システム制御部2070Bは、第2通信部2075Bにおいて受信した画像データを表示部2050に表示させる。
図31に示す構成(設定部2071、制御部2072、表示制御部2073、AF処理部2074及びAE処理部2075)は、第1システム制御部2070Aと第2システム制御部2070Bのいずれに設けられてもよい。図31に示すすべての構成は、第1システム制御部2070A又は第2システム制御部2070Bに設けられてもよく、また図31に示す構成の一部が第1システム制御部2070Aに設けられ、図31に示す構成の一部以外の構成が第2システム制御部2070Bに設けられてもよい。
なお、撮像装置2001Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器2001Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。
図47に示す第1システム制御部2070Aは、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図47に示す第2システム制御部2070Bは、CPUが制御プログラムに基づいて処理を実行することにより実現される。
以上に説明したように、第13実施形態では、第10実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置2001Aで撮像されている画像を電子機器2001Bの表示部2050に表示させることができる。
なお、図47に示す構成において、画像処理部2030と第1システム制御部2070Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部2030の機能と第1システム制御部2070Aの機能を担う。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。
また、上記した各実施形態において、駆動部2021は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部2030の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部2070の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。
また、図38に示した配列パターンでは、AF領域2114とAE領域2115とが市松模様となるように配置していたが、AF領域2114のラインとAE領域2115のラインとが行方向又は列方向に交互に配置されてもよい。また、図43に示した配列パターンでは、静止画領域2118と動画領域2119とが市松模様となるように配置されていたが、静止画領域2118のラインと動画領域2119のラインとが行方向又は列方向に交互に配置されてもよい。
また、上記した第10実施形態において、検出部2031は、公知の顔検出機能を用いて主要被写体である人物や顔を検出していた。しかし、このような構成に限定されず、検出部2031は、画像処理部2030から時系列的に得られる複数の画像データ(フレーム)を比較して、移動する被写体(移動被写体)を主要被写体として検出してもよい。また、検出部2031は、画像データにおける明部と暗部のコントラストや色変化に基づいて主要被写体の境界を特定して主要被写体を検出してもよい。
また、上記した各実施形態では、設定部2071が所定領域において高フレームレート及び高ゲインを設定することにより、検出部2031が所定領域において高精度で主要被写体の検知を行い、AF処理部2074が所定領域において高速に焦点位置の検出を行うように構成していた。しかし、このような構成に限定されず、設定部2071が所定領域において高フレームレート及び高ゲインのいずれかを設定することにより、検出部2031が所定領域において高精度で主要被写体の検知を行い、AF処理部2074が所定領域において高速に焦点位置の検出を行うように構成してもよい。
また、図35に示したサブ画面2051Sは、表示面2051の右上に配置していたが、このような位置に限定されない。例えば、検出部2031が検出した主要被写体の近傍の任意の位置に配置してもよい。ただし、サブ画面2051Sは主要被写体と重複しない位置であることを望ましい。また、サブ画面2051Sは、固定であってもよく、また使用者の操作(例えば使用者によるタッチパネル2052の操作)に応じて移動可能であってもよい。また、サブ画面2051Sのサイズも、固定であってもよく、また使用者の操作(例えば使用者によるタッチパネル2052の操作)に応じて変更可能であってもよい。なお、使用者の操作に応じてサブ画面2051Sのサイズが変更された場合に、サブ画面2051S内に表示されている画像のサイズもサブ画面2051Sのサイズの変更に合わせて変更してもよく、またサブ画面2051S内に表示されている画像のサイズはサブ画面2051Sのサイズの変更にかかわらず固定であってもよい。
また、図37に示した構成では、設定部2071は、検出部2031が主要被写体を検出したことに基づいて、画素領域113Aにおいて、AF領域2114とAE領域2115とが設定された状態と、AF領域2114とAE領域2115とが設定されていない状態とを切り替えるように構成していた。すなわち、被写体の状態変化を検出する検出部2031と、検出部2031が検出する状態変化(主要被写体の検出)を契機として、撮像素子2100の撮像領域113Aにおいて、被写体の焦点位置の検出を行うための領域(例えばAF領域2114)と露出検出を行うための領域(例えばAE領域2115)とが設定された第1設定状態と、第1設定状態とは異なる第2設定状態(AF領域2114とAE領域2115とが設定されていない状態)とを切り替える切替部(設定部2071)と、を備える構成であった。しかし、切替部(設定部2071)は、検出部2031が主要被写体(ターゲット)を検出したことを契機として、第1設定状態と第2設定状態とを切り替える場合に限らず、例えば、AF処理部2074が検出した焦点位置が変化したことなどを契機として、第1設定状態と第2設定状態とを切り替える構成であってもよい。
<第14実施形態>
図48は、第14実施形態に係るデジタルカメラ3001の構成を示すブロック図である。なお、図48において、電子機器の一例であるデジタルカメラ3001は図7のデジタルカメラ1に相当し、レンズ部3010は図7のレンズ部10に相当し、撮像部3020は図7の撮像部20に相当し、撮像素子3100は図7の撮像素子100に相当し、駆動部3021は図7の駆動部21に相当し、画像処理部3030は図7の画像処理部30に相当し、ワークメモリ3040は図7のワークメモリ40に相当し、表示部3050は図7の表示部50に相当し、表示パネル3051は図7の表示パネル51に相当し、タッチパネル3052は図7のタッチパネル52に相当し、操作部3055は図7の操作部55に相当し、記録部3060は図7の記憶部60に相当し、システム制御部3070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部3010、撮像部3020、撮像素子3100、駆動部3021、ワークメモリ3040、表示部3050、操作部3055、記録部3060の構成については説明を省略する。
本実施形態では、画像処理部3030は、図7の画像処理部30が実行する処理のほかに、RAWデータの各画素の階調値に基づいて、被写体像の輝度分布を表す輝度分布データを生成する。なお、輝度分布データのことを輝度マッピング情報ともいう。
また、本実施形態では、画像処理部3030は、図48に示すように変換部3031を備えている。変換部3031は、撮像素子3100の画像領域(撮像領域)113Aにおいて複数の領域ごとに異なる撮像条件(例えば、電荷蓄積時間、フレームレート、ゲイン)で撮像された場合に、RAWデータにおける各領域の輝度レベルを、各領域において同一又は略同一の撮像条件で撮像された場合の輝度レベルに変換する。画像処理部3030は、変換部3031で変換されたRAWデータに対して各種画像処理を実行する。
システム制御部3070は、デジタルカメラ3001の全体の処理及び動作を制御する。このシステム制御部3070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部3070は、撮像素子3100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部3070は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部3021に対して指示する。
また、システム制御部3070は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部3070は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部3021に対して指示する。また、画像処理部3030は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部3070は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部3030に指示する。
また、システム制御部3070は、画像処理部3030において生成された画像データを記録部3060に記録させる。また、システム制御部3070は、画像処理部3030において生成された画像データを表示部3050に出力させることにより、表示部3050に画像を表示させる。また、システム制御部3070は、記録部3060に記録されている画像データを読み出して表示部3050に出力させることにより、表示部3050に画像を表示させる。表示部3050に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。
本実施形態では、システム制御部3070は、図48に示すように、領域分割部3071及び制御部3072を備えている。領域分割部3071は、画像処理部3030で生成された被写体像の輝度分布データを取得する。そして、領域分割部3071は、取得した輝度分布データに基づいて被写体像における各画素の輝度レベルを認識し、撮像素子3100の撮像領域113Aを輝度レベルに応じた複数の領域にブロック単位で分割する。
制御部3072は、領域分割部3071により分割された各領域の輝度レベルが特定範囲(例えば、撮像素子3100の飽和レベルの35%〜80%の範囲;図51参照)内に入るように撮像素子3100の撮像条件(例えば、電荷蓄積時間、フレームレート、ゲイン)を各領域ごとに設定する。また、制御部3072は、各領域ごとに設定した撮像条件で撮像を行わせるように撮像素子3100の駆動制御を行う。また、制御部3072は、画像処理部3030で生成された静止画及び動画の画像データを記録部3060に記録する制御を行う。制御部3072は、画像処理部3030で生成された画像データを表示部3050に出力させて、表示部3050の表示画面3051に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。
なお、システム制御部3070において、領域分割部3071及び制御部3072は、それぞれ、ボディ側CPUが制御プログラムに基づいて実行する処理及び制御に相当する。
次に、第14実施形態に係るデジタルカメラ3001の撮影動作について説明する。図49は、第14実施形態のシステム制御部3070が実行する撮影動作を説明するためのフローチャートである。図49に示す処理において、デジタルカメラ3001に電源が投入された後、使用者が撮影を開始するために操作部3055などの操作を行うと、制御部3072は、ライブビュー画像の撮影を開始する(ステップS3001)。すなわち、制御部3072は、駆動部3021に対して指示信号を出力することにより撮像素子3100の駆動制御を実行させる。このとき、制御部3072は、撮像素子3100の画素領域113Aの全面において同一のライブビュー画像用の撮像条件(例えば予め定められた初期設定の撮像条件)で撮像を行わせる。また、制御部3072は、撮像素子3100で撮像されたライブビュー画像を表示部3050の表示画面3051に表示する(ステップS3002)。
図50は、輝度レベルに応じた複数の領域a11,a12,a21,a22,a31,a41からなる画像3500の表示例を示す図である。例えば、図50に示すような画像3500がステップS3001において撮像され、ステップS3002において表示部3050の表示画面3051にライブビュー画像として表示されるものとする。
図50に示す画像3500では、被写体として、家O210、地面O220、空O230、及び太陽O240が写っている。図50に示すように、画像3500において、太陽O240からの光が当たっていない家O210の側面の領域a11は、輝度レベルが最も低い領域である。この領域a11の平均的な輝度レベルをレベル(1)という。また、家O210の屋根の領域a12は、レベル(1)よりも輝度レベルが高い。この領域a12の平均的な輝度レベルをレベル(2)という。
また、地面O220における家O210の影の領域a21は、領域a11と同じような輝度レベル(つまりレベル(1))となっている。また、地面O220における領域a21以外の領域a22(地面O220における太陽O240からの光が当たっている領域)も、領域a21と同じような輝度レベル(つまりレベル(2))となっている。また、空O230の領域a31は、レベル(2)よりも輝度レベルが高い。この領域a31の平均的な輝度レベルをレベル(3)という。また、太陽O240及び太陽O240の周りの領域a41は、輝度レベルが最も高い領域である。この領域a41の平均的な輝度レベルをレベル(4)という。なお、図50において、領域a12における点A1と領域a22における点A2とを結ぶ線は、領域a12と領域a22との境界線と直角な法線方向の線を示している。
その後、システム制御部3070は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS3003)。システム制御部3070は、レリーズスイッチの半押し操作が行われていないと判定した場合は、上記のステップS3001及びS3002の処理を繰り返し実行する。
システム制御部3070は、レリーズスイッチの半押し操作が行われたと判定した場合は(ステップS3003のYES)、AF処理などの撮影準備処理を実行する。また、領域分割部3071は、画像処理部3030で生成される輝度分布データを取得する(ステップS3004)。具体的には、領域分割部3071は、画像処理部3030に対して輝度分布データの生成を指示する指示信号を出力する。画像処理部3030は、画像処理部3030からの指示信号を受け取ると、ライブビュー画像のRAWデータにおける各画素の階調値に基づいて、各画素の輝度値(輝度レベル)の分布を表す輝度分布データを生成する。例えば、画像処理部3030は、RAWデータにおける各画素のRGBそれぞれの階調値(例えば0〜255の値)を所定の変換式に基づいて各画素の輝度値に変換して輝度分布データを生成する。この輝度分布データにおいては、各画素の輝度値が等高線のように表される。そして、画像処理部3030は、生成した輝度分布データをシステム制御部3070に出力する。領域分割部3071は、画像処理部3030から出力された輝度分布データを取得する。
次に、領域分割部3071は、取得した輝度分布データに基づいて被写体像における各画素の輝度レベルを認識し、輝度レベルの閾値に基づいて撮像素子3100の撮像領域113Aを輝度レベルに応じた複数の領域にブロック単位で分割する(ステップS3005)。
図51は、図50に示す被写体O210〜O240の明るさと撮像素子3100の輝度レベルとの関係を示すグラフである。図51において、横軸は、図50に示す画像3500における各被写体O210〜O240の実際の明るさを示している。また、縦軸は、撮像素子3100が各被写体O210〜O240の実際の明るさに応じて出力する画像信号の輝度レベル(つまり画像信号の出力レベル)を示している。
撮像素子3100では、被写体の明るさに応じて画像信号の輝度レベルが変化する。しかし、被写体の明るさがある明るさ以上になると画像信号の輝度レベルが上昇せず一定となる。このような画像信号の輝度レベルが飽和レベルである。画像信号の輝度レベルが飽和レベルを超えると画像において白飛びが発生する。また、被写体の明るさがある輝度レベル以下になると画像信号の出力レベルが低下せずに一定となる。この場合は、画像において黒つぶれが発生する。撮像素子3100において、白飛びが発生せず、かつ黒つぶれが発生しない輝度レベルの範囲を許容範囲という。
図51に示す例では、領域a41(太陽O240及び太陽O240の周囲)の実際の明るさが、ある明るさl2以上であり、撮像素子3100の画像信号の輝度レベルが飽和レベルとなっている。従って、領域a41の画像は白飛びが発生している。また、領域a11,a12(家O210の側面及び家O210の影の部分)の実際の明るさが、ある明るさl1以下であり、領域a11,a12の画像は黒つぶれが発生している。
また、撮像素子3100では、輝度レベルの許容範囲のすべてにおいて被写体の明るさの上昇に比例して撮像素子3100の画像信号の輝度レベルが上昇するわけではない。撮像素子3100では、輝度レベルの許容範囲のうちのある範囲において被写体の明るさの変化と輝度レベルの変化との間に線形性があり、それ以外の範囲においては被写体の明るさの変化と輝度レベルの変化との間に線形性がない。このように被写体の明るさの変化と輝度レベルの変化との間に線形性がある輝度レベルの範囲を特定範囲という。本実施形態においては、図51に示すように、特定範囲は、撮像素子3100の飽和レベルを100%とした場合に、その飽和レベルの35%〜80%の輝度レベルの範囲となっている。
本実施形態では、図51に示すように、輝度レベルの閾値として、飽和レベルの35%の輝度レベルを閾値t11とし、飽和レベルの80%の輝度レベルを閾値t12とし、飽和レベル(100%)を閾値t13としている。また、図51に示すように、領域a11,a12の輝度レベル(レベル(1))は閾値t11未満であり、領域a21,a22の輝度レベル(レベル(2))は閾値t11以上で閾値t12未満であり、領域a31の輝度レベル(レベル(3))は閾値t12以上で閾値t13未満であり、領域a41の輝度レベル(レベル(3))は閾値t13以上である。従って、ステップS3005において、領域分割部3071は、輝度レベルの閾値t11,t12,t13に基づいて、撮像素子3100の画素領域113Aを、輝度レベルが閾値t11未満の領域a11,a12と、輝度レベルが閾値t11以上で閾値t12未満の領域a21,22と、輝度レベルが閾値t12以上で閾値t13未満の領域a31と、輝度レベルが閾値t13以上の領域a41とに分割する。なお、このように領域分割部3071が閾値を設定したことにより、特定範囲は閾値t11から閾値t12までの範囲となっている。
次に、制御部3072は、領域分割部3071が分割した各領域の輝度レベルが特定範囲内に属するように撮像素子3100の撮像条件を各領域ごとに設定する(ステップS3006)。例えば、制御部3072は、領域a11,a12におけるゲインを高くしたり、電荷蓄積時間を長くすることにより、領域a11,a12の輝度レベルを高くする。また、制御部3072は、領域a31及び領域a41の電荷蓄積時間を短くすることにより、領域a31及び領域a41の輝度レベルをそれぞれ低くする。
ステップS3006において、制御部3072が各領域ごとに撮像条件を設定しても、明るい部分と暗い部分との差が大きいような場合には、各領域の輝度レベルが特定範囲に属さないことが生じ得る。例えば、制御部3072が領域a12の輝度レベルが特定範囲に属するように領域a12のゲインを高くすると、領域a12と領域a22との境界付近の輝度レベルが高くなりすぎて特定範囲に属さなくなる。また、制御部3072が領域a41の輝度レベルが特定範囲に属するように領域a41の電荷蓄積時間を短くすると、領域a41と領域a31との境界付近の輝度レベルが低くなりすぎて特定範囲に属さなくなる。
そこで、制御部3072は、ステップS3006において撮像条件を設定した後の各領域の輝度レベルが特定範囲に属しているか否かを判定する(ステップS3007)。そして、制御部3072が未だ輝度レベルが特定範囲に属していないと判定した場合は、領域分割部3071は、特定範囲に属していない部分(領域)について再び領域分割を実行する(ステップS3005)。また、制御部3072は、領域分割部3071により領域分割された各領域の輝度レベルが特定範囲に属するように、各領域に対する撮像条件の設定を実行する(ステップS3006)。領域分割部3071及び制御部3072は、撮像素子3100のすべての画素領域113Aの輝度レベルが特定範囲に属するまで、上記のようなステップS3005〜S3007の処理を繰り返し実行する。
図52は、図50の点A1と点A2との間における輝度レベルの変化を示す波形図である。図52において、横軸は点A1と点A2との間の距離を示し、縦軸は領域a12及び領域a22の輝度レベルを示している。上述したように、点A1は領域a12に存在し、点A2は領域a22に存在する。また、点A1と点A2とを結ぶ線は、領域a12と領域a22との境界線と直角な法線方向の線である。
図52に示すように、領域a12と領域a22との境界付近では、領域a22の輝度レベル(レベル(2))が領域a12の輝度レベル(レベル(1))まで急激に低下している。領域a22の輝度レベルと領域a12の輝度レベルとの間には閾値t11が存在している。本実施形態では、輝度レベルの閾値t11の地点から領域a12の輝度レベルに到達する地点までの領域を境界領域r10という。なお、図52においては、領域a12及び領域a22のゲインは1倍(例えばISO感度が100)とされているものとする。
図53は、図52に示す輝度レベルが特定範囲内に入るように領域分割と撮像条件の設定とが行われた場合の輝度レベルを示す波形図である。図53において、横軸は点A1と点A2との間の距離を示し、縦軸は領域a12、領域a22、及び境界領域r10の輝度レベルを示している。ステップS3006において、制御部3072は、境界領域r10及び領域a12の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r10及び領域a12のゲインを高くする。例えば、制御部3072は、境界領域r10及び領域a12のゲインを2倍に設定する。この場合、図53(A)に示すように、境界領域r10及び領域a12の輝度レベルが2倍上昇する。
ステップS3007において、制御部3072は、図53(A)に示すように、境界領域r10及び領域a12の輝度レベルが未だ特定範囲(閾値t11から閾値t12までの範囲)に属していないと判定する。この場合、ステップS3005において、領域分割部3071は、境界領域r10を、閾値t11よりも輝度レベルが高い境界領域r11と、閾値t11よりも輝度レベルが低い境界領域r12とに分割する。そして、ステップS3006において、制御部3072は、境界領域r12及び領域a12の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r12及び領域a12のゲインを上昇させる。例えば、制御部3072は、境界領域r12及び領域a12のゲインを領域a22のゲインの4倍(境界領域r11のゲインの2倍)に設定する。この場合、図53(B)に示すように、境界領域r12及び領域a12の輝度レベルが領域a22のゲインの4倍上昇する。ステップS3007において、制御部3072は、図53(B)に示すように、境界領域r12及び領域a12の輝度レベルが特定範囲に属していると判定する。
図54は、レベル(1)の領域a12とレベル(2)の領域a22との境界に設定される帯状の境界領域r11,r12を示す図である。上述したように、領域分割部3071及び制御部3072がステップS3005〜S3007の処理を実行することにより、図54に示すように、隣り合う領域a12と領域a22との間に帯状の複数の境界領域r11,r12が設定される。なお、隣り合う領域間における明るい部分と暗い部分との差が大きいほど、帯状の境界領域の数が多くなる。
図55は、図50に示すレベル(3)の領域a31とレベル(4)の領域a41とを示す部分拡大図である。図55において、点D1は領域a31に存在し、点D2は領域a41に存在している。また、領域a31における点D1と領域a41における点D2とを結ぶ線は、領域a31と領域a41との境界線と直角な法線方向の線である。
図56は、図55の点D1と点D2との間における輝度レベルの変化を示す波形図である。図56において、横軸は点D1と点D2との間の距離を示し、縦軸は領域a31及び領域a41の輝度レベルを示している。なお、撮像素子3100は領域a41の輝度レベルとして飽和レベルの画像信号を出力するが、図56に示すように、実際の領域a41(太陽O240及びその周囲)の輝度レベルは撮像素子3100の飽和レベルよりも高い輝度レベルである。本実施形態では、図56に示すように、領域a41の輝度レベルが低下し始める地点から領域a31の輝度レベルに到達する地点までの領域を境界領域r20という。なお、図56においては、領域a31及び領域a41の電荷蓄積時間(シャッター速度)は1/100秒とされているものとする。
図57は、図56に示す輝度レベルが特定範囲内に入るように領域分割と撮像条件の設定とが行われた場合の輝度レベルを示す波形図である。図57において、横軸は点D1と点D2との間の距離を示し、縦軸は領域a31、境界領域r20、及び領域a41の輝度レベルを示している。ステップS3006において、制御部3072は、領域a31、境界領域r20、及び領域a41の輝度レベルを閾値t12より少し下の輝度レベルまで低下させるように、領域a31、境界領域r20、及び領域a41の電荷蓄積時間を短くする。例えば、制御部3072は、領域a31、境界領域r20、及び領域a41の電荷蓄積時間をそれぞれ1/10(1/1000秒)に設定する。この場合、領域a31、境界領域r20、及び領域a41の輝度レベルが1/10に低下する。
ステップS3007において、制御部3072は、領域a31及び境界領域r20の輝度レベルが未だ特定範囲(閾値t11から閾値t12までの範囲)に属していないと判定する。この場合、ステップS3005において、領域分割部3071は、境界領域r20を、閾値t11よりも輝度レベルが高い境界領域r21と閾値t11よりも輝度レベルが低い境界領域r22とに分割する。そして、ステップS3006において、制御部3072は、境界領域r22及び領域a31の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r22及び領域a31の電荷蓄積時間を長くする。例えば、制御部3072は、境界領域r22及び領域a31の電荷蓄積時間を2倍(1/500秒)に設定する。この場合、境界領域r22及び領域a31の輝度レベルが2倍に上昇する。
ステップS3007において、制御部3072は、境界領域r22及び領域a31の輝度レベルが未だ特定範囲(閾値t11から閾値t12までの範囲)に属していないと判定する。この場合、ステップS3005において、領域分割部3071は、境界領域r22を、閾値t11よりも輝度レベルが高い境界領域r22aと閾値t11よりも輝度レベルが低い境界領域r22bとに分割する。そして、ステップS3006において、制御部3072は、境界領域r22b及び領域a31の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r22b及び領域a31の電荷蓄積時間を長くする。例えば、制御部3072は、境界領域r22b及び領域a31の電荷蓄積時間を2倍(1/250秒)に設定する。この場合、境界領域r22b及び領域a31の輝度レベルが2倍に上昇する。ステップS3007において、制御部3072は、図57に示すように、境界領域r22b及び領域a31の輝度レベルが特定範囲に属していると判定する。
なお、図52及び図53では、点A1と点A2との間を結ぶ線上における領域分割と撮像条件の設定(ステップS3005〜S3007の処理)とを説明し、また、図56及び図57では、点D1と点D2とを結ぶ線上における領域分割と撮像条件の設定(ステップS3005〜S3007の処理)とを説明していた。しかし、システム制御部3070(領域分割部3071及び制御部3072)は、隣り合う領域間の境界に対するすべての法線方向の直線上において領域分割と撮像条件の設定(ステップS3005〜S3007の処理)とを実行する。
図49の説明に戻り、システム制御部3070は、ステップS3007において輝度レベルが特定範囲内に属していると判定した場合は、使用者によりレリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS3008)。システム制御部3070がレリーズスイッチの全押し操作が行われていないと判定した場合は(ステップS3008のNO)、上記したステップS3001からステップS3007までの処理を繰り返し実行する。
システム制御部3070がレリーズスイッチの全押し操作が行われたと判定した場合は(ステップS3008のYES)、制御部3072は、静止画の撮像処理を実行する(ステップS3009)。すなわち、制御部3072は、ステップS3006で各領域ごとに設定した撮像条件(電荷蓄積時間、ゲインなど)で撮像を行わせるように撮像素子3100の駆動制御を行う。具体的には、制御部3072は、ステップS3005で設定した複数の領域をブロック単位での設定を指示する指示信号を駆動部3021に出力する。また、制御部3072は、ステップS3006で各領域ごとに設定した撮像条件を指示する指示信号を駆動部3021に出力する。駆動部3021は、制御部3072からの指示信号に基づいて、各領域ごとの撮像条件で撮像を実行する。
図58は、各領域a41,r21,r22a,r22b,a31における撮像タイミングを示すタイミングチャートである。図58に示すように、制御部3072は、ステップS3006において領域a41及び境界領域r21の電荷蓄積時間T1(例えば1/1000秒)を設定し、境界領域r22aの電荷蓄積時間T2(例えば、1/500秒)を設定し、境界領域r22b及び領域a31の電荷蓄積時間T3(例えば1/250秒)を設定したものとする。この場合、ステップS3009において、制御部3072は、領域a41及び境界領域r21について電荷蓄積時間T1で撮像を行い、境界領域r22aについて電荷蓄積時間T2で撮像を行い、境界領域r22b及び領域a31について電荷蓄積時間T3で撮像を行う。このように、制御部3072は、複数の領域ごとの撮像条件による撮像タイミングの一部が重複するように撮像素子3100を制御する。
一般に、幅広いダイナミックレンジの画像を記録し表示するための画像合成技術として、HDR(High Dynamic Range)撮像が広く知られている。HDR撮像では、撮像条件(例えば露出)を変化させつつ複数枚の画像を撮像し、それらを合成することにより白飛びや黒つぶれの少ない画像を生成する。しかし、従来のHDRでは、例えば撮像条件の異なる2枚の画像を撮像する撮像時間が異なっているため、被写体が移動したり、使用者(撮影者)がデジタルカメラ3001を動かしたりしてしまうことがある。この場合、複数枚の画像は同一の被写体の画像ではないため、画像合成が困難である。これに対して、第14実施形態では、撮像条件の異なる複数枚の画像の撮像時間を同じ時刻(又は略同じ時刻)とすることができる(図58参照)。従って、第14実施形態の構成により従来のHDR撮像の問題点を解決することができる。画像処理部3030が領域毎の画像を合成することにより、ダイナミックレンジの広い画像を生成することができる。
次に、画像処理部3030による画像処理について説明する。図59は、第14実施形態の画像処理部3030が実行する画像処理を説明するためのフローチャートである。画像処理部3030は、画像処理部3030が撮像素子3100から出力されるRAWデータを入力すると、図59に示す画像処理を実行する。図59に示す処理において、変換部3031は、撮像素子3100の画像領域113Aにおいて複数の領域ごとに異なる撮像条件(電荷蓄積時間、ゲインなど)で撮像が行われた場合には、RAWデータにおける各領域の輝度レベルを、各領域において同一又は略同一の撮像条件(例えば適正露出となるような電荷蓄積時間やゲインなどの撮像条件)で撮像が行われた場合の輝度レベルに変換する(ステップS3011)。
具体的には、図49のステップS3006において、制御部3072が各領域ごとに異なるゲイン(例えば、領域a12のISO感度が100、境界領域r11のISO感度が200、境界領域r12及び領域a22のISO感度が400)を設定したものとする。この場合には、ステップS3011において、変換部3031は、各領域の輝度レベルを、適正露出となるようなゲイン(例えばISO感度が150)で撮像が行われた場合の輝度レベルに変換する。また、図49のステップS3006において、制御部3072が各領域ごとに異なる電荷蓄積時間(例えば、領域a41及び境界領域r21の電荷蓄積時間が1/1000秒、境界領域r22aの電荷蓄積時間が1/500秒、境界領域r22b及び領域a31の電荷蓄積時間が1/250秒)を設定したものとする。この場合には、ステップS3011において、変換部3031は、各領域の輝度レベルを、適正露出となるような電荷蓄積時間(例えば1/300秒)で撮像が行われた場合の輝度レベルに変換する。
変換部3031が上記のような各領域の輝度レベルの変換処理を行うことにより、各領域の輝度レベルを適正露出となるような輝度レベルに戻す(揃える)ことができる。ただし、画像処理部3030は、変換部3031が変換処理を行う前のRAWデータをワークメモリ3040や記録部3060に記録しておく。
次に、画像処理部3030は、変換部3031がステップS3011で輝度レベルを変換した各領域のRAWデータを合成する(ステップS3012)。そして、画像処理部3030は、ステップS3012で合成したRAWデータに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を行う(ステップS3013)。このとき、画像処理部3030は、ステップS3012で合成したRAWデータだけでなく、変換部3031が変換処理を行う前のRAWデータも用いて各種画像処理を行うことで、明るい被写体(例えば太陽O240)に適した輝度レベルの画像データや、暗い被写体(例えば家O210の側面)に適した輝度レベルの画像データなどを生成した場合でも、画像データの輝度分解能が担保される。そして、画像処理部3030は、画像データをJPEGなどの所定のフォーマットの画像データに変換する。
その後、制御部3072は、画像処理部3030で生成された静止画の画像データを記録部3060に記録する制御を行う。また、制御部3072は、画像処理部3030で生成された画像データを表示部3050に出力させて、表示部3050の表示画面3051に静止画を表示させる。
なお、上記した第14実施形態において、図49から図59を用いてデジタルカメラ3001が静止画を撮影する動作について説明したが、デジタルカメラ3001が使用者による動作スイッチの操作に基づく動画を撮影する動作についても第14実施形態の構成を適用することが可能である。ただし、この場合、ステップS3006において制御部3072が領域ごとに電荷蓄積時間を設定する構成に代えて、制御部3072が領域ごとにフレームレートを設定する。なお、フレームレートが増加するほど、1フレームあたりの電荷蓄積時間が短くなる。
また、上記した第14実施形態において、制御部3072はステップS3006で領域ごとにゲイン又は電荷蓄積時間を設定して各領域の輝度レベルを変更するようにしていたが、ステップS3006で領域ごとにゲイン及び電荷蓄積時間のいずれも設定して各領域の輝度レベルを変更するようにしてもよい。また、動画の場合は、制御部3072は、ステップS3006で領域ごとにゲイン又はフレームレートを設定して各領域の輝度レベルを変更してもよく、またステップS3006でゲイン及びフレームレートのいずれも設定して各領域の輝度レベルを変更してもよい。
以上に説明したように、第14実施形態では、撮像素子3100で撮像された被写体像の輝度分布データに基づいて、撮像素子3100の撮像領域113Aを輝度レベルに応じた複数の領域に分割する領域分割部3071と、領域分割部3071により分割された各領域の輝度レベルが特定範囲内に入るように撮像素子3100の撮像条件を各領域ごとに設定する制御部3072と、を備える。このような構成によれば、撮像素子の撮像条件を複数の領域ごとに異ならせることでダイナミックレンジの広い画像を取得することができる。
また、第14実施形態では、領域分割部3071は、輝度レベルの閾値(例えば図51に示す閾値t11,t12,t13)に基づいて撮像領域113Aを複数の領域に分割する。このような構成によれば、領域分割部3071は、撮像素子3100の許容範囲などに基づいて輝度レベルの閾値を設定することができる。従って、領域分割部3071は、撮像素子3100の性能などに応じた適切な輝度レベルの領域に分割することができる。また、領域分割部3071は、被写体の実際の明るさなどに基づいて輝度レベルの閾値を設定することができる。従って、領域分割部3071は、被写体に応じた適切な輝度レベルの領域に分割することができる。
また、第14実施形態では、領域分割部3071は、制御部3072により撮像条件が設定されても、複数の領域のうちの所定領域の輝度レベルが特定範囲内に入らない場合、撮像条件の設定後における所定領域の輝度レベルの閾値に基づいて該所定領域をさらに複数の領域に分割する。このような構成によれば、被写体の輝度差に比べて撮像素子3100の特定範囲が狭い場合であっても、撮像素子3100のすべての撮像領域113Aの輝度レベルを特定範囲内に入るようにすることができる。
また、第14実施形態では、制御部3072は、撮像素子3100の飽和レベルに基づいて特定範囲を決定するので、撮像素子3100が飽和しない輝度レベルの範囲を特定範囲に決定することができるとともに、被写体からの光量の変化と輝度レベルの変化とが線形な範囲など様々な範囲を特定範囲と決定することもできる。また、第14実施形態では、制御部3072は、撮像条件として、ゲイン、露光時間、及びフレームレートの少なくとも1つを設定するので、制御部3072が各領域の輝度レベルが確実に特定範囲に入るように制御することができる。
また、第14実施形態では、複数の領域ごとの撮像条件に合わせて画像処理を実行する画像処理部3030を備えるので、明るい被写体に適した輝度レベルの画像データや、暗い被写体に適した輝度レベルの画像データなどを生成することでき、この場合において、画像データの輝度分解能が担保される。
また、第14実施形態では、制御部3072が設定した撮像条件に基づいて、各領域の輝度レベルを該各領域において同一又は略同一の撮像条件で撮像された場合の輝度レベルに変換する変換部3031を備える。このような構成によれば、実際の被写体の明るさに合った画像に戻すことができる。また、第14実施形態では、制御部3072は、複数の領域ごとの撮像条件による撮像タイミングの一部が重複するように撮像素子3100を制御するので、画像処理部3030が容易に画像を合成することができ、ダイナミックレンジの広い画像を表示することができる。
なお、上記した第14実施形態では、変換部3031は画像処理部に設けられていたが、撮像素子3100に設けられてもよい。例えば、撮像素子3100の演算回路416が各領域の輝度レベルを各領域において同一又は略同一の撮像条件で撮像された場合の輝度レベルに変換してもよい。
また、上記した第14実施形態では、電子機器の一例としてデジタルカメラ3001を挙げていたが、これに限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図48に示す画像処理部3030とシステム制御部3070は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部3030の機能とシステム制御部3070の機能を担う。
<第15実施形態>
第15実施形態では、上記した第14実施形態におけるデジタルカメラ3001を、撮像装置3001Aと電子機器3001Bとに分離した構成としている。
図60は、第15実施形態に係る撮像装置3001A及び電子機器3001Bの構成を示すブロック図である。図60に示す構成において、撮像装置3001Aは、被写体の撮像を行う装置である。この撮像装置3001Aは、レンズ部3010、撮像部3020、画像処理部3030、ワークメモリ3040、操作部3055、記録部3060、及び第1システム制御部3070Aを備える。なお、撮像装置3001Aのうち、レンズ部3010、撮像部3020、画像処理部3030、ワークメモリ3040、操作部3055、及び記録部3060の構成は、図48に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
また、電子機器3001Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器3001Bは、表示部3050及び第2システム制御部3070Bを備える。なお、電子機器3001Bのうちの表示部3050の構成は、図48に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。
第1システム制御部3070Aは、第1通信部3075Aを有している。また、第2システム制御部3070Bは、第2通信部3075Bを有している。第1通信部3075Aと第2通信部3075Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部3070Aは、第1通信部3075Aを介して画像データ(画像処理部3030が画像処理した画像データ、記録部3060に記録されている画像データ)を第2通信部3075Bに送信する。第2システム制御部3070Bは、第2通信部3075Bにおいて受信した画像データを表示部3050に表示させる。
図48に示す構成(領域分割部3071及び制御部3072)は、第1システム制御部3070Aと第2システム制御部3070Bのいずれに設けられてもよい。図48に示すすべての構成は、第1システム制御部3070A又は第2システム制御部3070Bに設けられてもよく、また図48に示す構成の一部が第1システム制御部3070Aに設けられ、図48に示す構成の一部以外の構成が第2システム制御部3070Bに設けられてもよい。
なお、撮像装置3001Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器3001Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。
図60に示す第1システム制御部3070Aにおいて、CPUが制御プログラムに基づいて実行する処理が領域分割部3071や制御部3072に相当する。また、図60に示す第2システム制御部3070Bにおいて、CPUが制御プログラムに基づいて実行する処理が領域分割部3071や制御部3072に相当する。
以上に説明したように、第15実施形態では、第14実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置3001Aで撮像されている画像を電子機器3001Bの表示部3050に表示させることができる。
なお、図60に示す構成において、画像処理部3030と第1システム制御部3070Aとは一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部3030の機能と第1システム制御部3070Aの機能を担う。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。
また、上記した各実施形態において、駆動部3021は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部3030の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部3070の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。
また、上記した第14実施形態において、図49に示すステップS3004〜S3007の処理は、使用者によるレリーズスイッチの半押し操作に基づいて実行されていたが、レリーズスイッチの半押し操作前に実行されてもよい。つまり、システム制御部3070が輝度分布データに基づいてライブビュー画像の領域分割と領域ごとの撮像条件の設定とを行うようにしてもよい。また、システム制御部3070は、レリーズスイッチの全押し操作に基づいてステップS3004〜S3007の処理を実行してもよい。つまり、ステップS3009の撮像処理を行う直前にステップS3004〜S3007の処理を実行してもよい。
また、上記した第14実施形態において、画像処理部3030は、RAWデータにおける各画素のRGBそれぞれの階調値に基づいて輝度値を算出して輝度分布データを生成していたが、RAWデータにおける各画素のRGBのいずれの階調値に基づいて輝度値を算出して輝度分布データを生成してもよい。
また、上記した第14実施形態において、システム制御部3070(領域分割部3071及び制御部3072)は、隣り合う領域間の境界に対するすべての法線方向の直線上において領域分割及び撮像条件の設定(ステップS3005〜S3007の処理)を実行していた。すなわち、システム制御部3070は、隣り合う領域間におけるすべての境界領域において領域分割及び撮像条件の設定を実行していた。しかし、このような構成に限定されず、隣り合う領域間におけるある部分の境界領域において領域分割及び撮像条件の設定を実行し、隣り合う領域間における他の部分の境界領域においては、ある部分の境界領域で実行した領域分割及び撮像条件の設定と同じように領域分割及び撮像条件の設定を実行するようにしてもよい。このような構成によれば、システム制御部3070の処理負担を軽減することができる。
また、上記した第14実施形態では、特定範囲を飽和レベルの35%〜80%の範囲としていたが、このような範囲に限定されない。飽和レベルの35%〜80%の範囲よりも広い範囲でも狭い範囲でもよい。例えば、特定範囲を許容範囲(飽和レベルの0%〜100%の範囲)としてもよい。ただし、特定範囲はノイズの影響を受けにくい被写体の明るさと輝度レベルとが線形な関係にある範囲としてもよい。また、輝度レベルの閾値として、飽和レベルの35%の値、80%の値、100%の値としていたが、これらの値も一例であって、このような値に限定されない。また、輝度レベルの閾値を特定範囲の下限値及び上限値と一致させていたが、輝度レベルの閾値と特定範囲の下限値及び上限値とが一致していなくてもよい。
また、上記した第14実施形態では、システム制御部3070が特定範囲に入るように高輝度レベルを低下させる場合と低輝度レベルを上昇させる場合とで同じ特定範囲(飽和レベルの35%〜80%の範囲)としていた。しかし、システム制御部3070が特定範囲に入るように高輝度レベルを低下させる場合と低輝度レベルを上昇させる場合とで異なる特定範囲としてもよい。
また、上記した第14実施形態では、制御部3072が設定する撮像条件として、電荷蓄積時間、フレームレート、ゲインのうちの少なくとも一つを変更すればよい。
<第16実施形態>
図61は、第16実施形態に係るデジタルカメラ4001の構成を示すブロック図である。なお、図61において、電子機器の一例であるデジタルカメラ4001は図7のデジタルカメラ1に相当し、レンズ部4010は図7のレンズ部10に相当し、撮像部4020は図7の撮像部20に相当し、撮像素子4100は図7の撮像素子100に相当し、駆動部4021は図7の駆動部21に相当し、画像処理部4030は図7の画像処理部30に相当し、ワークメモリ4040は図7のワークメモリ40に相当し、表示部4050は図7の表示部50に相当し、表示パネル4051は図7の表示パネル51に相当し、タッチパネル4052は図7のタッチパネル52に相当し、操作部4055は図7の操作部55に相当し、記録部4060は図7の記憶部60に相当し、システム制御部4070は図7のシステム制御部(制御部)70に相当する。これらの構成のうち、レンズ部4010、撮像部4020、撮像素子4100、駆動部4021、画像処理部4030、ワークメモリ4040、表示部4050、操作部4055、記録部4060の構成については説明を省略する。
システム制御部(制御部)4070は、デジタルカメラ4001の全体の処理及び動作を制御する。このシステム制御部4070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部4070は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数の領域(例えば図62の第1領域4200、第2領域4210、第3領域4220を参照)に分け、領域間において異なるシャッター速度(電荷蓄積時間又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部4070は、各領域の位置、形状、範囲、及び各領域用の撮像条件を駆動部21に対して指示する。
また、システム制御部4070は、領域ごとに異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部4070は、各領域用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部4021に対して指示する。また、画像処理部4030は、領域ごとに異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部4070は、各領域用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部4030に指示する。
また、システム制御部4070は、画像処理部4030において生成された画像データを記録部4060に記録させる。また、システム制御部4070は、画像処理部4030において生成された画像データを表示部4050に出力させることにより、表示部4050に画像を表示させる。また、システム制御部4070は、記録部4060に記録されている画像データを読み出して表示部4050に出力させることにより、表示部4050に画像を表示させる。表示部4050に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。
また、システム制御部4070は、ライブビュー画像の撮影中において露出調節処理(AE処理)を実行する。また、システム制御部4070は、動画の撮影中においてもAE処理を実行する。さらに、レリーズスイッチの半押し操作が行われたことに基づいてAE処理を実行する。具体的には、システム制御部4070は、画像の輝度分布を示す輝度分布データを画像処理部4030から取得する。このとき、システム制御4070は、第1領域(図62の第1領域4200)に対応した画像の輝度分布データ、第2領域(図6の第2領域4210)に対応した画像の輝度分布データ、及び第3領域(図62の第3領域4220)に対応した画像の輝度分布データを取得する。そして、システム制御部4070は、これらの輝度分布データを用いて測光を行う。また、システム制御部4070は、測光した結果に基づいて撮像条件(シャッター速度(露光時間、電荷蓄積時間)、フレームレート、及びゲイン(ISO感度))と絞り値とを決定する。このとき、システム制御部4070は、撮像素子4100の撮像領域113Aにおける領域ごとに適正露出となるような撮像条件を決定することが可能である。なお、絞り値については、領域ごとに設定することはできず撮像領域113A全面に対して設定する。
システム制御部4070は、適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、システム制御部4070は、適正露出に応じたシャッター速度(電荷蓄積時間)、フレームレート、及びゲイン(ISO感度)を指示する指示信号を駆動部21に出力する。駆動部21は、指示信号により指示されたシャッター速度、フレームレート、及びゲインで撮像素子4100を駆動制御する。
なお、システム制御部4070は、ボディ側CPUが制御プログラムに基づいて実行する処理や制御に相当する。
図62は、第16実施形態の撮像素子4100における第1領域4200と第2領域4210と第3領域4220とを示す図である。図62に示すように、第1領域4200、第2領域4210及び第3領域4220は、それぞれ、4つのブロック(縦横2つずつのブロック)からなる方形状の領域を1つの単位領域として形成され、複数の単位領域がそれぞれ均等に配置されている。また、第1領域4200、第2領域4210及び第3領域4220は、それらの面積の比が4:3:1となるように配置されている。ただし、第1領域4200、第2領域4210及び第3領域4220は、それぞれ、4つ未満のブロックからなる領域を1つの単位領域として形成してもよく、5つ以上のブロックからなる領域を1つの単位領域として形成してもよい。また、第1領域4200、第2領域4210及び第3領域4220は、画素領域113Aにおいてそれぞれ全面的に配置されていればよく、画素領域113Aにおいてそれぞれ均等に配置されていなくてもよい。また、第1領域4200、第2領域4210及び第3領域4220の面積の比も4:3:1でなくてもよく、例えばそれぞれ同じ面積であってもよい。
システム制御部4070は、第1領域4200の撮像条件として、ライブビュー画像や動画を撮影するときの通常のフレームレート(例えば60fps)及び通常のシャッター速度(露光時間)を設定するとともに、ライブビュー画像や動画を撮影するときの通常のゲイン(ISO感度)を設定する。また、システム制御部4070は、第2領域4210の撮像条件として、上記した通常のフレームレート及び通常のシャッター速度を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。また、システム制御部4070は、第3領域4220の撮像条件として、上記した通常のフレームレート及び速いシャッター速度(つまり短い露光時間)を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。
図63は、第16実施形態におけるAE処理を説明するための図である。図63(A)及び(B)において、横軸はライブビュー画像や動画のフレームを示し、縦軸はライブビュー画像や動画のフレーム中の所定領域(ここでは高輝度被写体の領域)の輝度レベルを示している。なお、図63(A)は従来例におけるAE処理を示し、図63(B)は本実施形態におけるAE処理を示している。
図63(A)に示すように、システム制御部4070が通常のシャッター速度でかつ通常のゲインで太陽や照明などの高輝度被写体を撮影した場合、高輝度被写体の領域においては、輝度レベルが飽和レベル(白飛びした状態となる輝度レベル)を超えてしまう。この場合、システム制御部4070は、高輝度被写体の領域の輝度レベルが飽和レベルからどれぐらい高いかについて判断することができない。従って、システム制御部4070は、AE処理において、シャッター速度を速くしたりゲインを下げることにより高輝度被写体の領域の輝度レベルを段階的に適正レベル(適正露出のレベル)まで下げていく。図63(A)に示す例では、システム制御部4070は、5フレームを使って高輝度被写体の領域の輝度レベルを適正レベルまで下げている。
図63(B)に示すように、システム制御部4070が第1領域4200の撮像条件(通常のシャッター速度、通常のゲイン)で太陽や照明などの高輝度被写体を撮影した場合、図63(A)の場合と同様に、高輝度被写体の領域においては輝度レベルが飽和レベルを超えてしまう。また、図63(B)に示すように、システム制御部4070が第2領域4210の撮像条件(通常のシャッター速度、低いゲイン)で高輝度被写体を撮影した場合も、高輝度被写体の領域においては輝度レベルが飽和レベルを超えてしまう。
一方、システム制御部4070が第3領域4220の撮像条件(高速のシャッター速度、低いゲイン)で高輝度被写体を撮影した場合、高輝度被写体の領域においては輝度レベルが飽和レベルを超えていない。この場合、システム制御部4070は、AE処理において、飽和レベルを超えていない第3領域4220の輝度レベルから第1領域4200の輝度レベルを推定する。そして、システム制御部4070は、推定した第1領域4200の輝度レベルが適正レベルとなるようにシャッター速度及びゲインのいずれか一方又は双方を変更する。これにより、図63(B)に示すように、システム制御部4070は、1フレームで高輝度被写体の領域における第3領域4220の輝度レベルを適正レベルまで下げることができる。従って、AE処理においてオーバー露出から適正露出に短時間で行うことができる。図63(B)に示す例では、システム制御部4070は、第1領域4200の輝度レベルを適正レベルに変更する比率に合わせて、第2領域4210及び第3領域4220の輝度レベルも変更しているが、第2領域4210及び第3領域4220の輝度レベルも被写体に応じた適正レベルに変更してもよい。
なお、上記した第16実施形態では、各領域4200〜4220のシャッター速度とゲインをそれぞれ異ならせることで、高輝度被写体の領域における第3領域4220の輝度レベルが飽和レベルを超えないようにしていたが、各領域4200〜4220のフレームレート、シャッター速度及びゲインのいずれか1つ又は複数を異ならせることで、高輝度被写体の領域における各領域4200〜4220のいずれかの輝度レベルが飽和レベルを超えないようにしてもよい。
<第17実施形態>
図64は、第17実施形態における第1領域4200が飽和した状態を示す図である。第17実施形態においても、第16実施形態で説明した場合と同様に、システム制御部4070は、第1領域4200の撮像条件として、ライブビュー画像や動画を撮影するときの通常のフレームレート(例えば60fps)及び通常のシャッター速度(露光時間)を設定するとともに、ライブビュー画像や動画を撮影するときの通常のゲイン(ISO感度)を設定する。また、システム制御部4070は、第2領域4210の撮像条件として、上記した通常のフレームレート及び通常のシャッター速度を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。また、システム制御部4070は、第3領域4220の撮像条件として、上記した通常のフレームレート及び速いシャッター速度(つまり短い露光時間)を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。
図64に示す例では、高輝度被写体の領域4300における第1領域4200(図64で白く塗りつぶしている領域)では、輝度レベルが飽和レベル(白飛びした状態となる輝度レベル)を超えている。しかし、高輝度被写体の領域4300における第2領域4210及び第3領域4220では、輝度レベルが飽和レベルを超えていない。すなわち、高輝度被写体の領域4300の画像すべてが白飛びした状態ではない。このように、システム制御部4070が各領域4200〜4220の撮像条件を異ならせて撮像することにより、高輝度被写体の領域4300の画像すべてが白飛びしてしまうのを防止することができる。
<第18実施形態>
図65は、第18実施形態における動画HDRを説明するための図である。第18実施形態においても、第16実施形態で説明した場合と同様に、システム制御部4070は、第1領域4200の撮像条件として、ライブビュー画像や動画を撮影するときの通常のフレームレート(例えば60fps)及び通常のシャッター速度(露光時間)を設定するとともに、ライブビュー画像や動画を撮影するときの通常のゲイン(ISO感度)を設定する。また、システム制御部4070は、第2領域4210の撮像条件として、上記した通常のフレームレート及び通常のシャッター速度を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。また、システム制御部4070は、第3領域4220の撮像条件として、上記した通常のフレームレート及び速いシャッター速度(つまり短い露光時間)を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。
図65に示す例では、高輝度被写体の領域4300における第1領域4200(図65で*を付している領域)では、輝度レベルが飽和レベル(白飛びした状態となる輝度レベル)を超えている。一方、高輝度被写体の領域4300における第2領域4210及び第3領域4220では、輝度レベルが飽和レベルを超えていない。この場合、システム制御部4070は、高輝度被写体の領域4300における第1領域4200のゲインを下げたりシャッター速度を速くすることで第1領域4200の輝度レベルを低くして、飽和レベルを超えないように制御する。そして、システム制御部4070は、第1領域4200の画像(動画)と第2領域4210の画像(動画)と第3領域4220の画像(動画)とを合成する。このような構成により、高輝度被写体を撮影した場合でも、白飛びのない動画を得ることができる。
一般に、幅広いダイナミックレンジの画像を記録し表示するための画像合成技術として、HDR(High Dynamic Range)撮像が知られている。HDR撮像では、撮像条件(例えば露出)を変化させつつ複数枚の画像を撮像し、それらを合成することにより白飛びや黒つぶれの少ない画像を生成する。しかし、従来のHDRでは、例えば撮像条件の異なる2枚の画像を撮像する撮像時間が異なっているため、被写体が移動したり、使用者(撮影者)がデジタルカメラ4001を動かしたりしてしまうことがある。この場合、2枚の画像は同一の被写体の画像ではないため、画像合成が困難である。これに対して、第18実施形態では、撮像条件の異なる複数枚の画像の撮像時間を同じ時刻(又は略同じ時刻)とすることができる。従って、第18実施形態の構成により従来のHDR撮像の問題点を解決することができる。
画像処理部4030は、時系列的に得られる複数の画像データから高輝度被写体の領域を検出する。そして、システム制御部4070は、画像処理部4030が検出した高輝度被写体の領域に基づいて、高輝度被写体の領域及びその周囲の領域におけるゲインやシャッター速度を決定する。このような構成によれば、ダイナミックレンジの広い動画を取得することができる。なお、上記した第18実施形態の構成は、動画の撮影だけでなく静止画の撮影にも適用することができる。
<第19実施形態>
上記した第1実施形態では、分割部71が撮像素子100の領域を第1領域200と第2領域210とに分割し、明滅検知部74が撮像素子100の第2領域210から読み出される信号に基づいて光源Lの明滅を検知し、駆動制御部72が明滅検知部74により検知された光源Lの明滅に基づいて撮像開始のタイミングを変更していた。これに対し、第19実施形態では、システム制御部4070は、図62に示したように撮像素子4100の領域を第1領域4200と第2領域4210と第3領域4220とに分割する。そして、駆動制御部72は、第1領域4200のシャッター速度(露光時間)を50Hzの光源の明滅周期(1/100秒)の整数倍(例えば1倍)に設定し、第2領域4210のシャッター速度(露光時間)を60Hzの光源の明滅周期(1/120秒)の整数倍(例えば1倍)に設定し、第3領域4220のシャッター速度(露光時間)を高速のシャッター速度(短い露光時間)に設定する。そして、システム制御部4070は、各領域4200〜4220において設定した撮像条件で動画を撮影するように撮像素子4100を駆動制御する。
このような構成によれば、自然光又は明滅のない光源の下では、各領域4200〜4220のいずれにおいてもフリッカー現象が発生せず、各領域4200〜4220において、ちらつきのない動画を撮影することができる。また、50Hzの光源の下では、第1領域4200のシャッター速度が50Hzの光源の明滅周期(1/100秒)の整数倍であるので、第1領域4200において、ちらつきのない動画を撮影することができる。また、60Hzの光源の下では、第2領域4210のシャッター速度が60Hzの光源の明滅周期(1/120秒)の整数倍であるので、第2領域4210において、ちらつきのない動画を撮影することができる。また、50Hzや60Hz以外の周波数の光源の下では、システム制御部4070が第2領域210から読み出される信号に基づいて光源の明滅周期を検知し、第1領域4200及び第2領域4210のいずれか一方又は双方のシャッター速度を、検知した光源の明滅周期の整数倍に設定する。これにより、第1領域4200及び第2領域4210のいずれか一方又は双方において、ちらつきのない動画を撮影することができる。また、上記した第1実施形態と同様に、システム制御部4070が検知した光源の明滅周期に基づいて静止画の撮像開始のタイミングを変更することにより、フリッカー現象の影響を受けずに静止画を撮影することができる。
なお、第2領域4210のシャッター速度が1/120秒とされるので、シャッター速度が1/100秒の第1領域4200よりも露光量が減少する。このため、システム制御部4070は、第2領域4210のゲインを第1領域4200のゲインの1.2倍に設定する。これにより、第1領域4200及び第2領域4210の露光量が均一化される。また、第3領域4220のシャッター速度が高速のシャッター速度とされるので、シャッター速度が1/100秒の第1領域4200よりも露光量が減少する。このため、システム制御部4070は、第3領域4220のゲインを第1領域4200のゲインよりも高く設定する。これにより、各領域4200〜4220の露光量が均一化される。
<第20実施形態>
図66は、第20実施形態に係るスマートフォン5001の構成を示すブロック図である。なお、図66において、電子機器の一例であるスマートフォン5001は図7のデジタルカメラ1に対応する構成である。また、レンズ部5010は図7のレンズ部10に相当し、撮像部5020は図7の撮像部20に相当し、撮像素子5100は図7の撮像素子100に相当し、駆動部5021は図7の駆動部21に相当し、画像処理部5030は図7の画像処理部30に相当し、ワークメモリ5040は図7のワークメモリ40に相当し、表示部5050は図7の表示部50に相当し、表示パネル5051は図7の表示パネル51に相当し、タッチパネル5052は図7のタッチパネル52に相当し、操作部5055は図7の操作部55に相当し、記録部5060は図7の記憶部60に相当し、システム制御部5070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部5010、撮像部5020、撮像素子5100、駆動部5021、画像処理部5030、ワークメモリ5040、表示部5050、操作部5055、記録部5060の構成については説明を省略する。なお、電子機器の一例をスマートフォン5001としているが、タブレット型端末、液晶パネル付デジタルカメラなどであってもよい。
図66に示すように、システム制御部5070は、操作検出部5071及び駆動制御部5072を有している。操作検出部5071は、画像の拡大、縮小及び移動の少なくともいずれか一つの操作を検出する。駆動制御部5072は、撮像部5020に指示信号を出力することにより、撮像部5020に画像(静止画、動画、ライブビュー画像)を取得させる。また、駆動制御部5072は、操作検出部5071で検出された操作に応じて撮像素子5100を駆動制御する領域を選択する。また、駆動制御部5072は、表示部5050に表示されている画像に対応する撮像領域(画素領域)113A中の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態(非アクティブ状態)に制御する。
ここで、「アクティブ状態」は、領域内の各画素が動作可能な状態(撮像可能な状態)であることを意味する。このアクティブ状態の領域においては、駆動部5021により各画素が駆動制御され、各画素から画素信号の読み出しが行われる。また、「スリープ状態」は、領域内の各画素が動作停止の状態(撮像停止の状態)であることを意味する。動作停止の状態としては、領域内の各画素において駆動部5021による駆動制御が行われていない状態を含む。すなわち、駆動部5021がリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305にパルスを印加しない状態を含む。また、動作停止の状態としては、領域内の各画素から画素信号の読み出しを行わない状態を含む。すなわち、駆動部5021が選択トランジスタ305に対して選択パルスを印加しない状態を含む。また、動作停止の状態としては、領域内の各画素から画素信号を読み出すが、読み出した画素信号を使用しない状態を含む。例えば、信号処理チップ111などにおいて領域内の各画素から読み出した画素信号を廃棄する状態を含む。
なお、操作検出部5071及び駆動制御部5072は、ボディ側CPUが制御プログラムに基づいて実行する処理や制御に相当する。
図67〜図70を参照してシステム制御部5070の動作を説明する。図67は、第20実施形態の撮像素子5100における撮像領域113Aを示す図である。また、図68〜図70は、スマートフォン5001の表示部5050の表示例を示す図である。
駆動制御部5072は、撮像部5020に指示信号を出力することにより、例えば図67に示すような画像(ここでは動画又はライブビュー画像)を撮像部5020に取得させる。図67に示す例では、撮像部5020で取得された画像には、被写体として人O310及び家O320が写っている。
図67に示す撮像領域113A内の領域5201は、表示部5050の表示パネル5051に表示される画像に対応する領域である(図68参照)。このとき、駆動制御部5072は、撮像領域113A内の領域5201をアクティブ状態に制御し、撮像領域113A内の領域5201以外の領域をスリープ状態に制御する。
次に、使用者は、図68に示すように、表示パネル5051を指でつまむようにした後に指を遠ざける操作(ピンチアウト操作)を行う。タッチパネル5052は、使用者によるピンチアウト操作に応じた検出信号をシステム制御部5070に出力する。操作検出部5071は、タッチパネル5052からの検出信号に基づいて、使用者による画像を拡大するピンチアウト操作を検出する。駆動制御部5072は、操作検出部5071により検出されたピンチアウト操作に応じて画像を拡大表示するように制御する(図69参照)。また、駆動制御部5072は、表示パネル5051に拡大表示された画像に対応する撮像領域113A内の領域5202をアクティブ状態に制御し、撮像領域113A内の領域5202以外の領域をスリープ状態に制御する。
また、使用者は、図69に示すように、表示パネル5051上でピンチアウト操作を行う。タッチパネル5052は、使用者によるピンチアウト操作に応じた検出信号をシステム制御部5070に出力する。操作検出部5071は、タッチパネル5052からの検出信号に基づいて、使用者による画像を拡大するピンチアウト操作を検出する。駆動制御部5072は、操作検出部5071により検出されたピンチアウト操作に応じて画像を拡大表示するように制御する(図70参照)。また、駆動制御部5072は、表示パネル5051に拡大表示された画像に対応する撮像領域113A内の領域5203をアクティブ状態に制御し、撮像領域113A内の領域5203以外の領域をスリープ状態に制御する。
このような構成によれば、駆動制御部5072は、表示パネル5051に表示されている画像に対応する領域以外の領域をスリープ状態に制御するので、撮像素子5100を駆動する駆動部5021の消費電力を低減することができる。なお、上記の構成では、使用者のピンチアウト操作の場合について説明したが、使用者のピンチイン操作(表示パネル5051を指でつまむようにした後に指を近づける操作)やスクロール操作の場合にも適用可能である。すなわち、駆動制御部5072は、使用者のピンチイン操作に応じて表示パネル5051に縮小表示された画像に対応する撮像領域113A内の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御する。また、駆動制御部5072は、使用者のスクロール操作に応じて表示パネル5051に移動表示された画像に対応する撮像領域113A内の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御する。
上記の構成では、駆動制御部5072は、表示部5050に表示されている画像の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御していた。しかし、駆動制御部5072は、表示部5050に表示されている画像の領域を含む領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御してもよい。このような構成によれば、スマートフォン5001が画像(動画又はライブビュー画像)の撮影中に手振れが生じた場合でも、スリープ状態の領域が表示部5050に表示されてしまうのを防止することができる。また、駆動制御部5072は、表示部5050に表示されている画像の領域を含む領域をアクティブ状態に制御しているので、手振れが生じた場合に手振れ補正を行うことができる。
また、駆動制御部5072は、操作検出部5071で検出された操作に応じて撮像素子5100を駆動制御する領域の間引き率を変更してもよい。具体的には、撮像素子5100の領域5201の画素数が縦2560画素×横1920画素であるとする。また、記録部5060の記録画素数(記録部5060に記録される画像(静止画、動画)の画素数)が予め縦640画素×横480画素に設定されているものとする。駆動制御部5072は、領域5201で撮像を行う場合、縦及び横いずれも間引き率3/4で信号の読み出しを行う。すなわち、駆動制御部5072は、領域5201内のすべての画素のうちの1/4の画素から信号の読み出しを行う。また、駆動制御部5072は、領域5202(この領域5202は領域5201の縦横1/2のサイズの領域であるものとする。)で撮像を行う場合、縦及び横いずれも間引き率1/2で信号の読み出しを行う。すなわち、駆動制御部5072は、領域5202内のすべての画素のうちの1/2の画素から信号の読み出しを行う。また、駆動制御部5072は、領域5203(この領域5203は領域5201の縦横1/4のサイズの領域であるものとする。)で撮像を行う場合、縦及び横いずれも間引き率0で信号の読み出しを行う。すなわち、駆動制御部5072は、領域5202内のすべての画素から信号の読み出しを行う。
このような構成によれば、予め設定された記録画素数に応じた領域内の画素からだけ信号の読み出しが行われるので、より一層、撮像素子5100を駆動する駆動部5021の消費電力を低減することができる。
また、画像処理部5030は、記録部5060の記録画素数が撮像素子5100を駆動制御する領域の画素数を超えた場合、画像データの補間処理を行ってもよい。例えば、駆動制御部5072は、領域5203よりもサイズの小さい領域(領域5203の1/2のサイズの領域)で撮像を行う場合、その領域内のすべての画素から信号の読み出しを行う。そして、画像処理部5030は、領域内のすべての画素から読み出された信号(画像データ)に基づいて領域内の画素間の画像データを生成して記録部5060に記録する。このような構成によれば、撮像素子5100を駆動制御する領域のサイズに制限を設ける必要がなくなる。
<第21実施形態>
図71は、第21実施形態の撮像素子における撮像領域113Aを示す図である。図71に示すように、撮像領域113Aは、方形状の単位領域A1〜A16に16分割されている。単位領域A1〜A16は、それぞれ、複数個のブロックから構成される領域である。なお、単位領域は、それぞれ、1個や数個のブロックで構成されてもよい。この場合、単位領域の数は図71に示す数よりも多くなる。
図72は、第21実施形態の撮像部6020、画像処理部6030及び記録部6060の構成を示すブロック図である。なお、図72において、撮像部6020は図7の撮像部20に相当し、画像処理部6030は図7の画像処理部30に相当し、記録部6060は図7の記録部60に相当する。
撮像部6020は、撮像領域113Aにおいて領域ごとに異なるフレームレートで撮像可能である。この撮像部6020は、撮像素子の撮像領域113A、撮像素子制御部6021、バッファ6022、及びセレクタ(選択部)6023を備えている。図72においては、撮像素子の撮像領域113Aにおける単位領域A1〜A16は一列に横に配置されているが、実際は図71に示したような縦横に並んで配置されている。図72に示すように、各単位領域A1〜A16で得られた画像データはセレクタ6023に出力される。
撮像素子制御部6021は、画像処理部6030の読出制御部6031からの制御信号に基づいて、撮像領域113Aにおける各領域のフレームレートを設定するとともに、セレクタ6023に選択信号を出力することにより、単位領域A1〜A16で得られた画像データを格納するバッファB1〜B16を各領域のフレームレートに応じたバッファに切り替えさせる。バッファ6022(複数のバッファB1〜B16)は、画像処理部6030に送信(転送)する画像データを一旦格納する格納領域である。バッファ6023(複数のバッファB1〜B16)は、撮像領域113Aの複数の単位領域A1〜A16に対応して設けられている。バッファ6023(複数のバッファB1〜B16)は、それぞれ、複数本の伝送路(レーン)L1〜L16で画像処理部6030のインターフェイス部6032と接続されている。本実施形態では、複数本の伝送路L1〜L16は、それぞれ、画像データの転送能力(単位時間に転送可能な画像データ量)はフレームレートによって決められる。本実施形態では、各伝送路L1〜L16における画像データの転送能力は例えば60fpsとなっている。セレクタ6023は、撮像素子制御部6021からの選択信号に基づいてスイッチングすることで、単位領域A1〜A16で得られた画像データを格納するバッファB1〜B16を切り替える。
画像処理部6030は、撮像部6020から送信された画像データを受け取り、受け取った画像データに対して画像処理を施す。この画像処理部6030は、読出制御部6031、インターフェイス部6032、及びメモリコントローラ6033を備えている。読出制御部6031は、センサ6050からの検出信号に基づいて、撮像領域113Aのいずれの領域を高フレームレート(動画やライブビュー画像の撮影時のフレームレートよりも高いフレームレート)に設定するかを判定するエリア・フレームレート判定処理を実行する。そして、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、撮像領域113Aにおける各領域のフレームレートを指示する制御信号を撮像素子制御部6021に出力する。また、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、インターフェイス部6032に格納された単位領域A1〜A16ごとの画像データの並び替えを行う。
インターフェイス部6032は、複数本の伝送路L1〜L16で複数のバッファB1〜B16と接続され、各バッファB1〜B16から送信される画像データを受信して記憶領域に格納する。メモリコントローラ6033は、インターフェイス部6032の記憶領域に格納されている画像データを読み出して記録部6060に出力する。センサ6050は、水平方向の加速度又は角加速度を検出する加速度センサである。記録部6060は、画像処理部6030から出力された画像データを記録するメモリである。
図73は、撮像部6020から画像処理部6030への画像データの転送タイミングを示す図である。なお、単位領域A1〜A16のフレームレートはすべて同一のフレームレートであって、高フレームレートではないものとする。図73に示すように、1番目のフレームにおける単位領域A1〜A16で得られた画像データD1−1〜D16−1は、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1〜B16に格納される。バッファB1〜B16に格納された画像データD1−1〜D16−1は、同一のタイミングで伝送路L1〜L16を介して画像処理部6030に転送される。
2番目のフレームにおける単位領域A1〜A16で得られた画像データD1−2〜D16−2も、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1〜B16に格納される。バッファB1〜B16に格納された画像データD1−2〜D16−2は、同一のタイミングで伝送路L1〜L16を介して画像処理部6030に転送される。3番目のフレームにおける単位領域A1〜A16で得られた画像データD1−3〜D16−3も、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1〜B16に格納される。バッファB1〜B16に格納された画像データD1−3〜D16−3は、同一のタイミングで伝送路L1〜L16を介して画像処理部6030に転送される。
図73に示すように1フレームの各単位領域A1〜A16で得られた画像データが同一のタイミングで撮像部6020から画像処理部6030に転送される場合は、読出制御部6031は、インターフェイス部6032の記憶領域に格納された単位領域A1〜A16ごとの画像データの並び替えを行わない。
次に、撮像領域113Aにおける左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出し、撮像領域113Aにおける右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出さない場合について説明する。
図74は、左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出し、右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出さない場合における撮像部6020、画像処理部6030及び記録部6060の構成を示すブロック図である。また、図75は、左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出し、右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出さない場合における撮像部6020から画像処理部6030への画像データの転送タイミングを示す図である。
この場合、読出制御部6031は、左半分の領域のフレームレートを高フレームレートとし、右半分の領域のフレームレートを0とする旨を指示する制御信号を撮像素子制御部6021に出力する。撮像素子制御部6021は、読出制御部6031からの制御信号に基づいて、左半分の領域のフレームレートを高フレームレートに設定し、右半分の領域のフレームレートを0に設定する。また、撮像素子制御部6021は、セレクタ6023に選択信号を出力することにより、単位領域A1〜A16で得られた画像データを格納するバッファB1〜B16を各領域のフレームレートに応じたバッファに切り替えさせる。
具体的には、図74及び図75に示すように、1番目のフレームにおける単位領域A1,A2,A5,A6,A9,A10,A13,A14で得られた画像データD1−1,D2−1,D5−1,D6−1,D9−1,D10−1,D13−1,D14−1は、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1,B2,B5,B6,B9,B10,B13,B14に格納される。バッファB1,B2,B5,B6,B9,B10,B13,B14に格納された画像データD1−1,D2−1,D5−1,D6−1,D9−1,D10−1,D13−1,D14−1は、同一のタイミングで伝送路L1,L2,L5,L6,L9,L10,L13,L14を介して画像処理部6030に転送される。
2番目のフレームにおける単位領域A1,A2,A5,A6,A9,A10,A13,A14で得られた画像データD1−2,D2−2,D5−2,D6−2,D9−2,D10−2,D13−2,D14−2は、それぞれ、同一のタイミングでセレクタ6023を介してバッファB3,B4,B7,B8,B11,B12,B15,B16に格納される。バッファB3,B4,B7,B8,B11,B12,B15,B16に格納された画像データD1−2,D2−2,D5−2,D6−2,D9−2,D10−2,D13−2,D14−2は、同一のタイミングで伝送路L3,L4,L7,L8,L11,L12,L15,L16を介して画像処理部6030に転送される。
2番目のフレームの画像データD1−2,D2−2,D5−2,D6−2,D9−2,D10−2,D13−2,D14−2は、1番目のフレームの画像データD1−1,D2−1,D5−1,D6−1,D9−1,D10−1,D13−1,D14−1の転送が終了していない時点から転送が開始される。従って、左半分の領域のフレームレートが高フレームレートである場合でも、左半分の領域内の各単位領域に対応するバッファ及び伝送路と、右半分の領域内の各単位領域に対応するバッファ及び伝送路とを交互に利用することにより、各伝送路の転送能力を超えたフレームレートで画像データを転送することができる。
上記説明した例では、撮像部6020は、左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出すことが可能であるが、右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出すことができない。そこで、高フレームレートで画像データを読み出す領域(以下、この領域を第1領域という。)を撮像領域113A全体の1/x(x=3,4,5,・・・)とする。そして、撮像部6020は、第1領域からxフレームの画像データを読み出す毎に、撮像領域113Aにおける第1領域以外の領域(以下、この領域を第2領域という。)から1フレームの画像データを読み出す。これにより、撮像部6020は、撮像領域113A全体の画像を読み出すことができるとともに、各伝送路L1〜L16の転送能力を超えることなく画像データの転送を行うことができる。
次に、本実施形態の撮像装置の動作について説明する。なお、以下の説明においては、使用者(撮影者)が撮像装置を用いて自動車から前方の動画を撮影している状況であるものとする。図76は、第21実施形態の画像処理部6030における処理を示すフローチャートである。まず、読出制御部6031は、センサ6050からの検出信号に基づいて、撮像領域113Aのいずれの領域を高フレームレートに設定するかを判定するエリア・フレームレート判定処理を実行する(ステップS6001)。例えば、センサ6050が自動車が左に曲がっているときの加速度又は角加速度を検出した場合は、読出制御部6031は、センサ6050からの検出信号に基づいて、撮像領域113Aの左側の領域(第1領域)を高フレームレートに設定すると判定する。また、読出制御部6031は、センサ6050で検出された加速度又は角加速度の大きさに基づいて、高フレームレートに設定する領域(第1領域)の面積を判定する。
次に、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、撮像領域113Aにおける各領域のフレームレートを指示する制御信号を撮像素子制御部6021に出力する(ステップS6002)。例えば、センサ6050が自動車が左に曲がっているときの加速度又は角加速度を検出した場合は、読出制御部6031は、撮像領域113Aの左側の所定面積の第1領域(単位領域で特定される領域)を高フレームレートに設定し、撮像領域113Aの第1領域以外の第2領域(単位領域で特定される領域)を低フレームレートに設定することを指示する制御信号を撮像素子制御部6021に出力する。
その後、読出制御部6031は、撮像部6020から転送された画像データを受信してインターフェイス部6032の記憶領域に格納させる(ステップS6003)。そして、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、インターフェイス部6032の記憶領域に格納された単位領域A1〜A16ごとの画像データの並び替えを行う(ステップS6004)。例えば、読出制御部6031は、エリア・フレームレート判定処理で判定した第1領域及び第2領域の面積や、第1領域及び第2領域のフレームレートに基づいて、伝送路L1〜L16を介して各々のタイミングで受信した画像データがどの単位領域の画像データであるかを特定する。そして、読出制御部6031は、特定した画像データの単位領域の位置に基づき、記憶領域における画像データのアドレスの位置が撮像領域113Aにおける単位領域の位置と合致するように画像データを並び替える。
メモリコントローラ6033は、1つのフレーム中において更新されている画像データの領域が第1領域だけの場合は、第1領域の画像データだけを記録部6060に書き換えて記録させ、1つのフレーム中において更新されている画像データの領域が第1領域及び第2領域(つまり全体の領域)の場合は、第1領域及び第2領域の画像データを記録部6060に書き換えて記録させる(ステップS6005)。次に、読出制御部6031は、動画の撮影が終了したか否かを判定する(ステップS6006)。読出制御部6031は、動画の撮影が終了していないと判定した場合は(ステップS6006のNO)、ステップS6001の処理に移行する。読出制御部6031は、動画の撮影が終了したと判定した場合は(ステップS6006のYES)、処理を終了する。
図77は、第21実施形態の撮像部6020における処理を示すフローチャートである。図77に示す処理において、撮像素子制御部6021は、読出制御部6031から出力される制御信号に基づき、領域(第1領域、第2領域)ごとのフレームレートの設定と、セレクタ6023の切り替えとを行う(ステップS6011)。すなわち、撮像素子制御部6021は、読出制御部6031は、第1領域を高フレームレートに設定し、第2領域を低フレームレートに設定する。また、撮像素子制御部6021は、セレクタ6023に対して選択信号を出力して、単位領域A1〜A16で得られた画像データを格納するバッファB1〜B16を各領域のフレームレートに応じたバッファに切り替えさせる。
次に、撮像素子制御部6021は、単位領域A1〜A16で得られた画像データをセレクタ6023を介してバッファB1〜B16に格納させ(ステップS6012)、バッファB1〜B16に格納された画像データを伝送路L1〜L16を通じて画像処理部6030に送信させる(ステップS6013)。
本実施形態においては、読出制御部6031は、エリア・フレームレート判定処理において、第1領域における高フレームレートと第2領域における低フレームレートの比が整数倍となるように、第1領域及び第2領域のフレームレートを決定する。第1領域からの画像データの読み出しタイミング(転送タイミング)と第2領域からの画像データの読み出しタイミング(転送タイミング)とを同期させるためである。また、上記した構成では、撮像領域113A全体を標準フレームレートで撮像した場合と、第1フレームレートを高フレームレートで撮像し、第2フレームレートを低いフレームレートで撮像した場合とで、消費電力を同一にすることが可能となる。
次に、第1領域及び第2領域の面積と、第1領域及び第2領域のフレームレートとの関係について説明する。図78は、フレームレートと領域5201,5202との関係を示す図である。図78の左図に示す例では、撮像部6020は、撮像領域113A全体から標準フレームレート(ここでは60fps)で画像データの読み出しを行っている。読出制御部6031が撮像領域113Aにおける左側の第1領域5201のフレームレートを高フレームレート(ここでは120fps)に設定し、撮像領域113Aにおける右側の第2領域5202のフレームレートを低フレームレート(ここでは30fps)に設定すると判定する場合は、第1領域5021は撮像領域113Aの1/3の面積となる。
具体的には、標準フレームレートをA(fps)とし、高フレームレートをB(fps)とし、低フレームレートをC(fps)とした場合、{(1/C)/(1/A)−1}/{(1/C)/(1/B)−1}の計算式により第1領域の面積を求めることができる。図78の左図の例では、{(1/30)/(1/60)−1}/{(1/30)/(1/120)−1}=1/3となり、第1領域5021の面積は撮像領域113Aの1/3の面積と求められる。
図78の右図に示す例では、撮像部6020は、撮像領域113A全体から標準フレームレート(ここでは60fps)で画像データの読み出しを行っている。読出制御部6031が撮像領域113Aにおける左側の第1領域5201のフレームレートを高フレームレート(ここでは120fps)に設定し、撮像領域113Aにおける右側の第2領域5202のフレームレートを低フレームレート(ここでは20fps)に設定すると判定する場合は、第1領域5021は撮像領域113Aの2/5の面積となる。すなわち、図78の右図の例では、{(1/20)/(1/60)−1}/{(1/20)/(1/120)−1}=2/5となり、第1領域5021の面積は撮像領域113Aの2/5の面積と求められる。
以上に説明したように、第21実施形態では、撮像領域113Aの所定領域のフレームレートを高くした場合でも、所定領域以外のフレームレートを低くするとともに、画像データを転送するバッファや伝送路を切り替えることで、確実に撮像部6020から画像処理部6030へ画像データを転送することができる。
上記した第21実施形態では、読出制御部6031は、加速度又は角加速度を検出するセンサ6050からの検出信号に基づいてエリア・フレームレート判定処理を実行していたが、風力計で検出される風の向き及び強さに基づいて自動車の進行方向やスピードなどを認識してエリア・フレームレート判定処理を実行してもよい。なお、上記した第21実施形態では、撮像装置を用いて自動車から撮影した場合を例として説明したが、自転車やスノーボードなどの部材に取り付けられた撮像装置で撮影した場合にも適用可能である。
<第22実施形態>
アクションカメラで撮影を行う場合、例えば、自転車やラジコンなどにデジタルカメラを取り付けて、臨場感のある動画の撮影を行う場合、動画の撮影を行っているときに画角内に不意に被写体が飛び込んでくることがある。このように画角内に不意に飛び込んでくる被写体を撮影したい場合、その被写体に対して撮影条件(露出条件:シャッター速度、ISO感度等。撮像条件ともいう。)が適正に設定されておらず、撮影者が所望した画像を撮影することができない。また、それとは逆に、被写体に対して撮影条件を設定できたとしても、不意に画角内に飛び込んでくる被写体を撮影したくない場合もあるため、被写体に対して適正な撮影条件を設定すべきでないことがある。そこで、第22実施形態では、撮像素子の領域を所定の撮影条件で撮影する領域とランダム(不規則)に撮影条件を変更して撮影する領域とに分けて、それぞれの領域で撮影を行う。
図79は、第22実施形態に係る撮影システムの構成を示すブロック図である。図79に示す撮影システムは、撮影装置(被設定装置)7001、スマートフォン(設定装置、外部機器)7100、自転車(被設置装置)7200を備えている。撮影装置7001は、自転車7300に取り付けられる。この撮影装置7001は、レンズ部7010、撮像部7020、画像処理部7030、ワークメモリ7040、操作部7055、記録部7060、制御部7070、測位部7081、姿勢検出部7082、計測部7083、及び通信部7090を有する。
なお、図79において、撮影装置7001は図7のデジタルカメラ1に相当し、レンズ部7010は図7のレンズ部10に相当し、撮像部7020は図7の撮像部20に相当し、撮像素子7100は図7の撮像素子100に相当し、駆動部7021は図7の駆動部21に相当し、画像処理部7030は図7の画像処理部30に相当し、ワークメモリ7040は図7のワークメモリ40に相当し、操作部7055は図7の操作部55に相当し、記録部7060は図7の記憶部60に相当し、制御部7070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部7010、撮像部7020、撮像素子7100、駆動部7021、画像処理部7030、ワークメモリ7040、操作部7055、記録部7060の構成については説明を省略する。
制御部7070は、撮影装置7001の全体の処理及び動作を制御する。図79に示すように、制御部7070は、設定部7071を備えている。設定部7071は、例えば図29に示すように、撮像素子7100の領域を第1撮像領域と第2撮像領域とに分割する。また、設定部7071は、第1撮像領域の撮影条件(以下、第1撮影条件という。)として動画を撮影するときの通常の撮影条件を設定し、第2撮像領域の撮影条件(以下、第2撮影条件という。)としてシャッター速度やISO感度等が不規則に変化する撮影条件を設定する。
測位部7081は、現在位置を測位するGPS(Global Positioning System)で構成されている。測位部7081は、測位した現在位置の情報を制御部7070に出力する。姿勢検出部7082は、互いに直交する3つの軸回りの回転ぶれと、3つの軸方向の並進ぶれとを検出するセンサである。例えば、姿勢検出部7082は、センサ自体の3軸回りの角加速度を検出する3軸ジャイロセンサと、センサ自体の3軸方向の並進加速度を検出する3軸加速度センサとで構成される。姿勢検出部7082は、検出した加速度(角加速度、直線加速度)を示す加速度情報を制御部7070に出力する。計測部7083は、自転車7300のギアの回転数等の被接地装置7300に関する情報を計測するセンサである。計測部7083は、計測したギアの回転数等を示す情報を制御部7070に出力する。通信部7090は、通信回線(無線回線)を通じてスマートフォン7200及び自転車7300と情報を送受信する。
スマートフォン(設定装置)7200は、表示部7201、操作部7202、制御部7203、及び通信部7204を有している。表示部7201は、例えば液晶表示パネルで構成されている。操作部7202は、操作ボタンや表示部7201上に形成されたタッチパネルなどで構成されている。制御部7203は、スマートフォン7200の全体の処理及び動作を制御する。通信部7204は、通信回線(無線回線)を通じて撮影装置7001及び自転車7300と情報を送受信する。
自転車(被設置装置)7300には、計測部7301、制御部7302、及び通信部7303が取り付けられている。計測部7301は、自転車7300のギアの回転数等を計測するセンサである。計測部7301は、計測したギアの回転数等を示す情報を制御部7302に出力する。制御部7302は、計測部7301及び通信部7303の動作を制御する。通信部7303は、通信回線(無線回線)を通じて撮影装置7001及びスマートフォン7200と情報を送受信する。
各装置7001,7200,7300の通信部7090,7204,7303は、制御部7070,7203,7302の指示に応じて、各装置との通信を確立し様々な情報を授受する。情報とは、例えば撮影装置7001からスマートフォン7200へ送るライブビュー画像であり、スマートフォン7200から撮影装置7001へ送る操作部7202により設定された撮影条件や領域決定情報(第1撮像領域及び第2撮像領域の範囲などを示す情報)である。
撮影装置7001の制御部7070だけでなく、スマートフォン7200の制御部7203が、撮像素子7100の領域を第1撮像領域と第2撮像領域とに分割するように制御部7070に対して指示することも可能である。具体的な方法として、撮影装置7001の制御部7070は、通信部7090を介してライブビュー画像をスマートフォン7200に送信する。スマートフォン7200の制御部7203は、通信部7204を介して、撮影装置7001から送信されたらライブビュー画像を受信し、表示部7201にライブビュー画像を表示する。スマートフォン7200の制御部7203は、表示部7201に表示されたライブビュー画像に対して使用者の操作により領域が決定されると、領域決定情報を通信部7204を介して撮影装置7001に送信する。撮影装置7001の制御部7070は、スマートフォン7200から送信された領域決定情報に基づいて、撮像素子710の領域を分割する。領域決定情報とは、領域を特定するための撮像素子7100上の座標や、顔認識等により人物抽出をした情報などである。
(1)不意に画角に飛び込んできた被写体を撮影する場合;
撮影装置7001の設定部7071は、撮像素子7100内の領域を所定の撮影条件で撮影する第1撮像領域とランダムに撮影条件を変更して撮影する第2撮像領域とに分割する。第1撮像領域では、使用者(撮影者)が撮影をしたい代表の撮影条件が設定される。第2撮像領域では、例えばフレームレート、シャッター速度、ゲイン、露出補正などの撮影条件をフレームごとにランダムに変更する。設定部7071は、第2撮像領域において撮影条件をランダムに変更することで、不特定の被写体が画角内に不意に飛び込んできたとしても、その被写体に適した撮影条件で撮影された画像(動画)を撮影することができる。
(2)日向と日陰を撮影する場合;
不意に画角に飛び込んでくる被写体として、太陽や影がある。撮影装置7001が設置された自転車7300が日向に入るか、撮影装置7001内の画角に太陽が入り込むと白飛びを起こし、撮影装置7001が設置された自転車7300が日陰に入ってしまうと、黒潰れが生じやすい。また、撮影装置7001が設置された非設置装置7300が日陰に入って、またすぐに日陰から抜けて、を繰り返すような撮影状況(例えば、晴れた日に木が生い茂った山の中での撮影)においては、設定部7071は、第2撮像領域の撮影条件をランダムに変更するのではなく、ランダムで撮影する領域の撮像結果を用いることで、撮影条件を頻繁に変更しすぎないように設定する。
また、制御部7070は、測位部701で測位された現在位置の情報や、外部装置(図示せず)から通信部7090を介して受信する情報(例えば天気予報や天気図)を取得する。また、撮影装置7001が自転車7300に取り付けられた場合は、制御部7070は、姿勢検出部7082により検出された加速度情報を取得する。また、撮影装置7001が自転車7300に取り付けられた場合は、制御部7070は、計測部7083により検出された自転車7300のギアの回転数を示す情報を取得する。また、制御部7070は、自転車7300の計測部7301により計測された自転車7300のギアの回転数を示す情報を通信部7090を介して取得する。
制御部7070は、取得した情報に基づいて、太陽の位置(方角)や高度(地面からの角度)、影ができる方向などを推測する。また、制御部7070は、自転車7300における撮影装置7001の取り付け位置(又は/及び角度)、回転数等の情報に基づく自転車7300の移動距離、現在位置の情報に基づく建物の位置情報、太陽の位置や高度などから、何秒後に日陰に入るか、また何秒後に日陰から日向に移動するかを推測する。撮影装置が設置された自転車7300が日陰の中に入るとともに制御部7070によって急激に撮影条件を変更しようとすると撮像部7020内の駆動部7021への負担が大きい。そのため、制御部7070は、撮影装置が設置された自転車7300が日陰に入ることを事前に予測し、ランダムに撮影条件を変える第2撮像領において、日陰に入る前(直前)に撮影条件(例えばゲインを高め)に設定する。また、制御部7070は、日陰から抜ける瞬間、つまり日陰から日向へ移動するときに白飛びが発生するおそれがあるので、日陰から抜ける所定時間前から第2撮像領の撮影条件(例えばゲインを低め)に設定する。所定時間は、撮影装置7001の移動量や速度、日時、天気などから決定するようにしてもよい。
(3)撮影条件をリモートで設定する場合;
撮影装置(被設定装置)7001の制御部7070は、スマートフォン(設定装置)7200の制御部7203に対してそれぞれの通信部7090,7204を介して無線回線で接続する。スマートフォン7200の制御部7203は、使用者による操作部7202の操作に応じて、撮像領域を示す領域決定情報及びその領域における撮影条件を示す情報を制御部7070に送信する。その結果、使用者は、スマートフォン7200の表示部7201の画面から撮影装置7001で撮像した画像(ライブビュー画像)を用いて撮影条件を設定することができる。設定可能な撮影条件としては、フレームレート、シャッター速度、ゲイン、露出補正などがある。また、使用者は、操作部7202を操作することで、不意に画角内に飛び込んでくる被写体を撮影したいか否かを設定することも可能である。
このような構成によれば、画角に不意に飛び込んできた被写体を撮影することができ、又は画角に不意に飛び込んできた被写体を撮影しないようにすることもできる。
<第23実施形態>
図80は、第23実施形態の第1撮像領域及び第2撮像領域の撮影条件の切替タイミングを示す図である。第22実施形態では、第1撮像領域を使用者(撮影者)が撮影をしたい代表の撮影条件が設定された領域、第2撮像領域を撮影条件がランダムに変更される領域とした。しかし、このような構成に限定されず、図80に示すように、制御部7070は、所定時間毎に、第1撮像領域の撮影条件と第2撮像領域の撮影条件とを交互に切り替えるように構成してもよい。すなわち、制御部7070は、第1撮像領域において使用者が撮影をしたい代表の撮影条件が設定された状態から撮影条件をランダムに変更する状態に変更するとともに、第2撮像領域において撮影条件をランダムに変更する状態から使用者が撮影をしたい代表の撮影条件が設定された状態に変更する。制御部7070は、所定時間経過後に、第2撮像領域において使用者が撮影をしたい代表の撮影条件が設定された状態から撮影条件をランダムに変更する状態に変更するとともに、第1撮像領域において撮影条件をランダムに変更する状態から使用者が撮影をしたい代表の撮影条件が設定された状態に変更する。このような撮影条件の切り替えを所定時間毎に行う。
撮影条件をランダムに変更する領域は、撮影条件を頻繁に変更するため、制御部7070や駆動部7021の負荷が多く、撮像素子7100における撮影条件をランダムに変更する領域に熱が溜まりやすい。これに対して、もう一方の領域(撮影条件をランダムに変更しない領域)は撮影条件が一定のため、ランダムに撮影条件を変更する領域と比較して制御部7070や駆動部7021の負荷は少なく、その領域にも熱が溜まりにくい。このように、制御部7070は、ランダムに撮影条件を変更する領域の切替えを適宜行うことで、撮像素子7100の一部の領域にのみ負荷が多くなることを防ぐことができる。また、上記した影から出たり入ったりする撮影状況の場合は、所定時間毎に切替えるのではなく、例えば日向での撮影のときは第1撮像領域を使用者(撮影者)が撮影をしたい代表の撮影条件が設定された領域、第2撮像領域を撮影条件がランダムに変更される領域とし、日陰での撮影のときには、第2撮像領域を使用者(撮影者)が撮影をしたい代表の撮影条件が設定された領域、第1撮像領域を撮影条件がランダムに変更される領域と変更するようにしてもよい。また、制御部7070は、所定時間毎にランダムに撮影条件を変更する領域の切替えを行うのではなく、駆動部7021の熱をモニタリングし、撮像素子7100が所定温度以上になったときに、ランダムに撮影条件を変更するように領域の切り替えを行うようにしてもよい。
上記した第22実施形態及び第23実施形態では、制御部7070(つまり設定部7071)は、ランダムに撮影条件を変更する領域の面積(画素数)を、代表の撮影条件が設定された領域の面積よりも小さくするように設定してもよい。また、制御部7070は、その面積比を変更するようにしてもよい。例えば、撮影条件を頻繁に変えるべき状況、例えば晴れた日に木が生い茂った山の中での撮影状況においては、制御部7070は、ランダムに撮影条件を変更する領域の面積を大きくするようにしてもよい。またランダムに撮影条件を変更する領域を、撮像素子7100の周辺に配置するようにしてもよい。これにより、不意に画角内に飛び込んでくる被写体を検出しやすくなる。また、スマートフォン7200を操作することにより、ランダムに撮影条件を変更する領域の位置を設定できるようにしてもよい。使用者(撮影者)が、撮影装置7001に対してどの方向から被写体が画角内に飛び込んでくるかを推測した場合、その方向の画素をランダムに撮影条件を変更する領域として設定したり、画素数を多くするようにしてもよい。
また、第22実施形態及び第23実施形態では、所定の領域において撮影条件をランダムに変更する場合、例えば制御部7070が乱数発生器から乱数を抽出し、抽出した乱数に基づいて撮影条件を決定してもよい。また、第22実施形態及び第23実施形態では、1フレーム毎に撮影条件をランダムに変更していたが、数フレーム毎に撮影条件をランダムに変更してもよい。また、所定の領域において撮影条件をランダムに変更していたが、撮影条件を規則的に(所定の規則に従って)変更してもよい。また、被設置装置は自転車7300としていたがラジコンなどであってもよい。
また、第22実施形態及び第23実施形態において、制御部7070はランダムに変更する撮影条件を撮影状況に合わせて最適化してもよい。例えば、制御部7070は、所定時間撮影した画像に基づいて撮影状況を判定し、判定した撮影状況に基づいてランダムに変更する撮影条件の幅を狭くしてもよい。このような制御部7070に学習機能を持たせることにより、制御部7070や撮像部7020の処理負担を軽減させることができる。