以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
後に、第1〜第10実施例を説明するが、まず、それらの全てに共通する内容について説明する。
図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルビデオカメラである。撮像装置1は、動画及び静止画を撮影可能となっていると共に、動画撮影中に静止画を同時に撮影することも可能となっている。
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク(音入力手段)14と、音声信号処理部15と、圧縮処理部16と、内部メモリの一例としてのSDRAM(Synchronous Dynamic Random Access Memory)17と、メモリカード18と、伸張処理部19と、VRAM(Video Random Access Memory)20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。
撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。
TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。具体的には、タイミング制御信号は、撮像部11、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びCPU23に与えられる。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。
CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。SDRAM17は、フレームメモリとして機能する。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)をSDRAM17に記録する。
メモリカード18は、外部記録媒体であり、例えば、SD(Secure Digital)メモリカードである。尚、本実施形態では外部記録媒体としてメモリカード18を例示しているが、外部記録媒体を、1または複数のランダムアクセス可能な記録媒体(半導体メモリ、メモリカード、光ディスク、磁気ディスク等)で構成することができる。
図2は、図1の撮像部11の内部構成図である。撮像部11にカラーフィルタなどを用いることにより、撮像装置1は、撮影によってカラー画像を生成可能なように構成されている。撮像部11は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。ドライバ34は、ズームレンズ30及びフォーカスレンズ31の移動並びに絞り12の開口量の調節を実現するためのモータ等から構成される。
被写体(撮像対象)からの入射光は、光学系35を構成するズームレンズ30及びフォーカスレンズ31、並びに、絞り32を介して撮像素子33に入射する。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。
撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。
AFE12は、撮像部11からのアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。このデジタル信号は、順次、映像信号処理部13に送られる。尚、CPU23は、撮像部11の出力信号の信号レベルに基づいて、AFE12における信号増幅の増幅度を調整する。
以下、撮像部11またはAFE12から出力される、撮影によって得られた信号(被写体に応じた信号)を、撮像信号と呼ぶ。撮像信号は、被写体に応じた光学像を表す画像情報と呼べる。
図3は、映像信号処理部13の内部ブロック図である。映像信号処理部13にて生成された各種の信号は、必要に応じてCPU23に伝達される。映像信号処理部13は、動画処理部41と、静止画処理部42と、動き検出処理部43と、変化成分処理部44と、明るさ処理部45と、を備える。動画処理部41及び静止画処理部42は、AFE12からの撮像信号に基づいて、撮像部11の撮影によって得られる映像(撮影画像)を表す映像信号を生成し、生成した映像信号を圧縮処理部16に送る。映像信号は、撮影画像の輝度を表す輝度信号Yと、撮影画像の色を表す色差信号U及びVと、から構成される。
動画処理部41は、動画の映像信号の生成を行う。この際、動画処理部41は、動画用のデモザイキング処理、間引き処理等の画素数変換処理及び輪郭強調処理などを含む動画用の映像処理を実施する。静止画処理部42は、静止画の映像信号の生成を行う。この際、静止画処理部42は、静止画用のデモザイキング処理及び輪郭強調処理などを含む静止画用の映像処理を実施する。動き検出処理部43、変化成分処理部44及び明るさ処理部45の機能については後述する。
図1において、マイク14は、外部から与えられた音声(音)を、アナログの電気信号に変換して出力する。音声信号処理部15は、マイク14から出力される電気信号(音声アナログ信号)をデジタル信号に変換する。この変換によって得られたデジタル信号は、マイク14に対して入力された音声を表す音声信号として圧縮処理部16に送られる。
圧縮処理部16は、映像信号処理部13(動画処理部41及び静止画処理部42)からの映像信号を、所定の圧縮方式を用いて圧縮する。動画または静止画撮影時において、圧縮された映像信号はメモリカード18に送られる。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画撮影時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらはメモリカード18に送られる。
録画ボタン26aは、ユーザが動画(動画像)の撮影の開始及び終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、ユーザが静止画(静止画像)の撮影を指示するための押しボタンスイッチである。録画ボタン26aに対する操作に従って動画撮影の開始及び終了が実施され、シャッタボタン26bに対する操作に従って静止画撮影が実施される。1つのフレームにて1つのフレーム画像が得られる。各フレームの長さは、例えば1/60秒である。この場合、1/60秒のフレーム周期にて順次取得されるフレーム画像の集まり(ストリーム画像)が、動画を構成する。
撮像装置1の動作モードには、動画及び静止画の撮影が可能な撮影モードと、メモリカード18に格納された動画または静止画を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。
撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後の各フレームの映像信号(図3の動画処理部41にて生成された映像信号)及びそれに対応する音声信号が、順次、圧縮処理部16を介してメモリカード18に記録される。つまり、音声信号と共に、各フレームの撮影画像(即ちフレーム画像)が順次メモリカード18に格納される。動画撮影の開始後、再度ユーザが録画ボタン26aを押下すると、動画撮影は終了する。つまり、映像信号及び音声信号のメモリカード18への記録は終了し、1つの動画の撮影は完了する。
また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画の撮影が行われる。具体的には、CPU23の制御の下、その押下直後の1つのフレームの映像信号(図3の静止画処理部42にて生成された映像信号)が、静止画を表す映像信号として、圧縮処理部16を介してメモリカード18に記録される。動画の撮影中に静止画を同時撮影することも可能であり、この場合、同一のフレームの撮像信号に基づいて、動画に関する信号処理と静止画に関する信号処理が並行して行われる。
再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、メモリカード18に記録された動画または静止画を表す圧縮された映像信号は、伸張処理部19に送られる。伸張処理部19は、受け取った映像信号を伸張し、伸張後の映像信号をVRAM20に書き込む。また、撮影モードにおいては、通常、動画または静止画を撮影しているか否かに拘らず、映像信号処理13による映像信号の生成が逐次行われており、その映像信号はVRAM20に書き込まれる。
表示部27は、液晶ディスプレイなどの表示装置であり、VRAM20に書き込まれた映像信号に応じた画像を表示する。即ち、表示部27は、撮像部11から現在出力されている撮像信号に基づく画像(現在の被写体を表す画像)、または、メモリカード18に記録されている動画(動画像)若しくは静止画(静止画像)を、表示する。
また、再生モードにおいて動画を再生する際、メモリカード18に記録された動画に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。
尚、映像信号処理部13は、撮影画像中のフォーカス検出領域内のコントラスト量に応じたAF評価値を検出するAF評価値検出回路、撮影画像の明るさに応じたAE評価値を検出するAE評価値検出回路などを含む。CPU23は、AF評価値に応じ、図2のドライバ34を介してフォーカスレンズ31の位置を調節することにより、被写体の光学像を撮像素子33の撮像面(受光面)に結像させる。また、CPU23は、AE評価値に応じ、図2のドライバ34を介して絞り32の開口量(及び必要に応じてAFE12の増幅度)を調節することにより、受光量(画像の明るさ)を制御する。
ところで、撮像装置1では、動画撮影中に静止画を撮影した際、表示部27の表示画面上に、一時的に撮影中の動画と撮影した静止画とを同時に表示可能となっている。そして、特徴的な機能として、同時表示される動画と静止画の表示領域(表示位置)を、撮像信号(画像情報)に応じて動的に決定する機能(この機能を、以下、「表示領域決定機能」という)を備えている。
この表示領域決定機能を実施する際に定義される、表示画面の分割の仕方について、図4(a)及び(b)を参照して説明する。図4(a)及び(b)において、ARWは、表示部27の表示画面の全体領域を表す。図4(b)において、領域AR1、AR2、AR3及びAR4は、夫々、全体領域ARW内の一部の領域であり、それらの領域は互いに異なる。領域AR1、AR2、AR3、AR4は、夫々、全体領域ARWの左上隅、右上隅、左下隅、右下隅に配置される。
表示領域決定機能を実施する際、同時撮影された静止画は、領域AR1、AR2、AR3及びAR4の何れかの領域に縮小表示され、撮影中の動画は、静止画が縮小表示された領域を除く全体領域ARW内に表示される。図5(a)は、撮影中の動画が全体領域ARWの全てを使って表示されている場合の表示画面例を表す。図5(b)は、表示領域決定機能が実施され、領域AR2に静止画が同時表示されている場合の表示画面例を表す。領域AR2に静止画が同時表示されている時、同時表示されなかったならば領域AR2に表示されるべきであった動画の一部分は、静止画に隠れて表示されない。つまり、表示画面上において、動画の一部に静止画が重畳して表示される。これは、一般的にPinP(ピクチャインピクチャ)表示と呼ばれる。この静止画は、主として、所望の静止画を撮影できたか、或いは、ピントがあった静止画を撮影できたかなどの撮影状態確認用の画像として利用される。
そして、同時撮影した静止画を領域AR1、AR2、AR3及びAR4の何れの領域に表示するかは、その静止画の撮影タイミングを基準とした所定の評価フレームの撮像信号(画像情報)に基づいて、選択される。選択された領域を、以下、選択領域α(PinP表示領域)という。撮影中の動画は選択領域αを除いた領域に表示されるので、この選択によって同時に動画の表示領域も定まる。この選択手法例を、後の各実施例にて説明する。
動画撮影においては、図6に示す如く、所定のフレーム周期が経過するごとに、第(k−1)、第k、第(k+1)、第(k+2)・・・フレームが、順次、この順番で訪れる。「第(k−1)、第k、第(k+1)、第(k+2)・・・フレーム」にて撮影されたフレーム画像を、夫々、「第(k−1)、第k、第(k+1)、第(k+2)、・・・フレーム画像」と呼ぶ(kは整数)。
そして、動画撮影中に静止画撮影が指示され、第kフレーム画像に基づいて、メモリカード18に記録すべき且つ選択領域αに表示すべき静止画が取得された場合を想定する(この想定は、後述する各実施例において共通して実施される)。この場合、選択領域αを選択する上で参照される、上記の評価フレームは、典型的には、第kフレームを含む。但し、第kフレームの数フレーム〜数10フレーム前や数フレーム〜数10フレーム後のフレームを、上記の評価フレームに含めることも可能である。
次に、動き検出処理部43などにて定義される、動画の各フレーム画像内の検出ブロックを、図7を参照して説明する。例えば、フレーム画像の夫々を、(I×J)個の検出ブロックにて分割する。図7は、或る1つのフレーム画像に関する検出ブロックを表したものである。図7に示す如く、垂直方向の分割数としてのIが6であり、且つ、水平方向の分割数としてのJが8である場合を想定するものとする。また、説明の簡略化上、各検出ブロックの形状及び大きさが同じであるものとする。従って、検出ブロックを形成する垂直方向の画素数及び水平方向の画素数は、異なる検出ブロック間で同一である。
各フレーム画像における、検出ブロックの配列をI行J列の行列として捉え、各検出ブロックをBL[i,j]で表す。ここで、iは、フレーム画像内における検出ブロックの垂直位置を表し、1〜Iの間の各整数をとる。jは、フレーム画像内における検出ブロックの水平位置を表し、1〜Jの間の各整数をとる。各フレーム画像において、iが小さい検出ブロックほど、その検出ブロックはフレーム画像の原点Xに近く、jが小さい検出ブロックほど、その検出ブロックはフレーム画像の原点Xに近いものとする。
そして、図4(b)を参照して、検出ブロックBL[1,1]側に領域AR1が設けられ、検出ブロックBL[1,8]側に領域AR2が設けられ、検出ブロックBL[6,1]側に領域AR3が設けられ、検出ブロックBL[6,8]側に領域AR4が設けられるものとする。
より具体的には、以下、表示領域決定機能を実施していない状態において、
検出ブロックBL[1,1]、BL[2,1]、BL[1,2]及びBL[2,2]内の撮影画像が表示画面内の領域AR1に表示され、
検出ブロックBL[1,7]、BL[2,7]、BL[1,8]及びBL[2,8]内の撮影画像が表示画面内の領域AR2に表示され、
検出ブロックBL[5,1]、BL[6,1]、BL[5,2]及びBL[6,2]内の撮影画像が表示画面内の領域AR3に表示され、
検出ブロックBL[5,7]、BL[6,7]、BL[5,8]及びBL[6,8]内の撮影画像が表示画面内の領域AR4に表示されるものとする。
勿論、この検出ブロックBL[i,j]と領域AR1〜AR4との対応関係は例示であり、この対応関係を適宜変更することは可能である。
また、映像信号に含まれる輝度信号の値を、輝度値とよぶ。本実施形態で扱う画像を形成する或る画素に関し、その画素の輝度値が増加するに従って、その画素の輝度は増加するものとする。
以下、静止画の表示領域(表示位置)の選択手法を例示する実施例および撮像装置1の詳細動作を説明する実施例として、第1〜第10実施例を説明する。
<<第1実施例>>
まず、第1実施例について説明する。第1実施例では、図3の動き検出処理部43による処理結果を利用する。
動き検出処理部43は、隣接するフレーム画像間の差分に基づき、代表点マッチング法を用いて、検出ブロックごとに動きベクトルを検出する。代表点マッチング法としては、例えば、特開昭61−201581号公報に開示されている手法を用いればよい。この動きベクトルの検出は、フレーム画像ごとに行われる。第kフレーム画像の動きベクトルの検出は、第(k−1)及び第kフレーム画像に基づいて行われる。
周知の如く、或る検出ブロックに関し、その検出ブロックにおける画像の動き量(動きの大きさ)は、動きベクトルの大きさに反映される。動き検出処理部43は、検出ブロックごとに、動きベクトルの大きさを動き評価値として算出する。或る検出ブロックに関し、その検出ブロックにおける画像の動き量が増大するに従って、動きベクトルの大きさ及び動き評価値は増大するものとする。
そして、上述の第kフレームにて静止画が撮影された際、動き検出処理部43は、第kフレームを基準とした所定の評価フレームのフレーム画像(例えば、第kフレームのフレーム画像)を評価画像とし、その評価画像における合計48個の動き評価値の中から、最大の動き評価値を特定する。そして、その最大の動き評価値に対応する検出ブロックを特定する。続いて、動き検出処理部43(又はCPU23)は、図4(b)に示す領域AR1〜AR4の内、その最大の動き評価値に対応する検出ブロックの中心から最も距離が遠い領域を、上記選択領域αとして選択する。
例えば、図8(a)及び(b)に示すようなフレーム画像を含む動画を撮影していた場合を考える。図8(a)は、静止画撮影の直前のフレーム画像(即ち、第(k−1)フレームのフレーム画像)111を表し、図8(b)は、静止画撮影時のフレーム画像(即ち、第kフレームのフレーム画像)112を表す。フレーム画像の中央部の動き量が大きく、フレーム画像111と112間の動きベクトルに対応する合計48個の動き評価値の内、検出ブロックBL[4,4]に対応する動き評価値が最大であったとする。
この場合、動き検出処理部43(又はCPU23)は、検出ブロックBL[4,4]の中心と領域AR1の中心との距離D1と、検出ブロックBL[4,4]の中心と領域AR2の中心との距離D2と、検出ブロックBL[4,4]の中心と領域AR3の中心との距離D3と、検出ブロックBL[4,4]の中心と領域AR4の中心との距離D4と、を比較する(図9参照)。今の例の場合、距離D2が最も長いので、領域AR2を上記選択領域αとして選択する。この選択に従って、動画と静止画を同時表示した表示画面は、図5(b)のようになる。
動画撮影時において、動き量が多い部分には、撮影者が着目している被写体が存在している可能性が高い。このため、その部分の近くに撮影状態確認用の静止画を表示すると、動画撮影に支障をきたす場合がある。例えば、表示画面上の静止画が邪魔になり、動画撮影において注目している被写体を見失う、といったことも発生しうる。これを考慮し、上記のように選択処理を行う。これにより、このような支障が発生しにくくなり、動画の撮影しやすさを阻害することなく静止画の撮影状態を確認することが可能となる。
尚、各検出ブロック内の動き量(動きの大きさ)を検出する手法として、代表点マッチング法を用いる手法を例示したが、他の様々な検出手法を採用することも可能である。
例えば、周知の如く、隣接するフレーム画像間の対比において、検出ブロックごとに明るさ(輝度信号)を比較し、各検出ブロックにおける明るさの変化に基づいて各検出ブロック内の画像の動き量を検出するようにしてもよい。また例えば、周知の如く、隣接するフレーム画像間の対比において、検出ブロックごとに色(色は映像信号から特定される)を比較し、各検出ブロックにおける色の変化に基づいて各検出ブロック内の画像の動き量を検出するようにしてもよい。これらの場合であっても、検出された動き量から上記動き評価値が算出される。
また、第1実施例においては、各検出ブロックを動き検出領域と捉えることができる。
<<第2実施例>>
次に、第2実施例について説明する。特記なき限り、第1実施例で記載した事項は、第2実施例でも適用される。第2実施例でも、図3の動き検出処理部43による処理結果を利用する。但し、第2実施例では、領域AR1〜AR4内の画像の動き量に特に着目して、選択領域αを選択する。
例えば、上述の第kフレームにて静止画が撮影された際、動き検出処理部43は、第kフレームを基準とした所定の評価フレームのフレーム画像(例えば、第kフレームのフレーム画像)を評価画像とし、その評価画像に関して領域AR1〜AR4に対応する動き評価値を領域ごとに算出する。
領域AR1に対応する動き評価値は、検出ブロックBL[1,1]、BL[2,1]、BL[1,2]及びBL[2,2]に対応する動き評価値の合算値とすることができ、
領域AR2に対応する動き評価値は、検出ブロックBL[1,7]、BL[2,7]、BL[1,8]及びBL[2,8]に対応する動き評価値の合算値とすることができ、
領域AR3に対応する動き評価値は、検出ブロックBL[5,1]、BL[6,1]、BL[5,2]及びBL[6,2]に対応する動き評価値の合算値とすることができ、
領域AR4に対応する動き評価値は、検出ブロックBL[5,7]、BL[6,7]、BL[5,8]及びBL[6,8]に対応する動き評価値の合算値とすることができる。
動き検出処理部43(またはCPU23)は、算出した領域AR1〜AR4に対応する4つの動き評価値の中から、最小の動き評価値を特定する。そして、動き検出処理部43(又はCPU23)は、領域AR1〜AR4の内、その最小の動き評価値に対応する領域を、上記選択領域αとして選択する。これによって、最も画像の動き量が少ない領域が選択領域αとして選択される。
動画撮影時において、動き量が多い部分には、撮影者が注目している被写体が存在している可能性が高い。このため、その部分に撮影状態確認用の静止画を表示すると、動画撮影に支障をきたす場合がある。これを考慮し、上記のように、最も画像の動き量が少ない領域を選択領域αとして選択する。これにより、動画の撮影しやすさを阻害することなく静止画の撮影状態を確認することが可能となる。
また、第2実施例では、領域AR1〜AR4に対応する検出ブロック以外の検出ブロック(例えば、BL[4,4])についての動き量の検出を省略可能である。このため、第1実施例に比べて動き検出処理部43の演算負荷が軽減され、集積回路の小型化などが図られる。
尚、第2実施例においては、領域AR1に対応する4つの検出ブロックと、領域AR2に対応する4つの検出ブロックと、領域AR3に対応する4つの検出ブロックと、領域AR4に対応する4つの検出ブロックとを、夫々、動き検出領域と捉えることができる。領域AR1に対応する4つの検出ブロックを、1つの検出ブロックと捉えても良い。領域AR2〜AR4についても同様である。
<<第3実施例>>
次に、第3実施例について説明する。第3実施例では、図3の変化成分処理部44による処理結果を利用する。
図10は、1つの検出ブロック(例えば、BL[1,1])内の画素配列を示す図である。今、1つの検出ブロックが、M×Nの画素(水平方向にM画素及び垂直方向にN画素)から形成されるとする。M及びNは、整数である。
変化成分処理部44は、フレーム画像を形成する各画素の輝度値に対して、図11に示すようなエッジ検出オペレータを適用することにより、各画素のエッジ値を求め、そのエッジ値を検出ブロックごとで合算することにより、各検出ブロックのエッジ成分評価値を求める。或る検出ブロックのエッジ成分評価値は、その検出ブロックの画像の模様の細かさ(コントラスト量)を表すことになる。そして、異なる検出ブロック間でエッジ成分評価値を対比することにより、選択領域αを定める。第3実施例及び後述する第4実施例における変化成分処理部44は、エッジ成分処理部と呼ぶこともできる。
これを、より詳細に説明する。或る1つの検出ブロックについて着目する。変化成分処理部44は、着目した検出ブロックを形成するM×Nの画素の夫々を、エッジ検出オペレータによる演算対象画素とする。但し、エッジ検出オペレータのマトリクスサイズに応じて、当該検出ブロックの端部の画素を演算対象画素から除外する。今の例の場合、演算対象画素の数は、(M−2)×(N−2)となる。
図12に示す如く、演算対象画素の輝度値をY5とし、演算対象画素の上下左右に隣接する4つの画素の輝度値をY2、Y8、Y4及びY6とし、演算対象画素の斜め方向に隣接する4つの画素の輝度値をY1、Y3、Y7及びY9とした場合、或る演算対象画素に対応するエッジ値EAは、下記式(1)にて表される。ここで、係数k1〜k9の内、k5のみが8であって、その他は全て−1とされる。
変化成分処理部44は、演算対象画素ごとにエッジ値EAを算出し、1つの検出ブロック内の画素に対応するエッジ値EAの合算値を、その検出ブロックのエッジ成分評価値とする。
本実施例では、変化成分処理部44は、上述のような演算処理を各検出ブロックに対して行い、全ての検出ブロックのエッジ成分評価値を算出する。或る検出ブロックに関し、その検出ブロックにおける模様の細かさ(コントラスト量)が増大するに従って、エッジ成分評価値は増大することになる。
そして、上述の第kフレームにて静止画が撮影された際、変化成分処理部44は、第kフレームを基準とした所定の評価フレームのフレーム画像(例えば、第kフレームのフレーム画像)を評価画像とし、その評価画像における合計48個のエッジ成分評価値の中から、最大のエッジ成分評価値を特定する。更に、その最大のエッジ成分評価値に対応する検出ブロックを特定する。続いて、変化成分処理部44(又はCPU23)は、領域AR1〜AR4の内、その最大のエッジ成分評価値に対応する検出ブロックの中心から最も距離が遠い領域を、上記選択領域αとして選択する。この距離の評価手法は、第1実施例にて説明したものと同様である。
最大のエッジ成分評価値に対応する検出ブロックには、細かな模様成分が多く含まれている。これは、その検出ブロックにピントが合っていることに対応しており、その検出ブロックに撮影者が注目する被写体が存在している可能性が高い。このため、その検出ブロックの近くに撮影状態確認用の静止画を表示すると、動画撮影に支障をきたす場合がある。これを考慮し、上記のように選択処理を行う。これにより、このような支障が発生しにくくなり、動画の撮影しやすさを阻害することなく静止画の撮影状態を確認することが可能となる。
尚、エッジ値EAは、輝度値が空間方向(水平方向、垂直方向或いは斜め方向など)において変化すれば、その変化の程度に応じた値を持つことになる。つまり、エッジ値EA及びエッジ値EAに基づくエッジ成分評価値(変化成分評価値)は、画像(輝度信号)の空間方向の変化成分(所謂エッジ成分)に応じた値をとる。輝度信号で考えた場合、画像の空間方向の変化成分には、演算対象画素の輝度値をY5とした場合における、(Y5−Y4)、(Y5−Y2)、(Y5−Y3)などが含まれる。また、第3実施例においては、各検出ブロックを変化成分検出領域と捉えることができる。
<<第4実施例>>
次に、第4実施例について説明する。特記なき限り、第3実施例で記載した事項は、第4実施例でも適用される。第4実施例でも、図3の変化成分処理部44による処理結果を利用する。但し、第4実施例では、領域AR1〜AR4内の画像の変化成分に特に着目して、選択領域αを選択する。
例えば、上述の第kフレームにて静止画が撮影された際、変化成分処理部44は、第kフレームを基準とした所定の評価フレームのフレーム画像(例えば、第kフレームのフレーム画像)を評価画像とし、その評価画像に関して領域AR1〜AR4に対応するエッジ成分評価値を領域ごとに算出する。
領域AR1に対応するエッジ成分評価値(変化成分評価値)は、検出ブロックBL[1,1]、BL[2,1]、BL[1,2]及びBL[2,2]に対応するエッジ成分評価値の合算値とすることができ、
領域AR2に対応するエッジ成分評価値(変化成分評価値)は、検出ブロックBL[1,7]、BL[2,7]、BL[1,8]及びBL[2,8]に対応するエッジ成分評価値の合算値とすることができ、
領域AR3に対応するエッジ成分評価値(変化成分評価値)は、検出ブロックBL[5,1]、BL[6,1]、BL[5,2]及びBL[6,2]に対応するエッジ成分評価値の合算値とすることができ、
領域AR4に対応するエッジ成分評価値(変化成分評価値)は、検出ブロックBL[5,7]、BL[6,7]、BL[5,8]及びBL[6,8]に対応するエッジ成分評価値の合算値とすることができる。
変化成分処理部44(またはCPU23)は、算出した領域AR1〜AR4に対応する4つのエッジ成分評価値の中から、最小のエッジ成分評価値を特定する。そして、変化成分処理部44(又はCPU23)は、領域AR1〜AR4の内、その最小のエッジ成分評価値に対応する領域を、上記選択領域αとして選択する。これによって、画像の模様の最も少ない領域が選択領域αとして選択される。例えば、評価フレームのフレーム画像が図13に示すような画像であった場合、領域AR1に対応するエッジ成分評価値が最も小さいと判断され、領域AR1が選択領域αとして選択される。
最小のエッジ成分評価値に対応する領域には、細かな模様があまり存在しておらず、その部位に撮影者が注目している被写体が存在している可能性は低い。つまり、その部位に撮影状態確認用の静止画を表示しても、動画撮影の邪魔にはなりにくい。これを考慮し、上記のように選択処理を行う。これにより、動画の撮影しやすさを阻害することなく静止画の撮影状態を確認することが可能となる。
また、第4実施例では、領域AR1〜AR4に対応する検出ブロック以外の検出ブロック(例えば、BL[4,4])についてのエッジ成分評価値の算出を省略可能である。このため、第3実施例に比べて変化成分処理部44の演算負荷が軽減され、集積回路の小型化などが図られる。
尚、第4実施例においては、領域AR1に対応する4つの検出ブロックと、領域AR2に対応する4つの検出ブロックと、領域AR3に対応する4つの検出ブロックと、領域AR4に対応する4つの検出ブロックとを、夫々、変化成分検出領域と捉えることができる。領域AR1に対応する4つの検出ブロックを、1つの検出ブロックと捉えても良い。領域AR2〜AR4についても同様である。
<<第5実施例>>
次に、第3又は第4実施例にて述べたエッジ成分評価値の代わりに高周波数成分評価値を利用する実施例として、第5実施例を説明する。説明の便宜上、第3実施例に対応する実施例として第5実施例を説明するが、第5実施例にて説明する手法は第4実施例に対しても適用可能である。第5実施例では、フーリエ変換を用いて、各検出ブロック内の画像の高周波数成分を評価する。第5実施例における変化成分処理部44は、高周波数成分処理部と呼ぶこともできる。
第5実施例に係る変化成分処理部44は、検出ブロックごとに、輝度値を周波数成分に変換する。フーリエ変換の処理としては離散的フーリエ変換が用いられる。1つの検出ブロックに着目する。着目した検出ブロック内の画素の画素値(例えば輝度値)をf(x,y)とすると、f(x,y)の離散的フーリエ変換は、周知の如く、下式(2)によって表される。ここで、x=0,1,2,・・・,M−1、且つ、y=0,1,2,・・・,N−1、である。
ここで、F(u,v)はフーリエ係数であり、u=0,1,2,・・・,M−1、且つ、v=0,1,2,・・・,N−1、である。uは水平方向の周波数、vは垂直方向の周波数を表す。また、パワースペクトルP(u,v)は、下記式(3)にて定義される。
周知の如く、2次元のパワースペクトルは、原点を中心として対称性を有する。仮に、M=N=8とした場合、図14及び図15に示す如く、パワースペクトルはP(4,4)を原点として対称性を有する(但し、u又はvが0の場合を除く)。尚、図14は、4つの太線四角枠内のパワースペクトル同士が対称性を有することを表している。
そして、P(u,v)は画像の模様の存在に応じた値をとり、細かな模様が多く含まれれば含まれるほど、P(u,v)は大きくなる。図16に、模様の存在に応じたパワースペクトルの分布の様子を示す。図16は、M=N=8の条件下、u=1,2,3,4且つv=1,2,3,4の周波数範囲内におけるパワースペクトルの分布を表し、符号121は模様が比較的少ない場合におけるそれを、符号122は模様が比較的多い場合におけるそれを表す。
第5実施例に係る変化成分処理部44は、例えば、検出ブロックごとに、u=1,2,・・・,M/2且つv=1,2,・・・,N/2の周波数範囲内のパワースペクトルP(u,v)を算出する(この場合、検出ブロックごとに、(M/2×N/2)個のパワースペクトルが算出される)。そして、検出ブロックごとに、算出したP(u,v)の平均値、合算値または加重平均値などを高周波数成分評価値として算出する。
或るいは、検出ブロックごとに、u=v=0を除く所定の周波数範囲内のパワースペクトルP(u,v)を算出し、算出したP(u,v)の平均値、合算値または加重平均値などを高周波数成分評価値として算出する。
或る検出ブロックに関し、該検出ブロック内の画像が一様であれば、例えば該検出ブロック内の画素の輝度値が全て同じであれば、画像は空間方向において変化しておらず、該検出ブロック内の画像は空間方向の変化成分を持たない。この場合、高周波数成分評価値はゼロとなる。一方、該検出ブロック内の画素の輝度値が空間方向(水平方向、垂直方向或いは斜め方向など)において変化しておれば、高周波数成分評価値は、ゼロではない有意な値を持つ。このように、高周波数成分評価値(変化成分評価値)は、画像の空間方向の変化成分(典型的には、高周波数成分)に応じた値を持つ。
<<第6実施例>>
次に、第6実施例について説明する。第6実施例では、図3の明るさ処理部45による処理結果を利用する。第6実施例では、領域AR1〜AR4の内、最も暗い領域が選択領域αとして選択される。
明るさ処理部45は、領域AR1〜AR4内の画像の明るさを領域ごとに検出し、検出した明るさに応じた明るさ評価値を領域ごとに算出する。明るさの検出は、各画素の輝度値を参照することによって行われる。領域AR1の明るさ評価値は、領域AR1内に含まれる画素の輝度値の平均値又は合算値である。領域AR2の明るさ評価値は、領域AR2内に含まれる画素の輝度値の平均値又は合算値である。領域AR3の明るさ評価値は、領域AR3内に含まれる画素の輝度値の平均値又は合算値である。領域AR4の明るさ評価値は、領域AR4内に含まれる画素の輝度値の平均値又は合算値である。
例えば、上述の第kフレームにて静止画が撮影された際、明るさ処理部45は、第kフレームを基準とした所定の評価フレームのフレーム画像(例えば、第kフレームのフレーム画像)を評価画像とし、その評価画像に関して領域AR1〜AR4に対応する明るさ評価値を領域ごとに算出する。
そして、明るさ処理部45(またはCPU23)は、算出した領域AR1〜AR4に対応する4つの明るさ評価値の中から、最小の明るさ評価値を特定する。続いて、明るさ処理部45(又はCPU23)は、領域AR1〜AR4の内、その最小の明るさ評価値に対応する領域を、上記選択領域αとして選択する。これによって、最も画像の暗い領域が選択領域αとして選択される。
最小の明るさ評価値に対応する領域は、領域AR1〜AR4の中で最も暗い領域であるため、その部位に撮影者が注目している被写体が存在している可能性は低い。つまり、その部位に撮影状態確認用の静止画を表示しても、動画撮影の邪魔にはなりにくい。これを考慮し、上記のように選択処理を行う。これにより、動画の撮影しやすさを阻害することなく静止画の撮影状態を確認することが可能となる。
尚、第6実施例においては、領域AR1〜AR4の夫々を、明るさ検出領域と捉えることができる。
<<第7実施例>>
第1〜第6実施例として説明した、選択領域αの選択手法は任意に組み合わせることが可能である。この組み合わせの方法を例示する実施例として、第7実施例を説明する。
例えば、第1〜第6実施例の何れかにて説明した選択領域αの選択手法では、選択領域αを選択しきれない場合、他の実施例の選択手法を用いて最終的に選択領域αを選択するといったことが可能である。具体的には例えば、第2実施例にて説明した選択手法を採用している場合において、領域AR1〜AR4に対応する4つの動き評価値が殆ど同じであったとき、他の実施例(例えば第3実施例)で説明した選択手法を用いて選択領域αを選択する、といったことが可能である。尚、第1〜第6実施例の何れかにて説明した選択領域αの選択手法で選択領域αを選択しきれない場合、予め定めておいた領域を選択領域αとして定めるようにしても構わない。
また、「第1又は第2実施例に示した動き評価値」と、「第3若しくは第4実施例に示したエッジ成分評価値、又は、第5実施例に示した高周波数成分評価値」と、「第6実施例に示した明るさ評価値」の3つの指標の内、2又は3の指標を用いて選択領域αを選択するようにしてもよい。これにより、画像の動き、模様の細かさ、明るさの内の2以上が総合的に考慮され、選択領域αの選択の適正化が図られる。
例えば、第1実施例と第4実施例を組み合わせる場合を例示する(2つの指標を用いる)。図8(a)及び(b)並びに図9を参照して説明したように、評価フレームのフレーム画像において、検出ブロックBL[4,4]に対応する動き評価値が最大であったとする。この場合、図9を参照して、D2>D4>D1>D3、が成立する。
この距離D1〜D4に基づいて、領域AR1、AR2、AR3及びAR4に対応する動き選択レベルを算出する。領域AR1、AR2、AR3及びAR4に対応する動き選択レベルを、夫々、La1、La2、La3及びLa4とすると、La2>La4>La1>La3、が成立する。つまり、検出ブロックBL[4,4]の中心からの距離(D1など)が遠いほど、大きな動き選択レベルを与える。
この動き選択レベルの算出と並行して、第4実施例に示す如く、評価フレームのフレーム画像に関して、領域AR1〜AR4に対応するエッジ成分評価値を算出する。そして、算出されたエッジ成分評価値に基づき、領域AR1〜AR4に対応するエッジ成分選択レベルを算出する。領域AR1、AR2、AR3及びAR4に対応するエッジ成分選択レベルを、夫々、Lb1、Lb2、Lb3及びLb4とする。領域AR1に対応するエッジ成分評価値が小さいほど、領域AR1に対応するエッジ成分選択レベルは大きな値をとる。領域AR2〜AR4に関しても同様である。
そして、映像信号処理部13又はCPU23は、積(La1×Lb1)と積(La2×Lb2)と積(La3×Lb3)と積(La4×Lb4)の中なら、最大の積を特定し、その最大の積に対応する領域を、選択領域αとして選択するようにする。これにより、例えば、“D2>D4>D1>D3”であっても、領域AR2に細かな模様が多く含まれていれば、領域AR4などが選択領域αとして選択されるようになる。
第1実施例と第4実施例を組み合わせる場合を例示したが、他の実施例を組み合わせる場合も同様である。
<<第8実施例>>
次に、動画の撮影シーンに対比させて、どのような手法が選択領域αの選択手法として適しているかを、第8実施例として説明する。
図17を参照する。画像内の被写体の動き量が比較的大きく且つカメラワークも比較的大きい撮影シーンを、第1シーンとする。画像内の被写体の動き量が比較的大きく且つカメラワークは比較的小さい撮影シーンを、第2シーンとする。画像内の被写体の動き量が比較的小さく且つカメラワークが比較的大きい撮影シーンを、第3シーンとする。画像内の被写体の動き量が比較的小さく且つカメラワークも比較的小さい撮影シーンを、第4シーンとする。カメラワークとは、撮像装置1の筐体の動き量を意味する。
第1シーンは、例えば、動き回る子供や赤ん坊を追いかけながら撮影する状況に対応する。第2シーンは、例えば、花火を撮影する状況や運動会を撮影する状況に対応する。第3シーンは、例えば、風景(海や山など)を移動する車の中から撮影する状況に対応する。第4シーンは、例えば、赤ん坊の寝顔を撮影する状況や、卒業式を撮影する状況に対応する。
以下、第1又は第2実施例に示した動き評価値に基づく選択領域αの選択手法を「選択手法A」と呼び、第3又は第4実施例(又は第5実施例)に示したエッジ成分評価値(又は高周波数成分評価値)に基づく選択領域αの選択手法を「選択手法B」と呼び、第6実施例に示した明るさ評価値に基づく選択領域αの選択手法を「選択手法C」と呼ぶ。
まず、動き量が比較的大きい第1及び第2シーンでは、原則として選択手法Aが適しており、動き量が比較的小さい第3及び第4シーンでは、原則として選択手法B(またはC)が適している。
従って、例えば、上述の第kフレームにて静止画が撮影された際、シーンの分類を行うために、まず、第kフレームを基準とした所定の評価フレームのフレーム画像(例えば、第kフレームのフレーム画像)に関して、検出ブロックごとに上記の動き評価値を算出するようにしてもよい。そして、算出した動き評価値に基づいて、選択領域αの選択手法を選択するようにすればよい。例えば、検出ブロックごとの動き評価値の平均値が所定の閾値より大きい場合には選択手法Aを用い、そうでない場合には選択手法B(またはC)を用いるようにする。
特に、画像の一部分のみの動き量が比較的大きいような場合には、選択手法Aが適している。従って、例えば、評価フレームのフレーム画像に関して検出ブロックごとに算出された動き評価値中、所定個数未満の動き評価値のみが所定の閾値よりも大きいような場合には、選択手法Aを用いるようにするとよい。
画像の全体の動き量が比較的大きいような場合には、選択手法B(又はC)を採用するようにしてもよい。具体的には例えば、評価フレームのフレーム画像に関して検出ブロックごとに算出された動き評価値中、所定個数以上の動き評価値が所定の閾値よりも大きいような場合には、選択手法B(又はC)を用いるようにする。
選択領域αを選択するために用いる選択手法の切り替えは、撮像信号を参照して自動的に行われる。但し、図1の操作キー26cに対する手動操作にて、その選択手法を設定することも可能である。
<<第9実施例>>
次に、第1実施例に示す選択手法を実行する場合の動作の流れを第9実施例として説明する。図18は、その動作の流れを示すフローチャートである。
TG22は、垂直同期信号を所定の周期(例えば1/60秒)にて逐次生成する。動画撮影が開始されると、ステップS1では、TG22から垂直同期信号が出力されたかが確認される。垂直同期信号は、各フレームの開始時点でTG22から出力される。
垂直同期信号の出力が確認されていない場合は(ステップS1のNo)ステップS1の処理が繰り返され、垂直同期信号の出力が確認された場合は(ステップS1のYes)、ステップS2に移行し、映像信号処理部13によって撮像信号(RAWデータ)が取り込まれる。
続いて、図3の動き検出処理部43は、現フレームにおける各検出ブロックの動き評価値を算出し(ステップS3)、更に、最大の動き評価値を特定する(ステップS4)。続くステップS5にて、静止画を撮影するためのシャッタボタン26bが押下されたかが確認される。シャッタボタン26bが押下された場合は、現フレームのフレーム画像に対して動画用の映像処理(ステップS6)及び静止画用の映像処理(ステップS7)を施し、更に、ステップS4の特定内容に基づき選択領域αを選択する(ステップS8)。
そして、映像信号処理部13(及びCPU23)は、ステップS5のシャッタボタン26の押下に伴って撮影された静止画が選択領域αに表示されるように且つ選択領域α以外の部分に撮影中の動画が表示されるように、VRAM20に必要なデータを書き込む(ステップS10)。
また、ステップS5にてシャッタボタン26bが押下されていない場合は、動画用の映像処理(ステップS9)を経てステップS10に移行し、表示画面の全体にて撮影中の動画が表示されるようにVRAM20に必要なデータが書き込まれる。ステップS10を終えるとステップS1に戻るが、一度、選択領域αに表示された静止画は、所定の期間(例えば3秒間)、選択領域αに表示されたままとなる。その所定の期間が経過した時点で、選択領域αでの静止画の表示は解除される。或いは、図1の操作キー26cに対する操作により、選択領域αでの静止画の表示は解除される。
<<第10実施例>>
次に、第4実施例に示す選択手法を実行する場合の動作の流れを第10実施例として説明する。図19は、その動作の流れを示すフローチャートである。
まず、第9実施例と同様のステップS1及びS2の動作を行う。第10実施例では、ステップS2の処理の後、ステップS5に移行する。
ステップS5にて、静止画を撮影するためのシャッタボタン26bが押下されたかが確認される。シャッタボタン26bが押下された場合は、現フレームのフレーム画像に対して動画用の映像処理(ステップS6)及び静止画用の映像処理(ステップS7)を施す。更に、現フレーム画像に関し、領域AR1〜AR4に対応するエッジ成分評価値を算出し(ステップS11)、最小のエッジ成分評価値を特定する(ステップS12)。続いて、領域AR1〜AR4の内、最小のエッジ成分評価値に対応する領域を選択領域αとして選択する(ステップS13)。
そして、映像信号処理部13(及びCPU23)は、ステップS5のシャッタボタン26の押下に伴って撮影された静止画が選択領域αに表示されるように且つ選択領域α以外の部分に撮影中の動画が表示されるように、VRAM20に必要なデータを書き込む(ステップS20)。
また、ステップS5にてシャッタボタン26bが押下されていない場合は、動画用の映像処理(ステップS9)を経てステップS20に移行し、表示画面の全体にて撮影中の動画が表示されるようにVRAM20に必要なデータが書き込まれる。ステップS20を終えるとステップS1に戻るが、一度、選択領域αに表示された静止画は、所定の期間(例えば3秒間)、選択領域αに表示されたままとなる。その所定の期間が経過した時点で、選択領域αでの静止画の表示は解除される。或いは、図1の操作キー26cに対する操作により、選択領域αでの静止画の表示は解除される。
上述してきた内容は、本発明の実施形態の例を説明するものに過ぎず、本発明は、様々な変形例を含む。以下に、本発明に適用可能な変形例として、変形例1〜変形例3を例示する。各変形例に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[第1変形例]
上述の実施形態では、図1の表示部27の表示画面において、選択領域αに静止画を表示し、それ以外の領域に動画を表示する場合を取り扱った。つまり、動画の中に静止画を表示するPinP(ピクチャインピクチャ)表示について説明した。しかしながら、動画と静止画の関係を反対にするようにしてもよい。つまり、選択領域αに動画を表示し、それ以外の領域に静止画を表示するようにしてもよい(この場合、上述の説明文中の「静止画」及び「動画」を、夫々、必要に応じて、「動画」及び「静止画」に読み替えればよい)。
この場合、動画撮影中に静止画を撮影した時、撮影した静止画が比較的大きな表示領域を用いて表示されるため、所望の静止画を撮影できたか、或いは、ピントがあった静止画を撮影できたかなどの撮影状態の確認が容易となる。また、動き評価値、エッジ成分評価置(若しくは高周波成分評価値)、または(および)、明るさ評価値に基づいて、動画が表示される選択領域αを選択することにより、静止画の撮影状態の確認に邪魔にならない領域に動画が縮小表示される。換言すれば、確認したい部分が動画のPinP表示で隠されてしまう、といった問題の発生が抑制される。
例えば、第1実施例を適用すれば、動き量が大きい画像部位からなるだけ離れた表示位置に動画がPinP表示される。動き量が大きい画像部位に注目している被写体が存在している可能性が高いため、上記の如く動画の表示領域を定めることにより、確認したい部分が動画のPinP表示で隠されてしまう、といった問題の発生が抑制される。
また例えば、第4実施例を適用すれば、細かな模様が比較的少ない表示領域に動画がPinP表示される。細かな模様が比較的少ない部分に注目している被写体が存在している可能性は低いため、上記の如く動画の表示領域を定めることにより、確認したい部分が動画のPinP表示で隠されてしまう、といった問題の発生が抑制される。
また例えば、第6実施例を適用すれば、画像が比較的暗い表示領域に動画がPinP表示される。画像が比較的暗い部分に注目している被写体が存在している可能性は低いため、上記の如く動画の表示領域を定めることにより、確認したい部分が動画のPinP表示で隠されてしまう、といった問題の発生が抑制される。
[第2変形例]
選択領域αの候補として4つの領域AR1〜AR4を表示画面の四隅に設ける場合を例示したが、選択領域αの候補としての領域の個数や表示画面中における位置などは、適宜、変更可能である。
また、図7に示すような検出ブロックの分け方も様々に変更可能である。上述の各実施例では、図3の動き検出処理部43で定義される検出ブロックの分け方と変化成分処理部44で定義されるそれとを、説明の簡略化上、一致させているが、両者を一致させる必要は必ずしもない。
[第3変形例]
また、図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図3の映像信号処理部13に含まれる、符号41〜45で表される各部の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。また特に、上記表示領域決定機能を実現する部位(選択領域αを選択する部位)は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。「表示領域決定機能を実現する部位」は、動き検出処理部43、変化成分処理部44、明るさ処理部45の内のいずれか1以上の処理部を含み、更に、図1のCPU23を含み得る。
ソフトウェアを用いて映像信号処理部13の機能を実現する場合、図3は、それの機能ブロック図を表すことになる。また、映像信号処理部13にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
尚、上記の「表示領域決定機能を実現する部位」は、同時表示制御手段として機能する。図3の動き検出処理部43、変化成分処理部44及び明るさ処理部45は、それぞれ、動き検出手段、変化成分検出手段及び明るさ検出手段として機能する。