以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。図1は、本発明の第1実施形態に係わるカメラ10の電気回路を示すブロック図である。カメラ10は、デジタルカメラであり、制御部1、撮像部2、顔検出部2a、パラメータ設定部3、モーション判定部4、記録部6、パラメータ制御部7、表示部8、操作部9、時計部11等から構成される。
撮像部2は、ズーム機能とピント合わせ機能を有する撮影レンズ(ズームレンズ)や、シャッタ・絞り等の露出制御部、撮像素子、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって画像データに変換し、これを出力する。顔検出部2aは撮像部2から出力され、制御部1によって処理された画像データに基づいて、被写体像の中に人物の顔が含まれているか否か、また顔が含まれていた場合には、人物の顔の数、その位置や大きさ等を検出し、検出結果を制御部1に出力する。また、笑顔度等、顔の表情も検出する。なお、顔の検出にあたっては、顔の中の目、鼻、口等のパーツの陰影を抽出し、パターンマッチング法等によって行う。
制御部1は、制御部1内の記憶部(不図示)に記憶されているプログラムに従ってカメラ10の全体のシーケンスを制御する。制御部1は、構図変化判定部1a、トリミング部1b、画像処理部5を有する。構図変化判定部1aは、画面の構図やカメラ10の構え方が変化したか否かを判定する。画面の構図変化の判定にあっては、撮像部2から出力される画像データに基づいて動きベクトル等を利用する。また、カメラ10の構え方については、後述するモーション判定部4の判定出力に基づいて判定する。
トリミング部1bは、撮像部2から出力される画像データの一部を切り出すトリミング処理を行う。画像データの切り出しにあたっては、静止画の撮影に先だって、もしくは静止画の撮影後に撮影された動画の画像データのうち、顔検出部2aによって検出された顔位置から遠い位置や近い部分の複数個所について、トリミング処理を行う。
画像処理部5は、撮像部2から出力される画像データを取り込み、間引き処理、切り出し処理、リサイズ処理、エッジ強調、色補正、ホワイトバランス、画像圧縮等の種々の画像処理を行い、動画のライブビュー表示用、記録部6における静止画および動画の記録用、静止画および動画の再生表示用等の画像処理を行う。画像圧縮・伸張等にあたっては、静止画用圧縮・伸張回路、動画用圧縮・伸張回路等、それぞれの処理に応じて静止画用や動画用の回路を有する。
また、画像処理部5は、静止画撮影の前後で所定時間(例えば、0.5秒〜2秒程度)の間、撮影した動画のフルサイズの画像データ、または画像処理された画像データを、フレーム毎に仮記憶可能である。特に、第1実施形態においては、トリミング部1bによって静止画撮影前に取得した動画の画像データのトリミング処理を行い、この処理された画像データを仮記憶する。このトリミング処理については、図3および図4を用いて後述する。
パラメータ設定部3は、撮像部2における焦点距離を変化させるためのズーム釦、絞り値を設定させるための絞り値設定操作部等によって、撮影パラメータを手動設定し、制御部1に出力する。なお、絞り値等の場合には、測光の結果に応じて自動的に設定されるようにしても良い。パラメータ制御部7は、パラメータ設定部3において手動設定または自動設定された撮影パラメータに基づいて撮像部2の制御を行う。撮影パラメータを制御することにより、露出や画角や背景のボケ(被写界深度)等を調整可能となる。
モーション判定部4は、3次元空間の加速度、すなわち3軸加速度と、3次元空間での回転速度、すなわち3軸角速度の計6軸の物理量を検出する6軸センサ等を有している。このモーション判定部4は、カメラ10の構え方が変わっていないか否かについて判定することができる。
操作部9は、レリーズ釦、パワースイッチ、再生釦、メニュー釦等、種々の操作部材を含み、これらの操作部材の操作状態を判定し、制御部1に判定結果を送る。前述の制御部1は、操作部材の操作状態に応じて、所定のシーケンスで撮影や再生の制御を行う。記録部6は、レリーズ釦によって撮影の指示がなされた際に、撮像部2によって取得され、画像処理部5によって圧縮処理された静止画や動画の画像データを記録する。
表示部8は、カメラ10の背面等に配置された液晶パネルや有機ELパネル等の表示モニタを有し、撮影前のライブビュー表示や、記録済みの画像の再生表示や、カメラ情報の表示等を行う。撮影者はライブビュー表示を観察し、構図やタイミングを決定することができる。時計部11は、計時動作を行い、撮影日時情報を出力する。この撮影日時情報は、静止画や動画の画像データを記録部6に記録する際に合わせて記録する。
次に、図2を用いて画像処理部5の構成の詳細について説明する。画像処理部5は、前述したように、撮像部2から出力される画像データを取り込み、間引き処理やリサイズ処理等の各種画像処理を行うが、ここでは、静止画撮影の前後で撮影した動画の画像データの画像処理に関連する構成を主に説明する。
仮記録部5aは、撮像部2からの画像データを仮記憶するためのメモリであり、静止画の画像データを仮記憶するためのメモリ0と、この静止画の先立つ所定時間、および静止画の後に続く所定時間の間、撮影される動画(連写)の各フレームに対応する画像データをそれぞれ仮記憶するためのメモリ(−n)〜メモリ(−1)、メモリ0、メモリ1〜メモリnを有する。ここで、メモリ(−n)〜メモリ(−1)は静止画の撮影に先立つ所定時間の間の動画を仮記録するためのメモリであり、メモリ0は静止画の画像データを仮記録するためのメモリであり、メモリ1〜メモリnは静止画撮影後の所定時間の間の動画を仮記録するためのメモリである。なお、メモリ(−n)〜メモリnの全てに画像データを記録する必要はなく、このうちの限られたメモリのみを、動画と静止画の画像データの記録に使用するようにしても良い。
時間制御部5hは、時計部11から計時情報を入力し、動画の画像データをフレームの更新時間間隔で、上述の仮記録部5aの各メモリに順次記録するための計時制御を行う。画像データの仮記録を行う時間間隔は、本実施形態としては、撮像部2から出力される画像データの1フレーム間隔となるようにするが、数フレーム間隔となるようにしても良い。
静止画の画像データを仮記憶するためのメモリ0は静止画圧縮部5bに接続されている。静止画圧縮部5bは、JPEG等の画像圧縮を行う。動画(連写)の各フレームの画像データを記憶するメモリ(−n)〜メモリ(−1)、メモリ1〜メモリnは、効果処理部5eに接続されている。
効果処理部5eは、入力した動画の画像データに対して画像効果が生ずるような画像処理を行う。動画圧縮部5fは効果処理部5eによって画像処理された画像データを、MPEG4やモーションJPEG等による動画圧縮を行う。
接続データ部5gは、動画圧縮部5fによって生成された動画の画像データと、静止画圧縮部5bによって生成された静止画の画像データを結合し、両画像データを連続的に再生するための接続情報を生成する。接続データ部5fによる接続情報と、静止画圧縮部5bからの画像データと、動画圧縮部5gからの画像データは、記録部6に送られ、1つの画像ファイルとして記録される。もちろん、別ファイルで記録しておき、それを関連付けた情報を静止画又は動画ファイルに記録するようにしても良い。また、時刻情報でこれを代用することも可能である。記録部6に記録された画像データの再生にあたっては、再生速度を速めたり、逆にゆっくりさせ、早送りやスローモーションで再生を可能としている。また、1秒に何コマ撮影するかによっても、仮記録部5aのメモリの容量が、何秒相当であるかは変化する。このように自由度をもって使用するメモリである。
次に、図3を用いて、本実施形態における画像の撮影と再生について説明する。撮影時には画像21a〜21dの順に撮影を行うが、この中で、画像21dが静止画像であり、画像21a〜21cは静止画の撮影に先だって撮影された動画である。撮影者は被写体22の撮影を意図して静止画で画像21dを取得するが、再生時に最初から画像21dを表示するのでは、鑑賞する際にどんな画像が表示されるのかを楽しむ時間がなく、期待感を高めることができない。
そこで、本実施形態においては、被写体22の顔を含めて全体を最初から再生表示するのではなく、顔以外の部分を最初に表示し、次第に全体像が見えるようにしている。具体的には、撮影時に記録された画像データの中から、最初に手の部分を拡大した画像21aを読み出しこれを表示し、続いて、手の部分を含む広めの範囲の画像21bを読み出しこれを表示し、次に顔の部分を拡大した画像21cを読み出しこれを表示し、最後に、被写体22の全体が写っている画像21dを読み出しこれを表示する。鑑賞者は何が(誰が)写っているのか早く知りたいという期待感を持っていることから、その心理を利用して効果的な再生表示を行うことができる。すなわち、誰が写っているかや、どんな表情をしているかといった鑑賞者が気になる部分をなかなか分からないようにし、期待感を高めるようにしている。このとき、動画特有の表情変化を併用することにより、例えば、口元が微笑んだ瞬間の動きを示すことにより、誰が写っているかを知りたいという欲求を高める演出ができる。
本実施形態におけるカメラ10は、このような再生表示を行うに適した画像データの記録を行う。勿論、画像21dのように全体が写っている画像データから画像21a〜21cの画像を切り出すようにしてもよいが、それでは表情の変化がない画像となり、面白みに欠けるので、本実施形態においては、動画表現で再生するようにしている。
次に、本実施形態におけるカメラ10の撮影動作について、図3に示すフローチャートを用いて説明する。動画撮影のフローに入ると、まず、撮影を行うか否かの判定を行う(S1)。撮影者が表示部8のライブビュー表示を観察し、構図を決定すると、操作部9中のレリーズ釦を操作するので、ここではレリーズ釦が操作されたか否かを判定する。
ステップS1における判定の結果、撮影でなかった場合には、次に、ステップS2〜S4において、前述の画像21a〜21cに相当する画像の取得を行う。まず、顔の下部1についてトリミング撮影を行う(S2)。ここでは、被写体22の顔の部分より下にある部分、この例では手の部分について、フルサイズの画像データ(例えば、12M(1200万画素))から、トリミング部1bによって2M(200万画素)でトリミングを行い、画像21aに対応する画像データを仮記録部5aのメモリに仮記録する。ここで、画素数として2Mとしたのは、ハイビジョン画像で再生表示する場合を想定した画素数であるが、想定再生表示装置に応じて、異なる値としても良い。トリミング処理を行う際に、表示部のサイズに抑えるようにしているのは、表示時に画面いっぱいに無駄なく表示できるようにするためであり、演出によって画面の半分のサイズで良い場合には、画像データもこの半分で良い。サイズが小さい方が取り扱いやすく、トリミングの位置を移動させる際の自由度も大きくできる。サイズが大きいと表示しきれず無駄になる。
続いて、顔の下部2についてトリミング撮影を行う(S3)。ここでは、顔の下部1より上側でかつ下部1の範囲より広い範囲、この例では、手の部分を含み下部1より広げた部分について、フルサイズの画像データから2Mでトリミングを行い、画像21bに対応する画像データを仮記録部5aのメモリに仮記録する。この下部2について撮影を行うと、次に、顔の下部3についてトリミング撮影を行う(S4)。ここでは、顔の下部2より上側でかつ下部2の範囲とほぼ同程度の範囲、この例では、顔の部分をふくむ拡大された部分について、フル画像データから2Mでトリミングを行い、画像21cに対応する画像データを仮記録部5aのメモリに仮記録する。仮記録が終わるとステップS1に戻る。
このように、ステップS2〜S4において、フルサイズの画像データから一部分(下部1〜3)を切り出すトリミング処理を行っているが、ここで重要なのは、各画像の連続性である。本実施形態においては、次第に顔の部分が見えるようにしているので、画像21cにおける顔と画像21dにおける顔の大きさを比較すると、顔の大きさが小さくなる方向(拡大→縮小)に変化している。したがって、画像21a〜21cにおいても、拡大→縮小の関係が乱されない方がよい。ただし、画像21bから画像21cに移る場合には、拡大率の変化がない状態でトリミング位置のみをシフトさせている。このように拡大率は一定の方向に変化するようにしているが、トリミング位置の変化も一定の方向に移動し、逆転しない方が良い。
ステップS1における判定の結果、撮影であった場合には、次に静止画の撮影を行う(S11)。ここでは、撮像部2から出力される静止画のフルサイズの画像データ(12M(1200万画素))を記録部6に記録する。
静止画の撮影を行うと、次に、不要画像の削除を行う(S12)。ここでは、ステップS2〜S4において、仮記録部5aに仮記録された画像データのうち、最終的に記録部6に記録する画像データ以外を削除する。ステップS2〜S4におけるトリミング撮影は、ステップS11における静止画撮影を行うまで、繰り返し行われており、記録部6に記録されるトリミング画像は静止画撮影の行われた直近の画像のみである。そこで、ステップS12においては、記録部6に記録されなかったトリミング画像等の削除を行っている。なお、仮記録される仮記録部5aの最大記録容量を超えたトリミング画像については、ステップS2〜S4の処理中に削除されている。不要画像の削除を行うと、動画撮影のフローを終了する。
このように顔下部1,2、3のトリミング画像および静止画像の画像データが記録されることから、再生時には、顔下部1→顔下部2→顔下部3→静止画の順に画像データを読み出し、再生表示する。すなわち、部分から初めて、部分を移動しながら、最後にレリーズ時の全体画像を表示することができる。本実施形態においては、顔の下の部分を最初にトリミングし、トリミングの位置を顔の位置に向けて上に移動させていった。これは、顔の上から初めると、その人と無関係な空などから始まり、期待感を高めることが難しい場合が多い。一般的に、人物が立っていたり、座っている場合を想定し、その人物に関連する部分を優先するようにした観点から、顔の下を最初にトリミングするようにした。人物の輪郭情報や肌の色の情報を利用し、手や足等の部位に沿って、トリミングする位置を移動させ、期待感を高めるようにしても良い。なるべく、表情の変化を表示してから、顔全体を表示するようにしたいので、顔全体を表示する前に、目や口等、表情によって変わりやすい部分を大きく見せることが好ましい。また、同じ人物が写っている写真集の場合には、誰が写っているのかが分かっており、表情の変化も単調になりがちなる。そこで、同じ人物が続くような場合には、顔以外で、色が鮮やかなものから、顔にトリミング位置をずらすような制御を行うようにしても良い。なお、トリミングして切り出された画像は、リサイズを行い、表示部に収まるようにする。
図3を用いて説明した動画撮影および静止画撮影における画像の仮記録および最終記録の関係について、図4を用いて説明する。図4の「撮像(フル)」に対応するラインには、時刻T1〜時刻T8における撮像されたフルサイズの画像データを示している。この画像データを基に制御部1および画像処理部5はライブビュー画像を生成し、表示部8に表示している。ライブビュー画像は、表示部8の画素数に応じた画素数にリサイズまたは間引き処理により生成している。
また、フル画像データに基づいてトリミング処理を行うことにより、仮記録用のトリミング画像データを生成している。図4に示すように、1コマ分のフルサイズの画像データから画面内の3か所のトリミング画像を生成し、このトリミング画像を仮記録部5aに仮記録している。なお、本実施形態においては、トリミング画像の画像データの画素数は、前述したように2Mである。
図4の例では、時刻T8において静止画の撮影が行われている(図3におけるS11のタイミングに対応)。このタイミングにおいて取得された静止画フル画像データ24dが、記録部6に最終記録される。また、時刻T8の直近である時刻T5〜T7において仮記録されたトリミング画像も、記録部6に最終記録される。トリミング画像の画像データを最終記録するにあたっては、時刻T5で仮記録されたトリミング画像データ23a、時刻T6で仮記録されたトリミング画像データ23b、時刻T7で仮記録されたトリミング画像データ23cが、それぞれ最終トリミング画像データ24a、24b、24cとして最終記録される。これ以外の、時刻T1〜時刻T4において仮記録されたトリミング画像データ、また時刻T5〜時刻T7において仮記録されたトリミング画像データ23a〜23c以外のトリミング画像データは不要画像として削除される。
このように本実施形態におけるカメラ10によれば、時刻T8において静止画を撮影すると、その直近に仮記録されたトリミング画像データが最終画像として記録される。このため、最終記録された画像データを再生することにより、図3を用いて説明したような被写体22の部分から再生を開始し、最後に被写体22の全体画像で終わる表示となる。このため、動画と静止画を組み合わせ、変化に富んだ多彩な画像を、簡単に誰でも撮影し、また再生表示することができる。
なお、トリミング画像の画像データをフルサイズの画像データから生成していた。トリミングにあたっては、画像データの一部を切り出すので、基となる画像データは画素数が大きい方が望ましいが、想定表示装置の画素数等を考慮して問題がなければ、必ずしもフルサイズの画像データではなく、リサイズや間引きされた画像データを用いても構わない。また、フルサイズの画像データを最終記録した場合であっても、表示する画面に従ってリサイズが必要になることは言うまでもない。静止画をフルサイズで記録するのは、印刷や部分拡大のためであって、本実施形態のように動画の効果付きで、カメラの液晶モニタ、テレビ、携帯電話等の表示部で再生表示する場合には、表示部のサイズに応じてリサイズを行う。また、本実施形態においては、静止画に対する期待感を高める例を示しているが、動画において人物が登場する場合においても期待感を高めるテクニックとして本実施形態を応用することができる。この場合には、静止画ではなく、動画を続けて撮影すれば良い。
本実施形態においては、静止画撮影前の動画からトリミング画像を生成しているので、顔画像の表情変化を再生することが可能となっている。このため顔画像の表情変化がはっきりと見えた方が楽しい画像となる。そこで、静止画撮影の直前である時刻T7において顔の部分の表情変化を捉えることのできるような画像データの取得が望ましい。また、表情変化の時間(図4中の表情変化時間Tf)に応じて、時刻T5、T6のタイミングを決定するようにしても良い。
このような下部3における顔画像の表情変化の面白さを活かした画像の再生を行うための不要画像削除のフローを、図5を用いて説明する。このフローはステップS12(図3参照)のサブルーチンであり、また、本フローを実行するにあたって、ステップS4(図3参照)における顔の下部3のトリミング撮影時に、表情変化時間Tfを予め計測し、この時間Tfを記憶しておく。なお、表情変化時間Tfとしては、例えば、真顔から笑顔になるまでの時間であり、顔検出部2aは顔部を検出すると共に顔の表情も検出可能とし、このときの表情変化を求める。このように、撮影前に顔の表情をモニタすることができ、顔の表情の笑顔データの最高値の情報が記録部に記憶してあれば、ユーザがレリーズ操作を行わなくても、自動的にレリーズを行うことができる。この場合には、最高の笑顔を最終画像として記録することができ、かつ、その笑顔に到るまでの表情変化も捉える撮影を誰にでも可能となる。構えているだけで良いことから、初心者にも魅力的な動画撮影を行える。なお、表情変化時間Tfの測定は、後述するように、撮影後に行っても良い。この場合、ユーザの好みに従った表情を選択することができるが、必ずしも、その直前に表情が変化しているわけではないので、表情変化なしの前の表情変化部分を探し、撮影までの時間をTfとする。
不要画像削除のフローに入ると、まず、撮影直前の顔の下部3の表情変化を検出する(S21)。これは、例えば、下部3に対応する時刻T7における被写体22の顔のトリミング画像と、その直前の時刻T6における被写体22の顔のトリミング画像を比較し、表情に変化があるか否かを判定する。なお、時刻T6〜T7までの間の時間で更に多数の画像データを記憶している場合には、これらの画像を比較するようにしても良い。
続いて、表情変化が有ったか否かを判定する(S22)。ステップS21で表情変化を検出しているので、この検出結果に基づいて判定する。この判定の結果、表情変化があった場合には、表情変化時間を計測し、これをTfとする(S23)。この表情変化時間Tfを用いて、ステップS24以下において、表情変化が有った場合には、下部1、2、3の画像の表示時間を制御する。
表情変化時間Tfを求めると、次に、表情変化時間Tfが1秒より長いか否かを判定する(S24)。この判定の結果、表情変化時間Tfが1秒より長い場合には、表情変化時間Tfだけ顔の下部3の画像を表示可能にする(S25)。続いて、表情変化時間Tfが3秒より短いか否かを判定する(S26)。この判定の結果、表情変化時間が3秒より短かった場合には、表情変化時間Tfの時間だけ顔の下部1の画像を表示可能にし(S27)、表情変化時間Tfの時間だけ顔の下部2の画像を表示可能にする(S28)。これによって、それぞれの下部1、2、3の画像、すなわち、最終トリミング画像データ24a〜24cに基づいて表示される画像の表示時間が表情変化時間Tfとなり、この表情変化時間Tfが表示時間としてトリミング画像の画像データと共に最終記録される。被写体22の表情が変化する時間と同じ時間間隔でトリミング画像が変化し、魅力的な表情変化の過程を楽しむことができる。
一方、ステップS22における判定の結果、撮影直前の顔の下部3に表情変化がなかった場合には、顔の下部1、2、3の画像をそれぞれ1秒間、表示可能とする(S31)。表情変化がない場合であっても、再生表示の際の期待感を高めるために、各トリミング画像を1秒間ずつ再生表示するようにしている。
また、ステップS26における判定の結果、表情変化時間Tfが3秒より長かった場合には、顔の下部1、2、3の画像をそれぞれ1秒間、表示可能とする(S32)。表情変化に時間が長くかかる場合に、この表情変化時間Tfの間隔でトリミング画像を変化させるとすると、画像表示の時間が長くなりすぎることから、この場合には1秒間隔としている。
前述のステップS28、S31、S32を実行すると、次に、それ以外の画像を削除する(S29)。ここでは、最終記録に残した画像以外の仮記録部5aに仮記録された画像を削除する。画像削除が終わると、元のフローに戻る。
このように、本フローにおいては、トリミング画像を再生表示する時間を画像データと共に記録しているので、再生表示にあたっては、この記録されている再生時間の間、トリミング画像が表示される。特に、表情変化時間Tfで再生される場合には、真顔から笑顔に変化するのに要した時間と同じ時間で表情変化することが期待感を高めると共に臨場感あふれる画像再生となる。なお、本フローにおいては、表情変化時間Tfと比較する時間として、1秒および3秒を用いているが、これは例示であり、期待感を高めると共に臨場感あふれる画像再生を行う時間であれば、これに限らない。
次に、最終記録されたトリミング画像(図4参照)を、表示部8に設けたサブ画面において表示する例について図6を用いて説明する。表示部8のメイン画面8aの脇に、図6(a)に示すようにサブ画面8bを設け、このサブ画面8bに最終記録されたトリミング画像と、静止画像を表示させるようにしている。すなわち、サブ画面8bには、トリミング画像26a〜26cを表示すると共に、静止画像26dを表示する。このように、サブ画面8bに撮影結果を表示するようにすることにより、効果を確認することができる。なお、静止画撮影前に仮記録部5aに記録されているトリミング画像を順次、読み出して表示するようにしても良い。この場合には、静止画像を表示することはできないが、トリミング画像を事前に予想することができる。
また、図6(b)に示すように、サブ画面8cに画像を1つのみ表示可能とし、このサブ画面8cにトリミング画像や静止画像を順次再生表示するようにしても良い。この場合には、実際の再生表示と同じように時系列的に画像を再生表示することから、静止画像が表示されるまでの期待感を味合うことができる。
次に、本発明の第1実施形態の変形例について、図7を用いて説明する。第1実施形態においては、時刻T1〜T8においてフル画像データから、表示部8における表示用の画像データと、仮記録部5aに仮記録するトリミング画像の画像データの両方を生成していた。しかし、この変形例においては、時刻T11、T13、T15において間引きで撮像を行い、この時の画像データを用いて表示用の画像データを生成している。また時刻T12、T14、T16においてはフルサイズで画像データを取得し、この画像データを用いて、トリミング画像の画像データを生成するようにしている。
表示部8のフレームレートに応じてフルサイズを撮像し、このフル画像から表示用の画像データと仮記録用のトリミング画像の両方を、高速で生成することができない場合には、本変形例のようにフルサイズの画像データを離散的に取得し、スピードを稼ぐようにすれば良い。この場合もフルサイズの画像データから生成したトリミング画像の画像データを仮記録部5aに仮記録する。そして、時刻T18において静止画の画像データを最終記録し、またこの直近(時刻T12、T14、T16)の仮記録されたトリミング画像の画像データを最終記録する。
以上、説明したように、本発明の第1実施形態およびその変形例においては、静止画の撮影に先だって、動画(連写)で画像データを取得し、その画像データの複数個所についてトリミングし、トリミングされた複数の画像データを仮記録している。そして、静止画を撮影した際に、静止画のフルサイズの画像データと共に、直近の仮記録されたトリミング画像の画像データの中から選択した画像データを記録部6に最終記録している。
このように記録された画像データを再生すると、いきなり被写体全体が再生表示されるのではなく、被写体の一部が再生表示されてから全体が再生表示される。このとき表情の変化などを記録し、その時の表情を表すことができる。このため、被写体全体が表示されるまでの間、画面の一部だけを拡大して見て、表情なども楽しみながら、何が(誰が)写っているのを予想したり空想しながら、期待感を高めることができる。なお、この技術を画面推移時に応用することができ、静止画撮影のみならず、動画のカット割りのトランジションにも使用することができる。また、期待感だけでなく、名残惜しさを表すために、画像表示を終わるときに、この動画部を利用してもよい。このとき露出補正が画像処理を併用してもよい。また、本実施形態においては、動画(連写)を仮記録するにあたって、トリミング画像の画像データを仮記録することから、フル画像データを仮記録する場合に比較し、仮記録部5aの容量を減らすことができる。
次に、本発明の第2実施形態について、図8ないし図10を用いて説明する。第1実施形態は、各時刻においてフルサイズの画像データからトリミング画像を生成し、このトリミング画像を仮記録していた。これに対して、第2実施形態においては、フルサイズの画像データを毎時刻、あるいは毎フレームにおいて仮記録し、静止画を撮影した時点において、仮記録したフルサイズの画像データから所定部分をトリミングして最終記録するようにしている。
第2実施形態の構成は、図1及び図2に示した第1実施形態と同様であることから、詳しい説明を省略する。ただし、仮記録部5aの動画記録用メモリは第1実施形態においてはトリミング画像の画像データを仮記録していたが、本実施形態においては、フルサイズの画像データを仮記録する点は相違する。
本実施形態においては、図8に示すように、各時刻T21〜T27において、撮像部2はフルサイズで画像データを取得し、このフルサイズの画像データをリサイズして表示用の画像データを生成している。また、フルサイズの画像データを毎時刻あるいは毎フレーム、仮記録している。時刻T28において、静止画の撮影が行われると、その直近である時刻T25〜T27で仮記録したフルサイズの画像データから所定部分のトリミングを行う。このとき生成されたトリミング画像の最終トリミング画像データ28a〜28cと、撮影時の静止画フル画像データ28dを記録部6に最終記録する。
また、トリミングにあたって、トリミング枠29a〜29cを、被写体の顔から遠い部分(この例では手の部分)から、顔の部分に向けて移動させると共に、トリミング枠29bはトリミング枠29aよりも大きく、トリミング枠29bとトリミング枠29cは同じ大きさとしている。
なお、トリミング画像を生成する際にフェードインとなるようにしても良い。すなわち、静止画の画像がはっきりするように、トリミング画像データ28aは露出オーバーとなるように露出補正を施し、静止画フル画像データ28dにおいて適正露光となるようにする。露出補正はパラメータ制御部7または画像処理部5によって行う。
このように第2実施形態においては、最終トリミング画像データ28a、28b、28cおよび静止画フル画像データ28dが記録部6に記録されるので、再生時には、まず最終トリミング画像データ28a→最終トリミング画像データ28b→最終トリミング画像データ28cの順に読み出し、これを順次再生する。そして、最後に静止画フル画像データ28dを読み出し、再生表示を行う。このため、被写体の部分が先に再生され、被写体の部分が移動しながら、最後に被写体全体が再生表示される。
図8における説明では、トリミング画像は3つであったが、これより多いトリミング画像を生成し、滑らかに移動するように再生できるようにしても良い。図9に示すトリミング範囲のフローチャートは、3つに限らず、多数のトリミング画像を生成するためのフローである。第2実施形態における動画撮影のフローは、図3に示した第1実施形態におけるフローにおいて、ステップS2〜S4に対応するステップおいて、フルサイズの画像データを仮記録する。この仮記録する画像データは、仮記録部5aのメモリに仮記録できるだけの数とする。そして、ステップS1において撮影の指示がなされると、ステップS11において静止画を撮影する。図3のステップS12の不要画像削除のサブルーチンを、図9に示すトリミング範囲のサブルーチンに置き換える。
トリミング範囲のフローに入ると、まず、顔検出を行う(S41)。このステップでは、仮記録部5aのメモリ0に仮記録された静止画の画像データについて、顔検出部2aによって顔が含まれているか否かを検出する。続いて、顔の大きさ(D)の検出を行う(S42)。このステップでは、顔検出部2aによって顔が含まれていることを検出した場合に、その顔の大きさを検出し、この検出した大きさをDとする。次に、顔の位置を検出する(S43)。このステップでは、顔検出部2aによって、検出された顔の位置を検出し、検出された顔位置を(Xf、Yf)とする。
続いて、位置指定があるか否かの判定を行う(S44)。ここでは、トリミング画像の初期位置について、ユーザがマニュアルで指定したか否かを判定する。位置指定の仕方としては、例えば、図6(b)に示すように、メイン画面8aに静止画を表示した際に、トリミング画像の初期位置をタッチすることにより指定すれば良い。この場合、ユーザのタッチ操作は図示しないタッチパネル等によって検出する。また、十字釦等の操作によりカーソルを移動させ、OK釦等によって位置を確定するようにしても良い。
ステップS44における判定の結果、位置指定があった場合には、次に、指定位置中心を求める(S45)。このステップでは、タッチパネルや十字釦等によって指定された画面上の位置の座標を求め、これを(X1、Y1)とする。続いて、指定された位置座標(X1、Y1)において、表示部と同じサイズ(d)で画像の大きさを決める(S46)。このステップでは、サイズdとしては、例えば、ハイビジョン画像での表示を想定して、2M程度とするが、想定表示部に合わせて異なる値でも良い。
ステップS44における判定の結果、位置指定がなかった場合には、次に、顔から遠い位置で表示部と同じサイズ(d)の画像を決める(S51)。顔から遠い位置、言い換えると顔から離れた位置の中心座標は次のステップS52において決定するが、遠い位置としては、人物の部分で、顔以外の部分、例えば、手のような特徴的部分であってその中で一番遠い部分を画像解析により決めれば良い。この顔から遠い位置の決め方は、この方法に限らず、期待感を盛り上げるように、顔と異なる位置から移動させるものであれば良い。他の例については、図10を用いて後述する。また、ステップS46で述べたことと同様に、表示部と同じサイズdでとリンミグ画像の大きさを決める。トリミング画像の大きさとしてハイビジョン画像と同じであれば2Mとする。続いて、その画像の中心座標(X1、Y1)を決める(S52)。ここでは、ステップS51において、顔から遠い位置を求めているので、その位置の中心座標を求める。
ステップS52において中心座標を求めると、またはステップS46においてサイズdを決めると、次に、座標(X1、Y1)でサイズdの画像をトリミングする(S53)。ここではフルサイズの画像データから、座標(X1、Y1)を中心にサイズdで、トリミング部1bによってトリミングを行う。
ステップS53においてトリミング処理を行うと、次に、現在位置が顔位置にあるか否かの判定を行う(S54)。トリミング処理は最初、座標(X1、Y1)を中心位置として行うが、後述するように、ステップS64において座標を移動させている。このステップS54においては、現在位置が顔位置(Xf、Yf)に達したか否かの判定を行う。
ステップS54における判定の結果、顔位置でなかった場合には、次に、顔の大きさDがトリミング画像のサイズdよりも大きいか否かを判定する(S61)。この判定の結果、顔の大きさDが画像のサイズdよりも小さかった場合には、次に、サイズdを(d+Δd)にする(S63)。すなわち、サイズdをΔdだけ大きくする。これは、トリミングを最初、行う場合には、トリミング画像の大きさがdであるが、最後には顔の大きさDと一致するように、トリミング画像の大きさをΔdずつ徐々に広げるためである。
ステップS61における判定の結果、顔の大きさDが画像のサイズdよりも大きかった場合には、画像のサイズdを顔の大きさDに固定する(S62)。これは、トリミング部分が顔のサイズより大きくならないようにするためである。画像のサイズdが顔のサイズDよりも大きくなると、顔が縮小し表情変化よりも大きさの変化の方が気になってしまうことを防止している。これによって画面上の顔の大きさを変えずに、表情を楽しむことができる。本実施形態においては、画像の全体を見せるまえに動画で部分を見せるようにしている。つまり、最初に顔以外を見せるようにし、また顔を見せる場合には表情の変化を大きく見せる等の工夫を行っている。したがって、顔のアップから全体という構図変化(望遠からワイド方向)が重視されているので、顔以外のものから顔を見せる場合も、その方向を揃えるようにし、自然なズーミング効果を狙っている。しかし、さらに画面変化を求める場合には、必ずしもこのような制約はなくても良い。
ステップS62において画像サイズdをDに固定すると、またはステップS63において画像サイズをd+Δdにすると、次に、トリミング画像の初期位置(X1、Y1)から、顔の位置(Xf、Yf)に向けて近づけていく(S64)。すなわち、トリミング画像の中心位置を少しずつ移動させていく。この場合の移動速度は、トリミング初期位置から、顔位置まで、0.5秒ないし2秒程度の時間で移動できる程度の速度とするが、ユーザの好みでこれよりも遅くても早くても良い。
続いて、その移動位置で、その画像サイズでトリミングを行う(S65)。ここでは、フルサイズの画像データからステップS64において決定した位置において、かつステップS62若しくはS63において決定した画像サイズで、トリミング部1bがトリミングを行い、トリミング画像の画像データを記録部6に最終記録する。トリミングを行うと、ステップS54に戻り、顔の位置に達するまでは、画像サイズdやトリミング位置を変えながら、トリミング処理を繰り返す。ステップS54における判定の結果、顔位置に達すると、トリミング範囲の処理を終了し、元のフローに戻る。
このように、トリミング範囲のフローにおいて、フルサイズの画像データから、ステップS45またはS52において決定された中心位置(X1、Y1)から顔位置(Xf、Yf)まで、画像サイズを変化させながら、トリミング画像を切り出し、この切り出されたトリミング画像の最終記録を行っている。このフローでは、トリミング画像を3コマに限らず、多数のトリミング画像を容易に生成することができるので、初期位置(X1、Y1)から顔位置(Xf、Yf)までの間を滑らかに滑るようにトリミング画像を生成することができる。
また、本フローでは、ステップS63においてトリミング画像のサイズを変更してから、ステップS64において、顔に近づけるようにしている。これは、最後に顔のアップに相当する枠サイズに揃えた状態で、表情の変化を楽しめるようにしたものである。また、先に顔位置に移動させてからトリミング画像のサイズを変更すると、最初からその人物の正体が分かってしまい、期待感をもたせることができない。そのため顔の位置にトリミング画像を移動させるのを最後にした。しかし、逆の効果を求めるシーンやユーザもいることから、ステップS61とS54の関係を逆にしても良い。
なお、トリミング範囲のフローは、撮影中に実行するものとして説明したが、再生時に実行することも可能である。すなわち、記録部6には静止画撮影前の所定時間内の動画(連写)のフルサイズの画像データを記録しておき、再生時に図9に示すトリミング範囲のフローを実行することにより、トリミング画像を切り出し、この切り出されたトリミング画像を順次再生表示すれば良い。また、撮影前に仮記録部5aに記録される画像データはフルサイズとしたが、想定再生装置の表示部の画像サイズを考慮の上、フルサイズよりも小さな画像データでも良い。
次に、ステップS51における顔から遠い位置の決め方の他の例について、図10を用いて説明する。遠い位置として画像解析を行い、手の部分等、特定位置を決める場合のほか、単純に人物の中で顔から一番遠い部分を選択する方法がある。この場合、顔の位置から十分遠いと、初期位置から顔の位置に移動するに要する時間がかかり、鑑賞する際に飽きてしまうおそれがある。そこで、この例では、鑑賞した際に期待感を抱かせるような効果を生ずるようにトリミングの開始位置と枠移動の速度を決めている。
図10(a)は、動画を撮影している際の全体画像29aと、その時のトリミング画像29b〜29dを示す。この場合も前述の実施形態と同様、顔から遠い部分から顔の部分に向けてトリミング画像を移動させている。トリミング画像29cでは、被写体の顔の部分の下側が見えており、この状態では笑っていない。しかし、トリミング画像29bでは被写体の顔全体が見えており、この状態では笑っている。このように笑っていない状態から笑った状態になるまでの時間Tfを計測する。顔の端部から顔の中心までの距離差(約D/2)(ここで、Dは顔の大きさ)を、時間Tfで除算すると、移動速度vが算出できる。この移動速度vで所定時間(例えば、約2秒間)、移動した位置をトリミング開始位置とすれば、被写体の表情変化にタイミングを合わせたトリミング画像と静止画の再生表示を行うことができる。
このようなトリミング位置と表情変化の様子を図10(b)(c)に示す。図10(b)は、縦軸にトリミング位置を、横軸に時間経過をとり、時間と共にトリミング枠が移動していく様子を示している。また、図10(c)は、縦軸に数値化した表情を、横軸に時間経過をとり、時間と共に人物の顔の表情が変化していく様子を示している。ここで表情は、目の大きさの変化や、口の端部の上がり具合等を数値化する。この数値が高いほど、笑顔度が高くなるので、この数値の変化が大きい部分は、笑顔になっていく過程であり、この変化が大きいときの時間Tfを求め、この時間Tfの間にちょうど、顔の下端部から顔の中心にトリミング枠が移動するようにトリミングライン29eを決めれば良い。
このようにしてトリミング開始位置とトリミング枠の移動速度を決定することにより、被写体の顔の表情変化を楽しむことができる。また、トリミングを行っていることから、表情変化を拡大して表示することができる。なお、被写体によっては表情変化がない場合があり、この場合には、顔以外の場所の撮影位置の変化によって、画面に変化をつけることによって、期待感を高めるようにすれば良い。なお、この例は、第2実施形態に限らず、第1実施形態においても利用することができる。すなわち、この例では表情変化をモニタしているが、第1実施形態において、表情変化が有った場合に撮影を自動的に行ったり、また、撮影のチャンスであることを表示するようにしても良い。
以上、説明したように、本発明の第2実施形態およびその変形例においては、静止画の撮影に先だって、動画(連写)で画像データをフルサイズ等で取得し、そのまま仮記録している。そして、静止画を撮影した際に、直近のフルサイズ等の動画の画像データからトリミング画像の画像データを生成し、この生成された画像データと、静止画の画像データを記録部6に最終記録している。
このように記録された画像データを再生すると、第1実施形態の場合と同様、いきなり被写体全体が再生表示されるのではなく、被写体の一部が再生表示されてから全体が再生表示される。このため、被写体全体が表示されるまでの間、何が(誰が)写っているのを想像することができ、期待感を高めることができる。
また、本実施形態においては、フルサイズ等の画像データを仮記録することから、トリミング画像を仮記録する場合に比較し、大容量の仮記録部5aが必要となる。しかし、静止画撮影後にトリミング画像を生成する際の自由度が高く、期待感を更に高めた画像を得ることができる。
さらに、本実施形態においては、静止画撮影後にトリミング画像を生成せずに、画像を再生する際に、トリミング画像を生成するようにしても良い。この場合、再生用のトリミング画像の生成は、カメラで行っても良く、例えば、パーソナルコンピュータ等の画像再生装置において行っても良い。
次に、本発明の第3実施形態について、図11ないし図14を用いて説明する。第1および第2実施形態においては、静止画の撮影に先だって、常時、動画(連写)を仮記録部5aに仮記録していた。この第3実施形態においては、静止画の撮影後に、動画(連写)を撮影し、このとき得られた動画の画像データからトリミング画像を生成し、これを記録するようにしている。
第3実施形態の構成は、図1及び図2に示した第1実施形態と同様であることから、詳しい説明を省略する。ただし、仮記録部5aの動画記録用メモリは第1実施形態においては静止画撮影前に画像データを記録していたが、本実施形態においては、仮記録を行わないので、仮記録部5aを省略することができる。
図11を用いて、本実施形態における画像の撮影と再生について説明する。撮影時には画像31a〜31dの順に撮影を行うが、この中で、画像31aが静止画像であり、画像31b〜31dは静止画の撮影後に撮影された動画(連写)である。
本実施形態においても、被写体22の顔を含めて全体が写っている静止画像31aを最初から再生表示するのではなく、顔以外の部分を最初に表示し、次第に全体像が見えるようにしている。すなわち、最初に手の部分を拡大したトリミング画像31bを表示し、続いて、手の部分を含む広めの範囲のトリミング画像31cを表示し、次に顔の部分を拡大したトリミング画像31dを表示し、最後に、被写体22の全体が写っている静止画像31aを表示する。本実施形態においても、何が(誰が)写っているのか早く知りたいという鑑賞者の期待感を利用して効果的な再生表示を行うことができる。
次に、本実施形態におけるカメラ10の撮影動作について、図11に示すフローチャートを用いて説明する。動画撮影のフローに入ると、まず、ステップS1と同様に、撮影を行うか否かの判定を行う(S71)。動画撮影のフローに入ると撮像部2の出力に基づいて、ライブビュー画像が表示されており、撮影者が構図を決め、静止画を撮影する場合には、レリーズ釦を操作するので、ここではレリーズ釦が操作されたか否かを判定する。
ステップS1における判定の結果、撮影でなかった場合には、待機状態となり、ライブビュー画像を表示した状態で、レリーズ釦が操作されるのを待つ。一方、ステップS71における判定の結果、撮影となると、静止画の撮影を行う(S72)。ここでは、撮像部2から出力される静止画の画像データをフル画像データ(12M(1200万画素))で記録部6に記録する。この画像は、前述の静止画像31aに相当する。
静止画の撮影を行うと、次に、顔の下部1についてトリミング撮影を行う(S73)。ここでは、被写体22の顔の部分より下にある部分、この例では手の部分について、フル画像データから、トリミング部1bによって2M(200万画素)でトリミングを行い、画像31bに対応する画像データを記録部6に最終記録する。なお、画素数として2Mとしたのは、第1実施形態の場合と同様に、ハイビジョン画像で再生表示する場合を想定した画素数であり、想定再生表示装置に応じて、異なる値としても良い。
続いて、顔の下部2についてトリミング撮影を行う(S74)。ここでは、顔の下部1より上側でかつ下部1の範囲より広い範囲、この例では、手の部分を含み下部1より広げた部分について、フルサイズの画像データから2Mでトリミングを行い、画像31cに対応する画像データを記録部6に最終記録する。この下部2について撮影を行うと、次に、顔の下部3についてトリミング撮影を行う(S75)。ここでは、顔の下部2より上側でかつ下部2の範囲とほぼ同程度の範囲、この例では、顔の部分をふくむ拡大された部分について、フルサイズの画像データから2Mでトリミングを行い、画像31dに対応する画像データを記録部6に最終記録する。この記録が終わるとこのフローを終了する。
このように、第3実施形態においても、ステップS73〜S75において、フルサイズの画像データから一部分(下部1〜3)を切り出すトリミング処理を行っているが、ここも各画像の連続性が重要である。そのため、トリミング画像においても顔の大きさが小さくなる方向に変化させ、また、トリミング位置の方向も一定の方向に変化することが望ましい。以上の説明では、ステップS73〜S75においてトリミング画像を最終記録していたが、一旦、仮記録部5aに仮記録した後、まとめて記録部6に最終記録するようにしてもかまわない。
図12は、動画撮影および静止画撮影された画像データの表示および記録の仕方を示す。時刻T55が静止画撮影のタイミングであり、その前の時刻T51〜T54は静止画撮影前であり、時刻T56〜T58は静止画撮影後のトリミング処理のタイミングである。時刻T51〜T54においては、撮像部2から出力される画像データは、表示部8においてライブビュー表示されるだけである。この間においては、撮像部2からの画像データは間引き処理された後、表示部6に送られるだけで、第1、第2実施形態のように画像データの仮記録は行われない。
時刻T55において、静止画のフルサイズの画像データが記録部6に最終記録される。次に、時刻T56〜T58において、フルサイズの動画の画像データからトリミング範囲が切り出され、このトリミング画像の画像データが記録部6に最終記録される。また、このとき生成されたトリミング画像の画像データに基づいて、表示部8に表示される。
このように、第3実施形態においては、静止画像31aを撮影後、順次、動画からトリミング画像31b、31c、31dの画像データを生成し、記録部6に最終記録を行っている。そして、再生表示する際には、トリミング画像31b→31c→31d→静止画像31aの順に再生を行う。このため、静止画撮影前に、常時、動画の仮記録を行う必要がなく、構成を簡単にすることができる。なお、トリミング画像の生成の順番は、顔に遠い位置から生成しており、この順番は時系列の方向であることから、再生時に違和感が少ない。しかし、先に、顔に近い位置から生成しても勿論かまわない。
本実施形態においては、静止画の撮影後も連続して動画の撮影を行っている。このため、静止画の撮影後も所定時間(実施形態においては、0.5秒から2秒程度)の間、被写体にカメラ10を向けていないと、見苦しい画像となってしまう。そこで、本実施形態においては、撮影者に必要以上のストレスをかけさせないようにするために、画面中央に位置する人物25を自動的に抽出し、人物21の顔の部分をトリミングして記録するようにしている。
このトリミングの仕方について、図13および図14を用いて説明する。図13は被写体22を撮影している様子を示しており、静止画は撮影領域15aで撮影され、この後に続く動画は撮影領域15b、15cで撮影される。このとき、カメラ10で撮像される画像の内、図14(a)は、撮影領域15aに対応する画像であり、図14(b)は撮影領域15bに対応する画像であり、図14(c)は撮影領域15cに対応する画像である。
静止画の撮影領域15aに対応する図14(a)の画像は、そのまま図14(d)に示すように記録されるが、動画の撮影領域15bに対応する画像は、撮影領域15aの画面中央を含むトリミング領域17b(被写体22の顔が中央に存在)が、図14(e)に示すように記録され、動画の撮影領域15cに対応する画像は、撮影領域15aの画面中央を含むトリミング領域17cが、図14(f)に示すように記録される。ここで、トリミング領域17b、17cのアスペクト比は、静止画のアスペクト比と変えても良いが、同じアスペクト比とすることにより、違和感をなくすことができることから、本実施形態においては、同一アスペクト比としている。
なお、図13および図14を用いて説明したトリミング処理は、制御部1内の構図変化判定部1aおよびトリミング部1bによって実行される。すなわち、構図変化判定部1aは撮影領域15a〜15cに変化したことを判定すると、トリミング部1bが判定結果に基づいてトリミング処理を行う。また、このトリミング処理は、撮影後に行うことで説明したが、撮影前に行うこともできる。すなわち、撮影前から動画の撮影を行い、静止画が撮影されると、直近の動画の画像データから撮影領域17b、17cに対応する部分のトリミングを行えば良い。
以上、説明したように、本発明の第3実施形態においては、静止画の撮影後に、動画(連写)で画像データを取得し、この画像データからトリミングを行い、静止画の画像データと共に、トリミング画像の画像データも記録するようにしている。このため、静止画の撮影前に動画の画像データを仮記録する必要がなくなり、構成を簡単にすることができる。
以上説明したように、本発明の各実施形態においては、レリーズ動作に応答し撮像部2から画像データを取得すると共に、レリーズ動作の前若しくは後に撮像部2から連写の画像データを取得し、連写の画像データに基づいて、各フレームで異なる領域で順次トリミング画像を生成し、この生成されたトリミング画像とレリーズ時の画像データを記録している。このため、単に撮影する場合に比較し、変化に富んだ多彩な画像を、簡単に誰でも撮影することができる。
また、本発明の各実施形態においては、画面全体の画像を表示する前に、その画像を撮影する前もしくは後に撮影された画像の一部分をトリミングし、このトリミング画像を先に表示するようにしている。このため、変化に富んだ多彩な画像を鑑賞することができる。特に、最初に、人物の手等の部分を表示し、その後、少しずつその人物の部分を移動しながら、最後に顔の拡大表示から全体表示を行うと、何が(誰が)写っているのかを想像し期待感が高まるという効果を奏する。また、従来の写真鑑賞にあっては、人物が写っているとその人を見るだけで満足していた。つまり、興味のある人が写っている写真であれば丁寧に鑑賞し、興味がない人が写っている写真であったり、表情が良くなければ、その写真を飛ばしてしまうような場合が多々あった。人物の顔以外にも、周囲に何か興味深いものがあっても、興味が持たれず、写真が見過ごされてしまうのは残念である。本発明の各実施形態においては、顔以外の部分を拡大して表示しており、このような画像を興味深く鑑賞する際の手助けになる。
なお、本発明の各実施形態においては、レリーズ釦が操作され撮影を行う際に、静止画を撮影していた。しかし、これに限らずレリーズ釦の操作に応じて動画の撮影を開始するようにしても良い。第3実施形態においては、静止画の撮影後に動画(連写)の撮影を行っていたが、レリーズ釦の操作に応じて動画の撮影を終了した後に、トリミング用の動画(連写)の撮影を行うようにしても良い。
また、本発明の各実施形態においては、被写体の人物の関係ある部分のトリミングを行い、顔の位置に向けて直線的にトリミング位置を移動させていたが、これに限らず、人物の身体の輪郭に従って、顔に向けていくような処理を行っても良い。また、初期位置として人物の関係有る部分としていたが、人物に関係ある部分以外の特徴的なものであっても良く、この特徴的なものから、人物に向けてトリミング範囲の変更を行っても良い。特徴的なものとしては、前後の画像と比較し、その画像の周辺にあって、形状に特徴が有れば良く、例えば、花束のような色彩や、アクセサリのような光沢感のあるものがある。また、顔が最初にでてしまうと、どんな表情とか、誰が写っているか等の鑑賞者の興味が失われてしまう。そこで、あえて画面に映っているのに目が届きにくいものから、次第に人物に注意が向くようにする。同じ表現ばかり続き、単調になってしまう場合には、トリミング開始位置を、人物の関連部分から、このような特徴的なものに変更する、同じ画像であっても、鑑賞者は沢山の情報に誘導され、イマジネーションが喚起される。
また、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。