以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
<1.実施の形態>
[1−1.実施の形態の概要]
まず、本実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例の説明に移る。
図1において1は、撮像装置を示す。この撮像装置1は、被写界深度を変更可能な撮像部2を有している。またこの撮像装置1は、撮影時の被写界深度を取得する取得部3を有している。さらにこの撮像装置1は、撮像部2で撮像した画像を所定の記録媒体4に記録する制御部5を有している。さらにこの撮像装置1は、記録媒体4に記録した画像を、取得部3により取得された画像の撮影時の被写界深度に基づいて分類する分類部6とを有している。
このような構成により、撮像装置1は、各画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。
かくして、撮像装置1は、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。
このような構成でなる撮像装置の具体例について、以下、詳しく説明する。
[1−2.DSC(デジタルスチルカメラ)のハードウェア構成]
次に、実施の形態の具体例となるDSC(デジタルスチルカメラ)のハードウェア構成について説明する。
図2に示すように、DSC100は、CPU101が、プログラムROM102に書き込まれたプログラムをRAM103にロードして実行することで各種処理を実行すると共に、タッチパネル104や操作部105からの入力信号に応じて各部を制御する。因みに、CPUは、Central Processing Unitの略である。また、ROMは、Read Only Memoryの略、RAMは、Random Access Memoryの略である。
タッチパネル104は、液晶パネル106と共にタッチスクリーン107を構成するデバイスであり、タッチパネル104上の任意の位置が指でタッチされると、タッチされた位置を液晶パネル106に表示させる画面の座標として検出する。そしてタッチパネル104は、タッチされた位置の座標に応じた入力信号をCPU101に送る。
操作部105は、ズームレバー(TELE/WIDE)、シャッタボタン、電源ボタン、モード切替ボタンなどからなるデバイスであり、これらの押下操作に応じた入力信号をCPU101に送る。
CPU101は、操作部105を介して、動作モードを撮影モードに切り替えるよう指示されると、動作モードを撮影モードに切り替える。
撮影モードに移行すると、CPU101は、モータドライバ108を制御して、アクチュエータ109を駆動させることで、レンズ部110を、DSC100の筐体から露出させる。またCPU101は、アクチュエータ109を駆動させることで、レンズ部110の絞りを調整したり、フォーカスレンズを移動させたりする。
またこのとき、CPU101は、タイミングジェネレータ111を制御して、タイミング信号をCCD(Charge Coupled Device)などでなる撮像素子112に供給する。撮像素子112は、このタイミング信号に基づいて動作することにより、レンズ部110を介して取り込まれた被写体からの光を電気信号に変換(すなわち光電変換)して、これをアナログ信号処理部113に供給する。
アナログ信号処理部113は、CPU101の制御のもと、この電気信号に対してアナログ信号処理(増幅等)を施すことでアナログ画像信号を得、これをアナログデジタル変換部(これをA/D変換部とも呼ぶ)114に供給する。
A/D変換部114は、CPU101の制御のもと、送られてきたアナログ画像信号をアナログデジタル変換(A/D変換)することでデジタル画像信号を得、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきたデジタル画像信号に対してデジタル信号処理(ノイズ除去等)を施した後、液晶パネル106に供給する。この結果、液晶パネル106には、被写体の画像がスルー画像として表示される。このようにしてDSC100は、撮影者に被写体を確認させる。
またこのとき、デジタル信号処理部115は、CPU101の制御のもと、送られてきたデジタル画像信号を解析して、この画像から人物の顔を認識する処理(これを顔認識処理とも呼ぶ)を行う。そしてデジタル信号処理部115は、画像から人物の顔を認識できたか否か、顔と認識されたのは画像のどの部分か、顔と認識された部分にピントがあっているか否かなどを、顔認識処理の結果として、CPU101に返す。
さらにこのとき、デジタル信号処理部115は、CPU101の制御のもと、アイコンや、顔と認識された部分を示す枠(顔枠とも呼ぶ)などのグラフィックス信号を生成して、これをデジタル画像信号に重畳する。この結果、液晶パネル106には、スルー画像と共に、アイコンや顔枠などが表示される。
ここで、操作部105のシャッタボタンが押下されたとする。するとCPU101は、シャッタボタンの押下に応じて操作部105から送られてくる入力信号により、シャッタボタンが押下されたと認識して、画像を記録する。
すなわちデジタル信号処理部115は、CPU101の制御のもと、A/D変換部114から送られてきたデジタル画像信号を、例えば、JPEGなどの圧縮伸長フォーマットで圧縮することで、圧縮画像データを生成する。因みに、JPEGとは、Joint Photographic Experts Groupの略である。
CPU101は、デジタル信号処理部115で生成された圧縮画像データに、ファイルヘッダなどを付与することで画像ファイルを生成する。
そしてCPU101は、この画像ファイルを記録部116に記録する。このようにしてCPU101は、画像を記録する。
因みに、記録部116は、例えば数ギガバイト〜数十ギガバイト程度の不揮発性メモリであり、DSC100に予め内蔵された記録媒体であってもよいし、メモリカードのようにDSC100に着脱可能な記録媒体であってもよい。
またDSC100は、記録部116とは別に、フラッシュメモリ117を有している。CPU101は、このフラッシュメモリ117に、ユーザにより設定された各種情報など、電源オフ後も保持する必要がある情報を記憶させるようになっている。
またCPU101は、記録した画像を管理する為のデータベースを記録部116に記憶させて保持するようにもなっている。このデータベースには、図3に示すように、画像ごとに、その属性情報が登録されるようになっている。
具体的に、この属性情報には、画像のファイル名が含まれる。つまり、このファイル名により、画像と属性情報とが1対1で対応付けられている。またこの属性情報には、画像を撮影したときの日時(撮影日時)が含まれる。
さらにこの属性情報には、撮影時の被写界深度が含まれる。さらにこの属性情報には、画像から人物の顔が認識されたか否かと、認識された顔の数と、認識された顔にピントが合っているか否かとを示す顔認識情報が含まれる。
さらにこの属性情報には、撮影時にGPS(Global Positioning System)情報が受信できたか否かを示すGPS可否情報が含まれる。
さらに属性情報には、どのようなシーンを撮影したのかを示す撮影シーン(例えば、ポートレート、風景、記念撮影など)と、どのような状況を撮影したのかを示す撮影状況(例えば、日常、会合、旅行など)とが含まれる。
このような属性情報を、CPU101は、画像の記録時(撮影時)に、データベースに登録する。
すなわちCPU101は、撮影時に、タイマなどの計時部(図示せず)から現在の日時(撮影日時)を得る。さらにCPU101は、絞りの調整量などから、既存の算出方法を用いて被写界深度を算出する。さらにCPU101は、顔認識処理の結果から顔認識情報を得る。さらにCPU101は、GPSモジュール118から現在位置を示す現在位置情報が得られたか否かにより、GPS可否情報を得る。さらにCPU101は、このようにして得た撮影日時、被写界深度、顔認識情報及びGPS可否情報に基づいて、撮影シーン及び撮影状況を判別する(判別方法については後述する)。
そしてCPU101は、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影シーン及び撮影状況を、画像の属性情報としてデータベースに登録する。
尚、被写界深度については、厳密な数値ではなく、浅いか深いかが登録されるようになっている。すなわちCPU101は、被写界深度があらかじめ決められた基準値未満であれば浅いと判別する一方で、基準値以上であれば深いと判別するようになっている。
一方、操作部105を介して、動作モードを再生モードに切り替えるよう指示されると、CPU101は、動作モードを再生モードに切り替える。
DSC100は、再生モードとして、画像を撮影日時ごとに分類して表示する日時別表示モードと、撮影シーンごとに分類して表示するシーン別表示モードと、撮影状況ごとに分類して表示する状況別表示モードとを有している。
CPU101は、操作部105を介して日時別表示モードが選択されると、データベースに登録されている画像の撮影日時を全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影日時をもとに、例えば撮影日の一覧を液晶パネル106に表示させる。
ここで、タッチパネル104を介して所望の撮影日が選択されると、CPU101は、データベースを参照することで、選択された撮影日に撮影された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。
CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影日に撮影された画像が表示される。尚、選択された撮影日に撮影された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。
また操作部105を介してシーン別表示モードが選択されると、CPU101は、データベースに登録されている画像の撮影シーンを全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影シーンをもとに、撮影シーンの一覧を液晶パネル106に表示させる。
ここで、タッチパネル104を介して所望の撮影シーンが選択されると、CPU101は、データベースを参照することで、選択された撮影シーンに分類された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。
CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影シーンに分類された画像が表示される。尚、選択された撮影シーンに分類された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。
さらに操作部105を介して状況別表示モードが選択されると、CPU101は、データベースに登録されている画像の撮影状況を全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影状況をもとに、撮影状況の一覧を液晶パネル106に表示させる。
ここで、タッチパネル104を介して所望の撮影状況が選択されると、CPU101は、データベースを参照することで、選択された撮影状況に分類された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。
CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影状況に分類された画像が表示される。尚、選択された撮影状況に分類された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。
このようにしてDSC100は、画像を撮影日時ごと、撮影シーンごと、撮影状況ごとに分類して表示するようになっている。
尚、このDSC100のレンズ部110及び撮像素子112が、上述した撮像装置1の撮像部2に相当するハードウェアである。またDSC100の記録部116が、上述した撮像装置1の記録媒体4に相当するハードウェアである。さらにDSC100のCPU101が、上述した撮像装置1の取得部3、制御部5、及び分類部6に相当するハードウェアである。
[1−3.属性情報登録処理手順]
次に、上述した画像の属性情報を登録する処理手順(これを属性情報登録処理手順とも呼ぶ)について、画像の撮影シーンと撮影状況の判別方法と共に、図4〜図6に示すフローチャートを用いて説明する。
因みに、この属性情報登録処理手順RT1は、DSC100のCPU101が、プログラムROM102に書き込まれているプログラムに従って実行する処理手順である。
CPU101は、撮影モードで、操作部105のシャッタボタンが押下されると、画像を記録すると共に、この属性情報登録処理手順RT1を開始して、ステップSP1に移る。
ステップSP1においてCPU101は、画像の属性情報となり、撮影シーン及び撮影状況の判別に必要な、現在の日時(撮影日時)と、被写界深度と、顔認識情報と、GPS可否情報を取得して、次のステップSP2に移る。
ステップSP2においてCPU101は、撮影シーンを判別する処理手順(撮影シーン判別処理手順)SRT1(図5)を開始してステップSP10に移る。
ステップSP10においてCPU101は、取得した被写界深度に基づいて、被写界深度が浅いか否かを判別する。ここで肯定結果を得ると、このことは被写界深度が浅いこと、すなわち、記録した画像が、人物や静物など、主要な被写体にのみピントを合わせ、他の部分にはピントを合わせずぼやけるようにして撮影されたものであることを意味する。換言すれば、この画像は、或る一部分を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP11に移る。
ステップSP11においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP12に移る。
ステップSP12においてCPU101は、取得した顔認識情報に基づいて、認識されている人物の顔にピントが合っているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔にピントが合っていること、すなわち、記録した画像が、人物を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP13に移る。
ステップSP13においてCPU101は、ピントが合っている人物の数が一人であるか否かを判別する。ここで肯定結果を得ると、このことはピントが合っている人物の顔が一人であること、すなわち、記録した画像が、一人の人物に注視して撮影されたものであることを意味する。このときCPU101は、ステップSP14に移る。
ここまでの判別結果から、記録した画像は、一人の人物を注視して撮影されたものであることがわかる。よって、CPU101は、ステップSP14において、記録した画像の撮影シーンを「ポートレート(人物写真)」と判別する。このことは、CPU101が、この画像を、撮影シーンの「ポートレート」に分類したことを意味する。
また上述のステップSP10で否定結果を得ると、このことは被写界深度が深いこと、すなわち、記録した画像が、手前から奥までの広範囲にピントを合わせて撮影されたものであることを意味する。換言すれば、この画像は、全体がぼやけず視認できるように撮影されたものであることを意味する。このときCPU101は、ステップSP15に移る。
ステップSP15においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP16に移る。
ここまでの判別結果から、記録した画像は、人物の顔が含まれ、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP16において、記録した画像の撮影シーンを「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「記念撮影」に分類したことを意味する。
また上述のステップSP13で否定結果を得た場合、ここまでの判別結果から、記録した画像が、複数の人物を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP16に移り、記録した画像の撮影シーンを「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「記念撮影」に分類したことを意味する。
また上述のステップSP15で否定結果を得ると、このことは記録した画像から人物の顔が認識されていないこと、つまり記録した画像に、人物の顔が含まれていないことを意味する。このときCPU101は、ステップSP17に移る。
ステップSP17においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が取得できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP18に移る。
ここまでの判別結果から、記録した画像は、人物の顔が含まれず、全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP18において、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。
また上述のステップSP11で否定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔以外の被写体を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP18に移り、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。
さらに上述のステップSP12で否定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔以外の被写体を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP18に移り、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。
また上述のステップSP17で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP19に移る。
ここまでの判別結果から、記録した画像は、人物の顔が含まれず、全体がぼやけず視認できるように屋外で撮影されたものであることがわかる。よって、CPU101は、ステップSP19において、記録した画像の撮影シーンを「風景」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「風景」に分類したことを意味する。
このようにして、記録した画像の撮影シーンを判別し終えると、CPU101は、この撮影シーン判別処理手順SRT1を終了して、次のステップSP3(図4)に移る。
ステップSP3においてCPU101は、撮影状況を判別する処理手順(撮影状況判別処理手順)SRT2(図6)を開始してステップSP20に移る。
ステップSP20においてCPU101は、取得した被写界深度に基づいて、被写界深度が浅いか否かを判別する。ここで否定結果を得ると、このことは被写界深度が深いこと、すなわち、記録した画像が、手前から奥までの広範囲にピントを合わせて撮影されたものであることを意味する。換言すれば、この画像は、全体がぼやけず視認できるように撮影されたものであることを意味する。このときCPU101は、ステップSP21に移る。
ステップSP21において、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP22に移る。
ここまでの判別結果から、記録した画像は、人物の顔を含み、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP22において、記録した画像の撮影状況を「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影状況としての「記念撮影」に分類したことを意味する。
また上述のステップSP20で肯定結果を得ると、このことは被写界深度が浅いこと、すなわち、記録した画像が、人物や静物など、主要な被写体にのみピントを合わせ、他の部分にはピントを合わせずぼやけるようにして撮影されたものであることを意味する。換言すれば、この画像は、或る一部分を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP23に移る。
ステップSP23においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで否定結果を得ると、このことは人物の顔が認識されていないこと、つまり記録した画像に、人物の顔が含まれていないことを意味する。このときCPU101は、ステップSP24に移る。
ステップSP24においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が受信できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP25に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP25において、記録した画像の撮影状況を、「屋内、静物、記録」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「屋内、静物、記録」に分類したことを意味する。
また上述のステップSP21で否定結果を得た後に、ステップSP24で肯定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず人物の顔以外の被写体を注視して屋内で撮影されたものであることがわかる。この場合も、CPU101は、ステップSP25に移り、記録した画像の撮影状況を、「屋内、静物、記録」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「屋内、静物、記録」に分類したことを意味する。
また上述のステップSP24で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP26に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず全体がぼやけず視認できるように屋外で撮影されたもの、又は人物の顔以外の被写体を注視して屋外で撮影されたものであることがわかる。よって、CPU101は、ステップSP26において、記録した画像の撮影状況を、「旅行、記録、風景」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「旅行、記録、風景」に分類したことを意味する。
また上述のステップSP23で肯定結果を得ると、このことは、記録した画像から人物の顔が認識されていること、つまり記録した画像に人物の顔が含まれていることを意味する。このときCPU101は、ステップSP27に移る。
この場合、ここまでの判別結果から、記録した画像は、人物の顔が含まれ、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP27において、記録した画像の撮影状況を「日常、会合、旅行」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「日常、会合、旅行」に分類したことを意味する。
このようにして、記録した画像の撮影状況を判別し終えると、CPU101は、この撮影状況判別処理手順SRT2を終了して、次のステップSP4(図3)に移る。
ステップSP4においてCPU101は、ここまでに得た、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影シーン及び撮影状況を、記録した画像の属性情報としてデータベースに登録して、この属性情報登録処理手順RT1を終了する。
このような属性情報登録処理手順RT1により、DSC100は、記録した画像の属性情報を登録するようになっている。
ところで、上述した撮影状況判別処理手順SRT2では、場合によっては、画像の撮影状況を、「日常、会合、旅行」のいずれかというように大まかにしか判別できない。
そこで、CPU101は、記録部116に複数の画像が記録されている状態で、これら複数の画像を撮影日時をもとにグルーピングして、グループごとに画像の撮影状況を細かく判別し直すようになっている。
ここで、撮影状況を判別し直す処理手順(これを撮影状況再判別処理手順)について、図7に示すフローチャートを用いて説明する。
因みに、この撮影状況再判別処理手順RT2も、DSC100のCPU101が、プログラムROM102に書き込まれているプログラムに従って実行する処理手順である。
CPU101は、例えば、電源オン時に、記録部116に複数の画像が記録されていることを認識すると、この撮影状況再判別処理手順RT2を開始して、ステップSP30に移る。
ステップSP30においてCPU101は、データベースに属性情報として登録されている各画像の撮影日時をもとに、記録部116に記録されている各画像を撮影日時単位でグルーピングする。
具体的にCPU101は、例えば、各画像を、撮影日時に基づいて、時間軸上に並べ、時間軸上に隣接する2つの画像の撮影日時の差が所定値以上である場合に、2つの画像の間を、グループの境界とするようにして、各画像をグルーピングする。
実際、記録部116に記録されている各画像は、旅行などのイベント単位で、時間的にまとまっていることが多い。ゆえに、上述したようにして各画像をグルーピングすることで、各画像をイベント単位でまとめることができる。
このようにしてグルーピングした後、CPU101は、次のステップSP31に移る。ステップSP31においてCPU101は、グループごとに(すなわちイベントごとに)、画像の撮影状況を再判別する。
具体的にCPU101は、例えば、グループごとに、グループ内の画像の撮影状況から、グループ内で最も多く登録されている撮影状況を抽出する。そしてCPU101は、この撮影状況が、グループ内で最も信頼度の高い撮影状況であるとして、この撮影状況を、グループ内の画像の新たな撮影状況とする。
例えば、或るグループ内に3つの画像が有り、これら3つの画像の撮影状況が、それぞれ「日常、会合、旅行」、「旅行、記録、風景」、「記念撮影」であったとする。この場合、CPU101は、「旅行」を、これら3つの画像の撮影状況のうち、最も信頼度の高い撮影状況であるとして、これら3つの画像の撮影状況を「旅行」と再判別する。このことは、CPU101が、これら3つの画像を、撮影状況の「旅行」に分類したことを意味する。
このようにして、グループごとに、画像の撮影状況を再判別し終えると、すなわち再分類し終えると、CPU101は、次のステップSP32に移る。
ステップSP32においてCPU101は、ステップSP31の再判別に基づいて、データベースに属性情報として登録されている各画像の撮影状況を更新して、この撮影状況再判別処理手順RT2を終了する。
このような撮影状況再判別処理手順RT2により、DSC100は、撮影状況を再判別するようになっている。
[1−4.動作及び効果]
以上の構成において、DSC100のCPU101は、撮影時に、現在日時、被写界深度、顔認識情報及びGPS可否情報を取得する。
さらにCPU101は、取得したこれらの情報をもとに、記録した画像の撮影シーン及び撮影状況を判別する。
そしてCPU101は、判別した撮影シーン及び撮影状況を、取得した被写界深度などと共に、記録した画像の属性情報としてデータベースに登録する。
このように、記録した画像ごとに、撮影シーン及び撮影状況を判別して、これらを記録した画像の属性情報とすることで、DSC100に記録された各画像が、撮影シーン及び撮影状況により分類されたことになる。
このように、CPU101は、記録した画像を、被写界深度などの情報に基づいて、撮影シーン毎に及び撮影状況により分類する。
そしてCPU101は、例えば、ユーザにより所望の撮影シーンが指定されると、指定された撮影シーンを属性情報として持つ画像(つまり指定された撮影シーンに分類された画像)を検索して、液晶パネル106に表示させる。
このように、DSC100は、記録した画像を、何時撮影したのかではなく、撮影シーンや撮影状況のように、どのような画像を撮影したのかという観点から分類するようにした。
これにより、DSC100は、撮影日時で分類する場合と比して、所望の画像をユーザが見付け出し易くすることができる。
またDSC100のCPU101は、記録した画像を、撮影日時をもとにイベントごとにグルーピングする。そしてCPU101は、グループごとに、グループ内の画像の撮影状況のうち、最も信頼度が高い撮影状況を特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を再判別する。
この再判別は、同一イベントの画像は同一撮影状況で撮影されたものであるという考え方に基づくものである。こうすることでCPU101は、記録した画像を、より正確な撮影状況で分類することができる。
以上の構成によれば、DSC100は、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができ、かくして、画像の検索性を向上させることができる。
<2.他の実施の形態>
[2−1.他の実施の形態1]
尚、上述した実施の形態では、DSC100のCPU101が、上述した撮影シーン判別処理手順SRT1及び撮影状況判別処理手順SRT2により、記録した画像の撮影シーン及び撮影状況を判別するようにした。
これに限らず、例えば、図8に示すように、予め様々な撮影パターンと、その撮影パターンで撮影された画像を分類する撮影シーンとを対応付けたデータを利用して、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。このデータをパターン別シーンデータとも呼び、このデータは、予め例えばフラッシュメモリ117に記憶されているとする。
この撮影パターンは、被写界深度が浅いか深いか、人物の顔が認識されているか否か、顔にピントが合っているか否か、顔の数が複数であるか否か、GPS情報を受信できたか否かの組み合わせにより分けられている。
したがって、CPU101は、この組み合わせから、撮影時の撮影パターンを特定し、さらに特定した撮影パターンから、記録した画像の撮影シーンを判別する。
例えば、被写界深度が浅く、顔が認識され、顔にピントが合っており、顔の数が単数で、GPS情報を受信できているとすると、CPU101は、この組み合わせから、撮影時の撮影パターンがパターン3であると特定できる。
そしてCPU101は、このパターン3に、撮影シーンとしてポートレートが対応付けられていることから、記録した画像の撮影シーンを「ポートレート」と判別する。つまり、CPU101は、記録した画像を、撮影シーンの「ポートレート」に分類する。
また、例えば図9に示すように、予め様々な撮影パターンと、その撮影パターンで撮影された画像を分類する撮影状況とを対応付けたデータを利用して、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。このデータをパターン別状況データとも呼び、このデータは、予め例えばフラッシュメモリ117に記憶されているとする。
この撮影パターンは、被写界深度が浅いか深いか、人物の顔が認識されているか否か、GPS情報を受信できたか否かの組み合わせにより分けられている。
したがって、CPU101は、この組み合わせから、撮影時の撮影パターンを特定し、さらに特定した撮影パターンから、記録した画像の撮影状況を判別する。
例えば、被写界深度が深く、顔が認識され、GPS情報を受信できているとすると、CPU101は、この組み合わせから、撮影時の撮影パターンがパターン5であると特定できる。
そしてCPU101は、このパターン5に、撮影状況として「記念撮影」が対応付けられていることから、記録した画像の撮影状況を「記念撮影」と判別する。つまり、CPU101は、記録した画像を、撮影状況の「記念撮影」に分類する。
またCPU101が、フラッシュメモリ117に記憶されているパターン別シーンデータ及びパターン別状況データを、メモリカード等を介して外部から取得したパターン別シーンデータ及びパターン別状況データにより更新する等してもよい。
[2−2.他の実施の形態2]
さらに上述した実施の形態では、撮影時に、撮影日時、被写界深度、顔認識情報、GPS可否情報を取得して、これらをもとに、記録した画像の撮影シーン及び撮影状況を判別するようにした。
これに限らず、CPU101が、撮影時に、上述した情報にくわえて、GPSモジュール118から現在位置情報を取得し、これらをもとに、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。尚、ここでは、撮影時に取得した現在位置情報を、撮影場所情報とも呼ぶ。
この場合、CPU101は、例えば、撮影時に取得した現在位置情報(すなわち撮影場所情報)と、既にデータベースに登録されている他の画像の撮影場所情報の各々との距離を算出する。
ここで、今回取得した撮影場所情報との距離が所定範囲(例えば数キロメートル)内である撮像場所情報が所定数(例えば10個)以上、データベースに登録されていたとする。
このことは、今回の撮影場所が、ユーザが普段よく撮影を行う場所であることを意味する。
このことを利用して、撮影状況を判別するようにした場合の撮影状況判別処理手順SRT3を、図10に示すフローチャートを用いて説明する。尚、この撮影状況判別処理手順SRT3のステップSP20〜SP26の処理は、上述した撮影状況判別処理手順SRT2と同様である為、ここでは説明を省略する。
CPU101は、この撮影状況判別処理手順SRT3のステップSP23で肯定結果を得ると、ステップSP100に移る。
ステップSP100においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が受信できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP101に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP101において、記録した画像の撮影状況を、「屋内、会合」のいずれかであると判別する。つまり、CPU101は、この画像を、撮影状況として「屋内、会合」に分類する。
また上述のステップSP100で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP102に移る。
ステップSP102においてCPU101は、取得した現在位置情報(撮影場所情報)と、既に登録されている他の画像の撮影場所情報とに基づいて、今回の撮影場所が、ユーザが普段よく撮影を行う場所であるか否かを判別する。
ここで肯定結果を得ると、このことは今回の撮影場所が、ユーザが普段よく撮影を行う場所であることを意味する。このときCPU101は、ステップSP103に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋外のユーザが普段よく撮影を行う場所で撮影されたものであることがわかる。よって、CPU101は、ステップSP103において、記録した画像の撮影状況を、「日常」であると判別する。つまり、CPU101は、この画像を、撮影状況として「日常」に分類する。
また上述のステップSP102で否定結果を得ると、このことは、今回の撮影場所が、ユーザが普段撮影を行わない場所であることを意味する。このときCPU101は、ステップSP104に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋外のユーザが普段撮影を行わない場所で撮影されたものであることがわかる。よって、CPU101は、ステップSP104において、記録した画像の撮影状況を、「旅行」であると判別する。つまり、CPU101は、この画像を、撮影状況として「旅行」に分類する。
このように、撮影場所情報を利用することで、より正確に撮影状況を判別することができる。
また、予めユーザの自宅の位置情報を登録しておき、この位置情報と、今回取得した撮影場所情報との距離をもとに、今回の撮影場所が、ユーザが普段よく撮影を行う場所であるか否か(自宅付近であるか否か)を判別するようにしてもよい。
さらに、DSC100のフラッシュメモリ117に、予め位置情報と地名とが対応付けて登録された地図データベースを記憶させておき、CPU101が、この地図データベースから撮影場所の地名を取得するようにしてもよい。
そして、例えば、上述したステップSP104において、記録した画像を、撮影状況として「地名+旅行」に分類するようにしてもよい。このようにすれば、記録した画像をより細かく分類することができ、一段と、所望の画像をユーザが見付け出し易くすることができる。
さらに、CPU101が、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影場所情報に限らず、撮影時に取得できる様々な情報をもとに、撮影シーンや撮影状況を判別するようにしてもよい。
例えば、撮影時のカメラ設定から、明るさやシャッタスピードが取得できれば、これらと撮影日時とをもとに、記録した画像が、夜景を撮影したものであるかが判別できる。
また、例えば、DSC100に加速度センサが設けられ、DSC100に加えられている加速度が取得できれば、記録した画像が、パンさせながら撮影されたものであるか、すなわち流し撮りしたものであるかが判別できる。
このように撮影時に取得できる様々な情報を利用することで、より多様な撮影シーンや撮影状況を判別することができる。
[2−3.他の実施の形態3]
さらに上述した実施の形態では、撮影日時、被写界深度、顔認識情報、GPS可否情報をもとに、記録した画像を、撮影シーン毎にや撮影状況により分類するようにした。
これに限らず、被写界深度のみをもとに、記録した画像を被写界深度が深いか浅いかで分類するようにしてもよい。このように被写界深度のみで分類したとしても、記録した画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。これにより、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。
またこれに限らず、被写界深度と、撮影日時、顔認識情報、GPS可否情報のうちの任意の情報とをもとに、記録した画像を分類するようにしてもよい。
[2−4.他の実施の形態4]
さらに上述した実施の形態では、撮影日時単位のグループごとに、グループ内で最も多く登録されている撮影状況を、グループ内で最も信頼度の高い撮影状況であるとして、撮影状況を最判別するようにした。
これに限らず、例えば、グループ内で登録されている撮影状況のうち、「旅行」のように1つに限定されている撮影状況があれば、これを最も信頼度の高い撮影状況であるとしてもよい。
例えば、或るグループ内に2つの画像が有り、これら2つの画像の撮影状況が、それぞれ「旅行、記録、風景」、「日常」であったとする。この場合、CPU101は、「日常」を、これら2つの画像の撮影状況のうち、最も信頼度の高い撮影状況であるとする。
また1つに限定されている撮影状況が複数有る場合には、それらのうちのいずれか、もしくは最も多く登録されているものを、最も信頼度の高い撮影状況であると判別するようにしてもよい。
[2−5.他の実施の形態5]
さらに上述した実施の形態では、撮影シーンと撮影状況との両方を判別するようにした。これに限らず、撮影シーン及び撮影状況のうちのどちらか一方を判別するようにしてもよい。
[2−6.他の実施の形態6]
さらに上述した実施の形態では、CPU101が、撮影時に、画像の撮影シーン及び撮影状況を判別するようにした。
これに限らず、撮影時に、撮影日時、被写界深度、顔認識情報、GPS可否情報を属性情報としてデータベースに登録しておき、この属性情報をもとに、任意の時点で撮影シーン及び撮影状況を判別するようにしてもよい。
[2−7.他の実施の形態7]
さらに上述した実施の形態では、撮像装置としてのDSC100に、撮像部としてのレンズ部110及び撮像素子112を設けるようにした。またこのDSC100に、画像を記録する記録媒体としての記録部116を設けるようにした。さらにこのDSC1に被写界深度を取得する取得部、撮像した画像を所定の記録媒体に記録する制御部、及び被写界深度に基づいて画像を分類する分類部としてのCPU101を設けるようにした。
本発明はこれに限らず、同様の機能を有するのであれば、上述したDSC100の各機能部を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。
さらに上述した実施の形態では、DSC100に本発明を適用するようにした。これに限らず、カメラ機能を有する機器であれば、デジタルビデオカメラ、携帯型電話機、ゲーム機など、この他種々の機器に適用するようにしてもよく、また適用することができる。
[2−8.他の実施の形態8]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、DSC100のプログラムROM102に書き込んでおくようにした。
これに限らず、このプログラムを例えばメモリカードなどの記録媒体に記録しておき、DSC100の制御部10が、このプログラムを記録媒体から読み出して実行するようにしてもよい。また記録媒体から読み出したプログラムを、フラッシュメモリ117にインストールするようにしてもよい。
[2−9.他の実施の形態9]
さらに本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。