JP2010268141A - 撮像装置、画像分類方法及びそのプログラム - Google Patents

撮像装置、画像分類方法及びそのプログラム Download PDF

Info

Publication number
JP2010268141A
JP2010268141A JP2009116804A JP2009116804A JP2010268141A JP 2010268141 A JP2010268141 A JP 2010268141A JP 2009116804 A JP2009116804 A JP 2009116804A JP 2009116804 A JP2009116804 A JP 2009116804A JP 2010268141 A JP2010268141 A JP 2010268141A
Authority
JP
Japan
Prior art keywords
image
shooting
cpu
time
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009116804A
Other languages
English (en)
Other versions
JP2010268141A5 (ja
JP5369881B2 (ja
Inventor
Kenichi Mizukami
賢一 水上
Fumitaka Kawate
史隆 川手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009116804A priority Critical patent/JP5369881B2/ja
Publication of JP2010268141A publication Critical patent/JP2010268141A/ja
Publication of JP2010268141A5 publication Critical patent/JP2010268141A5/ja
Application granted granted Critical
Publication of JP5369881B2 publication Critical patent/JP5369881B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】従来と比して一段と画像の検索性を向上させる。
【解決手段】記録した画像を撮影時の被写界深度に基づいて分類するようにした。こうすることで、各画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。かくして、従来のような撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。
【選択図】図1

Description

本発明は、撮像装置、画像分類方法及びそのプログラムに関し、例えば、デジタルスチルカメラに適用して好適なものである。
デジタルスチルカメラ(これをDSCとも呼ぶ)などの撮像装置は、メモリカードなどの記録媒体に画像を記録するようになっている。近年、この記録媒体の大容量化により、DSCは、例えば1枚のメモリカードに数百〜数千の画像を記録できるようになった。
ところが、このように大量の画像を記録できるようになると、個々の画像の検索が困難になってしまう。そこで、従来のDSCは、画像とは別に、画像を統括的に管理する為のデータベースを保持するようになっている。
このデータベースには、例えば、記録媒体に記録されている各画像の記録日時(つまり撮影日時)を示す日時情報が登録されている。このようなデータベースを利用することで、DSCは、例えば、ユーザに指定された日時に撮影した画像を検索して表示することなどができるようになっている。
さらに、各画像の日時情報に基づいて、例えば、撮影日時が近い画像を同一グループにするようにして、画像を自動的に分類するDSCも提案されている(例えば特許文献1参照)。
特開2009−49863公報
ところで、上述したように、撮影日時に基づいて画像を分類できるようになっていても、そもそも何時画像を撮影したのか覚えていない、もしくは確認しなかったユーザにとっては、所望の画像を容易に見付けることは難しい。
一方で、撮影日時を気にする気にしないに関わらず、ユーザは、どのような画像を撮影するのか、また撮影したのかについては確認するはずである。ゆえに、ユーザにとっては、何時撮影したのかよりも、どのような画像を撮影したのかという観点から分類した方が、所望の画像を見付け出し易いと考えられる。
本発明は以上の点を考慮してなされたもので、従来と比して一段と画像の検索性を向上させた撮像装置、画像分類方法及びそのプログラムを提案しようとするものである。
かかる課題を解決するため本発明の撮像装置においては、被写界深度を変更可能な撮像部と、撮影時の被写界深度を取得する取得部と、撮像部で撮像した画像を所定の記録媒体に記録する制御部と、記録媒体に記録した画像を、取得部により取得された当該画像の撮影時の被写界深度に基づいて分類する分類部とを設けるようにした。
こうすることで、本発明の撮像装置は、各画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。これにより、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。
本発明によれば、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができ、かくして、画像の検索性を向上させた撮像装置、画像分類方法及びそのプログラムを実現できる。
実施の形態の概要となる撮像装置の構成を示す略線図である。 DSC(デジタルスチルカメラ)のハードウェア構成を示すブロック図である。 属性情報の構成を示す略線図である。 属性情報登録処理手順を示すフローチャートである。 撮影シーン判別処理手順を示すフローチャートである。 撮影状況判別処理手順を示すフローチャートである。 撮影状況再判別処理手順を示すフローチャートである。 他の実施の形態における撮影パターンに基づく撮影シーンの判別の説明に供する表である。 他の実施の形態における撮影パターンに基づく撮影状況の判別の説明に供する表である。 他の実施の形態における撮影状況判別処理手順を示すフローチャートである。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
<1.実施の形態>
[1−1.実施の形態の概要]
まず、本実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例の説明に移る。
図1において1は、撮像装置を示す。この撮像装置1は、被写界深度を変更可能な撮像部2を有している。またこの撮像装置1は、撮影時の被写界深度を取得する取得部3を有している。さらにこの撮像装置1は、撮像部2で撮像した画像を所定の記録媒体4に記録する制御部5を有している。さらにこの撮像装置1は、記録媒体4に記録した画像を、取得部3により取得された画像の撮影時の被写界深度に基づいて分類する分類部6とを有している。
このような構成により、撮像装置1は、各画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。
かくして、撮像装置1は、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。
このような構成でなる撮像装置の具体例について、以下、詳しく説明する。
[1−2.DSC(デジタルスチルカメラ)のハードウェア構成]
次に、実施の形態の具体例となるDSC(デジタルスチルカメラ)のハードウェア構成について説明する。
図2に示すように、DSC100は、CPU101が、プログラムROM102に書き込まれたプログラムをRAM103にロードして実行することで各種処理を実行すると共に、タッチパネル104や操作部105からの入力信号に応じて各部を制御する。因みに、CPUは、Central Processing Unitの略である。また、ROMは、Read Only Memoryの略、RAMは、Random Access Memoryの略である。
タッチパネル104は、液晶パネル106と共にタッチスクリーン107を構成するデバイスであり、タッチパネル104上の任意の位置が指でタッチされると、タッチされた位置を液晶パネル106に表示させる画面の座標として検出する。そしてタッチパネル104は、タッチされた位置の座標に応じた入力信号をCPU101に送る。
操作部105は、ズームレバー(TELE/WIDE)、シャッタボタン、電源ボタン、モード切替ボタンなどからなるデバイスであり、これらの押下操作に応じた入力信号をCPU101に送る。
CPU101は、操作部105を介して、動作モードを撮影モードに切り替えるよう指示されると、動作モードを撮影モードに切り替える。
撮影モードに移行すると、CPU101は、モータドライバ108を制御して、アクチュエータ109を駆動させることで、レンズ部110を、DSC100の筐体から露出させる。またCPU101は、アクチュエータ109を駆動させることで、レンズ部110の絞りを調整したり、フォーカスレンズを移動させたりする。
またこのとき、CPU101は、タイミングジェネレータ111を制御して、タイミング信号をCCD(Charge Coupled Device)などでなる撮像素子112に供給する。撮像素子112は、このタイミング信号に基づいて動作することにより、レンズ部110を介して取り込まれた被写体からの光を電気信号に変換(すなわち光電変換)して、これをアナログ信号処理部113に供給する。
アナログ信号処理部113は、CPU101の制御のもと、この電気信号に対してアナログ信号処理(増幅等)を施すことでアナログ画像信号を得、これをアナログデジタル変換部(これをA/D変換部とも呼ぶ)114に供給する。
A/D変換部114は、CPU101の制御のもと、送られてきたアナログ画像信号をアナログデジタル変換(A/D変換)することでデジタル画像信号を得、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきたデジタル画像信号に対してデジタル信号処理(ノイズ除去等)を施した後、液晶パネル106に供給する。この結果、液晶パネル106には、被写体の画像がスルー画像として表示される。このようにしてDSC100は、撮影者に被写体を確認させる。
またこのとき、デジタル信号処理部115は、CPU101の制御のもと、送られてきたデジタル画像信号を解析して、この画像から人物の顔を認識する処理(これを顔認識処理とも呼ぶ)を行う。そしてデジタル信号処理部115は、画像から人物の顔を認識できたか否か、顔と認識されたのは画像のどの部分か、顔と認識された部分にピントがあっているか否かなどを、顔認識処理の結果として、CPU101に返す。
さらにこのとき、デジタル信号処理部115は、CPU101の制御のもと、アイコンや、顔と認識された部分を示す枠(顔枠とも呼ぶ)などのグラフィックス信号を生成して、これをデジタル画像信号に重畳する。この結果、液晶パネル106には、スルー画像と共に、アイコンや顔枠などが表示される。
ここで、操作部105のシャッタボタンが押下されたとする。するとCPU101は、シャッタボタンの押下に応じて操作部105から送られてくる入力信号により、シャッタボタンが押下されたと認識して、画像を記録する。
すなわちデジタル信号処理部115は、CPU101の制御のもと、A/D変換部114から送られてきたデジタル画像信号を、例えば、JPEGなどの圧縮伸長フォーマットで圧縮することで、圧縮画像データを生成する。因みに、JPEGとは、Joint Photographic Experts Groupの略である。
CPU101は、デジタル信号処理部115で生成された圧縮画像データに、ファイルヘッダなどを付与することで画像ファイルを生成する。
そしてCPU101は、この画像ファイルを記録部116に記録する。このようにしてCPU101は、画像を記録する。
因みに、記録部116は、例えば数ギガバイト〜数十ギガバイト程度の不揮発性メモリであり、DSC100に予め内蔵された記録媒体であってもよいし、メモリカードのようにDSC100に着脱可能な記録媒体であってもよい。
またDSC100は、記録部116とは別に、フラッシュメモリ117を有している。CPU101は、このフラッシュメモリ117に、ユーザにより設定された各種情報など、電源オフ後も保持する必要がある情報を記憶させるようになっている。
またCPU101は、記録した画像を管理する為のデータベースを記録部116に記憶させて保持するようにもなっている。このデータベースには、図3に示すように、画像ごとに、その属性情報が登録されるようになっている。
具体的に、この属性情報には、画像のファイル名が含まれる。つまり、このファイル名により、画像と属性情報とが1対1で対応付けられている。またこの属性情報には、画像を撮影したときの日時(撮影日時)が含まれる。
さらにこの属性情報には、撮影時の被写界深度が含まれる。さらにこの属性情報には、画像から人物の顔が認識されたか否かと、認識された顔の数と、認識された顔にピントが合っているか否かとを示す顔認識情報が含まれる。
さらにこの属性情報には、撮影時にGPS(Global Positioning System)情報が受信できたか否かを示すGPS可否情報が含まれる。
さらに属性情報には、どのようなシーンを撮影したのかを示す撮影シーン(例えば、ポートレート、風景、記念撮影など)と、どのような状況を撮影したのかを示す撮影状況(例えば、日常、会合、旅行など)とが含まれる。
このような属性情報を、CPU101は、画像の記録時(撮影時)に、データベースに登録する。
すなわちCPU101は、撮影時に、タイマなどの計時部(図示せず)から現在の日時(撮影日時)を得る。さらにCPU101は、絞りの調整量などから、既存の算出方法を用いて被写界深度を算出する。さらにCPU101は、顔認識処理の結果から顔認識情報を得る。さらにCPU101は、GPSモジュール118から現在位置を示す現在位置情報が得られたか否かにより、GPS可否情報を得る。さらにCPU101は、このようにして得た撮影日時、被写界深度、顔認識情報及びGPS可否情報に基づいて、撮影シーン及び撮影状況を判別する(判別方法については後述する)。
そしてCPU101は、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影シーン及び撮影状況を、画像の属性情報としてデータベースに登録する。
尚、被写界深度については、厳密な数値ではなく、浅いか深いかが登録されるようになっている。すなわちCPU101は、被写界深度があらかじめ決められた基準値未満であれば浅いと判別する一方で、基準値以上であれば深いと判別するようになっている。
一方、操作部105を介して、動作モードを再生モードに切り替えるよう指示されると、CPU101は、動作モードを再生モードに切り替える。
DSC100は、再生モードとして、画像を撮影日時ごとに分類して表示する日時別表示モードと、撮影シーンごとに分類して表示するシーン別表示モードと、撮影状況ごとに分類して表示する状況別表示モードとを有している。
CPU101は、操作部105を介して日時別表示モードが選択されると、データベースに登録されている画像の撮影日時を全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影日時をもとに、例えば撮影日の一覧を液晶パネル106に表示させる。
ここで、タッチパネル104を介して所望の撮影日が選択されると、CPU101は、データベースを参照することで、選択された撮影日に撮影された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。
CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影日に撮影された画像が表示される。尚、選択された撮影日に撮影された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。
また操作部105を介してシーン別表示モードが選択されると、CPU101は、データベースに登録されている画像の撮影シーンを全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影シーンをもとに、撮影シーンの一覧を液晶パネル106に表示させる。
ここで、タッチパネル104を介して所望の撮影シーンが選択されると、CPU101は、データベースを参照することで、選択された撮影シーンに分類された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。
CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影シーンに分類された画像が表示される。尚、選択された撮影シーンに分類された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。
さらに操作部105を介して状況別表示モードが選択されると、CPU101は、データベースに登録されている画像の撮影状況を全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影状況をもとに、撮影状況の一覧を液晶パネル106に表示させる。
ここで、タッチパネル104を介して所望の撮影状況が選択されると、CPU101は、データベースを参照することで、選択された撮影状況に分類された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。
CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。
デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影状況に分類された画像が表示される。尚、選択された撮影状況に分類された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。
このようにしてDSC100は、画像を撮影日時ごと、撮影シーンごと、撮影状況ごとに分類して表示するようになっている。
尚、このDSC100のレンズ部110及び撮像素子112が、上述した撮像装置1の撮像部2に相当するハードウェアである。またDSC100の記録部116が、上述した撮像装置1の記録媒体4に相当するハードウェアである。さらにDSC100のCPU101が、上述した撮像装置1の取得部3、制御部5、及び分類部6に相当するハードウェアである。
[1−3.属性情報登録処理手順]
次に、上述した画像の属性情報を登録する処理手順(これを属性情報登録処理手順とも呼ぶ)について、画像の撮影シーンと撮影状況の判別方法と共に、図4〜図6に示すフローチャートを用いて説明する。
因みに、この属性情報登録処理手順RT1は、DSC100のCPU101が、プログラムROM102に書き込まれているプログラムに従って実行する処理手順である。
CPU101は、撮影モードで、操作部105のシャッタボタンが押下されると、画像を記録すると共に、この属性情報登録処理手順RT1を開始して、ステップSP1に移る。
ステップSP1においてCPU101は、画像の属性情報となり、撮影シーン及び撮影状況の判別に必要な、現在の日時(撮影日時)と、被写界深度と、顔認識情報と、GPS可否情報を取得して、次のステップSP2に移る。
ステップSP2においてCPU101は、撮影シーンを判別する処理手順(撮影シーン判別処理手順)SRT1(図5)を開始してステップSP10に移る。
ステップSP10においてCPU101は、取得した被写界深度に基づいて、被写界深度が浅いか否かを判別する。ここで肯定結果を得ると、このことは被写界深度が浅いこと、すなわち、記録した画像が、人物や静物など、主要な被写体にのみピントを合わせ、他の部分にはピントを合わせずぼやけるようにして撮影されたものであることを意味する。換言すれば、この画像は、或る一部分を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP11に移る。
ステップSP11においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP12に移る。
ステップSP12においてCPU101は、取得した顔認識情報に基づいて、認識されている人物の顔にピントが合っているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔にピントが合っていること、すなわち、記録した画像が、人物を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP13に移る。
ステップSP13においてCPU101は、ピントが合っている人物の数が一人であるか否かを判別する。ここで肯定結果を得ると、このことはピントが合っている人物の顔が一人であること、すなわち、記録した画像が、一人の人物に注視して撮影されたものであることを意味する。このときCPU101は、ステップSP14に移る。
ここまでの判別結果から、記録した画像は、一人の人物を注視して撮影されたものであることがわかる。よって、CPU101は、ステップSP14において、記録した画像の撮影シーンを「ポートレート(人物写真)」と判別する。このことは、CPU101が、この画像を、撮影シーンの「ポートレート」に分類したことを意味する。
また上述のステップSP10で否定結果を得ると、このことは被写界深度が深いこと、すなわち、記録した画像が、手前から奥までの広範囲にピントを合わせて撮影されたものであることを意味する。換言すれば、この画像は、全体がぼやけず視認できるように撮影されたものであることを意味する。このときCPU101は、ステップSP15に移る。
ステップSP15においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP16に移る。
ここまでの判別結果から、記録した画像は、人物の顔が含まれ、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP16において、記録した画像の撮影シーンを「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「記念撮影」に分類したことを意味する。
また上述のステップSP13で否定結果を得た場合、ここまでの判別結果から、記録した画像が、複数の人物を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP16に移り、記録した画像の撮影シーンを「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「記念撮影」に分類したことを意味する。
また上述のステップSP15で否定結果を得ると、このことは記録した画像から人物の顔が認識されていないこと、つまり記録した画像に、人物の顔が含まれていないことを意味する。このときCPU101は、ステップSP17に移る。
ステップSP17においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が取得できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP18に移る。
ここまでの判別結果から、記録した画像は、人物の顔が含まれず、全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP18において、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。
また上述のステップSP11で否定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔以外の被写体を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP18に移り、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。
さらに上述のステップSP12で否定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔以外の被写体を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP18に移り、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。
また上述のステップSP17で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP19に移る。
ここまでの判別結果から、記録した画像は、人物の顔が含まれず、全体がぼやけず視認できるように屋外で撮影されたものであることがわかる。よって、CPU101は、ステップSP19において、記録した画像の撮影シーンを「風景」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「風景」に分類したことを意味する。
このようにして、記録した画像の撮影シーンを判別し終えると、CPU101は、この撮影シーン判別処理手順SRT1を終了して、次のステップSP3(図4)に移る。
ステップSP3においてCPU101は、撮影状況を判別する処理手順(撮影状況判別処理手順)SRT2(図6)を開始してステップSP20に移る。
ステップSP20においてCPU101は、取得した被写界深度に基づいて、被写界深度が浅いか否かを判別する。ここで否定結果を得ると、このことは被写界深度が深いこと、すなわち、記録した画像が、手前から奥までの広範囲にピントを合わせて撮影されたものであることを意味する。換言すれば、この画像は、全体がぼやけず視認できるように撮影されたものであることを意味する。このときCPU101は、ステップSP21に移る。
ステップSP21において、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP22に移る。
ここまでの判別結果から、記録した画像は、人物の顔を含み、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP22において、記録した画像の撮影状況を「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影状況としての「記念撮影」に分類したことを意味する。
また上述のステップSP20で肯定結果を得ると、このことは被写界深度が浅いこと、すなわち、記録した画像が、人物や静物など、主要な被写体にのみピントを合わせ、他の部分にはピントを合わせずぼやけるようにして撮影されたものであることを意味する。換言すれば、この画像は、或る一部分を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP23に移る。
ステップSP23においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで否定結果を得ると、このことは人物の顔が認識されていないこと、つまり記録した画像に、人物の顔が含まれていないことを意味する。このときCPU101は、ステップSP24に移る。
ステップSP24においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が受信できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP25に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP25において、記録した画像の撮影状況を、「屋内、静物、記録」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「屋内、静物、記録」に分類したことを意味する。
また上述のステップSP21で否定結果を得た後に、ステップSP24で肯定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず人物の顔以外の被写体を注視して屋内で撮影されたものであることがわかる。この場合も、CPU101は、ステップSP25に移り、記録した画像の撮影状況を、「屋内、静物、記録」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「屋内、静物、記録」に分類したことを意味する。
また上述のステップSP24で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP26に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず全体がぼやけず視認できるように屋外で撮影されたもの、又は人物の顔以外の被写体を注視して屋外で撮影されたものであることがわかる。よって、CPU101は、ステップSP26において、記録した画像の撮影状況を、「旅行、記録、風景」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「旅行、記録、風景」に分類したことを意味する。
また上述のステップSP23で肯定結果を得ると、このことは、記録した画像から人物の顔が認識されていること、つまり記録した画像に人物の顔が含まれていることを意味する。このときCPU101は、ステップSP27に移る。
この場合、ここまでの判別結果から、記録した画像は、人物の顔が含まれ、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP27において、記録した画像の撮影状況を「日常、会合、旅行」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「日常、会合、旅行」に分類したことを意味する。
このようにして、記録した画像の撮影状況を判別し終えると、CPU101は、この撮影状況判別処理手順SRT2を終了して、次のステップSP4(図3)に移る。
ステップSP4においてCPU101は、ここまでに得た、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影シーン及び撮影状況を、記録した画像の属性情報としてデータベースに登録して、この属性情報登録処理手順RT1を終了する。
このような属性情報登録処理手順RT1により、DSC100は、記録した画像の属性情報を登録するようになっている。
ところで、上述した撮影状況判別処理手順SRT2では、場合によっては、画像の撮影状況を、「日常、会合、旅行」のいずれかというように大まかにしか判別できない。
そこで、CPU101は、記録部116に複数の画像が記録されている状態で、これら複数の画像を撮影日時をもとにグルーピングして、グループごとに画像の撮影状況を細かく判別し直すようになっている。
ここで、撮影状況を判別し直す処理手順(これを撮影状況再判別処理手順)について、図7に示すフローチャートを用いて説明する。
因みに、この撮影状況再判別処理手順RT2も、DSC100のCPU101が、プログラムROM102に書き込まれているプログラムに従って実行する処理手順である。
CPU101は、例えば、電源オン時に、記録部116に複数の画像が記録されていることを認識すると、この撮影状況再判別処理手順RT2を開始して、ステップSP30に移る。
ステップSP30においてCPU101は、データベースに属性情報として登録されている各画像の撮影日時をもとに、記録部116に記録されている各画像を撮影日時単位でグルーピングする。
具体的にCPU101は、例えば、各画像を、撮影日時に基づいて、時間軸上に並べ、時間軸上に隣接する2つの画像の撮影日時の差が所定値以上である場合に、2つの画像の間を、グループの境界とするようにして、各画像をグルーピングする。
実際、記録部116に記録されている各画像は、旅行などのイベント単位で、時間的にまとまっていることが多い。ゆえに、上述したようにして各画像をグルーピングすることで、各画像をイベント単位でまとめることができる。
このようにしてグルーピングした後、CPU101は、次のステップSP31に移る。ステップSP31においてCPU101は、グループごとに(すなわちイベントごとに)、画像の撮影状況を再判別する。
具体的にCPU101は、例えば、グループごとに、グループ内の画像の撮影状況から、グループ内で最も多く登録されている撮影状況を抽出する。そしてCPU101は、この撮影状況が、グループ内で最も信頼度の高い撮影状況であるとして、この撮影状況を、グループ内の画像の新たな撮影状況とする。
例えば、或るグループ内に3つの画像が有り、これら3つの画像の撮影状況が、それぞれ「日常、会合、旅行」、「旅行、記録、風景」、「記念撮影」であったとする。この場合、CPU101は、「旅行」を、これら3つの画像の撮影状況のうち、最も信頼度の高い撮影状況であるとして、これら3つの画像の撮影状況を「旅行」と再判別する。このことは、CPU101が、これら3つの画像を、撮影状況の「旅行」に分類したことを意味する。
このようにして、グループごとに、画像の撮影状況を再判別し終えると、すなわち再分類し終えると、CPU101は、次のステップSP32に移る。
ステップSP32においてCPU101は、ステップSP31の再判別に基づいて、データベースに属性情報として登録されている各画像の撮影状況を更新して、この撮影状況再判別処理手順RT2を終了する。
このような撮影状況再判別処理手順RT2により、DSC100は、撮影状況を再判別するようになっている。
[1−4.動作及び効果]
以上の構成において、DSC100のCPU101は、撮影時に、現在日時、被写界深度、顔認識情報及びGPS可否情報を取得する。
さらにCPU101は、取得したこれらの情報をもとに、記録した画像の撮影シーン及び撮影状況を判別する。
そしてCPU101は、判別した撮影シーン及び撮影状況を、取得した被写界深度などと共に、記録した画像の属性情報としてデータベースに登録する。
このように、記録した画像ごとに、撮影シーン及び撮影状況を判別して、これらを記録した画像の属性情報とすることで、DSC100に記録された各画像が、撮影シーン及び撮影状況により分類されたことになる。
このように、CPU101は、記録した画像を、被写界深度などの情報に基づいて、撮影シーン毎に及び撮影状況により分類する。
そしてCPU101は、例えば、ユーザにより所望の撮影シーンが指定されると、指定された撮影シーンを属性情報として持つ画像(つまり指定された撮影シーンに分類された画像)を検索して、液晶パネル106に表示させる。
このように、DSC100は、記録した画像を、何時撮影したのかではなく、撮影シーンや撮影状況のように、どのような画像を撮影したのかという観点から分類するようにした。
これにより、DSC100は、撮影日時で分類する場合と比して、所望の画像をユーザが見付け出し易くすることができる。
またDSC100のCPU101は、記録した画像を、撮影日時をもとにイベントごとにグルーピングする。そしてCPU101は、グループごとに、グループ内の画像の撮影状況のうち、最も信頼度が高い撮影状況を特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を再判別する。
この再判別は、同一イベントの画像は同一撮影状況で撮影されたものであるという考え方に基づくものである。こうすることでCPU101は、記録した画像を、より正確な撮影状況で分類することができる。
以上の構成によれば、DSC100は、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができ、かくして、画像の検索性を向上させることができる。
<2.他の実施の形態>
[2−1.他の実施の形態1]
尚、上述した実施の形態では、DSC100のCPU101が、上述した撮影シーン判別処理手順SRT1及び撮影状況判別処理手順SRT2により、記録した画像の撮影シーン及び撮影状況を判別するようにした。
これに限らず、例えば、図8に示すように、予め様々な撮影パターンと、その撮影パターンで撮影された画像を分類する撮影シーンとを対応付けたデータを利用して、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。このデータをパターン別シーンデータとも呼び、このデータは、予め例えばフラッシュメモリ117に記憶されているとする。
この撮影パターンは、被写界深度が浅いか深いか、人物の顔が認識されているか否か、顔にピントが合っているか否か、顔の数が複数であるか否か、GPS情報を受信できたか否かの組み合わせにより分けられている。
したがって、CPU101は、この組み合わせから、撮影時の撮影パターンを特定し、さらに特定した撮影パターンから、記録した画像の撮影シーンを判別する。
例えば、被写界深度が浅く、顔が認識され、顔にピントが合っており、顔の数が単数で、GPS情報を受信できているとすると、CPU101は、この組み合わせから、撮影時の撮影パターンがパターン3であると特定できる。
そしてCPU101は、このパターン3に、撮影シーンとしてポートレートが対応付けられていることから、記録した画像の撮影シーンを「ポートレート」と判別する。つまり、CPU101は、記録した画像を、撮影シーンの「ポートレート」に分類する。
また、例えば図9に示すように、予め様々な撮影パターンと、その撮影パターンで撮影された画像を分類する撮影状況とを対応付けたデータを利用して、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。このデータをパターン別状況データとも呼び、このデータは、予め例えばフラッシュメモリ117に記憶されているとする。
この撮影パターンは、被写界深度が浅いか深いか、人物の顔が認識されているか否か、GPS情報を受信できたか否かの組み合わせにより分けられている。
したがって、CPU101は、この組み合わせから、撮影時の撮影パターンを特定し、さらに特定した撮影パターンから、記録した画像の撮影状況を判別する。
例えば、被写界深度が深く、顔が認識され、GPS情報を受信できているとすると、CPU101は、この組み合わせから、撮影時の撮影パターンがパターン5であると特定できる。
そしてCPU101は、このパターン5に、撮影状況として「記念撮影」が対応付けられていることから、記録した画像の撮影状況を「記念撮影」と判別する。つまり、CPU101は、記録した画像を、撮影状況の「記念撮影」に分類する。
またCPU101が、フラッシュメモリ117に記憶されているパターン別シーンデータ及びパターン別状況データを、メモリカード等を介して外部から取得したパターン別シーンデータ及びパターン別状況データにより更新する等してもよい。
[2−2.他の実施の形態2]
さらに上述した実施の形態では、撮影時に、撮影日時、被写界深度、顔認識情報、GPS可否情報を取得して、これらをもとに、記録した画像の撮影シーン及び撮影状況を判別するようにした。
これに限らず、CPU101が、撮影時に、上述した情報にくわえて、GPSモジュール118から現在位置情報を取得し、これらをもとに、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。尚、ここでは、撮影時に取得した現在位置情報を、撮影場所情報とも呼ぶ。
この場合、CPU101は、例えば、撮影時に取得した現在位置情報(すなわち撮影場所情報)と、既にデータベースに登録されている他の画像の撮影場所情報の各々との距離を算出する。
ここで、今回取得した撮影場所情報との距離が所定範囲(例えば数キロメートル)内である撮像場所情報が所定数(例えば10個)以上、データベースに登録されていたとする。
このことは、今回の撮影場所が、ユーザが普段よく撮影を行う場所であることを意味する。
このことを利用して、撮影状況を判別するようにした場合の撮影状況判別処理手順SRT3を、図10に示すフローチャートを用いて説明する。尚、この撮影状況判別処理手順SRT3のステップSP20〜SP26の処理は、上述した撮影状況判別処理手順SRT2と同様である為、ここでは説明を省略する。
CPU101は、この撮影状況判別処理手順SRT3のステップSP23で肯定結果を得ると、ステップSP100に移る。
ステップSP100においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が受信できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP101に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP101において、記録した画像の撮影状況を、「屋内、会合」のいずれかであると判別する。つまり、CPU101は、この画像を、撮影状況として「屋内、会合」に分類する。
また上述のステップSP100で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP102に移る。
ステップSP102においてCPU101は、取得した現在位置情報(撮影場所情報)と、既に登録されている他の画像の撮影場所情報とに基づいて、今回の撮影場所が、ユーザが普段よく撮影を行う場所であるか否かを判別する。
ここで肯定結果を得ると、このことは今回の撮影場所が、ユーザが普段よく撮影を行う場所であることを意味する。このときCPU101は、ステップSP103に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋外のユーザが普段よく撮影を行う場所で撮影されたものであることがわかる。よって、CPU101は、ステップSP103において、記録した画像の撮影状況を、「日常」であると判別する。つまり、CPU101は、この画像を、撮影状況として「日常」に分類する。
また上述のステップSP102で否定結果を得ると、このことは、今回の撮影場所が、ユーザが普段撮影を行わない場所であることを意味する。このときCPU101は、ステップSP104に移る。
この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋外のユーザが普段撮影を行わない場所で撮影されたものであることがわかる。よって、CPU101は、ステップSP104において、記録した画像の撮影状況を、「旅行」であると判別する。つまり、CPU101は、この画像を、撮影状況として「旅行」に分類する。
このように、撮影場所情報を利用することで、より正確に撮影状況を判別することができる。
また、予めユーザの自宅の位置情報を登録しておき、この位置情報と、今回取得した撮影場所情報との距離をもとに、今回の撮影場所が、ユーザが普段よく撮影を行う場所であるか否か(自宅付近であるか否か)を判別するようにしてもよい。
さらに、DSC100のフラッシュメモリ117に、予め位置情報と地名とが対応付けて登録された地図データベースを記憶させておき、CPU101が、この地図データベースから撮影場所の地名を取得するようにしてもよい。
そして、例えば、上述したステップSP104において、記録した画像を、撮影状況として「地名+旅行」に分類するようにしてもよい。このようにすれば、記録した画像をより細かく分類することができ、一段と、所望の画像をユーザが見付け出し易くすることができる。
さらに、CPU101が、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影場所情報に限らず、撮影時に取得できる様々な情報をもとに、撮影シーンや撮影状況を判別するようにしてもよい。
例えば、撮影時のカメラ設定から、明るさやシャッタスピードが取得できれば、これらと撮影日時とをもとに、記録した画像が、夜景を撮影したものであるかが判別できる。
また、例えば、DSC100に加速度センサが設けられ、DSC100に加えられている加速度が取得できれば、記録した画像が、パンさせながら撮影されたものであるか、すなわち流し撮りしたものであるかが判別できる。
このように撮影時に取得できる様々な情報を利用することで、より多様な撮影シーンや撮影状況を判別することができる。
[2−3.他の実施の形態3]
さらに上述した実施の形態では、撮影日時、被写界深度、顔認識情報、GPS可否情報をもとに、記録した画像を、撮影シーン毎にや撮影状況により分類するようにした。
これに限らず、被写界深度のみをもとに、記録した画像を被写界深度が深いか浅いかで分類するようにしてもよい。このように被写界深度のみで分類したとしても、記録した画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。これにより、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。
またこれに限らず、被写界深度と、撮影日時、顔認識情報、GPS可否情報のうちの任意の情報とをもとに、記録した画像を分類するようにしてもよい。
[2−4.他の実施の形態4]
さらに上述した実施の形態では、撮影日時単位のグループごとに、グループ内で最も多く登録されている撮影状況を、グループ内で最も信頼度の高い撮影状況であるとして、撮影状況を最判別するようにした。
これに限らず、例えば、グループ内で登録されている撮影状況のうち、「旅行」のように1つに限定されている撮影状況があれば、これを最も信頼度の高い撮影状況であるとしてもよい。
例えば、或るグループ内に2つの画像が有り、これら2つの画像の撮影状況が、それぞれ「旅行、記録、風景」、「日常」であったとする。この場合、CPU101は、「日常」を、これら2つの画像の撮影状況のうち、最も信頼度の高い撮影状況であるとする。
また1つに限定されている撮影状況が複数有る場合には、それらのうちのいずれか、もしくは最も多く登録されているものを、最も信頼度の高い撮影状況であると判別するようにしてもよい。
[2−5.他の実施の形態5]
さらに上述した実施の形態では、撮影シーンと撮影状況との両方を判別するようにした。これに限らず、撮影シーン及び撮影状況のうちのどちらか一方を判別するようにしてもよい。
[2−6.他の実施の形態6]
さらに上述した実施の形態では、CPU101が、撮影時に、画像の撮影シーン及び撮影状況を判別するようにした。
これに限らず、撮影時に、撮影日時、被写界深度、顔認識情報、GPS可否情報を属性情報としてデータベースに登録しておき、この属性情報をもとに、任意の時点で撮影シーン及び撮影状況を判別するようにしてもよい。
[2−7.他の実施の形態7]
さらに上述した実施の形態では、撮像装置としてのDSC100に、撮像部としてのレンズ部110及び撮像素子112を設けるようにした。またこのDSC100に、画像を記録する記録媒体としての記録部116を設けるようにした。さらにこのDSC1に被写界深度を取得する取得部、撮像した画像を所定の記録媒体に記録する制御部、及び被写界深度に基づいて画像を分類する分類部としてのCPU101を設けるようにした。
本発明はこれに限らず、同様の機能を有するのであれば、上述したDSC100の各機能部を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。
さらに上述した実施の形態では、DSC100に本発明を適用するようにした。これに限らず、カメラ機能を有する機器であれば、デジタルビデオカメラ、携帯型電話機、ゲーム機など、この他種々の機器に適用するようにしてもよく、また適用することができる。
[2−8.他の実施の形態8]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、DSC100のプログラムROM102に書き込んでおくようにした。
これに限らず、このプログラムを例えばメモリカードなどの記録媒体に記録しておき、DSC100の制御部10が、このプログラムを記録媒体から読み出して実行するようにしてもよい。また記録媒体から読み出したプログラムを、フラッシュメモリ117にインストールするようにしてもよい。
[2−9.他の実施の形態9]
さらに本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
本発明は、カメラ機能を有する機器で広く利用することができる。
100……DSC(デジタルスチルカメラ)、101……CPU、102……プログラムROM、103……RAM、104……タッチパネル、105……操作部、106……液晶パネル、110……レンズ部、112……CCD、116……記録部、117……フラッシュメモリ、118……GPSモジュール。

Claims (8)

  1. 被写界深度を変更可能な撮像部と、
    撮影時の被写界深度を取得する取得部と、
    上記撮像部で撮像した画像を所定の記録媒体に記録する制御部と、
    上記記録媒体に記録した画像を、上記取得部により取得された当該画像の撮影時の被写界深度に基づいて分類する分類部と
    を具える撮像装置。
  2. 上記取得部は、
    さらに、撮像した画像から人物の顔が認識できたかを示す顔認識情報と、撮影時に所定の測位部から現在位置を取得できたかを示す位置取得可否情報とのうち少なくとも一方を取得し、
    上記分類部は、
    上記記録媒体に記録した画像を、上記取得部により取得された当該画像の撮影時の被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方とに基づいて分類する
    請求項1に記載の撮像装置。
  3. 上記制御部は、
    上記撮像部で撮像した画像と、上記取得部により取得された当該画像の撮影時の被写界深度とを関連付けて上記記録媒体に記録し、
    上記分類部は、
    上記記録媒体に記録した画像を、当該画像に関連付けられている被写界深度に基づいて分類する
    請求項1に記載の撮像装置。
  4. 上記分類部は、
    上記取得部により取得された当該画像の撮影時の被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方とに基づいて、上記記録媒体に記録した画像の撮影状況を判別することで、当該画像を撮影状況によって分類する
    請求項2に記載の撮像装置。
  5. 上記分類部は、
    上記取得部により取得された当該画像の撮影時の被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方とに基づいて、上記記録媒体に記録した画像を撮影シーン毎に分類する
    請求項2に記載の撮像装置。
  6. 上記取得部は、
    さらに撮影日時を取得し、
    上記制御部は、
    上記撮像部で撮像した画像と、上記取得部により取得された撮影日時と、上記分類部により判別された当該画像の撮影状況とを関連付けて上記記録媒体に記録し、
    上記分類部は、
    上記記録媒体に記録された画像を、画像に関連付けられた撮影日時に基づいてグループ化し、グループごとに、グループ内の画像に関連付けられた撮影状況に基づいて、グループ内の画像で共通の撮影状況を判別する
    請求項4に記載の撮像装置。
  7. 撮影時の被写界深度を取得部が取得し、
    被写界深度を変更可能な撮像部で撮像した画像を制御部が所定の記録媒体に記録し、
    上記記録媒体に記録した画像を、上記取得部により取得された当該画像の撮影時の被写界深度に基づいて分類部が分類する
    画像分類方法。
  8. 撮像装置に、
    撮影時の被写界深度を取得部が取得する取得ステップと、
    被写界深度を変更可能な撮像部で撮像した画像を制御部が所定の記録媒体に記録する記録ステップと、
    上記記録媒体に記録した画像を、上記取得ステップで取得した当該画像の撮影時の被写界深度に基づいて分類部が分類する分類ステップと
    を実行させるための画像分類プログラム。
JP2009116804A 2009-05-13 2009-05-13 画像分類装置、画像分類方法及びそのプログラム Expired - Fee Related JP5369881B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009116804A JP5369881B2 (ja) 2009-05-13 2009-05-13 画像分類装置、画像分類方法及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009116804A JP5369881B2 (ja) 2009-05-13 2009-05-13 画像分類装置、画像分類方法及びそのプログラム

Publications (3)

Publication Number Publication Date
JP2010268141A true JP2010268141A (ja) 2010-11-25
JP2010268141A5 JP2010268141A5 (ja) 2012-04-12
JP5369881B2 JP5369881B2 (ja) 2013-12-18

Family

ID=43364778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009116804A Expired - Fee Related JP5369881B2 (ja) 2009-05-13 2009-05-13 画像分類装置、画像分類方法及びそのプログラム

Country Status (1)

Country Link
JP (1) JP5369881B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158396A (ja) * 2014-02-24 2015-09-03 Kddi株式会社 携帯端末の位置するフロアレベルを推定する管理装置、プログラム、システム及び方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282570A (ja) * 2003-03-18 2004-10-07 Fuji Xerox Co Ltd 画像処理装置
JP2005122688A (ja) * 2003-09-26 2005-05-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2008011346A (ja) * 2006-06-30 2008-01-17 Olympus Imaging Corp 撮像システム
JP2008042616A (ja) * 2006-08-08 2008-02-21 Eastman Kodak Co 撮像装置
JP2008078836A (ja) * 2006-09-20 2008-04-03 Olympus Imaging Corp カメラ、ブログ検索システム、プログラム
JP2008109338A (ja) * 2006-10-25 2008-05-08 Olympus Imaging Corp 画像管理装置、カメラ、画像管理方法、プログラム
JP2008141270A (ja) * 2006-11-30 2008-06-19 Olympus Imaging Corp カメラ、画像記録方法およびプログラム
JP2008165700A (ja) * 2007-01-05 2008-07-17 Seiko Epson Corp 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282570A (ja) * 2003-03-18 2004-10-07 Fuji Xerox Co Ltd 画像処理装置
JP2005122688A (ja) * 2003-09-26 2005-05-12 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2008011346A (ja) * 2006-06-30 2008-01-17 Olympus Imaging Corp 撮像システム
JP2008042616A (ja) * 2006-08-08 2008-02-21 Eastman Kodak Co 撮像装置
JP2008078836A (ja) * 2006-09-20 2008-04-03 Olympus Imaging Corp カメラ、ブログ検索システム、プログラム
JP2008109338A (ja) * 2006-10-25 2008-05-08 Olympus Imaging Corp 画像管理装置、カメラ、画像管理方法、プログラム
JP2008141270A (ja) * 2006-11-30 2008-06-19 Olympus Imaging Corp カメラ、画像記録方法およびプログラム
JP2008165700A (ja) * 2007-01-05 2008-07-17 Seiko Epson Corp 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158396A (ja) * 2014-02-24 2015-09-03 Kddi株式会社 携帯端末の位置するフロアレベルを推定する管理装置、プログラム、システム及び方法

Also Published As

Publication number Publication date
JP5369881B2 (ja) 2013-12-18

Similar Documents

Publication Publication Date Title
US9154690B2 (en) Image search device, image search method, and image search program
US9888136B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
KR101720774B1 (ko) 디지털 촬영 장치 및 그의 사진 제공 방법
US9013589B2 (en) Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image
JP5388611B2 (ja) 撮像装置およびその制御方法、プログラム
JP2009044602A (ja) 撮像装置、撮像システム及び撮像方法
JP2007094762A (ja) 情報処理装置および方法、並びにプログラム
US20130100329A1 (en) Image pickup apparatus
JP2010245607A (ja) 画像記録装置および電子カメラ
JP4901258B2 (ja) カメラ及びデータ表示方法
JP2014146989A (ja) 撮像装置、撮像方法および撮像プログラム
JP2015198300A (ja) 情報処理装置、撮像装置、画像管理システム
CN106231198B (zh) 拍摄图像的方法及装置
US20160055662A1 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
CN112989092A (zh) 一种图像处理方法及相关装置
JP2007110261A (ja) デジタルカメラ
JP2012084052A (ja) 撮像装置、制御方法及びプログラム
JP5369881B2 (ja) 画像分類装置、画像分類方法及びそのプログラム
US20110205396A1 (en) Apparatus and method, and computer readable recording medium for processing, reproducing, or storing image file including map data
JP4185810B2 (ja) 撮影装置
JP5368614B2 (ja) 画像検索装置および画像検索方法
JP6447615B2 (ja) 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム
JP2010183565A (ja) 撮像装置、画像検索装置およびプログラム
JP6450879B2 (ja) 記録装置、記録方法及び記録プログラム
JP6375114B2 (ja) 画像再生装置及び画像再生装置の制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

LAPS Cancellation because of no payment of annual fees