JP4232774B2 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4232774B2
JP4232774B2 JP2005319724A JP2005319724A JP4232774B2 JP 4232774 B2 JP4232774 B2 JP 4232774B2 JP 2005319724 A JP2005319724 A JP 2005319724A JP 2005319724 A JP2005319724 A JP 2005319724A JP 4232774 B2 JP4232774 B2 JP 4232774B2
Authority
JP
Japan
Prior art keywords
image
group
information
event
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005319724A
Other languages
English (en)
Other versions
JP2007129434A (ja
Inventor
超 徐
智彦 後藤
環 児嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005319724A priority Critical patent/JP4232774B2/ja
Priority to TW095139413A priority patent/TWI351620B/zh
Priority to EP06122936A priority patent/EP1785896A3/en
Priority to US11/553,259 priority patent/US8538961B2/en
Priority to KR1020060105662A priority patent/KR101325110B1/ko
Priority to CNB2006101380164A priority patent/CN100435166C/zh
Publication of JP2007129434A publication Critical patent/JP2007129434A/ja
Application granted granted Critical
Publication of JP4232774B2 publication Critical patent/JP4232774B2/ja
Priority to US13/921,423 priority patent/US9507802B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Stored Programmes (AREA)

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、画像を撮影したときのイベントを識別することができるようにした情報処理装置および方法、並びにプログラムに関する。
従来より、ディジタルカメラで撮影された画像を分類する技術として様々なものが提案されている。
特許文献1には、撮影した画像に書き換えのできないIDを組み込み、そのIDを用いて、画像の分類や検索、あるいは、画像の再生の制限などを行う技術が開示されている。特許文献2には、1枚の画像全体から所定の領域を切り出し、切り出した領域から抽出された特徴に基づいて画像のカテゴリを決定する技術が開示されている。
特開平10−51721号公報 特開2002−32751号公報
ところで、ある「飲み会」で撮影した画像をひとまとまりの画像として管理したり、ある「旅行」で撮影した画像をひとまとまりの画像として管理したりするように、撮影した画像をイベント毎に管理することが一般的に行われている。このように管理しておくことにより、ユーザは、例えば、「飲み会」の画像を見たいと思ったときに、「飲み会」としてまとめられた画像を指定するだけでそれを見ることができる。
従来、このようなイベント毎に画像を管理するためには、ユーザ自らがイベント毎にフォルダを作成し、撮影した画像をそれぞれのフォルダに振り分ける必要があり、このような整理に慣れていない人には面倒であることから、仮に、画像などから、それを撮影したときのイベントが機器によって自動的に識別され、イベント毎に画像が管理されるとすれば非常に便利であると考えられる。
本発明はこのような状況に鑑みてなされたものであり、画像自体や画像の属性情報から、その画像を撮影したときのイベントを識別することができるようにするものである。
本発明の一側面の情報処理装置は、撮影画像に付加されている属性情報に含まれる撮影時刻の情報と、撮影画像を解析することによって求められた撮影画像に写る人の顔の数の情報を含む情報を、撮影画像の特徴情報として抽出する特徴情報抽出手段と、複数の撮影画像を対象として、それぞれの撮影画像の撮影時刻の時間間隔のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けを行うクラスタリング手段と、前記クラスタリング手段により同じグループの撮影画像として分類された複数の撮影画像の前記特徴情報の平均をグループの特徴情報として、グループの特徴情報の条件にあうグループのイベントを、複数の学習用の撮影画像の撮影時刻の情報と、前記学習用の撮影画像に写る人の顔の数の情報を含む情報に基づいて学習を行うことによってあらかじめ生成された、各イベントをイベントの識別結果として得るための前記特徴情報の条件が記述された識別ファイルを参照して識別するイベント識別手段と、ユーザにより選択されたグループに含まれる撮影画像を所定の領域にサムネイル表示させるとともに、同じ画面の前記所定の領域と異なる領域に、ユーザにより選択された前記グループと同じイベントのグループとして前記イベント識別手段により識別されたグループに含まれる撮影画像のうちの代表画像を複数表示させ、代表画像を表示させているグループが選択されたとき、選択されたグループに含まれる撮影画像を前記所定の領域にサムネイル表示させる表示制御手段とを備える。
前記イベント識別手段には、前記特徴情報抽出手段により抽出された前記特徴情報の条件にあうそれぞれの撮影画像のイベントを前記識別ファイルを参照して識別させ、前記表示制御手段には、1枚の撮影画像を表示させるとともに、同じ画面に、表示させている撮影画像のイベント名を表示させることができる。
前記クラスタリング手段には、撮影時刻が近い撮影画像同士が同じノードに属し、それぞれのノードに属する撮影画像の撮影時刻に基づいて設定したノードの時刻と近い撮影時刻の画像とそのノードが同じノードに属するようにして、グループ分けの対象になる複数の撮影画像からなる二分木構造を生成させ、それぞれのノードに注目して、注目するノードを親のノードとする子ノード間の時間間隔の偏差の値を前記注目するノード内全体の撮影画像の撮影時刻の時間間隔の標準偏差の値で割って得られた値と、閾値とを比較し、閾値より大きい値が求められたノードを親のノードとするそれぞれの子ノードに含まれる撮影画像が異なるグループの撮影画像になるようにしてグループ分けを行わせることができる。
本発明の一側面の情報処理方法またはプログラムは、撮影画像に付加されている属性情報に含まれる撮影時刻の情報と、撮影画像を解析することによって求められた撮影画像に写る人の顔の数の情報を含む情報を、撮影画像の特徴情報として抽出し、複数の撮影画像を対象として、それぞれの撮影画像の撮影時刻の時間間隔のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けを行い、同じグループの撮影画像として分類した複数の撮影画像の前記特徴情報の平均をグループの特徴情報として、グループの特徴情報の条件にあうグループのイベントを、複数の学習用の撮影画像の撮影時刻の情報と、前記学習用の撮影画像に写る人の顔の数の情報を含む情報に基づいて学習を行うことによってあらかじめ生成された、各イベントをイベントの識別結果として得るための前記特徴情報の条件が記述された識別ファイルを参照して識別し、ユーザにより選択されたグループに含まれる撮影画像を所定の領域にサムネイル表示させるとともに、同じ画面の前記所定の領域と異なる領域に、ユーザにより選択された前記グループと同じイベントのグループとして識別したグループに含まれる撮影画像のうちの代表画像を複数表示させ、代表画像を表示させているグループが選択されたとき、選択されたグループに含まれる撮影画像を前記所定の領域にサムネイル表示させるステップを含む。
本発明の一側面においては、撮影画像に付加されている属性情報に含まれる撮影時刻の情報と、撮影画像を解析することによって求められた撮影画像に写る人の顔の数の情報を含む情報が、撮影画像の特徴情報として抽出され、複数の撮影画像を対象として、それぞれの撮影画像の撮影時刻の時間間隔のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けが行われる。また、同じグループの撮影画像として分類された複数の撮影画像の前記特徴情報の平均をグループの特徴情報として、グループの特徴情報の条件にあうグループのイベントが、複数の学習用の撮影画像の撮影時刻の情報と、前記学習用の撮影画像に写る人の顔の数の情報を含む情報に基づいて学習を行うことによってあらかじめ生成された、各イベントをイベントの識別結果として得るための前記特徴情報の条件が記述された識別ファイルを参照して識別される。ユーザにより選択されたグループに含まれる撮影画像が所定の領域にサムネイル表示されるとともに、同じ画面の前記所定の領域と異なる領域に、ユーザにより選択された前記グループと同じイベントのグループとして識別されたグループに含まれる撮影画像のうちの代表画像が複数表示され、代表画像が表示されているグループが選択されたとき、選択されたグループに含まれる撮影画像が前記所定の領域にサムネイル表示される。
本発明の一側面によれば、画像を撮影したときのイベントを識別することができる。
以下、本発明の実施の形態について図を参照して説明する。
図1は、本発明の一実施形態に係るパーソナルコンピュータ1に、ディジタルカメラ2が接続されている状態を示す図である。
図1の例においては、パーソナルコンピュータ1とディジタルカメラ2がケーブル3を介して接続され、パーソナルコンピュータ1とディジタルカメラ2の間では、ケーブル3を介して相互に通信を行うことができるようになされている。ディジタルカメラ2の内部にはフラッシュメモリなどの記録媒体が設けられており、その記録媒体にはユーザにより撮影された画像が記録されている。
パーソナルコンピュータ1とディジタルカメラ2が接続されている図1の状態で、ユーザがパーソナルコンピュータ1を操作するなどしてディジタルカメラ2に記録されている画像をパーソナルコンピュータ1に取り込んだとき、パーソナルコンピュータ1上で起動するアプリケーション(アプリケーションプログラム)により、取り込まれたそれぞれの画像を撮影したときのイベントの識別が行われる。識別されたイベントを表す情報は、画像に対応付けてパーソナルコンピュータ1において管理される。
例えば、パーソナルコンピュータ1においては、「旅行」、「花見」、「花火」、「ドライブ・おでかけ」、「飲み会」、「結婚式」、「バーベキュー・キャンプ」、「スポーツ」の8つのイベントが識別可能なものとしてあらかじめ用意されており、その中から選択された1つのイベントを表す情報が、イベント識別の対象としている画像に対応付けられる。
詳細については後述するが、パーソナルコンピュータ1においては、例えば、イベント識別の対象とする画像自体や、EXIF(Exchangeable Image File Format)情報などの、画像の属性情報からメタデータが抽出され、抽出されたメタデータに基づいて、対象としている画像のイベントがSVM(Support Vector Machine)によって識別される。1枚の画像から抽出されたメタデータには、画像から抽出された、画像に写っている人の顔の数や位置の情報、画像の明度、色相、彩度などの色空間情報、EXIF情報から抽出された撮影日時、フラッシュを焚いたか否かなどの情報などが含まれ、それらに基づいて、画像を撮影したときのイベントが識別される。
このように、撮影されたそれぞれの画像を撮影したときのイベントがパーソナルコンピュータ1によって自動的に(ユーザによる選択によらずに)識別され、例えば、イベント毎にフォルダが生成されて同じイベントで撮影した画像が管理されるため、ユーザは、容易に、イベント毎に画像を管理することができる。また、ユーザは、イベントを指定して画像を閲覧したりすることができる。
一方、パーソナルコンピュータ1側からすれば、最近撮影した「花見」の画像をユーザが見ているときに前の年に撮影した「花見」の画像を自動的に表示することによって、画像を見ているユーザの記憶を想起させることができる。
このように、パーソナルコンピュータ1においては、画像に対応付けて管理されているイベントに基づいて各種の処理が実現される。
図2は、パーソナルコンピュータ1のディスプレイに表示される、画像の閲覧画面の例を示す図である。
図2の例においては、画面の上方に画像表示領域11が形成され、ここには、イベントの識別対象となる画像が表示される。図2の画像表示領域11には、木や人を被写体として撮影した画像が表示されている。
また、図2の例においては、画像表示領域11に表示されている画像の保存場所の情報(C:\Document and Setting〜)が画像表示領域11の下に表示され、その下に、識別結果表示領域12が形成されている。図2の識別結果表示領域12には、画像表示領域11に表示されている画像を撮影したときのイベントの識別結果(認識結果)として「花見」が表示されている。
このように、ユーザは、識別結果表示領域12の表示から、画像表示領域11に表示されている画像を撮影したときのイベントを確認することができる。
図2の例においては、識別結果表示領域12の下には、例えば、画像表示領域11に表示されている画像に替えて、同じフォルダで管理されている画像のうちの先頭の画像を画像表示領域11に表示させるときに操作されるボタン13、画像表示領域11に表示されている画像に替えて1つ前の画像を画像表示領域11に表示させるときに操作されるボタン14、画像表示領域11に表示されている画像に替えて1つ後の画像を画像表示領域11に表示させるときに操作されるボタン15、および、画像表示領域11に表示されている画像に替えて、同じフォルダで管理されている画像のうちの最後の画像を画像表示領域11に表示させるときに操作されるボタン16が横方向に並べて表示されている。ユーザは、これらのボタンを押すことによって、画像表示領域11に表示させる画像、すなわちイベントの識別対象とする画像を切り替えることができる。
また、図2の例においては、ボタン13乃至16の下には、「認識間違いだったら、以下のボタンを押し、直してください。」の文字が表示され、その下に、それぞれのイベントを選択するときに操作されるイベントボタン17が表示されている。イベントボタン17は、上述したそれぞれのイベントを指定するときに操作されるボタンから構成されている。
ユーザは、画像表示領域11に表示される画像の内容と、識別結果表示領域12に表示される識別結果を比較し、イベントが正しく判断されていないと感じたときにイベントボタン17を操作して正しいイベントを指定することによって、画像表示領域11に表示されている画像を、正しいイベントを対応付けた形でパーソナルコンピュータ1に管理させることができる。
このようにユーザにより正しいイベントが指定されたとき、パーソナルコンピュータ1内に保存される、イベントの識別時に参照されるファイル(どのようなメタデータが抽出された画像を、どのイベントとして判断するのかを記述したファイル)は、イベントの識別精度がより高まるように更新される。
図3は、パーソナルコンピュータ1のディスプレイに表示される、画像の閲覧画面の他の例を示す図である。
パーソナルコンピュータ1においては、ディジタルカメラ2から取り込まれた画像は自動的にグループ分けされて管理され、ユーザは、画像の閲覧やコピーなどをグループ単位で行うことができるようになされている。
後述するように、ディジタルカメラ2から取り込まれた画像は、例えば、それぞれの画像の撮影時刻のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けされる。1つのグループには、グループに含まれる画像や属性情報から抽出されたデータに基づいて識別された1つのイベントが設定される。
図3の閲覧画面は、基本的に、画面の左方に形成される代表画表示領域31と、画面の右方に形成される画像表示領域32とから構成される。
代表画表示領域31は、同じイベントが設定されたグループの代表画が表示される領域である。図3の例においては、代表画表示領域31には、「2005年 花火」、「2004年 花火」、「2003年 花火」のイベント名が設定された、「花火」のイベントのグループの代表画が縦方向に並べて表示されている。
例えば、ユーザが「2005年 花火」のグループの画像を閲覧する画像として選択したとき、そのグループと同じ「花火」のイベントが設定された、「2004年 花火」のグループと、「2003年 花火」のグループがパーソナルコンピュータ1において管理されているグループの中から自動的に選択され、選択されたグループの代表画が表示されることによって、図3に示されるような閲覧画面の表示が実現される。
なお、それぞれのグループに設定されているイベント名のうち、「花火」は、グループに設定されたイベントを表すものとして設定されたものであり、「2005年」、「2004年」、「2003年」は、グループに含まれる画像の撮影日(年月日)の情報に基づいて設定されたものである。
ユーザは、このようにして代表画が表示されるグループから所定のグループを選択し、選択したグループの画像を一覧表示させることができる。
図3の例においては、「2005年 花火」のグループが選択されており、「2005年 花火」のグループに含まれる14枚の画像が画像表示領域32に一覧表示(サムネイル表示)されている。図3の画像表示領域32に表示されているそれぞれの画像は、「花火」のときに撮影した画像である。
このように、ユーザが選択したグループと同じイベントが設定されているグループ(グループの代表画)が自動的に表示されるから、いわば、イベントに基づく賢い検索機能が実現されることになり、ユーザは、自分が選択した画像を撮影したときの状況と同じ状況で過去に撮影した画像を見て楽しむことができる。
なお、イベントが設定されるそれぞれのグループは、図4に示されるように、階層構造を有する形でパーソナルコンピュータ1において管理される。図4の白抜き矢印の先に示される階層構造においては、「旅行」のイベントが設定されたルートノードnrootには「ドライブ・おでかけ」のイベントが設定されたノードn1と「飲み会」のイベントが設定されたノードn2が子のノードとして連結され、ノードn2には、同じく「飲み会」のイベントが設定されたノードn3と「B.B.Q(バーベキュー・キャンプ)」のイベントが設定されたノードn4が子のノードとして連結されている。ノードn3とn4には複数の画像が含まれるものとされている。
それぞれのノード(グループ)に含まれる画像は、ノードに直接に、または他のノードを介して間接的に連結される画像であり、ユーザは、所定のノードを選択し、好みの粒度のイベント単位で画像を閲覧したり、整理したりすることができる。
以上のようにして画像を管理し、閲覧画面を表示するパーソナルコンピュータ1の動作についてはフローチャートを参照して後述する。
図5は、図1のパーソナルコンピュータ1の構成例を示すブロック図である。
CPU(Central Processing Unit)41は、ROM(Read Only Memory)42、または記憶部48に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)43には、CPU41が実行するプログラムやデータなどが適宜記録される。これらのCPU41、ROM42、およびRAM43は、バス44により相互に接続されている。
なお、CPU41として、”Cell誕生”、日経エレクトロニクス、日経BP社、2005年2月28日、89頁乃至117頁に記載されているCellを採用することができる。
CPU41にはまた、バス44を介して入出力インターフェース45が接続されている。入出力インターフェース45には、キーボード、マウス、マイクロホンなどよりなる入力部46、ディスプレイ、スピーカなどよりなる出力部47が接続されている。CPU41は、入力部46から入力される指令に対応して各種の処理を実行する。そして、CPU41は、処理の結果を出力部47に出力する。
入出力インターフェース45に接続されている記憶部48は、例えばハードディスクからなり、CPU41が実行するプログラム、ディジタルカメラ2から取り込まれた画像などの各種のデータを記録する。通信部49は、ディジタルカメラ2との間で通信を行い、ディジタルカメラ2から取り込まれた画像やEXIF情報をCPU41などに出力する。通信部49においては、インターネットやローカルエリアネットワークなどのネットワークを介した外部の装置との通信なども行われる。
入出力インターフェース45に接続されているドライブ50は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア51が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部48に転送され、記録される。ディジタルカメラ2からの画像やEXIF情報の取り込みは、このリムーバブルメディア51を介しても行われる。
図6は、パーソナルコンピュータ1の機能構成例を示すブロック図である。図6に示す機能部のうちの少なくとも一部は、図5のCPU41により所定のプログラムが実行されることによって実現される。
パーソナルコンピュータ1においては、画像DB61、特徴抽出部62、イベント識別部63、演算部64、およびユーザインタフェース制御部65が実現される。特徴抽出部62はEXIF情報処理部71、顔情報抽出部72、および類似画像認識処理部73から構成され、演算部64はクラスタリング部81と階層決定部82から構成される。
画像DB61にはディジタルカメラ2から取り込まれた画像や、それぞれの画像の属性情報であるEXIF情報(JEITAで規定されている、主にディジタルカメラ用の画像情報タグ。JEITA CP-3451-1 EXIF Ver.2.21およびJEITA CP-3461 DCF Ver.2.0に準拠)が記録される。
特徴抽出部62は、イベントの識別対象とする画像をEXIF情報とともに画像DB61から読み出し、読み出したデータから抽出した、画像の特徴を表すメタデータをイベント識別部63に出力する。
具体的には、特徴抽出部62のEXIF情報処理部71は、画像DB61から読み出されたEXIF情報から、撮影時刻などの所定の情報を抽出する。また、EXIF情報処理部71は、EXIF情報に含まれる撮影時刻の情報を演算部64にも出力する。
顔情報抽出部72は、画像DB61から読み出された画像を解析することによって、画像に写っている人の顔の情報を抽出する。顔の情報を抽出する技術については例えば特開2005−44330号公報に開示されており、この技術により、画像に写っている人の顔の数などの情報が抽出される。
類似画像認識処理部73は、画像DB61から読み出された画像を解析することによって、画像の色空間の情報などを抽出する。色空間の情報などを抽出する技術については例えば国際公開第00/39712号パンフレットに開示されている。
図7は、特徴抽出部62を構成する各部により抽出される情報の例を示す図である。
「DateTimeOriginal」のタグ名で表される情報は画像の撮影日時を表し、「Flash」のタグ名で表される情報は画像を撮影するときのフラッシュの状態を表す。「ExposureTime」のタグ名で表される情報は画像の撮影時の露出時間を表し、「FNumber」のタグ名で表される情報は画像の撮影時のF値(絞り値)を表す。
これらの4つの情報(「DateTimeOriginal」、「Flash」、「ExposureTime」、「FNumber」)が、対象とする画像のEXIF情報からEXIF情報処理部71により抽出される。
「nx」の名前で表される値は、画像に写っている人の顔のX軸方向の位置を表し、「ny」の名前で表される値は、画像に写っている人の顔のY軸方向の位置を表す。例えば、1枚の画像の左上端を(0,0)、右上端を(1,0)、左下端を(0,1)、右下端を(1,1)とし、検出された顔の範囲を表す枠のX軸方向、Y軸方向の位置(枠の左上の位置)が、「nx」、「ny」の値により表される。
「nwidth」の名前で表される値は、画像に写っている人の顔の幅を表し、「nheight」の名前で表される値は、画像に写っている人の顔の高さを表す。「Pitch」の名前で表される値は、画像に写っている人の顔の上下方向の向きを表し、「yaw」の名前で表される値は画像に写っている人の顔の左右方向の向きを表す。「TotalFace」の名前で表される値は、画像に写っている人の顔の数を表す。
これらの7つの情報(「nx」、「ny」、「nwidth」、「nheight」、「Pitch」、「yaw」、「TotalFace」)が、対象とする画像から顔情報抽出部72により抽出される。なお、「nx」、「ny」、「nwidth」、「nheight」、「Pitch」、「yaw」のそれぞれの値は、イベント識別の対象とする1つの画像に写っている人の顔の数の分だけ抽出される。
「L」の名前で表される値は画像の明度を表し、「a」の名前で表される値は画像の色相を表す。「b」の名前で表される値は画像の彩度を表す。
これらの3つの情報(「L」、「a」、「b」)が、対象とする画像から類似画像認識処理部73により抽出される。
以上のような各種の情報が記述されたメタデータが特徴抽出部62からイベント識別部63に出力され、画像を撮影したときのイベントの識別に用いられる。
図6の説明に戻り、イベント識別部63は、特徴抽出部62から供給されたメタデータから、対象とする画像を撮影したときのイベントを例えば上述した8種類のうちの1つを選択することによって識別し、識別したイベントの情報をメタデータに書き込んで管理する。イベントの情報も書き込まれたメタデータは、適宜、イベント識別部63から演算部64やユーザインタフェース制御部65に出力される。
図8は、イベント識別部63により管理されるメタデータ(イベントの情報も書き込み済みのメタデータ)の例を示す図である。図8において、それぞれの行の左端に示される数字と「;」は説明の便宜上付したものであり、メタデータの一部を構成するものではない。
図8に示されるように、メタデータは例えばXML(eXtensible Markup Language)文書として管理される。
1行目の「Photo」は、1枚の画像に対応付けられるメタデータの開始位置を表す。
2行目の「guid」タグは、図8のメタデータが対応付けられている画像のGUID(Global Unique Identifier)を表す。図8の例においては、画像のGUIDは「{624D4F19-1249-4d18-AAF8-15E1BFFF076F}」とされている。このGUIDにより、メタデータが対応付けられる画像が識別される。
3行目の「FilePath」タグは、図8のメタデータが対応付けられている画像のパーソナルコンピュータ1上での保存場所を表す。図8の例においては、画像の保存場所は「C:\Documents and Settings\aaa\デスクトップ\test\IMGP2198.JPG」とされている。
4行目の「PixelXDimension」タグ、5行目の「PixelYDimension」は、それぞれ、図8のメタデータが対応付けられている画像の横方向(X軸方向)、縦方向(Y軸方向)の画素数を表す。図8の例においては、画像の横方向、縦方向の画素数はそれぞれ「2400」、「1600」とされている。
6行目の「Make」タグは、図8のメタデータが対応付けられている画像を撮影したディジタルカメラ2の製造元を表す。図8の例においては、ディジタルカメラ2の製造元は「AAA」とされている。
7行目の「Model」タグは、図8のメタデータが対応付けられている画像を撮影したディジタルカメラ2のモデル名を表す。図8の例においては、ディジタルカメラ2のモデル名は「BBB」とされている。
8行目の「EXIFversion」タグは、図8のメタデータが対応付けられている画像に付加されたEXIF情報のバージョンを表す。図8の例においては、EXIF情報のバージョンは「0221」(バージョン2.21)とされている。この8行目以降に、EXIF情報処理部71により抽出されたEXIF情報が記述される。
9行目の「DateTimeOriginal」タグと10行目の「DateTimeDigitized」タグは、図8のメタデータが対応付けられている画像の撮影日、撮影時刻を表す。図8の例においては、撮影日は「2005:06:05」(2005年6月5日)、撮影時刻「12:02:26」(12時2分26秒)とされている。
11行目の「SceneCaptureType」タグは、図8のメタデータが対応付けられている画像の撮影時のモードを表す。図8の例においては、撮影時のモードは「Portrait」とされている。
12行目の「Flash」タグは、図8のメタデータが対応付けられている画像の撮影時のフラッシュのモードを表す。図8の例においては、フラッシュのモードは「reserved」とされている。
13行目の「ExposureTime」タグは、図8のメタデータが対応付けられている画像の撮影時の露出時間を表す。図8の例においては、露出時間は「1/8」とされている。
14行目の「FNumber」タグは、図8のメタデータが対応付けられている画像の撮影時のF値を表す。図8の例においては、F値は「35/10」とされている。
15行目の「FocalLength」タグは、図8のメタデータが対応付けられている画像の撮影時の焦点距離を表す。図8の例においては、焦点距離は「18/1」とされている。
16行目の「FocalLengthIn35mmFilm」タグは、図8のメタデータが対応付けられている画像の撮影時の35mm換算の焦点距離を表す。図8の例においては、35mm換算の焦点距離は「27」とされている。
17行目の「ExposureProgram」タグは、図8のメタデータが対応付けられている画像の撮影時の露出調整プログラムを表す。図8の例においては、露出調整プログラムは「Portrait mode」とされている。
18行目の「MeteringMode」タグは、図8のメタデータが対応付けられている画像の撮影時の測光モードを表す。図8の例においては、測光モードは「Pattern」とされている。
19行目の「ExposureMode」タグは、図8のメタデータが対応付けられている画像の撮影時の露出モードを表す。図8の例においては、露出モードは「Manual exposure」とされている。
20行目の「WhiteBalance」タグは、図8のメタデータが対応付けられている画像の撮影時のホワイトバランスの設定を表す。図8の例においては、ホワイトバランスの設定は「Auto white balance」とされている。
21行目の「FaceNumber」タグは、図8のメタデータが対応付けられている画像に写っている人の顔の数を表す。図8の例においては、人の顔の数は「2」(2人の顔が写っている)とされている。この21行目以降に、顔情報抽出部72により抽出された顔情報が記述される。
22行目の「FaceData」タグは、図8のメタデータが対応付けられている画像に写っている2つの顔のうちの一方の顔の情報を表す。図8の例においては、顔情報は「0.766962,0.477876,0.088496,0.058997,0.000000,-30.000000」とされており、それぞれの値は、先頭のものから順に、顔のX軸方向の位置(図7の「nx」)、顔のY軸方向の位置(図7の「ny」)、顔の幅(図7の「nwidth」)、顔の高さ(図7の「nheight」)、顔の上下方向の向き(図7の「Pitch」)、顔の左右方向の向き(図7の「yaw」)を表す。
23行目の「FaceData」タグは、図8のメタデータが対応付けられている画像に写っている2つの顔のうちの他方の顔の情報を表す。図8の例においては、顔情報は「0.501475,0.433628,0.088496,0.058997,0.000000,-30.000000」とされている。このように、顔情報は、画像に写っているとして検出された顔毎に記述される。
24行目の「ClassifiedEvent」タグは、図8のメタデータが対応付けられている画像を撮影したときのイベントを表す。イベント識別部63によりイベントが識別されたとき、このタグの部分に、識別結果のイベントが書き込まれる。図8の例においては、イベントの識別結果は「結婚式」とされている。
25行目の「UpdatedEvent」タグは、図8のメタデータが対応付けられている画像を撮影したときのイベントを表す。例えば、図2に示される画面からイベントボタン17が操作されることによって正しいイベントが指定されたとき、指定されたイベントがこのタグの部分にイベント識別部63によって書き込まれる。図8の例においては、指定されたイベントは「No Update」(イベントの指定なし)とされている。
26行目の「/Photo」はメタデータの終了位置を表す。このような情報からなるメタデータが画像毎に用意され、イベント識別部63により管理される。なお、類似画像認識処理部73により抽出された情報も、適宜、同様にしてメタデータに書き込まれる。
ここで、イベント識別部63によるイベントの識別について説明する。
イベント識別部63においては、例えば、SVMによりイベントが識別される。
SVMはクラス分類を行う学習機械の一種であり、与えられた訓練点のなかで、サポートベクトルと呼ばれるクラス境界近傍に位置する訓練点と識別面との距離であるマージンを最大化するように分離超平面を構築し、その構築した分離超平面を用いてクラス分類を行うものである。線形での分類が難しい場合には、カーネルトリックによって入力空間をより高次の特徴空間に写像し、そこで線形分離を行うことで非線形の問題にも適用が可能となる。SVMの特徴には、従来のパターン認識の分野でよく用いられていた逆誤差伝播法によって学習を行う多層パーセプトロンに比べ、高い汎化性能を持つことや、2次の凸計画問題として定式化されるため学習の結果最適解を得ることができる、などがある。
図9は、イベント識別部63による学習と、イベント識別のテストの概念を示す図である。このような学習とテストが、例えば、図6に示されるような機能部を実現するアプリケーションの開発時に行われ、イベントの識別時に参照されるデータとして得られた識別ファイルがイベント識別部63に用意される。
1枚の画像のメタデータが供給された場合、SVM識別器63Aが学習を行う状態にあるときには、そのメタデータは判定器を経て教師データとしてSVM識別器63Aに出力される。SVM識別器63Aにおいては、例えば800枚分の画像のメタデータを用いたSVMの学習が行われ、イベントの識別時に参照される識別ファイルが生成される。
一方、SVM識別器63Aがテストを行う状態にあるときには、供給されたメタデータは判定器を経て生徒データとしてSVM識別器63Aに出力される。SVM識別器63Aにおいては、学習時に得られた識別ファイルが参照され、供給されたメタデータに基づいてイベントが識別される。
SVM識別器63Aによる識別結果は例えば図2に示されるような形で画面上に出力され、その識別結果を見たアプリケーションの開発者は、識別結果が正しいか否かを選択することによってテスト結果の評価を行う。開発者による選択に応じて識別ファイルが更新され、1枚の画像を対象とした評価が終了される。
このような評価が、例えば、学習に用いられたものと同じ、800枚分の画像のメタデータを用いて繰り返し行われ、最終的に得られた識別ファイルがイベント識別部63に用意される。評価手法にはHoldoutやK-fold cross-validationなどがある。
図10は、学習の具体的な例を示す図である。
図10に示されるように、学習用の画像(Training photo data)を用いて、学習アルゴリズム(Training Algorithm)に従った学習が行われ、識別ファイル(Classification)が生成される。図10の例においては、メタデータの内容が、画像に写っている人の顔の数が「5」より大きく、画像の撮影時のフラッシュの状態が「No」(発光させていない状態)であり、撮影時刻が「19:00〜22:00」の間である場合には、「飲み会」の識別結果が得られるような識別ファイルが生成されている。
図11は、テストを含めたイベント識別の具体的な例を示す図である。
図11に示されるように、テスト用の画像(Test photo data(学習に用いられた図10の画像と同じ画像))を対象としたイベントの識別が、学習時に生成された識別ファイル(Classification)を参照して行われる。また、学習やテストなどに用いられた画像とは異なる新たな画像(New photo)のメタデータが供給されたとき、同じ識別ファイルが参照され、その新たな画像を撮影したときのイベントが識別される。図11の例においては、新たな画像である「New.jpg」のファイル名の画像を撮影したときのイベントは「飲み会」として識別されている。
図6の説明に戻り、イベント識別部63はまた、上述したような1枚の画像を撮影したときのイベントを識別するだけでなく、演算部64により分けられた画像のグループに対してもイベントを設定する。
例えば、イベント識別部63は、グループ分けの結果を表す情報を演算部64から読み込み、それぞれのグループの画像のメタデータの平均をグループのメタデータとして上述したイベントの識別を行い、識別結果のイベントをグループに設定する。なお、グループに含まれるそれぞれの画像のメタデータは特徴抽出部62から供給されているから、イベント識別部63においては、グループに含まれる画像のメタデータの平均を求めることが可能となる。
グループに対して設定されたイベントは、例えば、ユーザにより閲覧されている画像を撮影したときと同じイベントで撮影した画像のグループを提示する図3に示されるような画面を表示するときに用いられる。
演算部64のクラスタリング部81は、保持しているクラスタデータと、EXIF情報処理部71から供給された撮影時刻に基づいて画像のクラスタリング(グループ分け)を行う。例えば、過去にクラスタリングが行われた画像も含めて、対象の画像全体が二分木構造を有する形で管理されるクラスタリング結果がクラスタリング部81により取得される。
クラスタリング部81が保持しているクラスタデータには、それまでに求められた、それぞれの画像がどのクラスタ(グループ)に属するのかを表す情報や、画像全体の二分木構造を表す情報が含まれる。
階層決定部82は、クラスタリング部81により取得されたクラスタリング結果である二分木構造を表す情報に基づいて、所定の条件にあうクラスタを決定する。例えば、それぞれのクラスタがどの画像を含むのかを表す情報、あるいは、それぞれの画像がどのクラスタに属するのかを表す情報などが階層決定部82により取得され、画像全体の二分木構造を表すとともに、最終的なクラスタリングの結果を表すクラスタデータが得られる。
ここで、演算部64により行われる処理の詳細について説明する。
例えば、100枚の画像p1乃至p100をクラスタリングの対象として、それらの画像をイベントクラスタA(グループ化条件Aを満たす画像のクラスタ)と、サブイベントクラスタB(グループ化条件Bを満たす画像のクラスタ)に分ける処理について説明する。
はじめに、図12乃至図20を参照して、クラスタリング部81により行われる二分木構造の作成について説明する。
図12乃至図20において、「p」の文字と数字がその中に書かれている1つの円は1枚の画像を表し、「n」の文字と数字がその中に書かれている1つの円は1つのノードを表す。また、図の右方は、左方より時間的に後の方向であるものとする。なお、ここでは、画像p1乃至p100を、撮影時刻順(画像p1が一番古く、画像p100が一番新しいデータ)にクラスタリングの対象とする場合について説明する。画像p1とp2をクラスタリングの対象とした後(二分木構造に組み込んだ後)で、画像p1よりも新しく、画像p2より古い画像p3を新たにクラスタリングの対象とするように、撮影時刻順にではなく、それぞれの画像を対象として行われるクラスタリングについては後述する。
クラスタリングがまだ行われていない状態で、最初の撮影により得られ、ディジタルカメラ2から取り込まれた画像p1がツリーに挿入されたとき(クラスタリングの対象とされたとき)、初期の状態ではツリーのルートとなるノードが存在しないから、図12に示されるように、画像p1自身がルートノードとなる。
画像p1に続けて撮影された画像p2がツリーに挿入されたとき、図13に示されるように、ノードn1が新たに作られ、画像p2の撮影時刻は画像p1の撮影時刻より後であるから、ノードn1には、画像p1が左の子ノードとして連結され、画像p2が右の子ノードとして連結される。ノードn1は画像p1に代えてルートノードとなる。
ノードn1の最小時刻として画像p1の撮影時刻が記録され、最大時刻として画像p2の撮影時刻が記録される。ノードの時刻として、そのノードを親のノードとする2つの子ノードの撮影時刻の平均値(中間の時刻)が記録されるようにしてもよい。
画像p2に続けて撮影された画像p3がツリーに挿入され、図14に示されるように、画像p3の撮影時刻と画像p2の撮影時刻の時間間隔tdp2p3が、画像p2の撮影時刻と画像p1の撮影時刻の時間間隔tdp1p2より小さいとき、図15に示されるように、ノードn2が新たに作られ、ノードn2には、その左の子ノードとして画像p2が連結され、右の子ノードとして画像p3が連結される。また、ノードn2が、画像p2の代わりに右の子ノードとしてノードn1に連結される。
ノードn2の最小時刻として画像p2の撮影時刻が記録され、最大時刻として画像p3の撮影時刻が記録される。また、このとき、ノードn2の親のノードであるノードn1の最大時刻が画像p3の撮影時刻で上書きされる。
画像p3に続けて撮影された画像p4がツリーに挿入され、図16に示されるように、画像p4の撮影時刻と画像p3の撮影時刻の時間間隔tdp3p4が、画像p3の撮影時刻と画像p2の撮影時刻の時間間隔tdp2p3より大きく、かつ、画像p4の撮影時刻とノードn2の最大時刻の時間間隔tdn2maxp4が、ノードn2の最小時刻と画像p1の撮影時刻の時間間隔tdp1n2minより大きいとき、図17に示されるように、ノードn3が新たにルートノードとして作られる。また、ノードn3には、その左の子ノードとしてノードn1が連結され、右の子ノードとして画像p4が連結される。
ノードn3の最小時刻としてノードn1の最小時刻が記録され、最大時刻として画像p4の撮影時刻が記録される。
画像p4に続けて撮影された画像p5がツリーに挿入され、図18に示されるように、画像p5の撮影時刻と画像p4の撮影時刻の時間間隔tdp4p5より、画像p4の撮影時刻とノードn1の最大時刻の時間間隔tdn1maxp4の方が大きいとき、図19に示されるように、ノードn4が新たに作られる。また、ノードn4には、その左の子ノードとして画像p4が連結され、右の子ノードとして画像p5が連結される。さらに、ノードn4が、画像p4の代わりに右の子ノードとしてノードn3に連結される。
ノードn4の最小時刻として画像p4の撮影時刻が記録され、最大時刻として画像p5の撮影時刻が記録される。また、このとき、ノードn4の親のノードであるノードn3の最大時刻が画像p5の撮影時刻で上書きされる。
この時点で、画像p1乃至p5の5枚の画像を含むノードn1乃至n4から二分木構造が形成された状態になる。
それぞれのノードに含まれる画像は、それぞれのノードに直接に、または他のノードを介して間接的に連結される画像であるから、図19に示されるようなツリーが作成されているとき、ノードn3に含まれる画像は画像p1乃至p5の5枚の画像となり、ノードn1に含まれる画像は画像p1乃至p3の3枚の画像となる。また、ノードn2に含まれる画像は画像p2およびp3の2枚の画像となり、ノードn4に含まれる画像は画像p4およびp5の2枚の画像となる。
このように、画像が新たに挿入される毎に、撮影時刻の時間間隔のより小さい画像同士、または、撮影時刻と設定された時刻の時間間隔のより小さい画像とノードが、同じノードにぶらさがるように連結されていく。
画像p6乃至p100がツリーに挿入されたときも同様にして処理が行われ、最終的に、ルートノードnrootに画像p1乃至p100が含まれる、図20に示されるような二分木構造が得られる。
次に、図21乃至図27を参照して、階層決定部82により行われるグループ化条件に基づくクラスタリングについて説明する。
階層決定部82においては、二分木構造内のそれぞれのノードが注目され、ノード内の全ての画像の撮影時刻の時間間隔の標準偏差sdが下式(1)により算出される。
Figure 0004232774
Nは画像の撮影時刻の時間間隔の数であり、「ノードに含まれる画像の数−1」で表される。tdnは、N個の時間間隔のうちの、時間的に先のものから見てn番目の時間間隔である。「 ̄」が付されたtdはノード内の時間間隔tdの平均値である。
また、注目するノードを親のノードとする子ノード間の時間間隔の偏差dev(子ノード間の時間間隔と、撮影時刻の時間間隔の平均との差の絶対値)が下式(2)により算出される。
Figure 0004232774
Nは画像の撮影時刻の時間間隔の数であり、「ノードに含まれる画像の数−1」で表される。tdcは子ノード間の時間間隔である。「 ̄」が付されたtdはノード内の時間間隔tdの平均値である。なお、子ノード間の時間間隔とは、注目するノードを親のノードとする2つの子ノードのうちの時間的に先の子ノードに含まれる時間的に最後の画像の撮影時刻と、時間的に後の子ノードに含まれる時間的に最初の画像の撮影時刻の時間間隔である。具体例については後述する。
さらに、式(2)により算出された偏差devの、式(1)により算出された標準偏差sdに対する比が、分割パラメータthとして、注目するノードに設定される。分割パラメータthは下式(3)で表され、注目するノードを親のノードとする子ノードを、それぞれ異なるクラスタに属するものとして分割するか否かを判断する基準となるパラメータである。
Figure 0004232774
ここで、上式により求められる値について図21を参照して具体的に説明する。
図21は、クラスタリング部81により作成された二分木構造全体のうちの一部の、図19と同じ範囲の構造を示す図である。
図21において、td1は、画像p1の撮影時刻と画像p2の撮影時刻の時間間隔であり、td2は、画像p2の撮影時刻と画像p3の撮影時刻の時間間隔である。また、td3は、画像p3の撮影時刻と画像p4の撮影時刻の時間間隔であり、td4は、画像p4の撮影時刻と画像p5の撮影時刻の時間間隔である。
例えば、図21のうちのルートノードに最も近いノードであるノードn3が注目されている場合、はじめに、式(1)にそれぞれの値が代入され、標準偏差sdは下式(4)で表される。また、撮影時刻の時間間隔の平均値は下式(5)で表される。
Figure 0004232774
Figure 0004232774
偏差devは下式(6)で表される。
Figure 0004232774
すなわち、注目するノードn3を親のノードとする2つの子ノードはノードn1とn4であり、そのうちの時間的に先のノードn1に含まれる時間的に最後の画像p3の撮影時刻と、時間的に後のノードn4に含まれる時間的に最初の画像p4の撮影時刻の時間間隔td3がノードn1とノードn4の時間間隔であり、それが、ノードn3に注目したときの偏差devの算出に用いられる。
式(4)により算出された標準偏差sdと、式(6)により算出された偏差devから、ノードn3に注目したときの分割パラメータthが算出され、ノードn3に設定される。
以上のようにして全てのノードに対する分割パラメータの設定が終了したとき、階層決定部82においては、次に、グループ化条件としての閾値が設定される。
例えば、グループ化条件Aとして閾値aが設定され、グループ化条件Bとして閾値bが設定された場合、「a=3.0」、「b=2.6」などのように、「a>b」の条件を満たすときには、図22に示されるように、「グループ化条件Aにより規定されるクラスタ>グループ化条件Bにより規定されるクラスタ」となる(グループ化条件Aにより規定されるクラスタの中に、グループ化条件Bにより規定されるクラスタがいくつかできることになる)。
図22の例においては、対象となる画像全体が、グループ化条件Aによりグループg1とg2の2つのクラスタに分けられ、グループ化条件Bによりグループg3乃至g7の5つのクラスタに分けられている。
すなわち、後述するように、設定されている分割パラメータの値が閾値より大きい場合に、その分割パラメータが設定されているノードの部分がクラスタの境界部分となるから、閾値が大きいほど、そのノードの部分はクラスタの境界部分となりにくく、従って、全体として見たときにクラスタの粒度は粗くなる。反対に、閾値が小さいほど、そのノードの部分はクラスタの境界部分となりやすく、従って、全体として見たときにクラスタの粒度は細かくなる。
なお、ある画像の撮影時刻と、次に撮影された画像の撮影時刻の時間間隔が30分以上ある場合(時間間隔td>30min)や1日以上ある場合(時間間隔td>1day)、その時間間隔のある部分がクラスタの境界部分となるようなグループ化条件、いわば、1つのクラスタに含まれる画像の撮影時刻の時間間隔の上限を規定するようなグループ化条件が設定されるようにしてもよい。これにより、撮影時刻の時間間隔が30分、あるいは1日以上ある画像同士はそれぞれ異なるクラスタに含まれる画像となる。
グループ化条件としての閾値が設定された後、階層決定部82においては、次に、設定された閾値と、上述したようにしてそれぞれのノードに設定された分割パラメータthに基づいてそれぞれのノードに分割フラグが設定される。
例えば、分割パラメータthが、グループ化条件Aとして設定された閾値aを越えるノードには1の値のグループA分割フラグが設定され、閾値aを越えないノードには0の値のグループA分割フラグが設定される。
分割フラグとして1の値が設定されていることは、その分割フラグが設定されているノードを親のノードとする子ノード間の時間間隔が、注目しているノード内全体の画像の撮影時刻の時間間隔より比較的大きいことを表す。反対に、分割フラグとして0の値が設定されていることは、その分割フラグが設定されているノードを親のノードとする子ノード間の時間間隔が、注目しているノード内全体の画像の撮影時刻の時間間隔とあまり変わらないことを表す。
グループA分割フラグの値の設定が終了したとき、二分木構造内のノードが昇順で(葉から根の方向に順に)注目され、子ノードの時間間隔がノード内全体の画像の撮影時刻の時間間隔より比較的大きいノード、すなわち、グループA分割フラグとして1の値が設定されているノードを境界として画像が区切られ、グループ化条件Aによりクラスタが規定される。
図23はグループA分割フラグの設定の例を示す図である。
図23の例においては、ルートノードに最も近いノードであるノードn10には、ノードn11とn12がそれぞれ左右の子ノードとして連結され、ノードn11には、ノードn13とn14がそれぞれ左右の子ノードとして連結される。また、ノードn12には、ノードn15とn16がそれぞれ左右の子ノードとして連結され、ノードn14には、ノードn17とn18がそれぞれ左右の子ノードとして連結される。
また、図23の例においては、これらのノードのうちのノードn10,n11,n12,n14のそれぞれにグループA分割フラグとして1の値が設定されており、それらのノードの部分を境界として、太線で示されるようにクラスタが分けられる。
なお、図23の右方に示されるように、ノードn13は画像p1乃至p17を含むノードであり、ノードn17は画像p18乃至p30を含むノードである。また、ノードn18は画像p31乃至p68を含むノードであり、ノードn15は画像p69乃至p93を含むノードである。ノードn16は画像p94乃至p100を含むノードである。
従って、グループA分割フラグの値として1が設定されているノードの部分を境界としてクラスタが分けられた場合、いまクラスタリングの対象とされている画像p1乃至p100は、図24に示されるようなそれぞれのクラスタ(イベントクラスタA)に分けられる。
すなわち、ノードn13に含まれる画像p1乃至p17からクラスタA1が構成され、ノードn17に含まれる画像p18乃至p30からクラスタA2が構成される。
また、ノードn18に含まれる画像p31乃至p68からクラスタA3が構成され、ノードn15に含まれる画像p69乃至p93からクラスタA4が構成される。さらに、ノードn16に含まれる画像p94乃至p100からクラスタA5が構成される。
以上のようにしてグループ化条件Aに基づくクラスタリングが行われ、グループ化条件Aにより規定されるそれぞれのクラスタがどの範囲の画像を含むのかを表す情報、あるいは、それぞれの画像がどのクラスタに属するのかを表す情報などが、グループ化条件Aに基づくクラスタリング結果として取得される。
グループ化条件Aに基づくクラスタリングが行われたとき、同様にして、グループ化条件Bに基づくグループ分けが行われる。
すなわち、階層決定部82においては、分割パラメータthが、グループ化条件Bとして設定された閾値bを越えるノードには1の値のグループB分割フラグが設定され、閾値bを越えないノードには0の値のグループB分割フラグが設定される。
グループB分割フラグの値の設定が終了したとき、二分木構造内のノードが昇順で注目され、子ノードの時間間隔がノード内全体の画像の撮影時刻の時間間隔より比較的大きいノード、すなわち、グループB分割フラグとして1の値が設定されているノードを境界として画像が区切られ、グループ化条件Bによりクラスタが規定される。
図25はグループB分割フラグの設定の例を示す図である。
図25の例においては、ルートノードに最も近いノードであるノードn10には、ノードn11が左の子ノードとして連結され、ノードn11には、ノードn13とn14がそれぞれ左右の子ノードとして連結される。また、ノードn14には、ノードn17とn18がそれぞれ左右の子ノードとして連結され、ノードn17には、ノードn19とn20がそれぞれ左右の子ノードとして連結される。さらに、ノードn18には、ノードn21とn22がそれぞれ左右の子ノードとして連結され、ノードn19には、ノードn23とn24がそれぞれ左右の子ノードとして連結される。
また、図25の例においては、これらのノードのうちのノードn10,n11,n14,n17,n18,n19のそれぞれにグループB分割フラグとして1の値が設定されており、それらのノードの部分を境界として、太線で示されるようにクラスタが分けられる。
なお、図25の右側に示されるように、ノードn13は画像p1乃至p17を含むノードであり、ノードn23は画像p18乃至p21を含むノードである。また、ノードn24は画像p22乃至p26を含むノードであり、ノードn20は画像p27乃至p30を含むノードである。ノードn21は画像p31乃至p57を含むノードであり、ノードn22は画像p58乃至p68を含むノードである。
従って、グループB分割フラグの値として1が設定されているノードの部分を境界としてクラスタが分けられた場合、いまクラスタリングの対象とされている画像p1乃至p100のうちの画像p1乃至p68は、図26に示されるようなそれぞれのクラスタ(サブイベントクラスタB)に分けられる。
すなわち、ノードn13に含まれる画像p1乃至p17からクラスタB1が構成され、ノードn23に含まれる画像p18乃至p21からクラスタB2が構成される。
また、ノードn24に含まれる画像p22乃至p26からクラスタB3が構成され、ノードn20に含まれる画像p27乃至p30からクラスタB4が構成される。さらに、ノードn21に含まれる画像p31乃至p57からクラスタB5が構成され、ノードn22に含まれる画像p58乃至p68からクラスタB6が構成される。
以上のようにしてグループ化条件Bに基づくクラスタリングが行われ、グループ化条件Bにより規定されるそれぞれのクラスタがどの範囲の画像を含むのかを表す情報、あるいは、それぞれの画像がどのクラスタに属するのかを表す情報などが、グループ化条件Bに基づくクラスタリング結果として取得される。取得されたクラスタリング結果は階層決定部82により管理される。
図27は、グループ化条件Aに基づくクラスタリング結果(図24)と、グループ化条件Bに基づくクラスタリング結果(図26)を重ねて示す図である。
図27に示されるように、複数のグループ化条件に基づいてグループ化が行われた場合、クラスタリング結果のクラスタは入れ子関係を有する。
図27の例においては、クラスタA1とクラスタB1は同じ範囲の画像を含むクラスタであり、クラスタA2にはクラスタB2乃至B4が含まれる。また、クラスタA3にはクラスタB5とB6が含まれる。
図27に示されるような関係をそれぞれのクラスタが有する場合、例えば、クラスタA2を表すフォルダの下位の階層のフォルダとして、クラスタB2乃至B4を表すフォルダがそれぞれ表示され、クラスタA3を表すフォルダの下位の階層のフォルダとして、クラスタB5とB6を表すフォルダがそれぞれ表示される。
以上のように、演算部64においては、階層的なクラスタリングと、分散に基づくクラスタリング(画像全体の撮影間隔の平均を基準としたクラスタリング)が行われる。これにより、単に撮影間隔の近い画像同士が同じクラスタに含まれるようにクラスタリングが行われるのではなく、時間間隔が揃っている画像同士が同じクラスタに含まれるようにクラスタリングが行われることになる。
次に、クラスタリング部81により行われる二分木構造の作成の他の例について図28乃至図35を参照して説明する。
ここでは、それぞれの画像を、撮影時刻順にではなくクラスタリングの対象とする場合について説明する。例えば、ディジタルカメラ2で撮影された画像のクラスタリングをパーソナルコンピュータ1に行わせた後に、人からもらった画像などの、他のディジタルカメラで撮影された画像をもパーソナルコンピュータ1に取り込み、それらの画像全体をクラスタリングさせる場合などに、撮影時刻順にではなく、それぞれの画像を対象としたクラスタリングが行われる。
例えば、図13に示されるように、ノードn1の左の子ノードとして画像p1が連結され、右の子ノードとして画像p2が連結されている状態で、画像p1よりも新しく、画像p2より古い画像である画像p3がツリーに新たに挿入された場合、図28に示されるように、画像p1の撮影時刻と画像p3の撮影時刻の時間間隔tdp1p3が、画像p2の撮影時刻と画像p3の撮影時刻の時間間隔tdp2p3より大きいときには、図29に示されるように、ノードn2が新たに作られる。ノードn2には、その左の子ノードとして画像p3が連結され、右の子ノードとして画像p2が連結される。また、ノードn2が、画像p2の代わりに右の子ノードとしてノードn1に連結される。
ノードn2の最小時刻として画像p3の撮影時刻が記録され、最大時刻として画像p2の撮影時刻が記録される。このとき、ノードn2の親のノードであるノードn1の最小時刻と最大時刻に変更はない(最小時刻は画像p1の撮影時刻、最大時刻は画像p2の撮影時刻のままとなる)。
一方、図13に示されるように、ノードn1の左の子ノードとして画像p1が連結され、右の子ノードとして画像p2が連結されている状態で、画像p1よりも新しく、画像p2より古い画像である画像p3がツリーに新たに挿入され、図30に示されるように、画像p1の撮影時刻と画像p3の撮影時刻の時間間隔tdp1p3が、画像p2の撮影時刻と画像p3の撮影時刻の時間間隔tdp2p3より小さいとき、図31に示されるように、ノードn2が新たに作られる。ノードn2には、その左の子ノードとして画像p1が連結され、右の子ノードとして画像p3が連結される。また、ノードn2が、画像p1の代わりに左の子ノードとしてノードn1に連結される。
ノードn2の最小時刻として画像p1の撮影時刻が記録され、最大時刻として画像p3の撮影時刻が記録される。このとき、ノードn2の親のノードであるノードn1の最小時刻と最大時刻に変更はない(最小時刻は画像p1の撮影時刻、最大時刻は画像p2の撮影時刻のままとなる)。
また、図13に示されるように、ノードn1の左の子ノードとして画像p1が連結され、右の子ノードとして画像p2が連結されている状態で、画像p1よりも古い画像である画像p3がツリーに新たに挿入された場合、図32に示されるように、画像p1の撮影時刻と画像p3の撮影時刻の時間間隔tdp1p3が、画像p1の撮影時刻と画像p2の撮影時刻の時間間隔tdp1p2より小さいときには、図33に示されるように、ノードn2が新たに作られる。ノードn2には、その左の子ノードとして画像p3が連結され、右の子ノードとして画像p1が連結される。また、ノードn2が、画像p1の代わりに左の子ノードとしてノードn1に連結される。
ノードn2の最小時刻として画像p3の撮影時刻が記録され、最大時刻として画像p1の撮影時刻が記録される。このとき、ノードn2の親のノードであるノードn1の最小時刻が画像p3の撮影時刻で上書きされる。ノードn1の最大時刻に変更はない(最大時刻は画像p2の撮影時刻のままとなる)。
一方、図13に示されるように、ノードn1の左の子ノードとして画像p1が連結され、右の子ノードとして画像p2が連結されている状態で、画像p1よりも古い画像である画像p3がツリーに新たに挿入され、図34に示されるように、画像p1の撮影時刻と画像p3の撮影時刻の時間間隔tdp1p3が、画像p1の撮影時刻と画像p2の撮影時刻の時間間隔tdp1p2より大きいときには、図35に示されるように、ノードn2が新たにルートノードとして作られる。また、ノードn2には、その左の子ノードとして画像p3が連結され、右の子ノードとしてノードn1が連結される。
ノードn2の最小時刻として画像p3の撮影時刻が記録され、最大時刻として画像p2の撮影時刻が記録される。このとき、ノードn1の最小時刻と最大時刻に変更はない(最小時刻は画像p1の撮影時刻、最大時刻は画像p2の撮影時刻のままとなる)。
画像p4以降が新たに挿入された場合も同様に、その画像p4が、クラスタリングが既に行われた画像の中で最も新しい画像である場合には、図12乃至図20を参照して説明したような処理が行われ、それ以外の場合には、図28乃至図35を参照して説明した処理が行われる。
図6のイベント識別部63においては、以上のようにして生成されたそれぞれのクラスタ(ノード)に1つのイベントが設定されることになる。従って、例えば、図24に示されるようなクラスタが生成されている場合、クラスタA1に対しては、画像p1乃至p17自体やそれらの画像のEXIF情報から抽出されたメタデータの平均がクラスタのメタデータとされ、クラスタのメタデータに基づいて識別されたイベントが対応付けて管理される。これにより、ユーザは、あるイベントを指定して、指定したイベントが設定されたクラスタに含まれる画像だけを閲覧したりすることができる。
図6の説明に戻り、ユーザインタフェース制御部65はディスプレイの表示を制御する。例えば、ユーザインタフェース制御部65は、画像DB61から読み出した画像を表示させるとともに、イベント識別部63により管理されているメタデータに記述されるイベントの識別結果を表示する。これにより、図2に示されるような、画像と、それを撮影したときのイベントが表示される画面がディスプレイに表示される。
また、ユーザインタフェース制御部65は、あるグループの画像を表示しているとき、そのグループと同じイベントが設定されているグループを演算部64の階層決定部82により管理されている情報に基づいて判断し、同じイベントが設定されているグループの代表画を並べて表示させる。これにより、図3に示されるような、同じイベントが設定されたグループの代表画が並んで表示される画面がディスプレイに表示される。
次に、以上のような構成を有するパーソナルコンピュータ1の動作について説明する。
はじめに、1枚の画像のイベントを識別し、図2に示されるような画面を表示させるパーソナルコンピュータ1の一連の処理について図36と図37のフローチャートを参照して説明する。
図36は、パーソナルコンピュータ1のイベント識別処理について説明するフローチャートである。
ステップS1において、通信部49は、記録媒体に記録されている画像をEXIF情報とともにディジタルカメラ2から取り込む。通信部49により取り込まれた画像とEXIF情報は、例えば記憶部48に形成される画像DB61に記録され、所定のタイミングでイベント識別に用いられる。
ステップS2において、特徴抽出部62は、イベント識別の対象とする画像とEXIF情報から特徴を抽出する。すなわち、特徴抽出部62のEXIF情報処理部71により、EXIF情報に含まれる各種の情報のうちの所定の情報が抽出され、顔情報抽出部72により、画像に写っている人の顔の情報が抽出される。また、類似画像認識処理部73により、画像の色空間の情報などが抽出される。
ステップS3において、特徴抽出部62は、ステップS2で抽出した情報を記述したメタデータを生成し(画像をベクトル化し)、生成したメタデータをイベント識別部63に出力する。
ステップS4において、イベント識別部63は、特徴抽出部62から供給されたメタデータに記述される各種の情報から、あらかじめ用意される識別ファイルを参照してイベントを識別し、ステップS5に進み、識別したイベントをメタデータに書き込む。これにより、図8に示されるようなメタデータが画像毎に生成される。
ステップS6において、イベント識別部63は、生成したメタデータをファイルに書き込み、処理を終了させる。例えば、複数の画像のメタデータが1つのファイルで管理されており、生成されたメタデータが、この1つのファイルに書き込まれる。
次に、図37のフローチャートを参照して、パーソナルコンピュータ1の画像表示処理について説明する。
ステップS11において、ユーザインタフェース制御部65は、表示対象の画像を画像DB61から読み出し、読み出した画像を撮影したときのイベントをイベント識別部63により管理されているメタデータから確認する。
ステップS12において、ユーザインタフェース制御部65は、画像DB61から読み出した画像を表示させるとともに、ステップS11で確認したイベントを画像の近傍に表示させる。これにより、ディスプレイには、図2に示されるような画面が表示される。
次に、クラスタに設定されたイベントに基づいて図3に示されるような画面を表示するパーソナルコンピュータ1の一連の処理について図38乃至図40を参照して説明する。
はじめに、図38のフローチャートを参照して、クラスタデータを生成するパーソナルコンピュータ1の処理について説明する。
ステップS21において、通信部49は、記録媒体に記録されている画像をEXIF情報とともにディジタルカメラ2から取り込む。取り込まれた画像とEXIF情報は画像DB61に記録される。
ステップS22において、特徴抽出部62のEXIF情報処理部71は、イベント識別の対象となる画像のEXIF情報から撮影時刻を取得し、取得した撮影時刻を演算部64に出力する。
ステップS23において、演算部64のクラスタリング部81は、EXIF情報処理部71から供給された撮影時刻と、保持しているクラスタデータに基づいて、クラスタリングの対象となる画像全体からなる二分木構造を例えば図12乃至図20を参照して説明したようにして作成する。
ステップS24において、階層決定部82は、二分木構造の所定の階層にある1つのノードに注目し、ステップS25に進み、注目するノード内の全ての画像の撮影時刻の時間間隔の標準偏差sdを算出する。
ステップS26において、階層決定部82は、注目するノードを親のノードとする子ノード間の時間間隔の偏差devを算出する。
ステップS27において、階層決定部82は、ステップS26で算出した偏差devの、ステップS25で算出した標準偏差sdに対する比を算出し、算出した比を分割パラメータthとして、いま注目しているノードに記録する。
ステップS28において、階層決定部82は、二分木構造の全てのノードに注目したか否かを判定し、注目していないと判定した場合、ステップS24に戻り、注目するノードを切り替えてそれ以降の処理を繰り返す。
一方、階層決定部82は、ステップS28において、二分木構成の全てのノードに注目したと判定した場合、ステップS29に進み、グループ化条件としての閾値を設定する。同じ画像を対象として異なる粒度のクラスタを求める場合、ここでは、複数のグループ化条件が設定される。
ステップS30において、階層決定部82は、ステップS29で設定したグループ化条件としての閾値と、それぞれのノードに設定された分割パラメータthを比較し、例えば、分割パラメータthが閾値を越えるノードには1の値の分割フラグを設定し、閾値を越えないノードには0の値の分割フラグを設定する。グループ化条件が複数設定されている場合、それぞれのグループ化条件について分割パラメータの設定が行われる。
ステップS31において、階層決定部82は、二分木構造のそれぞれのノードに昇順で注目し、分割フラグに1の値が設定されているノードを境界としてクラスタを分け、それぞれのクラスタの範囲を表すクラスタデータを作成する。
ステップS32において、階層決定部82は、作成したクラスタデータを保存し、処理を終了させる。
次に、図39のフローチャートを参照して、以上のようにして生成されたクラスタのイベントを識別するパーソナルコンピュータ1の処理について説明する。
ステップS41において、イベント識別部63は、階層決定部82により管理されているクラスタデータを読み込み、ステップS42に進み、クラスタの特徴を抽出する。例えば、それぞれのクラスタに含まれる画像のメタデータの平均が求められ、クラスタの特徴とされる。
ステップS43において、イベント識別部63は、ステップS42で求めたクラスタの特徴が記述されたメタデータを生成する。
ステップS44において、イベント識別部63は、ステップS43で生成したメタデータに基づいてクラスタのイベントを識別し、ステップS45に進み、それぞれのクラスタとイベントの識別結果を対応付けることによってイベントの設定(ラベリング)を行う。設定されたイベントの情報は階層決定部82に出力される。
ステップS46において、階層決定部82は、それぞれのクラスタにイベントが設定された二分木構造を表すクラスタデータを保存し、処理を終了させる。
次に、図40のフローチャートを参照して、パーソナルコンピュータ1の画像表示処理について説明する。
ステップS51において、ユーザインタフェース制御部65は、ある画像を表示してユーザに閲覧させる。
例えば、画像を表示している状態で所定の操作が行われたとき、ユーザインタフェース制御部65は、ステップS52において、それぞれのクラスタにイベントが設定された二分木構造を表すクラスタデータを演算部64の階層決定部82から読み込む。
ステップS53において、ユーザインタフェース制御部65は、ユーザに閲覧させている画像を撮影したときのイベントと同じイベントが設定されたクラスタであって、かつ、同じ粒度のクラスタを閲覧対象のクラスタとして選択する。例えば、ここで選択されたクラスタの代表画が表示され、それぞれの代表画で表されるクラスタの中から選択された1つのクラスタに含まれる全ての画像がサムネイル表示されることによって、図3に示されるような閲覧画面の表示が実現される。
ユーザが見ている画像と同じイベントで撮影した画像が自動的に提示されるから、これにより、ユーザの記憶を想起させることができる。
なお、ユーザの記憶の想起を図るための画面の表示は、図3に示されるものに限られず、他の表示によってユーザの記憶の想起を図ることもできる。
図41は、画像の閲覧画面の他の例を示す図である。
画面の横方向に表示される帯状の領域91は、撮影時刻に従って時系列順に並べられた、それぞれのクラスタの代表画が表示される領域である。右側が時間的に後の時刻を示し、図41の例においては、画像91A乃至91Fが左から順に表示されている。
また、図41の例においては、クラスタに含まれる画像が、領域91と直交する方向の縦方向に並べて表示されるようになされており、帯状の領域92と93が表示されている。
例えば、領域91に並べて表示されている画像の中からユーザが画像91Bを選択したとき、画像91Bの位置を基準として、画像91Bを代表画とするクラスタに含まれる画像が領域92に表示される。
また、ユーザが画像91Bを選択したとき、領域92に画像が表示されることに連動して、画像91Eの位置を基準として、画像91Eを代表画とするクラスタに含まれる画像が領域93に表示される。このような表示は、ユーザが領域91の中から選択した画像91Bを代表画とするクラスタに設定されているイベントと、画像91Eを代表画とするクラスタに設定されているイベントが同じであることに基づいて行われるものである。
すなわち、図41の画面においては、領域91に表示されているものの中からある画像にユーザが注目したとき、注目した画像を代表画とするクラスタに含まれる画像が表示されるとともに、そのクラスタと同じイベントが設定されたクラスタに含まれる画像が、自動的に表示される。同じような状況で撮影した画像が自動的に表示されるから、このような表示によっても、ユーザの記憶の想起が図られることになる。
同様に、例えば、図41の状態から、ユーザが、注目する画像を画像91Cに切り替えたとき、画像91Cを代表画とするクラスタに含まれる画像が画像91Cの位置を基準として縦方向に並べて表示されるとともに、それに連動して、画像91Cを代表画とするクラスタと同じイベントが設定されたクラスタに含まれる画像も、そのクラスタの代表画の位置を基準として縦方向に並べて表示される。
なお、図41において、画面のほぼ中央に形成される領域94は、ユーザが選択した所定のクラスタに含まれる画像がスライドショー表示される領域であり、領域95は、スライドショー表示されている画像の情報が表示される領域である。また、画面の右方に形成される領域96は、ユーザが注目している画像(図41の場合、画像91B)の情報と、ユーザが注目している画像を代表画とするクラスタと同じイベントが設定されているクラスタの代表画(図41の場合、画像91E)の情報が表示される領域である。
以上においては、イベントの識別はパーソナルコンピュータ1により行われるものとしたが、ネットワーク上のサーバによりイベントの識別が行われ、画像やEXIF情報をサーバに送信してきたユーザに識別結果が返されるイベント識別サービスが実現されるようにしてもよい。
図42は、イベント識別サービスを実現する構成の例を示す図である。
図42においては、ディジタルカメラ2とサーバ101がインターネットなどのネットワーク102を介して接続され、ディジタルカメラ2とサーバ101が通信を行うことができるようになされている。
例えば、ディジタルカメラ2のユーザが所定の操作を行ったとき、ディジタルカメラ2内に記録されている画像がEXIF情報とともにネットワーク102を介してサーバ101に送信され、ディジタルカメラ2から送信された情報を受信したサーバ101において、上述したようなイベント識別が行われる。イベントの識別結果は、ディジタルカメラ2やユーザが使用するパーソナルコンピュータにネットワーク102を介して送信され、図2に示されるような閲覧画面を表示させるために用いられる。
このように、ネットワーク102を介して接続されるサーバ101上でイベントの識別が行われ、画像やEXIF情報を送信してきた機器に対してイベントの識別結果がサーバ101から返されるようなサービスが実現されるようにしてもよい。
なお、上述したようなクラスタリングもサーバ101において行われ、クラスタリング結果がサーバ101から返されることによって、イベントの識別結果とクラスタリング結果を受信した機器において、図3に示されるような画面が表示されるようにしてもよい。また、イベント識別に用いられるメタデータがディジタルカメラ2において抽出され、画像自体は送信されることなく、抽出されたメタデータだけがサーバ101に送信され、サーバ101においてイベントの識別が行われるようにしてもよい。
以上においては、「旅行」、「花見」、「花火」、「ドライブ・おでかけ」、「飲み会」、「結婚式」、「バーベキュー・キャンプ」、「スポーツ」の8つのイベントが識別されるものとしたが、他のイベントを識別するための識別ファイルを学習によって生成し、あらかじめ用意しておくことによって他の様々なイベントを識別することができるようにしてもよい。
また、イベントを識別するために用いられるデータは、図8に示されるようなデータに限られるものではなく、撮影した画像やEXIF情報から得られた他のデータなどの各種の情報を用いることも可能である。例えば、GPS(Global Positioning System)センサにより得られた撮影位置の情報などが用いられるようにしてもよい。
以上においては、イベントの識別やクラスタリング、あるいは、それらの結果を用いた画像の表示がパーソナルコンピュータ1において行われるものとしたが、このような機能が、ディジタルカメラ自体や、ディジタルカメラを内蔵する携帯電話機、PDA(Personal Digital Assistants)、ポータブルゲーム機などの他の機器に搭載されるようにしてもよい。
また、以上においては、ディジタルカメラ2により撮影された画像(静止画)を対象としてイベントの識別が行われるものとしたが、動画を撮影したときのイベントの識別や、音楽の雰囲気の識別などの、他のコンテンツを対象とした識別が行われるようにしてもよい。音楽の雰囲気を識別することができる場合、例えば、あるイベントで撮影した画像をスライドショー表示しているときに、そのイベントにあった雰囲気の音楽を自動的に再生したりすることができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
この記録媒体は、図5に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布されるリムーバブルメディア51により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM42や、記憶部48に含まれるハードディスクなどで構成される。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明の一実施形態に係るパーソナルコンピュータに、ディジタルカメラが接続されている状態を示す図である。 画像の閲覧画面の例を示す図である。 画像の閲覧画面の他の例を示す図である。 パーソナルコンピュータにおける画像の管理の概念を示す図である。 パーソナルコンピュータの構成例を示すブロック図である。 パーソナルコンピュータの機能構成例を示すブロック図である。 特徴抽出部により抽出される情報の例を示す図である。 メタデータの例を示す図である。 学習とテストの概念を示す図である。 学習の具体的な例を示す図である。 テストの具体的な例を示す図である。 二分木構造の作成について説明する図である。 二分木構造の作成について説明する図12に続く図である。 二分木構造の作成について説明する図13に続く図である。 二分木構造の作成について説明する図14に続く図である。 二分木構造の作成について説明する図15に続く図である。 二分木構造の作成について説明する図16に続く図である。 二分木構造の作成について説明する図17に続く図である。 二分木構造の作成について説明する図18に続く図である。 二分木構造の作成について説明する図19に続く図である。 グループ化条件に基づくクラスタリングについて説明する図である。 クラスタの粒度の例を示す図である。 グループA分割フラグの設定の例を示す図である。 グループ化条件Aに基づくクラスタリング結果の例を示す図である。 グループB分割フラグの設定の例を示す図である。 グループ化条件Bに基づくクラスタリング結果の例を示す図である。 クラスタの入れ子関係を示す図である。 二分木構造の作成について説明する他の図である。 二分木構造の作成について説明する図28に続く図である。 二分木構造の作成について説明する図29に続く図である。 二分木構造の作成について説明する図30に続く図である。 二分木構造の作成について説明する図31に続く図である。 二分木構造の作成について説明する図32に続く図である。 二分木構造の作成について説明する図33に続く図である。 二分木構造の作成について説明する図34に続く図である。 パーソナルコンピュータのイベント識別処理について説明するフローチャートである。 パーソナルコンピュータの画像表示処理について説明するフローチャートである。 パーソナルコンピュータのクラスタデータ生成処理について説明するフローチャートである。 パーソナルコンピュータの他のイベント識別処理について説明するフローチャートである。 パーソナルコンピュータの他の画像表示処理について説明するフローチャートである。 画像の閲覧画面の他の例を示す図である。 イベント識別サービスを実現する構成の例を示す図である。
符号の説明
1 パーソナルコンピュータ, 2 ディジタルカメラ, 61 画像DB, 62 特徴抽出部, 63 イベント識別部, 64 演算部, 65 ユーザインタフェース制御部, 71 EXIF情報処理部, 72 顔情報抽出部, 73 類似画像認識処理部, 81 クラスタリング部, 82 階層決定部

Claims (5)

  1. 撮影画像に付加されている属性情報に含まれる撮影時刻の情報と、撮影画像を解析することによって求められた撮影画像に写る人の顔の数の情報を含む情報を、撮影画像の特徴情報として抽出する特徴情報抽出手段と、
    複数の撮影画像を対象として、それぞれの撮影画像の撮影時刻の時間間隔のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けを行うクラスタリング手段と、
    前記クラスタリング手段により同じグループの撮影画像として分類された複数の撮影画像の前記特徴情報の平均をグループの特徴情報として、グループの特徴情報の条件にあうグループのイベントを、複数の学習用の撮影画像の撮影時刻の情報と、前記学習用の撮影画像に写る人の顔の数の情報を含む情報に基づいて学習を行うことによってあらかじめ生成された、各イベントをイベントの識別結果として得るための前記特徴情報の条件が記述された識別ファイルを参照して識別するイベント識別手段と、
    ユーザにより選択されたグループに含まれる撮影画像を所定の領域にサムネイル表示させるとともに、同じ画面の前記所定の領域と異なる領域に、ユーザにより選択された前記グループと同じイベントのグループとして前記イベント識別手段により識別されたグループに含まれる撮影画像のうちの代表画像を複数表示させ、代表画像を表示させているグループが選択されたとき、選択されたグループに含まれる撮影画像を前記所定の領域にサムネイル表示させる表示制御手段と
    を備える情報処理装置。
  2. 前記イベント識別手段は、前記特徴情報抽出手段により抽出された前記特徴情報の条件にあうそれぞれの撮影画像のイベントを前記識別ファイルを参照して識別し、
    前記表示制御手段は、1枚の撮影画像を表示させるとともに、同じ画面に、表示させている撮影画像のイベント名を表示させる
    請求項1に記載の情報処理装置。
  3. 前記クラスタリング手段は、撮影時刻が近い撮影画像同士が同じノードに属し、それぞれのノードに属する撮影画像の撮影時刻に基づいて設定したノードの時刻と近い撮影時刻の画像とそのノードが同じノードに属するようにして、グループ分けの対象になる複数の撮影画像からなる二分木構造を生成し、それぞれのノードに注目して、注目するノードを親のノードとする子ノード間の時間間隔の偏差の値を前記注目するノード内全体の撮影画像の撮影時刻の時間間隔の標準偏差の値で割って得られた値と、閾値とを比較し、閾値より大きい値が求められたノードを親のノードとするそれぞれの子ノードに含まれる撮影画像が異なるグループの撮影画像になるようにしてグループ分けを行う
    請求項1に記載の情報処理装置。
  4. 撮影画像に付加されている属性情報に含まれる撮影時刻の情報と、撮影画像を解析することによって求められた撮影画像に写る人の顔の数の情報を含む情報を、撮影画像の特徴情報として抽出し、
    複数の撮影画像を対象として、それぞれの撮影画像の撮影時刻の時間間隔のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けを行い、
    同じグループの撮影画像として分類した複数の撮影画像の前記特徴情報の平均をグループの特徴情報として、グループの特徴情報の条件にあうグループのイベントを、複数の学習用の撮影画像の撮影時刻の情報と、前記学習用の撮影画像に写る人の顔の数の情報を含む情報に基づいて学習を行うことによってあらかじめ生成された、各イベントをイベントの識別結果として得るための前記特徴情報の条件が記述された識別ファイルを参照して識別し、
    ユーザにより選択されたグループに含まれる撮影画像を所定の領域にサムネイル表示させるとともに、同じ画面の前記所定の領域と異なる領域に、ユーザにより選択された前記グループと同じイベントのグループとして識別したグループに含まれる撮影画像のうちの代表画像を複数表示させ、代表画像を表示させているグループが選択されたとき、選択されたグループに含まれる撮影画像を前記所定の領域にサムネイル表示させる
    ステップを含む情報処理方法。
  5. 撮影画像に付加されている属性情報に含まれる撮影時刻の情報と、撮影画像を解析することによって求められた撮影画像に写る人の顔の数の情報を含む情報を、撮影画像の特徴情報として抽出し、
    複数の撮影画像を対象として、それぞれの撮影画像の撮影時刻の時間間隔のばらつきの程度が閾値より大きい部分がグループの境界部分となるようにグループ分けを行い、
    同じグループの撮影画像として分類した複数の撮影画像の前記特徴情報の平均をグループの特徴情報として、グループの特徴情報の条件にあうグループのイベントを、複数の学習用の撮影画像の撮影時刻の情報と、前記学習用の撮影画像に写る人の顔の数の情報を含む情報に基づいて学習を行うことによってあらかじめ生成された、各イベントをイベントの識別結果として得るための前記特徴情報の条件が記述された識別ファイルを参照して識別し、
    ユーザにより選択されたグループに含まれる撮影画像を所定の領域にサムネイル表示させるとともに、同じ画面の前記所定の領域と異なる領域に、ユーザにより選択された前記グループと同じイベントのグループとして識別したグループに含まれる撮影画像のうちの代表画像を複数表示させ、代表画像を表示させているグループが選択されたとき、選択されたグループに含まれる撮影画像を前記所定の領域にサムネイル表示させる
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2005319724A 2005-11-02 2005-11-02 情報処理装置および方法、並びにプログラム Expired - Fee Related JP4232774B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2005319724A JP4232774B2 (ja) 2005-11-02 2005-11-02 情報処理装置および方法、並びにプログラム
TW095139413A TWI351620B (en) 2005-11-02 2006-10-25 Information processing apparatus and method, and a
EP06122936A EP1785896A3 (en) 2005-11-02 2006-10-25 Information processing apparatus and method, and program
US11/553,259 US8538961B2 (en) 2005-11-02 2006-10-26 Information processing apparatus and method, and program
KR1020060105662A KR101325110B1 (ko) 2005-11-02 2006-10-30 정보 처리 장치 및 방법과 컴퓨터 판독가능한 기록 매체
CNB2006101380164A CN100435166C (zh) 2005-11-02 2006-11-02 信息处理装置和方法
US13/921,423 US9507802B2 (en) 2005-11-02 2013-06-19 Information processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005319724A JP4232774B2 (ja) 2005-11-02 2005-11-02 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007129434A JP2007129434A (ja) 2007-05-24
JP4232774B2 true JP4232774B2 (ja) 2009-03-04

Family

ID=37671132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005319724A Expired - Fee Related JP4232774B2 (ja) 2005-11-02 2005-11-02 情報処理装置および方法、並びにプログラム

Country Status (6)

Country Link
US (2) US8538961B2 (ja)
EP (1) EP1785896A3 (ja)
JP (1) JP4232774B2 (ja)
KR (1) KR101325110B1 (ja)
CN (1) CN100435166C (ja)
TW (1) TWI351620B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8712168B2 (en) 2010-01-25 2014-04-29 Panasonic Corporation Image sorting device, method, program, and integrated circuit and storage medium storing said program
US8737726B2 (en) 2011-01-28 2014-05-27 Panasonic Corporation Image data processing device, method, program and integrated circuit
US9058342B2 (en) 2010-08-04 2015-06-16 Panasonic Intellectual Property Corporation Of America Image classification device, method, program, recording media with program thereon, and integrated circuit
US11210829B2 (en) 2018-09-27 2021-12-28 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2006201734A1 (en) * 2005-04-27 2006-11-16 Aruze Corp. Gaming machine
JP5127507B2 (ja) 2007-02-27 2013-01-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび露光システム
US8094948B2 (en) * 2007-04-27 2012-01-10 The Regents Of The University Of California Photo classification using optical parameters of camera from EXIF metadata
US7730036B2 (en) 2007-05-18 2010-06-01 Eastman Kodak Company Event-based digital content record organization
KR100908890B1 (ko) * 2007-07-18 2009-07-23 (주)엔써즈 동영상 데이터 클러스터를 이용한 동영상 데이터 검색서비스 제공 방법 및 장치
JP5014241B2 (ja) * 2007-08-10 2012-08-29 キヤノン株式会社 撮像装置、およびその制御方法
JP5223293B2 (ja) * 2007-10-25 2013-06-26 沖電気工業株式会社 位置表現抽出装置、方法及びプログラム
JP5156335B2 (ja) * 2007-11-01 2013-03-06 キヤノン株式会社 画像表示装置及び画像表示方法、プログラム
TWI393116B (zh) * 2007-11-01 2013-04-11 Htc Corp 顯示影像的方法
US20100278396A1 (en) * 2008-01-18 2010-11-04 Nikon Corporation Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
JP2009217742A (ja) * 2008-03-12 2009-09-24 Fujifilm Corp メタデータ付与方法及び装置、並びにメタデータ付与プログラム
JP5068690B2 (ja) 2008-04-25 2012-11-07 富士フイルム株式会社 画像記録装置及び方法
JP2009294902A (ja) * 2008-06-05 2009-12-17 Nikon Corp 画像処理装置、およびカメラ
GB2461050A (en) * 2008-06-18 2009-12-23 Geotate Bv Storing location metadata independently of image data
JP5228655B2 (ja) * 2008-07-09 2013-07-03 株式会社ニコン デジタルフォトフレーム
KR101460612B1 (ko) * 2008-10-10 2014-11-13 삼성전자주식회사 디지털 이미지 처리장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
JP2010111093A (ja) * 2008-11-10 2010-05-20 Seiko Epson Corp 画像形成装置およびプログラム
TWI552608B (zh) * 2008-12-19 2016-10-01 湯姆生特許公司 旨在保護存取於儲存機構上所記錄視聽文件之顯示裝置及方法
US8340436B2 (en) * 2009-06-19 2012-12-25 Eastman Kodak Company Detecting significant events in consumer image collections
TWI458291B (zh) * 2009-06-22 2014-10-21 Wistron Corp 實像網控裝置及其相關方法
US8887053B2 (en) 2009-07-14 2014-11-11 Visionarist Co., Ltd. Image data display system and image data display program
US20110239163A1 (en) * 2009-12-04 2011-09-29 Daisuke Mochizuki Display screen control method, graphical user interface, information processing apparatus, information processing method, and program
JP5434569B2 (ja) * 2009-12-22 2014-03-05 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9465993B2 (en) * 2010-03-01 2016-10-11 Microsoft Technology Licensing, Llc Ranking clusters based on facial image analysis
US10191609B1 (en) 2010-03-26 2019-01-29 Open Invention Network Llc Method and apparatus of providing a customized user interface
JP2011215963A (ja) * 2010-03-31 2011-10-27 Sony Corp 電子機器、画像処理方法及びプログラム
GB2479734A (en) * 2010-04-19 2011-10-26 Alamy Ltd Selection of Images by converting unstructured textual data to search attributes
US8892594B1 (en) 2010-06-28 2014-11-18 Open Invention Network, Llc System and method for search with the aid of images associated with product categories
US8713064B1 (en) * 2010-06-28 2014-04-29 Open Invention Network, Llc Attribute category enhanced search
US8654148B2 (en) * 2010-12-23 2014-02-18 Sony Corporation Display control apparatus for deciding a retrieval range for displaying stored pieces of information
KR101102896B1 (ko) * 2011-03-04 2012-01-09 (주)올라웍스 복수의 사용자가 동시에 콜렉션을 수행할 수 있도록 지원하기 위한 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
KR101703931B1 (ko) * 2011-05-24 2017-02-07 한화테크윈 주식회사 감시 시스템
EP2718797A4 (en) * 2011-06-08 2015-02-18 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND COMPUTER PROGRAM PRODUCT
JP5995520B2 (ja) * 2011-06-14 2016-09-21 キヤノン株式会社 画像に関する処理支援システム、情報処理装置、及び画像に関する処理影支援方法
WO2013016837A1 (en) * 2011-07-29 2013-02-07 Hewlett-Packard Development Company, L.P. Incremental image clustering
US9497249B2 (en) 2011-08-08 2016-11-15 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
JP5204283B2 (ja) * 2011-09-27 2013-06-05 楽天株式会社 画像編集装置、画像編集方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
KR101952260B1 (ko) * 2012-04-03 2019-02-26 삼성전자주식회사 다수의 동영상 썸네일을 동시에 표시하기 위한 영상 재생 장치 및 방법
KR20150081411A (ko) * 2012-05-24 2015-07-14 난트 홀딩스 아이피, 엘엘씨 이벤트 아카이빙 시스템 및 방법
US20150156247A1 (en) * 2012-09-13 2015-06-04 Google Inc. Client-Side Bulk Uploader
US10272848B2 (en) * 2012-09-28 2019-04-30 Digital Ally, Inc. Mobile video and imaging system
US9424280B2 (en) * 2012-12-28 2016-08-23 Animoto Inc. Organizing media items based on metadata similarities
JP2014106527A (ja) * 2013-07-04 2014-06-09 Sky Co Ltd 画像比較表示システムおよび画像比較表示プログラム
JP5938379B2 (ja) * 2013-09-24 2016-06-22 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US9070048B2 (en) * 2013-10-17 2015-06-30 Adobe Systems Incorporated Method and apparatus for automatically identifying a representative image for an image group
US10467279B2 (en) * 2013-12-02 2019-11-05 Gopro, Inc. Selecting digital content for inclusion in media presentations
CN105338237A (zh) * 2014-08-06 2016-02-17 腾讯科技(深圳)有限公司 图像处理方法及装置
JP6402934B2 (ja) * 2015-05-19 2018-10-10 カシオ計算機株式会社 動画生成装置、動画生成方法、及びプログラム
CN105654105A (zh) * 2015-05-27 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种照片分类方法和装置
EP3331239A4 (en) * 2015-07-31 2018-08-08 Kadinche Corporation Moving image playback device, moving image playback method, moving image playback program, moving image playback system, and moving image transmitting device
JP6513009B2 (ja) * 2015-09-30 2019-05-15 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN106656725B (zh) * 2015-10-29 2020-06-19 深圳富泰宏精密工业有限公司 智能终端、服务器及信息更新系统
CN106921744A (zh) * 2017-03-14 2017-07-04 湖南威达科技有限公司 一种基于大数据与图像识别的家庭养护鸡爪槭的app
CN106921743A (zh) * 2017-03-14 2017-07-04 湖南威达科技有限公司 一种基于大数据与图像识别的家庭养护海棠花的app
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
US11574002B1 (en) * 2022-04-04 2023-02-07 Mindtech Global Limited Image tracing system and method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051721A (ja) 1996-08-02 1998-02-20 Ricoh Co Ltd デジタルスチルビデオカメラ
JP3246384B2 (ja) 1997-03-13 2002-01-15 株式会社日立製作所 画像記録装置および画像記録方法
US6606411B1 (en) * 1998-09-30 2003-08-12 Eastman Kodak Company Method for automatically classifying images into events
US6721759B1 (en) 1998-12-24 2004-04-13 Sony Corporation Techniques for spatial representation of data and browsing based on similarity
JP3972527B2 (ja) 1999-08-06 2007-09-05 カシオ計算機株式会社 撮像装置及びフォルダの自動作成方法
JP4089097B2 (ja) 1999-08-09 2008-05-21 カシオ計算機株式会社 データ保存装置及びデータ記憶方法
JP4017804B2 (ja) 2000-02-18 2007-12-05 富士フイルム株式会社 画像撮影装置、画像処理装置、及び画像管理方法
GB2360658B (en) * 2000-03-20 2004-09-08 Hewlett Packard Co Camera with user identity data
JP2001282813A (ja) * 2000-03-29 2001-10-12 Toshiba Corp マルチメディアデータ検索方法、インデックス情報提供方法、マルチメディアデータ検索装置、インデックスサーバ及びマルチメディアデータ検索サーバ
JP2002032751A (ja) 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
JP2003037731A (ja) * 2001-05-14 2003-02-07 Canon Inc 画像処理装置およびその方法
US6943842B2 (en) * 2001-11-02 2005-09-13 Hewlett-Packard Development Company, L.P. Image browsing user interface apparatus and method
JP4235393B2 (ja) * 2002-03-11 2009-03-11 富士フイルム株式会社 インデックス画像表示制御装置
JP2003274368A (ja) * 2002-03-14 2003-09-26 Fuji Photo Film Co Ltd サムネイル表示装置及びサムネイル表示プログラム
JP2003298991A (ja) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 画像整理方法および装置並びにプログラム
US7197158B2 (en) * 2002-06-28 2007-03-27 Microsoft Corporation Generation of metadata for acquired images
JP2004213129A (ja) 2002-12-27 2004-07-29 Fuji Photo Film Co Ltd 画像分類方法および装置並びにプログラム
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP4457660B2 (ja) 2003-12-12 2010-04-28 パナソニック株式会社 画像分類装置、画像分類システム、画像分類に関するプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US7528868B2 (en) * 2003-12-18 2009-05-05 Eastman Kodak Company Image metadata attachment
US7760956B2 (en) * 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
US7421455B2 (en) * 2006-02-27 2008-09-02 Microsoft Corporation Video search and services

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8712168B2 (en) 2010-01-25 2014-04-29 Panasonic Corporation Image sorting device, method, program, and integrated circuit and storage medium storing said program
US9058342B2 (en) 2010-08-04 2015-06-16 Panasonic Intellectual Property Corporation Of America Image classification device, method, program, recording media with program thereon, and integrated circuit
JP5739428B2 (ja) * 2010-08-04 2015-06-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像分類装置、方法、プログラム、プログラムを記録する記録媒体及び集積回路
US8737726B2 (en) 2011-01-28 2014-05-27 Panasonic Corporation Image data processing device, method, program and integrated circuit
US11210829B2 (en) 2018-09-27 2021-12-28 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Also Published As

Publication number Publication date
US20130279815A1 (en) 2013-10-24
EP1785896A2 (en) 2007-05-16
EP1785896A3 (en) 2007-06-27
JP2007129434A (ja) 2007-05-24
US8538961B2 (en) 2013-09-17
US9507802B2 (en) 2016-11-29
KR101325110B1 (ko) 2013-11-06
US20070103565A1 (en) 2007-05-10
KR20070047697A (ko) 2007-05-07
CN1959705A (zh) 2007-05-09
CN100435166C (zh) 2008-11-19
TW200739371A (en) 2007-10-16
TWI351620B (en) 2011-11-01

Similar Documents

Publication Publication Date Title
JP4232774B2 (ja) 情報処理装置および方法、並びにプログラム
US7716157B1 (en) Searching images with extracted objects
JP7350495B2 (ja) 装置、方法、及びプログラム
JP4577173B2 (ja) 情報処理装置および方法、並びにプログラム
US11562516B2 (en) Apparatus, method and storage medium
JP4305079B2 (ja) 画像管理装置
JP6711937B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7341676B2 (ja) 装置、方法、及びプログラム
US11645795B2 (en) Apparatus, method and medium
JP7336211B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2008269490A (ja) 画像管理方法、画像管理装置、制御プログラム及びコンピュータ可読記憶媒体
JP2009217828A (ja) 画像検索装置
US10708446B2 (en) Information processing apparatus, control method, and storage medium
JP2007133838A (ja) 画像表示方法及び画像表示プログラム
JP2020140555A (ja) 画像処理装置、制御方法、及びプログラム
EP4024347A2 (en) Image processing apparatus, image processing method, and program
JP7451242B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7446876B2 (ja) プログラム、画像処理方法、及び画像処理装置
JP7263054B2 (ja) 装置、方法、及びプログラム
JP7336212B2 (ja) 画像処理装置、制御方法、及びプログラム
JP7336210B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2007288409A (ja) 画像データ分類機能を備えた撮像装置およびプログラム
JP2023096759A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2020140584A (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4232774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees