JP2008131330A - 画像表示装置および画像表示方法 - Google Patents
画像表示装置および画像表示方法 Download PDFInfo
- Publication number
- JP2008131330A JP2008131330A JP2006313894A JP2006313894A JP2008131330A JP 2008131330 A JP2008131330 A JP 2008131330A JP 2006313894 A JP2006313894 A JP 2006313894A JP 2006313894 A JP2006313894 A JP 2006313894A JP 2008131330 A JP2008131330 A JP 2008131330A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- display device
- metadata
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】記憶された画像データをグループに分類し、入力された条件に基づき、そのグループを代表する画像データを抽出して表示する画像表示装置を提供する。
【解決手段】画像表示装置1は、画像データが入力されるデジタル画像データ入力手段40と、入力された画像データを記憶する画像データ記憶手段45と、記憶された画像データを、メタデータや画像に含まれる人物の属性情報に応じて、グループに分類する画像分類手段50と、グループに含まれる画像データの中から、そのグループを代表する画像データを抽出する条件が入力される抽出条件入力手段78と、グループが選択されるグループ選択手段79と、グループ毎にそれぞれの画像を画像処理するか、または、画像の属性情報を取得して抽出条件と照合することで、条件に適合する画像データを抽出する画像抽出手段80と、抽出された画像データが示す画像を表示する表示手段115とを備える。
【選択図】図2
【解決手段】画像表示装置1は、画像データが入力されるデジタル画像データ入力手段40と、入力された画像データを記憶する画像データ記憶手段45と、記憶された画像データを、メタデータや画像に含まれる人物の属性情報に応じて、グループに分類する画像分類手段50と、グループに含まれる画像データの中から、そのグループを代表する画像データを抽出する条件が入力される抽出条件入力手段78と、グループが選択されるグループ選択手段79と、グループ毎にそれぞれの画像を画像処理するか、または、画像の属性情報を取得して抽出条件と照合することで、条件に適合する画像データを抽出する画像抽出手段80と、抽出された画像データが示す画像を表示する表示手段115とを備える。
【選択図】図2
Description
本発明は、デジタルの画像データが示す画像を表示する画像表示装置および画像表示方法に関する。
従来、デジタルカメラ等で撮影された画像データは、記憶媒体やパーソナルコンピュータの記憶装置に順次蓄積され、ユーザは、蓄積された画像データの中から、所望する画像をパソコンや電子フォトスタンド等の画面にスライドショーとして表示することで、画像データをフォトアルバムのように観賞した。このようなスライドショーをユーザが簡単に実現する方法として、例えば、下記特許文献1のように、表示する画像、表示時間および表示順序等をユーザが予め設定し、この設定に応じてスライドショーを実行させる方法が提案されている。
ところで、最近の記録媒体や記憶装置は記憶容量が膨大であり、撮影された画像は整理されること無く蓄積されることが多い。従って、ユーザは、膨大な画像データの中から、スライドショーに適する画像データを抽出するべく、撮影されたシーン毎に画像データを分類し、それぞれのシーン毎に代表すべき画像を一枚一枚表示させて取捨選択する必要があった。しかしながら、蓄積された画像データは膨大であるため、このような作業に対して多くの時間と手間を要した。
上記した課題を解決するために、本発明の画像表示装置は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される入力手段と、前記入力された画像データを記憶する記憶手段と、前記記憶された画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する分類手段と、前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される条件入力手段と、前記グループの中から、少なくとも1つのグループが選択される選択手段と、前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する抽出手段と、前記抽出された画像データが示す画像を表示する表示手段とを備えることを特徴とする。
この発明によれば、画像表示装置に入力されて記憶された画像データは、画像データが有するメタデータや画像に含まれる人物の属性情報に応じてグループに分類されると共に、分類されたグループの中から対象とするグループを選択し、代表する画像の抽出条件を入力することで、画像処理や画像の属性情報との照合により、入力された抽出条件に適合する画像データが抽出されて表示される。尚、メタデータとは、撮影日時や、撮影場所等の撮影条件に関して、撮影と同時に記録される情報を示し、人物の属性情報とは、画像中の管理者を識別するために予め入力された人物顔やスケジュールに関する情報を示す。また、画像の属性情報とは、前記したメタデータを包含し、1枚もしくは複数の画像データから取得可能な画像に関する情報を示す。従って、ユーザは、記憶された画像データをグループに分類して、そのグループの画像をそれぞれ見比べることにより、グループの代表として表示する画像を抽出するための多くの手間と時間を省ける。
本発明の画像表示装置では、前記抽出手段は、前記グループに含まれる前記画像データ毎に、当該画像データが示す対象画像を画像処理する画像処理手段と、前記対象画像の前記画像の属性情報を取得する画像属性情報取得手段と、前記画像処理された結果および前記画像の属性情報の少なくとも1つを、前記入力された条件と照合することで、前記対象画像が前記条件に適合するか、否かを判定する判定手段とを備えることが好ましい。
この発明によれば、画像処理および画像の属性情報の少なくとも1つに基づき、入力された条件に対象画像が適合するか、否かを判定するため、条件に適合した画像の抽出精度を向上できる。
この発明によれば、画像処理および画像の属性情報の少なくとも1つに基づき、入力された条件に対象画像が適合するか、否かを判定するため、条件に適合した画像の抽出精度を向上できる。
本発明の画像表示装置では、前記画像処理手段は、前記対象画像に含まれる人物顔を認識する顔認識手段、前記対象画像に含まれる文字を認識する文字認識手段、前記対象画像が撮影された前後に撮影された画像との類似度を解析する類似度解析手段、および前記対象画像の被写体の合焦度合いを検出する合焦度検出手段の少なくとも1つを備えることが好ましい。
この発明によれば、画像処理手段は、顔認識手段、文字認識手段、類似度解析手段および合焦度検出手段の少なくとも1つを備えるため、画像処理による抽出精度がより向上する。
この発明によれば、画像処理手段は、顔認識手段、文字認識手段、類似度解析手段および合焦度検出手段の少なくとも1つを備えるため、画像処理による抽出精度がより向上する。
本発明の画像表示装置では、前記画像属性情報取得手段は、前記対象画像の画像解像度に関する情報を取得する解像度情報取得手段、前記対象画像と略同時に撮影された画像データのデータ数に関する情報を取得する撮影枚数情報取得手段、前記対象画像と前後して撮影された時間間隔に関する情報を取得する撮影間隔情報取得手段、および前記対象画像が撮影された場所に関する情報を取得する撮影場所情報取得手段の少なくとも1つを備えることが好ましい。
この発明によれば、画像属性情報取得手段は、解像度情報取得手段、撮影枚数情報取得手段、撮影間隔情報取得手段および撮影場所情報取得手段の少なくとも1つを備えるため、画像属性による抽出精度がより向上する。
この発明によれば、画像属性情報取得手段は、解像度情報取得手段、撮影枚数情報取得手段、撮影間隔情報取得手段および撮影場所情報取得手段の少なくとも1つを備えるため、画像属性による抽出精度がより向上する。
本発明の画像表示装置では、前記抽出手段は、前記画像属性情報取得手段で取得された情報のうち、数値を含む少なくとも2つの情報を演算するための演算手段を備えることが好ましい。
この発明によれば、演算手段により数値を含む少なくとも2つの情報を演算できるため、情報を組合わせることで、画像属性による抽出精度がより向上する。
この発明によれば、演算手段により数値を含む少なくとも2つの情報を演算できるため、情報を組合わせることで、画像属性による抽出精度がより向上する。
本発明の画像表示装置では、前記条件入力手段は、抽出すべき画像データが示す抽出画像が、複数の人物が集まった集合写真であるか、または1人の人物の写真であるかを指示するための第1の指示手段、前記抽出画像が文字情報を含むか、否かを指示するための第2の指示手段、前記抽出画像の解像度レベルを指示するための第3の指示手段、略同時に撮影され、被写体が略同一である前記画像データの中から1つを抽出するか、否かを指示するための第4の指示手段、前記抽出すべき画像データが単位時間当たりに撮影された撮影枚数を指示するための第5の指示手段、前記抽出画像の被写体の合焦度合いを指示するための第6の指示手段、連続して撮影された前記画像データの中から、最初に撮影された画像データを除外して抽出するか、否かを指示するための第7の指示手段、前記抽出すべき画像データが撮影された時間間隔を指示するための第8の指示手段、前記抽出すべき画像データが撮影された場所を指示するための第9の指示手段、および前記画像データが抽出される最大の枚数を指示するための第10の指示手段の少なくとも1つを備えても良い。
本発明の画像表示装置では、前記分類手段は、前記記憶された画像データのメタデータを取得するメタデータ取得手段と、前記取得したメタデータに応じて、前記画像データを分類するメタデータ分類手段とを備えても良い。
本発明の画像表示装置では、前記メタデータ分類手段は、前記メタデータが含む日付けに関する情報に応じて、前記画像データを分類する日付け分類手段と、前記メタデータが含む場所に関する情報に応じて、前記画像データを分類する場所分類手段とを有しても良い。
本発明の画像表示装置では、前記分類手段は、前記記憶された画像データが示す画像の少なくとも1つに含まれる定義された人物の属性情報を取得する人物属性情報取得手段と、前記取得された属性情報に応じて、前記画像データを分類する属性分類手段とを備えても良い。
本発明の画像表示装置では、前記人物属性情報取得手段は、前記取得された属性情報から、前記人物の顔画像を取得する顔画像取得手段と、前記人物のスケジュールを取得するスケジュール取得手段とを有しても良い。
本発明の画像表示装置では、前記属性分類手段は、前記顔画像取得手段によって取得された顔画像を画像認識する画像認識手段と、前記スケジュール取得手段によって取得されたスケジュールを照合する照合手段とを有しても良い。
本発明の画像表示装置では、前記表示手段は、前記画像データが示す画像の表示に加えて、前記画像データのメタデータおよび前記画像データが示す画像に含まれる人物の属性情報の少なくとも1つを表示しても良い。
上記した課題を解決するために、本発明の画像表示方法は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する工程と、前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される工程と、前記グループの中から、少なくとも1つのグループが選択される工程と、前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する工程と、前記抽出された画像データが示す画像を表示する工程とを備えることを特徴とする。
この発明によれば、画像データが有するメタデータや画像に含まれる人物の属性情報に応じて、画像データはグループに分類されると共に、分類されたグループの中から対象とするグループを選択し、代表する画像の抽出条件を入力することで、画像処理や画像の属性情報との照合により、入力された抽出条件に適合する画像データが抽出されて表示される。従って、ユーザは、記憶された画像データをグループに分類して、そのグループの画像をそれぞれ見比べることにより、グループの代表として表示する画像を抽出するための多くの手間と時間を省ける。
以下、本発明の実施形態について、デジタルカメラ等で撮影されたデジタルの画像データが示す画像を表示する画像表示装置1を用いて説明する。
(実施形態)
図1は、画像表示装置1のハードウェア構成を示す図である。この画像表示装置1は、フォトフレームのような様体であり、表示パネル24に電子写真等の観賞用画像が表示される。この画像表示装置1のハードウェア構成は、CPU(Central Processing Unit)10と、RAM(Random Access Memory)12と、ROM(Read Only Memory)14と、記憶装置16と、入出力I/F(Interface)18と、グラフィックスサブシステム20とを具備する。これらのハードウェアは、バス22により各信号が授受可能に接続されている。また、これらのハードウェアは、基本ソフトウェアであるBIOS(Basic Input Output System)や、オペレーティングシステム(OS)により管理され、これらの管理下で、ROM14や記憶装置16に記憶されたドライバを含む種々のソフトウェアにより、所定の機能が実行されても良い。
図1は、画像表示装置1のハードウェア構成を示す図である。この画像表示装置1は、フォトフレームのような様体であり、表示パネル24に電子写真等の観賞用画像が表示される。この画像表示装置1のハードウェア構成は、CPU(Central Processing Unit)10と、RAM(Random Access Memory)12と、ROM(Read Only Memory)14と、記憶装置16と、入出力I/F(Interface)18と、グラフィックスサブシステム20とを具備する。これらのハードウェアは、バス22により各信号が授受可能に接続されている。また、これらのハードウェアは、基本ソフトウェアであるBIOS(Basic Input Output System)や、オペレーティングシステム(OS)により管理され、これらの管理下で、ROM14や記憶装置16に記憶されたドライバを含む種々のソフトウェアにより、所定の機能が実行されても良い。
CPU10は、基本ソフトウェアや入出力I/F18に接続された各装置のデバイスドライバや、アプリケーションソフトウェアなどの各種プログラム、および各種のデータをROM14や記憶装置16から読み込み、これらをRAM12内に設けられるメインメモリ領域に展開して実行する。また、記憶装置16は、情報を読み書き可能に記憶する装置であり、例えば、ハードディスクドライブやフラッシュメモリを採用できる。
入出力I/F18には、クレードル(Cradle)26、メモリカードドライブ28および操作入力装置30が所定の規格に従い接続されている。メモリカードドライブ28は、SDメモリカード(登録商標)のようにフラッシュメモリを内部に備えたメモリカード34を装着することで、メモリカード34に記憶された各種データを読み込むことができる。例えば、デジタルカメラ32等で撮影された画像データが保存されたメモリカード34を、メモリカードドライブ28に装着することで、画像データを読み込める。
また、クレードル26は、スタンド型の接続機器であり、本実施形態では、デジタルカメラ32をクレードル26の所定の位置に設置することで、デジタルカメラ32と電気的に接続され、デジタルカメラ32で撮影されて内部に保存された画像データを読み込める。メモリカードドライブ28やクレードル26から読み込まれた画像データは、記憶装置16に記憶される。また、操作入力装置30は、画像表示装置1の操作を指示するための装置であり、具体的には、リモコン等を採用できる。
また、クレードル26は、スタンド型の接続機器であり、本実施形態では、デジタルカメラ32をクレードル26の所定の位置に設置することで、デジタルカメラ32と電気的に接続され、デジタルカメラ32で撮影されて内部に保存された画像データを読み込める。メモリカードドライブ28やクレードル26から読み込まれた画像データは、記憶装置16に記憶される。また、操作入力装置30は、画像表示装置1の操作を指示するための装置であり、具体的には、リモコン等を採用できる。
グラフィックスサブシステム20は、グラフィックスチップ、グラフィックスメモリ等で構成され、表示パネル24に対して画像信号を出力する。この表示パネル24は、液晶パネル等を採用し、グラフィックスサブシステム20から出力された画像信号が示す画像を表示する。
図2は、画像表示装置1の機能構成を示す図である。この画像表示装置1は、デジタル画像データ入力手段40と、画像データ記憶手段45と、画像分類手段50と、管理者記憶手段75と、抽出条件入力手段78と、グループ選択手段79と、画像抽出手段80と、表示手段115とを備える。尚、これらの機能は、前記したハードウェアとソフトウェアとが協働することで実現しても良い。
デジタル画像データ入力手段40は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される。本実施形態では、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータを有する画像データが、前記したメモリカード34やクレードル26を介して入力される。ここで入力された画像データは、画像データ記憶手段45に送られ、記憶される。
画像分類手段50は、画像データ記憶手段45に記憶された複数の画像データを、それぞれの画像データが示す画像に含まれる人物の属性情報およびメタデータの少なくとも1つに応じて、複数のグループに分類する。この画像分類手段50は、メタデータ取得手段52と、メタデータ分類手段54と、個人属性情報取得手段60と、個人属性分類手段66とを具備する。
デジタル画像データ入力手段40は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される。本実施形態では、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータを有する画像データが、前記したメモリカード34やクレードル26を介して入力される。ここで入力された画像データは、画像データ記憶手段45に送られ、記憶される。
画像分類手段50は、画像データ記憶手段45に記憶された複数の画像データを、それぞれの画像データが示す画像に含まれる人物の属性情報およびメタデータの少なくとも1つに応じて、複数のグループに分類する。この画像分類手段50は、メタデータ取得手段52と、メタデータ分類手段54と、個人属性情報取得手段60と、個人属性分類手段66とを具備する。
最初に、メタデータによる分類について説明する。メタデータ取得手段52は、入力された画像データの中から、画像イメージを示す画像データと、データの属性を示すメタデータとが抽出されて取得される。このメタデータは、例えば、JPEG(Joint Photographic Experts Group)規格に従い圧縮された画像データに付加されるExif(Exchangeable Image File Format)データであり、このようなExifデータには、デジタルカメラ32の固有データや、撮影日時や、撮影場所等の撮影条件等の情報が含まれている。ここで取得されたメタデータは、メタデータ分類手段54に送られる。メタデータ分類手段54は、日付け分類手段56と、場所分類手段58とを有する。
日付け分類手段56は、画像データが撮影された撮影日時により、画像データを分類する。具体的には、メタデータに含まれる撮影日時の情報を参照して、画像データを所定のグループに分類する。
場所分類手段58は、画像データが撮影された撮影場所により、画像データを分類する。具体的には、メタデータに含まれる撮影場所の情報を参照して、日付けによりグループ化されたそれぞれの画像データを、更にグループに分類する。
場所分類手段58は、画像データが撮影された撮影場所により、画像データを分類する。具体的には、メタデータに含まれる撮影場所の情報を参照して、日付けによりグループ化されたそれぞれの画像データを、更にグループに分類する。
次に、定義された人物の属性情報による分類について説明する。本実施形態では、定義された人物の属性情報は、個人属性情報取得手段60で取得され、それぞれの画像データは、取得された人物の属性情報に基づき個人属性分類手段66により分類される。ここで、定義された人物の情報は、管理者記憶手段75に予め記憶されている。この管理者記憶手段75は、画像データの管理者になる可能性を有する人物(管理者候補)の情報が記憶される。ここで、管理者とは、デジタルカメラ32の撮影者や、撮影した画像データを扱う人物であり、管理者になる可能性を有する人物の情報は、予め入力されて定義されている。例えば、画像表示装置1が家庭内で使用される場合、管理者になる可能性を有する人物は家族であり、管理者記憶手段75には、家族を構成するそれぞれの人物に関する情報が記憶される。個人属性情報取得手段60は、管理者記憶手段75に記憶された情報を参照して、個人の属性に関する情報を取得する。この個人属性情報取得手段60は、管理者顔画像取得手段62と、スケジュール取得手段64とを有する。
管理者顔画像取得手段62は、管理者記憶手段75に記憶されている情報の中から、管理者候補の顔画像を取得する。ここで、取得された管理者候補の顔画像は、管理者顔画像認識手段68から必要に応じて参照される。また、スケジュール取得手段64は、管理者記憶手段75に記憶されている情報の中から、管理者候補のスケジュールに関する情報を取得する。ここで、取得された管理者候補のスケジュールに関する情報は、スケジュール照合手段70から必要に応じて参照される。
管理者顔画像認識手段68は、画像データの中から、顔画像を検出すると共に、管理者顔画像取得手段62で取得された管理者候補の顔画像を参照して、検出した顔画像の中から管理者候補の顔画像を認識する。ここで、顔画像を認識する方法としては、例えば、特開2004−199673号公報で開示された処理方法を採用できる。管理者顔画像認識手段68は、画像データの中から1人の管理者候補の顔画像が認識できた場合、この管理者候補を管理者と特定してグループ化する。また、管理者顔画像認識手段68は、画像データの中から複数の管理者候補の顔画像を認識できた場合、これらの管理者候補を管理者と特定してグループ化する。
スケジュール照合手段70は、それぞれのグループに分類された撮影場所および撮影日時について記載されている情報と、スケジュール取得手段64で取得された管理者候補のスケジュール情報とを照合することで、スケジュールが一致する管理者候補を抽出して、管理者を特定する。
上記した処理により、撮影日時、撮影場所、管理者および管理者のスケジュールが特定され、これらの情報に基づき、撮影されたイベントも特定できる。従って、画像データ記憶手段45に記憶された画像データは、特定されたイベントごとにグループに分類できる。
上記した処理により、撮影日時、撮影場所、管理者および管理者のスケジュールが特定され、これらの情報に基づき、撮影されたイベントも特定できる。従って、画像データ記憶手段45に記憶された画像データは、特定されたイベントごとにグループに分類できる。
抽出条件入力手段78は、それぞれのグループに含まれる画像データの中から、そのグループを代表する画像データを抽出するための条件が入力される。本実施形態では、以下に示す抽出条件の中からユーザが所望する条件を選択する。
(1)集合写真/ポートレート・・・抽出すべき画像データが示す抽出画像が、複数の人物が集まった集合写真であるか、または1人の人物の写真であるかを選択する。
(2)文字情報・・・抽出画像が文字情報を含むか、否かを選択する。
(3)解像度レベル・・・抽出画像の解像度レベルを選択する。
(4)連写1枚選択・・・略同時に撮影され、被写体が略同一である画像データの中から1つを抽出するか、否かを選択する。
(5)単位時間当たりの撮影枚数・・・抽出すべき画像データが単位時間当たりに撮影された撮影枚数を選択する。
(6)フォーカスレベル・・・抽出画像の被写体の合焦度合いのレベルを選択する。
(7)試し撮り排除・・・連続して撮影された画像データの中から、最初に撮影された画像データを除外して抽出するか、否かを選択する。
(8)撮影時間間隔・・・抽出すべき画像データが撮影された時間間隔を選択する。
(9)撮影場所指定・・・抽出すべき画像データが撮影された場所を選択する。
(10)抽出最大枚数・・・画像データが抽出される最大の枚数を選択する。
尚、本実施形態では、上記したそれぞれの条件は、重み付けの設定が可能であり、重み付けされた数値が高い条件から順に照合されるように構成されている。
(1)集合写真/ポートレート・・・抽出すべき画像データが示す抽出画像が、複数の人物が集まった集合写真であるか、または1人の人物の写真であるかを選択する。
(2)文字情報・・・抽出画像が文字情報を含むか、否かを選択する。
(3)解像度レベル・・・抽出画像の解像度レベルを選択する。
(4)連写1枚選択・・・略同時に撮影され、被写体が略同一である画像データの中から1つを抽出するか、否かを選択する。
(5)単位時間当たりの撮影枚数・・・抽出すべき画像データが単位時間当たりに撮影された撮影枚数を選択する。
(6)フォーカスレベル・・・抽出画像の被写体の合焦度合いのレベルを選択する。
(7)試し撮り排除・・・連続して撮影された画像データの中から、最初に撮影された画像データを除外して抽出するか、否かを選択する。
(8)撮影時間間隔・・・抽出すべき画像データが撮影された時間間隔を選択する。
(9)撮影場所指定・・・抽出すべき画像データが撮影された場所を選択する。
(10)抽出最大枚数・・・画像データが抽出される最大の枚数を選択する。
尚、本実施形態では、上記したそれぞれの条件は、重み付けの設定が可能であり、重み付けされた数値が高い条件から順に照合されるように構成されている。
グループ選択手段79は、画像分類手段50で画像データがそれぞれ分類されたグループの中から、画像を抽出する対象のグループを選択する。本実施形態では、図示は略すが、ユーザが操作入力装置30に対して所定の操作を行うことにより、画像分類手段50で分類されたグループの情報は、表示パネル24に表示される。ユーザは、表示されたグループの中から、所望するグループを少なくとも1つ選択する。また、グループは、乱数表等によりランダムに選択されても良い。
画像抽出手段80は、画像分類手段50で分類されたグループ毎に、それぞれの画像データが示す画像を画像処理するか、または、メタデータを含む画像の属性情報を画像データ毎に取得して、抽出条件入力手段78で入力された条件と照合することにより、この条件に適合する画像データを抽出する。本実施形態では、画像抽出手段80で抽出対象とするグループは、グループ選択手段79で選択される。この画像抽出手段80は、画像処理手段82と、画像属性情報取得手段92と、演算手段110と、適合判定手段112とを具備する。尚、ここで抽出された画像は、イベント毎に表示する所定のサイクルが終了するまでは、再度抽出されないように構成されている。
画像抽出手段80は、画像分類手段50で分類されたグループ毎に、それぞれの画像データが示す画像を画像処理するか、または、メタデータを含む画像の属性情報を画像データ毎に取得して、抽出条件入力手段78で入力された条件と照合することにより、この条件に適合する画像データを抽出する。本実施形態では、画像抽出手段80で抽出対象とするグループは、グループ選択手段79で選択される。この画像抽出手段80は、画像処理手段82と、画像属性情報取得手段92と、演算手段110と、適合判定手段112とを具備する。尚、ここで抽出された画像は、イベント毎に表示する所定のサイクルが終了するまでは、再度抽出されないように構成されている。
画像処理手段82は、グループに含まれる画像データ毎に、この画像データが示す対象画像を画像処理する。この画像処理手段82は、顔認識手段84と、文字認識手段86と、類似度解析手段88と、合焦度検出手段90とを有する。顔認識手段84は、対象画像に含まれる人物顔を認識する。画像の中から顔の画像を認識する方法としては、前記した特開2004−199673号公報で開示された処理方法を採用できる。また、文字認識手段86は、対象画像に含まれる文字を認識する。画像の中から文字を認識する方法としては、例えば、特開2004−74157号公報で開示された処理方法を採用できる。
また、類似度解析手段88は、対象画像が撮影された前後に撮影された画像との類似度を解析する。画像の類似度を解析する方法としては、例えば、特開平10−260983号公報で開示された処理方法を採用できる。ここで複数の画像の類似性が高いと判定された場合、その中の1つの画像が抽出された後、所定のサイクルが終了するまでは、抽出された画像と類似する画像は抽出されないように構成されている。更に、合焦度検出手段90は、対象画像の被写体における合焦度合いを検出する。画像の被写体の合焦度を検出する方法としては、例えば、特開平6−319071号公報や、特開2001−256498号公報で開示された処理方法を採用できる。
画像属性情報取得手段92は、対象画像の属性情報を取得する。この画像属性情報取得手段92は、解像度情報取得手段94と、撮影枚数情報取得手段96と、撮影間隔情報取得手段98と、撮影場所情報取得手段100とを有する。解像度情報取得手段94は、対象画像の画像解像度に関する情報を取得する。また、撮影枚数情報取得手段96は、対象画像と略同時に撮影された画像データのデータ数に関する情報を取得する。また、撮影間隔情報取得手段98は、対象画像と前後して撮影された時間の間隔に関する情報を取得する。更に、撮影場所情報取得手段100は、対象画像が撮影された場所に関する情報を取得する。これらの情報は、Exifデータや、デジタルカメラ32が具備するGPS(Global Positioning System)機器の位置データから取得しても良い。
演算手段110は、画像属性情報取得手段92で取得された情報の中から、少なくとも2つの数値を含む情報を演算する。本実施形態では、撮影枚数情報取得手段96で取得されたデータ数に関する情報と、撮影間隔情報取得手段98で取得された時間に関する情報とを演算することで、単位時間当たりの撮影枚数に関する情報を算出する。
適合判定手段112は、対象画像が画像処理された結果および対象画像の属性データの少なくとも1つを、入力された条件と照合することで、この対象画像が条件に適合するか、否かを判定する。ここで、適合すると判定された画像データが示す画像は、表示手段115に順次送られ表示される。尚、本実施形態では、この画像は表示パネル24に表示されるが、表示パネル24には限定されない。また、ユーザが所定の操作を行うことで、画像の表示に代えて、この画像に関するイベントの情報を、表示手段115に表示させることができる。
適合判定手段112は、対象画像が画像処理された結果および対象画像の属性データの少なくとも1つを、入力された条件と照合することで、この対象画像が条件に適合するか、否かを判定する。ここで、適合すると判定された画像データが示す画像は、表示手段115に順次送られ表示される。尚、本実施形態では、この画像は表示パネル24に表示されるが、表示パネル24には限定されない。また、ユーザが所定の操作を行うことで、画像の表示に代えて、この画像に関するイベントの情報を、表示手段115に表示させることができる。
図3は、画像表示装置1により画像を抽出して表示する処理の流れを説明するフローチャートである。この画像表示装置1が起動されると、最初にS200に進み、画像表示装置1は、記憶された画像データをグループに分類する処理を実行する。この処理の詳細は後述する。
次に、S250において、抽出条件が入力される。本実施形態では、ユーザが操作入力装置30から所定の操作を行うことにより、表示パネル24に抽出条件を入力するための入力画面が表示される。図4は、このような入力画面の一例を示し、この図に示す抽出条件入力ウインドウ300が表示パネル24に表示される。この抽出条件入力ウインドウ300は、集合写真/ポートレート選択領域310、解像度レベル選択領域320、フォーカスレベル選択領域330、文字情報選択領域340、連写選択領域350、試し撮り排除選択領域360、単位時間当たりの撮影枚数選択領域370、撮影時間間隔選択領域380、撮影場所選択領域390および抽出最大枚数選択領域400を有する。ここで、例えば、集合写真/ポートレート選択領域310の場合、ユーザは、「集合写真」、「個人写真」および「指定なし」の何れかを選択ボタン312で選択する。また、この集合写真/ポートレート選択領域310で選択された項目の重み付けを、スライダー314で設定できると共に、設定された数値は、重み表示ボックス316に表示される。その他の領域(320〜400)についても同様に選択され、ユーザによりOKボタン305が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件が確定され、キャンセルボタン308が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件は破棄される。
次に、S250において、抽出条件が入力される。本実施形態では、ユーザが操作入力装置30から所定の操作を行うことにより、表示パネル24に抽出条件を入力するための入力画面が表示される。図4は、このような入力画面の一例を示し、この図に示す抽出条件入力ウインドウ300が表示パネル24に表示される。この抽出条件入力ウインドウ300は、集合写真/ポートレート選択領域310、解像度レベル選択領域320、フォーカスレベル選択領域330、文字情報選択領域340、連写選択領域350、試し撮り排除選択領域360、単位時間当たりの撮影枚数選択領域370、撮影時間間隔選択領域380、撮影場所選択領域390および抽出最大枚数選択領域400を有する。ここで、例えば、集合写真/ポートレート選択領域310の場合、ユーザは、「集合写真」、「個人写真」および「指定なし」の何れかを選択ボタン312で選択する。また、この集合写真/ポートレート選択領域310で選択された項目の重み付けを、スライダー314で設定できると共に、設定された数値は、重み表示ボックス316に表示される。その他の領域(320〜400)についても同様に選択され、ユーザによりOKボタン305が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件が確定され、キャンセルボタン308が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件は破棄される。
図3に戻り、次に、ステップS252において、抽出対象とする画像データのグループが選択される。本実施形態では、ユーザによる操作により選択される。尚、グループの選択は、抽出条件の入力後には限定されず、抽出条件を入力する前に選択されても良い。
次に、ステップS254において、画像表示装置1は、選択されたグループに属する画像データの中から、抽出条件に適合する画像を抽出する。ここで、抽出条件は、抽出条件入力ウインドウ300(図4)のスライダー314で入力された数値が高い順に順次照合される。更に、ステップS256において、画像表示装置1は、抽出された画像を表示パネル24に表示する。ここで、表示される画像の枚数は、抽出条件入力ウインドウ300の抽出最大枚数選択領域400で選択された枚数を上限とし、それぞれの画像は、所定の時間間隔で順次切替わる。
次に、ステップS254において、画像表示装置1は、選択されたグループに属する画像データの中から、抽出条件に適合する画像を抽出する。ここで、抽出条件は、抽出条件入力ウインドウ300(図4)のスライダー314で入力された数値が高い順に順次照合される。更に、ステップS256において、画像表示装置1は、抽出された画像を表示パネル24に表示する。ここで、表示される画像の枚数は、抽出条件入力ウインドウ300の抽出最大枚数選択領域400で選択された枚数を上限とし、それぞれの画像は、所定の時間間隔で順次切替わる。
続いて、ステップS258において、画像表示装置1は、対象とする画像グループを変更するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、対象とする画像グループを変更できる。ここで、対象とする画像グループを変更する場合(ステップS258でYes)、ステップS252に戻り、対象とする画像グループがユーザに選択される。他方で、対象とする画像グループが変更されない場合(ステップS258でNo)、ステップS260に進む。
ステップS260では、画像表示装置1は、抽出条件を変更するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、抽出条件を変更できる。ここで、抽出条件を変更する場合(ステップS260でYes)、ステップS250に戻り、抽出条件がユーザにより変更される。他方で、抽出条件を変更しない場合(ステップS260でNo)、ステップS262に進む。
ステップS262では、画像表示装置1は、表示を終了するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、画像の表示を終了できる。ここで、画像の表示を終了しない場合(ステップS262でNo)、ステップS256に戻り、画像表示装置1は、抽出された画像の表示を継続する。他方で、画像の表示を終了する場合(ステップS262でYes)、画像表示装置1は、一連の処理は終了する。
ステップS262では、画像表示装置1は、表示を終了するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、画像の表示を終了できる。ここで、画像の表示を終了しない場合(ステップS262でNo)、ステップS256に戻り、画像表示装置1は、抽出された画像の表示を継続する。他方で、画像の表示を終了する場合(ステップS262でYes)、画像表示装置1は、一連の処理は終了する。
以上の処理により、保存された画像データがグループ化され、入力された抽出条件に従い抽出された画像が順次表示される。
図5は、画像表示装置1において、記憶された画像データをグループに分類する処理の流れを説明するフローチャートである。また、この処理について、説明および理解を容易にすべく、図6のデータ分類の処理を説明する図も参照する。
最初に、処理が開始されると、ステップS202において、画像表示装置1は、記憶装置16等に記憶されている画像データを読み込む。ここで読み込まれた画像データ280(図6)は、撮影された日時や撮影された場所がそれぞれ異なる。
次に、ステップS204において、画像表示装置1は、読み込まれた画像データ280
の属性を示すメタデータを抽出して取得する。
の属性を示すメタデータを抽出して取得する。
次に、ステップS206において、画像表示装置1は、メタデータに含まれる撮影日時の情報に従い、画像データを分類してグループ化する。この結果、図6の日時分類結果282に示すように、撮影日時によって画像データは、「1月8日に撮影されたグループ」、「1月9日に撮影されたグループ」、「1月17日に撮影されたグループ」、「1月18日に撮影されたグループ」および「1月20日に撮影されたグループ」に分類される。
続いて、ステップS208において、画像表示装置1は、メタデータに含まれる撮影場所の情報に従い、撮影日時により分類された各グループのそれぞれを更に分類してグループ化する。この結果、図6の場所分類結果284に示すように、例えば、「1月9日に撮影されたグループ」は、撮影場所が、「BB」と「CC」に分類され、グループ化される。また、他のグループは、それぞれ同一な場所で撮影されているため、場所分類結果284と、日時分類結果282とは同一になる。
次に、ステップS210において、画像表示装置1は、1つのグループに含まれる画像データの中から顔画像を検出し、管理者顔画像取得手段62で取得された管理者候補の顔画像を参照して、検出した顔画像の中から管理者の顔画像を抽出する。
続いて、ステップS212において、画像表示装置1は、顔画像から抽出できた管理者が、1人か、否かを判定する。この結果、管理者が1人である場合(ステップS212でYes)、ステップS226において、画像表示装置1は、特定できた管理者のグループに画像データを分類し、その後、ステップS224に進む。このステップS224において、全てのグループの顔画像が抽出されていない場合(ステップS224でNo)、未抽出のグループの画像データに含まれる管理者の顔画像を抽出する工程(ステップS210)に戻る。他方で、全てのグループの顔画像が抽出された場合(ステップS224でYes)、一連の処理が終了する。このようにして、例えば、図6の「1月8日に撮影されたグループ」および「1月9日に撮影されたグループ」で抽出して特定された管理者286は、共に「A」であるため、これらのデータは、分類結果290として、「A」を管理者とする第1写真画像グループにまとめられる。尚、本実施形態では、「A」に関してスケジュール情報が存在しない場合を想定するが、スケジュール情報が存在する場合は、後述する方法で、スケジュール情報を参照して、第1グループを更に細分しても良い。
他方で、抽出できた顔画像の管理者が1人でない場合(ステップS212でNo)、ステップS214において、画像表示装置1は、管理者のスケジュールに関する情報を取得する。更に、ステップS216において、画像表示装置1は、各グループに含まれるメタデータとスケジュール情報とを照合する。次に、ステップS218において、画像表示装置1は、メタデータと一致するスケジュール情報が見つかったか、否か判定し、メタデータと一致するスケジュール情報が見つかった場合(ステップS218でYes)、ステップS228において、画像表示装置1は、スケジュールが一致した管理者のみを管理者と特定してグループに分類する。例えば、図6の「1月18日に撮影されたグループ」において、特定できた管理者が「B」と「C」であり、スケジュール表288中の「B」の予定スケジュールと一致することから、管理者は「B」と特定され、「1月18日に撮影されたグループ」のデータは、「B」を管理者とする第2写真画像グループにまとめられる。
他方で、メタデータと一致するスケジュール情報が見つからない場合(ステップS218でNo)、ステップS220において、画像表示装置1は、顔画像を抽出できた管理者は2人以上か、否かを判定する。ここで、顔画像を抽出できた管理者が2人以上である場合(ステップS220でYes)、ステップS222において、画像表示装置1は、それぞれの管理者毎に、同一の画像データを振り分けた後、ステップS224に進む。このようにして、例えば、図6の「1月20日に撮影されたグループ」で特定された管理者は、「D」と「E」であると共に、「1月20日」には、「D」と「E」共に一致するスケジュールがないため、このグループは、データと共にコピーされて2つの同一グループが作成され、分類結果として、それぞれ「D」を管理者とする第3写真画像グループと、「E」を管理者とする第4写真画像グループとにまとめられる。
他方で、顔画像を抽出できた管理者が2人以上でない場合(ステップS220でNo)、即ち、顔画像を抽出できた管理者がいない場合は、ステップS230において、画像表示装置1は、「その他のグループ」と分類し、その後、ステップS224に進む。
以上の処理により、読み込まれた画像データ280は、撮影日時、撮影場所に応じて分類されると共に、顔画像から特定された管理者ごとに分類されてまとめられる。
以上述べた実施形態によれば、以下のような効果を奏する。
(1)ユーザが抽出条件の入力し、自動的に分類されたグループを指定することで、指定されたグループに含まれる画像の中から、そのグループでのイベントを代表するシーンの画像が抽出されて表示されるため、ユーザが所望する画像をアルバムとして効率良く観賞できる。
(1)ユーザが抽出条件の入力し、自動的に分類されたグループを指定することで、指定されたグループに含まれる画像の中から、そのグループでのイベントを代表するシーンの画像が抽出されて表示されるため、ユーザが所望する画像をアルバムとして効率良く観賞できる。
以上、本発明を図示した実施形態に基づいて説明したが、本発明は、本実施形態に限定されるものではなく、以下に述べるような変形例も想定できる。
(1)画像抽出手段80で抽出された画像データは、他の装置に所定の方法で送信されて出力されても良く、また、他の装置において当該画像データが加工処理され、情報として用いられても良い。
(1)画像抽出手段80で抽出された画像データは、他の装置に所定の方法で送信されて出力されても良く、また、他の装置において当該画像データが加工処理され、情報として用いられても良い。
1…画像表示装置、10…CPU、12…RAM、14…ROM、16…記憶装置、18…入出力I/F、20…グラフィックスサブシステム、22…バス、24…表示パネル、26…クレードル、28…メモリカードドライブ、30…操作入力手段、32…デジタルカメラ、34…メモリカード、40…デジタル画像データ入力手段、45…画像データ記憶手段、50…画像分類手段、52…メタデータ取得手段、54…メタデータ分類手段、56…日付け分類手段、58…場所分類手段、60…個人属性情報取得手段、62…管理者顔画像取得手段、64…スケジュール取得手段、66…個人属性分類手段、68…管理者顔画像認識手段、70…スケジュール照合手段、75…管理者記憶手段、78…抽出条件入力手段、79…グループ選択手段、80…画像抽出手段、82…画像処理手段、84…顔認識手段、86…文字認識手段、88…類似度解析手段、90…合焦度検出手段、92…画像属性情報取得手段、94…解像度情報取得手段、96…撮影枚数情報取得手段、98…撮影間隔情報取得手段、100…撮影場所情報取得手段、110…演算手段、112…適合判定手段、115…表示手段、280…画像データ、282…日時分類結果、284…場所分類結果、288…スケジュール表、290…分類結果、300…抽出条件入力ウインドウ、305…OKボタン、308…キャンセルボタン、310…集合写真/ポートレート選択領域、312…選択ボタン、314…スライダー、316…重み表示ボックス、320…解像度レベル選択領域、330…フォーカスレベル選択領域、340…文字情報選択領域、350…連写選択領域、360…試し撮り排除選択領域、370…単位時間当たりの撮影枚数選択領域、380…撮影時間間隔選択領域、390…撮影場所選択領域、400…抽出最大枚数選択領域。
Claims (13)
- 撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される入力手段と、
前記入力された画像データを記憶する記憶手段と、
前記記憶された画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する分類手段と、
前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される条件入力手段と、
前記グループの中から、少なくとも1つのグループが選択される選択手段と、
前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する抽出手段と、
前記抽出された画像データが示す画像を表示する表示手段とを備えることを特徴とする画像表示装置。 - 請求項1に記載の画像表示装置において、
前記抽出手段は、
前記グループに含まれる前記画像データ毎に、当該画像データが示す対象画像を画像処理する画像処理手段と、
前記対象画像の前記画像の属性情報を取得する画像属性情報取得手段と、
前記画像処理された結果および前記画像の属性情報の少なくとも1つを、前記入力された条件と照合することで、前記対象画像が前記条件に適合するか、否かを判定する判定手段とを備えることを特徴とする画像表示装置。 - 請求項2に記載の画像表示装置において、
前記画像処理手段は、
前記対象画像に含まれる人物顔を認識する顔認識手段、
前記対象画像に含まれる文字を認識する文字認識手段、
前記対象画像が撮影された前後に撮影された画像との類似度を解析する類似度解析手段、および前記対象画像の被写体の合焦度合いを検出する合焦度検出手段の少なくとも1つを備えることを特徴とする画像表示装置。 - 請求項2乃至3のいずれかに記載の画像表示装置において、
前記画像属性情報取得手段は、
前記対象画像の画像解像度に関する情報を取得する解像度情報取得手段、
前記対象画像と略同時に撮影された画像データのデータ数に関する情報を取得する撮影枚数情報取得手段、
前記対象画像と前後して撮影された時間間隔に関する情報を取得する撮影間隔情報取得手段、
および前記対象画像が撮影された場所に関する情報を取得する撮影場所情報取得手段の少なくとも1つを備えることを特徴とする画像表示装置。 - 請求項2乃至4のいずれか1項に記載の画像表示装置において、
前記抽出手段は、
前記画像属性情報取得手段で取得された情報のうち、数値を含む少なくとも2つの情報を演算するための演算手段を備えることを特徴とする画像表示装置。 - 請求項1乃至5のいずれか1項に記載の画像表示装置において、
前記条件入力手段は、
抽出すべき画像データが示す抽出画像が、複数の人物が集まった集合写真であるか、または1人の人物の写真であるかを指示するための第1の指示手段、
前記抽出画像が文字情報を含むか、否かを指示するための第2の指示手段、
前記抽出画像の解像度レベルを指示するための第3の指示手段、
略同時に撮影され、被写体が略同一である前記画像データの中から1つを抽出するか、否かを指示するための第4の指示手段、
前記抽出すべき画像データが単位時間当たりに撮影された撮影枚数を指示するための第5の指示手段、
前記抽出画像の被写体の合焦度合いを指示するための第6の指示手段、
連続して撮影された前記画像データの中から、最初に撮影された画像データを除外して抽出するか、否かを指示するための第7の指示手段、
前記抽出すべき画像データが撮影された時間間隔を指示するための第8の指示手段、
前記抽出すべき画像データが撮影された場所を指示するための第9の指示手段、
および前記画像データが抽出される最大の枚数を指示するための第10の指示手段の少なくとも1つを備えることを特徴とする画像表示装置。 - 請求項1乃至6のいずれか1項に記載の画像表示装置において、
前記分類手段は、
前記記憶された画像データのメタデータを取得するメタデータ取得手段と、
前記取得したメタデータに応じて、前記画像データを分類するメタデータ分類手段とを備えることを特徴とする画像表示装置。 - 請求項7に記載の画像表示装置において、
前記メタデータ分類手段は、
前記メタデータが含む日付けに関する情報に応じて、前記画像データを分類する日付け分類手段と、
前記メタデータが含む場所に関する情報に応じて、前記画像データを分類する場所分類手段とを備えることを特徴とする画像表示装置。 - 請求項1乃至8のいずれか1項に記載の画像表示装置において、
前記分類手段は、
前記記憶された画像データが示す画像の少なくとも1つに含まれる定義された人物の属性情報を取得する人物属性情報取得手段と、
前記取得された属性情報に応じて、前記画像データを分類する属性分類手段とを備えることを特徴とする画像表示装置。 - 請求項9に記載の画像表示装置において、
前記人物属性情報取得手段は、
前記取得された属性情報から、前記人物の顔画像を取得する顔画像取得手段と、
前記人物のスケジュールを取得するスケジュール取得手段とを有することを特徴とする画像表示装置。 - 請求項10に記載の画像表示装置において、
前記属性分類手段は、
前記顔画像取得手段によって取得された顔画像を画像認識する画像認識手段と、
前記スケジュール取得手段によって取得されたスケジュールを照合する照合手段とを有することを特徴とする画像表示装置。 - 請求項1乃至11のいずれか1項に記載の画像表示装置において、
前記表示手段は、前記画像データが示す画像の表示に加えて、前記画像データのメタデータおよび前記画像データが示す画像に含まれる人物の属性情報の少なくとも1つを表示することを特徴とする画像表示装置。 - 撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する工程と、
前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される工程と、
前記グループの中から、少なくとも1つのグループが選択される工程と、
前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する工程と、
前記抽出された画像データが示す画像を表示する工程とを備えることを特徴とする画像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006313894A JP2008131330A (ja) | 2006-11-21 | 2006-11-21 | 画像表示装置および画像表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006313894A JP2008131330A (ja) | 2006-11-21 | 2006-11-21 | 画像表示装置および画像表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008131330A true JP2008131330A (ja) | 2008-06-05 |
Family
ID=39556750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006313894A Withdrawn JP2008131330A (ja) | 2006-11-21 | 2006-11-21 | 画像表示装置および画像表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008131330A (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010021691A (ja) * | 2008-07-09 | 2010-01-28 | Nikon Corp | デジタルフォトフレーム |
WO2010128655A1 (ja) * | 2009-05-06 | 2010-11-11 | 株式会社クーレボ | フォトフレーム、コンテンツ配信装置、コンテンツ配信再生システム及び方法、並びにコンテンツ再生プログラム |
JP2011055169A (ja) * | 2009-08-31 | 2011-03-17 | Toshiba Corp | 電子機器及び映像処理方法 |
JP2011103588A (ja) * | 2009-11-11 | 2011-05-26 | Toshiba Corp | 電子機器及び画像表示方法 |
JP2011227907A (ja) * | 2011-05-24 | 2011-11-10 | Toshiba Corp | 電子機器、画像表示方法およびコンテンツ再生プログラム |
US8276098B2 (en) | 2006-12-22 | 2012-09-25 | Apple Inc. | Interactive image thumbnails |
JP2013077136A (ja) * | 2011-09-30 | 2013-04-25 | Casio Comput Co Ltd | 画像表示システム、画像表示装置、サーバ、画像表示方法及びプログラム |
US8584015B2 (en) | 2010-10-19 | 2013-11-12 | Apple Inc. | Presenting media content items using geographical data |
US8611678B2 (en) | 2010-03-25 | 2013-12-17 | Apple Inc. | Grouping digital media items based on shared features |
US8988456B2 (en) | 2010-03-25 | 2015-03-24 | Apple Inc. | Generating digital media presentation layouts dynamically based on image features |
US9142253B2 (en) | 2006-12-22 | 2015-09-22 | Apple Inc. | Associating keywords to media |
US9336240B2 (en) | 2011-07-15 | 2016-05-10 | Apple Inc. | Geo-tagging digital images |
JP2020052447A (ja) * | 2018-09-21 | 2020-04-02 | 富士フイルム株式会社 | 画像提示装置、画像提示方法、プログラムおよび記録媒体 |
JPWO2021192462A1 (ja) * | 2020-03-27 | 2021-09-30 | ||
WO2024058034A1 (ja) * | 2022-09-15 | 2024-03-21 | 富士フイルム株式会社 | データ生成装置、データ生成方法、プログラム及び記録媒体 |
-
2006
- 2006-11-21 JP JP2006313894A patent/JP2008131330A/ja not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8276098B2 (en) | 2006-12-22 | 2012-09-25 | Apple Inc. | Interactive image thumbnails |
US9959293B2 (en) | 2006-12-22 | 2018-05-01 | Apple Inc. | Interactive image thumbnails |
US9798744B2 (en) | 2006-12-22 | 2017-10-24 | Apple Inc. | Interactive image thumbnails |
US9142253B2 (en) | 2006-12-22 | 2015-09-22 | Apple Inc. | Associating keywords to media |
JP2010021691A (ja) * | 2008-07-09 | 2010-01-28 | Nikon Corp | デジタルフォトフレーム |
WO2010128655A1 (ja) * | 2009-05-06 | 2010-11-11 | 株式会社クーレボ | フォトフレーム、コンテンツ配信装置、コンテンツ配信再生システム及び方法、並びにコンテンツ再生プログラム |
US8068678B2 (en) | 2009-08-31 | 2011-11-29 | Kabushiki Kaisha Toshiba | Electronic apparatus and image processing method |
JP2011055169A (ja) * | 2009-08-31 | 2011-03-17 | Toshiba Corp | 電子機器及び映像処理方法 |
JP2011103588A (ja) * | 2009-11-11 | 2011-05-26 | Toshiba Corp | 電子機器及び画像表示方法 |
US8457407B2 (en) | 2009-11-11 | 2013-06-04 | Kabushiki Kaisha Toshiba | Electronic apparatus and image display method |
US8988456B2 (en) | 2010-03-25 | 2015-03-24 | Apple Inc. | Generating digital media presentation layouts dynamically based on image features |
US8611678B2 (en) | 2010-03-25 | 2013-12-17 | Apple Inc. | Grouping digital media items based on shared features |
US8584015B2 (en) | 2010-10-19 | 2013-11-12 | Apple Inc. | Presenting media content items using geographical data |
JP2011227907A (ja) * | 2011-05-24 | 2011-11-10 | Toshiba Corp | 電子機器、画像表示方法およびコンテンツ再生プログラム |
US9336240B2 (en) | 2011-07-15 | 2016-05-10 | Apple Inc. | Geo-tagging digital images |
US10083533B2 (en) | 2011-07-15 | 2018-09-25 | Apple Inc. | Geo-tagging digital images |
JP2013077136A (ja) * | 2011-09-30 | 2013-04-25 | Casio Comput Co Ltd | 画像表示システム、画像表示装置、サーバ、画像表示方法及びプログラム |
JP2020052447A (ja) * | 2018-09-21 | 2020-04-02 | 富士フイルム株式会社 | 画像提示装置、画像提示方法、プログラムおよび記録媒体 |
JP7008601B2 (ja) | 2018-09-21 | 2022-01-25 | 富士フイルム株式会社 | 画像提示装置、画像提示方法、プログラムおよび記録媒体 |
JPWO2021192462A1 (ja) * | 2020-03-27 | 2021-09-30 | ||
WO2021192462A1 (ja) * | 2020-03-27 | 2021-09-30 | 富士フイルム株式会社 | 画像内容判定装置、画像内容判定方法、及び画像内容判定プログラム |
JP7547465B2 (ja) | 2020-03-27 | 2024-09-09 | 富士フイルム株式会社 | 画像内容判定装置、画像内容判定装置の作動方法、及び画像内容判定プログラム |
WO2024058034A1 (ja) * | 2022-09-15 | 2024-03-21 | 富士フイルム株式会社 | データ生成装置、データ生成方法、プログラム及び記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008131330A (ja) | 画像表示装置および画像表示方法 | |
US10649633B2 (en) | Image processing method, image processing apparatus, and non-transitory computer-readable storage medium | |
CN109284729B (zh) | 基于视频获取人脸识别模型训练数据的方法、装置和介质 | |
JP4624933B2 (ja) | 撮像装置、撮像方法、アルバム作成装置、アルバム作成方法、アルバム作成システム、及びプログラム | |
JP5318115B2 (ja) | 場所別画像分類 | |
CN101426093B (zh) | 图像处理设备和图像处理方法 | |
US8176426B2 (en) | Image reproduction apparatus and image reproduction program product | |
KR100679049B1 (ko) | 인물 및 장소정보를 제공하는 썸네일에 의한 사진탐색 방법및 그 장치 | |
JP2008146191A (ja) | 画像出力装置および画像出力方法 | |
US8526742B2 (en) | Image processing apparatus, method, and program that classifies data of images | |
JP5899179B2 (ja) | 人物認識装置、人物認識方法、人物認識プログラムおよびその記録媒体 | |
JP2008165701A (ja) | 画像処理装置、電子機器、画像処理方法、及び、プログラム | |
CN104615926A (zh) | 信息处理设备和信息处理方法 | |
US20170039748A1 (en) | Image processing apparatus and image processing method | |
JP2007094990A (ja) | 画像分類装置および方法並びにプログラム | |
US20200258236A1 (en) | Person segmentations for background replacements | |
JP4490214B2 (ja) | 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム | |
JP2007011637A (ja) | 画像管理装置 | |
JP2020140557A (ja) | 画像処理装置、制御方法、及びプログラム | |
JP2006081021A (ja) | 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム | |
JP6410427B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6606374B2 (ja) | 画像処理装置および方法およびプログラム | |
JP2006079460A (ja) | 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム | |
JP2007293399A (ja) | 画像交換装置および画像交換方法ならびに画像交換処理プログラム | |
JP6463095B2 (ja) | 画像検索装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100202 |