JP2008146191A - 画像出力装置および画像出力方法 - Google Patents
画像出力装置および画像出力方法 Download PDFInfo
- Publication number
- JP2008146191A JP2008146191A JP2006330159A JP2006330159A JP2008146191A JP 2008146191 A JP2008146191 A JP 2008146191A JP 2006330159 A JP2006330159 A JP 2006330159A JP 2006330159 A JP2006330159 A JP 2006330159A JP 2008146191 A JP2008146191 A JP 2008146191A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- group
- output
- metadata
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】記憶された画像データをグループに分類し、入力された条件に基づき、そのグループを代表する画像データを抽出して表示し、選択されたグループの画像データを出力する画像出力装置を提供する。
【解決手段】画像表示装置1は、画像データが入力されるデジタル画像データ入力手段40と、入力された画像データを記憶する画像データ記憶手段45と、記憶された画像データを、メタデータや人物の属性情報に応じてグループに分類する画像分類手段50と、グループを代表する画像データを抽出する条件が入力される抽出条件入力手段78と、グループが選択されるグループ選択手段79と、画像を画像処理するか、画像の属性情報を取得して抽出条件に適合する画像データを抽出する画像抽出手段80と、抽出された画像をグループ毎に並べて表示する画像表示手段115と、選択された画像を含むグループの画像データが出力される出力手段145とを備える。
【選択図】図2
【解決手段】画像表示装置1は、画像データが入力されるデジタル画像データ入力手段40と、入力された画像データを記憶する画像データ記憶手段45と、記憶された画像データを、メタデータや人物の属性情報に応じてグループに分類する画像分類手段50と、グループを代表する画像データを抽出する条件が入力される抽出条件入力手段78と、グループが選択されるグループ選択手段79と、画像を画像処理するか、画像の属性情報を取得して抽出条件に適合する画像データを抽出する画像抽出手段80と、抽出された画像をグループ毎に並べて表示する画像表示手段115と、選択された画像を含むグループの画像データが出力される出力手段145とを備える。
【選択図】図2
Description
本発明は、所望するデジタルの画像データを出力する画像出力装置および画像出力方法に関する。
従来、デジタルカメラ等で撮影された画像データは、記憶媒体やパーソナルコンピュータの記憶装置に順次蓄積され、ユーザは、蓄積された画像データの中から、所望する画像をパソコンや電子フォトスタンド等の画面にスライドショーとして表示することで、画像データをフォトアルバムのように観賞した。このようなスライドショーをユーザが簡単に実現する方法として、例えば、下記特許文献1のように、表示する画像、表示時間および表示順序等をユーザが予め設定し、この設定に応じてスライドショーを実行させる方法が提案されている。
ところで、最近の記録媒体や記憶装置は記憶容量が膨大であり、撮影された画像は整理されること無く長期間に渡り蓄積されることが多い。従って、ユーザは、膨大な画像データの中から、スライドショーに適する画像データを抽出するべく、撮影されたシーン毎に画像データをグループに分類し、それぞれのグループについてシーン毎に代表すべき画像を一枚一枚表示させて取捨選択する必要があった。しかしながら、蓄積された画像データは膨大であるため、このような作業に対して多くの時間と手間を要した。更に、撮影されたシーンも多岐に渡り、多くのグループが生成されることから、スライドショーを行うグループを、生成されたグループの中から選択するべく、ユーザは、グループ毎に画像の属性情報やシーンについての情報を確認する必要があり、このような作業に対しても、多くの時間と手間を要した。
上記した課題を解決するために、本発明の画像出力装置は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される入力手段と、前記入力された画像データを記憶する記憶手段と、前記記憶された画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する分類手段と、前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される条件入力手段と、前記グループの中から、少なくとも1つのグループが選択されるグループ選択手段と、前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する抽出手段と、前記抽出された画像データが示す画像を、前記グループ毎に所定の基準で並べて表示する表示手段と、前記表示された画像の中から、1つの画像が選択される画像選択手段と、前記選択された画像を含むグループの画像データが出力される出力手段とを備えることを特徴とする。
この発明によれば、画像表示装置に入力されて記憶された画像データは、画像データが有するメタデータや画像に含まれる人物の属性情報に応じてグループに分類されると共に、分類されたグループの中から対象とするグループを選択し、代表する画像の抽出条件を入力することで、画像処理や画像の属性情報との照合により、入力された抽出条件に適合する画像データが抽出される。更に、抽出された画像データが示す画像は、グループ毎に所定の基準で並べて表示され、この中から選択された画像を含むグループの画像データが出力される。尚、メタデータとは、撮影日時や、撮影場所等の撮影条件に関して、撮影と同時に記録される情報を示し、人物の属性情報とは、画像中の管理者を識別するために予め入力された人物顔やスケジュールに関する情報を示す。また、画像の属性情報とは、前記したメタデータを包含し、1枚もしくは複数の画像データから取得可能な画像に関する情報を示す。従って、ユーザは、記憶された画像データをグループに分類して、そのグループの画像をそれぞれ見比べることにより、グループの代表として表示する画像を抽出するための多くの手間と時間を省けると共に、抽出された画像が所定の基準で並べて表示され、この中から1つの画像を選ぶことで、画像データを出力するグループを容易に指定できるため、所望する画像のグループを選択する手間と時間を省ける。
本発明の画像出力装置では、前記表示手段は、撮影された日時に従い前記画像を並べて表示することが好ましい。
この発明によれば、抽出した画像を、撮影された順序に従い表示できる。
この発明によれば、抽出した画像を、撮影された順序に従い表示できる。
本発明の画像出力装置では、前記出力手段は、前記画像データをテレビ受信機に出力しても良い。
本発明の画像出力装置では、前記出力手段は、前記画像に関連付けられた音楽や映像と共に出力しても良い。
本発明の画像出力装置では、前記表示手段は、前記グループ毎に抽出された前記画像を、所定の時間毎に切替えて表示することが好ましい。
この発明によれば、それぞれのグループを代表する画像を順次切替えて表示できる。
この発明によれば、それぞれのグループを代表する画像を順次切替えて表示できる。
本発明の画像出力装置では、前記表示手段は、前記画像選択手段で選択された画像に関する情報を更に表示することが好ましい。
この発明によれば、表示された画像に関する情報を視認できる。
この発明によれば、表示された画像に関する情報を視認できる。
本発明の画像出力装置は、前記画像データが前記出力手段で出力される日時を指定する指定手段を更に備え、前記出力手段は、前記指定された日時に前記画像データを出力することが好ましい。
この発明によれば、画像データが出力される日時を指定できるため、所望する日時に画像データを出力できる。
この発明によれば、画像データが出力される日時を指定できるため、所望する日時に画像データを出力できる。
上記した課題を解決するために、本発明の画像出力方法は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する工程と、前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される工程と、前記グループの中から、少なくとも1つのグループが選択される工程と、前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する工程と、前記抽出された画像データが示す画像を、前記グループ毎に所定の基準で並べて表示する工程と、前記表示された画像の中から、1つの画像が選択される工程と、前記選択された画像を含むグループの画像データが出力される工程とを備えることを特徴とする。
この発明によれば、画像表示装置に入力されて記憶された画像データは、画像データが有するメタデータや画像に含まれる人物の属性情報に応じてグループに分類されると共に、分類されたグループの中から対象とするグループを選択し、代表する画像の抽出条件を入力することで、画像処理や画像の属性情報との照合により、入力された抽出条件に適合する画像データが抽出される。更に、抽出された画像データが示す画像は、グループ毎に所定の基準で並べて表示され、この中から選択された画像を含むグループの画像データが出力される。従って、ユーザは、記憶された画像データをグループに分類して、そのグループの画像をそれぞれ見比べることにより、グループの代表として表示する画像を抽出するための多くの手間と時間を省けると共に、抽出された画像が所定の基準で並べて表示され、この中から1つの画像を選ぶことで、画像データを出力するグループを容易に指定できるため、所望する画像のグループを選択する手間と時間を省ける。
以下、本発明の実施形態について、デジタルカメラ等で撮影されたデジタルの画像データが示す画像を表示する画像表示装置1を用いて説明する。
(実施形態)
図1は、画像表示装置1のハードウェア構成を示す図である。この画像表示装置1は、フォトフレームのような様体であり、表示パネル24に電子写真等の観賞用画像が表示される。この画像表示装置1のハードウェア構成は、CPU(Central Processing Unit)10と、RAM(Random Access Memory)12と、ROM(Read Only Memory)14と、記憶装置16と、入出力I/F(Interface)18と、グラフィックスサブシステム20と、通信装置36とを具備する。これらのハードウェアは、バス22により各信号が授受可能に接続されている。また、これらのハードウェアは、基本ソフトウェアであるBIOS(Basic Input Output System)や、オペレーティングシステム(OS)により管理され、これらの管理下で、ROM14や記憶装置16に記憶されたドライバを含む種々のソフトウェアにより、所定の機能が実行されても良い。
図1は、画像表示装置1のハードウェア構成を示す図である。この画像表示装置1は、フォトフレームのような様体であり、表示パネル24に電子写真等の観賞用画像が表示される。この画像表示装置1のハードウェア構成は、CPU(Central Processing Unit)10と、RAM(Random Access Memory)12と、ROM(Read Only Memory)14と、記憶装置16と、入出力I/F(Interface)18と、グラフィックスサブシステム20と、通信装置36とを具備する。これらのハードウェアは、バス22により各信号が授受可能に接続されている。また、これらのハードウェアは、基本ソフトウェアであるBIOS(Basic Input Output System)や、オペレーティングシステム(OS)により管理され、これらの管理下で、ROM14や記憶装置16に記憶されたドライバを含む種々のソフトウェアにより、所定の機能が実行されても良い。
CPU10は、基本ソフトウェアや入出力I/F18に接続された各装置のデバイスドライバや、アプリケーションソフトウェアなどの各種プログラム、および各種のデータをROM14や記憶装置16から読み込み、これらをRAM12内に設けられるメインメモリ領域に展開して実行する。また、記憶装置16は、情報を読み書き可能に記憶する装置であり、例えば、ハードディスクドライブやフラッシュメモリを採用できる。
入出力I/F18には、クレードル(Cradle)26、メモリカードドライブ28、操作入力装置30およびA/V(Audio/Video)出力端子33が所定の規格に従い接続されている。メモリカードドライブ28は、SDメモリカード(登録商標)のようにフラッシュメモリを内部に備えたメモリカード34を装着することで、メモリカード34に記憶された各種データを読み込むことができる。例えば、デジタルカメラ32等で撮影された画像データが保存されたメモリカード34を、メモリカードドライブ28に装着することで、画像データを読み込める。
また、クレードル26は、スタンド型の接続機器であり、本実施形態では、デジタルカメラ32をクレードル26の所定の位置に設置することで、デジタルカメラ32と電気的に接続され、デジタルカメラ32で撮影されて内部に保存された画像データを読み込める。メモリカードドライブ28やクレードル26から読み込まれた画像データは、記憶装置16に記憶される。また、操作入力装置30は、画像表示装置1の操作を指示するための装置であり、具体的には、リモコン等を採用できる。
また、クレードル26は、スタンド型の接続機器であり、本実施形態では、デジタルカメラ32をクレードル26の所定の位置に設置することで、デジタルカメラ32と電気的に接続され、デジタルカメラ32で撮影されて内部に保存された画像データを読み込める。メモリカードドライブ28やクレードル26から読み込まれた画像データは、記憶装置16に記憶される。また、操作入力装置30は、画像表示装置1の操作を指示するための装置であり、具体的には、リモコン等を採用できる。
グラフィックスサブシステム20は、グラフィックスチップ、グラフィックスメモリ等で構成され、表示パネル24に対して画像信号を出力する。この表示パネル24は、液晶パネル等を採用し、グラフィックスサブシステム20から出力された画像信号が示す画像を表示する。
A/V出力端子33は、画像信号やオーディオ信号を出力する。本実施形態では、出力された画像信号やオーディオ信号は、テレビ受信機150やオーディオ装置155に送られる。
通信装置36は、インターネット38と接続することで、外部のサーバから画像や音声等のデータを取得する。
A/V出力端子33は、画像信号やオーディオ信号を出力する。本実施形態では、出力された画像信号やオーディオ信号は、テレビ受信機150やオーディオ装置155に送られる。
通信装置36は、インターネット38と接続することで、外部のサーバから画像や音声等のデータを取得する。
図2は、画像表示装置1の機能構成を示す図である。この画像表示装置1は、デジタル画像データ入力手段40と、画像データ記憶手段45と、画像分類手段50と、管理者記憶手段75と、抽出条件入力手段78と、グループ選択手段79と、画像抽出手段80と、画像表示手段115と、画像選択手段120と、EPG(Electronic Programming Guide)情報取得手段135と、コンテンツデータ取得手段140と、出力手段145とを備える。尚、これらの機能は、前記したハードウェアとソフトウェアとが協働することで実現しても良い。
デジタル画像データ入力手段40は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される。本実施形態では、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータを有する画像データが、前記したメモリカード34やクレードル26を介して入力される。ここで入力された画像データは、画像データ記憶手段45に送られ、記憶される。
画像分類手段50は、画像データ記憶手段45に記憶された複数の画像データを、それぞれの画像データが示す画像に含まれる人物の属性情報およびメタデータの少なくとも1つに応じて、複数のグループに分類する。この画像分類手段50は、メタデータ取得手段52と、メタデータ分類手段54と、個人属性情報取得手段60と、個人属性分類手段66とを具備する。
デジタル画像データ入力手段40は、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される。本実施形態では、撮影された日時や場所に関する撮影情報を少なくとも含むメタデータを有する画像データが、前記したメモリカード34やクレードル26を介して入力される。ここで入力された画像データは、画像データ記憶手段45に送られ、記憶される。
画像分類手段50は、画像データ記憶手段45に記憶された複数の画像データを、それぞれの画像データが示す画像に含まれる人物の属性情報およびメタデータの少なくとも1つに応じて、複数のグループに分類する。この画像分類手段50は、メタデータ取得手段52と、メタデータ分類手段54と、個人属性情報取得手段60と、個人属性分類手段66とを具備する。
最初に、メタデータによる分類について説明する。メタデータ取得手段52は、入力された画像データの中から、画像イメージを示す画像データと、データの属性を示すメタデータとが抽出されて取得される。このメタデータは、例えば、JPEG(Joint Photographic Experts Group)規格に従い圧縮された画像データに付加されるExif(登録商標)(Exchangeable Image File Format)データであり、このようなExif(登録商標)データには、デジタルカメラ32の固有データや、撮影日時や、撮影場所等の撮影条件等の情報が含まれている。ここで取得されたメタデータは、メタデータ分類手段54に送られる。メタデータ分類手段54は、日付け分類手段56と、場所分類手段58とを有する。
日付け分類手段56は、画像データが撮影された撮影日時により、画像データを分類する。具体的には、メタデータに含まれる撮影日時の情報を参照して、画像データを所定のグループに分類する。
場所分類手段58は、画像データが撮影された撮影場所により、画像データを分類する。具体的には、メタデータに含まれる撮影場所の情報を参照して、日付けによりグループ化されたそれぞれの画像データを、更にグループに分類する。
場所分類手段58は、画像データが撮影された撮影場所により、画像データを分類する。具体的には、メタデータに含まれる撮影場所の情報を参照して、日付けによりグループ化されたそれぞれの画像データを、更にグループに分類する。
次に、定義された人物の属性情報による分類について説明する。本実施形態では、定義された人物の属性情報は、個人属性情報取得手段60で取得され、それぞれの画像データは、取得された人物の属性情報に基づき個人属性分類手段66により分類される。ここで、定義された人物の情報は、管理者記憶手段75に予め記憶されている。この管理者記憶手段75は、画像データの管理者になる可能性を有する人物(管理者候補)の情報が記憶される。ここで、管理者とは、デジタルカメラ32の撮影者や、撮影した画像データを扱う人物であり、管理者になる可能性を有する人物の情報は、予め入力されて定義されている。例えば、画像表示装置1が家庭内で使用される場合、管理者になる可能性を有する人物は家族であり、管理者記憶手段75には、家族を構成するそれぞれの人物に関する情報が記憶される。個人属性情報取得手段60は、管理者記憶手段75に記憶された情報を参照して、個人の属性に関する情報を取得する。この個人属性情報取得手段60は、管理者顔画像取得手段62と、スケジュール取得手段64とを有する。
管理者顔画像取得手段62は、管理者記憶手段75に記憶されている情報の中から、管理者候補の顔画像を取得する。ここで、取得された管理者候補の顔画像は、管理者顔画像認識手段68から必要に応じて参照される。また、スケジュール取得手段64は、管理者記憶手段75に記憶されている情報の中から、管理者候補のスケジュールに関する情報を取得する。ここで、取得された管理者候補のスケジュールに関する情報は、スケジュール照合手段70から必要に応じて参照される。
管理者顔画像認識手段68は、画像データの中から、顔画像を検出すると共に、管理者顔画像取得手段62で取得された管理者候補の顔画像を参照して、検出した顔画像の中から管理者候補の顔画像を認識する。ここで、顔画像を認識する方法としては、例えば、特開2004−199673号公報で開示された処理方法を採用できる。管理者顔画像認識手段68は、画像データの中から1人の管理者候補の顔画像が認識できた場合、この管理者候補を管理者と特定してグループ化する。また、管理者顔画像認識手段68は、画像データの中から複数の管理者候補の顔画像を認識できた場合、これらの管理者候補を管理者と特定してグループ化する。
スケジュール照合手段70は、それぞれのグループに分類された撮影場所および撮影日時について記載されている情報と、スケジュール取得手段64で取得された管理者候補のスケジュール情報とを照合することで、スケジュールが一致する管理者候補を抽出して、管理者を特定する。
上記した処理により、撮影日時、撮影場所、管理者および管理者のスケジュールが特定され、これらの情報に基づき、撮影されたイベントも特定できる。従って、画像データ記憶手段45に記憶された画像データは、特定されたイベント毎にグループに分類できる。
上記した処理により、撮影日時、撮影場所、管理者および管理者のスケジュールが特定され、これらの情報に基づき、撮影されたイベントも特定できる。従って、画像データ記憶手段45に記憶された画像データは、特定されたイベント毎にグループに分類できる。
抽出条件入力手段78は、それぞれのグループに含まれる画像データの中から、そのグループを代表する画像データを抽出するための条件が入力される。本実施形態では、以下に示す抽出条件の中からユーザが所望する条件を選択する。
(1)集合写真/ポートレート・・・抽出すべき画像データが示す抽出画像が、複数の人物が集まった集合写真であるか、または1人の人物の写真であるかを選択する。
(2)文字情報有無・・・抽出画像が文字情報を含むか、否かを選択する。
(3)解像度レベル・・・抽出画像の解像度レベルを選択する。
(4)連写1枚選択・・・略同時に撮影され、被写体が略同一である画像データの中から1つを抽出するか、否かを選択する。
(5)単位時間当たりの撮影枚数・・・抽出すべき画像データが単位時間当たりに撮影された撮影枚数を選択する。
(6)フォーカスレベル・・・抽出画像の被写体の合焦度合いのレベルを選択する。
(7)試し撮り排除の有無・・・連続して撮影された画像データの中から、最初に撮影された画像データを除外して抽出するか、否かを選択する。
(8)撮影時間間隔・・・抽出すべき画像データが撮影された時間間隔を選択する。
(9)撮影場所指定・・・抽出すべき画像データが撮影された場所を選択する。
(10)抽出最大枚数・・・画像データが抽出される最大の枚数を選択する。
尚、本実施形態では、上記したそれぞれの条件は、重み付けの設定が可能であり、重み付けされた数値が高い条件から順に照合されるように構成されている。
(1)集合写真/ポートレート・・・抽出すべき画像データが示す抽出画像が、複数の人物が集まった集合写真であるか、または1人の人物の写真であるかを選択する。
(2)文字情報有無・・・抽出画像が文字情報を含むか、否かを選択する。
(3)解像度レベル・・・抽出画像の解像度レベルを選択する。
(4)連写1枚選択・・・略同時に撮影され、被写体が略同一である画像データの中から1つを抽出するか、否かを選択する。
(5)単位時間当たりの撮影枚数・・・抽出すべき画像データが単位時間当たりに撮影された撮影枚数を選択する。
(6)フォーカスレベル・・・抽出画像の被写体の合焦度合いのレベルを選択する。
(7)試し撮り排除の有無・・・連続して撮影された画像データの中から、最初に撮影された画像データを除外して抽出するか、否かを選択する。
(8)撮影時間間隔・・・抽出すべき画像データが撮影された時間間隔を選択する。
(9)撮影場所指定・・・抽出すべき画像データが撮影された場所を選択する。
(10)抽出最大枚数・・・画像データが抽出される最大の枚数を選択する。
尚、本実施形態では、上記したそれぞれの条件は、重み付けの設定が可能であり、重み付けされた数値が高い条件から順に照合されるように構成されている。
グループ選択手段79は、画像分類手段50で画像データがそれぞれ分類されたグループの中から、画像を抽出する対象のグループを選択する。本実施形態では、図示は略すが、ユーザが操作入力装置30に対して所定の操作を行うことにより、画像分類手段50で分類されたグループの情報は、表示パネル24に表示される。ユーザは、表示されたグループの中から、所望するグループを少なくとも1つ選択する。また、グループは、乱数表等によりランダムに選択されても良い。
画像抽出手段80は、画像分類手段50で分類されたグループ毎に、それぞれの画像データが示す画像を画像処理するか、または、メタデータを含む画像の属性情報を画像データ毎に取得して、抽出条件入力手段78で入力された条件と照合することにより、この条件に適合する画像データを抽出する。本実施形態では、画像抽出手段80で抽出対象とするグループは、グループ選択手段79で選択される。この画像抽出手段80は、画像処理手段82と、画像属性情報取得手段92と、演算手段110と、適合判定手段112とを具備する。尚、ここで抽出された画像は、イベント毎に表示する所定のサイクルが終了するまでは、再度抽出されないように構成されている。
画像抽出手段80は、画像分類手段50で分類されたグループ毎に、それぞれの画像データが示す画像を画像処理するか、または、メタデータを含む画像の属性情報を画像データ毎に取得して、抽出条件入力手段78で入力された条件と照合することにより、この条件に適合する画像データを抽出する。本実施形態では、画像抽出手段80で抽出対象とするグループは、グループ選択手段79で選択される。この画像抽出手段80は、画像処理手段82と、画像属性情報取得手段92と、演算手段110と、適合判定手段112とを具備する。尚、ここで抽出された画像は、イベント毎に表示する所定のサイクルが終了するまでは、再度抽出されないように構成されている。
画像処理手段82は、グループに含まれる画像データ毎に、この画像データが示す対象画像を画像処理する。この画像処理手段82は、顔認識手段84と、文字認識手段86と、類似度解析手段88と、合焦度検出手段90とを有する。顔認識手段84は、対象画像に含まれる人物顔を認識する。画像の中から顔の画像を認識する方法としては、前記した特開2004−199673号公報で開示された処理方法を採用できる。また、文字認識手段86は、対象画像に含まれる文字を認識する。画像の中から文字を認識する方法としては、例えば、特開2004−74157号公報で開示された処理方法を採用できる。
また、類似度解析手段88は、対象画像が撮影された前後に撮影された画像との類似度を解析する。画像の類似度を解析する方法としては、例えば、特開平10−260983号公報で開示された処理方法を採用できる。ここで複数の画像の類似性が高いと判定された場合、その中の1つの画像が抽出された後、所定のサイクルが終了するまでは、抽出された画像と類似する画像は抽出されないように構成されている。更に、合焦度検出手段90は、対象画像の被写体における合焦度合いを検出する。画像の被写体の合焦度を検出する方法としては、例えば、特開平6−319071号公報や、特開2001−256498号公報で開示された処理方法を採用できる。
画像属性情報取得手段92は、対象画像の属性データを取得する。この画像属性情報取得手段92は、解像度情報取得手段94と、撮影枚数情報取得手段96と、撮影間隔情報取得手段98と、撮影場所情報取得手段100とを有する。解像度情報取得手段94は、対象画像の画像解像度に関する情報を取得する。また、撮影枚数情報取得手段96は、対象画像と略同時に撮影された画像データのデータ数に関する情報を取得する。また、撮影間隔情報取得手段98は、対象画像と前後して撮影された時間の間隔に関する情報を取得する。更に、撮影場所情報取得手段100は、対象画像が撮影された場所に関する情報を取得する。これらの情報は、Exif(登録商標)データや、デジタルカメラ32が具備するGPS(Global Positioning System)機器の位置データから取得しても良い。
演算手段110は、画像属性情報取得手段92で取得された情報の中から、少なくとも2つの数値を含む情報を演算する。本実施形態では、撮影枚数情報取得手段96で取得されたデータ数に関する情報と、撮影間隔情報取得手段98で取得された時間に関する情報とを演算することで、単位時間当たりの撮影枚数に関する情報を算出する。
適合判定手段112は、対象画像が画像処理された結果および対象画像の属性データの少なくとも1つを、入力された条件と照合することで、この対象画像が条件に適合するか、否かを判定する。ここで、適合すると判定された画像データが示す画像は、画像表示手段115に順次送らる。
適合判定手段112は、対象画像が画像処理された結果および対象画像の属性データの少なくとも1つを、入力された条件と照合することで、この対象画像が条件に適合するか、否かを判定する。ここで、適合すると判定された画像データが示す画像は、画像表示手段115に順次送らる。
画像表示手段115は、抽出された画像データが示す画像を、グループ毎に所定の基準で並べて表示する。本実施形態では、画像表示手段115は、抽出画像表示手段123と、画像情報表示手段125と、出力日時予約手段130とを具備する。
抽出画像表示手段123は、抽出された画像を、その画像が撮影された日時に従い並べて表示する。ここで、図3(a)は、抽出画像表示手段123の一実施例であり、表示パネル24に表示された抽出画像表示画面を示す。この図に示すように、抽出された画像は、それぞれのイベントが撮影された日時毎に並べて表示される。また、11月11日の画像の様に、撮影された年が異なるイベントの画像が複数抽出された場合は、それぞれ並べて表示される。尚、それぞれの画像は、そのイベントを代表する画像であり、代表する画像が複数抽出された場合は、所定の時間毎に切替えて表示される。
抽出画像表示手段123は、抽出された画像を、その画像が撮影された日時に従い並べて表示する。ここで、図3(a)は、抽出画像表示手段123の一実施例であり、表示パネル24に表示された抽出画像表示画面を示す。この図に示すように、抽出された画像は、それぞれのイベントが撮影された日時毎に並べて表示される。また、11月11日の画像の様に、撮影された年が異なるイベントの画像が複数抽出された場合は、それぞれ並べて表示される。尚、それぞれの画像は、そのイベントを代表する画像であり、代表する画像が複数抽出された場合は、所定の時間毎に切替えて表示される。
画像情報表示手段125は、抽出画像表示手段123で表示された画像の中から、画像選択手段120により選択された画像に関する情報を表示する。ここで図3(b)は、画像情報表示手段125の一実施例であり、表示パネル24に表示された抽出画像表示画面を示す。この抽出画像表示画面は、抽出画像表示画面(図3(a))で11月10日のイベントの代表画像が選択された場合に表示され、選択された代表画像が撮影された日時、撮影者、撮影場所、タイトルおよび撮影枚数等が表示される。
出力日時予約手段130は、選択された画像が出力される日時を予約する。ここで図3(c)は、出力日時予約手段130の一実施例であり、表示パネル24に表示された出力日時予約画面を示す。本実施形態では、視聴が予約されたテレビ放送の番組情報は、EPG情報取得手段135で取得され、出力日時予約画面に時系列で表示される。ユーザは、所望するイベントの画像をドラッグすると共に、出力日時予約画面の空いている時間帯を検索してドロップすることにより、イベントのグループに分類された画像のスライドショーの出力が予約される。例えば、図3(c)では、明日の21時から「2003年温泉旅行」のスライドショーが出力され、明後日の21時30分から「2001年誕生会」のスライドショーが出力される。また、コンテンツデータ取得手段140は、出力する画像に予め関連付けられている動画や音楽の情報を、記憶装置16やインターネット38等から取得する。取得された動画や音楽の情報は、画像と共に出力手段145に送られ、出力手段145で画像信号や音声信号毎にそれぞれ外部に出力される。本実施形態では、テレビ受信機150とオーディオ装置155が出力手段145に接続され、出力された画像や音楽の情報を視聴可能に出力する。
図4は、画像表示装置1により画像を抽出して表示する処理の流れを説明するフローチャートである。この画像表示装置1が起動されると、最初にS200に進み、画像表示装置1は、記憶された画像データをグループに分類する処理を実行する。この処理の詳細は後述する。
次に、S250において、抽出条件が入力される。本実施形態では、ユーザが操作入力装置30から所定の操作を行うことにより、表示パネル24に抽出条件を入力するための入力画面が表示される。図5は、このような入力画面の一例を示し、この図に示す抽出条件入力ウインドウ300が表示パネル24に表示される。この抽出条件入力ウインドウ300は、集合写真/ポートレート選択領域310、解像度レベル選択領域320、フォーカスレベル選択領域330、文字情報選択領域340、連写選択領域350、試し撮り排除選択領域360、単位時間当たりの撮影枚数選択領域370、撮影時間間隔選択領域380、撮影場所選択領域390および抽出最大枚数選択領域400を有する。ここで、例えば、集合写真/ポートレート選択領域310の場合、ユーザは、「集合写真」、「個人写真」および「指定なし」の何れかを選択ボタン312で選択する。また、この集合写真/ポートレート選択領域310で選択された項目の重み付けを、スライダー314で設定できると共に、設定された数値は、重み表示ボックス316に表示される。その他の領域(320〜400)についても同様に選択され、ユーザによりOKボタン305が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件が確定され、キャンセルボタン308が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件は破棄される。
次に、S250において、抽出条件が入力される。本実施形態では、ユーザが操作入力装置30から所定の操作を行うことにより、表示パネル24に抽出条件を入力するための入力画面が表示される。図5は、このような入力画面の一例を示し、この図に示す抽出条件入力ウインドウ300が表示パネル24に表示される。この抽出条件入力ウインドウ300は、集合写真/ポートレート選択領域310、解像度レベル選択領域320、フォーカスレベル選択領域330、文字情報選択領域340、連写選択領域350、試し撮り排除選択領域360、単位時間当たりの撮影枚数選択領域370、撮影時間間隔選択領域380、撮影場所選択領域390および抽出最大枚数選択領域400を有する。ここで、例えば、集合写真/ポートレート選択領域310の場合、ユーザは、「集合写真」、「個人写真」および「指定なし」の何れかを選択ボタン312で選択する。また、この集合写真/ポートレート選択領域310で選択された項目の重み付けを、スライダー314で設定できると共に、設定された数値は、重み表示ボックス316に表示される。その他の領域(320〜400)についても同様に選択され、ユーザによりOKボタン305が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件が確定され、キャンセルボタン308が押下されることで、この抽出条件入力ウインドウ300で設定された抽出条件は破棄される。
図4に戻り、次に、ステップS252において、抽出対象とする画像データのグループが選択される。本実施形態では、ユーザによる操作により選択される。尚、グループの選択は、抽出条件の入力後には限定されず、抽出条件を入力する前に選択されても良い。
次に、ステップS254において、画像表示装置1は、選択されたグループに属する画像データの中から、抽出条件に適合する画像を抽出する。ここで、抽出条件は、抽出条件入力ウインドウ300(図5)のスライダー314で入力された数値が高い順に順次照合される。更に、ステップS256において、画像表示装置1は、抽出された画像を表示パネル24に表示する。この処理に関する詳細は後述する。
次に、ステップS254において、画像表示装置1は、選択されたグループに属する画像データの中から、抽出条件に適合する画像を抽出する。ここで、抽出条件は、抽出条件入力ウインドウ300(図5)のスライダー314で入力された数値が高い順に順次照合される。更に、ステップS256において、画像表示装置1は、抽出された画像を表示パネル24に表示する。この処理に関する詳細は後述する。
続いて、ステップS258において、画像表示装置1は、対象とする画像グループを変更するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、対象とする画像グループを変更できる。ここで、対象とする画像グループを変更する場合(ステップS258でYes)、ステップS252に戻り、対象とする画像グループがユーザに選択される。他方で、対象とする画像グループが変更されない場合(ステップS258でNo)、ステップS260に進む。
ステップS260では、画像表示装置1は、抽出条件を変更するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、抽出条件を変更できる。ここで、抽出条件を変更する場合(ステップS260でYes)、ステップS250に戻り、抽出条件がユーザにより変更される。他方で、抽出条件を変更しない場合(ステップS260でNo)、ステップS262に進む。
ステップS262では、画像表示装置1は、表示を終了するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、画像の表示を終了できる。ここで、画像の表示を終了しない場合(ステップS262でNo)、ステップS256に戻り、画像表示装置1は、抽出された画像の表示を継続する。他方で、画像の表示を終了する場合(ステップS262でYes)、画像表示装置1は、一連の処理は終了する。
ステップS262では、画像表示装置1は、表示を終了するか、否か判定する。本実施形態では、ユーザが操作入力装置30に対して所定の操作を行うことで、画像の表示を終了できる。ここで、画像の表示を終了しない場合(ステップS262でNo)、ステップS256に戻り、画像表示装置1は、抽出された画像の表示を継続する。他方で、画像の表示を終了する場合(ステップS262でYes)、画像表示装置1は、一連の処理は終了する。
以上の処理により、保存された画像データがグループ化され、入力された抽出条件に従い抽出された画像が順次表示される。
図6は、画像表示装置1において、記憶された画像データをグループに分類する処理(図4のステップS200)の流れを説明するフローチャートである。また、この処理について、説明および理解を容易にすべく、図7のデータ分類の処理を説明する図も参照する。
最初に、処理が開始されると、ステップS202において、画像表示装置1は、記憶装置16等に記憶されている画像データを読み込む。ここで読み込まれた画像データ280(図7)は、撮影された日時や撮影された場所がそれぞれ異なる。
次に、ステップS204において、画像表示装置1は、読み込まれた画像データ280から、データの属性を示すメタデータを抽出して取得する。
次に、ステップS206において、画像表示装置1は、メタデータに含まれる撮影日時の情報に従い、画像データを分類してグループ化する。この結果、図7の日時分類結果282に示すように、撮影日時によって画像データは、「1月8日に撮影されたグループ」、「1月9日に撮影されたグループ」、「1月17日に撮影されたグループ」、「1月18日に撮影されたグループ」および「1月20日に撮影されたグループ」に分類される。
続いて、ステップS208において、画像表示装置1は、メタデータに含まれる撮影場所の情報に従い、撮影日時により分類された各グループのそれぞれを更に分類してグループ化する。この結果、図7の場所分類結果284に示すように、例えば、「1月9日に撮影されたグループ」は、撮影場所が、「BB」と「CC」に分類され、グループ化される。また、他のグループは、それぞれ同一な場所で撮影されているため、場所分類結果284と、日時分類結果282とは同一になる。
次に、ステップS210において、画像表示装置1は、1つのグループに含まれる画像データの中から顔画像を検出し、管理者顔画像取得手段62で取得された管理者候補の顔画像を参照して、検出した顔画像の中から管理者の顔画像を抽出する。
続いて、ステップS212において、画像表示装置1は、顔画像から抽出できた管理者が、1人か、否かを判定する。この結果、管理者が1人である場合(ステップS212でYes)、ステップS226において、画像表示装置1は、特定できた管理者のグループに画像データを分類し、その後、ステップS224に進む。このステップS224において、全てのグループの顔画像が抽出されていない場合(ステップS224でNo)、未抽出のグループの画像データに含まれる管理者の顔画像を抽出する工程(ステップS210)に戻る。他方で、全てのグループの顔画像が抽出された場合(ステップS224でYes)、一連の処理が終了する。このようにして、例えば、図7の「1月8日に撮影されたグループ」および「1月9日に撮影されたグループ」で抽出して特定された管理者286は、共に「A」であるため、これらのデータは、分類結果290として、「A」を管理者とする第1グループにまとめられる。尚、本実施形態では、「A」に関してスケジュール情報が存在しない場合を想定するが、スケジュール情報が存在する場合は、後述する方法で、スケジュール情報を参照して、第1グループを更に細分しても良い。
他方で、抽出できた顔画像の管理者が1人でない場合(ステップS212でNo)、ステップS214において、画像表示装置1は、管理者のスケジュールに関する情報を取得する。更に、ステップS216において、画像表示装置1は、各グループに含まれるメタデータとスケジュール情報とを照合する。次に、ステップS218において、画像表示装置1は、メタデータと一致するスケジュール情報が見つかったか、否か判定し、メタデータと一致するスケジュール情報が見つかった場合(ステップS218でYes)、ステップS228において、画像表示装置1は、スケジュールが一致した管理者のみを管理者と特定してグループに分類する。例えば、図7の「1月18日に撮影されたグループ」において、特定できた管理者が「B」と「C」であり、スケジュール表288中の「B」の予定スケジュールと一致することから、管理者は「B」と特定され、「1月18日に撮影されたグループ」のデータは、「B」を管理者とする第2グループにまとめられる。
他方で、メタデータと一致するスケジュール情報が見つからない場合(ステップS218でNo)、ステップS220において、画像表示装置1は、顔画像を抽出できた管理者は2人以上か、否かを判定する。ここで、顔画像を抽出できた管理者が2人以上である場合(ステップS220でYes)、ステップS222において、画像表示装置1は、それぞれの管理者毎に、同一の画像データを振り分けた後、ステップS224に進む。このようにして、例えば、図7の「1月20日に撮影されたグループ」で特定された管理者は、「D」と「E」であると共に、「1月20日」には、「D」と「E」共に一致するスケジュールがないため、このグループは、データと共にコピーされて2つの同一グループが作成され、分類結果として、それぞれ「D」を管理者とする第3グループと、「E」を管理者とする第4グループとにまとめられる。
他方で、顔画像を抽出できた管理者が2人以上でない場合(ステップS220でNo)、即ち、顔画像を抽出できた管理者がいない場合は、ステップS230において、画像表示装置1は、「その他のグループ」と分類し、その後、ステップS224に進む。
以上の処理により、読み込まれた画像データ280は、撮影日時、撮影場所に応じて分類されると共に、顔画像から特定された管理者毎に分類されてまとめられる。
図8は、画像表示装置1において、抽出された画像が表示される処理(図4のS256)の流れを説明するフローチャートである。最初に処理が開始されると、ステップS450において、画像表示装置1は、抽出した画像のメタデータから、撮影日時を取得する。続いて、ステップS452において、画像表示装置1は、撮影日時に従い、抽出した画像を抽出画像表示画面(図3(a))に配置する。
次に、ステップS454において、画像表示装置1は、抽出した画像を所定の時間毎に順次切替えて表示する。尚、ここで表示される画像数の上限は、抽出条件入力ウインドウ300の抽出最大枚数選択領域400で選択される。
次に、ステップS454において、画像表示装置1は、抽出した画像を所定の時間毎に順次切替えて表示する。尚、ここで表示される画像数の上限は、抽出条件入力ウインドウ300の抽出最大枚数選択領域400で選択される。
続いて、ステップS456において、画像表示装置1は、表示を終了するか、否かを判定する。ここで、ユーザから表示を終了するべく指示された場合(ステップS456でYes)、一連の処理を終了する。他方で、終了すべく指示されない場合(ステップS456でNo)、ステップS458に進み、画像表示装置1は、画像を出力するか、否かを判定する。ここで、ユーザから出力指示されない場合(ステップS458でNo)、ステップS454に戻る。他方で、ユーザから出力指示された場合(ステップS458でYes)、ステップS460に進む。
ステップS460において、画像表示装置1は、画像をスライドショーとして出力する日時を指定するか、否かを判定する。ここで、ユーザから出力日時を指定すべく指示されない場合(ステップS460でNo)、ステップS466に進む。他方で、ユーザから出力日時を指定すべく指示された場合(ステップS460でYes)、ステップS462において、画像表示装置1は、EPG情報を取得して表示する。続いて、ステップS464において、画像表示装置1は、ユーザにより指示された画像を指示された日時にスライドショーとして出力すべく予約する。
次に、ステップS466において、画像表示装置1は、画像に関連付けされた音楽や動画を出力するか、否かを判定する。ここで、ユーザから音楽や動画の出力を指示されない場合(ステップS466でNo)、ステップS472に進む。他方で、ユーザから音楽や動画の出力を指示された場合(ステップS466でYes)、ステップS468において、画像表示装置1は、画像に関連付けられた音楽や動画を取得する。続いて、ステップS470において、画像表示装置1は、画像の出力と共に、音楽や動画も出力すべく予約設定する。
続いて、ステップS472において、画像表示装置1は、出力予約を終了するか、否かを判定する。ここで、ユーザにより他の予約が要求された場合(ステップS472でNo)、ステップS464に戻る。他方で、ユーザにより他の予約が要求されない場合(ステップS472でYes)、一連の処理を終了する。
以上の処理により、抽出された画像は、撮影された日時毎に分類されて表示されると共に、選択された画像のスライドショーがユーザの指示に従い予約される。
以上述べた実施形態によれば、以下のような効果を奏する。
(1)ユーザが抽出条件を入力し、自動的に分類されたグループを指定することで、指定されたグループに含まれる画像の中から、そのグループでのイベントを代表するシーンの画像が抽出されて撮影日時の順にグループ毎に表示され、ユーザは、その中から出力するグループを選択すると共に、出力する日時を指定することで、所望する画像のスライドショーを所望する日時に容易に設定できる。
(1)ユーザが抽出条件を入力し、自動的に分類されたグループを指定することで、指定されたグループに含まれる画像の中から、そのグループでのイベントを代表するシーンの画像が抽出されて撮影日時の順にグループ毎に表示され、ユーザは、その中から出力するグループを選択すると共に、出力する日時を指定することで、所望する画像のスライドショーを所望する日時に容易に設定できる。
以上、本発明を図示した実施形態に基づいて説明したが、本発明は、本実施形態に限定されるものではなく、以下に述べるような変形例も想定できる。
(1)出力手段145から出力される画像データの出力先は、テレビ受信機150やオーディオ装置155に限定されず、他の装置に所定の方法で送信されて出力されても良く、また、他の装置において当該画像データが加工処理され、情報として用いられても良い。
(1)出力手段145から出力される画像データの出力先は、テレビ受信機150やオーディオ装置155に限定されず、他の装置に所定の方法で送信されて出力されても良く、また、他の装置において当該画像データが加工処理され、情報として用いられても良い。
1…画像表示装置、10…CPU、12…RAM、14…ROM、16…記憶装置、18…入出力I/F、20…グラフィックスサブシステム、22…バス、24…表示パネル、26…クレードル、28…メモリカードドライブ、30…操作入力装置、32…デジタルカメラ、33…A/V出力端子、34…メモリカード、36…通信装置、38…インターネット、40…デジタル画像データ入力手段、45…画像データ記憶手段、50…画像分類手段、52…メタデータ取得手段、54…メタデータ分類手段、56…日付け分類手段、58…場所分類手段、60…個人属性情報取得手段、62…管理者顔画像取得手段、64…スケジュール取得手段、66…個人属性分類手段、68…管理者顔画像認識手段、70…スケジュール照合手段、75…管理者記憶手段、78…抽出条件入力手段、79…グループ選択手段、80…画像抽出手段、82…画像処理手段、84…顔認識手段、86…文字認識手段、88…類似度解析手段、90…合焦度検出手段、92…画像属性情報取得手段、94…解像度情報取得手段、96…撮影枚数情報取得手段、98…撮影間隔情報取得手段、100…撮影場所情報取得手段、110…演算手段、112…適合判定手段、115…画像表示手段、120…画像選択手段、123…抽出画像表示手段、125…画像情報表示手段、130…出力日時予約手段、135…EPG情報取得手段、140…コンテンツデータ取得手段、145…出力手段、150…テレビ受信機、155…オーディオ装置、280…画像データ、282…日時分類結果、284…場所分類結果、288…スケジュール表、290…分類結果、300…抽出条件入力ウインドウ、305…OKボタン、308…キャンセルボタン、310…集合写真/ポートレート選択領域、312…選択ボタン、314…スライダー、316…重み表示ボックス、320…解像度レベル選択領域、330…フォーカスレベル選択領域、340…文字情報選択領域、350…連写選択領域、360…試し撮り排除選択領域、370…単位時間当たりの撮影枚数選択領域、380…撮影時間間隔選択領域、390…撮影場所選択領域、400…抽出最大枚数選択領域。
Claims (8)
- 撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データが入力される入力手段と、
前記入力された画像データを記憶する記憶手段と、
前記記憶された画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する分類手段と、
前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される条件入力手段と、
前記グループの中から、少なくとも1つのグループが選択されるグループ選択手段と、
前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する抽出手段と、
前記抽出された画像データが示す画像を、前記グループ毎に所定の基準で並べて表示する表示手段と、
前記表示された画像の中から、1つの画像が選択される画像選択手段と、
前記選択された画像を含むグループの画像データが出力される出力手段とを備えることを特徴とする画像出力装置。 - 請求項1に記載の画像出力装置において、
前記表示手段は、撮影された日時に従い前記画像を並べて表示することを特徴とする画像出力装置。 - 請求項1乃至2のいずれかに記載の画像出力装置において、
前記出力手段は、前記画像データをテレビ受信機に出力することを特徴とする画像出力装置。 - 請求項1乃至3のいずれか1項に記載の画像出力装置において、
前記出力手段は、前記画像に関連付けられた音楽や映像と共に出力することを特徴とする画像出力装置。 - 請求項1乃至4のいずれか1項に記載の画像出力装置において、
前記表示手段は、前記グループ毎に抽出された前記画像を、所定の時間毎に切替えて表示することを特徴とする画像出力装置。 - 請求項1乃至5のいずれか1項に記載の画像出力装置において、
前記表示手段は、前記画像選択手段で選択された画像に関する情報を更に表示することを特徴とする画像出力装置。 - 請求項1乃至6のいずれか1項に記載の画像出力装置において、
前記画像データが前記出力手段で出力される日時を指定する指定手段を更に備え、
前記出力手段は、前記指定された日時に前記画像データを出力することを特徴とする画像出力装置。 - 撮影された日時や場所に関する撮影情報を少なくとも含むメタデータであって、当該メタデータを有する画像データを、当該画像データが有するメタデータおよび当該画像データが示す画像に含まれる人物の属性情報の少なくとも1つに応じて、グループに分類する工程と、
前記グループに含まれる前記画像データの中から、当該グループを代表する1つ以上の画像データを抽出するための条件が入力される工程と、
前記グループの中から、少なくとも1つのグループが選択される工程と、
前記選択されたグループ毎に、それぞれの前記画像データが示す画像を画像処理するか、または、前記メタデータを含む画像の属性情報を前記画像データ毎に取得して、前記入力された条件と照合することにより、当該条件に適合する画像データを前記グループから抽出する工程と、
前記抽出された画像データが示す画像を、前記グループ毎に所定の基準で並べて表示する工程と、
前記表示された画像の中から、1つの画像が選択される工程と、
前記選択された画像を含むグループの画像データが出力される工程とを備えることを特徴とする画像出力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006330159A JP2008146191A (ja) | 2006-12-07 | 2006-12-07 | 画像出力装置および画像出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006330159A JP2008146191A (ja) | 2006-12-07 | 2006-12-07 | 画像出力装置および画像出力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008146191A true JP2008146191A (ja) | 2008-06-26 |
Family
ID=39606331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006330159A Withdrawn JP2008146191A (ja) | 2006-12-07 | 2006-12-07 | 画像出力装置および画像出力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008146191A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8276098B2 (en) | 2006-12-22 | 2012-09-25 | Apple Inc. | Interactive image thumbnails |
US8584015B2 (en) | 2010-10-19 | 2013-11-12 | Apple Inc. | Presenting media content items using geographical data |
US8611678B2 (en) | 2010-03-25 | 2013-12-17 | Apple Inc. | Grouping digital media items based on shared features |
US8768063B2 (en) | 2009-01-28 | 2014-07-01 | Sony Corporation | Image processing apparatus, image management apparatus and image management method, and computer program |
JP2015008014A (ja) * | 2014-09-18 | 2015-01-15 | ソニー株式会社 | ユーザへのコンテンツ推薦方法、ユーザへのコンテンツ推薦システム及びコンピュータ読取可能な記録媒体 |
US8988456B2 (en) | 2010-03-25 | 2015-03-24 | Apple Inc. | Generating digital media presentation layouts dynamically based on image features |
US9142253B2 (en) | 2006-12-22 | 2015-09-22 | Apple Inc. | Associating keywords to media |
US9336240B2 (en) | 2011-07-15 | 2016-05-10 | Apple Inc. | Geo-tagging digital images |
JP2016106320A (ja) * | 2016-02-17 | 2016-06-16 | ソニー株式会社 | ユーザへのコンテンツ提供方法、情報処理装置、及び、コンピュータ読取可能な記録媒体 |
US9563629B2 (en) | 2009-08-31 | 2017-02-07 | Sony Corporation | Information processing apparatus and information processing method |
JP2018081703A (ja) * | 2017-12-07 | 2018-05-24 | ソニー株式会社 | ユーザへのコンテンツ提供方法、情報処理装置、及び、コンピュータ読取可能な記録媒体 |
-
2006
- 2006-12-07 JP JP2006330159A patent/JP2008146191A/ja not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9142253B2 (en) | 2006-12-22 | 2015-09-22 | Apple Inc. | Associating keywords to media |
US9959293B2 (en) | 2006-12-22 | 2018-05-01 | Apple Inc. | Interactive image thumbnails |
US9798744B2 (en) | 2006-12-22 | 2017-10-24 | Apple Inc. | Interactive image thumbnails |
US8276098B2 (en) | 2006-12-22 | 2012-09-25 | Apple Inc. | Interactive image thumbnails |
US8768063B2 (en) | 2009-01-28 | 2014-07-01 | Sony Corporation | Image processing apparatus, image management apparatus and image management method, and computer program |
US9563629B2 (en) | 2009-08-31 | 2017-02-07 | Sony Corporation | Information processing apparatus and information processing method |
US11216489B2 (en) | 2009-08-31 | 2022-01-04 | Sony Group Corporation | Information processing apparatus and information processing method |
US8988456B2 (en) | 2010-03-25 | 2015-03-24 | Apple Inc. | Generating digital media presentation layouts dynamically based on image features |
US8611678B2 (en) | 2010-03-25 | 2013-12-17 | Apple Inc. | Grouping digital media items based on shared features |
US8584015B2 (en) | 2010-10-19 | 2013-11-12 | Apple Inc. | Presenting media content items using geographical data |
US9336240B2 (en) | 2011-07-15 | 2016-05-10 | Apple Inc. | Geo-tagging digital images |
US10083533B2 (en) | 2011-07-15 | 2018-09-25 | Apple Inc. | Geo-tagging digital images |
JP2015008014A (ja) * | 2014-09-18 | 2015-01-15 | ソニー株式会社 | ユーザへのコンテンツ推薦方法、ユーザへのコンテンツ推薦システム及びコンピュータ読取可能な記録媒体 |
JP2016106320A (ja) * | 2016-02-17 | 2016-06-16 | ソニー株式会社 | ユーザへのコンテンツ提供方法、情報処理装置、及び、コンピュータ読取可能な記録媒体 |
JP2018081703A (ja) * | 2017-12-07 | 2018-05-24 | ソニー株式会社 | ユーザへのコンテンツ提供方法、情報処理装置、及び、コンピュータ読取可能な記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008146191A (ja) | 画像出力装置および画像出力方法 | |
EP1986128B1 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
JP5388399B2 (ja) | 顔認識に基づいたデジタル媒体の整理方法および装置 | |
JP2008131330A (ja) | 画像表示装置および画像表示方法 | |
KR100679049B1 (ko) | 인물 및 장소정보를 제공하는 썸네일에 의한 사진탐색 방법및 그 장치 | |
JP4624933B2 (ja) | 撮像装置、撮像方法、アルバム作成装置、アルバム作成方法、アルバム作成システム、及びプログラム | |
KR20160087222A (ko) | 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치 | |
JP4643735B1 (ja) | 電子機器及び映像処理方法 | |
JP4755156B2 (ja) | 画像提供装置及び画像提供プログラム | |
JP2008165701A (ja) | 画像処理装置、電子機器、画像処理方法、及び、プログラム | |
JP2012530287A (ja) | 代表的な画像を選択するための方法及び装置 | |
JP2007094990A (ja) | 画像分類装置および方法並びにプログラム | |
JP4490214B2 (ja) | 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム | |
JP2006236218A (ja) | 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム | |
KR20180058019A (ko) | 영상 검색 장치, 데이터 저장 방법 및 데이터 저장 장치 | |
JP2011055295A (ja) | 撮影装置 | |
JP2014068290A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2009088687A (ja) | アルバム作成装置 | |
JP2006060653A (ja) | 画像編集装置,方法およびプログラム | |
JP2006081021A (ja) | 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム | |
JP2007133838A (ja) | 画像表示方法及び画像表示プログラム | |
JP2006166208A (ja) | コマ分類情報付与装置及びプログラム | |
JP2006079460A (ja) | 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム | |
JP6410427B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20130328767A1 (en) | Information processing apparatus, conference system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100302 |