JP2007226555A - 無意識に撮影された画像の閲覧装置及び方法 - Google Patents

無意識に撮影された画像の閲覧装置及び方法 Download PDF

Info

Publication number
JP2007226555A
JP2007226555A JP2006047109A JP2006047109A JP2007226555A JP 2007226555 A JP2007226555 A JP 2007226555A JP 2006047109 A JP2006047109 A JP 2006047109A JP 2006047109 A JP2006047109 A JP 2006047109A JP 2007226555 A JP2007226555 A JP 2007226555A
Authority
JP
Japan
Prior art keywords
image
information
screen
time
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006047109A
Other languages
English (en)
Inventor
Katsunao Takahashi
克直 高橋
Kuniaki Isogai
邦昭 磯貝
Takahiro Higashimura
貴裕 東村
Ichiro Okabayashi
一郎 岡林
Kazuyuki Imagawa
和幸 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006047109A priority Critical patent/JP2007226555A/ja
Publication of JP2007226555A publication Critical patent/JP2007226555A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】無意識に撮影された大量画像を、自動で付与可能な情報を用いて整理しておき、撮影した覚えのない画像にすばやくアクセス可能とする方法を提供する。
【解決手段】受信した画像の特徴情報を抽出する特徴抽出部102と、受信した位置・時刻情報と特徴抽出部102より得られる画像特徴を用いて、画像の内容や管理情報を表すメタデータを作成する。操作情報とメタデータ生成部が作成したメタデータを基に、クラスタリング結果やユーザの画面操作履歴を基に画像の表示画面を作成する・表示する。
【選択図】図1

Description

本発明は、デジタルカメラや携帯電話で撮影された画像データの閲覧方法、及び、装置に関するものである。
従来の画像の閲覧方法で閲覧する画像として、スポーツ観戦、運動会、遠足、会議のように、時刻と場所がだいたい定まっている、特定のイベントにおいて、撮影者がカメラを構えて撮影した画像を想定している。撮影された画像はファイルとフォルダによって管理され、フォルダを探すことで所望のイベントを検索し、時系列に沿い、画像を順次閲覧する方法が主である。
所望のイベントの効率的な探索方法として、撮影時の時刻と場所を利用して、イベント名前や地名などの情報を得て、それにより、画像を検索可能とするものがある(たとえば、特許文献1)。図23は前記特許文献1に記載された従来の閲覧装置の時刻と場所による画像管理方法を示した図である。図23において、図23(a)は画像の管理方法の概念図、図23(b)は、図23(a)の場所情報と、イベント情報の対応を示す概念図である。A2301はファイル名、A2302は、A2301が撮影された日時、A2303は、A2301が撮影された場所を表している。A2303はイベント名を表しており、A2305で示される場所の概念的な名称を表している。
また、増大する画像群の管理方法として、位置情報により、撮影した場所を都道府県よりも大きい区分のエリアにして分類するものがある(たとえば、特許文献2)。この管理方法により、おぼろげな場所に対しての記憶であっても、大くくりにした範囲で画像群を表示して、選択させることにより、検索漏れが少なく、所望の画像群への検索を行えるようにすることが可能となる。図24は、画面イメージである。A2401は大くくりにされた画像群の区分けを表している。A2402は選択された大くくりを表している。この場合は東北地方で撮影された画像の検索イメージとなる。A2403は大くくりの中のデータとして管理されている画像を表している。この部分に表示される画像から、所望の画像を選択することが可能となる。
特願2000−91024号公報(P7−P10、図2、図9) 特願2003−429442号公報(P5―P6、図1、図2、図3、図4)
しかしながら、従来の画像の閲覧方法においては、従来のデジタルカメラにおける撮影方法は、特定イベントの少量枚数撮影であるが、デジタルカメラの小型化、撮影可能な画像枚数の増加により、日々の生活における画像のまる撮りの撮影方法が可能となり、このような撮影方法においては、撮影した画像内容が分からない(覚えていない)、無意識かつ大量に撮影された、画像の閲覧には、従来のファイルとフォルダによる管理と、時系列による検索、閲覧では、所望の画像にたどりつくまでに膨大な手間がかかると言う課題を有していた。また、撮影時に画像に対して効果的な分類情報として、人手を介してメタデータを付与することも、画像の枚数から実用的でなく、それらに頼った画像分類、および、画像の提示が困難であるとの課題を有していた。
本発明は、前記従来の課題を解決するもので、無意識に撮影された大量画像を、自動で付与可能な情報を用いて整理しておき、それらの整理状態の画像により画面を表示し、各画面の表示切替え閲覧操作による、表示切替え時に、各画面の表示範囲を用いて、各画面を作成するための手段を設けることで、表示内容が切替ったときに、表示範囲の広さに差が生じにくくなり、違和感が緩和され、また、切替え操作を繰り返すことによって、撮影した覚えのない画像にすばやくアクセス可能とする方法を提供することを目的としている。さらには、他人が撮影した画像を用いて、これから体験しようとしている内容を、擬似体験させる閲覧方法の提供を目的としている。
本発明の閲覧装置によれば、日々の生活をまる撮りした、無意識かつ大量画像の閲覧方法を提供することができる。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
本発明の実施の形態1は、カメラにより撮影された画像を、ネットワークで受信した後に閲覧する場面を想定している。
以下、本発明の実施の形態1にかかる画像の閲覧装置について、添付図面を用いて説明する。
まず、図1は実施の形態1にかかる画像の閲覧装置の構成を示すブロック図である。
図1において、画像の閲覧装置100がある。100内部には、画像、及び、位置・時刻情報を受信する受信部101が設けられている。実施の形態1では、位置・時刻情報としてGPS(Global Positioning System)で得られる場所(緯度、経度)情報、及び、時刻を使用している。しかし、位置・時刻情報はGPSに限定されるものではなく、画像の撮影時の位置や時刻情報が得られる手段を用いても良い。
また、受信した画像の特徴情報を抽出する特徴抽出部102と、受信した位置・時刻情報と特徴抽出部102より得られる画像特徴を用いて、画像の内容や管理情報を表すメタデータを作成する、メタデータ生成部103がある。後で詳述する。
101が受信した画像や位置・時刻などの情報や、100の内部で作成した情報を格納する記憶部104がある。
また、画面の表示内容の変更を入力する入力部109があり、その操作情報を管理する操作情報管理部106がある。
操作情報とメタデータ生成部が作成したメタデータを基に、所望の画像を検索するクラスタリング部107がある。
そして、クラスタリング部の結果やユーザの画面操作履歴を基に画像の表示画面を作成する画面作成部105がある。
さらに105で作成された画面を表示する表示部108がある。
実施の形態1では、表示部108は液晶モニターなどの表示手段を用いる。入力部109は、タッチパネルなどの入力手段を用いる。
以上のように構成された画像の閲覧装置100において、画像の閲覧動作を説明する。画像の閲覧動作は、蓄積動作、リアルタイム閲覧動作、整理閲覧動作の3動作で行われる。
以下、3動作を順次説明する。
蓄積動作を説明するに当たり、図1と図2(a)を用いる。
受信部101は、画像201と位置・時刻202を受信する(ステップ301)。
特徴抽出部102は、画像205より画像特徴を抽出し、メタデータを作成する(ステップ302)。
実施の形態1では、画像中に写る各人物の顔特徴情報を想定している。顔特徴情報は、一般的に用いられている顔領域の濃淡情報やガボール変換情報を想定しているが、これに限定するものではない。
たとえば、色情報、目鼻などの顔部品の位置関係、実際の顔のサイズなど、画像処理で得られるものであれば良く、それらを組み合わせて用いても良い。
次にメタデータ生成部103において、位置・時刻情報206と特徴抽出部102で得られた顔特徴情報を用いて、画像の内容や管理情報を表すメタデータ209を生成する(ステップ303)する。
本発明においては、まず、GPS(Global Positioning System)で得られる時刻、及び、場所(緯度・経度)情報を用いて、画像を撮影する撮影者の行動を、移動、滞在の2種類として分類する。これは、場所情報を用いて簡単に求めることができる。さらには、時刻情報を用いて、移動の速さを求めることが可能である。
さらには、長時間に渡る入力に対しては、時間的に狭い間隔での移動、滞在を判定するだけでなく、時間的に長い間隔でも、移動、滞在を判定しておく。これにより、特定の場所の範囲での小さな移動や測位装置の誤差により発生する微小な場所変化を、同じ場所での滞在と判定できるようになる。
たとえば、運動会のような特定の、ある範囲内で行われるイベントに参加したことが、1つのイベントクラスタとして、区別できるようになる。そして、滞在イベント以外の部分は、滞在場所から他の滞在場所への移動イベントとして扱うことができる。
さらに、場所で分類することにより、同じ場所へ行った複数の画像群が同じ分類になる。これにより、過去の同じ場所の画像を短時間で検索し、閲覧することが可能となる。さらに、時間で分類することにより、同じ時間帯の画像群を短時間で検索し、閲覧することができるようになる。さらに、時間と場所で分類することにより、会社勤務のような、日々の定型イベントを短時間で検索し、閲覧することができるようになる。
なお、画像を撮影する撮影者の行動を、移動、滞在の2種類として分類しているが、これに限定したものではない。たとえば、移動中の移動速度を用いて、画像を分類しても良い。これにより、画像を移動速度で分類することができ、移動手段別に検索し、画像を閲覧可能となる。なお、GPSを対象として述べているが、より精度の高いD−GPS(Differential−GPS)を受信しても良いし、赤外線や超音波のような測位装置により、測位情報を得ても良い。さらに、地図情報と連動することで、場所に対応するランドマークや、場所と時間に対応するイベント情報をメタデータとしても良い。要は、画像が撮影された時の位置情報が得られれば良い。
なお、時刻・位置情報だけでなく、他のセンサーを用いて得られる情報を用いて、画像を分類しても良い。要は、位置や場所などの画像を撮影したときの状況や、速度のように、それらを用いて得られる情報や、画像から得られる情報を用いて、画像が分類できれば良い。
次に、記憶部104は、画像203と位置・時刻204や、特徴情報であるメタデータ209を記憶する(ステップ304)。
次に、メタデータ207を用いて、クラスタリング部107で画像を分類(ステップ305)する。
本実施の形態1では、画像中に写る人物の顔特徴を得て、その顔特徴でクラスタリングしておく。これにより、顔特徴毎に画像が分類されることになり、特定人物が写る画像を短時間で検索し、閲覧することが可能となる。なお、顔特徴に限定するものではなく、画像に写る生物、乗り物、物体などの情報を用いても良い。また、ポスターや漫画、ドキュメント、看板、標識などのグラフィックスによって分類してもよい。
また、画像のエッジ特徴、色特徴を用いてTerrain/Architecture/Waterside/Snowscape/Night−scenes/Indoors/Sunsetに関する構図の度合を、メタデータとして出力することも考えられる。なお、Terrainとは地形・地勢に関係する見え方に関するメタデータであり、公園、森、山などがこれにあたる。背景におけるエッジや色の度合いによって表現することができる。また、Architectureとは人が作成した建物などの見え方に関する情報である。被写体の縦エッジの多さや、色等によって定義することができる。Watersideとは水際で撮影したことを示す情報である。反射の度合いなどから、水際らしさを定義して求めることができる。Snowscapeとは雪で覆われた景色か否かを定義して出力される情報である。色情報などから定義することができる。Night−scenesとは暗い中で撮影された画像か否かを表す情報である。Indoorsでは建物の中で撮影された映像か否か、照明推定などによって表す情報である。Sunsetでは朝日、夕日の基での撮影か否かを表す情報である。
以上のメタデータを用いることで、画像特徴からも場所や撮影環境、構図に応じた分類が可能となる。
以上の動作により、入力された画像は位置や時刻や人物により、分類され整理された状態になる。
なお、本実施の形態1では、場所、時刻、画像特徴を用いた分類・整理についてのみ記載していたが、各種のセンサー計測データ、ネットワークを介して取得した情報、音データ、撮影時のカメラパラメータ、撮影者自身の情報を用いることでより詳細な分類・整理が可能になる。
たとえば、センサーを介して取得可能な天気、気温、湿度、風向、風力、注意報(警報)に関する情報を用いて、画像を分類することも可能である。これらを利用することで、冬で寒いはずなのに、暖かかった日を軸に整理するなどといった、人間の記憶に基づく整理軸を一つ追加できる。
また、ネットワークを介して情報を取得することで、時事情報を画像に付与することができる。これによって、画像からその日の状況が喚起されるといったことも可能になる。
一方、画像取得時のカメラパラメータは、画像を整理する上で当然の情報であり、たとえば、撮影機器のID、撮影時のズーム倍率、露出、シャッター速度、カメラの向きと移動等の、撮影に必要なカメラパラメータをメタデータとして記録しておくことで、たとえば、立ち止まって、ある方向をずっと向いている画像を、一まとまりに整理するといったことが可能になる。
また、撮影者自身の情報として、撮影者の脈拍、動悸、脳波、血流、視線等を取得しておくことで、撮影者の感情に基づいた整理が可能になる。さらに、音データを取得しておくことで、より臨場感ある整理が可能になる。
次に、記憶部104は、メタデータ209を記憶する。
以上の動作により、入力された画像は、メタデータが付与された状態になる。
リアルタイム閲覧動作を説明するに当たり、図1と図2(b)を用いて説明する。
受信部101は、画像201と位置・時刻202を受信する(ステップ301)。画面作成部105は、画像210と位置・時刻211を用いて、表示用画面を作成する(ステップ307)。次に、表示部108は、画面作成部105が作成した画面を表示する。
以上の動作により、画像の閲覧装置が受信した画像を、リアルタイムに表示することが可能となる。
整理閲覧動作を説明するに当たり、図1と図3と図4〜図6を用いて説明する。
入力部109は、画像閲覧開始要求を受け取る(ステップ401)。本動作は、明示的に画面をクリックすることだけではなく、画像閲覧装置の電源を入れることや、折りたたみ式の画像閲覧装置を開く動作であっても良い。
操作情報管理部106では、入力部109に入力された情報を用いて、操作履歴217を作成する(ステップ402)。
ここで操作履歴217は、図4の501のように例示される。502は時刻レンジを表し、画面に表示されている画像の表示時間範囲を示している。値が設定されていない場合には、デフォルトの値を適用する。503、504、505は、それぞれ時刻画面、場所画面、人物画面で設定される値である。つまり、各画面で表示切替え動作を行ったときに設定される値である。各値が設定されていない場合には、デフォルトの値が適用される。時刻操作503には、表示画面に表示される時間幅を、時刻粒度506として設定する。場所操作504には、表示画面に表示される縮尺を、縮尺粒度507として設定する。また表示されている地域を、地域表示範囲508として設定する。人物操作505には、表示するための閾値の情報を、足切粒度509として設定する。また表示されている人物の表示範囲を、人物表示範囲510として設定する。
次に、記憶部104は、操作情報管理部106が作成した操作履歴217を記憶する(ステップ403)。クラスタリング部107は、メタデータ214と操作履歴215を用いて、表示すべき画像を決定する(ステップ404)。画面作成部105は、クラスタリング部107が作成した画面情報218を基に、必要な画像212と位置・時刻213を得て画面を作成する(ステップ302)。表示部108は、画面作成部105が作成した画面を表示する(ステップ305)。
次に、作成される画面について説明する。作成される画面は図5のように例示される。
図5(a)は、画像が時刻により整理された画面例である。601は画像の表示部である。602は表示している画像の日付、及び、曜日の表示部と切り替え部である。601において、月曜日から金曜日の8:00〜18:00までがまとめられて表示されている。これは、時間と場所で整理した例を示しているからである。つまり、毎日、決まった時間に同じ場所にいるため、同じ行事として画像をまとめて表示している例を示しているためである。これは言うまでもなく、同じ場所の画像をまとめるのではなく、各曜日とも時系列画像を横に並べて表示しても良い。そのときの例は、図6(a)のように示される。図5(a)の表示状態において、602の曜日や日付部分をクリックすると、図6(a)のように遷移する動きでも良い。
603は表示月の表示部と切り替え部である。602や603を操作すると、601に表示される画像が切り替わると共に、502の値も書き換わる。
604は表示される時間の粒度を切り替えるためのバーである。本バーを「全体」側にスライドすると、601に表示された画像が、月単位、年単位と粒度を変える動作をする。そして、602、603の単位も、おのおの週、月から月、年、さらに年、10年単位に切り替わる。さらに506の値も書き換わり、502も表示されている時間レンジに合うように書き換わる。
同様に、本バーを「詳細」側にスライドすると、601に表示された画像が、年単位から、月単位、週単位と粒度を変える動作をする。そして、602、603の単位も、年、10年から月、年、さらに週、月、さらに日、時間、時間、日(601の時間情報は分単位に変わる)、さらに分、時間単位(601の時間情報は秒単位に変わる)に切り替わり、さらに506の値も書き換わり、502も表示されている時間レンジに合書き換わる動作となる。
図5(b)は、画像が場所により整理された画面例である。605は画像、及び、画像を撮影した場所の表示部である。基本的に訪れた各地の場所を基に作成された画面であるが、同じ場所に訪れた回数、もしくは、近隣を含めて訪れた回数を基に、表示の色や線の太さを変えても良い。また、図5(b)の中の丸い囲みのように、近隣の場所を含めてグルーピング情報として、表示しても良い。このグルーピングの情報や訪れた回数を基に、表示する画像を選択するようにしても良い。また、移動の軌跡も詳細にして、画面を構成しても良い。606は表示年月の表示部と切り替え部である。図5(b)では、月単位の表示になっているが、週単位、日単位、年単位にもなる。606を操作すると、605に表示される画像が、606に示される時刻レンジのものに変わる。本操作と同時に、502も同じ時刻レンジに書き変わる。607は表示される場所の範囲の粒度を切り替えるためのバーである。本バーを「全体」側にスライドすると、605に表示される画像は、たとえば、外国を含んだ範囲へと粒度を変える。本操作と同時に、507、508の値も書き換える。本バーを「詳細」側にスライドすると、605に表示される画像が、より詳細化された地域へと粒度を変える動作を行う。たとえば、画像の中心部分や、クリック等で指定された部分やグルーピングされている部分へズームインする動きをする。その時にグルーピングされている範囲も、より詳細な単位でのグルーピングへと切り替わり、表示される画像も変わることになる。たとえば、信州方面で一枚の画像が表示されていたものが、長野県で過去に訪れたことがある、スキー場で一枚の画像が表示される動きである。
図5(c)は、画像が人物により整理された画面例である。画面例では人物領域を抽出した領域の表示を行っているが、その人物が写る通常の画像であっても良い。608は画像やオプション情報の表示部である。図5(c)では、オプション情報として、該当の人物と一緒にいた時間を示している。609は表示月の表示部と切り替え部である。609を操作すると、608に表示される画像が切り替わると共に、502も同じ時刻レンジに書き換わる。610は表示される人物の範囲を切り替えるためのバーである。本バーを「全体」側にスライドすると、一緒にいた時間が短い人物も表示される動作をする。同時に、509、510の値も書き換わる。本バーを「詳細」側にスライドすると、608に表示される画像が、一緒にいた時間が長い人物に限定される。一緒にいた時間で説明したが、他の情報であっても良い。たとえば、会った回数でも良いし、画像内の人物との新密さを定量化した情報でも良い。
次に、図5(a)、図5(b)、図5(c)の画面間の移動について説明する。図5(a)、図5(b)、図5(c)に共通している611であるが、これは、表示されている画面を、それぞれ別の画面に切り替えるためのボタンである。
図5(a)において、611の場所ボタンをクリックすると、図5(b)の画面に切り替わることになる。
画面の切り替え時に、501の情報を参照しながら、画面作成を行う。たとえば、図5(a)において、時刻レンジが設定されたときに、図5(b)、図5(c)に切り替わるときには、その時刻レンジの画像のみを表示すれば良い。同様に、図5(b)において、表示する地域が変更されている場合には、図5(a)、図5(c)において、対象の地域と時刻範囲の画像のみを表示すれば良い。同様に、図5(c)において、表示されている人物の写る画像を、図5(a)、図5(b)で表示すれば良い。
画面切り替え時の501の情報利用に関しては、デフォルトとして利用する情報を設定しておいたり、次の画面を作成する上で、501の情報の中で利用する情報を、切り替え時に入力させるようにしても良い。たとえば、図5(c)から図5(a)に遷移する際に、人物が指定されてしまうと、風景画像や指定人物が写っていない画像が表示されなくなってしまうので、このときに人物を指定しないで画面遷移する使い方が挙げられる。
なお、図4の中に、たとえば、指定画像(URLなど)を格納する領域を設け、図5(a)、図5(b)、図5(c)で選択された画像を記憶するようにしても良い。図5(a)、図5(b)、図5(c)において、特定の画像を選択してから、611の時刻ボタンがクリックされると、選択された時刻と連続する画像が提示されるようにしても良い。同様に場所ボタンがクリックされると、選択された場所に近い順番に画像が提示されるようにしても良い。同様に人物ボタンがクリックされると、その人物を含めてその人物に近い画像が提示されるようにしても良い。
次に、本発明の使用例について、図6を用いて説明する。図6は、蓄積されている画像群を連想的に閲覧するシーンを想定している。
まず何らかのタイミングで、ビューアを見ると図5(a)、図6(a)のように、時刻で整理された画像が表示される。これにより、日々の行動を見ることができる。
この画像群を見ていて、たとえば、通勤途中の最近開店した真新しい店の前が、なんだったかが思い出せなく気になったときに、ビューアで検索する。
気になる画像をクリックして、時刻ボタン(611の時刻ボタン)をクリックする。すると、その場所の画像が時系列で表示される。月日ボタン(603)をクリックして、過去に遡って画像を閲覧して行くことで、その場所が過去、駐車場だと分かる。
その画像より、駐車場で花火をしている人が、奥さんだと気付く。すると、奥さんと出会った場所が気になり、ビューアで検索する。
奥さんをクリックし、人物ボタン(611の人物ボタン)をクリックする。すると、奥さんと出会ったのが、この花火だったと分かる。月日ボタン(610)をクリックして、現在に向かって表示を切り替えながら閲覧して行くと、新婚旅行が気になり、ビューアで検索する。
結婚式のときの画像をクリックして、時刻ボタン(611の時刻ボタン)をクリックする。すると、結婚式、新婚旅行の画像が時系列で閲覧できる。
なお、図1に示される構成は、図7に示される構成のように、画像撮影部(カメラ部)を内蔵した形態であっても良い。
画像撮影部(カメラ部)704の中で、撮像部703が写真を撮影するタイミングで、測位部701が位置情報を、時計部702が時刻情報を取得する動作を行うことで、後の動作は今までと同様で良く、この構成とすることで、本発明を1台の筐体で実施可能となる。
なお、図1に示される構成は、図8に示される構成のように、画像閲覧装置100の入出力部を切り離した形態であっても良い。本構成では、800、及び、802の台数が複数でも良く、さらには、800に入力される、画像201、位置・時刻202に対して、個人識別子807を付加し、管理することにより、1台の800に対して、複数の802を用いる構成において、他人の画像を見られるようにもなる。
808の個人識別子として、ユーザの家族のものを指定することにより、指定された家人の画像を閲覧することができるようになり、防犯に用いることが可能となる。
さらに、800は、図9の900のような形態であっても良い。
続いて、本実施の形態1を本型のデバイスで実現した形態について説明する。
図22は本型のデバイスと収納スペースの構成図である。ここでは、本型のデバイスを閲覧装置2401、収納スペースを本棚2402と呼ぶことにする。
図22において、2401は閲覧装置、2402は本棚、2403は外部インターフェース、2404は電源、2405は画像を撮影するカメラ、2406はカメラを接続するためのドックである。
閲覧装置2401と本棚2402は外部インターフェース2403により、データを転送できるように設定されている。
閲覧装置2401を本棚2402に収納し、前記したカメラ2405を本棚横のドックに置くことで、取得したAVデータを閲覧装置2401へ自動的に転送する。またドックは同時に充電も行う。
閲覧装置2401は、1日の画像群から代表画像を選択し、アノテーションを付加することで、1日の出来事を日記風に編集して表示する。手帳を見開くと、そこに代表的な画像(または画像群)と説明文で構成される絵日記が表示される。また画像をタッチすることで、関連画像群へ飛んでいける。ここでの動作は前記した閲覧装置100、閲覧装置700、閲覧装置800と同様である。
閲覧装置2401は、たとえば、1年といった使用可能期限が決められており、閲覧装置の販売時には1年分の大きな行事があらかじめ設定されている。たとえばオリンピックといった大きなイベントが入っており、ユーザの当日の出来事と並べて大きな行事を表記する。自分の経験と世の中のイベントは頭の中でリンクしており、これにより後で見返した時に記憶が鮮明によみがえることになる。ここで、期限は1年にかぎらず、3年でも10年でもいい。
(実施の形態2)
本発明の実施の形態2は、1個以上のカメラにより撮影された画像を、ネットワークで受信した後に、ネットワークを介して閲覧する場面を想定している。たとえば、あるユーザが旅行をしたいときに、行きたい場所を入力すると、他人が撮影した写真を基に、疑似体験コンテンツを作成され、その画像群を閲覧することで、これから得られる体験を、疑似経験することができる。
以下、本発明の実施の形態2にかかる画像の閲覧装置について、添付図面を用いて説明する。まず、図11は実施の形態2にかかる画像の閲覧装置の構成を示すブロック図である。
図11において、画像の閲覧装置は、サーバ1100と端末1101で構成されている。サーバ1100には、画像とメタデータが蓄積されており、端末から要求のあった疑似体験コンテンツを、端末のクエリーとメタデータから、画面情報として作成し、蓄積されていている画像を、画面情報の指定する箇所にはめ込むことで作り出す機能を有する。端末1101には、画面表示、外部情報取得、画面操作の機能が備わる。
そして、サーバ1100と端末1101の両者がネットワークや有線ケーブルでつながる構成となる。メモリーカードのような記録メディアを介して接続される形態であっても良い。
以下、サーバ1100、端末1101の各構成ブロックの説明を行う。
サーバ1100には、画像、及び、画像の内容や管理情報を表すメタデータを蓄積する記憶部1108が備わる。画像、及び、メタデータは、実施の形態1で詳述したものである。
また、端末1101との情報交換を行う送受信部1106がある。また、端末1101からのクエリーと、サーバ1100中のメタデータにより、蓄積されている体験コンテンツをつなぎ合わせて、擬似的に体験コンテンツを作成する疑似体験コンテンツ作成部1107がある。
端末1101には、サーバ1100と、通信するための送受信部1102が備わる。画面作成部1110において、送受信部1102が受信した画面情報や、入力部1104において入力される画面の操作情報を基に、表示部1103で表示する画面を作成する。また、クエリー作成部1111においては、入力部1104より入力される端末1101の位置情報と、時刻や現在位置の場所などの外部情報を取得する外部情報取得部1105の情報を用い、疑似体験コンテンツの要求クエリー1201を作成する。
実施の形態2では、表示部1103には液晶モニターなどの表示手段を用いる。入力部1104にはタッチパネルなどの入力手段を用いる。
以上のように構成された疑似体験コンテンツの閲覧装置のサーバ1100、端末1101において、疑似体験コンテンツの閲覧動作を説明するに当たり、まず、個人体験コンテンツについて説明する。個人体験コンテンツとは、個人が体験した日々の生活を撮影した画像群を指す。たとえば、体にカメラを装着し、日々の生活を無意識に間欠撮影した写真画像群を指す。この画像群は、動画でもかまわない。これに対し、疑似体験コンテンツとは、特定の個人が行きたい場所に関して、過去の自分の個人体験コンテンツや他人の個人体験コンテンツを用いて、それらをつなぎ合わせて作成されるコンテンツのことである。
このような個人体験コンテンツの画像群を、本発明においては、GPS(Global Positioning System)で得られる時刻、及び、場所(緯度・経度)情報を用いて、移動、滞在と分類する。これは、画像を撮影する撮影者の行動を算出することと同値である。
まず、時刻情報を用いて、時間的前後の位置の変化により、移動状態か滞在状態かを求める。移動の時には移動方向と速度、そして移動距離を求めることができる。
また、同時に、微小な範囲での移動、滞在だけでなく、大きな範囲での分類も行っておく。たとえば、会社内で活動しているときの移動は、会社に滞在中の移動という小分類として捉えることができる。
滞在が求められたら、滞在から次の滞在までの間を、移動として分類することができる。移動中に発生する小さな滞在、たとえば、電車の待ち時間も、移動中の滞在という小分類に分けることができる。
これにより、特定の場所の範囲での小さな移動や、測位装置の誤差により発生する微小な場所変化を、同じ場所での滞在と判定できるようになる。たとえば、運動会のような特定のある範囲内で行われるイベントに参加したときに、1つのイベントクラスタとして、分類できるようになる。
図13は、日々の生活を移動、滞在に分けた概念例である。1400は、時刻と位置情報による、個人の移動履歴を表している。横軸は時間軸、縦軸は概念的な位置を表している。このとき、1400の傾き部分は「移動」、横線部分は「滞在」と判定することができる。1400は、家を出てから、会社に行き、出張して、帰宅する行動を行った、個人の移動履歴を表している。
場所で分類することにより、同じ場所へ行った複数の画像群は、同じ分類になる。これにより、同じ場所の過去の画像群を短時間で検索し、閲覧することが可能となる。同様に、時間で分類することにより、同じ時間帯の画像群を、短時間で検索し閲覧することができるようになる。さらに、時間と場所を併用して、分類することにより、会社勤務のような日々の定型イベントをまとめることができる。これにより、定型イベントを1個の体験コンテンツとして検索し、閲覧することができるようになる。
なお、移動、滞在の2種類として分類しているが、これに限定したものではない。たとえば、移動中の移動速度を用いて、画像を分類しても良い。これにより、画像を移動速度で分類することができ、移動手段別に検索し、画像を閲覧できるようになる。
なお、GPSを用いて説明しているが、より精度の高いD−GPS(Differential−GPS)を受信しても良いし、赤外線や超音波のような測位装置により、測位情報を得ても良い。これにより、室内でも測位可能となる。
要は、画像が撮影されたときの位置情報が得られれば良い。
なお、時刻・位置情報だけでなく、他のセンサーを用いて得られる情報を用いて、画像を分類しても良い。
要は、位置や場所などの画像を撮影したときの状況や、速度のようにそれらを用いて得られる情報や、画像から得られる情報を用いて、画像が分類できれば良い。
このように、分類された複数の個人体験コンテンツは、たとえば、滞在場所で分類すると、図14に示すようにクラスタリングが行える。図14中の1502、1503、1504、1506、1507、1508は個人体験コンテンツの滞在部分である。1501、1505、1509は、同じ場所に近い個人体験コンテンツのクラスタである。このクラスタ内の画像は、同じ場所で撮影された画像と考えることができる。
同様に移動を表現すると、図15のように、クラスタを結ぶ軌跡として表される。たとえば、クラスタ1501とクラスタ1606の間には、1601、1605、1606で示される軌跡がある。軌跡の形状から、軌跡で表される移動距離の長短を知ることができる。また、各軌跡に、たとえば1604のような情報を付与することで、時期や、正確な距離や、移動の平均速度などが分かるようになる。これにより、軌跡の選択に用いることが可能となる。
次に、疑似体験コンテンツの閲覧動作を、図11、図12、図10、図16を用いて説明する。
画面作成部1110において、疑似体験コンテンツとして、ユーザが見たい場所を選択させるための画面を作成(ステップ1301)し、表示部1103で表示(ステップ1302)する。
画面例としては、図10のようなものが挙げられる。1000は、ユーザが見たい場所を選択させるための画面である。607は、実施の形態1で説明した、表示の粒度を切り替えるためのバーである。このバーを全体側にスライドすると、たとえば、関東地方が表示され、さらに日本が表示され、世界が表示される動きになる。詳細側にスライドさせると、23区が表示され、さらに特定の区が表示されるようになる。1006は表示範囲を切り替えるためのボタンである。1001、1002、1003はユーザが見たい場所として選択した箇所を示している。たとえば、マウスでクリックする動作や、タッチパネルでタッチする動作を想定している。1004は個人体験コンテンツの作成を行わせるためのボタンである。1004がクリックされると、個人体験コンテンツの作成が行われる。1005は、詳細設定ボタンで、このボタンがクリックされると、ユーザが見たい場所を回る順番や、時刻、季節、移動手段などを入力する動きを想定している。
入力部1104において、607、1006を操作することで表示画面を切り替える(ステップ1301,1302)。地図上の疑似体験コンテンツとして見たい場所をクリックすると、クエリー作成部1111が、外部情報取得部1105が取得する時刻や位置情報などの外部情報を用いて、クエリーを作成する(ステップ1303)。1004をクリックすると、送受信部1102がクエリー1201を送信する(ステップ1304)。
サーバ1100の送受信部1106において、端末1101から送信されたクエリー1201を受信する(ステップ1306)。疑似体験コンテンツ作成部1107において、クエリー1202と、記憶部1108に蓄積されるメタデータ1204を取得し、疑似体験コンテンツを画面情報1207として作成する(ステップ1307)。本作成ステップについては、後で図16を用いて説明する。
次に、送受信部1107は、画面情報1208を端末1101に応答して返す(ステップ1308)。
端末1101の送受信部1102は、画面情報1208を受信する(ステップ1305)。画面作成部1110は、サーバ1100で作成された疑似体験コンテンツを作成する処理を行う。必要な画像は、サーバ1100の記憶部1108に蓄積される画像1203を、送受信部1106、端末1101の送受信部1102を介して、画像1209として受信して作成する(ステップ1301)。作成された画面は表示部1103で表示される(ステップ1302)。表示された画面は入力部1104の操作により、表示範囲を変えながら閲覧することで、疑似体験コンテンツを閲覧することができる。
次に疑似体験コンテンツ作成部1107の処理を、図16を用いて説明する。
疑似体験コンテンツ作成部1107は、クエリー1202とメタデータ1205を用いて、疑似体験コンテンツを作成する。
クエリー1201には、ユーザが見たい場所の情報と、時刻、現在地の情報や天候などが記述されている。
メタデータ1205は、図13,図14,図15に示される情報で、個人の体験が滞在と移動に分類され、複数の個人の体験が場所によってクラスタリングされた情報になり、クラスタ間の移動情報、及び、それぞれの付加情報として、1510、1604のような情報が付与されたものである。
疑似体験コンテンツ作成部1107では、まず、メタデータ1205を、現在の天候によりフィルタリングする(ステップ1701)。たとえば、現在が雨であれば、雨以外のメタデータをフィルタリングにより、除去する。これにより、よりユーザが置かれた状態に近い、疑似体験コンテンツの作成が可能となる。
次に、現在時刻の月日により、メタデータ1205をフィルタリングする(ステップ1702)。これは、現在が夏であれば、冬のメタデータをフィルタリングして除去することを想定している。これにより、夏のコンテンツが、急に冬のコンテンツに切り替わることがなくなり、よりユーザが置かれた状態に近い、疑似体験コンテンツの作成が可能となる。
次に、現在場所に最も近い、クエリー1202の中の場所を検索する。そして、検索された場所に最も近い、メタデータ1204の中のクラスタを検索する(ステップ1703)。これが疑似体験コンテンツの開始地点となる。
なお、クラスタに含まれる、複数の滞在コンテンツから1つを選ぶ方法として、現在時刻に最も近く、かつ、現在位置に最も近い個人体験としても良い。
次に、検索されたクラスタと、クエリー1202の中の残りの場所に近い、メタデータ1204中のクラスタを検索し、さらに、先に検索されたクラスタと残りの全クラスタ間の移動に関して検索を行う(ステップ1704)。最も移動距離が少ないものを移動コンテンツとして選んだり、移動時間が短いものを選ぶ。これが疑似体験コンテンツになる。
次の滞在場所を決める方法として、各クラスタまでの移動の数が最も多いものを選んでも良い。
なお、滞在コンテンツの終了時刻に合わせて移動コンテンツの開始時刻を合わせて、疑似体験コンテンツとしても良い。
以下、順次、クエリーで指定された場所に関して、疑似体験コンテンツとして検索されるまで行う(ステップ1705)。
以上の動作により、クエリーとして入力したユーザが行きたい場所に関して、他の個人が体験し、撮影した画像を用いて、疑似体験コンテンツができ上がる。
なお、図10において、1005ボタンがクリックされたときに、クエリー1202として、場所に関して回りたい順番、移動手段(時速など)、天候、行きたい日時、それぞれの場所に滞在したい時間などを入力して、それらに合わせて疑似体験コンテンツを作成すれば良い。
たとえば、場所に関して回りたい順番が指定された場合には、その順番で滞在コンテンツ、移動コンテンツを検索して行けば良い。
たとえば、移動手段が指定された場合には、1604の平均速度により、移動コンテンツを検索すれば良い。
たとえば、天候が指定された場合には、ステップ1701において、指定された天候によりフィルタリングすれば良い。
たとえば、行きたい日時が指定された場合には、ステップ1702において、指定された日時で時期を算出し、フィルタリングすれば良い。その上で、指定された時間から、滞在コンテンツ移動コンテンツを検索して行けば良い。
たとえば、それぞれの場所に滞在したい時間が指定されている場合には、その時間に合う、体験コンテンツを検索すれば良い。あるいは、その時間に合うように、編集すれば良い。編集方法としては、間引きや、同じ画像を表示することで長さをあわせる方法や、複数の体験コンテンツを利用して、長さを合わせたり、あるいは、コンテンツはそのままにしておき、次の移動コンテンツの開始時刻を指定された時間分経過した後から検索すれば良い。
(実施の形態3)
本発明の実施の形態3は、現在訪れている場所の、過去の画像を閲覧する場面を想定している。
以下、本発明の実施の形態3にかかる画像の閲覧装置について、添付図面を用いて説明する。まず、図17は実施の形態3にかかる画像の閲覧装置の構成を示すブロック図である。
図17において、画像の閲覧装置1800がある。1800内部には、画像、位置・時刻、向き情報を受信する受信部1802が設けられている。位置・時刻情報は、実施の形態1、実施の形態2で説明したものでよい。また、1800内部には、受信した情報を対応付けて蓄積する記憶部1801がある。また、閲覧装置の現在位置、及び、向き情報を計測するための測位部1804や向き計測部1805がある。そして、見たい過去の時点を入力するための時刻入力部1806がある。そして、画像の位置・時刻・向き情報と、閲覧装置の位置・時刻情報と時刻情報を基に、条件が一致する画像を検索する検索部1803がある。検索部1803で検索された画像を取得し、表示画面を作成する画面作成部1807と、それを表示する表示部1808がある。
以上のように構成された閲覧装置1800において、閲覧動作を説明する。閲覧動作は、蓄積動作、過去の閲覧動作の2動作で行われる。以下、2動作を順次説明する。
蓄積動作を説明するに当たり、図17と図18(a)を用いる。
受信部1802は、画像1903と位置・時刻1904と画像の向き1905を受信する(ステップ2001)。
記憶部1801は、画像1901(画像1903)と位置・時刻1904と向き1905を関連付けて蓄積する(ステップ2002)。後で位置情報や時刻情報や向き情報や、それらの組み合わせで画像を検索できるように管理しておく。位置、時刻、向きで説明しているが、それらに限定されるものではなく、天候や明るさ、画像の画角、画像内に写る内容情報などを加えて、画像と関連付けても良い。
次に、過去の画像の閲覧動作を説明する。閲覧動作を説明するに当たり、図17と図18(b)を用いる。
まず、見たい過去の時刻を、時刻入力部1806に入力し、時刻1910を作成する(ステップ2003)。
明示的な時刻入力がない場合には、デフォルトの過去の時刻でも良い。あるいは前回の入力時刻のままでも良い。あるいは、デフォルトの過去の時刻や前回の入力時刻に対し、経過時間を付加したものとしても良い。
次に、測位部1804が閲覧装置1800の現在位置の座標を計測し、座標1908とする(ステップ2004)。向き計測部1805が閲覧装置の向いている向きを計測し、向き1909とする(ステップ2005)。
向き計測部は、ジャイロや加速度センサーなど、向きを計測できるものであればなんでも良い。
検索部1803において、位置・時刻・向き情報1907の中から、時刻1910、座標1908、向き1909に合致する画像を検索する。検索結果を画像情報1911とする(ステップ2006)。
次に、画面作成部1807が、画像情報1911を基に、記憶部1801に蓄積されている画像1906を取得し、表示する画面を作成する(ステップ2007)。作成された画像は表示部1808で表示される(ステップ2008)。
以上説明した動作により、過去に訪れた場所で、閲覧装置を見たい方向に向けて表示部を見ると、過去の画像を見ることができる。
また、図19に示される構成のように、閲覧装置2100の内部を切り離した形態であっても良い。本構成では、2100、及び、2101の台数が複数でも良く、さらには、2100に入力される、画像1903、位置・時刻1904に対して、個人識別子807を付加し、管理することにより、1台の2100に対して、複数の2101を用いる構成において、他人の画像を見られるようになる。
808の個人識別子として、ユーザの家族のものを指定することにより、指定された家人の画像を閲覧することができるようになり、防犯に用いることが可能となる。
図19の構成の閲覧装置の動作を図19と図20を用いて説明する。
閲覧動作は、蓄積動作、過去の閲覧動作の2動作で行われる。以下、2動作を順次説明する。
蓄積動作を説明するに当たり、図19と図20(a)を用いる。
送受信部2102は、画像1903と位置・時刻1904と画像の向き1905と個人識別子807を受信する(ステップ2201)。
記憶部1801は、画像1903と位置・時刻1904と向き1905と個人識別子807を関連付けて蓄積する(ステップ2202)。後で、位置情報や時刻情報や向き情報や個人識別情報や、それらの組み合わせによる問い合わせに対して画像を検索できるように管理しておく。位置、時刻、向き、個人識別子で説明しているが、それらに限定されるものではなく、天候や明るさ、画像の画角、画像内に写る内容情報などを加えて、画像と関連付けても良い。
次に、過去の閲覧動作を説明する。閲覧動作を説明するに当たり、図19と図20(b)、図20(c)を用いる。
まず、見たい過去の時刻を、時刻入力部1806に入力し、時刻1910を作成する(ステップ2003)。
明示的な時刻入力がない場合には、デフォルトの過去の時刻でも良い。あるいは前回の入力時刻のままでも良い。あるいは、デフォルトの過去の時刻や前回の入力時刻に対し、経過時間を付加したものとしても良い。
次に、見たい画像の撮影者の識別情報を、個人識別子入力部2106に入力し、個人識別子808を作成する(ステップ2203)。
明示的な個人識別子の入力がない場合には、全員の画像を対象を閲覧対象として動作する。
次に、測位部1804が閲覧装置1800の現在位置の座標を計測し、座標1908とする(ステップ2004)。向き計測部1805が閲覧装置の向いている向きを計測し、向き1909とする(ステップ2005)。
送受信部2103は、時刻1910、個人識別子808、座標1908、向き1909をクエリーとして送信する(ステップ2204)。
送受信部2102は、時刻1910、個人識別子808、座標1908、向き1909をクエリーとして受信する(ステップ2206。
検索部1803において、位置・時刻・向き・個人識別情報2104の中から、時刻1910、座標1908、向き1909、個人識別子808に合致する画像を検索する。検索結果を画像情報1911とする(ステップ2207)。
次に、送受信部2103がクエリーの応答として、画像情報1911を受信する(ステップ2208)。
画面作成部1807が、画像情報1911を基に、記憶部1801に蓄積されている画像1906を取得し、表示する画面を作成する(ステップ2007)。作成された画像は表示部1808で表示される(ステップ2008)。
以上説明した動作により、過去に訪れた場所で、閲覧装置を見たい方向に向けて表示部を見ると、他人が撮影した画像を含めて、過去の画像を見ることができる。
図21は、入力される画像1903を統合して大画面としておき、閲覧装置で閲覧範囲を指定して、大画面から必要な領域を抽出して表示することが可能な閲覧装置の構成図である。
図21には、複数の画像をその位置、向き、及び、画像特徴を用いて、画像を統合するための画像統合部2308が備わる。
以下、統合画像を用いた画像の閲覧装置について、添付図面を用いて説明する。まず、図21は統合画像を用いた画像の閲覧装置の構成を示すブロック図である。
図21において、画像の閲覧装置2300がある。2300内部には、画像、位置・時刻、向き情報を受信する受信部1802が設けられている。位置・時刻情報は、実施の形態1、実施の形態2で説明したものでよい。また、1800内部には、受信した画像を統合して大きな画像を作成する画像統合部2308がある。また、受信した画像と受信した他の情報と、画像統合部が作成する統合画像中の位置情報を対応付けて蓄積する記憶部1801がある。また、閲覧装置の現在位置、及び、向き情報を計測するための測位部1804や向き計測部1805がある。そして、見たい過去の時点を入力するための時刻入力部1806がある。そして、画像の位置・時刻・向き情報と、閲覧装置の位置・時刻情報と時刻情報を基に、条件が一致する画像を検索する検索部1803がある。検索部1803で検索された画像を取得し、表示画面を作成する画面作成部2310と、それを表示する表示部1808がある。2310はまた、得られた画像の向きや画角が合わない場合には、統合された画像の方から得る。そのための、統合画像から必要な領域を抽出画像抽出部2305がある。また、画面作成部2310に対して、表示する画角を指定する画角入力部2309がある。
以上のように構成された閲覧装置2300において、閲覧動作を説明する。閲覧動作は、蓄積動作、過去の閲覧動作の2動作で行われる。以下、2動作を順次説明する。
蓄積動作を説明するに当たり、図21と図25(a)を用いる。
受信部1802は、画像1903と位置・時刻1904と画像の向き1905と撮影画像の画角2301を受信する(ステップA2501)。
画像統合部2308は、受信した画像を統合して、統合画像2302と統合画像2302に対する画像1901の位置情報を統合画像中の位置情報2303として作成する(ステップA2502)。画像統合は、位置・時刻1904の位置と向き1905と画角2301を用いて、行ってもよい。また、画像特徴を用いて、画像を統合する手法としては、たとえば、特開2000−222554や特開2000−99740や特開2000−284363を用いてもよい。その際には、オフラインで画像統合を行っても良い。
記憶部1801は、画像1901(画像1903)と位置・時刻1904と向き1905(位置・時刻・向き情報1902)と統合画像中の位置情報2303を関連付けて蓄積する(ステップA2503)。後で位置情報や時刻情報や向き情報や画角情報や、それらの組み合わせで画像を検索できるように管理しておく。位置、時刻、向き、画角で説明しているが、それらに限定されるものではなく、天候や明るさ、画像内に写る内容情報などを加えて、画像と関連付けても良い。
次に、過去の画像の閲覧動作を説明する。閲覧動作を説明するに当たり、図21と図25(b)を用いる。
まず、見たい過去の時刻を、時刻入力部1806に入力し、時刻1910を作成する(ステップ2003)。
明示的な時刻入力がない場合には、デフォルトの過去の時刻でも良い。あるいは前回の入力時刻のままでも良い。あるいは、デフォルトの過去の時刻や前回の入力時刻に対し、経過時間を付加したものとしても良い。
次に、測位部1804が閲覧装置2300の現在位置の座標を計測し、座標1908とする(ステップ2004)。向き計測部1805が閲覧装置の向いている向きを計測し、向き1909とする(ステップ2005)。向き計測部は、ジャイロや加速度センサーなど、向きを計測できるものであればなんでも良い。
検索部1803において、位置・時刻・向き情報1907の中から、時刻1910、座標1908、向き1909に合致する画像を検索する。検索結果を画像情報1911とする(ステップ2006)。
次に、画面作成部2310が、画像情報1911を基に、記憶部1801に蓄積されている画像1906を取得し、表示する画面を作成する。このときに、画像作成部2310は、表示したい画角を画角入力部2309から入力されており、その画角と統合画像中の位置情報2307を用いて、画像1906の表示範囲を検証する。表示される範囲が小さい場合には、統合画像2304から所望の画角の画像を画像抽出部2305から得る(ステップA2505)。
作成された画像は表示部1808で表示される(ステップ2008)。
以上説明した動作により、過去に訪れた場所で、閲覧装置を見たい方向に向けて表示部を見ると、過去の画像を見ることができる。入力された画像では、表示範囲が一致していない場合には、入力された画像を統合して、大きな画像としておき、その統合画像から見たい方向の画像を得ることができるようになり、過去の画像を連続して見ることができるようになる。
本発明にかかる画像閲覧装置は、画像を「いつ」「どこで」「だれが」など、思いついた観点で表示画面を切替えながら、撮影した画像をたどりながら閲覧する機能を有し、身に付けて自動で撮影するデジタルカメラや既存のデジタルカメラやカメラ付き携帯電話のビューワ用途にも応用できる。
本発明の実施の形態1における画像閲覧装置の構成ブロック図1 本発明の実施の形態1における画像閲覧装置の動作を示すフロー図1 本発明の実施の形態1における画像閲覧装置の動作を示すフロー図2 本発明の実施の形態1における画像閲覧装置で用いる操作履歴217の具体例 本発明の実施の形態1における画像閲覧装置の画面表示図 本発明の実施の形態1における画像閲覧装置の画面遷移例 本発明の実施の形態1における画像閲覧装置の構成ブロック図2 本発明の実施の形態1における画像閲覧装置の構成ブロック図3 本発明の実施の形態1における画像閲覧装置の構成ブロック図4 本発明の実施の形態2における画像閲覧装置の画面表示図 本発明の実施の形態2における画像閲覧装置の構成ブロック図 本発明の実施の形態2における画像閲覧装置の動作を示すフロー図 本発明の実施の形態2における画像閲覧装置の人の移動履歴の分類例 本発明の実施の形態2における画像閲覧装置の人の移動履歴の滞在に関するクラスタリング図 本発明の実施の形態2における画像閲覧装置の人の移動履歴の滞在クラスタリングと移動の関連図 本発明の実施の形態2における画像閲覧装置の疑似体験コンテンツ作成部1107の動作を示すフロー図 本発明の実施の形態3における画像閲覧装置の構成ブロック図1 本発明の実施の形態3における画像閲覧装置の動作を示すフロー図1 本発明の実施の形態3における画像閲覧装置の構成ブロック図2 本発明の実施の形態3における画像閲覧装置の動作を示すフロー図2 本発明の実施の形態3における画像閲覧装置の構成ブロック図3 本発明の実施の形態1における画像閲覧装置、及び、全体システム構成図 従来の実施例における位置、場所による画像管理と場所とイベントの管理方法を示す概念図 従来の実施例における大くくりな場所管理により作成された画面表示図 本発明の実施の形態3における画像閲覧装置の動作を示すフロー図3
符号の説明
102 特徴抽出部
103 メタデータ作成部
105 画面作成部(画面を作成する手段)
106 操作情報管理部(操作内容を管理する手段)
107 クラスタリング部(検索する手段)
1105 外部情報取得部
1107 疑似体験コンテンツ作成部
1111 クエリー作成部
1803 検索部
1804 測位部
1805 向き計測部
2308 画像統合部
2305 画像抽出部
2401 閲覧装置
2402 本棚
2403 外部インターフェース
2404 電源
2405 カメラ
2406 カメラを接続するためのドック

Claims (14)

  1. 複数の分類方法により分類された画像を、各分類ごとに表示するための画面を作成する手段と、
    各表示手段の操作内容を管理する手段と、
    前期操作内容を基に、必要な画像情報を検索する手段と、
    前記画面を作成する手段は、前記検索する手段が得た画面情報を用いて、他の分類の画面を作成する、
    ことを備えた画像閲覧方法
  2. 画像と画像を撮影したときの位置と時刻情報の受信手段と、
    前記画像から特徴情報を抽出する特徴抽出手段と、
    前記特徴抽出手段が抽出した情報と、前記画像を撮影したときの位置と時刻情報を用い、複数の分類方法により画像を分類するためのメタデータを生成するメタデータ生成手段と、
    前記画像と前記画像を撮影したときの位置と時刻情報を用いて画面を作成する画面作成手段と、前記画面作成手段が作成した画面を表示する表示手段と、
    画面の表示範囲の切替え操作を入力する入力手段、
    画面の操作情報を管理する操作情報管理手段と、
    前記メタデータと前記操作情報により、他の分類の画面を作成するために必要な画面情報を検索するクラスタリング手段と、
    前記画面作成手段は、前記画面情報と前記画像と前記位置と時刻情報を用いて、他の分類の画面を作成する、
    ことを特徴とする画像閲覧方法
  3. 画像を撮影した位置と時刻、及び、画像から得られる人物の顔特徴を用いて、画像を分類し、各画面を作成することを特徴とする、請求項1、請求項2に記載の画像閲覧方法
  4. 作成される画面には、各画面に切替えるためのボタンがあり、ボタンがクリックされると、各画面の操作情報を基に、表示範囲を同一にして、各画面に切替わることを特徴とする請求項1、請求項2、請求項3に記載の画像閲覧方法
  5. 画像と画像を分類するためのメタデータを記憶する記憶手段と、
    1以上の場所を入力する入力手段と、
    入力時の外部情報を得る外部情報取得手段と、
    前記入力手段と前記外部情報取得手段が得た情報からクエリーを作成するクエリー作成手段と、
    前記メタデータとクエリーを基に、画像を選択し、つなぎ合わせることで、疑似体験コンテンツとして作成する疑似体験コンテンツ作成手段と、
    前記体験コンテンツの画面作成手段と、その表示手段と、
    を備えた画像閲覧方法
  6. 疑似体験コンテンツ作成手段は、前記クエリーの中の場所、及び、場所間と分けて、前記メタデータの中で一致する画像を検索することを特徴とする、請求項5記載の画像閲覧方法
  7. 疑似体験コンテンツ作成手段は、前期クエリーの中の場所を回る順番を、メタデータの多さにより判定することを特徴とする、請求項5、請求項6記載の画像閲覧方法
  8. 疑似体験コンテンツ作成手段は、前記クエリーに指定される、場所を回る順番、交通手段、滞在時間を基に、最適な疑似体験コンテンツを作成することを特徴とする、請求項5、請求項6、請求項7記載のコンテンツ閲覧方法
  9. 画像と画像を撮影したときの位置と時刻情報と向き情報の受信手段と、
    前記画像と位置と時刻と向き情報を関連付けて記憶する記憶手段と、
    画像を閲覧するための閲覧装置の位置を測位する測位手段と、同じく向きを計測する向き計測手段と、
    同じく、閲覧する画像の時間帯を入力する時刻入力手段と、
    前記位置と前記向きと前記時間帯と、前記記憶手段に記憶される前期位置と時刻と向き情報を用いて、それぞれが一致する画像を検索する検索手段と、
    前記検索手段の検索情報を基に、記憶手段に記憶される画像を用いて、表示画面を作成する画面作成手段と、その表示手段と、
    を備えた画像閲覧方法
  10. 前記位置と前記向きは、任意に指定可能とすることを特徴とする請求項9に記載の画像閲覧方法
  11. 前記画像を、前記位置、及び、前記向きを基に、統合された広角の統合画像とする画像統合手段と、
    前記画面作成手段は、前記検索手段の検索情報を基に、前記統合画像中の必要な領域を指定する機能を有し、
    統合画像から前記必要な領域を抽出する画像抽出手段と、
    を具備することを特徴とする画像閲覧方法
  12. 請求項1〜請求項11のいずれかに記載の画像閲覧方法により画像を閲覧する画像閲覧装置
  13. 請求項1〜請求項11のいずれかに記載の画像閲覧方法を実行させるためのプログラム
  14. 請求項13に記載のプログラムを記録した記録媒体
JP2006047109A 2006-02-23 2006-02-23 無意識に撮影された画像の閲覧装置及び方法 Pending JP2007226555A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006047109A JP2007226555A (ja) 2006-02-23 2006-02-23 無意識に撮影された画像の閲覧装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006047109A JP2007226555A (ja) 2006-02-23 2006-02-23 無意識に撮影された画像の閲覧装置及び方法

Publications (1)

Publication Number Publication Date
JP2007226555A true JP2007226555A (ja) 2007-09-06

Family

ID=38548318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006047109A Pending JP2007226555A (ja) 2006-02-23 2006-02-23 無意識に撮影された画像の閲覧装置及び方法

Country Status (1)

Country Link
JP (1) JP2007226555A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086736A (ja) * 2007-09-27 2009-04-23 Olympus Corp サーバ装置
JP2009237703A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp 画像出力方法、装置およびプログラム
JP2009296248A (ja) * 2008-06-04 2009-12-17 Olympus Imaging Corp 画像表示装置及び画像表示システム
WO2012042814A1 (ja) * 2010-10-01 2012-04-05 パナソニック株式会社 分類装置及び分類方法
JP2012103963A (ja) * 2010-11-11 2012-05-31 Buffalo Inc コンテンツデータ管理装置、コンテンツデータ管理システム、コンテンツデータ管理プログラム、コンテンツデータ管理方法
JP2013003899A (ja) * 2011-06-17 2013-01-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014199599A (ja) * 2013-03-29 2014-10-23 富士通株式会社 コンテンツ取得装置、情報処理装置、コンテンツ管理方法、コンテンツ管理プログラム
JP2015520472A (ja) * 2012-06-25 2015-07-16 グーグル インコーポレイテッド 出席者によるイベントの検索
JP2015165422A (ja) * 2015-05-07 2015-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017224310A (ja) * 2017-07-13 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム。
JP2018170038A (ja) * 2018-07-05 2018-11-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム。
JP2020113310A (ja) * 2020-03-23 2020-07-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086736A (ja) * 2007-09-27 2009-04-23 Olympus Corp サーバ装置
JP2009237703A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp 画像出力方法、装置およびプログラム
JP2009296248A (ja) * 2008-06-04 2009-12-17 Olympus Imaging Corp 画像表示装置及び画像表示システム
JP5784585B2 (ja) * 2010-10-01 2015-09-24 パナソニック株式会社 分類装置及び分類方法
WO2012042814A1 (ja) * 2010-10-01 2012-04-05 パナソニック株式会社 分類装置及び分類方法
US8793204B2 (en) 2010-10-01 2014-07-29 Panasonic Corporation Classification device and classification method
JP2012103963A (ja) * 2010-11-11 2012-05-31 Buffalo Inc コンテンツデータ管理装置、コンテンツデータ管理システム、コンテンツデータ管理プログラム、コンテンツデータ管理方法
CN107273399A (zh) * 2011-06-17 2017-10-20 索尼公司 信息处理设备、信息处理方法和程序
US9275057B2 (en) 2011-06-17 2016-03-01 Sony Corporation Information processing device, information processing method, and program
JP2013003899A (ja) * 2011-06-17 2013-01-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
US10817541B2 (en) 2011-06-17 2020-10-27 Sony Corporation Information processing device, information processing method, and program
US11573984B2 (en) 2011-06-17 2023-02-07 Sony Group Corporation Information processing device, information processing method, and program
JP2015520472A (ja) * 2012-06-25 2015-07-16 グーグル インコーポレイテッド 出席者によるイベントの検索
JP2014199599A (ja) * 2013-03-29 2014-10-23 富士通株式会社 コンテンツ取得装置、情報処理装置、コンテンツ管理方法、コンテンツ管理プログラム
JP2015165422A (ja) * 2015-05-07 2015-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017224310A (ja) * 2017-07-13 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム。
JP2018170038A (ja) * 2018-07-05 2018-11-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム。
JP2020113310A (ja) * 2020-03-23 2020-07-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP7220171B2 (ja) 2020-03-23 2023-02-09 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2007226555A (ja) 無意識に撮影された画像の閲覧装置及び方法
US20140176606A1 (en) Recording and visualizing images using augmented image data
US6906643B2 (en) Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia
US6504571B1 (en) System and methods for querying digital image archives using recorded parameters
JP5053404B2 (ja) 関連メタデータに基づくデジタル画像のキャプチャと表示
KR101557297B1 (ko) 장치에 내장된 3d 콘텐츠 집계
JP4577173B2 (ja) 情報処理装置および方法、並びにプログラム
CN108235765A (zh) 一种故事相册的显示方法及装置
US20050104976A1 (en) System and method for applying inference information to digital camera metadata to identify digital picture content
US20110050909A1 (en) Photographer's guidance systems
US9852343B2 (en) Imaging apparatus, display method, and storage medium
JP2012514797A (ja) 捕獲位置に基づくデジタル画像の編成
US20140281929A1 (en) Theme-based media content generation system and method
US20090136226A1 (en) Camera with photo tracklog producing function and method for producing photo tracklog
CN112422804B (zh) 视频特效生成方法及终端
JP2004289825A (ja) 周知の写真撮影場所で撮影された画像からの拡張写真製品の製造
Lu et al. GeoUGV: User-generated mobile video dataset with fine granularity spatial metadata
JP5987357B2 (ja) サーバ、電子機器システムおよびプログラム
US20150242767A1 (en) Aerial view, web-based trip planning techniques using geotagged video and images syncd to a map
JP2007266902A (ja) カメラ
JP2003099434A (ja) 電子アルバム装置
CN109658486A (zh) 图像处理方法及装置、存储介质
JP4976036B2 (ja) 画像検索支援装置
Zhang et al. Annotating and navigating tourist videos
JP2008278228A (ja) 撮影意図を視覚化するデジタルカメラ