JP2009060337A - 電子カメラ、表示装置 - Google Patents

電子カメラ、表示装置 Download PDF

Info

Publication number
JP2009060337A
JP2009060337A JP2007225303A JP2007225303A JP2009060337A JP 2009060337 A JP2009060337 A JP 2009060337A JP 2007225303 A JP2007225303 A JP 2007225303A JP 2007225303 A JP2007225303 A JP 2007225303A JP 2009060337 A JP2009060337 A JP 2009060337A
Authority
JP
Japan
Prior art keywords
information
electronic camera
image
digital camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007225303A
Other languages
English (en)
Other versions
JP5007631B2 (ja
JP2009060337A5 (ja
Inventor
Isao Takahashi
高橋  功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007225303A priority Critical patent/JP5007631B2/ja
Publication of JP2009060337A publication Critical patent/JP2009060337A/ja
Publication of JP2009060337A5 publication Critical patent/JP2009060337A5/ja
Application granted granted Critical
Publication of JP5007631B2 publication Critical patent/JP5007631B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

【課題】所望の情報を簡単に検索して表示することができる電子カメラを提供する。
【解決手段】デジタルカメラは、位置に関するデータを有する情報を、サーバ装置またはメモリカード115に記録された時空データベースからCPU101に入力する。そして、GPSセンサ107により受信されたGPS信号に基づいて位置を検出し、検出された位置に基づいて入力した情報を検索して、検索した情報をCCD113で撮像した画像と共にモニタ104に表示する。
【選択図】図3

Description

本発明は、電子カメラおよび表示装置に関する。
従来、カメラに記録されている撮影画像等の各種情報の中から、所望の情報を検索するための様々な方法が提案されている。特許文献1には、ファイル名、撮影日時、名前などのキーワードをユーザが入力すると、そのキーワードに基づいて、記録されている撮影画像の中から該当する画像を検索する電子カメラが開示されている。
特開2006−166193号公報
特許文献1に開示される電子カメラでは、検索用のキーワードを入力しなければならないため、ユーザにとって煩わしい。そこで、キーワードを入力しなくても所望の情報を簡単に検索して表示できる電子カメラが求められている。
請求項1の発明による電子カメラは、位置に関するデータを有する情報を入力する入力部と、被写体を撮像する撮像部と、撮像部の位置を検出する位置検出部と、位置検出部で検出した位置に基づいて、情報を検索する検索部と、情報の有する位置に関するデータに応じて、検索部で検索した情報を撮像部で撮像した画像と共に表示する表示部とを有する。
請求項2の発明は、請求項1に記載の電子カメラにおいて、表示部は、上記の情報を、その情報が有する位置データに対応した画像中の位置に配置するものである。
請求項3の発明は、請求項1または請求項2に記載の電子カメラにおいて、情報は、位置検出部で検出した位置に関する情報を有する撮像部で撮像した画像であることとするものである。
請求項4の発明は、請求項1〜3のいずれか一項に記載の電子カメラにおいて、電子カメラの向きを検出する向き検出部をさらに備え、検索部は、位置検出部で検出された位置と、向き検出部で検出された向きとに基づいて、情報を検索するものである。
請求項5の発明は、請求項4に記載の電子カメラにおいて、向き検出部は、水平方向と垂直方向の少なくともいずれか一方について検出し、検索部は、位置検出部により検出された位置と、向き検出部により検出された向きとに基づいて、情報を検索するものである。
請求項6の発明は、請求項1から請求項5のいずれか一項に記載の電子カメラにおいて、電子カメラの傾きを検出する傾き検出部をさらに有し、情報は、情報が作成された時間データを有し、検索部は、傾き検出部で検出した傾きに応じて、検索する情報が作成された時間範囲を変更するものである。
請求項7の発明は、請求項1から請求項6のいずれか一項に記載の電子カメラにおいて、画像はスルー画であることとするものである。
請求項8の発明は、請求項7に記載の電子カメラにおいて、表示部は、所定の切り替え条件を満たしたときに、予め記憶された背景画像をスルー画から切り替えて表示するものである。
請求項9の発明は、請求項8に記載の電子カメラにおいて、切り替え条件は、電子カメラの向きまたは周囲の明るさに応じて設定されるものである。
請求項10の発明は、請求項1〜9いずれか一項に記載の電子カメラにおいて、情報は、撮影画像、文字または音声の少なくともいずれかであることとするものである。
請求項11の発明は、請求項1〜10いずれか一項に記載の電子カメラにおいて、表示部は、検索部により検索された撮影画像の撮影範囲をさらに表示するものである。
請求項12の発明は、請求項1〜11いずれか一項に記載の電子カメラにおいて、情報は、電子カメラに装填された記録媒体、または電子カメラと無線通信により接続されるサーバ装置に格納されているものである。
請求項13の発明による表示装置は、位置に関するデータを有する情報を入力する入力部と、被写体を撮像した画像を入力する画像入力部と、位置を検出する位置検出部と、位置検出部で検出した位置に基づいて、情報を検索する検索部と、情報の有する位置に関するデータに応じて、検索部で検索した情報を画像と共に表示する表示部とを有する。
本発明によれば、所望の情報を簡単に検索して表示することができる。
以下に図面を用いて本発明の電子カメラについて説明する。図1は、本発明の一実施形態によるデジタルカメラを含むカメラシステムの構成図である。図1に示すカメラシステムは、デジタルカメラ1、アクセスポイント2およびサーバ装置3によって構成される。アクセスポイント2とサーバ装置3は、インターネットを介して接続されている。
デジタルカメラ1は、ユーザの撮影指示に応じて被写体を撮影し、撮影画像情報を取得する電子カメラである。また、デジタルカメラ1は、アクセスポイント2と無線通信を行うための無線通信機能を有している。この無線通信により、アクセスポイント2およびインターネットを介して、デジタルカメラ1とサーバ装置3が接続される。なお、デジタルカメラ1の構成については、後で図2および図3を用いて詳細に説明する。
アクセスポイント2は、デジタルカメラ1を含む無線通信機能を備えた各種の機器がインターネット等のネットワークを利用して通信できるようにするための装置である。デジタルカメラ1とアクセスポイント2が無線通信を行うことにより、前述のようにデジタルカメラ1とサーバ装置3が接続される。
サーバ装置3は、時空データベースと呼ばれる情報のデータベースを格納している。この時空データベースには、様々な情報がその情報の取得位置および取得時刻と関連付けて記録されている。たとえば、デジタルカメラ1または他のカメラによって取得された撮影画像情報や、文字情報、音声情報などが、その取得位置および取得時刻と関連付けて時空データベースに記録されている。
次に、デジタルカメラ1の構成について説明を行う。図2は、デジタルカメラ1の外観を示す図である。図2の外観図において、デジタルカメラ1は、シャッターボタン11、電源ボタン12、ズームボタン13、再生ボタン14、メニューボタン15、削除ボタン16、ジョグダイヤル17、決定ボタン18、LAN(Local Area Network)アクセス用LED(Light Emitting Diode)19、ストロボ充電用LED20、AF(Auto Focus)用LED21、メモリアクセス用LED22、電源用LED23およびモニタ104を備える。
シャッターボタン11は、ユーザがデジタルカメラ1に対して撮影の指示などを行うための操作ボタンであり、半押し、全押しの2段階のスイッチを有する。電源ボタン12は、ユーザがデジタルカメラ1のメイン電源をオンからオフに、またはオフからオンに切り替えるための操作ボタンである。ズームボタン13は、ユーザがデジタルカメラ1の撮影レンズの焦点距離を変化させる際などに使用する操作ボタンである。
再生ボタン14は、ユーザがデジタルカメラ1に画像データの再生指示などを行うための操作ボタンである。メニューボタン15は、ユーザがデジタルカメラ1に対してメニュー画面の呼び出し指示などを行うための操作ボタンである。削除ボタン16は、ユーザがデジタルカメラ1に装填されたメモリカードから画像データを削除する際などに用いられる操作ボタンである。
ジョグダイヤル17は、画面中のカーソルの移動指示などをユーザが行うための回転可能な操作部材である。決定ボタン18は、ユーザがメニュー画面において設定内容の決定などを行うための操作ボタンである。
LANアクセス用LED19は、デジタルカメラ1がアクセスポイント2と無線通信を行っているときなどに点灯する表示装置である。LANアクセス用LED19が点灯することにより、デジタルカメラ1が通信中であることをユーザに知らせることができる。ストロボ充電用LED20は、ストロボの充電中に点灯する表示装置である。ストロボ充電用LED20が撮影前に点灯することにより、ストロボ充電中であり撮影準備が完了していないことをユーザに知らせることができる。
AF用LED21は、AFの合焦状態をユーザに知らせるための表示装置である。メモリアクセス用LED22は、メモリアクセス状態のとき、すなわち、デジタルカメラ1に装填されたメモリカードにデータを書き込んでいるとき、および、メモリカードからデータを読み込んでいるときに点灯する表示装置である。電源用LED23は、デジタルカメラ1が電源投入状態のときに点灯する表示装置である。
モニタ104は、LCD(Liquid Crystal Display)等を用いたカラー表示装置であり、各種の画像を表示する。たとえば、モニタ104がスルー画像を表示することにより、モニタ104は撮影時のビューファインダとして用いられる。なお、スルー画像(スルー画)とは、後で説明する撮影モードや情報検索モードなどの動作モードがデジタルカメラ1において設定されているときに、リアルタイムでモニタ104に表示される被写体の撮影画像である。さらに、モニタ104は、撮影画像の再生表示や、メニュー画面の表示等を行うこともできる。
図3は、デジタルカメラ1のブロック図である。このブロック図に示すように、デジタルカメラ1は、CPU101、圧縮/伸張回路102、表示ドライバ103、モニタ104、キー入力部105、無線LAN回路106、GPS(Global Positioning System)センサ107、モーションセンサ108、コンデンサ109、バッテリ110、ストロボ111、CCD(Charge Coupled Device)ドライバ112、CCD113およびメモリ114を有している。また、記録媒体であるメモリカード115が不図示のカードスロットに装填されている。
CPU101は、様々な処理や制御を実行するための回路であり、マイコン等を用いて構成される。圧縮/伸張回路102は、撮影画像データの圧縮/伸張を行う回路である。表示ドライバ103は、モニタ104に表示する映像をコントロールする駆動回路である。キー入力部105は、デジタルカメラ1に設けられたボタン、スイッチ、ダイヤル等の操作を検出する回路である。
無線LAN回路106は、無線で外部機器と通信するための通信回路である。この無線LAN回路106によってアクセスポイント2との間で無線通信を行うことにより、デジタルカメラ1がインターネットを介してサーバ装置3に接続される。
GPSセンサ107は、GPS衛星から送信されるGPS信号を受信し、CPU101へ出力する。このGPS信号に基づいて、CPU101においてデジタルカメラ1の現在位置が検出される。モーションセンサ108は、デジタルカメラ1の姿勢変化を、ピッチ、ヨー、ロールの各方向について検出する。なお、デジタルカメラ1において光軸を水平方向に向けたときに、ピッチ方向の姿勢変化は、その光軸と水平に直交する軸回りの姿勢変化、すなわち仰角の変化を表し、ヨー方向の姿勢変化は、その光軸と垂直に直交する軸回りの姿勢変化、すなわち方位角の変化を表している。また、ロール方向の姿勢変化は、光軸回りの姿勢変化、すなわちデジタルカメラ1の傾きの変化を表している。
コンデンサ109は、バッテリ110からの電力を受けて充電し、ストロボ111の発光に使用する。また、緊急時のバックアップ電源としてカメラの駆動に使用する。バッテリ110は、デジタルカメラ1を動作させるために必要な電力を供給するリチウムイオン充電池等の電源である。
ストロボ111は、被写体に補助光を照射することにより暗い環境でも撮影を可能にする。CCDドライバ112は、CCD113を駆動するための回路である。CCD113は、撮影レンズを介した被写体像を撮像するための撮像素子である。CCD113によって被写体像が撮像されると、CCD113からCCDドライバ112へ撮像信号が出力される。この撮像信号は、CCDドライバ112において撮像画像データに変換された後、CPU101へ出力される。
メモリ114は、不揮発性の半導体メモリであり、CPU101が実行する制御に用いるためのプログラムやデータ等を記憶している。メモリカード115は、CPU101の制御により、デジタルカメラ1によって取得された撮影画像情報など各種の情報が記録される。なお、メモリカード115には、前述の図1のサーバ装置3と同様に、取得位置および取得時刻と関連付けて情報が記録されている。すなわち、メモリカード115には、デジタルカメラ1において取得された情報による時空データベースが格納されている。
続いて、デジタルカメラ1の動作について説明する。デジタルカメラ1は、撮影画像を取得するための撮影モードや、時空データベースから情報を検索するための情報検索モードなど、様々な動作モードをユーザの操作に応じて設定することができる。
撮影モードが設定されている場合、デジタルカメラ1は、被写体の撮影を行う前には、CCD113によって撮像された被写体の像に基づいて、前述したようにスルー画像を取得し、モニタ104に表示する。シャッターボタン11をユーザが操作することによって撮影指示が行われると、デジタルカメラ1はその撮影指示に応じて、被写体を撮影して撮影画像を取得し、取得した撮影画像の情報をメモリカード115に記録する。
メモリカード115に撮影画像情報を記録する際、デジタルカメラ1は、その撮影画像情報に撮影時の様々な情報をメタ情報として付加する。たとえば、撮影時刻、撮影画像の画角、焦点距離、シャッター速度、主要被写体の位置、主要被写体までの距離など、様々な情報をメタ情報として撮影画像情報に付加して、メモリカード115に記録する。このメタ情報には、GPSセンサ107を用いて撮影時に検出されたデジタルカメラ1の位置情報も含まれる。すなわち、CCD113で撮像した画像は、GPSセンサ107から出力されたGPS信号に基づいてCPU101で検出された位置に関する情報(データ)をメタ情報として有している。このようなメタ情報が付加された撮影画像情報がメモリカード115に記録されることで、デジタルカメラ1において取得された撮影画像の情報が、その取得位置および取得時刻と関連付けて、メモリカード115の時空データベースに記録される。
さらにこのとき、デジタルカメラ1は、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、撮影時のデジタルカメラ1の向きを検出する。このとき、デジタルカメラ1の水平方向の向きを表す方位角と、デジタルカメラ1の鉛直方向の向きを表す仰角とを求めることにより、撮影時のデジタルカメラ1の向きを検出する。こうして検出された撮影時の向きの情報をメタ情報に加えることで、撮影画像情報をさらに取得方向と関連付けてメモリカード115の時空データベースに記録してもよい。
なお、メモリカード115に記録された撮影画像情報の一部を、ユーザの操作に応じてデジタルカメラ1からサーバ装置3へ送信し、サーバ装置3において時空データベースに記録するようにしてもよい。このとき、撮影画像を取得したときに検出されたデジタルカメラ1の位置や向き、時間などの情報が、撮影画像情報と共にメタ情報として送信される。これらのメタ情報を撮影画像情報と共に記録することにより、サーバ装置3の時空データベースにおいて、撮影画像情報がその取得位置、取得時間、取得方向などと関連付けて記録される。すなわち、メモリカード115またはサーバ装置3の時空データベースには、位置に関するデータや、向きに関するデータ、当該情報が作成された時間データなどを、メタ情報として有する情報が記録されている。
一方、情報検索モードが設定されている場合、デジタルカメラ1は、サーバ装置3またはメモリカード115に格納された時空データベースから、所定の検索条件を満たす情報を検索して抽出する。そして、抽出した情報をスルー画像に重ねてモニタ104に表示し、ユーザに提示する。なお、サーバ装置3の時空データベースから抽出された情報は、インターネットおよびアクセスポイント2を介してデジタルカメラ1へ送信される。
デジタルカメラ1は、時空データベースから情報を検索する際の検索条件の一つとして、情報の取得位置に対する検索対象エリアを設定することができる。この検索対象エリアは、GPSセンサ107により受信されたGPS信号に基づくデジタルカメラ1の現在位置(カメラ位置)と、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づく光軸の向き(カメラ向き)とに基づいて設定される。具体的には、現在のカメラ位置を視点に設定し、その視点からカメラ向きの方向に向かって延びる所定長さのベクトルを視線ベクトルとする。この視線ベクトルを中心とする所定の空間範囲を、検索対象エリアに設定する。なお、視点から離れるほど検索対象エリアを広くなるように設定する。または、その逆のどちらでも良い。
上記の検索対象エリアの設定において、水平方向のカメラ向き、すなわち方位角のみを利用してもよい。すなわち、水平方向については所定の空間範囲を検索対象エリアとし、垂直方向については全空間範囲を検索対象エリアに含めることができる。あるいは、水平方向のカメラ向きに加えて、垂直方向のカメラ向き、すなわち仰角も利用して、水平方向と垂直方向のそれぞれについて所定の空間範囲を検索対象エリアに設定してもよい。さらに、カメラ向きを利用せず、カメラ位置のみに基づいて検索対象エリアを設定するようにしてもよい。すなわち、現在のカメラ位置を中心とする所定の範囲を検索対象エリアに設定してもよい。
また、検索条件の設定において、以上説明したような検索対象エリアに加えて、さらに情報の取得時刻(作成時刻)に対する検索対象時間を設定するようにしてもよい。すなわち、過去から現在までの間で所定の時間範囲を設定し、その時間範囲を検索対象時間とすることで、検索条件を設定する。この検索対象時間の範囲は、モーションセンサ108により検出されたデジタルカメラ1の光軸回りの傾き(カメラ傾き)に基づいて、次のようにして設定される。
現在のカメラ傾きがほぼ0である場合、すなわちユーザがデジタルカメラ1をほぼ真っ直ぐに向けて構えている場合は、現在から所定の時間範囲、たとえば1年前までの時間範囲を検索対象時間に設定する。その状態からユーザがデジタルカメラ1を右回りに傾けると、検索対象時間の範囲を次第に過去に遡って変化させる。このとき、カメラ傾きの角度が大きくなるほど、それに応じて検索対象時間の範囲を大きく変化させるようにしてもよい。たとえば、カメラ傾きの角度に対して、10°、20°および30°の三段階のしきい値を設定しておく。そして、カメラ傾きの角度が10°以上20°未満のときには一ヶ月ずつ、20°以上30°未満のときには半年ずつ、30°以上のときには一年ずつ、それぞれ所定のタイミングごとに、検索対象時間の範囲を過去に遡って変化させる。反対に、ユーザがデジタルカメラ1を左回りに傾けると、検索対象時間の範囲を過去から現在に向かって次第に変化させる。このときも同様に、カメラ傾きの角度が大きくなるほど、検索対象時間を大きく変化させることができる。
以上説明したような検索条件がデジタルカメラ1において設定されると、その検索条件を満たす情報が、サーバ装置3またはメモリカード115に格納された時空データベースから抽出される。すなわち、検索条件として設定された検索対象エリア内の取得位置に関連付けられた情報や、検索条件として設定された検索対象時間内の取得時刻(作成時刻)に関連付けられた情報が、時空データベースから検索されて抽出される。このとき、最初にメモリカード115の時空データベースを検索し、該当する情報が抽出されなかった場合は、サーバ装置3の時空データベースを検索するようにしてもよい。あるいは、メモリカード115とサーバ装置3の時空データベースを共に検索するようにしてもよい。なお、サーバ装置3の時空データベースを検索する場合には、デジタルカメラ1において設定された検索条件が、アクセスポイント2およびインターネットを介してサーバ装置3へ送信される。また、サーバ装置3の時空データベースから抽出された情報は、インターネットおよびアクセスポイント2を介してデジタルカメラ1へ送信される。
デジタルカメラ1は、サーバ装置3またはメモリカード115の時空データベースから上記のようにして抽出された情報を、スルー画像に重ねてモニタ104に表示する。これにより、時空データベースから検索されて抽出された情報がユーザに対して提示される。
あるいは、時空データベースに記録された情報をデジタルカメラ1のCPU101に入力し、その情報をデジタルカメラ1において検索するようにしてもよい。たとえば、デジタルカメラ1の現在位置から所定範囲内に対応する情報を時空データベースからデジタルカメラ1へ送信し、デジタルカメラ1において記憶しておく。この情報の中から、前述のようにして設定された検索条件を満たす情報を検索し、スルー画像と共に表示することとしてもよい。
なお、時空データベースから検索される情報は、デジタルカメラ1によって取得された撮影画像の情報に限らない。たとえば、他のカメラによる撮影画像の情報や、撮影画像以外の文字情報や音声情報などを時空データベースに記録しておき、検索するようにしてもよい。取得位置および取得時刻と関連付けて時空データベースに記録されている情報であれば、どのような情報であっても検索対象とすることができる。すなわち、CPU101は、位置に関するデータを有する様々な情報を時空データベースから入力して検索することができる。
図4は、撮影モードが設定されたときにモニタ104に表示されるスルー画像の例である。撮影モードにおいてシャッターボタン11が押されていないときには、このようなスルー画像が表示される。一方、図5は、情報検索モードが設定されたときのモニタ104における表示画面の例である。このような表示画面を、以下ではブラウザビュー画面と称する。
図5のブラウザビュー画面では、図4のスルー画像に重ねて、立体的な視覚効果を与えるためのグリッド線が表示される。これにより、画面上に擬似的な立体空間(以下、擬似立体空間と称する)が表現される。さらに、この擬似立体空間の所定の領域には、空間カーソル30が表示される。
ブラウザビュー画面における擬似立体空間の範囲は、前述のカメラ位置およびカメラ向きに応じて決定される。すなわち、デジタルカメラ1は、GPSセンサ107により受信されたGPS信号に基づいて検出された現在のカメラ位置を視点とし、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づく現在のカメラ向きを視線ベクトルとして、実空間における表示対象範囲を設定する。このときの表示対象範囲は、時空データベースから抽出された情報を全て表示できるようにするため、前述の検索対象エリアと同じ大きさか、それよりも小さくすることが好ましい。こうして設定された表示対象範囲に対応する擬似立体空間を、スルー画像に重ねてモニタ104の画面上に表現する。このように、ブラウザビュー画面における擬似立体空間の範囲は、現在のカメラ位置およびカメラ向きに応じた実空間上の表示対象範囲に対応して設定される。したがって、擬似立体空間の範囲は、スルー画像の表示範囲と一致している。
ブラウザビュー画面において、空間カーソル30は、モーションセンサ108によって検出されるデジタルカメラ1の姿勢変化に応じて、擬似立体空間内を自在に移動する。たとえば、デジタルカメラ1のヨー方向の姿勢変化、すなわち方位角の変化に応じて、グリッド線が引かれた平面上を左右方向に移動する。また、デジタルカメラ1のピッチ方向の姿勢変化、すなわち仰角の変化に応じて、グリッド線が引かれた平面上を奥行き方向に移動する。これにより、ユーザはデジタルカメラ1を直感的に操作して、空間カーソル30を擬似立体空間内で思い通りに移動させることができる。
なお、空間カーソル30を擬似立体空間内でさらに上下方向に移動させるようにしてもよい。たとえば、デジタルカメラ1のピッチ方向の姿勢変化に応じて、空間カーソル30を上下方向に移動させる。このとき奥行き方向の移動は、たとえばズームボタン13の操作に応じて行うようにする。あるいは、デジタルカメラ1の姿勢変化によらず、ジョグダイヤル17の操作や、図示しない十字キーの操作などに応じて、空間カーソル30を移動させるようにしてもよい。
以上説明した図5のブラウザビュー画面には、時空データベースから抽出された情報を表すアイコン31〜36が、それぞれ擬似立体空間内で所定の位置に表示されている。これらの各アイコンの表示位置は、各アイコンが表す情報の取得位置、すなわち、当該情報と関連付けて時空データベースに記録された取得位置に対応して決定される。言い換えると、アイコン31〜36は、実空間における当該情報の取得位置に対応する擬似立体空間内の位置にそれぞれ表示される。すなわち、アイコン31〜36が表す各情報は、各情報が有するメタ情報の位置データに対応したスルー画像中の位置に配置される。
アイコン31〜34は、いずれも撮影画像情報、すなわちデジタルカメラ1のCCD113や他のカメラの撮像素子で撮像した画像を表している。アイコン31および34の撮影画像には、それぞれ主要被写体として山が撮影されており、アイコン32の撮影画像には、主要被写体として人の顔が撮影されており、アイコン33の撮影画像には、主要被写体として木が撮影されている。撮影画像情報を表すこれらの各アイコンは、いずれも立体的な形状のアイコン(立体アイコン)として表示される。一方、平面的な形状により表示されるアイコン35とアイコン36は、撮影画像情報以外の情報を表している。アイコン35は文字情報を表しており、アイコン36は音声情報を表している。
アイコン31は、直方体状の立体アイコンであり、撮影画像を縮小したサムネイル画像が一つの面に貼り付けられている。このように立体面に貼り付けられる画像は、テクスチャと呼ばれている。アイコン31では、この直方体により、撮影画像における撮影条件を表現している。たとえば、直方体の向き(テクスチャ面の向き)は、撮影方向を表しており、直方体の厚さ(テクスチャ面に対する厚み方向の長さ)は、撮影画像の被写界深度を表しており、直方体の大きさ(テクスチャ面の大きさ)は、撮影画像における画角を表している。なお、木の撮影画像を表すアイコン33も同様である。
以上説明したようなアイコン31および33をブラウザビュー画面において表示することで、デジタルカメラ1のユーザは、その撮影画像が取得されたときの撮影条件を直感的にかつ容易に把握することができる。なお、上記のような撮影条件の情報は、撮影位置や撮影時刻の情報と共に撮影時に取得され、前述のメタ情報の一部として、撮影画像情報と共に記録される。
一方、アイコン31と同じく、山の撮影画像を表しているアイコン34は、山を模擬した立体形状を有しており、その側面部分には、撮影画像から切り出された山の部分がテクスチャとして貼り付けられている。同様に、顔の撮影画像を表しているアイコン32は、人の頭部を模擬した球状あるいは円盤状の立体形状を有しており、その側面部分には、撮影画像から切り出された人の顔の部分がテクスチャとして貼り付けられている。
このように、デジタルカメラ1は、時空データベースから抽出された撮影画像において切り出された被写体の部分を、その被写体を模擬した形状の立体アイコンに貼り付けて表示する。これにより、デジタルカメラ1のユーザは、その立体アイコンの撮影画像に何が写っているかを直感的にかつ容易に把握することができる。なお、これらの立体アイコンの形状は一例であるため、他にも被写体の種類に応じて様々な形状とすることができる。たとえば、人物の全体像であれば人型の立体アイコン、動物であれば動物型の立体アイコンなどを用いることができる。さらに、東京タワー等の著名建造物であれば、その建造物に合わせた形状の立体アイコンを用いるようにしてもよい。
上記において、撮影画像から被写体の部分を切り出す処理は、デジタルカメラ1やサーバ装置3が主要被写体の認識処理や顔認識処理のような周知の処理手法などを用いて自動的に行うことができる。あるいは、デジタルカメラ1のユーザやサーバ装置3の管理者等が切り出し範囲を指定することで行うようにしてもよい。
文字情報を表すアイコン35には、「富士山」の文字列が表示されている。なお、文字数が多い場合は、全ての文字を表示せず、そのうち一部の文字のみを表示するようにしてもよい。一方、音声情報を表すアイコン36は、それが音声情報を表すことが分かるように、吹き出し形状の特定の図形を用いて表示されている。このとき、図形の他に文字、記号などを用いてもよい。
なお、文字情報や音声情報は、撮影画像情報とは分けて時空データベースに記録してもよいし、撮影画像情報と組み合わせて記録してもよい。たとえば、撮影画像情報に付加されて様々な情報を表す前述のメタ情報の一部として、文字情報や音声情報を時空データベースに記録することができる。このとき、撮影画像情報を時空データベースから抽出すると共に、その撮影画像のメタ情報に含まれる文字情報や音声情報も一緒に抽出し、抽出された各情報に対して図5のようなアイコンを擬似立体空間上にそれぞれ表示してもよい。このようにする場合、デジタルカメラ1やサーバ装置3において撮影画像の内容を自動的に解析し、その結果に基づいて、メタ情報として付加する文字情報や音声情報の内容を決定してもよい。たとえば、撮影画像における主要被写体を判別し、その主要被写体の名称を表す文字情報を、撮影画像のメタ情報として時空データベースに記録する。あるいは、撮影時などにデジタルカメラ1のユーザが文字や音声を入力すると、その内容を文字情報や音声情報として時空データベースに記録してもよい。
時空データベースに撮影画像情報に加えてさらに文字情報や音声情報が記録されている場合は、デジタルカメラ1の姿勢変化に応じて、抽出する情報の種類を切り替えるようにしてもよい。たとえば、デジタルカメラ1の仰角が所定の角度範囲内であれば、撮影画像情報を時空データベースから抽出してブラウザビュー画面により表示し、所定の角度範囲から外れたら、文字情報や音声情報を時空データベースから抽出してブラウザビュー画面により表示する。このようにすれば、撮影画像情報に付加されたメタ情報として文字情報や音声情報が記録されている場合であっても、撮影画像情報と文字情報や音声情報とを切り分けて時空データベースから抽出できるため、それぞれの情報を分かりやすくユーザに提示することができる。
ブラウザビュー画面が表示されているときに、ユーザがデジタルカメラ1の傾きを変化させると、前述のようにして検索対象時間が変化され、それまでとは異なる検索条件が設定される。したがって、擬似立体空間内に表示されるアイコンも、それまでとは違うものに変化する。なお、検索条件において検索対象時間を設定しない場合でも、カメラ傾きに基づいて表示対象時間を設定することで、検索対象時間を設定した場合と同様に、擬似立体空間内に表示されるアイコンをカメラ傾きに応じて変化させるようにしてもよい。たとえば、現在のカメラ傾きがほぼ0である場合、すなわちユーザがデジタルカメラ1をほぼ真っ直ぐ向けて構えている場合は、時空データベースから抽出された情報のうち、現在から所定の時間範囲、たとえば1年前までの時間範囲において作成または取得された情報のアイコンをブラウザビュー画面に表示する。この状態からユーザがデジタルカメラ1を右に傾けると、表示対象時間、すなわちブラウザビュー画面においてアイコンの表示対象とする情報の取得時間の範囲を、次第に過去に遡って変化させる。反対に、ユーザがデジタルカメラ1を左に傾けると、表示対象時間を過去から現在に向かって次第に変化させる。
シャッターボタン11が半押し操作されると、そのときブラウザビュー画面において空間カーソル30内に位置しているアイコンが選択され、選択されたアイコンの情報がモニタ104において一覧表示される。このとき表示される画面の例を図6に示す。このような表示画面を、以下ではセレクトビュー画面と称する。このセレクトビュー画面では、図5のブラウザビュー画面において空間カーソル30内に位置しているアイコン31、32、35および36が表す情報として、アイコン31と32にそれぞれ対応する撮影画像37および38と、アイコン35に対応する「富士山」の文字と、アイコン36とが一覧表示されている。
図6のセレクトビュー画面では、一覧表示された情報のうち、枠により囲われた撮影画像37が選択されている。この枠の位置は、デジタルカメラ1の操作に応じて変更することができる。たとえば、デジタルカメラ1の仰角や方位角、傾きなどの姿勢変化に応じて枠の位置を変更してもよい。あるいは、ジョグダイヤル17の操作に応じて枠の位置を変更してもよい。なお、セレクトビュー画面でもブラウザビュー画面と同様に、カメラ傾きに基づいて表示対象時間を設定することで、表示する情報の取得時間の範囲を変化させるようにしてもよい。
セレクトビュー画面においてシャッターボタン11が全押し操作されると、そのとき選択されていた情報がモニタ104に拡大表示される。このとき表示される画面を、以下ではワンビュー画面と称する。一方、シャッターボタン11の半押し操作が解除されると、図5のブラウザビュー画面に戻る。
図7は、撮影画像37が選択されたときのワンビュー画面の例を示している。シャッターボタン11の全押し操作が解除されると、図5のブラウザビュー画面に戻る。なお、図6のセレクトビュー画面において撮影画像以外の情報、すなわち文字情報や音声情報が選択された場合は、このようなワンビュー画面は表示されない。たとえば、文字情報が選択された場合は、その文字情報の内容がメタ情報として、その後に撮影された撮影画像に付加されて記録される。また、音声情報が選択された場合は、その音声情報の内容が音声出力される。
さらに、デジタルカメラ1において所定の操作をユーザが行うと、図5のブラウザビュー画面から切り替えて、各撮影画像を取得したときの撮影範囲がモニタ104に表示される。図8は、図5のブラウザビュー画面において表示されている各撮影画像について撮影範囲を表示した撮影範囲画面の例である。この撮影範囲画面では、図5のアイコン31〜34が表す各撮影画像について、それぞれの撮影位置41〜44と、撮影範囲51〜54とが平面図により表示されている。
図8の撮影範囲画面において、撮影範囲51〜54では、台形状の図形を用いてそれぞれの撮影画像における撮影範囲を表現している。たとえば、撮影範囲52において、線分521、522および523は、それぞれ撮影画像における前方被写界深度、ピント面および後方被写界深度の位置を表している。すなわち、撮影位置42と線分522の間が離れているほど、カメラから主要被写体までの距離が遠く、また線分521と線分523の間が離れているほど、被写界深度が深いことを表している。また、線分522の長さは、撮影画像の画角の大きさを表している。他の撮影範囲についても、これと同様である。なお、無限遠に合わせてピント調節されている場合は、撮影範囲54のように、ピント面と後方被写界深度の位置を表示しないようにしてもよい。
ところで、以上説明したブラウザビュー画面は、スルー画像以外の背景画像に重ねて表示するようにしてもよい。たとえば、所定の切り替え条件を満たしたときには、スルー画像から切り替えて、メモリ114によって予め記憶された背景画像をモニタ104に表示する。この背景画像に重ねて、図5のようなブラウザビュー画面を表示する。
上記の切り替え条件には、カメラ向きや周囲の明るさなどを用いることができる。たとえば、モーションセンサ108によって検出された現在のカメラ向きにおいて、仰角が所定のしきい値を超えた場合、たとえば60°以上または−60°以下になった場合に、切り替え条件を満たしたと判定する。または、スルー画像の明るさを検出することにより周囲の明るさを判断して、その明るさが所定のしきい値未満となった場合に、切り替え条件を満たしたと判定する。これ以外にも、様々な切り替え条件を用いることができる。
なお、スルー画像に切り替えて背景画像を表示する場合は、そのときの状況に応じて背景画像を変化させることが好ましい。たとえば、仰角が60°以上になった場合は、そのときのカメラ位置に応じた空や星図の画像を背景画像として表示し、仰角が−60°以上になった場合は、そのときのカメラ位置に応じた地図を背景画像として表示する。また、周囲の明るさが所定のしきい値未満となった場合は、そのときのカメラ位置に応じて、周囲の風景を模擬した背景画像を表示する。このとき、カメラ傾きに応じて、背景画像において表現されている風景の時間帯を変化させてもよい。
デジタルカメラ1は、情報検索モードが設定されると、以上説明したような処理を実行することにより、時空データベースから様々な情報を抽出して表示する。図9は、このときの処理の流れを示すフローチャートである。このフローチャートは、CPU101によって実行される。以下、図9のフローチャートについて説明する。
ステップS10では、CCD113からの撮像信号に基づく撮影画像データをCCDドライバ112から受信して、被写体のスルー画像を取得する。ステップS20では、ステップS10で取得したスルー画像をモニタ104に表示する。これにより、図4のようなスルー画像が表示される。
ステップS30では、情報検索モードが設定されているか否かを判定する。情報検索モードが設定されている場合は、次のステップS40へ進む。一方、情報検索モードが設定されておらず、撮影モードが設定されている場合は、ステップS10へ戻る。これにより、撮影モードでは図4のようなスルー画像が表示される。そして、ユーザがシャッターボタン11を操作して撮影指示を行うと、その撮影指示に応じて撮影画像が取得され、撮影画像情報がメモリカード115に記録される。
ステップS40では、カメラ位置の検出を行う。ここでは、GPSセンサ107によりGPS信号を受信することで、そのGPS信号に基づいて、デジタルカメラ1の現在位置を示すカメラ位置を検出する。次のステップS50では、カメラ姿勢の検出を行う。ここでは、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の現在の向きを示すカメラ向きと、デジタルカメラ1の現在の傾きを示すカメラ傾きとを検出する。
ステップS60では、ステップS50で検出されたカメラ姿勢に基づいて、そのときのカメラ傾きに応じた情報検索の時間範囲を前述のようにして設定する。ステップS70では、ステップS40で検出されたカメラ位置と、ステップS60で設定された時間範囲とに基づいて、前述のような方法により、時空データベースから情報を検索する際の検索条件を設定する。すなわち、カメラ位置およびカメラ向きに基づいて検索対象エリアを設定すると共に、そのときのデジタルカメラ1の傾き状態に応じて設定された情報検索の時間範囲に基づいて検索対象時間を設定することで、検索条件を設定する。なお、このとき検索対象エリアのみを設定し、検索対象時間を設定しないこととしてもよい。
ステップS80では、ステップS70で設定された検索条件に基づいて、時空データベースから情報の検索を行う。このとき、メモリカード115とサーバ装置3のいずれか一方の時空データベースから情報を検索してもよいし、両方の時空データベースから情報を検索してもよい。ステップS90では、ステップS80で検索された情報を時空データベースから抽出する。これにより、検索条件を満たす情報が抽出される。
なお、ステップS80においてサーバ装置3の時空データベースを検索する場合は、前述のように、ステップS70で設定した検索条件をサーバ装置3へ送信するようにしてもよい。あるいは、時空データベースに記録された情報をデジタルカメラ1のCPU101に入力し、その情報をデジタルカメラ1において検索するようにしてもよい。いずれかの方法で時空データベースから検索された情報が、ステップS90において抽出される。
ステップS100では、ステップS90で抽出された情報に対してアイコン作成処理を行う。このアイコン作成処理では、ステップS90で抽出された各情報の内容に応じて、図5のアイコン31〜36のようなアイコンをそれぞれ作成する。なお、このときに必要な撮影条件などの情報は、前述のように撮影画像情報に付加されたメタ情報として時空データベースに記録されている。
ステップS110では、立体化処理を行う。ここでは、ステップS40で検出されたカメラ位置と、ステップS50で検出されたカメラ姿勢とに基づいて、前述のように擬似立体空間の範囲を決定する。
ステップS120では、ブラウザビュー画面をモニタ104に表示する。ここでは、ステップS20で表示したスルー画像に重畳して、ステップS110の立体化処理で決定された擬似立体空間の範囲に対応するグリッド線および空間カーソルを表示すると共に、ステップS100で作成されたアイコンを擬似立体空間内の対応する位置にそれぞれ表示する。これにより、図6のようなブラウザビュー画面が表示される。
ステップS130では、モーションセンサ108によって検出されたカメラ姿勢に変化があるか否かを判定する。カメラ姿勢に変化がある場合はステップS140へ進む。ステップS140では、カメラ姿勢の変化に応じて、前述のようにして空間カーソル30をブラウザビュー画面内で移動させる。ステップS140を実行したら、ステップS150へ進む。一方、カメラ姿勢に変化がない場合は、ステップS140を実行せずにステップS150へ進む。
ステップS150では、シャッターボタン11の半押し操作があったか否かを判定する。ブラウザビュー画面において半押し操作があった場合はステップS160へ進み、なかった場合はステップS210へ進む。
ステップS160では、空間カーソル30内に情報があるか否かを判定する。空間カーソル30内に情報がある場合、すなわちブラウザビュー画面において空間カーソル30内にいずれかの情報を表すアイコンが表示されている場合は、ステップS170へ進む。一方、空間カーソル30内に情報がない場合は、ステップS210へ進む。
ステップS170では、ステップS160で空間カーソル30内にあると判定された情報について、図6のようなセレクトビュー画面を表示する。ステップS180では、セレクトビュー画面においてシャッターボタン11の全押し操作があったか否かを判定する。全押し操作があった場合はステップS190へ進み、なかった場合はステップS200へ進む。
ステップS190では、全押し操作があったときにセレクトビュー画面で選択されていた撮影画像について、図7のようなワンビュー画面を表示する。なお、セレクトビュー画面で撮影画像以外の文字情報や音声情報が選択されていた場合は、前述のように、ワンビュー画面を表示する代わりに、文字情報の内容をメタ情報として撮影画像に付加したり、音声出力を行ったりする。
ステップS200では、シャッターボタン11の操作が解除されたか否かを判定する。シャッターボタン11の操作が解除された場合、すなわち半押し操作や全押し操作が解除された場合は、ステップS10へ戻る。これにより、前述のような処理を繰り返して、再びブラウザビュー画面を表示する。一方、シャッター操作が解除されない場合は、ステップS170へ戻ってセレクトビュー画面の表示を続ける。なお、全押し操作されている場合は、セレクトビュー画面ではなくワンビュー画面を表示する。
ステップS210では、背景画像の切り替え条件を満たすか否かを判定する。前述したような背景画像の切り替え条件を満たす場合、すなわち、カメラ向きや周囲の明るさが所定のしきい値を超えている場合は、ステップS220へ進む。一方、切り替え条件を満たさない場合は、ステップS240へ進む。
ステップS220では、メモリ114に記憶された背景画像を読み出す。ステップS230では、ステップS20で表示したスルー画像から切り替えて、ステップS220で読み出した背景画像を表示モニタ104に表示する。このとき前述のように、状況に応じて背景画像を変化させるようにしてもよい。
ステップS240では、ユーザから撮影範囲の表示要求があったか否かを判定する。所定の操作が行われることにより撮影範囲の表示要求があった場合はステップS250へ進み、ステップS250において、図8のような撮影範囲画面をモニタ104に表示することで、各撮影画像を取得したときの撮影範囲を表示する。ステップS250を実行したら、ステップS10へ戻る。一方、所定の操作が行われず、撮影範囲の表示要求がなかった場合は、ステップS250を実行せずにステップS10へ戻る。
以上説明したように、デジタルカメラ1は、GPSセンサ107により受信されたGPS信号に基づいて、デジタルカメラ1の現在位置を示すカメラ位置を検出する(ステップS40)。そして、検出されたカメラ位置に基づいて検索条件を設定し(ステップS70)、設定された検索条件に基づいて、時空データベースからいずれかの情報を検索し(ステップS80)、抽出する(ステップS90)。こうして抽出された情報を、ブラウザビュー画面においてモニタ104に表示する(ステップS120)。したがって、検索用のキーワードを入力しなくても、所望の情報を簡単に検索して表示することができる。
以上説明した実施の形態によれば、次の作用効果を奏する。
(1)デジタルカメラ1は、CPU101の処理により、位置に関するデータをメタ情報として有する情報を時空データベースから入力する。また、デジタルカメラ1の現在位置、すなわち被写体を撮像するCCD113の現在の位置を検出し(ステップS40)、検出した位置に基づいて、入力した情報を検索する(ステップS80)。そして、モニタ104により、当該情報の有する位置に関するデータに応じて、ステップS80で検索した情報をCCD113で撮像した画像と共に表示する(ステップS120)。このようにしたので、検索用のキーワードを入力しなくても、所望の情報を簡単に検索して表示することができる。
(2)モニタ104は、ステップS80で検索した情報を、その情報が有するメタ情報の位置データに対応した画像中の位置に配置して表示することとした。このようにしたので、検索した情報と画像の位置関係を正しく表示して、分かりやすい情報の表示を行うことができる。
(3)時空データベースから入力して検索する情報の中には、デジタルカメラ1において撮像した画像である情報が含まれることとした。すなわち、CPU101で検出した位置に関する情報を有する、CCD113で撮像した画像を、CPU101において検索することとした。このようにしたので、検索用のキーワードを入力しなくても、過去に撮像した画像を簡単に検索して表示することができる。
(4)デジタルカメラ1は、CPU101の処理により、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の向きを検出する(ステップS50)。ステップS80では、CPU101によりステップS40で検出された位置と、ステップS50で検出された向きとに基づいて、情報を検索する。すなわち、ステップS50において、デジタルカメラ1の向きを水平方向と垂直方向の少なくともいずれか一方について検出し、その検出結果および位置の検出結果に基づく検索条件をステップS70において設定することにより、情報を検索する。このようにしたので、位置の検出結果のみに基づいて情報を検索する場合と比べて、現在の状況をより的確に反映した情報検索を行うことができる。
(5)デジタルカメラ1は、さらにCPU101の処理により、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の傾きを検出する(ステップS50)。この傾きに応じて、ステップS80で検索する情報が作成された時間範囲を変更することができる。このようにすることで、場所に加えてさらに時間に応じた検索条件を設定して情報の検索を行うことができる。
(6)デジタルカメラ1は、CCD113で撮像したスルー画を取得する(ステップS10)。ステップS120においてブラウザビュー画面をモニタ104に表示する際には、検索した情報をこのスルー画に重ねて表示することとした。このようにしたので、ユーザは、スルー画によって被写体の様子を観察しながら、時空データベースから入力して検索された情報を見ることができる。
(7)所定の切り替え条件を満たしたときには、メモリ114によって予め記憶された背景画像をスルー画から切り替えてモニタ104に表示する(ステップS230)こととした。このようにしたので、検索された情報を見やすく表示することができる。
(8)スルー画から背景画像に切り替えるときの切り替え条件は、カメラ向きまたは周囲の明るさに応じて設定することができる。したがって、スルー画において主要被写体となるべき物体が表示されていない場合や、周囲が暗いためにスルー画において主要被写体がよく写っていない場合などは、スルー画の代わりに適切な背景画像をモニタ104において表示することができる。
(9)時空データベースには、情報として、撮影画像、文字または音声の少なくともいずれかを記録しておくことができる。デジタルカメラ1は、ステップS80において、この撮影画像、文字または音声のいずれかを検索対象とすることができる。このようにしたので、撮影画像に限らず、様々な情報を時空データベースから検索してユーザに提示することができる。
(10)デジタルカメラ1は、ユーザから所定の操作が行われることで撮影範囲の表示要求があったときには、ステップS80で検索された撮影画像の撮影範囲をさらにモニタ104に表示することとした(ステップS250)。このようにしたので、ユーザは、どのようにして撮影が行われたのかを容易に知ることができる。
(11)デジタルカメラ1が検索する時空データベースの情報は、デジタルカメラ1に装填されたメモリカード115、またはデジタルカメラと無線通信により接続されるサーバ装置3に格納されていることとした。このようにしたので、デジタルカメラ1によって取得された撮影画像に加えて、さらに他のカメラによる撮影画像などの様々な情報をも検索対象とすることができる。
なお、上記実施の形態では、電子カメラであるデジタルカメラ1を例に説明したが、他の装置についても本発明を適用可能である。たとえば、カメラ付きの携帯電話などの携帯電子機器に適用することができる。あるいは、撮影を行わないデジタル式の双眼鏡やフィールドスコープなどにおいて、予め時空データベースに記録された画像情報などの各種情報を検索して表示する際に、本発明を適用してもよい。すなわち、位置に関するデータを有する情報を入力する入力部と、被写体を撮像した画像を入力する画像入力部と、位置を検出する位置検出部と、位置検出部で検出した位置に基づいて情報を検索する検索部と、当該情報の有する位置に関するデータに応じて、検索部で検索した情報を画像と共に表示する表示部とを有する表示装置においても、本発明を適用することができる。
以上説明した実施の形態や各種の変形例はあくまで一例に過ぎない。したがって、本発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。
本発明の一実施の形態によるカメラシステムの構成図である。 本発明の一実施の形態によるデジタルカメラの外観を示す図である。 本発明の一実施の形態によるデジタルカメラのブロック図である。 撮影モードが設定されたときに表示されるスルー画像の例を示す図である。 情報検索モードが設定されたときに表示されるブラウザビュー画面の例を示す図である。 セレクトビュー画面の例を示す図である。 ワンビュー画面の例を示す図である。 撮影範囲画面の例を示す図である。 時空データベースから様々な情報を抽出して表示するときの処理の流れを示すフローチャートを示す図である。
符号の説明
1:デジタルカメラ
2:アクセスポイント
3:サーバ装置

Claims (13)

  1. 位置に関するデータを有する情報を入力する入力部と、
    被写体を撮像する撮像部と、
    前記撮像部の位置を検出する位置検出部と、
    前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、
    前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部とを有することを特徴とする電子カメラ。
  2. 請求項1に記載の電子カメラにおいて、
    前記表示部は、前記情報を、前記情報が有する位置データに対応した前記画像中の位置に配置することを特徴とする電子カメラ。
  3. 請求項1または請求項2に記載の電子カメラにおいて、
    前記情報は前記位置検出部で検出した位置に関する情報を有する前記撮像部で撮像した画像であることを特徴とする電子カメラ。
  4. 請求項1〜3のいずれか一項に記載の電子カメラにおいて、
    前記電子カメラの向きを検出する向き検出部をさらに備え、
    前記検索部は、前記位置検出部で検出された位置と、前記向き検出部で検出された向きとに基づいて、前記情報を検索することを特徴とする電子カメラ。
  5. 請求項4に記載の電子カメラにおいて、
    前記向き検出部は、水平方向と垂直方向の少なくともいずれか一方について検出し、
    前記検索部は、前記位置検出部により検出された位置と、前記向き検出部により検出された向きとに基づいて、前記情報を検索することを特徴とする電子カメラ。
  6. 請求項1から請求項5のいずれか一項に記載の電子カメラにおいて、
    前記電子カメラの傾きを検出する傾き検出部をさらに有し、
    前記情報は、前記情報が作成された時間データを有し、
    前記検索部は、前記傾き検出部で検出した傾きに応じて、検索する前記情報が作成された時間範囲を変更することを特徴とする電子カメラ。
  7. 請求項1から請求項6のいずれか一項に記載の電子カメラにおいて、
    前記画像はスルー画であることを特徴とする電子カメラ。
  8. 請求項7に記載の電子カメラにおいて、
    前記表示部は、所定の切り替え条件を満たしたときに、予め記憶された背景画像を前記スルー画から切り替えて表示することを特徴とする電子カメラ。
  9. 請求項8に記載の電子カメラにおいて、
    前記切り替え条件は、前記電子カメラの向きまたは周囲の明るさに応じて設定されることを特徴とする電子カメラ。
  10. 請求項1〜9いずれか一項に記載の電子カメラにおいて、
    前記情報は、撮影画像、文字または音声の少なくともいずれかであることを特徴とする電子カメラ。
  11. 請求項1〜10いずれか一項に記載の電子カメラにおいて、
    前記表示部は、前記検索部により検索された撮影画像の撮影範囲をさらに表示することを特徴とする電子カメラ。
  12. 請求項1〜11いずれか一項に記載の電子カメラにおいて、
    前記情報は、前記電子カメラに装填された記録媒体、または前記電子カメラと無線通信により接続されるサーバ装置に格納されていることを特徴とする電子カメラ。
  13. 位置に関するデータを有する情報を入力する入力部と、
    被写体を撮像した画像を入力する画像入力部と、
    位置を検出する位置検出部と、
    前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、
    前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記画像と共に表示する表示部とを有することを特徴とする表示装置。
JP2007225303A 2007-08-31 2007-08-31 電子カメラ Expired - Fee Related JP5007631B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007225303A JP5007631B2 (ja) 2007-08-31 2007-08-31 電子カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007225303A JP5007631B2 (ja) 2007-08-31 2007-08-31 電子カメラ

Publications (3)

Publication Number Publication Date
JP2009060337A true JP2009060337A (ja) 2009-03-19
JP2009060337A5 JP2009060337A5 (ja) 2011-10-13
JP5007631B2 JP5007631B2 (ja) 2012-08-22

Family

ID=40555674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007225303A Expired - Fee Related JP5007631B2 (ja) 2007-08-31 2007-08-31 電子カメラ

Country Status (1)

Country Link
JP (1) JP5007631B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041145A (ja) * 2009-08-17 2011-02-24 Canvas Mapple Co Ltd 画像表示装置、画像表示方法、およびコンピュータプログラム
JP2012157048A (ja) * 2012-03-29 2012-08-16 Canvas Mapple Co Ltd 画像表示装置、画像表示方法、およびコンピュータプログラム
JP2012170100A (ja) * 2012-03-29 2012-09-06 Canvas Mapple Co Ltd 画像表示装置、画像表示方法、およびコンピュータプログラム
JP2014212439A (ja) * 2013-04-18 2014-11-13 キヤノン株式会社 表示制御装置、制御方法およびプログラム
JP2015213219A (ja) * 2014-05-01 2015-11-26 オリンパス株式会社 撮像装置
US10133932B2 (en) 2014-04-15 2018-11-20 Olympus Corporation Image processing apparatus, communication system, communication method and imaging device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243503A (ja) * 1998-02-24 1999-09-07 Matsushita Electric Works Ltd カメラ
JP2002176603A (ja) * 2000-12-06 2002-06-21 Nikon Corp 対比表示機能を有する光学機器
JP2004246454A (ja) * 2003-02-12 2004-09-02 Minolta Co Ltd 画像形成プログラム及び画像形成装置
JP2008054304A (ja) * 2006-07-25 2008-03-06 Canon Inc 撮像装置、サーバ、通信システム、撮像装置の制御方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243503A (ja) * 1998-02-24 1999-09-07 Matsushita Electric Works Ltd カメラ
JP2002176603A (ja) * 2000-12-06 2002-06-21 Nikon Corp 対比表示機能を有する光学機器
JP2004246454A (ja) * 2003-02-12 2004-09-02 Minolta Co Ltd 画像形成プログラム及び画像形成装置
JP2008054304A (ja) * 2006-07-25 2008-03-06 Canon Inc 撮像装置、サーバ、通信システム、撮像装置の制御方法、プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041145A (ja) * 2009-08-17 2011-02-24 Canvas Mapple Co Ltd 画像表示装置、画像表示方法、およびコンピュータプログラム
JP2012157048A (ja) * 2012-03-29 2012-08-16 Canvas Mapple Co Ltd 画像表示装置、画像表示方法、およびコンピュータプログラム
JP2012170100A (ja) * 2012-03-29 2012-09-06 Canvas Mapple Co Ltd 画像表示装置、画像表示方法、およびコンピュータプログラム
JP2014212439A (ja) * 2013-04-18 2014-11-13 キヤノン株式会社 表示制御装置、制御方法およびプログラム
US10133932B2 (en) 2014-04-15 2018-11-20 Olympus Corporation Image processing apparatus, communication system, communication method and imaging device
JP2015213219A (ja) * 2014-05-01 2015-11-26 オリンパス株式会社 撮像装置

Also Published As

Publication number Publication date
JP5007631B2 (ja) 2012-08-22

Similar Documents

Publication Publication Date Title
JP5194650B2 (ja) 電子カメラ
JP5851766B2 (ja) 携帯機器
US20130040700A1 (en) Image capture device and image capture method
CN104717429A (zh) 具有倾斜或透视校正的图像捕捉设备
JP5007631B2 (ja) 電子カメラ
KR101998903B1 (ko) 서버, 클라이언트 단말, 시스템 및 프로그램
JP5186984B2 (ja) 電子カメラ
US20140210941A1 (en) Image capture apparatus, image capture method, and image capture program
KR20200028298A (ko) 표시 제어장치, 촬상 장치, 제어 방법 및 컴퓨터 판독 가능한 매체
JP5003358B2 (ja) 表示装置、電子カメラおよび制御プログラム
JP5040615B2 (ja) 電子カメラ
JP5088216B2 (ja) 電子カメラ
JP2009260599A (ja) 画像表示装置、電子カメラ
JP6639832B2 (ja) 撮像装置,撮像方法,撮像プログラム
JP5034880B2 (ja) 電子カメラ、画像表示装置
JP2007259002A (ja) 画像再生装置ならびにその制御方法およびその制御プログラム
JP5088051B2 (ja) 電子カメラおよびプログラム
JP2009116795A (ja) 情報検索装置、電子カメラ、情報検索方法
JP5115375B2 (ja) 画像表示装置および電子カメラ
CN114600162A (zh) 用于捕捉摄像机图像的场景锁定模式
JP2012227717A (ja) 表示装置、表示プログラムおよび表示方法
JP2012199971A (ja) 表示装置、電子カメラおよび制御プログラム
JP5292781B2 (ja) 電子カメラ
JP2007208596A (ja) データ再生機器、データ再生方法およびプログラム
JP2009128478A (ja) 電子カメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120514

R150 Certificate of patent or registration of utility model

Ref document number: 5007631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees