JP5003358B2 - Display device, electronic camera, and control program - Google Patents

Display device, electronic camera, and control program Download PDF

Info

Publication number
JP5003358B2
JP5003358B2 JP2007225304A JP2007225304A JP5003358B2 JP 5003358 B2 JP5003358 B2 JP 5003358B2 JP 2007225304 A JP2007225304 A JP 2007225304A JP 2007225304 A JP2007225304 A JP 2007225304A JP 5003358 B2 JP5003358 B2 JP 5003358B2
Authority
JP
Japan
Prior art keywords
space
captured image
pseudo
display device
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007225304A
Other languages
Japanese (ja)
Other versions
JP2009060338A (en
Inventor
高橋  功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007225304A priority Critical patent/JP5003358B2/en
Publication of JP2009060338A publication Critical patent/JP2009060338A/en
Application granted granted Critical
Publication of JP5003358B2 publication Critical patent/JP5003358B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、表示装置電子カメラおよび制御プログラムに関する。
The present invention relates to a display device , an electronic camera, and a control program .

従来、カメラに記録されている撮影画像等の各種情報の中から、所望の情報を検索するための様々な方法が提案されている。特許文献1には、ファイル名、撮影日時、名前などのキーワードをユーザが入力すると、そのキーワードに基づいて、記録されている撮影画像の中から該当する画像を検索して一覧表示する電子カメラが開示されている。   Conventionally, various methods for searching for desired information from various information such as a captured image recorded in a camera have been proposed. Patent Document 1 discloses an electronic camera that, when a user inputs a keyword such as a file name, a shooting date, and a name, searches for a corresponding image from recorded images and displays a list based on the keyword. It is disclosed.

特開2006−166193号公報JP 2006-166193 A

特許文献1に開示される電子カメラでは、検索された画像がリストやインデックスにより一覧表示される。そのため、様々な種類の画像が多数検索されたときなどは、それらの画像を見やすく表示することができず、また、いずれかの画像を選択することが容易ではない場合がある。そこで、様々な情報を見やすく表示しつつ、いずれかの情報を容易に選択することができる表示装置および電子カメラが求められている。   In the electronic camera disclosed in Patent Document 1, the searched images are displayed as a list by a list or an index. For this reason, when a large number of various types of images are searched, the images cannot be easily displayed and it may not be easy to select any one of the images. Accordingly, there is a demand for a display device and an electronic camera that can easily select any information while displaying various information in an easy-to-view manner.

請求項1に記載の表示装置は、撮影位置が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出部と、前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出部により抽出された撮影画像に対応する立体アイコンとを表示する表示部と、前記空間カーソル内に配置された前記立体アイコンを選択する選択部とを備え、前記表示部は、前記擬似立体空間内で前記撮影位置に対応する位置に、前記撮影画像に含まれている主要被写体に応じて前記立体アイコンの形状を変更して前記立体アイコンを表示することを特徴とする。The display device according to claim 1, based on the photographing position recorded in association with the photographed image, from an external recording device in which a plurality of photographed images recorded in association with the photographing position are recorded. An extraction unit that extracts a photographed image included in the pseudo three-dimensional space represented above, a space cursor that indicates a predetermined area of the pseudo three-dimensional space, and a three-dimensional icon corresponding to the photographed image extracted by the extraction unit And a selection unit that selects the three-dimensional icon arranged in the space cursor, and the display unit is located at a position corresponding to the photographing position in the pseudo three-dimensional space. The solid icon is displayed by changing the shape of the solid icon in accordance with a main subject included in the image.
請求項10に記載の電子カメラは、請求項1から請求項9のいずれか一項に記載の表示装置を備えることを特徴とする。An electronic camera according to a tenth aspect includes the display device according to any one of the first to ninth aspects.
請求項13に記載の表示装置は、撮影位置及び撮影方向が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出部と、前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出部により抽出された撮影画像に対応する立体アイコンとを表示する表示部と、前記空間カーソル内に配置された前記立体アイコンを選択する選択部とを備え、前記表示部は、前記擬似立体空間内で前記撮影位置に対応する位置に前記撮影方向に対応する向きで前記立体アイコンを表示することを特徴とする。The display device according to claim 13 is based on the photographing position recorded in association with the photographed image from an external recording device in which a plurality of photographed images recorded in association with the photographing position and the photographing direction are recorded. An extraction unit that extracts a captured image included in the pseudo-stereoscopic space represented on the screen, a space cursor indicating a predetermined area of the pseudo-stereoscopic space, and a captured image extracted by the extraction unit A display unit that displays a three-dimensional icon to be displayed, and a selection unit that selects the three-dimensional icon arranged in the space cursor, and the display unit is located at a position corresponding to the shooting position in the pseudo three-dimensional space. The three-dimensional icon is displayed in a direction corresponding to the shooting direction.
請求項14に記載の電子カメラは、請求項13に記載の表示装置と、被写体を撮影して撮影画像を取得する撮影画像取得部と、被写体を撮影したときの撮影位置を取得する撮影位置取得部と、被写体を撮影したときの撮影方向を取得する撮影方向取得部と、前記撮影画像取得部により取得した前記撮影画像と、前記撮影位置取得部により取得した前記撮影位置と、前記撮影方向取得部により取得した前記撮影方向とを関連付けて前記外部記録装置に記録する記録制御部を更に備えることを特徴とする。An electronic camera according to a fourteenth aspect is the display device according to the thirteenth aspect, a photographed image acquisition unit that photographs a subject and obtains a photographed image, and a photographing position acquisition that obtains a photographing position when the subject is photographed. A shooting direction acquisition unit that acquires a shooting direction when the subject is shot, the shot image acquired by the shot image acquisition unit, the shooting position acquired by the shooting position acquisition unit, and the shooting direction acquisition. And a recording control unit that records the recording direction in association with the shooting direction acquired by the recording unit.
請求項15に記載の制御プログラムは、撮影位置が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出ステップと、前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出ステップにより抽出された撮影画像に対応する立体アイコンとを表示する表示ステップと、前記空間カーソル内に配置された前記立体アイコンを選択する選択ステップとをコンピュータに実行させる制御プログラムであって、前記表示ステップは、前記擬似立体空間内で前記撮影位置に対応する位置に、前記撮影画像に含まれている主要被写体に応じて前記立体アイコンの形状を変更して前記立体アイコンを表示する。The control program according to claim 15, based on the photographing position recorded in association with the photographed image, from an external recording device in which a plurality of photographed images recorded in association with the photographing position are recorded. An extraction step for extracting a photographed image included in the pseudo three-dimensional space represented above, a space cursor indicating a predetermined region of the pseudo three-dimensional space, and a three-dimensional icon corresponding to the photographed image extracted by the extraction step And a selection program for selecting the three-dimensional icon arranged in the space cursor. The display step includes the shooting position in the pseudo three-dimensional space. The shape of the solid icon is changed to a position corresponding to the main subject included in the captured image, To display the three-dimensional icon.
請求項16に記載の制御プログラムは、撮影位置及び撮影方向が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出ステップと、前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出ステップにより抽出された撮影画像に対応する立体アイコンとを表示する表示ステップと、前記空間カーソル内に配置された前記立体アイコンを選択する選択ステップとをコンピュータに実行させる制御プログラムであって、前記表示ステップは、前記擬似立体空間内で前記撮影位置に対応する位置に前記撮影方向に対応する向きで前記立体アイコンを表示する。The control program according to claim 16 is based on the photographing position recorded in association with the photographed image from an external recording device in which a plurality of photographed images recorded in association with the photographing position and the photographing direction are recorded. An extraction step of extracting a captured image included in the pseudo-stereoscopic space represented on the screen, a space cursor indicating a predetermined area of the pseudo-stereoscopic space, and the captured image extracted by the extracting step A control program for causing a computer to execute a display step for displaying a three-dimensional icon to be performed and a selection step for selecting the three-dimensional icon arranged in the space cursor, wherein the display step is performed in the pseudo three-dimensional space. The three-dimensional icon is displayed in a direction corresponding to the shooting direction at a position corresponding to the shooting position.

本発明によれば、様々な情報を見やすく表示することができる。
According to the present invention, it is Rukoto showing legible display the various information.

以下に図面を用いて本実施の形態の電子カメラについて説明する。図1は、本発明の一実施形態によるデジタルカメラを含むカメラシステムの構成図である。図1に示すカメラシステムは、デジタルカメラ1、アクセスポイント2およびサーバ装置3によって構成される。アクセスポイント2とサーバ装置3は、インターネットを介して接続されている。
The electronic camera of this embodiment will be described below with reference to the drawings. FIG. 1 is a configuration diagram of a camera system including a digital camera according to an embodiment of the present invention. The camera system shown in FIG. 1 includes a digital camera 1, an access point 2, and a server device 3. The access point 2 and the server device 3 are connected via the Internet.

デジタルカメラ1は、ユーザの撮影指示に応じて被写体を撮影し、撮影画像情報を取得する電子カメラである。また、デジタルカメラ1は、アクセスポイント2と無線通信を行うための無線通信機能を有している。この無線通信により、アクセスポイント2およびインターネットを介して、デジタルカメラ1とサーバ装置3が接続される。なお、デジタルカメラ1の構成については、後で図2および図3を用いて詳細に説明する。   The digital camera 1 is an electronic camera that takes a subject in accordance with a user's shooting instruction and acquires captured image information. The digital camera 1 also has a wireless communication function for performing wireless communication with the access point 2. By this wireless communication, the digital camera 1 and the server device 3 are connected via the access point 2 and the Internet. The configuration of the digital camera 1 will be described in detail later with reference to FIGS.

アクセスポイント2は、デジタルカメラ1を含む無線通信機能を備えた各種の機器がインターネット等のネットワークを利用して通信できるようにするための装置である。デジタルカメラ1とアクセスポイント2が無線通信を行うことにより、前述のようにデジタルカメラ1とサーバ装置3が接続される。   The access point 2 is a device for enabling various devices including the digital camera 1 having a wireless communication function to communicate using a network such as the Internet. When the digital camera 1 and the access point 2 perform wireless communication, the digital camera 1 and the server device 3 are connected as described above.

サーバ装置3は、時空データベースと呼ばれる情報のデータベースを格納している。この時空データベースには、様々な情報がその情報の取得位置および取得時刻と関連付けて記録されている。たとえば、デジタルカメラ1または他のカメラによって取得された撮影画像情報や、文字情報、音声情報などが、その取得位置および取得時刻と関連付けて時空データベースに記録されている。   The server device 3 stores a database of information called a space-time database. In this space-time database, various information is recorded in association with the acquisition position and acquisition time of the information. For example, photographic image information acquired by the digital camera 1 or another camera, character information, audio information, and the like are recorded in the space-time database in association with the acquisition position and acquisition time.

次に、デジタルカメラ1の構成について説明を行う。図2は、デジタルカメラ1の外観を示す図である。図2の外観図において、デジタルカメラ1は、シャッターボタン11、電源ボタン12、ズームボタン13、再生ボタン14、メニューボタン15、削除ボタン16、ジョグダイヤル17、決定ボタン18、LAN(Local Area Network)アクセス用LED(Light Emitting Diode)19、ストロボ充電用LED20、AF(Auto Focus)用LED21、メモリアクセス用LED22、電源用LED23およびモニタ104を備える。   Next, the configuration of the digital camera 1 will be described. FIG. 2 is a diagram illustrating an appearance of the digital camera 1. 2, the digital camera 1 includes a shutter button 11, a power button 12, a zoom button 13, a playback button 14, a menu button 15, a delete button 16, a jog dial 17, a determination button 18, and a LAN (Local Area Network) access. LED (Light Emitting Diode) 19, strobe charging LED 20, AF (Auto Focus) LED 21, memory access LED 22, power LED 23, and monitor 104.

シャッターボタン11は、ユーザがデジタルカメラ1に対して撮影の指示などを行うための操作ボタンであり、半押し、全押しの2段階のスイッチを有する。電源ボタン12は、ユーザがデジタルカメラ1のメイン電源をオンからオフに、またはオフからオンに切り替えるための操作ボタンである。ズームボタン13は、ユーザがデジタルカメラ1の撮影レンズの焦点距離を変化させる際などに使用する操作ボタンである。   The shutter button 11 is an operation button for the user to give a shooting instruction to the digital camera 1 and has a two-stage switch of half-press and full-press. The power button 12 is an operation button for the user to switch the main power source of the digital camera 1 from on to off or from off to on. The zoom button 13 is an operation button used when the user changes the focal length of the photographing lens of the digital camera 1.

再生ボタン14は、ユーザがデジタルカメラ1に画像データの再生指示などを行うための操作ボタンである。メニューボタン15は、ユーザがデジタルカメラ1に対してメニュー画面の呼び出し指示などを行うための操作ボタンである。削除ボタン16は、ユーザがデジタルカメラ1に装填されたメモリカードから画像データを削除する際などに用いられる操作ボタンである。   The playback button 14 is an operation button for the user to instruct the digital camera 1 to play back image data. The menu button 15 is an operation button for the user to instruct the digital camera 1 to call a menu screen. The delete button 16 is an operation button used when the user deletes image data from the memory card loaded in the digital camera 1.

ジョグダイヤル17は、画面中のカーソルの移動指示などをユーザが行うための回転可能な操作部材である。決定ボタン18は、ユーザがメニュー画面において設定内容の決定などを行うための操作ボタンである。   The jog dial 17 is a rotatable operation member for a user to give an instruction to move the cursor on the screen. The determination button 18 is an operation button for the user to determine setting contents on the menu screen.

LANアクセス用LED19は、デジタルカメラ1がアクセスポイント2と無線通信を行っているときなどに点灯する表示装置である。LANアクセス用LED19が点灯することにより、デジタルカメラ1が通信中であることをユーザに知らせることができる。ストロボ充電用LED20は、ストロボの充電中に点灯する表示装置である。ストロボ充電用LED20が撮影前に点灯することにより、ストロボ充電中であり撮影準備が完了していないことをユーザに知らせることができる。   The LAN access LED 19 is a display device that lights up when the digital camera 1 is performing wireless communication with the access point 2. When the LED 19 for LAN access is turned on, the user can be notified that the digital camera 1 is communicating. The strobe charging LED 20 is a display device that is lit while the strobe is being charged. When the strobe charging LED 20 is turned on before photographing, the user can be informed that the strobe is being charged and preparation for photographing is not completed.

AF用LED21は、AFの合焦状態をユーザに知らせるための表示装置である。メモリアクセス用LED22は、メモリアクセス状態のとき、すなわち、デジタルカメラ1に装填されたメモリカードにデータを書き込んでいるとき、および、メモリカードからデータを読み込んでいるときに点灯する表示装置である。電源用LED23は、デジタルカメラ1が電源投入状態のときに点灯する表示装置である。   The AF LED 21 is a display device for informing the user of the AF in-focus state. The memory access LED 22 is a display device that lights up in a memory access state, that is, when data is being written to a memory card loaded in the digital camera 1 and when data is being read from the memory card. The power LED 23 is a display device that lights up when the digital camera 1 is in a power-on state.

モニタ104は、LCD(Liquid Crystal Display)等を用いたカラー表示装置であり、各種の画像を表示する。たとえば、モニタ104がスルー画像を表示することにより、モニタ104は撮影時のビューファインダとして用いられる。なお、スルー画像(スルー画)とは、後で説明する撮影モードや情報検索モードなどの動作モードがデジタルカメラ1において設定されているときに、リアルタイムでモニタ104に表示される被写体の撮影画像である。さらに、モニタ104は、撮影画像の再生表示や、メニュー画面の表示等を行うこともできる。   The monitor 104 is a color display device using an LCD (Liquid Crystal Display) or the like, and displays various images. For example, when the monitor 104 displays a through image, the monitor 104 is used as a viewfinder at the time of shooting. The through image (through image) is a photographed image of a subject displayed on the monitor 104 in real time when an operation mode such as a photographing mode or an information search mode described later is set in the digital camera 1. is there. Further, the monitor 104 can also display a captured image, display a menu screen, and the like.

図3は、デジタルカメラ1のブロック図である。このブロック図に示すように、デジタルカメラ1は、CPU101、圧縮/伸張回路102、表示ドライバ103、モニタ104、キー入力部105、無線LAN回路106、GPS(Global Positioning System)センサ107、モーションセンサ108、コンデンサ109、バッテリ110、ストロボ111、CCD(Charge Coupled Device)ドライバ112、CCD113およびメモリ114を有している。また、記録媒体であるメモリカード115が不図示のカードスロットに装填されている。   FIG. 3 is a block diagram of the digital camera 1. As shown in this block diagram, the digital camera 1 includes a CPU 101, a compression / expansion circuit 102, a display driver 103, a monitor 104, a key input unit 105, a wireless LAN circuit 106, a GPS (Global Positioning System) sensor 107, and a motion sensor 108. , Capacitor 109, battery 110, strobe 111, CCD (Charge Coupled Device) driver 112, CCD 113, and memory 114. A memory card 115 as a recording medium is loaded in a card slot (not shown).

CPU101は、様々な処理や制御を実行するための回路であり、マイコン等を用いて構成される。圧縮/伸張回路102は、撮影画像データの圧縮/伸張を行う回路である。表示ドライバ103は、モニタ104に表示する映像をコントロールする駆動回路である。キー入力部105は、デジタルカメラ1に設けられたボタン、スイッチ、ダイヤル等の操作を検出する回路である。   The CPU 101 is a circuit for executing various processes and controls, and is configured using a microcomputer or the like. The compression / decompression circuit 102 is a circuit that compresses / decompresses captured image data. The display driver 103 is a drive circuit that controls an image displayed on the monitor 104. The key input unit 105 is a circuit that detects operations of buttons, switches, dials, and the like provided in the digital camera 1.

無線LAN回路106は、無線で外部機器と通信するための通信回路である。この無線LAN回路106によってアクセスポイント2との間で無線通信を行うことにより、デジタルカメラ1がインターネットを介してサーバ装置3に接続される。   The wireless LAN circuit 106 is a communication circuit for communicating with an external device wirelessly. By performing wireless communication with the access point 2 by the wireless LAN circuit 106, the digital camera 1 is connected to the server apparatus 3 via the Internet.

GPSセンサ107は、GPS衛星から送信されるGPS信号を受信し、CPU101へ出力する。このGPS信号に基づいて、CPU101においてデジタルカメラ1の現在位置が検出される。モーションセンサ108は、デジタルカメラ1の姿勢変化を、ピッチ、ヨー、ロールの各方向について検出する。なお、デジタルカメラ1において光軸を水平方向に向けたときに、ピッチ方向の姿勢変化は、その光軸と水平に直交する軸回りの姿勢変化、すなわち仰角の変化を表し、ヨー方向の姿勢変化は、その光軸と垂直に直交する軸回りの姿勢変化、すなわち方位角の変化を表している。また、ロール方向の姿勢変化は、光軸回りの姿勢変化、すなわちデジタルカメラ1の傾きの変化を表している。   The GPS sensor 107 receives a GPS signal transmitted from a GPS satellite and outputs it to the CPU 101. Based on this GPS signal, the CPU 101 detects the current position of the digital camera 1. The motion sensor 108 detects the posture change of the digital camera 1 in each direction of pitch, yaw, and roll. Note that when the optical axis of the digital camera 1 is oriented in the horizontal direction, the change in posture in the pitch direction represents a change in posture around an axis that is orthogonal to the optical axis, that is, a change in elevation angle. Represents a change in posture around an axis perpendicular to the optical axis, that is, a change in azimuth. Further, the posture change in the roll direction represents a posture change around the optical axis, that is, a change in the tilt of the digital camera 1.

コンデンサ109は、バッテリ110からの電力を受けて充電し、ストロボ111の発光に使用する。また、緊急時のバックアップ電源としてカメラの駆動に使用する。バッテリ110は、デジタルカメラ1を動作させるために必要な電力を供給するリチウムイオン充電池等の電源である。   The capacitor 109 is charged by receiving electric power from the battery 110 and is used for light emission of the strobe 111. It is also used to drive the camera as a backup power source in case of emergency. The battery 110 is a power source such as a lithium ion rechargeable battery that supplies power necessary for operating the digital camera 1.

ストロボ111は、被写体に補助光を照射することにより暗い環境でも撮影を可能にする。CCDドライバ112は、CCD113を駆動するための回路である。CCD113は、撮影レンズを介した被写体像を撮像するための撮像素子である。CCD113によって被写体像が撮像されると、CCD113からCCDドライバ112へ撮像信号が出力される。この撮像信号は、CCDドライバ112において撮像画像データに変換された後、CPU101へ出力される。   The strobe 111 enables photographing even in a dark environment by irradiating the subject with auxiliary light. The CCD driver 112 is a circuit for driving the CCD 113. The CCD 113 is an image sensor for capturing a subject image via a photographing lens. When a subject image is picked up by the CCD 113, an image pickup signal is output from the CCD 113 to the CCD driver 112. The imaging signal is converted into captured image data by the CCD driver 112 and then output to the CPU 101.

メモリ114は、不揮発性の半導体メモリであり、CPU101が実行する制御に用いるためのプログラムやデータ等を記憶している。メモリカード115は、CPU101の制御により、デジタルカメラ1によって取得された撮影画像情報など各種の情報が記録される。なお、メモリカード115には、前述の図1のサーバ装置3と同様に、取得位置および取得時刻と関連付けて情報が記録されている。すなわち、メモリカード115には、デジタルカメラ1において取得された情報による時空データベースが格納されている。   The memory 114 is a nonvolatile semiconductor memory, and stores programs, data, and the like for use in control executed by the CPU 101. The memory card 115 stores various information such as photographed image information acquired by the digital camera 1 under the control of the CPU 101. Note that information is recorded in the memory card 115 in association with the acquisition position and the acquisition time, as in the server device 3 of FIG. 1 described above. That is, the memory card 115 stores a space-time database based on information acquired by the digital camera 1.

続いて、デジタルカメラ1の動作について説明する。デジタルカメラ1は、撮影画像を取得するための撮影モードや、時空データベースから情報を検索するための情報検索モードなど、様々な動作モードをユーザの操作に応じて設定することができる。   Next, the operation of the digital camera 1 will be described. The digital camera 1 can set various operation modes such as a shooting mode for acquiring a shot image and an information search mode for searching for information from a space-time database according to a user operation.

撮影モードが設定されている場合、デジタルカメラ1は、被写体の撮影を行う前には、CCD113によって撮像された被写体の像に基づいて、前述したようにスルー画像を取得し、モニタ104に表示する。シャッターボタン11をユーザが操作することによって撮影指示が行われると、デジタルカメラ1はその撮影指示に応じて、被写体を撮影して撮影画像を取得し、取得した撮影画像の情報をメモリカード115に記録する。   When the shooting mode is set, the digital camera 1 acquires a through image as described above based on the image of the subject imaged by the CCD 113 and displays it on the monitor 104 before imaging the subject. . When a shooting instruction is performed by the user operating the shutter button 11, the digital camera 1 captures a subject and acquires a captured image in accordance with the shooting instruction, and stores information on the acquired captured image in the memory card 115. Record.

メモリカード115に撮影画像情報を記録する際、デジタルカメラ1は、その撮影画像情報に撮影時の様々な情報をメタ情報として付加する。たとえば、撮影時刻、撮影画像の画角、焦点距離、シャッター速度、主要被写体の位置、主要被写体までの距離など、様々な情報をメタ情報として撮影画像情報に付加して、メモリカード115に記録する。このメタ情報には、GPSセンサ107を用いて撮影時に検出されたデジタルカメラ1の位置情報も含まれる。すなわち、CCD113で撮像した画像は、GPSセンサ107から出力されたGPS信号に基づいてCPU101で検出された位置に関する情報(データ)をメタ情報として有している。このようなメタ情報が付加された撮影画像情報がメモリカード115に記録されることで、デジタルカメラ1において取得された撮影画像の情報が、その取得位置および取得時刻と関連付けて、メモリカード115の時空データベースに記録される。   When recording photographed image information in the memory card 115, the digital camera 1 adds various information at the time of photographing as meta information to the photographed image information. For example, various information such as the shooting time, the angle of view of the shot image, the focal length, the shutter speed, the position of the main subject, and the distance to the main subject are added as meta information to the shot image information and recorded in the memory card 115. . The meta information includes position information of the digital camera 1 detected at the time of shooting using the GPS sensor 107. That is, the image picked up by the CCD 113 has information (data) related to the position detected by the CPU 101 based on the GPS signal output from the GPS sensor 107 as meta information. The captured image information to which such meta information is added is recorded in the memory card 115, so that the information of the captured image acquired by the digital camera 1 is associated with the acquisition position and acquisition time of the memory card 115. Recorded in space-time database.

さらにこのとき、デジタルカメラ1は、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、撮影時のデジタルカメラ1の向きを検出する。このとき、デジタルカメラ1の水平方向の向きを表す方位角と、デジタルカメラ1の鉛直方向の向きを表す仰角とを求めることにより、撮影時のデジタルカメラ1の向きを検出する。こうして検出された撮影時の向きの情報をメタ情報に加えることで、撮影画像情報をさらに取得方向と関連付けてメモリカード115の時空データベースに記録してもよい。   Further, at this time, the digital camera 1 detects the orientation of the digital camera 1 at the time of shooting based on the posture change of the digital camera 1 detected by the motion sensor 108. At this time, the orientation of the digital camera 1 at the time of shooting is detected by obtaining an azimuth angle representing the horizontal direction of the digital camera 1 and an elevation angle representing the vertical direction of the digital camera 1. The captured image information may be further associated with the acquisition direction and recorded in the space-time database of the memory card 115 by adding the detected shooting direction information to the meta information.

なお、メモリカード115に記録された撮影画像情報の一部を、ユーザの操作に応じてデジタルカメラ1からサーバ装置3へ送信し、サーバ装置3において時空データベースに記録するようにしてもよい。このとき、撮影画像を取得したときに検出されたデジタルカメラ1の位置や向き、時間などの情報が、撮影画像情報と共にメタ情報として送信される。これらのメタ情報を撮影画像情報と共に記録することにより、サーバ装置3の時空データベースにおいて、撮影画像情報がその取得位置、取得時間、取得方向などと関連付けて記録される。すなわち、メモリカード115またはサーバ装置3の時空データベースには、位置に関するデータや、向きに関するデータ、当該情報が作成された時間データなどを、メタ情報として有する情報が記録されている。   A part of the captured image information recorded in the memory card 115 may be transmitted from the digital camera 1 to the server device 3 in accordance with a user operation and recorded in the space-time database in the server device 3. At this time, information such as the position, orientation, and time of the digital camera 1 detected when the captured image is acquired is transmitted as meta information together with the captured image information. By recording the meta information together with the captured image information, the captured image information is recorded in the space-time database of the server device 3 in association with the acquisition position, the acquisition time, the acquisition direction, and the like. That is, in the space-time database of the memory card 115 or the server device 3, information having meta information such as position data, direction data, time data when the information is created, and the like is recorded.

一方、情報検索モードが設定されている場合、デジタルカメラ1は、サーバ装置3またはメモリカード115に格納された時空データベースから、所定の検索条件を満たす情報を検索して抽出する。そして、抽出した情報をスルー画像に重ねてモニタ104に表示し、ユーザに提示する。なお、サーバ装置3の時空データベースから抽出された情報は、インターネットおよびアクセスポイント2を介してデジタルカメラ1へ送信される。   On the other hand, when the information search mode is set, the digital camera 1 searches and extracts information satisfying a predetermined search condition from the space-time database stored in the server device 3 or the memory card 115. Then, the extracted information is displayed on the monitor 104 superimposed on the through image and presented to the user. Information extracted from the space-time database of the server device 3 is transmitted to the digital camera 1 via the Internet and the access point 2.

デジタルカメラ1は、時空データベースから情報を検索する際の検索条件の一つとして、情報の取得位置に対する検索対象エリアを設定することができる。この検索対象エリアは、GPSセンサ107により受信されたGPS信号に基づくデジタルカメラ1の現在位置(カメラ位置)と、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づく光軸の向き(カメラ向き)とに基づいて設定される。具体的には、現在のカメラ位置を視点に設定し、その視点からカメラ向きの方向に向かって延びる所定長さのベクトルを視線ベクトルとする。この視線ベクトルを中心とする所定の空間範囲を、検索対象エリアに設定する。なお、視点から離れるほど検索対象エリアを広くなるように設定する。または、その逆のどちらでも良い。   The digital camera 1 can set a search target area for an information acquisition position as one of search conditions when searching for information from a space-time database. This search target area includes the current position (camera position) of the digital camera 1 based on the GPS signal received by the GPS sensor 107 and the optical axis direction (camera direction) based on the attitude of the digital camera 1 detected by the motion sensor 108. ). Specifically, the current camera position is set as the viewpoint, and a vector having a predetermined length extending from the viewpoint in the direction of the camera is set as a line-of-sight vector. A predetermined spatial range centered on this line-of-sight vector is set as the search target area. Note that the search target area is set to become wider as the distance from the viewpoint increases. Or the opposite may be sufficient.

上記の検索対象エリアの設定において、水平方向のカメラ向き、すなわち方位角のみを利用してもよい。すなわち、水平方向については所定の空間範囲を検索対象エリアとし、垂直方向については全空間範囲を検索対象エリアに含めることができる。あるいは、水平方向のカメラ向きに加えて、垂直方向のカメラ向き、すなわち仰角も利用して、水平方向と垂直方向のそれぞれについて所定の空間範囲を検索対象エリアに設定してもよい。さらに、カメラ向きを利用せず、カメラ位置のみに基づいて検索対象エリアを設定するようにしてもよい。すなわち、現在のカメラ位置を中心とする所定の範囲を検索対象エリアに設定してもよい。   In setting the search target area, only the horizontal camera direction, that is, the azimuth angle may be used. That is, a predetermined spatial range can be set as the search target area for the horizontal direction, and the entire spatial range can be included in the search target area for the vertical direction. Alternatively, in addition to the horizontal camera direction, the vertical camera direction, that is, the elevation angle may also be used to set a predetermined spatial range in the search target area in each of the horizontal direction and the vertical direction. Furthermore, the search target area may be set based only on the camera position without using the camera orientation. That is, a predetermined range centered on the current camera position may be set as the search target area.

また、検索条件の設定において、以上説明したような検索対象エリアに加えて、さらに情報の取得時刻(作成時刻)に対する検索対象時間を設定するようにしてもよい。すなわち、過去から現在までの間で所定の時間範囲を設定し、その時間範囲を検索対象時間とすることで、検索条件を設定する。この検索対象時間の範囲は、モーションセンサ108により検出されたデジタルカメラ1の光軸回りの傾き(カメラ傾き)に基づいて、次のようにして設定される。   In setting search conditions, in addition to the search target area as described above, a search target time for information acquisition time (creation time) may be set. That is, a predetermined time range is set from the past to the present, and the search condition is set by setting the time range as the search target time. The range of the search target time is set as follows based on the tilt around the optical axis (camera tilt) of the digital camera 1 detected by the motion sensor 108.

現在のカメラ傾きがほぼ0である場合、すなわちユーザがデジタルカメラ1をほぼ真っ直ぐに向けて構えている場合は、現在から所定の時間範囲、たとえば1年前までの時間範囲を検索対象時間に設定する。その状態からユーザがデジタルカメラ1を右回りに傾けると、検索対象時間の範囲を次第に過去に遡って変化させる。このとき、カメラ傾きの角度が大きくなるほど、それに応じて検索対象時間の範囲を大きく変化させるようにしてもよい。たとえば、カメラ傾きの角度に対して、10°、20°および30°の三段階のしきい値を設定しておく。そして、カメラ傾きの角度が10°以上20°未満のときには一ヶ月ずつ、20°以上30°未満のときには半年ずつ、30°以上のときには一年ずつ、それぞれ所定のタイミングごとに、検索対象時間の範囲を過去に遡って変化させる。反対に、ユーザがデジタルカメラ1を左回りに傾けると、検索対象時間の範囲を過去から現在に向かって次第に変化させる。このときも同様に、カメラ傾きの角度が大きくなるほど、検索対象時間を大きく変化させることができる。   When the current camera tilt is almost zero, that is, when the user is holding the digital camera 1 almost straight, a predetermined time range from the present time, for example, a time range up to one year ago is set as the search target time. To do. When the user tilts the digital camera 1 clockwise from that state, the range of the search target time is gradually changed back to the past. At this time, as the camera tilt angle increases, the range of the search target time may be changed greatly accordingly. For example, three stages of threshold values of 10 °, 20 ° and 30 ° are set for the camera tilt angle. When the camera tilt angle is 10 ° or more and less than 20 °, the search target time is set every month, every month when it is 20 ° or more and less than 30 °, and every year when it is 30 ° or more. Change the range retroactively. Conversely, when the user tilts the digital camera 1 counterclockwise, the range of the search target time is gradually changed from the past to the present. Similarly, the search target time can be changed greatly as the camera tilt angle increases.

以上説明したような検索条件がデジタルカメラ1において設定されると、その検索条件を満たす情報が、サーバ装置3またはメモリカード115に格納された時空データベースから抽出される。すなわち、検索条件として設定された検索対象エリア内の取得位置に関連付けられた情報や、検索条件として設定された検索対象時間内の取得時刻(作成時刻)に関連付けられた情報が、時空データベースから検索されて抽出される。このとき、最初にメモリカード115の時空データベースを検索し、該当する情報が抽出されなかった場合は、サーバ装置3の時空データベースを検索するようにしてもよい。あるいは、メモリカード115とサーバ装置3の時空データベースを共に検索するようにしてもよい。なお、サーバ装置3の時空データベースを検索する場合には、デジタルカメラ1において設定された検索条件が、アクセスポイント2およびインターネットを介してサーバ装置3へ送信される。また、サーバ装置3の時空データベースから抽出された情報は、インターネットおよびアクセスポイント2を介してデジタルカメラ1へ送信される。   When the search conditions as described above are set in the digital camera 1, information satisfying the search conditions is extracted from the space-time database stored in the server device 3 or the memory card 115. That is, information related to the acquisition position in the search target area set as the search condition and information related to the acquisition time (creation time) within the search target time set as the search condition are searched from the space-time database. To be extracted. At this time, the space-time database of the memory card 115 is searched first, and if the corresponding information is not extracted, the space-time database of the server device 3 may be searched. Alternatively, both the memory card 115 and the space-time database of the server device 3 may be searched. Note that when searching the space-time database of the server device 3, the search conditions set in the digital camera 1 are transmitted to the server device 3 via the access point 2 and the Internet. Information extracted from the space-time database of the server device 3 is transmitted to the digital camera 1 via the Internet and the access point 2.

デジタルカメラ1は、サーバ装置3またはメモリカード115の時空データベースから上記のようにして抽出された情報を、スルー画像に重ねてモニタ104に表示する。これにより、時空データベースから検索されて抽出された情報がユーザに対して提示される。   The digital camera 1 displays the information extracted as described above from the space-time database of the server device 3 or the memory card 115 on the monitor 104 so as to be superimposed on the through image. Thereby, the information retrieved from the space-time database and extracted is presented to the user.

あるいは、時空データベースに記録された情報をデジタルカメラ1のCPU101に入力し、その情報をデジタルカメラ1において検索するようにしてもよい。たとえば、デジタルカメラ1の現在位置から所定範囲内に対応する情報を時空データベースからデジタルカメラ1へ送信し、デジタルカメラ1において記憶しておく。この情報の中から、前述のようにして設定された検索条件を満たす情報を検索し、スルー画像と共に表示することとしてもよい。   Alternatively, information recorded in the space-time database may be input to the CPU 101 of the digital camera 1 and the information may be searched for in the digital camera 1. For example, information corresponding to a predetermined range from the current position of the digital camera 1 is transmitted from the space-time database to the digital camera 1 and stored in the digital camera 1. From this information, information satisfying the search condition set as described above may be searched and displayed together with the through image.

なお、時空データベースから検索される情報は、デジタルカメラ1によって取得された撮影画像の情報に限らない。たとえば、他のカメラによる撮影画像の情報や、撮影画像以外の文字情報や音声情報などを時空データベースに記録しておき、検索するようにしてもよい。取得位置および取得時刻と関連付けて時空データベースに記録されている情報であれば、どのような情報であっても検索対象とすることができる。すなわち、CPU101は、位置に関するデータを有する様々な情報を時空データベースから入力して検索することができる。   Note that the information retrieved from the space-time database is not limited to the information of the captured image acquired by the digital camera 1. For example, information on a photographed image by another camera, character information other than the photographed image, voice information, and the like may be recorded in a space-time database and retrieved. Any information that is recorded in the space-time database in association with the acquisition position and the acquisition time can be searched. That is, the CPU 101 can search by inputting various information having data regarding the position from the space-time database.

図4は、撮影モードが設定されたときにモニタ104に表示されるスルー画像の例である。撮影モードにおいてシャッターボタン11が押されていないときには、このようなスルー画像が表示される。一方、図5は、情報検索モードが設定されたときのモニタ104における表示画面の例である。このような表示画面を、以下ではブラウザビュー画面と称する。   FIG. 4 is an example of a through image displayed on the monitor 104 when the shooting mode is set. When the shutter button 11 is not pressed in the shooting mode, such a through image is displayed. On the other hand, FIG. 5 is an example of a display screen on the monitor 104 when the information search mode is set. Hereinafter, such a display screen is referred to as a browser view screen.

図5のブラウザビュー画面では、図4のスルー画像に重ねて、立体的な視覚効果を与えるためのグリッド線が表示される。これにより、画面上に擬似的な立体空間(以下、擬似立体空間と称する)が表現される。さらに、この擬似立体空間の所定の領域には、空間カーソル30が表示される。なお、図5のブラウザビュー画面では、擬似立体空間の一部分を立体的に囲う枠型のフレームにより空間カーソル30を表現しているが、これ以外の表現方法を用いてもよい。たとえば、色合いや画像の透過度を他の部分と変化させることにより、空間カーソル30を表現することができる。   In the browser view screen of FIG. 5, grid lines for providing a three-dimensional visual effect are displayed so as to overlap the through image of FIG. Thereby, a pseudo three-dimensional space (hereinafter referred to as a pseudo three-dimensional space) is expressed on the screen. Further, a space cursor 30 is displayed in a predetermined area of the pseudo three-dimensional space. In the browser view screen of FIG. 5, the space cursor 30 is represented by a frame-type frame that three-dimensionally surrounds a part of the pseudo-stereoscopic space, but other representation methods may be used. For example, the spatial cursor 30 can be expressed by changing the hue and the transparency of the image from other parts.

ブラウザビュー画面における擬似立体空間の範囲は、前述のカメラ位置およびカメラ向きに応じて決定される。すなわち、デジタルカメラ1は、GPSセンサ107により受信されたGPS信号に基づいて検出された現在のカメラ位置を視点とし、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づく現在のカメラ向きを視線ベクトルとして、実空間における表示対象範囲を設定する。このときの表示対象範囲は、時空データベースから抽出された情報を全て表示できるようにするため、前述の検索対象エリアと同じ大きさか、それよりも小さくすることが好ましい。こうして設定された表示対象範囲に対応する擬似立体空間を、スルー画像に重ねてモニタ104の画面上に表現する。このように、ブラウザビュー画面における擬似立体空間の範囲は、現在のカメラ位置およびカメラ向きに応じた実空間上の表示対象範囲に対応して設定される。したがって、擬似立体空間の範囲は、スルー画像の表示範囲と一致している。   The range of the pseudo three-dimensional space on the browser view screen is determined according to the above-described camera position and camera orientation. That is, the digital camera 1 uses the current camera position detected based on the GPS signal received by the GPS sensor 107 as a viewpoint, and looks at the current camera direction based on the posture of the digital camera 1 detected by the motion sensor 108. A display target range in real space is set as a vector. The display target range at this time is preferably the same size as or smaller than the above search target area so that all the information extracted from the space-time database can be displayed. The pseudo three-dimensional space corresponding to the display target range set in this way is superimposed on the through image and expressed on the screen of the monitor 104. Thus, the range of the pseudo three-dimensional space on the browser view screen is set corresponding to the display target range in the real space according to the current camera position and camera orientation. Therefore, the range of the pseudo three-dimensional space is coincident with the display range of the through image.

なお、デジタルカメラ1において撮影レンズの焦点距離が可変である場合は、撮影レンズの焦点距離に応じて上記の表示対象範囲を変化させることが好ましい。すなわち、撮影レンズの焦点距離が長くなって画角が小さくなるほど、スルー画像の表示範囲も小さくなるため、それに合わせて表示対象範囲も小さくする。この場合、ブラウザビュー画面では擬似立体空間が拡大されて表示される。反対に、撮影レンズの焦点距離が短くなって画角が大きくなるほど、スルー画像の表示範囲も大きくなるため、それに合わせて表示対象範囲も大きくする。この場合、ブラウザビュー画面では擬似立体空間が縮小されて表示される。このようにすることで、焦点距離を変化させた場合でも、スルー画像の表示範囲とブラウザビュー画面における擬似立体空間の範囲を確実に一致させることができる。   When the focal length of the photographing lens is variable in the digital camera 1, it is preferable to change the display target range according to the focal length of the photographing lens. In other words, the longer the focal length of the photographic lens and the smaller the angle of view, the smaller the display range of the through image. In this case, the pseudo three-dimensional space is enlarged and displayed on the browser view screen. On the other hand, as the focal length of the photographic lens is shortened and the angle of view is increased, the display range of the through image is increased, and accordingly, the display target range is increased accordingly. In this case, the pseudo three-dimensional space is reduced and displayed on the browser view screen. In this way, even when the focal length is changed, the display range of the through image and the range of the pseudo three-dimensional space on the browser view screen can be reliably matched.

上記のようにした場合、さらに、ブラウザビュー画面における空間カーソル30の大きさについても、撮影レンズの焦点距離に応じて決定することが好ましい。すなわち、撮影レンズの焦点距離が長くなり、ブラウザビュー画面において擬似立体空間が拡大されると、それに応じて空間カーソル30も大きく表示する。反対に、撮影レンズの焦点距離が短くなり、ブラウザビュー画面において擬似立体空間が縮小されると、それに応じて空間カーソル30も小さく表示する。このようにすることで、デジタルカメラ1のユーザは、ブラウザビュー画面において、焦点距離に応じて擬似立体空間の範囲が変化していることを認識することができる。   In the case described above, it is preferable that the size of the spatial cursor 30 on the browser view screen is also determined according to the focal length of the photographing lens. That is, when the focal length of the photographic lens becomes long and the pseudo three-dimensional space is enlarged on the browser view screen, the space cursor 30 is also displayed correspondingly. On the other hand, when the focal length of the photographing lens is shortened and the pseudo three-dimensional space is reduced on the browser view screen, the space cursor 30 is also displayed in a small size accordingly. By doing in this way, the user of the digital camera 1 can recognize that the range of the pseudo three-dimensional space is changed according to the focal length on the browser view screen.

ブラウザビュー画面において、空間カーソル30は、カメラ向き、すなわちモーションセンサ108によって検出されるデジタルカメラ1の姿勢変化に応じて、擬似立体空間内を自在に移動する。たとえば、モーションセンサ108によって検出されたヨー方向の姿勢変化に基づいて、現在の方位角すなわち水平方向のカメラ向きを求め、その水平方向のカメラ向きに応じて、グリッド線が引かれた平面上を空間カーソル30が左右方向に移動する。また、モーションセンサ108によって検出されたピッチ方向の姿勢変化に基づいて、現在の仰角すなわち垂直方向のカメラ向きを求め、その垂直方向のカメラ向きに応じて、グリッド線が引かれた平面上を空間カーソル30が奥行き方向に移動する。これにより、ユーザはデジタルカメラ1を直感的に操作して、空間カーソル30を擬似立体空間内で思い通りに移動させることができる。   On the browser view screen, the space cursor 30 freely moves in the pseudo three-dimensional space in accordance with the camera direction, that is, the posture change of the digital camera 1 detected by the motion sensor 108. For example, based on the posture change in the yaw direction detected by the motion sensor 108, the current azimuth angle, that is, the horizontal camera direction is obtained, and on the plane on which grid lines are drawn according to the horizontal camera direction. The space cursor 30 moves in the left-right direction. Further, the current elevation angle, that is, the vertical camera direction is obtained based on the change in the pitch direction detected by the motion sensor 108, and a space is drawn on the plane on which the grid lines are drawn according to the vertical camera direction. The cursor 30 moves in the depth direction. Accordingly, the user can intuitively operate the digital camera 1 to move the space cursor 30 as desired in the pseudo-stereoscopic space.

なお、空間カーソル30を擬似立体空間内でさらに上下方向に移動させるようにしてもよい。たとえば、垂直方向のカメラ向きに応じて、空間カーソル30を上下方向に移動させる。このとき奥行き方向の移動は、たとえばズームボタン13の操作に応じて行うようにする。あるいは、カメラ向きによらず、ジョグダイヤル17の操作や、図示しない十字キーの操作などに応じて、空間カーソル30を移動させるようにしてもよい。すなわち、ユーザの操作に応じて空間カーソル30を擬似立体空間内で移動させるための操作部材をデジタルカメラ1が備えていてもよい。   Note that the space cursor 30 may be further moved in the vertical direction in the pseudo three-dimensional space. For example, the space cursor 30 is moved up and down in accordance with the vertical camera direction. At this time, the movement in the depth direction is performed according to the operation of the zoom button 13, for example. Alternatively, the space cursor 30 may be moved in accordance with the operation of the jog dial 17 or the operation of a cross key (not shown) regardless of the camera orientation. That is, the digital camera 1 may include an operation member for moving the space cursor 30 in the pseudo three-dimensional space according to a user operation.

以上説明した図5のブラウザビュー画面では、時空データベースから抽出された撮影画像情報を表すアイコン31〜34が、それぞれ擬似立体空間内で所定の位置に配置されている。これらの各アイコンの表示位置は、各アイコンが表す撮影画像情報の取得位置、すなわち、当該撮影画像情報と関連付けて時空データベースに記録された取得位置に対応して決定される。言い換えると、ブラウザビュー画面において、時空データベースから抽出された撮影画像情報は、実空間における取得位置に対応する擬似立体空間内の位置にそれぞれ配置されて表示される。すなわち、アイコン31〜34が表す各情報は、各情報が有するメタ情報の位置データに対応したスルー画像中の位置に配置される。   In the browser view screen of FIG. 5 described above, icons 31 to 34 representing photographed image information extracted from the space-time database are respectively arranged at predetermined positions in the pseudo three-dimensional space. The display position of each icon is determined corresponding to the acquisition position of the captured image information represented by each icon, that is, the acquisition position recorded in the space-time database in association with the captured image information. In other words, on the browser view screen, the captured image information extracted from the space-time database is arranged and displayed at a position in the pseudo three-dimensional space corresponding to the acquisition position in the real space. That is, each piece of information represented by the icons 31 to 34 is arranged at a position in the through image corresponding to the position data of the meta information included in each piece of information.

アイコン31には、複数の撮影画像が重なって表示されている。これらの撮影画像は、いずれも同一のアイコン位置に対応する実空間内の場所において撮影されたものである。すなわち、実空間において同一のアイコン位置に対応する所定の領域内で撮影された複数の撮影画像の情報が、アイコン31によって表されている。このように、同一のアイコン位置に対応する複数の撮影画像が検索条件を満たす情報として時空データベースから検索されて抽出された場合、ブラウザビュー画面では、その複数の撮影画像を擬似立体空間内の同じ位置に重ねて表示する。   A plurality of captured images are displayed on the icon 31 in an overlapping manner. These photographed images are all photographed at a place in the real space corresponding to the same icon position. That is, information of a plurality of photographed images photographed within a predetermined area corresponding to the same icon position in the real space is represented by the icon 31. As described above, when a plurality of captured images corresponding to the same icon position are searched and extracted from the space-time database as information satisfying the search condition, the plurality of captured images are the same in the pseudo three-dimensional space on the browser view screen. Display overlaid on the position.

アイコン31が空間カーソル30内にある場合、すなわち、重ねて表示された複数の撮影画像が空間カーソル30内にある場合は、その複数の撮影画像が交互に切り替えて表示される。たとえば、最も手前側に表示されている撮影画像が順次めくれて最後尾に移動されるようにアイコン31をアニメーション表示することで、手前側の撮影画像を切り替えて表示する。このようにすることで、ブラウザビュー画面において複数の撮影画像が重ねて表示されていても、ユーザは各撮影画像の内容を確認することができる。   When the icon 31 is in the space cursor 30, that is, when a plurality of captured images displayed in an overlapping manner are in the space cursor 30, the plurality of captured images are alternately displayed. For example, the icon 31 is animated so that the photographed image displayed on the foremost side is turned over and moved to the end, so that the photographed image on the near side is switched and displayed. By doing in this way, even if a plurality of captured images are displayed in a superimposed manner on the browser view screen, the user can check the contents of each captured image.

なお、ここでは複数の撮影画像が重なったイメージによりアイコン31を表示することで、同一のアイコン位置に対して時空データベースから複数の撮影画像情報が検索されて抽出されたことを表したが、これを他の表示方法により表してもよい。たとえば、複数の撮影画像情報が検索されて抽出された場合は、その撮影画像の枚数を示したバルーン形状の枠を表示する。あるいは、空間カーソル30によって選択されたときに、このようなバルーン形状の枠を表示するようにしてもよい。   In this example, the icon 31 is displayed by an image in which a plurality of photographed images are overlapped to indicate that a plurality of photographed image information is retrieved and extracted from the space-time database for the same icon position. May be represented by other display methods. For example, when a plurality of pieces of photographed image information are retrieved and extracted, a balloon-shaped frame indicating the number of photographed images is displayed. Alternatively, such a balloon-shaped frame may be displayed when selected by the space cursor 30.

一方、アイコン32〜34は、いずれも立体的な形状のアイコン(立体アイコン)により表示されている。アイコン32が表す撮影画像には、主要被写体として人の顔が撮影されており、アイコン34が表す撮影画像には、主要被写体として山が撮影されている。   On the other hand, the icons 32 to 34 are all displayed as three-dimensional icons (three-dimensional icons). In the photographed image represented by the icon 32, a human face is photographed as the main subject, and in the photographed image represented by the icon 34, a mountain is photographed as the main subject.

アイコン33は、直方体状の立体アイコンであり、撮影画像を縮小したサムネイル画像が一つの面に貼り付けられている。このように立体面に貼り付けられる画像は、テクスチャと呼ばれている。アイコン33では、この直方体により、撮影画像における撮影条件を表現している。たとえば、直方体の向き(テクスチャ面の向き)は、撮影方向を表しており、直方体の厚さ(テクスチャ面に対する厚み方向の長さ)は、撮影画像の被写界深度を表しており、直方体の大きさ(テクスチャ面の大きさ)は、撮影画像における画角を表している。   The icon 33 is a rectangular parallelepiped solid icon, and a thumbnail image obtained by reducing a captured image is pasted on one surface. The image pasted on the three-dimensional surface in this way is called a texture. In the icon 33, the shooting condition in the shot image is expressed by this rectangular parallelepiped. For example, the direction of the cuboid (direction of the texture plane) represents the shooting direction, and the thickness of the cuboid (length in the thickness direction with respect to the texture plane) represents the depth of field of the shot image. The size (the size of the texture surface) represents the angle of view in the captured image.

以上説明したようなアイコン33をブラウザビュー画面において表示することで、デジタルカメラ1のユーザは、その撮影画像がどのような撮影条件で取得されたのかを直感的にかつ容易に把握することができる。なお、上記のような撮影条件の情報は、撮影位置や撮影時刻の情報と共に撮影時に取得され、前述のメタ情報の一部として、CPU101の制御により撮影画像情報と共に、メモリカード115またはサーバ装置3の時空データベースに記録される。   By displaying the icon 33 as described above on the browser view screen, the user of the digital camera 1 can intuitively and easily grasp under what shooting conditions the captured image was acquired. . The information on the shooting conditions as described above is acquired at the time of shooting together with information on the shooting position and shooting time, and as a part of the above-described meta information, the memory card 115 or the server device 3 together with the shot image information controlled by the CPU 101. Recorded in the space-time database.

なお、上記のようにサムネイル画像をテクスチャとして立体アイコンに貼り付けるのではなく、サムネイル画像をそのままブラウザビュー画面において表示するようにしてもよい。この場合、サムネイル画像を擬似立体空間内に表示するときのサムネイル画像の向きは、アイコン33における直方体の向きと同様に、メタ情報によって時空データベースに記録された撮影方向、すなわち撮影時のデジタルカメラの向きに応じて決定される。言い換えると、撮影画像がメタ情報として有する向きに関するデータに基づいて、そのデータが表す向きに応じて、撮影画像をサムネイル画像により擬似立体空間内に表示するときの向きが決定される。したがって、デジタルカメラ1のユーザは、その撮影画像が取得されたときの撮影方向を直感的にかつ容易に把握することができる。   Instead of pasting the thumbnail image as a texture on the solid icon as described above, the thumbnail image may be displayed as it is on the browser view screen. In this case, the direction of the thumbnail image when displaying the thumbnail image in the pseudo-stereoscopic space is the same as the direction of the rectangular parallelepiped in the icon 33, that is, the shooting direction recorded in the space-time database by the meta information, that is, the digital camera at the time of shooting. It is determined according to the direction. In other words, based on the data regarding the orientation of the captured image as the meta information, the orientation when the captured image is displayed in the pseudo three-dimensional space by the thumbnail image is determined according to the orientation represented by the data. Therefore, the user of the digital camera 1 can intuitively and easily grasp the shooting direction when the captured image is acquired.

一方、山を主要被写体とした撮影画像を表すアイコン34は、山を模擬した立体形状を有しており、その側面部分には、撮影画像から切り出された山の部分がテクスチャとして貼り付けられている。同様に、顔を主要被写体とした撮影画像を表しているアイコン32は、人の頭部を模擬した球状あるいは円盤状の立体形状を有しており、その側面部分には、撮影画像から切り出された人の顔の部分がテクスチャとして貼り付けられている。   On the other hand, the icon 34 representing a photographed image having a mountain as a main subject has a three-dimensional shape simulating the mountain, and a mountain portion cut out from the photographed image is pasted as a texture on the side surface portion. Yes. Similarly, an icon 32 representing a photographed image having a face as a main subject has a spherical or disk-like three-dimensional shape that simulates a human head, and a side portion thereof is cut out from the photographed image. The face part of the person is pasted as a texture.

このように、デジタルカメラ1は、時空データベースから抽出された撮影画像の被写体を模擬した形状の立体アイコン32および34をブラウザビュー画面において表示する。すなわち、立体アイコン32および34の形状は、時空データベースから抽出された撮影画像情報における主要被写体に応じて決定される。これにより、デジタルカメラ1のユーザは、その立体アイコンの撮影画像に何が写っているかを直感的にかつ容易に把握することができる。   In this way, the digital camera 1 displays the three-dimensional icons 32 and 34 having a shape simulating the subject of the captured image extracted from the space-time database on the browser view screen. That is, the shapes of the three-dimensional icons 32 and 34 are determined according to the main subject in the captured image information extracted from the space-time database. Thereby, the user of the digital camera 1 can intuitively and easily grasp what is reflected in the captured image of the solid icon.

また、立体アイコン32および34には、撮影画像から主要被写体の部分を切り出した画像が貼り付けられる。これにより、デジタルカメラ1のユーザは、立体アイコンによって表された主要被写体が撮影画像においてどのように写っているかを具体的に観察することができる。   Further, an image obtained by cutting out the main subject portion from the photographed image is pasted on the three-dimensional icons 32 and 34. Thereby, the user of the digital camera 1 can specifically observe how the main subject represented by the three-dimensional icon is reflected in the captured image.

なお、上記のような立体アイコンの形状は一例であるため、その他にも被写体の種類に応じて様々な形状とすることができる。たとえば、人物の全体像であれば人型の立体アイコン、動物であれば動物型の立体アイコンなどを用いることができる。さらに、東京タワー等の著名建造物であれば、その建造物に合わせた形状の立体アイコンを用いるようにしてもよい。   Note that the shape of the three-dimensional icon as described above is merely an example, and other shapes can be used depending on the type of subject. For example, a human-shaped three-dimensional icon can be used for an entire image of a person, and an animal-shaped three-dimensional icon can be used for an animal. Furthermore, if it is a famous building such as Tokyo Tower, a solid icon having a shape corresponding to the building may be used.

上記において、撮影画像から被写体の部分を切り出す処理は、デジタルカメラ1やサーバ装置3が主要被写体の認識処理や顔認識処理のような周知の処理手法などを用いて自動的に行うことができる。あるいは、デジタルカメラ1のユーザやサーバ装置3の管理者等が切り出し範囲を指定することで行うようにしてもよい。   In the above, the process of cutting out the portion of the subject from the captured image can be automatically performed by the digital camera 1 or the server device 3 using a known processing method such as a main subject recognition process or a face recognition process. Or you may make it perform by the user of the digital camera 1, the administrator of the server apparatus 3, etc. specifying the cutting-out range.

ブラウザビュー画面が表示されているときに、ユーザがデジタルカメラ1の傾きを変化させると、前述のようにして検索対象時間が変化され、それまでとは異なる検索条件が設定される。したがって、擬似立体空間内に表示されるアイコンも、それまでとは違うものに変化する。   When the user changes the tilt of the digital camera 1 while the browser view screen is displayed, the search target time is changed as described above, and different search conditions are set. Therefore, the icon displayed in the pseudo three-dimensional space also changes to a different one.

なお、検索条件において検索対象時間を設定しない場合でも、カメラ傾きに基づいて表示対象時間を設定することで、検索対象時間を設定した場合と同様に、擬似立体空間内に表示されるアイコンをカメラ傾きに応じて変化させるようにしてもよい。たとえば、現在のカメラ傾きがほぼ0である場合、すなわちユーザがデジタルカメラ1をほぼ真っ直ぐ向けて構えている場合は、時空データベースから抽出された情報のうち、現在から所定の時間範囲、たとえば1年前までの時間範囲において作成または取得された情報のアイコンをブラウザビュー画面に表示する。この状態からユーザがデジタルカメラ1を右に傾けると、表示対象時間、すなわちブラウザビュー画面においてアイコンの表示対象とする情報の取得時間の範囲を、次第に過去に遡って変化させる。反対に、ユーザがデジタルカメラ1を左に傾けると、表示対象時間を過去から現在に向かって次第に変化させる。   Note that even if the search target time is not set in the search condition, the display target time is set based on the camera tilt so that the icon displayed in the pseudo-stereoscopic space is displayed in the camera as in the case where the search target time is set. You may make it change according to inclination. For example, when the current camera tilt is almost zero, that is, when the user is holding the digital camera 1 facing almost straight, out of the information extracted from the space-time database, a predetermined time range from the present, for example, one year Displays icons of information created or obtained in the previous time range on the browser view screen. When the user tilts the digital camera 1 to the right from this state, the display target time, that is, the range of the acquisition time of information to be displayed as an icon on the browser view screen, is gradually changed back to the past. On the other hand, when the user tilts the digital camera 1 to the left, the display target time is gradually changed from the past to the present.

あるいは、カメラ傾きに基づいて設定された表示対象時間内に作成または取得された情報と、表示対象時間外に作成または取得された情報とを、異なる表示形態としてもよい。たとえば、表示対象時間内に取得された撮影画像については通常の色合いで表示し、表示対象時間よりも過去に取得された撮影画像はセピア色で、表示対象時間よりも未来に取得された撮影画像は青色で、それぞれ表示する。このようにして、各情報の時間的特徴をブラウザビュー画面において表現するようにしてもよい。   Alternatively, the information created or acquired within the display target time set based on the camera tilt may be different from the information created or acquired outside the display target time. For example, a captured image acquired within the display target time is displayed in a normal color, and a captured image acquired in the past than the display target time is sepia, and a captured image acquired in the future after the display target time. Are displayed in blue. In this way, the temporal characteristics of each piece of information may be expressed on the browser view screen.

シャッターボタン11が半押し操作されると、そのときブラウザビュー画面において空間カーソル30内に位置しているアイコンが選択され、選択されたアイコンの情報がモニタ104において一覧表示される。これにより、ブラウザビュー画面においてそれぞれ所定の位置に配置された時空データベースからの抽出情報のうち、空間カーソル30内に配置された情報が選択される。すると、図6に示すような画面が表示される。このような表示画面を、以下ではセレクトビュー画面と称する。このセレクトビュー画面では、図5のブラウザビュー画面において空間カーソル30内に位置しているアイコン31および32が表す情報として、アイコン31に対応する撮影画像35〜37と、アイコン32に対応する撮影画像38とが一覧表示されている。   When the shutter button 11 is half-pressed, an icon located in the space cursor 30 is selected on the browser view screen at that time, and information on the selected icon is displayed in a list on the monitor 104. As a result, information arranged in the space cursor 30 is selected from the extracted information from the space-time database arranged at a predetermined position on the browser view screen. Then, a screen as shown in FIG. 6 is displayed. Hereinafter, such a display screen is referred to as a select view screen. In the select view screen, as the information represented by the icons 31 and 32 positioned in the space cursor 30 in the browser view screen of FIG. 5, the captured images 35 to 37 corresponding to the icon 31 and the captured image corresponding to the icon 32 are displayed. 38 are displayed in a list.

図6のセレクトビュー画面では、一覧表示された情報のうち、枠により囲われた撮影画像35が選択されている。この枠の位置は、デジタルカメラ1の操作に応じて変更することができる。たとえば、デジタルカメラ1の仰角や方位角、傾きなどの姿勢変化に応じて枠の位置を変更してもよい。あるいは、ジョグダイヤル17の操作に応じて枠の位置を変更してもよい。なお、セレクトビュー画面でもブラウザビュー画面と同様に、カメラ傾きに基づいて表示対象時間を設定することで、表示する情報の取得時間の範囲を変化させるようにしてもよい。   On the select view screen of FIG. 6, a photographed image 35 surrounded by a frame is selected from the displayed information. The position of this frame can be changed according to the operation of the digital camera 1. For example, the position of the frame may be changed according to a change in posture such as the elevation angle, azimuth angle, and tilt of the digital camera 1. Alternatively, the position of the frame may be changed according to the operation of the jog dial 17. Note that, similarly to the browser view screen, the selection view screen may set the display target time based on the camera tilt to change the acquisition time range of the information to be displayed.

セレクトビュー画面においてシャッターボタン11が全押し操作されると、そのとき選択されていた情報がモニタ104に拡大表示される。このとき表示される画面を、以下ではワンビュー画面と称する。一方、シャッターボタン11の半押し操作が解除されると、図5のブラウザビュー画面に戻る。   When the shutter button 11 is fully pressed on the select view screen, the information selected at that time is enlarged and displayed on the monitor 104. The screen displayed at this time is hereinafter referred to as a one-view screen. On the other hand, when the half-press operation of the shutter button 11 is released, the browser view screen of FIG. 5 is restored.

図7は、撮影画像35が選択されたときのワンビュー画面の例を示している。シャッターボタン11の全押し操作が解除されると、図5のブラウザビュー画面に戻る。   FIG. 7 shows an example of the one-view screen when the captured image 35 is selected. When the full pressing operation of the shutter button 11 is released, the browser view screen of FIG. 5 is restored.

デジタルカメラ1は、情報検索モードが設定されると、以上説明したような処理を実行することにより、時空データベースから様々な情報を抽出して表示する。図8は、このときの処理の流れを示すフローチャートである。このフローチャートは、CPU101によって実行される。以下、図8のフローチャートについて説明する。   When the information search mode is set, the digital camera 1 extracts various information from the space-time database and displays it by executing the processing as described above. FIG. 8 is a flowchart showing the flow of processing at this time. This flowchart is executed by the CPU 101. Hereinafter, the flowchart of FIG. 8 will be described.

ステップS10では、CCD113からの撮像信号に基づく撮影画像データをCCDドライバ112から受信して、被写体のスルー画像を取得する。ステップS20では、ステップS10で取得したスルー画像をモニタ104に表示する。これにより、図4のようなスルー画像が表示される。   In step S10, captured image data based on the imaging signal from the CCD 113 is received from the CCD driver 112, and a through image of the subject is acquired. In step S20, the through image acquired in step S10 is displayed on the monitor 104. Thereby, a through image as shown in FIG. 4 is displayed.

ステップS30では、情報検索モードが設定されているか否かを判定する。情報検索モードが設定されている場合は、次のステップS40へ進む。一方、情報検索モードが設定されておらず、撮影モードが設定されている場合は、ステップS10へ戻る。これにより、撮影モードでは図4のようなスルー画像が表示される。そして、ユーザがシャッターボタン11を操作して撮影指示を行うと、その撮影指示に応じて撮影画像が取得され、撮影画像情報がメモリカード115に記録される。   In step S30, it is determined whether or not the information search mode is set. If the information search mode is set, the process proceeds to the next step S40. On the other hand, if the information search mode is not set and the shooting mode is set, the process returns to step S10. Thereby, a through image as shown in FIG. 4 is displayed in the photographing mode. When the user issues a shooting instruction by operating the shutter button 11, a shot image is acquired according to the shooting instruction, and the shot image information is recorded in the memory card 115.

ステップS40では、カメラ位置の検出を行う。ここでは、GPSセンサ107によりGPS信号を受信することで、そのGPS信号に基づいて、デジタルカメラ1の現在位置を示すカメラ位置を検出する。次のステップS50では、カメラ姿勢の検出を行う。ここでは、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の現在の向きを示すカメラ向きと、デジタルカメラ1の現在の傾きを示すカメラ傾きとを検出する。   In step S40, the camera position is detected. Here, a GPS signal is received by the GPS sensor 107, and a camera position indicating the current position of the digital camera 1 is detected based on the GPS signal. In the next step S50, the camera posture is detected. Here, based on the posture change of the digital camera 1 detected by the motion sensor 108, a camera orientation indicating the current orientation of the digital camera 1 and a camera tilt indicating the current tilt of the digital camera 1 are detected.

ステップS60では、ステップS50で検出されたカメラ姿勢に基づいて、そのときのカメラ傾きに応じた情報検索の時間範囲を前述のようにして設定する。ステップS70では、ステップS40で検出されたカメラ位置と、ステップS60で設定された時間範囲とに基づいて、前述のような方法により、時空データベースから情報を検索する際の検索条件を設定する。すなわち、カメラ位置およびカメラ向きに基づいて検索対象エリアを設定すると共に、そのときのデジタルカメラ1の傾き状態に応じて設定された情報検索の時間範囲に基づいて検索対象時間を設定することで、検索条件を設定する。なお、このとき検索対象エリアのみを設定し、検索対象時間を設定しないこととしてもよい。   In step S60, based on the camera posture detected in step S50, the information search time range corresponding to the camera tilt at that time is set as described above. In step S70, based on the camera position detected in step S40 and the time range set in step S60, search conditions for searching information from the space-time database are set by the method described above. That is, by setting the search target area based on the camera position and camera orientation, and setting the search target time based on the information search time range set according to the tilt state of the digital camera 1 at that time, Set search conditions. At this time, only the search target area may be set and the search target time may not be set.

ステップS80では、ステップS70で設定された検索条件に基づいて、時空データベースから情報の検索を行う。このとき、メモリカード115とサーバ装置3のいずれか一方の時空データベースから情報を検索してもよいし、両方の時空データベースから情報を検索してもよい。ステップS90では、ステップS80で検索された情報を時空データベースから抽出する。これにより、検索条件を満たす情報が抽出される。   In step S80, information is searched from the space-time database based on the search condition set in step S70. At this time, information may be retrieved from either the space-time database of either the memory card 115 or the server device 3, or information may be retrieved from both space-time databases. In step S90, the information retrieved in step S80 is extracted from the space-time database. Thereby, information satisfying the search condition is extracted.

なお、ステップS80においてサーバ装置3の時空データベースを検索する場合は、前述のように、ステップS70で設定した検索条件をサーバ装置3へ送信するようにしてもよい。あるいは、時空データベースに記録された情報をデジタルカメラ1のCPU101に入力し、その情報をデジタルカメラ1において検索するようにしてもよい。いずれかの方法で時空データベースから検索された情報が、ステップS90において抽出される。   When searching the space-time database of the server device 3 in step S80, the search condition set in step S70 may be transmitted to the server device 3 as described above. Alternatively, information recorded in the space-time database may be input to the CPU 101 of the digital camera 1 and the information may be searched for in the digital camera 1. Information retrieved from the space-time database by any method is extracted in step S90.

ステップS100では、ステップS90で抽出された情報に対してアイコン作成処理を行う。このアイコン作成処理では、ステップS90で抽出された各情報の内容に応じて、図5のアイコン31〜34のようなアイコンをそれぞれ作成する。なお、このときに必要な撮影条件などの情報は、前述のように撮影画像情報に付加されたメタ情報として時空データベースに記録されている。   In step S100, an icon creation process is performed on the information extracted in step S90. In this icon creation process, icons such as icons 31 to 34 in FIG. 5 are created according to the contents of each information extracted in step S90. Note that information such as shooting conditions necessary at this time is recorded in the space-time database as meta information added to the shot image information as described above.

ステップS110では、立体化処理を行う。ここでは、ステップS40で検出されたカメラ位置と、ステップS50で検出されたカメラ姿勢とに基づいて、前述のように擬似立体空間の範囲を決定する。   In step S110, a three-dimensional process is performed. Here, the range of the pseudo three-dimensional space is determined as described above based on the camera position detected in step S40 and the camera posture detected in step S50.

ステップS120では、ブラウザビュー画面をモニタ104に表示する。ここでは、ステップS20で表示したスルー画像に重畳して、ステップS110の立体化処理で決定された擬似立体空間の範囲に対応するグリッド線および空間カーソルを表示すると共に、ステップS100で作成されたアイコンを擬似立体空間内の対応する位置にそれぞれ表示する。これにより、図6のようなブラウザビュー画面が表示される。   In step S120, the browser view screen is displayed on the monitor 104. Here, the grid line and the space cursor corresponding to the range of the pseudo three-dimensional space determined by the three-dimensional processing in step S110 are displayed superimposed on the through image displayed in step S20, and the icon created in step S100 is displayed. Are respectively displayed at corresponding positions in the pseudo three-dimensional space. Thereby, a browser view screen as shown in FIG. 6 is displayed.

ステップS130では、モーションセンサ108によって検出されたカメラ姿勢に変化があるか否かを判定する。カメラ姿勢に変化がある場合はステップS140へ進む。ステップS140では、カメラ姿勢の変化に応じて、前述のようにして空間カーソル30をブラウザビュー画面内で移動させる。ステップS140を実行したら、ステップS150へ進む。一方、カメラ姿勢に変化がない場合は、ステップS140を実行せずにステップS150へ進む。   In step S130, it is determined whether or not the camera posture detected by the motion sensor 108 has changed. If there is a change in the camera posture, the process proceeds to step S140. In step S140, the spatial cursor 30 is moved in the browser view screen as described above according to the change in the camera posture. If step S140 is performed, it will progress to step S150. On the other hand, if there is no change in the camera posture, the process proceeds to step S150 without executing step S140.

ステップS150では、複数画像を表すアイコン31が空間カーソル30内にあるか否かを判定する。空間カーソル30内にアイコン31がある場合は、次のステップS160へ進み、アイコン31を前述のようにアニメーション表示する。これにより、複数の撮影画像を交互に切り替えて表示し、各撮影画像の内容をユーザが確認できるようにする。ステップS160を実行したら、ステップS170へ進む。一方、空間カーソル30内にアイコン31がない場合は、ステップS160を実行せずにステップS170へ進む。   In step S150, it is determined whether or not the icon 31 representing a plurality of images is in the space cursor 30. If there is an icon 31 in the space cursor 30, the process proceeds to the next step S160, and the icon 31 is animated as described above. Thereby, a plurality of photographed images are alternately displayed and displayed so that the user can confirm the contents of each photographed image. If step S160 is performed, it will progress to step S170. On the other hand, if there is no icon 31 in the space cursor 30, the process proceeds to step S170 without executing step S160.

ステップS170では、シャッターボタン11の半押し操作があったか否かを判定する。ブラウザビュー画面において半押し操作があった場合はステップS180へ進み、なかった場合はステップS10へ戻る。   In step S170, it is determined whether or not the shutter button 11 is half-pressed. If there is a half-press operation on the browser view screen, the process proceeds to step S180; otherwise, the process returns to step S10.

ステップS180では、空間カーソル30内に情報があるか否かを判定する。空間カーソル30内に情報がある場合、すなわちブラウザビュー画面において空間カーソル30内にいずれかの情報を表すアイコンが表示されている場合は、ステップS190へ進む。一方、空間カーソル30内に情報がない場合は、ステップS10へ戻る。   In step S180, it is determined whether there is information in the space cursor 30 or not. If there is information in the space cursor 30, that is, if an icon representing any information is displayed in the space cursor 30 on the browser view screen, the process proceeds to step S190. On the other hand, if there is no information in the space cursor 30, the process returns to step S10.

ステップS190では、ステップS180で空間カーソル30内にあると判定された情報について、図6のようなセレクトビュー画面を表示する。ステップS200では、セレクトビュー画面においてシャッターボタン11の全押し操作があったか否かを判定する。全押し操作があった場合はステップS210へ進み、なかった場合はステップS220へ進む。   In step S190, a select view screen as shown in FIG. 6 is displayed for the information determined to be in the space cursor 30 in step S180. In step S200, it is determined whether or not the shutter button 11 is fully pressed on the select view screen. If there is a full press operation, the process proceeds to step S210, and if not, the process proceeds to step S220.

ステップS210では、全押し操作があったときにセレクトビュー画面で選択されていた撮影画像について、図7のようなワンビュー画面を表示する。   In step S210, a one-view screen as shown in FIG. 7 is displayed for the photographed image selected on the select view screen when the full-press operation is performed.

ステップS220では、シャッターボタン11の操作が解除されたか否かを判定する。シャッターボタン11の操作が解除された場合、すなわち半押し操作や全押し操作が解除された場合は、ステップS10へ戻る。これにより、前述のような処理を繰り返して、再びブラウザビュー画面を表示する。一方、シャッター操作が解除されない場合は、ステップS190へ戻ってセレクトビュー画面の表示を続ける。なお、全押し操作されている場合は、セレクトビュー画面ではなくワンビュー画面を表示する。   In step S220, it is determined whether or not the operation of the shutter button 11 has been released. When the operation of the shutter button 11 is released, that is, when the half-press operation or the full-press operation is released, the process returns to step S10. Accordingly, the browser view screen is displayed again by repeating the processing as described above. On the other hand, if the shutter operation is not released, the process returns to step S190 to continue displaying the select view screen. If the full-press operation is performed, the one-view screen is displayed instead of the select-view screen.

以上説明した実施の形態によれば、次の作用効果を奏する。
(1)デジタルカメラ1は、モニタ104にブラウザビュー画面を表示する(ステップS120)。これにより、モニタ104の画面上に擬似立体空間を表現し、モニタ104において、その擬似立体空間の所定の領域を示す空間カーソル30を表示すると共に、擬似立体空間内の所定の位置に配置された各種の情報をアイコン31〜34によって表示する。そして、シャッターボタン11が半押し操作されると、CPU101の処理により、アイコン31〜34の各情報のうち、空間カーソル30内に配置された情報を選択して、セレクトビュー画面を表示する(ステップS190)こととした。このようにしたので、様々な情報を見やすく表示しつつ、いずれかの情報を容易に選択することができる。
According to the embodiment described above, the following operational effects are obtained.
(1) The digital camera 1 displays a browser view screen on the monitor 104 (step S120). As a result, the pseudo three-dimensional space is represented on the screen of the monitor 104, and the monitor 104 displays the space cursor 30 indicating the predetermined area of the pseudo three-dimensional space and is arranged at a predetermined position in the pseudo three-dimensional space. Various types of information are displayed by icons 31-34. When the shutter button 11 is half-pressed, the CPU 101 selects the information arranged in the space cursor 30 among the information of the icons 31 to 34 by the processing of the CPU 101, and displays the select view screen (step). S190). Since it did in this way, any information can be selected easily, displaying various information easily.

(2)デジタルカメラ1は、ユーザの操作に応じて空間カーソル30を擬似立体空間内で移動させるための操作部材として用いられるジョグダイヤル17や十字キーなどを備えることができる。あるいは、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づいて、デジタルカメラ1の向きを検出する(ステップS50)。空間カーソル30は、この向きに応じて、擬似立体空間内を移動することができる。このようにしたので、ユーザはデジタルカメラ1を直感的に操作して、空間カーソル30を擬似立体空間内で思い通りに移動させることができる。 (2) The digital camera 1 can include a jog dial 17 or a cross key used as an operation member for moving the space cursor 30 in the pseudo three-dimensional space according to a user operation. Alternatively, the orientation of the digital camera 1 is detected based on the posture of the digital camera 1 detected by the motion sensor 108 (step S50). The space cursor 30 can move in the pseudo three-dimensional space according to this direction. Since it did in this way, the user can operate the digital camera 1 intuitively, and can move the space cursor 30 in the pseudo | stereoscopic space as desired.

(3)ブラウザビュー画面における空間カーソル30の大きさは、撮影レンズの焦点距離に応じて決定されることが好ましい。これにより、デジタルカメラ1のユーザは、ブラウザビュー画面において、焦点距離に応じて擬似立体空間の範囲が変化していることを認識することができる。 (3) The size of the space cursor 30 on the browser view screen is preferably determined according to the focal length of the taking lens. Thereby, the user of the digital camera 1 can recognize that the range of the pseudo three-dimensional space is changed according to the focal length on the browser view screen.

(4)ブラウザビュー画面において、擬似立体空間内でのアイコン31〜34の配置は、アイコン31〜34が表す各情報の取得位置に基づいて決定される。このようにしたので、デジタルカメラ1は、時空データベースから抽出した情報を、その取得位置と共にユーザに分かりやすく提示することができる。 (4) On the browser view screen, the arrangement of the icons 31 to 34 in the pseudo three-dimensional space is determined based on the acquisition position of each information represented by the icons 31 to 34. Since it did in this way, the digital camera 1 can present the information extracted from the space-time database to the user together with the acquisition position in an easy-to-understand manner.

(5)デジタルカメラ1は、ブラウザビュー画面において、モニタ104に表示する情報として、アイコン31〜34のような画像を擬似立体空間内に表示することとした。このようにしたので、画像の内容を分かりやすくユーザに提示することができる。 (5) The digital camera 1 displays images such as icons 31 to 34 in the pseudo three-dimensional space as information to be displayed on the monitor 104 on the browser view screen. Since it did in this way, the content of an image can be shown to a user in an easy-to-understand manner.

(6)デジタルカメラ1は、CPU101の制御により、撮影画像を取得したときのデジタルカメラ1の向きに関するデータを、撮影画像情報と共にメモリカード115またはサーバ装置3の時空データベースに記録する。ブラウザビュー画面において撮影画像を擬似立体空間内に表示するときの画像の向きは、こうして時空データベースに記録されたデータが表す撮影時のデジタルカメラ1の向きに応じて決定される。したがって、デジタルカメラ1のユーザは、その撮影画像が取得されたときの撮影方向を直感的にかつ容易に把握することができる。 (6) Under the control of the CPU 101, the digital camera 1 records data relating to the orientation of the digital camera 1 when the captured image is acquired, together with the captured image information, in the memory card 115 or the space-time database of the server device 3. The orientation of the image when the captured image is displayed in the pseudo three-dimensional space on the browser view screen is determined in accordance with the orientation of the digital camera 1 at the time of photographing represented by the data recorded in the space-time database. Therefore, the user of the digital camera 1 can intuitively and easily grasp the shooting direction when the captured image is acquired.

(7)デジタルカメラ1は、モニタ104にアイコン31を表示することで、複数の画像を擬似立体空間内の同じ位置に重ねて表示する。そして、アイコン31が空間カーソル30内にある場合は、モニタ104においてアイコン31をアニメーション表示し(ステップS160)、その複数の画像を交互に切り替えて表示することとした。このようにしたので、ブラウザビュー画面において複数の画像が重ねて表示されていても、ユーザは各画像の内容を確認することができる。 (7) The digital camera 1 displays the icon 31 on the monitor 104 to display a plurality of images superimposed on the same position in the pseudo three-dimensional space. If the icon 31 is in the space cursor 30, the icon 31 is displayed as an animation on the monitor 104 (step S160), and the plurality of images are alternately switched and displayed. Since it did in this way, the user can confirm the contents of each image, even if a plurality of images are displayed in a superimposed manner on the browser view screen.

(8)デジタルカメラ1は、モニタ104において、撮影画像が貼り付けられた立体アイコン32〜34を擬似立体空間内に表示する。このとき、立体アイコン33の形状は、その撮影画像を取得したときの撮影条件に基づいて決定されることとした。このようにしたので、ユーザは、その撮影画像がどのような撮影条件で取得されたのかを直感的にかつ容易に把握することができる。 (8) On the monitor 104, the digital camera 1 displays the three-dimensional icons 32-34 on which the captured images are pasted in the pseudo three-dimensional space. At this time, the shape of the three-dimensional icon 33 is determined based on the shooting condition when the captured image is acquired. Since it did in this way, the user can grasp | ascertain intuitively and easily what kind of imaging conditions the picked-up image was acquired.

(9)また、立体アイコン32および34の形状は、撮影画像における主要被写体に応じて決定されることとした。すなわち、立体アイコン32の形状は、主要被写体である人の顔の形状に応じて決定され、立体アイコン34の形状は、主要被写体である山の形状に応じて決定される。このようにしたので、ユーザは、その立体アイコンの撮影画像に何が写っているかを直感的にかつ容易に把握することができる。 (9) The shapes of the three-dimensional icons 32 and 34 are determined in accordance with the main subject in the captured image. That is, the shape of the three-dimensional icon 32 is determined according to the shape of the face of the person who is the main subject, and the shape of the three-dimensional icon 34 is determined according to the shape of the mountain which is the main subject. Since it did in this way, the user can grasp | ascertain intuitively and easily what is reflected in the picked-up image of the solid icon.

(10)上記の立体アイコン32および34には、主要被写体の部分を切り出した画像が貼り付けられることとした。このようにしたので、ユーザは、その立体アイコンによって表された主要被写体が撮影画像においてどのように写っているかを具体的に観察することができる。 (10) An image obtained by cutting out the main subject is pasted on the three-dimensional icons 32 and 34. Since it did in this way, the user can observe specifically how the main subject represented with the solid icon is reflected in the picked-up image.

なお、上記実施の形態では、電子カメラであるデジタルカメラ1を例に説明したが、他の装置についても本発明を適用可能である。たとえば、カメラ付きの携帯電話などの携帯電子機器に適用することができる。あるいは、撮影を行わないデジタル式の双眼鏡やフィールドスコープなどにおいて、予め時空データベースに記録された画像情報などの各種情報を検索して表示する際に、本発明を適用してもよい。すなわち、画面上に表現された擬似立体空間の所定の領域を示す空間カーソルおよび擬似立体空間内の所定の位置に配置された情報を表示する表示部と、空間カーソル内に配置された情報を選択する選択部とを備える表示装置においても、本発明を適用することができる。   In the above embodiment, the digital camera 1 which is an electronic camera has been described as an example. However, the present invention can also be applied to other devices. For example, the present invention can be applied to a portable electronic device such as a mobile phone with a camera. Alternatively, the present invention may be applied when searching and displaying various types of information such as image information recorded in a space-time database in advance in digital binoculars or field scopes that do not perform shooting. In other words, a space cursor indicating a predetermined area of the pseudo three-dimensional space represented on the screen, a display unit for displaying information arranged at a predetermined position in the pseudo three-dimensional space, and information arranged in the space cursor are selected. The present invention can also be applied to a display device including a selection unit that performs the above operation.

以上説明した実施の形態や各種の変形例はあくまで一例に過ぎない。したがって、本発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。   The embodiment and various modifications described above are merely examples. Therefore, the present invention is not limited to these contents as long as the characteristics of the present invention are not impaired.

本発明の一実施の形態によるカメラシステムの構成図である。It is a block diagram of the camera system by one embodiment of this invention. 本発明の一実施の形態によるデジタルカメラの外観を示す図である。It is a figure which shows the external appearance of the digital camera by one embodiment of this invention. 本発明の一実施の形態によるデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 撮影モードが設定されたときに表示されるスルー画像の例を示す図である。It is a figure which shows the example of the through image displayed when imaging | photography mode is set. 情報検索モードが設定されたときに表示されるブラウザビュー画面の例を示す図である。It is a figure which shows the example of the browser view screen displayed when information search mode is set. セレクトビュー画面の例を示す図である。It is a figure which shows the example of a select view screen. ワンビュー画面の例を示す図である。It is a figure which shows the example of a one view screen. 時空データベースから様々な情報を抽出して表示するときの処理の流れを示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the flow of a process when extracting and displaying various information from a space-time database.

符号の説明Explanation of symbols

1:デジタルカメラ
2:アクセスポイント
3:サーバ装置
1: Digital camera 2: Access point 3: Server device

Claims (16)

撮影位置が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出部と、
前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出部により抽出された撮影画像に対応する立体アイコンとを表示する表示部と、
前記空間カーソル内に配置された前記立体アイコンを選択する選択部とを備え
前記表示部は、前記擬似立体空間内で前記撮影位置に対応する位置に、前記撮影画像に含まれている主要被写体に応じて前記立体アイコンの形状を変更して前記立体アイコンを表示すること
を特徴とする表示装置。
In a pseudo three-dimensional space represented on the screen based on the shooting position recorded in association with the captured image from an external recording device in which a plurality of captured images recorded in association with the shooting position are recorded An extraction unit for extracting a captured image included in
A spatial cursor indicating a predetermined region of the pseudo 3D space, and a display unit for displaying a stereoscopic icon corresponding to the photographic image extracted by the extraction unit,
A selection unit for selecting the solid icon arranged in the space cursor ,
Wherein the display unit, at a position corresponding to the photographing position in the pseudo 3D space, you to view the stereoscopic icon by changing the shape of the three-dimensional icon in response to the main subject included in the captured image A display device.
請求項1に記載の表示装置において、The display device according to claim 1,
前記表示部は、前記撮影画像から前記主要被写体を含むように一部切り出された画像をテクスチャとして前記立体アイコンを表示することThe display unit displays the three-dimensional icon by using an image partially cut out from the photographed image so as to include the main subject as a texture.
を特徴とする表示装置。A display device.
請求項2に記載の表示装置において、The display device according to claim 2,
前記表示部は、前記撮影画像の画角に応じて前記テクスチャ面の大きさを変更して前記立体アイコンを表示することThe display unit displays the solid icon by changing the size of the texture surface according to the angle of view of the captured image.
を特徴とする表示装置。A display device.
請求項2又は請求項3に記載の表示装置において、The display device according to claim 2 or 3,
前記表示部は、前記撮影画像の被写界深度に応じて前記テクスチャ面に直交する厚み方向の長さを変更して前記立体アイコンを表示することThe display unit displays the three-dimensional icon by changing a length in a thickness direction orthogonal to the texture plane according to a depth of field of the captured image.
を特徴とする表示装置。A display device.
請求項1から請求項4のいずれか一項に記載の表示装置において、In the display device according to any one of claims 1 to 4,
前記外部記録装置には、前記撮影位置及び撮影方向が関連付けて記録された撮影画像が複数記録されており、In the external recording device, a plurality of photographed images recorded in association with the photographing position and the photographing direction are recorded,
前記表示部は、前記擬似立体空間内で前記撮影方向に対応する向きで前記立体アイコンを表示することThe display unit displays the three-dimensional icon in an orientation corresponding to the shooting direction in the pseudo three-dimensional space.
を特徴とする表示装置。A display device.
請求項1から請求項5のいずれか一項に記載の表示装置において、The display device according to any one of claims 1 to 5,
前記空間カーソルを前記擬似立体空間内で移動させるためにユーザにより操作される操作部を更に備えることAn operation unit operated by a user to move the space cursor in the pseudo three-dimensional space is further provided.
を特徴とする表示装置。A display device.
請求項1から請求項5のいずれか一項に記載の表示装置において、The display device according to any one of claims 1 to 5,
前記表示装置の向きを検出する検出部と、A detection unit for detecting the orientation of the display device;
前記検出部により検出された前記表示装置の向きに応じて、前記空間カーソルを前記擬似立体空間内で移動させる移動手段を更に備えることThe apparatus further comprises moving means for moving the space cursor in the pseudo-stereoscopic space in accordance with the orientation of the display device detected by the detection unit.
を特徴とする表示装置。A display device.
請求項1から請求項7のいずれか一項に記載の表示装置において、The display device according to any one of claims 1 to 7,
記録装置を装着する装着部を更に備え、A mounting portion for mounting the recording device;
前記外部記録装置は、前記装着部に装着された記録装置であることThe external recording device is a recording device mounted on the mounting unit.
を特徴とする表示装置。A display device.
請求項1から請求項8のいずれか一項に記載の表示装置において、The display device according to any one of claims 1 to 8,
前記外部記録装置は、無線通信部を介して接続されるサーバ装置であることThe external recording device is a server device connected via a wireless communication unit
を特徴とする表示装置。A display device.
請求項1から請求項9のいずれか一項に記載の表示装置を備えることA display device according to any one of claims 1 to 9 is provided.
を特徴とする電子カメラ。An electronic camera characterized by
請求項10に記載の電子カメラにおいて、The electronic camera according to claim 10.
被写体を撮影して撮影画像を取得する撮影画像取得部と、A captured image acquisition unit that captures a captured image by capturing a subject;
被写体を撮影したときの撮影位置を取得する撮影位置取得部と、A shooting position acquisition unit for acquiring a shooting position when shooting a subject;
被写体を撮影したときの撮影方向を取得する撮影方向取得部と、A shooting direction acquisition unit for acquiring a shooting direction when shooting a subject;
前記撮影画像取得部により取得した前記撮影画像と、前記撮影位置取得部により取得した前記撮影位置と、前記撮影方向取得部により取得した前記撮影方向とを関連付けて前記外部記録装置に記録する記録制御部を更に備えることRecording control for associating and recording the captured image acquired by the captured image acquisition unit, the imaging position acquired by the imaging position acquisition unit, and the imaging direction acquired by the imaging direction acquisition unit in the external recording device Further comprising a section
を特徴とする電子カメラ。An electronic camera characterized by
請求項10又は請求項11に記載の電子カメラにおいて、The electronic camera according to claim 10 or 11,
前記表示部は、設定されている撮影レンズの焦点距離に応じて前記空間カーソルの大きさを変更して前記空間カーソルを表示することThe display unit displays the space cursor by changing a size of the space cursor according to a set focal length of the photographing lens.
を特徴とする電子カメラ。An electronic camera characterized by
撮影位置及び撮影方向が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出部と、From an external recording device in which a plurality of photographed images recorded in association with the photographing position and the photographing direction are recorded, a pseudo image displayed on the screen based on the photographing position recorded in association with the photographed image. An extraction unit for extracting a captured image included in the three-dimensional space;
前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出部により抽出された撮影画像に対応する立体アイコンとを表示する表示部と、A display unit that displays a space cursor indicating a predetermined region of the pseudo-stereoscopic space and a stereoscopic icon corresponding to the captured image extracted by the extraction unit;
前記空間カーソル内に配置された前記立体アイコンを選択する選択部とを備え、A selection unit for selecting the solid icon arranged in the space cursor,
前記表示部は、前記擬似立体空間内で前記撮影位置に対応する位置に前記撮影方向に対応する向きで前記立体アイコンを表示することThe display unit displays the three-dimensional icon in a direction corresponding to the photographing direction at a position corresponding to the photographing position in the pseudo three-dimensional space.
を特徴とする表示装置。A display device.
請求項13に記載の表示装置と、A display device according to claim 13;
被写体を撮影して撮影画像を取得する撮影画像取得部と、A captured image acquisition unit that captures a captured image by capturing a subject;
被写体を撮影したときの撮影位置を取得する撮影位置取得部と、A shooting position acquisition unit for acquiring a shooting position when shooting a subject;
被写体を撮影したときの撮影方向を取得する撮影方向取得部と、A shooting direction acquisition unit for acquiring a shooting direction when shooting a subject;
前記撮影画像取得部により取得した前記撮影画像と、前記撮影位置取得部により取得した前記撮影位置と、前記撮影方向取得部により取得した前記撮影方向とを関連付けて前記外部記録装置に記録する記録制御部を更に備えることRecording control for associating and recording the captured image acquired by the captured image acquisition unit, the imaging position acquired by the imaging position acquisition unit, and the imaging direction acquired by the imaging direction acquisition unit in the external recording device Further comprising a section
を特徴とする電子カメラ。An electronic camera characterized by
撮影位置が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出ステップと、In a pseudo three-dimensional space represented on the screen based on the shooting position recorded in association with the captured image from an external recording device in which a plurality of captured images recorded in association with the shooting position are recorded An extraction step of extracting a captured image included in
前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出ステップにより抽出された撮影画像に対応する立体アイコンとを表示する表示ステップと、A display step of displaying a space cursor indicating a predetermined area of the pseudo-stereoscopic space and a stereoscopic icon corresponding to the captured image extracted by the extraction step;
前記空間カーソル内に配置された前記立体アイコンを選択する選択ステップとをコンピュータに実行させる制御プログラムであって、A control program for causing a computer to execute a selection step of selecting the solid icon arranged in the space cursor,
前記表示ステップは、前記擬似立体空間内で前記撮影位置に対応する位置に、前記撮影画像に含まれている主要被写体に応じて前記立体アイコンの形状を変更して前記立体アイコンを表示する制御プログラム。The display step displays the stereoscopic icon by changing the shape of the stereoscopic icon according to the main subject included in the captured image at a position corresponding to the shooting position in the pseudo-stereoscopic space. .
撮影位置及び撮影方向が関連付けて記録されている撮影画像が複数記録されている外部記録装置から、前記撮影画像に関連付けて記録されている前記撮影位置に基づいて、画面上に表現されている擬似立体空間内に含まれる撮影画像を抽出する抽出ステップと、From an external recording device in which a plurality of photographed images recorded in association with the photographing position and the photographing direction are recorded, a pseudo image displayed on the screen based on the photographing position recorded in association with the photographed image. An extraction step of extracting a captured image included in the three-dimensional space;
前記擬似立体空間の所定の領域を示す空間カーソルと、前記抽出ステップにより抽出された撮影画像に対応する立体アイコンとを表示する表示ステップと、A display step of displaying a space cursor indicating a predetermined area of the pseudo-stereoscopic space and a stereoscopic icon corresponding to the captured image extracted by the extraction step;
前記空間カーソル内に配置された前記立体アイコンを選択する選択ステップとをコンピュータに実行させる制御プログラムであって、A control program for causing a computer to execute a selection step of selecting the solid icon arranged in the space cursor,
前記表示ステップは、前記擬似立体空間内で前記撮影位置に対応する位置に前記撮影方向に対応する向きで前記立体アイコンを表示する制御プログラム。The display step is a control program for displaying the three-dimensional icon in a direction corresponding to the photographing direction at a position corresponding to the photographing position in the pseudo three-dimensional space.
JP2007225304A 2007-08-31 2007-08-31 Display device, electronic camera, and control program Expired - Fee Related JP5003358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007225304A JP5003358B2 (en) 2007-08-31 2007-08-31 Display device, electronic camera, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007225304A JP5003358B2 (en) 2007-08-31 2007-08-31 Display device, electronic camera, and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012118370A Division JP2012199971A (en) 2012-05-24 2012-05-24 Display device, electronic camera, and control program

Publications (2)

Publication Number Publication Date
JP2009060338A JP2009060338A (en) 2009-03-19
JP5003358B2 true JP5003358B2 (en) 2012-08-15

Family

ID=40555675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007225304A Expired - Fee Related JP5003358B2 (en) 2007-08-31 2007-08-31 Display device, electronic camera, and control program

Country Status (1)

Country Link
JP (1) JP5003358B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010010A (en) * 2009-06-25 2011-01-13 Sanyo Electric Co Ltd Image reproduction device and imaging apparatus
WO2013111267A1 (en) * 2012-01-24 2013-08-01 パイオニア株式会社 Head-mounted display and display method
JP2012199971A (en) * 2012-05-24 2012-10-18 Nikon Corp Display device, electronic camera, and control program
JP6620394B2 (en) 2014-06-17 2019-12-18 ソニー株式会社 Control device, control method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06168276A (en) * 1992-11-27 1994-06-14 Seiko Epson Corp Electronic filing system
JPH1165803A (en) * 1997-08-22 1999-03-09 Nec Corp Information visualization system
JP2002072991A (en) * 2000-08-30 2002-03-12 Ricoh Co Ltd Image processor, method for processing image and recording medium for the method
JP4236372B2 (en) * 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション Spatial information utilization system and server system
JP2003250127A (en) * 2002-02-22 2003-09-05 Nippon Hoso Kyokai <Nhk> Imaging apparatus and edit support apparatus
JP4340806B2 (en) * 2004-03-22 2009-10-07 富士フイルム株式会社 Image processing apparatus, method, and program
JP4468794B2 (en) * 2004-12-01 2010-05-26 オリンパス株式会社 Display control apparatus, camera, and display control method

Also Published As

Publication number Publication date
JP2009060338A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
JP5194650B2 (en) Electronic camera
JP5851766B2 (en) Portable device
JP2013162487A (en) Image display apparatus and imaging apparatus
US20160180599A1 (en) Client terminal, server, and medium for providing a view from an indicated position
CN104717429A (en) Image capture device having tilt and/or perspective correction
JP2013042250A (en) Imaging apparatus and imaging method
JP5007631B2 (en) Electronic camera
CN111385470B (en) Electronic device, control method of electronic device, and computer-readable medium
JP5186984B2 (en) Electronic camera
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
KR20140130663A (en) Server, client terminal, system, and program
JP5003358B2 (en) Display device, electronic camera, and control program
JP5088216B2 (en) Electronic camera
JP2009260599A (en) Image display apparatus and electronic camera
JP2007259002A (en) Image reproducing apparatus, its control method, and its control program
JP5034880B2 (en) Electronic camera, image display device
JP5088051B2 (en) Electronic camera and program
JP2009116795A (en) Information search device, electronic camera and information search method
JP2017046106A (en) Imaging apparatus, imaging method, and imaging program
US20210258484A1 (en) Image capturing device, image communication system, and method for display control
JP2011234257A (en) Imaging apparatus, captured image display system, control method, captured image display method and program
JP2012199971A (en) Display device, electronic camera, and control program
JP6450890B2 (en) Image providing system, image providing method, and program
JP2012227717A (en) Display device, display program, and display method
JP2015019215A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120319

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5003358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees