JP5007631B2 - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP5007631B2
JP5007631B2 JP2007225303A JP2007225303A JP5007631B2 JP 5007631 B2 JP5007631 B2 JP 5007631B2 JP 2007225303 A JP2007225303 A JP 2007225303A JP 2007225303 A JP2007225303 A JP 2007225303A JP 5007631 B2 JP5007631 B2 JP 5007631B2
Authority
JP
Japan
Prior art keywords
information
electronic camera
image
unit
digital camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007225303A
Other languages
Japanese (ja)
Other versions
JP2009060337A (en
JP2009060337A5 (en
Inventor
高橋  功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007225303A priority Critical patent/JP5007631B2/en
Publication of JP2009060337A publication Critical patent/JP2009060337A/en
Publication of JP2009060337A5 publication Critical patent/JP2009060337A5/ja
Application granted granted Critical
Publication of JP5007631B2 publication Critical patent/JP5007631B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子カメラに関する。
The present invention relates to an electronic camera.

従来、カメラに記録されている撮影画像等の各種情報の中から、所望の情報を検索するための様々な方法が提案されている。特許文献1には、ファイル名、撮影日時、名前などのキーワードをユーザが入力すると、そのキーワードに基づいて、記録されている撮影画像の中から該当する画像を検索する電子カメラが開示されている。   Conventionally, various methods for searching for desired information from various information such as a captured image recorded in a camera have been proposed. Patent Document 1 discloses an electronic camera that, when a user inputs a keyword such as a file name, a shooting date, and a name, searches for a corresponding image from recorded images based on the keyword. .

特開2006−166193号公報JP 2006-166193 A

特許文献1に開示される電子カメラでは、検索用のキーワードを入力しなければならないため、ユーザにとって煩わしい。そこで、キーワードを入力しなくても所望の情報を簡単に検索して表示できる電子カメラが求められている。   The electronic camera disclosed in Patent Document 1 is troublesome for the user because a search keyword must be input. Therefore, there is a need for an electronic camera that can easily search for and display desired information without inputting a keyword.

請求項1に記載の電子カメラは、位置に関するデータを有する情報を入力する入力部と、被写体を撮像する撮像部と、位置を検出する位置検出部と、前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部と、電子カメラの傾きを検出する傾き検出部とを有し、前記情報は、前記情報が作成された時間データを有し、前記検索部は、前記傾き検出部で検出した傾きに応じて、検索する前記情報が作成された時間範囲を変更することを特徴とする。The electronic camera according to claim 1 is based on an input unit that inputs information including data relating to a position, an imaging unit that captures an image of a subject, a position detection unit that detects a position, and a position detected by the position detection unit. A search unit that searches for the information, a display unit that displays the information searched by the search unit together with an image captured by the imaging unit, and a tilt of the electronic camera in accordance with data relating to the position of the information. An inclination detection unit for detecting, the information includes time data at which the information is generated, and the search unit generates the information to be searched according to the inclination detected by the inclination detection unit. It is characterized by changing the time range.
請求項5に記載の電子カメラは、位置に関するデータを有する情報を入力する入力部と、被写体を撮像する撮像部と、位置を検出する位置検出部と、前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部とを有し、前記画像はスルー画であり、前記表示部は、所定の切り替え条件を満たしたときに、予め記憶された背景画像を前記スルー画から切り替えて表示することを特徴とする。The electronic camera according to claim 5 is based on an input unit that inputs information having data regarding a position, an imaging unit that captures an image of a subject, a position detection unit that detects a position, and a position detected by the position detection unit. A search unit that searches for the information, and a display unit that displays the information searched by the search unit together with an image captured by the imaging unit according to data relating to a position of the information, and the image Is a through image, and the display unit displays a background image stored in advance by switching from the through image when a predetermined switching condition is satisfied.
請求項8に記載の電子カメラは、位置に関するデータを有する情報を入力する入力部と、被写体を撮像する撮像部と、位置を検出する位置検出部と、前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部とを有し、前記表示部は、擬似的な立体空間を示す線を、前記画像と共に表示することを特徴とする。The electronic camera according to claim 8 is based on an input unit that inputs information including data relating to a position, an imaging unit that captures an image of a subject, a position detection unit that detects a position, and a position detected by the position detection unit. A search unit that searches for the information, and a display unit that displays the information searched by the search unit together with an image captured by the imaging unit according to data relating to a position of the information, and the display The unit displays a line indicating a pseudo three-dimensional space together with the image.

本発明によれば、所望の情報を簡単に検索して表示することができる。   According to the present invention, desired information can be easily retrieved and displayed.

以下に図面を用いて本発明の電子カメラについて説明する。図1は、本発明の一実施形態によるデジタルカメラを含むカメラシステムの構成図である。図1に示すカメラシステムは、デジタルカメラ1、アクセスポイント2およびサーバ装置3によって構成される。アクセスポイント2とサーバ装置3は、インターネットを介して接続されている。   The electronic camera of the present invention will be described below with reference to the drawings. FIG. 1 is a configuration diagram of a camera system including a digital camera according to an embodiment of the present invention. The camera system shown in FIG. 1 includes a digital camera 1, an access point 2, and a server device 3. The access point 2 and the server device 3 are connected via the Internet.

デジタルカメラ1は、ユーザの撮影指示に応じて被写体を撮影し、撮影画像情報を取得する電子カメラである。また、デジタルカメラ1は、アクセスポイント2と無線通信を行うための無線通信機能を有している。この無線通信により、アクセスポイント2およびインターネットを介して、デジタルカメラ1とサーバ装置3が接続される。なお、デジタルカメラ1の構成については、後で図2および図3を用いて詳細に説明する。   The digital camera 1 is an electronic camera that takes a subject in accordance with a user's shooting instruction and acquires captured image information. The digital camera 1 also has a wireless communication function for performing wireless communication with the access point 2. By this wireless communication, the digital camera 1 and the server device 3 are connected via the access point 2 and the Internet. The configuration of the digital camera 1 will be described in detail later with reference to FIGS.

アクセスポイント2は、デジタルカメラ1を含む無線通信機能を備えた各種の機器がインターネット等のネットワークを利用して通信できるようにするための装置である。デジタルカメラ1とアクセスポイント2が無線通信を行うことにより、前述のようにデジタルカメラ1とサーバ装置3が接続される。   The access point 2 is a device for enabling various devices including the digital camera 1 having a wireless communication function to communicate using a network such as the Internet. When the digital camera 1 and the access point 2 perform wireless communication, the digital camera 1 and the server device 3 are connected as described above.

サーバ装置3は、時空データベースと呼ばれる情報のデータベースを格納している。この時空データベースには、様々な情報がその情報の取得位置および取得時刻と関連付けて記録されている。たとえば、デジタルカメラ1または他のカメラによって取得された撮影画像情報や、文字情報、音声情報などが、その取得位置および取得時刻と関連付けて時空データベースに記録されている。   The server device 3 stores a database of information called a space-time database. In this space-time database, various information is recorded in association with the acquisition position and acquisition time of the information. For example, photographic image information acquired by the digital camera 1 or another camera, character information, audio information, and the like are recorded in the space-time database in association with the acquisition position and acquisition time.

次に、デジタルカメラ1の構成について説明を行う。図2は、デジタルカメラ1の外観を示す図である。図2の外観図において、デジタルカメラ1は、シャッターボタン11、電源ボタン12、ズームボタン13、再生ボタン14、メニューボタン15、削除ボタン16、ジョグダイヤル17、決定ボタン18、LAN(Local Area Network)アクセス用LED(Light Emitting Diode)19、ストロボ充電用LED20、AF(Auto Focus)用LED21、メモリアクセス用LED22、電源用LED23およびモニタ104を備える。   Next, the configuration of the digital camera 1 will be described. FIG. 2 is a diagram illustrating an appearance of the digital camera 1. 2, the digital camera 1 includes a shutter button 11, a power button 12, a zoom button 13, a playback button 14, a menu button 15, a delete button 16, a jog dial 17, a determination button 18, and a LAN (Local Area Network) access. LED (Light Emitting Diode) 19, strobe charging LED 20, AF (Auto Focus) LED 21, memory access LED 22, power LED 23, and monitor 104.

シャッターボタン11は、ユーザがデジタルカメラ1に対して撮影の指示などを行うための操作ボタンであり、半押し、全押しの2段階のスイッチを有する。電源ボタン12は、ユーザがデジタルカメラ1のメイン電源をオンからオフに、またはオフからオンに切り替えるための操作ボタンである。ズームボタン13は、ユーザがデジタルカメラ1の撮影レンズの焦点距離を変化させる際などに使用する操作ボタンである。   The shutter button 11 is an operation button for the user to give a shooting instruction to the digital camera 1 and has a two-stage switch of half-press and full-press. The power button 12 is an operation button for the user to switch the main power source of the digital camera 1 from on to off or from off to on. The zoom button 13 is an operation button used when the user changes the focal length of the photographing lens of the digital camera 1.

再生ボタン14は、ユーザがデジタルカメラ1に画像データの再生指示などを行うための操作ボタンである。メニューボタン15は、ユーザがデジタルカメラ1に対してメニュー画面の呼び出し指示などを行うための操作ボタンである。削除ボタン16は、ユーザがデジタルカメラ1に装填されたメモリカードから画像データを削除する際などに用いられる操作ボタンである。   The playback button 14 is an operation button for the user to instruct the digital camera 1 to play back image data. The menu button 15 is an operation button for the user to instruct the digital camera 1 to call a menu screen. The delete button 16 is an operation button used when the user deletes image data from the memory card loaded in the digital camera 1.

ジョグダイヤル17は、画面中のカーソルの移動指示などをユーザが行うための回転可能な操作部材である。決定ボタン18は、ユーザがメニュー画面において設定内容の決定などを行うための操作ボタンである。   The jog dial 17 is a rotatable operation member for a user to give an instruction to move the cursor on the screen. The determination button 18 is an operation button for the user to determine setting contents on the menu screen.

LANアクセス用LED19は、デジタルカメラ1がアクセスポイント2と無線通信を行っているときなどに点灯する表示装置である。LANアクセス用LED19が点灯することにより、デジタルカメラ1が通信中であることをユーザに知らせることができる。ストロボ充電用LED20は、ストロボの充電中に点灯する表示装置である。ストロボ充電用LED20が撮影前に点灯することにより、ストロボ充電中であり撮影準備が完了していないことをユーザに知らせることができる。   The LAN access LED 19 is a display device that lights up when the digital camera 1 is performing wireless communication with the access point 2. When the LED 19 for LAN access is turned on, the user can be notified that the digital camera 1 is communicating. The strobe charging LED 20 is a display device that is lit while the strobe is being charged. When the strobe charging LED 20 is turned on before photographing, the user can be informed that the strobe is being charged and preparation for photographing is not completed.

AF用LED21は、AFの合焦状態をユーザに知らせるための表示装置である。メモリアクセス用LED22は、メモリアクセス状態のとき、すなわち、デジタルカメラ1に装填されたメモリカードにデータを書き込んでいるとき、および、メモリカードからデータを読み込んでいるときに点灯する表示装置である。電源用LED23は、デジタルカメラ1が電源投入状態のときに点灯する表示装置である。   The AF LED 21 is a display device for informing the user of the AF in-focus state. The memory access LED 22 is a display device that lights up in a memory access state, that is, when data is being written to a memory card loaded in the digital camera 1 and when data is being read from the memory card. The power LED 23 is a display device that lights up when the digital camera 1 is in a power-on state.

モニタ104は、LCD(Liquid Crystal Display)等を用いたカラー表示装置であり、各種の画像を表示する。たとえば、モニタ104がスルー画像を表示することにより、モニタ104は撮影時のビューファインダとして用いられる。なお、スルー画像(スルー画)とは、後で説明する撮影モードや情報検索モードなどの動作モードがデジタルカメラ1において設定されているときに、リアルタイムでモニタ104に表示される被写体の撮影画像である。さらに、モニタ104は、撮影画像の再生表示や、メニュー画面の表示等を行うこともできる。   The monitor 104 is a color display device using an LCD (Liquid Crystal Display) or the like, and displays various images. For example, when the monitor 104 displays a through image, the monitor 104 is used as a viewfinder at the time of shooting. The through image (through image) is a photographed image of a subject displayed on the monitor 104 in real time when an operation mode such as a photographing mode or an information search mode described later is set in the digital camera 1. is there. Further, the monitor 104 can also display a captured image, display a menu screen, and the like.

図3は、デジタルカメラ1のブロック図である。このブロック図に示すように、デジタルカメラ1は、CPU101、圧縮/伸張回路102、表示ドライバ103、モニタ104、キー入力部105、無線LAN回路106、GPS(Global Positioning System)センサ107、モーションセンサ108、コンデンサ109、バッテリ110、ストロボ111、CCD(Charge Coupled Device)ドライバ112、CCD113およびメモリ114を有している。また、記録媒体であるメモリカード115が不図示のカードスロットに装填されている。   FIG. 3 is a block diagram of the digital camera 1. As shown in this block diagram, the digital camera 1 includes a CPU 101, a compression / expansion circuit 102, a display driver 103, a monitor 104, a key input unit 105, a wireless LAN circuit 106, a GPS (Global Positioning System) sensor 107, and a motion sensor 108. , Capacitor 109, battery 110, strobe 111, CCD (Charge Coupled Device) driver 112, CCD 113, and memory 114. A memory card 115 as a recording medium is loaded in a card slot (not shown).

CPU101は、様々な処理や制御を実行するための回路であり、マイコン等を用いて構成される。圧縮/伸張回路102は、撮影画像データの圧縮/伸張を行う回路である。表示ドライバ103は、モニタ104に表示する映像をコントロールする駆動回路である。キー入力部105は、デジタルカメラ1に設けられたボタン、スイッチ、ダイヤル等の操作を検出する回路である。   The CPU 101 is a circuit for executing various processes and controls, and is configured using a microcomputer or the like. The compression / decompression circuit 102 is a circuit that compresses / decompresses captured image data. The display driver 103 is a drive circuit that controls an image displayed on the monitor 104. The key input unit 105 is a circuit that detects operations of buttons, switches, dials, and the like provided in the digital camera 1.

無線LAN回路106は、無線で外部機器と通信するための通信回路である。この無線LAN回路106によってアクセスポイント2との間で無線通信を行うことにより、デジタルカメラ1がインターネットを介してサーバ装置3に接続される。   The wireless LAN circuit 106 is a communication circuit for communicating with an external device wirelessly. By performing wireless communication with the access point 2 by the wireless LAN circuit 106, the digital camera 1 is connected to the server apparatus 3 via the Internet.

GPSセンサ107は、GPS衛星から送信されるGPS信号を受信し、CPU101へ出力する。このGPS信号に基づいて、CPU101においてデジタルカメラ1の現在位置が検出される。モーションセンサ108は、デジタルカメラ1の姿勢変化を、ピッチ、ヨー、ロールの各方向について検出する。なお、デジタルカメラ1において光軸を水平方向に向けたときに、ピッチ方向の姿勢変化は、その光軸と水平に直交する軸回りの姿勢変化、すなわち仰角の変化を表し、ヨー方向の姿勢変化は、その光軸と垂直に直交する軸回りの姿勢変化、すなわち方位角の変化を表している。また、ロール方向の姿勢変化は、光軸回りの姿勢変化、すなわちデジタルカメラ1の傾きの変化を表している。   The GPS sensor 107 receives a GPS signal transmitted from a GPS satellite and outputs it to the CPU 101. Based on this GPS signal, the CPU 101 detects the current position of the digital camera 1. The motion sensor 108 detects the posture change of the digital camera 1 in each direction of pitch, yaw, and roll. Note that when the optical axis of the digital camera 1 is oriented in the horizontal direction, the change in posture in the pitch direction represents a change in posture around an axis that is orthogonal to the optical axis, that is, a change in elevation angle. Represents a change in posture around an axis perpendicular to the optical axis, that is, a change in azimuth. Further, the posture change in the roll direction represents a posture change around the optical axis, that is, a change in the tilt of the digital camera 1.

コンデンサ109は、バッテリ110からの電力を受けて充電し、ストロボ111の発光に使用する。また、緊急時のバックアップ電源としてカメラの駆動に使用する。バッテリ110は、デジタルカメラ1を動作させるために必要な電力を供給するリチウムイオン充電池等の電源である。   The capacitor 109 is charged by receiving electric power from the battery 110 and is used for light emission of the strobe 111. It is also used to drive the camera as a backup power source in case of emergency. The battery 110 is a power source such as a lithium ion rechargeable battery that supplies power necessary for operating the digital camera 1.

ストロボ111は、被写体に補助光を照射することにより暗い環境でも撮影を可能にする。CCDドライバ112は、CCD113を駆動するための回路である。CCD113は、撮影レンズを介した被写体像を撮像するための撮像素子である。CCD113によって被写体像が撮像されると、CCD113からCCDドライバ112へ撮像信号が出力される。この撮像信号は、CCDドライバ112において撮像画像データに変換された後、CPU101へ出力される。   The strobe 111 enables photographing even in a dark environment by irradiating the subject with auxiliary light. The CCD driver 112 is a circuit for driving the CCD 113. The CCD 113 is an image sensor for capturing a subject image via a photographing lens. When a subject image is picked up by the CCD 113, an image pickup signal is output from the CCD 113 to the CCD driver 112. The imaging signal is converted into captured image data by the CCD driver 112 and then output to the CPU 101.

メモリ114は、不揮発性の半導体メモリであり、CPU101が実行する制御に用いるためのプログラムやデータ等を記憶している。メモリカード115は、CPU101の制御により、デジタルカメラ1によって取得された撮影画像情報など各種の情報が記録される。なお、メモリカード115には、前述の図1のサーバ装置3と同様に、取得位置および取得時刻と関連付けて情報が記録されている。すなわち、メモリカード115には、デジタルカメラ1において取得された情報による時空データベースが格納されている。   The memory 114 is a nonvolatile semiconductor memory, and stores programs, data, and the like for use in control executed by the CPU 101. The memory card 115 stores various information such as photographed image information acquired by the digital camera 1 under the control of the CPU 101. Note that information is recorded in the memory card 115 in association with the acquisition position and the acquisition time, as in the server device 3 of FIG. 1 described above. That is, the memory card 115 stores a space-time database based on information acquired by the digital camera 1.

続いて、デジタルカメラ1の動作について説明する。デジタルカメラ1は、撮影画像を取得するための撮影モードや、時空データベースから情報を検索するための情報検索モードなど、様々な動作モードをユーザの操作に応じて設定することができる。   Next, the operation of the digital camera 1 will be described. The digital camera 1 can set various operation modes such as a shooting mode for acquiring a shot image and an information search mode for searching for information from a space-time database according to a user operation.

撮影モードが設定されている場合、デジタルカメラ1は、被写体の撮影を行う前には、CCD113によって撮像された被写体の像に基づいて、前述したようにスルー画像を取得し、モニタ104に表示する。シャッターボタン11をユーザが操作することによって撮影指示が行われると、デジタルカメラ1はその撮影指示に応じて、被写体を撮影して撮影画像を取得し、取得した撮影画像の情報をメモリカード115に記録する。   When the shooting mode is set, the digital camera 1 acquires a through image as described above based on the image of the subject imaged by the CCD 113 and displays it on the monitor 104 before imaging the subject. . When a shooting instruction is performed by the user operating the shutter button 11, the digital camera 1 captures a subject and acquires a captured image in accordance with the shooting instruction, and stores information on the acquired captured image in the memory card 115. Record.

メモリカード115に撮影画像情報を記録する際、デジタルカメラ1は、その撮影画像情報に撮影時の様々な情報をメタ情報として付加する。たとえば、撮影時刻、撮影画像の画角、焦点距離、シャッター速度、主要被写体の位置、主要被写体までの距離など、様々な情報をメタ情報として撮影画像情報に付加して、メモリカード115に記録する。このメタ情報には、GPSセンサ107を用いて撮影時に検出されたデジタルカメラ1の位置情報も含まれる。すなわち、CCD113で撮像した画像は、GPSセンサ107から出力されたGPS信号に基づいてCPU101で検出された位置に関する情報(データ)をメタ情報として有している。このようなメタ情報が付加された撮影画像情報がメモリカード115に記録されることで、デジタルカメラ1において取得された撮影画像の情報が、その取得位置および取得時刻と関連付けて、メモリカード115の時空データベースに記録される。   When recording photographed image information in the memory card 115, the digital camera 1 adds various information at the time of photographing as meta information to the photographed image information. For example, various information such as the shooting time, the angle of view of the shot image, the focal length, the shutter speed, the position of the main subject, and the distance to the main subject are added as meta information to the shot image information and recorded in the memory card 115. . The meta information includes position information of the digital camera 1 detected at the time of shooting using the GPS sensor 107. That is, the image picked up by the CCD 113 has information (data) related to the position detected by the CPU 101 based on the GPS signal output from the GPS sensor 107 as meta information. The captured image information to which such meta information is added is recorded in the memory card 115, so that the information of the captured image acquired by the digital camera 1 is associated with the acquisition position and acquisition time of the memory card 115. Recorded in space-time database.

さらにこのとき、デジタルカメラ1は、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、撮影時のデジタルカメラ1の向きを検出する。このとき、デジタルカメラ1の水平方向の向きを表す方位角と、デジタルカメラ1の鉛直方向の向きを表す仰角とを求めることにより、撮影時のデジタルカメラ1の向きを検出する。こうして検出された撮影時の向きの情報をメタ情報に加えることで、撮影画像情報をさらに取得方向と関連付けてメモリカード115の時空データベースに記録してもよい。   Further, at this time, the digital camera 1 detects the orientation of the digital camera 1 at the time of shooting based on the posture change of the digital camera 1 detected by the motion sensor 108. At this time, the orientation of the digital camera 1 at the time of shooting is detected by obtaining an azimuth angle representing the horizontal direction of the digital camera 1 and an elevation angle representing the vertical direction of the digital camera 1. The captured image information may be further associated with the acquisition direction and recorded in the space-time database of the memory card 115 by adding the detected shooting direction information to the meta information.

なお、メモリカード115に記録された撮影画像情報の一部を、ユーザの操作に応じてデジタルカメラ1からサーバ装置3へ送信し、サーバ装置3において時空データベースに記録するようにしてもよい。このとき、撮影画像を取得したときに検出されたデジタルカメラ1の位置や向き、時間などの情報が、撮影画像情報と共にメタ情報として送信される。これらのメタ情報を撮影画像情報と共に記録することにより、サーバ装置3の時空データベースにおいて、撮影画像情報がその取得位置、取得時間、取得方向などと関連付けて記録される。すなわち、メモリカード115またはサーバ装置3の時空データベースには、位置に関するデータや、向きに関するデータ、当該情報が作成された時間データなどを、メタ情報として有する情報が記録されている。   A part of the captured image information recorded in the memory card 115 may be transmitted from the digital camera 1 to the server device 3 in accordance with a user operation and recorded in the space-time database in the server device 3. At this time, information such as the position, orientation, and time of the digital camera 1 detected when the captured image is acquired is transmitted as meta information together with the captured image information. By recording the meta information together with the captured image information, the captured image information is recorded in the space-time database of the server device 3 in association with the acquisition position, the acquisition time, the acquisition direction, and the like. That is, in the space-time database of the memory card 115 or the server device 3, information having meta information such as position data, direction data, time data when the information is created, and the like is recorded.

一方、情報検索モードが設定されている場合、デジタルカメラ1は、サーバ装置3またはメモリカード115に格納された時空データベースから、所定の検索条件を満たす情報を検索して抽出する。そして、抽出した情報をスルー画像に重ねてモニタ104に表示し、ユーザに提示する。なお、サーバ装置3の時空データベースから抽出された情報は、インターネットおよびアクセスポイント2を介してデジタルカメラ1へ送信される。   On the other hand, when the information search mode is set, the digital camera 1 searches and extracts information satisfying a predetermined search condition from the space-time database stored in the server device 3 or the memory card 115. Then, the extracted information is displayed on the monitor 104 superimposed on the through image and presented to the user. Information extracted from the space-time database of the server device 3 is transmitted to the digital camera 1 via the Internet and the access point 2.

デジタルカメラ1は、時空データベースから情報を検索する際の検索条件の一つとして、情報の取得位置に対する検索対象エリアを設定することができる。この検索対象エリアは、GPSセンサ107により受信されたGPS信号に基づくデジタルカメラ1の現在位置(カメラ位置)と、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づく光軸の向き(カメラ向き)とに基づいて設定される。具体的には、現在のカメラ位置を視点に設定し、その視点からカメラ向きの方向に向かって延びる所定長さのベクトルを視線ベクトルとする。この視線ベクトルを中心とする所定の空間範囲を、検索対象エリアに設定する。なお、視点から離れるほど検索対象エリアを広くなるように設定する。または、その逆のどちらでも良い。   The digital camera 1 can set a search target area for an information acquisition position as one of search conditions when searching for information from a space-time database. This search target area includes the current position (camera position) of the digital camera 1 based on the GPS signal received by the GPS sensor 107 and the optical axis direction (camera direction) based on the attitude of the digital camera 1 detected by the motion sensor 108. ). Specifically, the current camera position is set as the viewpoint, and a vector having a predetermined length extending from the viewpoint in the direction of the camera is set as a line-of-sight vector. A predetermined spatial range centered on this line-of-sight vector is set as the search target area. Note that the search target area is set to become wider as the distance from the viewpoint increases. Or the opposite may be sufficient.

上記の検索対象エリアの設定において、水平方向のカメラ向き、すなわち方位角のみを利用してもよい。すなわち、水平方向については所定の空間範囲を検索対象エリアとし、垂直方向については全空間範囲を検索対象エリアに含めることができる。あるいは、水平方向のカメラ向きに加えて、垂直方向のカメラ向き、すなわち仰角も利用して、水平方向と垂直方向のそれぞれについて所定の空間範囲を検索対象エリアに設定してもよい。さらに、カメラ向きを利用せず、カメラ位置のみに基づいて検索対象エリアを設定するようにしてもよい。すなわち、現在のカメラ位置を中心とする所定の範囲を検索対象エリアに設定してもよい。   In setting the search target area, only the horizontal camera direction, that is, the azimuth angle may be used. That is, a predetermined spatial range can be set as the search target area for the horizontal direction, and the entire spatial range can be included in the search target area for the vertical direction. Alternatively, in addition to the horizontal camera direction, the vertical camera direction, that is, the elevation angle may also be used to set a predetermined spatial range in the search target area in each of the horizontal direction and the vertical direction. Furthermore, the search target area may be set based only on the camera position without using the camera orientation. That is, a predetermined range centered on the current camera position may be set as the search target area.

また、検索条件の設定において、以上説明したような検索対象エリアに加えて、さらに情報の取得時刻(作成時刻)に対する検索対象時間を設定するようにしてもよい。すなわち、過去から現在までの間で所定の時間範囲を設定し、その時間範囲を検索対象時間とすることで、検索条件を設定する。この検索対象時間の範囲は、モーションセンサ108により検出されたデジタルカメラ1の光軸回りの傾き(カメラ傾き)に基づいて、次のようにして設定される。   In setting search conditions, in addition to the search target area as described above, a search target time for information acquisition time (creation time) may be set. That is, a predetermined time range is set from the past to the present, and the search condition is set by setting the time range as the search target time. The range of the search target time is set as follows based on the tilt around the optical axis (camera tilt) of the digital camera 1 detected by the motion sensor 108.

現在のカメラ傾きがほぼ0である場合、すなわちユーザがデジタルカメラ1をほぼ真っ直ぐに向けて構えている場合は、現在から所定の時間範囲、たとえば1年前までの時間範囲を検索対象時間に設定する。その状態からユーザがデジタルカメラ1を右回りに傾けると、検索対象時間の範囲を次第に過去に遡って変化させる。このとき、カメラ傾きの角度が大きくなるほど、それに応じて検索対象時間の範囲を大きく変化させるようにしてもよい。たとえば、カメラ傾きの角度に対して、10°、20°および30°の三段階のしきい値を設定しておく。そして、カメラ傾きの角度が10°以上20°未満のときには一ヶ月ずつ、20°以上30°未満のときには半年ずつ、30°以上のときには一年ずつ、それぞれ所定のタイミングごとに、検索対象時間の範囲を過去に遡って変化させる。反対に、ユーザがデジタルカメラ1を左回りに傾けると、検索対象時間の範囲を過去から現在に向かって次第に変化させる。このときも同様に、カメラ傾きの角度が大きくなるほど、検索対象時間を大きく変化させることができる。   When the current camera tilt is almost zero, that is, when the user is holding the digital camera 1 almost straight, a predetermined time range from the present time, for example, a time range up to one year ago is set as the search target time. To do. When the user tilts the digital camera 1 clockwise from that state, the range of the search target time is gradually changed back to the past. At this time, as the camera tilt angle increases, the range of the search target time may be changed greatly accordingly. For example, three stages of threshold values of 10 °, 20 ° and 30 ° are set for the camera tilt angle. When the camera tilt angle is 10 ° or more and less than 20 °, the search target time is set every month, every month when it is 20 ° or more and less than 30 °, and every year when it is 30 ° or more. Change the range retroactively. Conversely, when the user tilts the digital camera 1 counterclockwise, the range of the search target time is gradually changed from the past to the present. Similarly, the search target time can be changed greatly as the camera tilt angle increases.

以上説明したような検索条件がデジタルカメラ1において設定されると、その検索条件を満たす情報が、サーバ装置3またはメモリカード115に格納された時空データベースから抽出される。すなわち、検索条件として設定された検索対象エリア内の取得位置に関連付けられた情報や、検索条件として設定された検索対象時間内の取得時刻(作成時刻)に関連付けられた情報が、時空データベースから検索されて抽出される。このとき、最初にメモリカード115の時空データベースを検索し、該当する情報が抽出されなかった場合は、サーバ装置3の時空データベースを検索するようにしてもよい。あるいは、メモリカード115とサーバ装置3の時空データベースを共に検索するようにしてもよい。なお、サーバ装置3の時空データベースを検索する場合には、デジタルカメラ1において設定された検索条件が、アクセスポイント2およびインターネットを介してサーバ装置3へ送信される。また、サーバ装置3の時空データベースから抽出された情報は、インターネットおよびアクセスポイント2を介してデジタルカメラ1へ送信される。   When the search conditions as described above are set in the digital camera 1, information satisfying the search conditions is extracted from the space-time database stored in the server device 3 or the memory card 115. That is, information related to the acquisition position in the search target area set as the search condition and information related to the acquisition time (creation time) within the search target time set as the search condition are searched from the space-time database. To be extracted. At this time, the space-time database of the memory card 115 is searched first, and if the corresponding information is not extracted, the space-time database of the server device 3 may be searched. Alternatively, both the memory card 115 and the space-time database of the server device 3 may be searched. Note that when searching the space-time database of the server device 3, the search conditions set in the digital camera 1 are transmitted to the server device 3 via the access point 2 and the Internet. Information extracted from the space-time database of the server device 3 is transmitted to the digital camera 1 via the Internet and the access point 2.

デジタルカメラ1は、サーバ装置3またはメモリカード115の時空データベースから上記のようにして抽出された情報を、スルー画像に重ねてモニタ104に表示する。これにより、時空データベースから検索されて抽出された情報がユーザに対して提示される。   The digital camera 1 displays the information extracted as described above from the space-time database of the server device 3 or the memory card 115 on the monitor 104 so as to be superimposed on the through image. Thereby, the information retrieved from the space-time database and extracted is presented to the user.

あるいは、時空データベースに記録された情報をデジタルカメラ1のCPU101に入力し、その情報をデジタルカメラ1において検索するようにしてもよい。たとえば、デジタルカメラ1の現在位置から所定範囲内に対応する情報を時空データベースからデジタルカメラ1へ送信し、デジタルカメラ1において記憶しておく。この情報の中から、前述のようにして設定された検索条件を満たす情報を検索し、スルー画像と共に表示することとしてもよい。   Alternatively, information recorded in the space-time database may be input to the CPU 101 of the digital camera 1 and the information may be searched for in the digital camera 1. For example, information corresponding to a predetermined range from the current position of the digital camera 1 is transmitted from the space-time database to the digital camera 1 and stored in the digital camera 1. From this information, information satisfying the search condition set as described above may be searched and displayed together with the through image.

なお、時空データベースから検索される情報は、デジタルカメラ1によって取得された撮影画像の情報に限らない。たとえば、他のカメラによる撮影画像の情報や、撮影画像以外の文字情報や音声情報などを時空データベースに記録しておき、検索するようにしてもよい。取得位置および取得時刻と関連付けて時空データベースに記録されている情報であれば、どのような情報であっても検索対象とすることができる。すなわち、CPU101は、位置に関するデータを有する様々な情報を時空データベースから入力して検索することができる。   Note that the information retrieved from the space-time database is not limited to the information of the captured image acquired by the digital camera 1. For example, information on a photographed image by another camera, character information other than the photographed image, voice information, and the like may be recorded in a space-time database and retrieved. Any information that is recorded in the space-time database in association with the acquisition position and the acquisition time can be searched. That is, the CPU 101 can search by inputting various information having data regarding the position from the space-time database.

図4は、撮影モードが設定されたときにモニタ104に表示されるスルー画像の例である。撮影モードにおいてシャッターボタン11が押されていないときには、このようなスルー画像が表示される。一方、図5は、情報検索モードが設定されたときのモニタ104における表示画面の例である。このような表示画面を、以下ではブラウザビュー画面と称する。   FIG. 4 is an example of a through image displayed on the monitor 104 when the shooting mode is set. When the shutter button 11 is not pressed in the shooting mode, such a through image is displayed. On the other hand, FIG. 5 is an example of a display screen on the monitor 104 when the information search mode is set. Hereinafter, such a display screen is referred to as a browser view screen.

図5のブラウザビュー画面では、図4のスルー画像に重ねて、立体的な視覚効果を与えるためのグリッド線が表示される。これにより、画面上に擬似的な立体空間(以下、擬似立体空間と称する)が表現される。さらに、この擬似立体空間の所定の領域には、空間カーソル30が表示される。   In the browser view screen of FIG. 5, grid lines for providing a three-dimensional visual effect are displayed so as to overlap the through image of FIG. Thereby, a pseudo three-dimensional space (hereinafter referred to as a pseudo three-dimensional space) is expressed on the screen. Further, a space cursor 30 is displayed in a predetermined area of the pseudo three-dimensional space.

ブラウザビュー画面における擬似立体空間の範囲は、前述のカメラ位置およびカメラ向きに応じて決定される。すなわち、デジタルカメラ1は、GPSセンサ107により受信されたGPS信号に基づいて検出された現在のカメラ位置を視点とし、モーションセンサ108により検出されたデジタルカメラ1の姿勢に基づく現在のカメラ向きを視線ベクトルとして、実空間における表示対象範囲を設定する。このときの表示対象範囲は、時空データベースから抽出された情報を全て表示できるようにするため、前述の検索対象エリアと同じ大きさか、それよりも小さくすることが好ましい。こうして設定された表示対象範囲に対応する擬似立体空間を、スルー画像に重ねてモニタ104の画面上に表現する。このように、ブラウザビュー画面における擬似立体空間の範囲は、現在のカメラ位置およびカメラ向きに応じた実空間上の表示対象範囲に対応して設定される。したがって、擬似立体空間の範囲は、スルー画像の表示範囲と一致している。   The range of the pseudo three-dimensional space on the browser view screen is determined according to the above-described camera position and camera orientation. That is, the digital camera 1 uses the current camera position detected based on the GPS signal received by the GPS sensor 107 as a viewpoint, and looks at the current camera direction based on the posture of the digital camera 1 detected by the motion sensor 108. A display target range in real space is set as a vector. The display target range at this time is preferably the same size as or smaller than the above search target area so that all the information extracted from the space-time database can be displayed. The pseudo three-dimensional space corresponding to the display target range set in this way is superimposed on the through image and expressed on the screen of the monitor 104. Thus, the range of the pseudo three-dimensional space on the browser view screen is set corresponding to the display target range in the real space according to the current camera position and camera orientation. Therefore, the range of the pseudo three-dimensional space is coincident with the display range of the through image.

ブラウザビュー画面において、空間カーソル30は、モーションセンサ108によって検出されるデジタルカメラ1の姿勢変化に応じて、擬似立体空間内を自在に移動する。たとえば、デジタルカメラ1のヨー方向の姿勢変化、すなわち方位角の変化に応じて、グリッド線が引かれた平面上を左右方向に移動する。また、デジタルカメラ1のピッチ方向の姿勢変化、すなわち仰角の変化に応じて、グリッド線が引かれた平面上を奥行き方向に移動する。これにより、ユーザはデジタルカメラ1を直感的に操作して、空間カーソル30を擬似立体空間内で思い通りに移動させることができる。   On the browser view screen, the space cursor 30 freely moves in the pseudo-stereoscopic space in accordance with the change in posture of the digital camera 1 detected by the motion sensor 108. For example, the digital camera 1 moves in the left-right direction on the plane on which the grid lines are drawn in accordance with a change in posture in the yaw direction, that is, a change in azimuth angle. In addition, the digital camera 1 moves in the depth direction on the plane on which the grid lines are drawn in accordance with a change in posture in the pitch direction, that is, a change in elevation angle. Accordingly, the user can intuitively operate the digital camera 1 to move the space cursor 30 as desired in the pseudo-stereoscopic space.

なお、空間カーソル30を擬似立体空間内でさらに上下方向に移動させるようにしてもよい。たとえば、デジタルカメラ1のピッチ方向の姿勢変化に応じて、空間カーソル30を上下方向に移動させる。このとき奥行き方向の移動は、たとえばズームボタン13の操作に応じて行うようにする。あるいは、デジタルカメラ1の姿勢変化によらず、ジョグダイヤル17の操作や、図示しない十字キーの操作などに応じて、空間カーソル30を移動させるようにしてもよい。   Note that the space cursor 30 may be further moved in the vertical direction in the pseudo three-dimensional space. For example, the spatial cursor 30 is moved in the vertical direction in accordance with the change in posture of the digital camera 1 in the pitch direction. At this time, the movement in the depth direction is performed according to the operation of the zoom button 13, for example. Alternatively, the space cursor 30 may be moved in accordance with the operation of the jog dial 17 or the operation of a cross key (not shown) regardless of the posture change of the digital camera 1.

以上説明した図5のブラウザビュー画面には、時空データベースから抽出された情報を表すアイコン31〜36が、それぞれ擬似立体空間内で所定の位置に表示されている。これらの各アイコンの表示位置は、各アイコンが表す情報の取得位置、すなわち、当該情報と関連付けて時空データベースに記録された取得位置に対応して決定される。言い換えると、アイコン31〜36は、実空間における当該情報の取得位置に対応する擬似立体空間内の位置にそれぞれ表示される。すなわち、アイコン31〜36が表す各情報は、各情報が有するメタ情報の位置データに対応したスルー画像中の位置に配置される。   In the browser view screen of FIG. 5 described above, icons 31 to 36 representing information extracted from the space-time database are respectively displayed at predetermined positions in the pseudo three-dimensional space. The display position of each icon is determined corresponding to the acquisition position of information represented by each icon, that is, the acquisition position recorded in the space-time database in association with the information. In other words, the icons 31 to 36 are respectively displayed at positions in the pseudo three-dimensional space corresponding to the acquisition positions of the information in the real space. That is, each piece of information represented by the icons 31 to 36 is arranged at a position in the through image corresponding to the position data of the meta information included in each piece of information.

アイコン31〜34は、いずれも撮影画像情報、すなわちデジタルカメラ1のCCD113や他のカメラの撮像素子で撮像した画像を表している。アイコン31および34の撮影画像には、それぞれ主要被写体として山が撮影されており、アイコン32の撮影画像には、主要被写体として人の顔が撮影されており、アイコン33の撮影画像には、主要被写体として木が撮影されている。撮影画像情報を表すこれらの各アイコンは、いずれも立体的な形状のアイコン(立体アイコン)として表示される。一方、平面的な形状により表示されるアイコン35とアイコン36は、撮影画像情報以外の情報を表している。アイコン35は文字情報を表しており、アイコン36は音声情報を表している。   The icons 31 to 34 all represent captured image information, that is, images captured by the CCD 113 of the digital camera 1 or an image sensor of another camera. In the captured images of the icons 31 and 34, a mountain is photographed as the main subject. In the captured image of the icon 32, a person's face is photographed as the main subject. A tree is photographed as a subject. Each of these icons representing captured image information is displayed as a three-dimensional icon (three-dimensional icon). On the other hand, an icon 35 and an icon 36 displayed in a planar shape represent information other than the captured image information. The icon 35 represents character information, and the icon 36 represents voice information.

アイコン31は、直方体状の立体アイコンであり、撮影画像を縮小したサムネイル画像が一つの面に貼り付けられている。このように立体面に貼り付けられる画像は、テクスチャと呼ばれている。アイコン31では、この直方体により、撮影画像における撮影条件を表現している。たとえば、直方体の向き(テクスチャ面の向き)は、撮影方向を表しており、直方体の厚さ(テクスチャ面に対する厚み方向の長さ)は、撮影画像の被写界深度を表しており、直方体の大きさ(テクスチャ面の大きさ)は、撮影画像における画角を表している。なお、木の撮影画像を表すアイコン33も同様である。   The icon 31 is a rectangular parallelepiped solid icon, and a thumbnail image obtained by reducing a captured image is pasted on one surface. The image pasted on the three-dimensional surface in this way is called a texture. The icon 31 represents the shooting condition in the shot image by this rectangular parallelepiped. For example, the direction of the cuboid (direction of the texture plane) represents the shooting direction, and the thickness of the cuboid (length in the thickness direction with respect to the texture plane) represents the depth of field of the shot image. The size (the size of the texture surface) represents the angle of view in the captured image. The same applies to the icon 33 representing the photographed image of the tree.

以上説明したようなアイコン31および33をブラウザビュー画面において表示することで、デジタルカメラ1のユーザは、その撮影画像が取得されたときの撮影条件を直感的にかつ容易に把握することができる。なお、上記のような撮影条件の情報は、撮影位置や撮影時刻の情報と共に撮影時に取得され、前述のメタ情報の一部として、撮影画像情報と共に記録される。   By displaying the icons 31 and 33 as described above on the browser view screen, the user of the digital camera 1 can intuitively and easily grasp the photographing condition when the photographed image is acquired. Note that the information on the shooting conditions as described above is acquired at the time of shooting together with information on the shooting position and shooting time, and is recorded together with the shot image information as part of the above-described meta information.

一方、アイコン31と同じく、山の撮影画像を表しているアイコン34は、山を模擬した立体形状を有しており、その側面部分には、撮影画像から切り出された山の部分がテクスチャとして貼り付けられている。同様に、顔の撮影画像を表しているアイコン32は、人の頭部を模擬した球状あるいは円盤状の立体形状を有しており、その側面部分には、撮影画像から切り出された人の顔の部分がテクスチャとして貼り付けられている。   On the other hand, like the icon 31, the icon 34 representing the captured image of the mountain has a three-dimensional shape simulating the mountain, and the mountain portion cut out from the captured image is pasted as a texture on the side surface portion. It is attached. Similarly, the icon 32 representing the photographed image of the face has a spherical or disk-shaped three-dimensional shape that simulates a human head, and the side of the icon 32 is the face of the person cut out from the photographed image. Is pasted as a texture.

このように、デジタルカメラ1は、時空データベースから抽出された撮影画像において切り出された被写体の部分を、その被写体を模擬した形状の立体アイコンに貼り付けて表示する。これにより、デジタルカメラ1のユーザは、その立体アイコンの撮影画像に何が写っているかを直感的にかつ容易に把握することができる。なお、これらの立体アイコンの形状は一例であるため、他にも被写体の種類に応じて様々な形状とすることができる。たとえば、人物の全体像であれば人型の立体アイコン、動物であれば動物型の立体アイコンなどを用いることができる。さらに、東京タワー等の著名建造物であれば、その建造物に合わせた形状の立体アイコンを用いるようにしてもよい。   In this way, the digital camera 1 displays the portion of the subject cut out in the captured image extracted from the space-time database by pasting it on the solid icon simulating the subject. Thereby, the user of the digital camera 1 can intuitively and easily grasp what is reflected in the captured image of the solid icon. In addition, since the shape of these three-dimensional icons is an example, it can be made into various shapes according to the kind of subject. For example, a human-shaped three-dimensional icon can be used for an entire image of a person, and an animal-shaped three-dimensional icon can be used for an animal. Furthermore, if it is a famous building such as Tokyo Tower, a solid icon having a shape corresponding to the building may be used.

上記において、撮影画像から被写体の部分を切り出す処理は、デジタルカメラ1やサーバ装置3が主要被写体の認識処理や顔認識処理のような周知の処理手法などを用いて自動的に行うことができる。あるいは、デジタルカメラ1のユーザやサーバ装置3の管理者等が切り出し範囲を指定することで行うようにしてもよい。   In the above, the process of cutting out the portion of the subject from the captured image can be automatically performed by the digital camera 1 or the server device 3 using a known processing method such as a main subject recognition process or a face recognition process. Or you may make it perform by the user of the digital camera 1, the administrator of the server apparatus 3, etc. specifying the cutting-out range.

文字情報を表すアイコン35には、「富士山」の文字列が表示されている。なお、文字数が多い場合は、全ての文字を表示せず、そのうち一部の文字のみを表示するようにしてもよい。一方、音声情報を表すアイコン36は、それが音声情報を表すことが分かるように、吹き出し形状の特定の図形を用いて表示されている。このとき、図形の他に文字、記号などを用いてもよい。   On the icon 35 representing the character information, a character string “Mt. Fuji” is displayed. If the number of characters is large, not all characters may be displayed, but only some of them may be displayed. On the other hand, the icon 36 representing the voice information is displayed using a specific figure having a balloon shape so that it can be understood that it represents the voice information. At this time, a character, a symbol, or the like may be used in addition to the graphic.

なお、文字情報や音声情報は、撮影画像情報とは分けて時空データベースに記録してもよいし、撮影画像情報と組み合わせて記録してもよい。たとえば、撮影画像情報に付加されて様々な情報を表す前述のメタ情報の一部として、文字情報や音声情報を時空データベースに記録することができる。このとき、撮影画像情報を時空データベースから抽出すると共に、その撮影画像のメタ情報に含まれる文字情報や音声情報も一緒に抽出し、抽出された各情報に対して図5のようなアイコンを擬似立体空間上にそれぞれ表示してもよい。このようにする場合、デジタルカメラ1やサーバ装置3において撮影画像の内容を自動的に解析し、その結果に基づいて、メタ情報として付加する文字情報や音声情報の内容を決定してもよい。たとえば、撮影画像における主要被写体を判別し、その主要被写体の名称を表す文字情報を、撮影画像のメタ情報として時空データベースに記録する。あるいは、撮影時などにデジタルカメラ1のユーザが文字や音声を入力すると、その内容を文字情報や音声情報として時空データベースに記録してもよい。   Note that text information and audio information may be recorded in the space-time database separately from the captured image information, or may be recorded in combination with the captured image information. For example, character information and voice information can be recorded in the space-time database as a part of the above-mentioned meta information added to the captured image information and representing various information. At this time, the photographed image information is extracted from the space-time database, and character information and voice information included in the meta information of the photographed image are extracted together, and an icon as shown in FIG. Each may be displayed on a three-dimensional space. In this case, the contents of the captured image may be automatically analyzed by the digital camera 1 or the server device 3, and the contents of the character information and the voice information to be added as meta information may be determined based on the result. For example, the main subject in the captured image is determined, and character information representing the name of the main subject is recorded in the space-time database as meta information of the captured image. Alternatively, when a user of the digital camera 1 inputs characters or voices during shooting or the like, the contents may be recorded in the space-time database as character information or voice information.

時空データベースに撮影画像情報に加えてさらに文字情報や音声情報が記録されている場合は、デジタルカメラ1の姿勢変化に応じて、抽出する情報の種類を切り替えるようにしてもよい。たとえば、デジタルカメラ1の仰角が所定の角度範囲内であれば、撮影画像情報を時空データベースから抽出してブラウザビュー画面により表示し、所定の角度範囲から外れたら、文字情報や音声情報を時空データベースから抽出してブラウザビュー画面により表示する。このようにすれば、撮影画像情報に付加されたメタ情報として文字情報や音声情報が記録されている場合であっても、撮影画像情報と文字情報や音声情報とを切り分けて時空データベースから抽出できるため、それぞれの情報を分かりやすくユーザに提示することができる。   When character information or audio information is recorded in addition to the captured image information in the space-time database, the type of information to be extracted may be switched according to the change in the attitude of the digital camera 1. For example, if the elevation angle of the digital camera 1 is within a predetermined angle range, the photographed image information is extracted from the space-time database and displayed on the browser view screen. It is extracted from and displayed on the browser view screen. In this way, even if character information or voice information is recorded as meta information added to the photographed image information, the photographed image information and the character information or voice information can be separated and extracted from the space-time database. Therefore, each information can be presented to the user in an easy-to-understand manner.

ブラウザビュー画面が表示されているときに、ユーザがデジタルカメラ1の傾きを変化させると、前述のようにして検索対象時間が変化され、それまでとは異なる検索条件が設定される。したがって、擬似立体空間内に表示されるアイコンも、それまでとは違うものに変化する。なお、検索条件において検索対象時間を設定しない場合でも、カメラ傾きに基づいて表示対象時間を設定することで、検索対象時間を設定した場合と同様に、擬似立体空間内に表示されるアイコンをカメラ傾きに応じて変化させるようにしてもよい。たとえば、現在のカメラ傾きがほぼ0である場合、すなわちユーザがデジタルカメラ1をほぼ真っ直ぐ向けて構えている場合は、時空データベースから抽出された情報のうち、現在から所定の時間範囲、たとえば1年前までの時間範囲において作成または取得された情報のアイコンをブラウザビュー画面に表示する。この状態からユーザがデジタルカメラ1を右に傾けると、表示対象時間、すなわちブラウザビュー画面においてアイコンの表示対象とする情報の取得時間の範囲を、次第に過去に遡って変化させる。反対に、ユーザがデジタルカメラ1を左に傾けると、表示対象時間を過去から現在に向かって次第に変化させる。   When the user changes the tilt of the digital camera 1 while the browser view screen is displayed, the search target time is changed as described above, and different search conditions are set. Therefore, the icon displayed in the pseudo three-dimensional space also changes to a different one. Note that even if the search target time is not set in the search condition, the display target time is set based on the camera tilt so that the icon displayed in the pseudo-stereoscopic space is displayed in the camera as in the case where the search target time is set. You may make it change according to inclination. For example, when the current camera tilt is almost zero, that is, when the user is holding the digital camera 1 facing almost straight, out of the information extracted from the space-time database, a predetermined time range from the present, for example, one year Displays icons of information created or obtained in the previous time range on the browser view screen. When the user tilts the digital camera 1 to the right from this state, the display target time, that is, the range of the acquisition time of information to be displayed as an icon on the browser view screen, is gradually changed back to the past. On the other hand, when the user tilts the digital camera 1 to the left, the display target time is gradually changed from the past to the present.

シャッターボタン11が半押し操作されると、そのときブラウザビュー画面において空間カーソル30内に位置しているアイコンが選択され、選択されたアイコンの情報がモニタ104において一覧表示される。このとき表示される画面の例を図6に示す。このような表示画面を、以下ではセレクトビュー画面と称する。このセレクトビュー画面では、図5のブラウザビュー画面において空間カーソル30内に位置しているアイコン31、32、35および36が表す情報として、アイコン31と32にそれぞれ対応する撮影画像37および38と、アイコン35に対応する「富士山」の文字と、アイコン36とが一覧表示されている。   When the shutter button 11 is half-pressed, an icon located in the space cursor 30 is selected on the browser view screen at that time, and information on the selected icon is displayed in a list on the monitor 104. An example of the screen displayed at this time is shown in FIG. Hereinafter, such a display screen is referred to as a select view screen. In the select view screen, as the information represented by the icons 31, 32, 35, and 36 located in the space cursor 30 in the browser view screen of FIG. 5, the captured images 37 and 38 corresponding to the icons 31 and 32, respectively, A list of the characters “Mount Fuji” corresponding to the icon 35 and the icon 36 is displayed.

図6のセレクトビュー画面では、一覧表示された情報のうち、枠により囲われた撮影画像37が選択されている。この枠の位置は、デジタルカメラ1の操作に応じて変更することができる。たとえば、デジタルカメラ1の仰角や方位角、傾きなどの姿勢変化に応じて枠の位置を変更してもよい。あるいは、ジョグダイヤル17の操作に応じて枠の位置を変更してもよい。なお、セレクトビュー画面でもブラウザビュー画面と同様に、カメラ傾きに基づいて表示対象時間を設定することで、表示する情報の取得時間の範囲を変化させるようにしてもよい。   In the select view screen of FIG. 6, a photographed image 37 surrounded by a frame is selected from the displayed information. The position of this frame can be changed according to the operation of the digital camera 1. For example, the position of the frame may be changed according to a change in posture such as the elevation angle, azimuth angle, and tilt of the digital camera 1. Alternatively, the position of the frame may be changed according to the operation of the jog dial 17. Note that, similarly to the browser view screen, the selection view screen may set the display target time based on the camera tilt to change the acquisition time range of the information to be displayed.

セレクトビュー画面においてシャッターボタン11が全押し操作されると、そのとき選択されていた情報がモニタ104に拡大表示される。このとき表示される画面を、以下ではワンビュー画面と称する。一方、シャッターボタン11の半押し操作が解除されると、図5のブラウザビュー画面に戻る。   When the shutter button 11 is fully pressed on the select view screen, the information selected at that time is enlarged and displayed on the monitor 104. The screen displayed at this time is hereinafter referred to as a one-view screen. On the other hand, when the half-press operation of the shutter button 11 is released, the browser view screen of FIG. 5 is restored.

図7は、撮影画像37が選択されたときのワンビュー画面の例を示している。シャッターボタン11の全押し操作が解除されると、図5のブラウザビュー画面に戻る。なお、図6のセレクトビュー画面において撮影画像以外の情報、すなわち文字情報や音声情報が選択された場合は、このようなワンビュー画面は表示されない。たとえば、文字情報が選択された場合は、その文字情報の内容がメタ情報として、その後に撮影された撮影画像に付加されて記録される。また、音声情報が選択された場合は、その音声情報の内容が音声出力される。   FIG. 7 shows an example of the one-view screen when the captured image 37 is selected. When the full pressing operation of the shutter button 11 is released, the browser view screen of FIG. 5 is restored. Note that when information other than the photographed image, that is, character information or audio information is selected on the select view screen of FIG. 6, such a one-view screen is not displayed. For example, when character information is selected, the content of the character information is added as a meta information to a captured image that is subsequently captured and recorded. In addition, when audio information is selected, the content of the audio information is output as audio.

さらに、デジタルカメラ1において所定の操作をユーザが行うと、図5のブラウザビュー画面から切り替えて、各撮影画像を取得したときの撮影範囲がモニタ104に表示される。図8は、図5のブラウザビュー画面において表示されている各撮影画像について撮影範囲を表示した撮影範囲画面の例である。この撮影範囲画面では、図5のアイコン31〜34が表す各撮影画像について、それぞれの撮影位置41〜44と、撮影範囲51〜54とが平面図により表示されている。   Furthermore, when the user performs a predetermined operation on the digital camera 1, the shooting range when each captured image is acquired is displayed on the monitor 104 by switching from the browser view screen of FIG. 5. FIG. 8 is an example of a shooting range screen displaying a shooting range for each captured image displayed on the browser view screen of FIG. In this shooting range screen, the shooting positions 41 to 44 and the shooting ranges 51 to 54 are displayed in plan view for each of the shot images represented by the icons 31 to 34 in FIG.

図8の撮影範囲画面において、撮影範囲51〜54では、台形状の図形を用いてそれぞれの撮影画像における撮影範囲を表現している。たとえば、撮影範囲52において、線分521、522および523は、それぞれ撮影画像における前方被写界深度、ピント面および後方被写界深度の位置を表している。すなわち、撮影位置42と線分522の間が離れているほど、カメラから主要被写体までの距離が遠く、また線分521と線分523の間が離れているほど、被写界深度が深いことを表している。また、線分522の長さは、撮影画像の画角の大きさを表している。他の撮影範囲についても、これと同様である。なお、無限遠に合わせてピント調節されている場合は、撮影範囲54のように、ピント面と後方被写界深度の位置を表示しないようにしてもよい。   In the shooting range screen of FIG. 8, in the shooting ranges 51 to 54, trapezoidal figures are used to represent the shooting ranges in the respective shot images. For example, in the shooting range 52, line segments 521, 522, and 523 represent the positions of the front depth of field, the focus plane, and the rear depth of field in the shot image, respectively. That is, the farther the distance between the shooting position 42 and the line segment 522 is, the farther the distance from the camera to the main subject is, and the farther the distance between the line segment 521 and the line segment 523 is, the deeper the depth of field is. Represents. The length of the line segment 522 represents the size of the angle of view of the captured image. The same applies to other imaging ranges. Note that, when the focus is adjusted to infinity, the position of the focus plane and the rear depth of field may not be displayed as in the shooting range 54.

ところで、以上説明したブラウザビュー画面は、スルー画像以外の背景画像に重ねて表示するようにしてもよい。たとえば、所定の切り替え条件を満たしたときには、スルー画像から切り替えて、メモリ114によって予め記憶された背景画像をモニタ104に表示する。この背景画像に重ねて、図5のようなブラウザビュー画面を表示する。   By the way, the browser view screen described above may be displayed overlaid on a background image other than the through image. For example, when a predetermined switching condition is satisfied, the through image is switched and a background image stored in advance by the memory 114 is displayed on the monitor 104. A browser view screen as shown in FIG. 5 is displayed over the background image.

上記の切り替え条件には、カメラ向きや周囲の明るさなどを用いることができる。たとえば、モーションセンサ108によって検出された現在のカメラ向きにおいて、仰角が所定のしきい値を超えた場合、たとえば60°以上または−60°以下になった場合に、切り替え条件を満たしたと判定する。または、スルー画像の明るさを検出することにより周囲の明るさを判断して、その明るさが所定のしきい値未満となった場合に、切り替え条件を満たしたと判定する。これ以外にも、様々な切り替え条件を用いることができる。   For the above switching conditions, camera orientation, ambient brightness, and the like can be used. For example, in the current camera direction detected by the motion sensor 108, when the elevation angle exceeds a predetermined threshold, for example, when it is 60 ° or more or −60 ° or less, it is determined that the switching condition is satisfied. Alternatively, the brightness of the surroundings is determined by detecting the brightness of the through image, and when the brightness falls below a predetermined threshold, it is determined that the switching condition is satisfied. In addition to this, various switching conditions can be used.

なお、スルー画像に切り替えて背景画像を表示する場合は、そのときの状況に応じて背景画像を変化させることが好ましい。たとえば、仰角が60°以上になった場合は、そのときのカメラ位置に応じた空や星図の画像を背景画像として表示し、仰角が−60°以上になった場合は、そのときのカメラ位置に応じた地図を背景画像として表示する。また、周囲の明るさが所定のしきい値未満となった場合は、そのときのカメラ位置に応じて、周囲の風景を模擬した背景画像を表示する。このとき、カメラ傾きに応じて、背景画像において表現されている風景の時間帯を変化させてもよい。   In addition, when switching to a through image and displaying a background image, it is preferable to change a background image according to the condition at that time. For example, when the elevation angle is 60 ° or more, an image of the sky or star map corresponding to the camera position at that time is displayed as a background image, and when the elevation angle is −60 ° or more, the camera position at that time A map corresponding to is displayed as a background image. If the ambient brightness is less than a predetermined threshold, a background image simulating the surrounding landscape is displayed according to the camera position at that time. At this time, the time zone of the landscape represented in the background image may be changed according to the camera tilt.

デジタルカメラ1は、情報検索モードが設定されると、以上説明したような処理を実行することにより、時空データベースから様々な情報を抽出して表示する。図9は、このときの処理の流れを示すフローチャートである。このフローチャートは、CPU101によって実行される。以下、図9のフローチャートについて説明する。   When the information search mode is set, the digital camera 1 extracts various information from the space-time database and displays it by executing the processing as described above. FIG. 9 is a flowchart showing the flow of processing at this time. This flowchart is executed by the CPU 101. Hereinafter, the flowchart of FIG. 9 will be described.

ステップS10では、CCD113からの撮像信号に基づく撮影画像データをCCDドライバ112から受信して、被写体のスルー画像を取得する。ステップS20では、ステップS10で取得したスルー画像をモニタ104に表示する。これにより、図4のようなスルー画像が表示される。   In step S10, captured image data based on the imaging signal from the CCD 113 is received from the CCD driver 112, and a through image of the subject is acquired. In step S20, the through image acquired in step S10 is displayed on the monitor 104. Thereby, a through image as shown in FIG. 4 is displayed.

ステップS30では、情報検索モードが設定されているか否かを判定する。情報検索モードが設定されている場合は、次のステップS40へ進む。一方、情報検索モードが設定されておらず、撮影モードが設定されている場合は、ステップS10へ戻る。これにより、撮影モードでは図4のようなスルー画像が表示される。そして、ユーザがシャッターボタン11を操作して撮影指示を行うと、その撮影指示に応じて撮影画像が取得され、撮影画像情報がメモリカード115に記録される。   In step S30, it is determined whether or not the information search mode is set. If the information search mode is set, the process proceeds to the next step S40. On the other hand, if the information search mode is not set and the shooting mode is set, the process returns to step S10. Thereby, a through image as shown in FIG. 4 is displayed in the photographing mode. When the user issues a shooting instruction by operating the shutter button 11, a shot image is acquired according to the shooting instruction, and the shot image information is recorded in the memory card 115.

ステップS40では、カメラ位置の検出を行う。ここでは、GPSセンサ107によりGPS信号を受信することで、そのGPS信号に基づいて、デジタルカメラ1の現在位置を示すカメラ位置を検出する。次のステップS50では、カメラ姿勢の検出を行う。ここでは、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の現在の向きを示すカメラ向きと、デジタルカメラ1の現在の傾きを示すカメラ傾きとを検出する。   In step S40, the camera position is detected. Here, a GPS signal is received by the GPS sensor 107, and a camera position indicating the current position of the digital camera 1 is detected based on the GPS signal. In the next step S50, the camera posture is detected. Here, based on the posture change of the digital camera 1 detected by the motion sensor 108, a camera orientation indicating the current orientation of the digital camera 1 and a camera tilt indicating the current tilt of the digital camera 1 are detected.

ステップS60では、ステップS50で検出されたカメラ姿勢に基づいて、そのときのカメラ傾きに応じた情報検索の時間範囲を前述のようにして設定する。ステップS70では、ステップS40で検出されたカメラ位置と、ステップS60で設定された時間範囲とに基づいて、前述のような方法により、時空データベースから情報を検索する際の検索条件を設定する。すなわち、カメラ位置およびカメラ向きに基づいて検索対象エリアを設定すると共に、そのときのデジタルカメラ1の傾き状態に応じて設定された情報検索の時間範囲に基づいて検索対象時間を設定することで、検索条件を設定する。なお、このとき検索対象エリアのみを設定し、検索対象時間を設定しないこととしてもよい。   In step S60, based on the camera posture detected in step S50, the information search time range corresponding to the camera tilt at that time is set as described above. In step S70, based on the camera position detected in step S40 and the time range set in step S60, search conditions for searching information from the space-time database are set by the method described above. That is, by setting the search target area based on the camera position and camera orientation, and setting the search target time based on the information search time range set according to the tilt state of the digital camera 1 at that time, Set search conditions. At this time, only the search target area may be set and the search target time may not be set.

ステップS80では、ステップS70で設定された検索条件に基づいて、時空データベースから情報の検索を行う。このとき、メモリカード115とサーバ装置3のいずれか一方の時空データベースから情報を検索してもよいし、両方の時空データベースから情報を検索してもよい。ステップS90では、ステップS80で検索された情報を時空データベースから抽出する。これにより、検索条件を満たす情報が抽出される。   In step S80, information is searched from the space-time database based on the search condition set in step S70. At this time, information may be retrieved from either the space-time database of either the memory card 115 or the server device 3, or information may be retrieved from both space-time databases. In step S90, the information retrieved in step S80 is extracted from the space-time database. Thereby, information satisfying the search condition is extracted.

なお、ステップS80においてサーバ装置3の時空データベースを検索する場合は、前述のように、ステップS70で設定した検索条件をサーバ装置3へ送信するようにしてもよい。あるいは、時空データベースに記録された情報をデジタルカメラ1のCPU101に入力し、その情報をデジタルカメラ1において検索するようにしてもよい。いずれかの方法で時空データベースから検索された情報が、ステップS90において抽出される。   When searching the space-time database of the server device 3 in step S80, the search condition set in step S70 may be transmitted to the server device 3 as described above. Alternatively, information recorded in the space-time database may be input to the CPU 101 of the digital camera 1 and the information may be searched for in the digital camera 1. Information retrieved from the space-time database by any method is extracted in step S90.

ステップS100では、ステップS90で抽出された情報に対してアイコン作成処理を行う。このアイコン作成処理では、ステップS90で抽出された各情報の内容に応じて、図5のアイコン31〜36のようなアイコンをそれぞれ作成する。なお、このときに必要な撮影条件などの情報は、前述のように撮影画像情報に付加されたメタ情報として時空データベースに記録されている。   In step S100, an icon creation process is performed on the information extracted in step S90. In this icon creation process, icons such as icons 31 to 36 in FIG. 5 are created according to the contents of each information extracted in step S90. Note that information such as shooting conditions necessary at this time is recorded in the space-time database as meta information added to the shot image information as described above.

ステップS110では、立体化処理を行う。ここでは、ステップS40で検出されたカメラ位置と、ステップS50で検出されたカメラ姿勢とに基づいて、前述のように擬似立体空間の範囲を決定する。   In step S110, a three-dimensional process is performed. Here, the range of the pseudo three-dimensional space is determined as described above based on the camera position detected in step S40 and the camera posture detected in step S50.

ステップS120では、ブラウザビュー画面をモニタ104に表示する。ここでは、ステップS20で表示したスルー画像に重畳して、ステップS110の立体化処理で決定された擬似立体空間の範囲に対応するグリッド線および空間カーソルを表示すると共に、ステップS100で作成されたアイコンを擬似立体空間内の対応する位置にそれぞれ表示する。これにより、図6のようなブラウザビュー画面が表示される。   In step S120, the browser view screen is displayed on the monitor 104. Here, the grid line and the space cursor corresponding to the range of the pseudo three-dimensional space determined by the three-dimensional processing in step S110 are displayed superimposed on the through image displayed in step S20, and the icon created in step S100 is displayed. Are respectively displayed at corresponding positions in the pseudo three-dimensional space. Thereby, a browser view screen as shown in FIG. 6 is displayed.

ステップS130では、モーションセンサ108によって検出されたカメラ姿勢に変化があるか否かを判定する。カメラ姿勢に変化がある場合はステップS140へ進む。ステップS140では、カメラ姿勢の変化に応じて、前述のようにして空間カーソル30をブラウザビュー画面内で移動させる。ステップS140を実行したら、ステップS150へ進む。一方、カメラ姿勢に変化がない場合は、ステップS140を実行せずにステップS150へ進む。   In step S130, it is determined whether or not the camera posture detected by the motion sensor 108 has changed. If there is a change in the camera posture, the process proceeds to step S140. In step S140, the spatial cursor 30 is moved in the browser view screen as described above according to the change in the camera posture. If step S140 is performed, it will progress to step S150. On the other hand, if there is no change in the camera posture, the process proceeds to step S150 without executing step S140.

ステップS150では、シャッターボタン11の半押し操作があったか否かを判定する。ブラウザビュー画面において半押し操作があった場合はステップS160へ進み、なかった場合はステップS210へ進む。   In step S150, it is determined whether or not the shutter button 11 is half-pressed. If there is a half-press operation on the browser view screen, the process proceeds to step S160, and if not, the process proceeds to step S210.

ステップS160では、空間カーソル30内に情報があるか否かを判定する。空間カーソル30内に情報がある場合、すなわちブラウザビュー画面において空間カーソル30内にいずれかの情報を表すアイコンが表示されている場合は、ステップS170へ進む。一方、空間カーソル30内に情報がない場合は、ステップS210へ進む。   In step S160, it is determined whether there is information in the space cursor 30 or not. If there is information in the space cursor 30, that is, if an icon representing any information is displayed in the space cursor 30 on the browser view screen, the process proceeds to step S170. On the other hand, when there is no information in the space cursor 30, it progresses to step S210.

ステップS170では、ステップS160で空間カーソル30内にあると判定された情報について、図6のようなセレクトビュー画面を表示する。ステップS180では、セレクトビュー画面においてシャッターボタン11の全押し操作があったか否かを判定する。全押し操作があった場合はステップS190へ進み、なかった場合はステップS200へ進む。   In step S170, a select view screen as shown in FIG. 6 is displayed for the information determined to be in the space cursor 30 in step S160. In step S180, it is determined whether or not the shutter button 11 is fully pressed on the select view screen. If there has been a full-press operation, the process proceeds to step S190.

ステップS190では、全押し操作があったときにセレクトビュー画面で選択されていた撮影画像について、図7のようなワンビュー画面を表示する。なお、セレクトビュー画面で撮影画像以外の文字情報や音声情報が選択されていた場合は、前述のように、ワンビュー画面を表示する代わりに、文字情報の内容をメタ情報として撮影画像に付加したり、音声出力を行ったりする。   In step S190, a one-view screen as shown in FIG. 7 is displayed for the photographed image selected on the select view screen when the full-press operation is performed. If character information or audio information other than the shot image has been selected on the select view screen, the contents of the character information can be added to the shot image as meta information instead of displaying the one-view screen as described above. , Perform audio output.

ステップS200では、シャッターボタン11の操作が解除されたか否かを判定する。シャッターボタン11の操作が解除された場合、すなわち半押し操作や全押し操作が解除された場合は、ステップS10へ戻る。これにより、前述のような処理を繰り返して、再びブラウザビュー画面を表示する。一方、シャッター操作が解除されない場合は、ステップS170へ戻ってセレクトビュー画面の表示を続ける。なお、全押し操作されている場合は、セレクトビュー画面ではなくワンビュー画面を表示する。   In step S200, it is determined whether or not the operation of the shutter button 11 has been released. When the operation of the shutter button 11 is released, that is, when the half-press operation or the full-press operation is released, the process returns to step S10. Accordingly, the browser view screen is displayed again by repeating the processing as described above. On the other hand, if the shutter operation is not released, the process returns to step S170 to continue displaying the select view screen. If the full-press operation is performed, the one-view screen is displayed instead of the select-view screen.

ステップS210では、背景画像の切り替え条件を満たすか否かを判定する。前述したような背景画像の切り替え条件を満たす場合、すなわち、カメラ向きや周囲の明るさが所定のしきい値を超えている場合は、ステップS220へ進む。一方、切り替え条件を満たさない場合は、ステップS240へ進む。   In step S210, it is determined whether or not a background image switching condition is satisfied. If the background image switching condition as described above is satisfied, that is, if the camera orientation or ambient brightness exceeds a predetermined threshold, the process proceeds to step S220. On the other hand, if the switching condition is not satisfied, the process proceeds to step S240.

ステップS220では、メモリ114に記憶された背景画像を読み出す。ステップS230では、ステップS20で表示したスルー画像から切り替えて、ステップS220で読み出した背景画像を表示モニタ104に表示する。このとき前述のように、状況に応じて背景画像を変化させるようにしてもよい。   In step S220, the background image stored in the memory 114 is read. In step S230, the background image read in step S220 is displayed on the display monitor 104 by switching from the through image displayed in step S20. At this time, as described above, the background image may be changed according to the situation.

ステップS240では、ユーザから撮影範囲の表示要求があったか否かを判定する。所定の操作が行われることにより撮影範囲の表示要求があった場合はステップS250へ進み、ステップS250において、図8のような撮影範囲画面をモニタ104に表示することで、各撮影画像を取得したときの撮影範囲を表示する。ステップS250を実行したら、ステップS10へ戻る。一方、所定の操作が行われず、撮影範囲の表示要求がなかった場合は、ステップS250を実行せずにステップS10へ戻る。   In step S240, it is determined whether or not the user has requested display of the shooting range. If there is a request to display the shooting range by performing a predetermined operation, the process proceeds to step S250. In step S250, each shooting image is acquired by displaying a shooting range screen as shown in FIG. Displays the shooting range. After step S250 is executed, the process returns to step S10. On the other hand, if the predetermined operation is not performed and there is no request for displaying the photographing range, the process returns to step S10 without executing step S250.

以上説明したように、デジタルカメラ1は、GPSセンサ107により受信されたGPS信号に基づいて、デジタルカメラ1の現在位置を示すカメラ位置を検出する(ステップS40)。そして、検出されたカメラ位置に基づいて検索条件を設定し(ステップS70)、設定された検索条件に基づいて、時空データベースからいずれかの情報を検索し(ステップS80)、抽出する(ステップS90)。こうして抽出された情報を、ブラウザビュー画面においてモニタ104に表示する(ステップS120)。したがって、検索用のキーワードを入力しなくても、所望の情報を簡単に検索して表示することができる。   As described above, the digital camera 1 detects the camera position indicating the current position of the digital camera 1 based on the GPS signal received by the GPS sensor 107 (step S40). Then, a search condition is set based on the detected camera position (step S70), and any information is searched from the space-time database based on the set search condition (step S80) and extracted (step S90). . The information thus extracted is displayed on the monitor 104 on the browser view screen (step S120). Therefore, it is possible to easily search and display desired information without inputting a search keyword.

以上説明した実施の形態によれば、次の作用効果を奏する。
(1)デジタルカメラ1は、CPU101の処理により、位置に関するデータをメタ情報として有する情報を時空データベースから入力する。また、デジタルカメラ1の現在位置、すなわち被写体を撮像するCCD113の現在の位置を検出し(ステップS40)、検出した位置に基づいて、入力した情報を検索する(ステップS80)。そして、モニタ104により、当該情報の有する位置に関するデータに応じて、ステップS80で検索した情報をCCD113で撮像した画像と共に表示する(ステップS120)。このようにしたので、検索用のキーワードを入力しなくても、所望の情報を簡単に検索して表示することができる。
According to the embodiment described above, the following operational effects are obtained.
(1) The digital camera 1 inputs information having position-related data as meta information from the space-time database by the processing of the CPU 101. Further, the current position of the digital camera 1, that is, the current position of the CCD 113 that captures the subject is detected (step S40), and the input information is searched based on the detected position (step S80). Then, the information retrieved in step S80 is displayed together with the image captured by the CCD 113 on the monitor 104 according to the data related to the position of the information (step S120). Since it did in this way, even if it does not input the keyword for a search, desired information can be searched and displayed easily.

(2)モニタ104は、ステップS80で検索した情報を、その情報が有するメタ情報の位置データに対応した画像中の位置に配置して表示することとした。このようにしたので、検索した情報と画像の位置関係を正しく表示して、分かりやすい情報の表示を行うことができる。 (2) The monitor 104 arranges and displays the information searched in step S80 at a position in the image corresponding to the position data of the meta information included in the information. Since it did in this way, the positional relationship of the searched information and an image can be displayed correctly, and the information which is easy to understand can be displayed.

(3)時空データベースから入力して検索する情報の中には、デジタルカメラ1において撮像した画像である情報が含まれることとした。すなわち、CPU101で検出した位置に関する情報を有する、CCD113で撮像した画像を、CPU101において検索することとした。このようにしたので、検索用のキーワードを入力しなくても、過去に撮像した画像を簡単に検索して表示することができる。 (3) The information input and searched from the space-time database includes information that is an image captured by the digital camera 1. That is, the CPU 101 searches for an image picked up by the CCD 113 having information on the position detected by the CPU 101. Since it did in this way, even if it does not input the keyword for a search, the image imaged in the past can be searched and displayed easily.

(4)デジタルカメラ1は、CPU101の処理により、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の向きを検出する(ステップS50)。ステップS80では、CPU101によりステップS40で検出された位置と、ステップS50で検出された向きとに基づいて、情報を検索する。すなわち、ステップS50において、デジタルカメラ1の向きを水平方向と垂直方向の少なくともいずれか一方について検出し、その検出結果および位置の検出結果に基づく検索条件をステップS70において設定することにより、情報を検索する。このようにしたので、位置の検出結果のみに基づいて情報を検索する場合と比べて、現在の状況をより的確に反映した情報検索を行うことができる。 (4) The digital camera 1 detects the orientation of the digital camera 1 based on the posture change of the digital camera 1 detected by the motion sensor 108 by the processing of the CPU 101 (step S50). In step S80, information is searched based on the position detected in step S40 by the CPU 101 and the direction detected in step S50. That is, in step S50, the direction of the digital camera 1 is detected in at least one of the horizontal direction and the vertical direction, and information is searched by setting a search condition based on the detection result and the position detection result in step S70. To do. Since it did in this way, compared with the case where information is searched based only on the detection result of a position, the information search which reflected the present condition more accurately can be performed.

(5)デジタルカメラ1は、さらにCPU101の処理により、モーションセンサ108によって検出されたデジタルカメラ1の姿勢変化に基づいて、デジタルカメラ1の傾きを検出する(ステップS50)。この傾きに応じて、ステップS80で検索する情報が作成された時間範囲を変更することができる。このようにすることで、場所に加えてさらに時間に応じた検索条件を設定して情報の検索を行うことができる。 (5) The digital camera 1 further detects the tilt of the digital camera 1 based on the posture change of the digital camera 1 detected by the motion sensor 108 by the processing of the CPU 101 (step S50). Depending on this inclination, the time range in which the information to be searched for in step S80 is created can be changed. In this way, it is possible to search for information by setting a search condition according to time in addition to the place.

(6)デジタルカメラ1は、CCD113で撮像したスルー画を取得する(ステップS10)。ステップS120においてブラウザビュー画面をモニタ104に表示する際には、検索した情報をこのスルー画に重ねて表示することとした。このようにしたので、ユーザは、スルー画によって被写体の様子を観察しながら、時空データベースから入力して検索された情報を見ることができる。 (6) The digital camera 1 acquires a through image captured by the CCD 113 (step S10). When the browser view screen is displayed on the monitor 104 in step S120, the retrieved information is displayed on the through image. Since it did in this way, the user can see the information inputted and searched from the space-time database while observing the state of the subject with the through image.

(7)所定の切り替え条件を満たしたときには、メモリ114によって予め記憶された背景画像をスルー画から切り替えてモニタ104に表示する(ステップS230)こととした。このようにしたので、検索された情報を見やすく表示することができる。 (7) When a predetermined switching condition is satisfied, the background image stored in advance by the memory 114 is switched from the through image and displayed on the monitor 104 (step S230). Since it did in this way, the searched information can be displayed easily.

(8)スルー画から背景画像に切り替えるときの切り替え条件は、カメラ向きまたは周囲の明るさに応じて設定することができる。したがって、スルー画において主要被写体となるべき物体が表示されていない場合や、周囲が暗いためにスルー画において主要被写体がよく写っていない場合などは、スルー画の代わりに適切な背景画像をモニタ104において表示することができる。 (8) The switching condition for switching from the through image to the background image can be set according to the camera orientation or the ambient brightness. Therefore, when an object that should be the main subject is not displayed in the through image or when the main subject is not well captured in the through image because the surroundings are dark, an appropriate background image is used instead of the through image on the monitor 104. Can be displayed.

(9)時空データベースには、情報として、撮影画像、文字または音声の少なくともいずれかを記録しておくことができる。デジタルカメラ1は、ステップS80において、この撮影画像、文字または音声のいずれかを検索対象とすることができる。このようにしたので、撮影画像に限らず、様々な情報を時空データベースから検索してユーザに提示することができる。 (9) In the space-time database, it is possible to record at least one of photographed images, characters, and sounds as information. In step S80, the digital camera 1 can search for any one of the photographed image, text, and voice. Since it did in this way, not only a picked-up image but various information can be searched from a space-time database, and can be shown to a user.

(10)デジタルカメラ1は、ユーザから所定の操作が行われることで撮影範囲の表示要求があったときには、ステップS80で検索された撮影画像の撮影範囲をさらにモニタ104に表示することとした(ステップS250)。このようにしたので、ユーザは、どのようにして撮影が行われたのかを容易に知ることができる。 (10) The digital camera 1 further displays the shooting range of the shot image searched in step S80 on the monitor 104 when the user requests to display the shooting range by performing a predetermined operation ( Step S250). Since it did in this way, the user can know easily how imaging was performed.

(11)デジタルカメラ1が検索する時空データベースの情報は、デジタルカメラ1に装填されたメモリカード115、またはデジタルカメラと無線通信により接続されるサーバ装置3に格納されていることとした。このようにしたので、デジタルカメラ1によって取得された撮影画像に加えて、さらに他のカメラによる撮影画像などの様々な情報をも検索対象とすることができる。 (11) Information in the space-time database searched by the digital camera 1 is stored in the memory card 115 loaded in the digital camera 1 or the server device 3 connected to the digital camera by wireless communication. Since it did in this way, in addition to the picked-up image acquired with the digital camera 1, various information, such as a picked-up image by another camera, can also be made into a search object.

なお、上記実施の形態では、電子カメラであるデジタルカメラ1を例に説明したが、他の装置についても本発明を適用可能である。たとえば、カメラ付きの携帯電話などの携帯電子機器に適用することができる。あるいは、撮影を行わないデジタル式の双眼鏡やフィールドスコープなどにおいて、予め時空データベースに記録された画像情報などの各種情報を検索して表示する際に、本発明を適用してもよい。すなわち、位置に関するデータを有する情報を入力する入力部と、被写体を撮像した画像を入力する画像入力部と、位置を検出する位置検出部と、位置検出部で検出した位置に基づいて情報を検索する検索部と、当該情報の有する位置に関するデータに応じて、検索部で検索した情報を画像と共に表示する表示部とを有する表示装置においても、本発明を適用することができる。   In the above embodiment, the digital camera 1 which is an electronic camera has been described as an example. However, the present invention can also be applied to other devices. For example, the present invention can be applied to a portable electronic device such as a mobile phone with a camera. Alternatively, the present invention may be applied when searching and displaying various types of information such as image information recorded in a space-time database in advance in digital binoculars or field scopes that do not perform shooting. That is, an input unit that inputs information having data related to a position, an image input unit that inputs an image of a subject, a position detection unit that detects a position, and information search based on the position detected by the position detection unit The present invention can also be applied to a display device that includes a search unit that performs a search, and a display unit that displays information searched by the search unit together with an image according to data relating to the position of the information.

以上説明した実施の形態や各種の変形例はあくまで一例に過ぎない。したがって、本発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。   The embodiment and various modifications described above are merely examples. Therefore, the present invention is not limited to these contents as long as the characteristics of the present invention are not impaired.

本発明の一実施の形態によるカメラシステムの構成図である。It is a block diagram of the camera system by one embodiment of this invention. 本発明の一実施の形態によるデジタルカメラの外観を示す図である。It is a figure which shows the external appearance of the digital camera by one embodiment of this invention. 本発明の一実施の形態によるデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 撮影モードが設定されたときに表示されるスルー画像の例を示す図である。It is a figure which shows the example of the through image displayed when imaging | photography mode is set. 情報検索モードが設定されたときに表示されるブラウザビュー画面の例を示す図である。It is a figure which shows the example of the browser view screen displayed when information search mode is set. セレクトビュー画面の例を示す図である。It is a figure which shows the example of a select view screen. ワンビュー画面の例を示す図である。It is a figure which shows the example of a one view screen. 撮影範囲画面の例を示す図である。It is a figure which shows the example of an imaging | photography range screen. 時空データベースから様々な情報を抽出して表示するときの処理の流れを示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the flow of a process when extracting and displaying various information from a space-time database.

符号の説明Explanation of symbols

1:デジタルカメラ
2:アクセスポイント
3:サーバ装置
1: Digital camera 2: Access point 3: Server device

Claims (19)

位置に関するデータを有する情報を入力する入力部と、
被写体を撮像する撮像部と、
位置を検出する位置検出部と、
前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、
前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部と
電子カメラの傾きを検出する傾き検出部とを有し、
前記情報は、前記情報が作成された時間データを有し、
前記検索部は、前記傾き検出部で検出した傾きに応じて、検索する前記情報が作成された時間範囲を変更すること
を特徴とする電子カメラ。
An input unit for inputting information having data on the position;
An imaging unit for imaging a subject;
A position detector for detecting the position;
A search unit for searching for the information based on the position detected by the position detection unit;
A display unit that displays the information searched by the search unit together with an image captured by the imaging unit in accordance with data related to a position of the information ;
An inclination detection unit for detecting the inclination of the electronic camera;
The information includes time data when the information is created,
The search unit changes a time range in which the information to be searched is created according to the tilt detected by the tilt detection unit.
An electronic camera characterized by
請求項1に記載の電子カメラにおいて、The electronic camera according to claim 1,
前記画像はスルー画であり、The image is a through image,
前記表示部は、所定の切り替え条件を満たしたときに、予め記憶された背景画像を前記スルー画から切り替えて表示することThe display unit displays a background image stored in advance by switching from the through image when a predetermined switching condition is satisfied.
を特徴とする電子カメラ。An electronic camera characterized by
請求項2に記載の電子カメラにおいて、The electronic camera according to claim 2,
前記切り替え条件は、前記電子カメラの向きまたは周囲の明るさに応じて設定されることThe switching condition is set according to the orientation of the electronic camera or the ambient brightness.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項3のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 3,
前記表示部は、擬似的な立体空間を示す線を、前記画像と共に表示することThe display unit displays a line indicating a pseudo three-dimensional space together with the image.
を特徴とする電子カメラ。An electronic camera characterized by
位置に関するデータを有する情報を入力する入力部と、An input unit for inputting information having data on the position;
被写体を撮像する撮像部と、An imaging unit for imaging a subject;
位置を検出する位置検出部と、A position detector for detecting the position;
前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、A search unit for searching for the information based on the position detected by the position detection unit;
前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部とを有し、A display unit that displays the information searched by the search unit together with an image captured by the imaging unit in accordance with data relating to the position of the information;
前記画像はスルー画であり、The image is a through image,
前記表示部は、所定の切り替え条件を満たしたときに、予め記憶された背景画像を前記スルー画から切り替えて表示することThe display unit displays a background image stored in advance by switching from the through image when a predetermined switching condition is satisfied.
を特徴とする電子カメラ。An electronic camera characterized by
請求項5に記載の電子カメラにおいて、The electronic camera according to claim 5,
前記切り替え条件は、前記電子カメラの向きまたは周囲の明るさに応じて設定されることThe switching condition is set according to the orientation of the electronic camera or the ambient brightness.
を特徴とする電子カメラ。An electronic camera characterized by
請求項5または請求項6に記載の電子カメラにおいて、The electronic camera according to claim 5 or 6,
前記表示部は、擬似的な立体空間を示す線を、前記画像と共に表示することThe display unit displays a line indicating a pseudo three-dimensional space together with the image.
を特徴とする電子カメラ。An electronic camera characterized by
位置に関するデータを有する情報を入力する入力部と、An input unit for inputting information having data on the position;
被写体を撮像する撮像部と、An imaging unit for imaging a subject;
位置を検出する位置検出部と、A position detector for detecting the position;
前記位置検出部で検出した位置に基づいて、前記情報を検索する検索部と、A search unit for searching for the information based on the position detected by the position detection unit;
前記情報の有する位置に関するデータに応じて、前記検索部で検索した前記情報を前記撮像部で撮像した画像と共に表示する表示部とを有し、A display unit that displays the information searched by the search unit together with an image captured by the imaging unit in accordance with data relating to the position of the information;
前記表示部は、擬似的な立体空間を示す線を、前記画像と共に表示することThe display unit displays a line indicating a pseudo three-dimensional space together with the image.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項8のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 8,
前記表示部は、前記情報を、前記情報が有する位置データに対応した前記画像中の位置に配置することThe display unit arranges the information at a position in the image corresponding to position data included in the information.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項9のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 9,
前記情報は前記位置検出部で検出した位置に関する情報を有する前記撮像部で撮像した画像であることThe information is an image picked up by the image pickup unit having information on the position detected by the position detection unit.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項10のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 10,
前記電子カメラの向きを検出する向き検出部をさらに備え、An orientation detection unit for detecting the orientation of the electronic camera;
前記検索部は、前記位置検出部で検出された位置と、前記向き検出部で検出された向きとに基づいて、前記情報を検索することThe search unit searches for the information based on a position detected by the position detection unit and a direction detected by the direction detection unit.
を特徴とする電子カメラ。An electronic camera characterized by
請求項11に記載の電子カメラにおいて、The electronic camera according to claim 11,
前記向き検出部は、水平方向と垂直方向の少なくともいずれか一方について検出し、The orientation detection unit detects at least one of a horizontal direction and a vertical direction,
前記検索部は、前記位置検出部により検出された位置と、前記向き検出部により検出された向きとに基づいて、前記情報を検索することThe search unit searches for the information based on a position detected by the position detection unit and a direction detected by the direction detection unit.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項12のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 12,
前記情報は、撮影画像、文字または音声の少なくともいずれかであることThe information is at least one of a photographed image, text, and voice.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項13のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 13,
前記表示部は、前記検索部により検索された撮影画像の撮影範囲をさらに表示することThe display unit further displays a shooting range of the shot image searched by the search unit.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項14のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 14,
前記情報は、前記電子カメラに装填された記録媒体、または前記電子カメラと無線通信により接続されるサーバ装置に格納されていることThe information is stored in a recording medium loaded in the electronic camera or a server device connected to the electronic camera by wireless communication.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項15のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 15,
前記情報を選択するための選択部を有し、A selection unit for selecting the information;
前記選択部は、ズームボタンと回転可能な操作部材と十字キーとのうち少なくとも1つを含むことThe selection unit includes at least one of a zoom button, a rotatable operation member, and a cross key.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項15のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 15,
前記情報を選択するための選択部を有し、A selection unit for selecting the information;
前記選択部により前記情報が選択され、かつ、撮影を指示するためのボタンが操作された場合には、前記選択部により選択された前記情報に関連する情報を表示することWhen the information is selected by the selection unit and a button for instructing photographing is operated, information related to the information selected by the selection unit is displayed.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項17のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 17,
前記表示部は、前記検索部により検索された撮影画像の画角と被写界深度とのうち少なくともいずれかを示す表示をすることThe display unit displays at least one of a field angle and a depth of field of the captured image searched by the search unit.
を特徴とする電子カメラ。An electronic camera characterized by
請求項1から請求項18のいずれか一項に記載の電子カメラにおいて、The electronic camera according to any one of claims 1 to 18,
撮影が指示された場合に撮影画像を取得するための撮影モードと、前記情報を検索するための検索モードと、を設定可能なことCapable of setting a shooting mode for acquiring a shot image and a search mode for searching for the information when shooting is instructed
を特徴とする電子カメラ。An electronic camera characterized by
JP2007225303A 2007-08-31 2007-08-31 Electronic camera Expired - Fee Related JP5007631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007225303A JP5007631B2 (en) 2007-08-31 2007-08-31 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007225303A JP5007631B2 (en) 2007-08-31 2007-08-31 Electronic camera

Publications (3)

Publication Number Publication Date
JP2009060337A JP2009060337A (en) 2009-03-19
JP2009060337A5 JP2009060337A5 (en) 2011-10-13
JP5007631B2 true JP5007631B2 (en) 2012-08-22

Family

ID=40555674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007225303A Expired - Fee Related JP5007631B2 (en) 2007-08-31 2007-08-31 Electronic camera

Country Status (1)

Country Link
JP (1) JP5007631B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5155266B2 (en) * 2009-08-17 2013-03-06 キャンバスマップル株式会社 Image display device, image display method, and image display program
JP2012157048A (en) * 2012-03-29 2012-08-16 Canvas Mapple Co Ltd Image display device, image display method and computer program
JP2012170100A (en) * 2012-03-29 2012-09-06 Canvas Mapple Co Ltd Image display unit, image display method and computer program
JP6265621B2 (en) * 2013-04-18 2018-01-24 キヤノン株式会社 Display control apparatus and program
JP6370598B2 (en) * 2014-05-01 2018-08-08 オリンパス株式会社 Imaging device
WO2015159775A1 (en) 2014-04-15 2015-10-22 オリンパス株式会社 Image processing apparatus, communication system, communication method, and image-capturing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3924900B2 (en) * 1998-02-24 2007-06-06 松下電工株式会社 camera
JP4432256B2 (en) * 2000-12-06 2010-03-17 株式会社ニコン Optical instrument with contrast display function
JP2004246454A (en) * 2003-02-12 2004-09-02 Minolta Co Ltd Image forming program, and image forming device
JP4940041B2 (en) * 2006-07-25 2012-05-30 キヤノン株式会社 IMAGING DEVICE, INFORMATION PROCESSING DEVICE, COMMUNICATION SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM

Also Published As

Publication number Publication date
JP2009060337A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
JP5194650B2 (en) Electronic camera
JP5851766B2 (en) Portable device
CN104717429A (en) Image capture device having tilt and/or perspective correction
JP2009088683A (en) Image display device, image display method, and image display program
JP5007631B2 (en) Electronic camera
KR101998903B1 (en) Server, client terminal, system, and program
JP5186984B2 (en) Electronic camera
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
KR20200080147A (en) Electronic apparatus, control method of electronic apparatus and computer readable medium
JP5003358B2 (en) Display device, electronic camera, and control program
KR20200028298A (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
JP5040615B2 (en) Electronic camera
JP5088216B2 (en) Electronic camera
JP2009260599A (en) Image display apparatus and electronic camera
JP5034880B2 (en) Electronic camera, image display device
JP5088051B2 (en) Electronic camera and program
JP2009116795A (en) Information search device, electronic camera and information search method
JP5115375B2 (en) Image display device and electronic camera
JP2007259002A (en) Image reproducing apparatus, its control method, and its control program
CN114600162A (en) Scene lock mode for capturing camera images
JP2012227717A (en) Display device, display program, and display method
JP2012199971A (en) Display device, electronic camera, and control program
US11700455B2 (en) Image capturing device, image communication system, and method for display control
JP5328868B2 (en) Image display apparatus, image display method, and image display program
JP5292781B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120514

R150 Certificate of patent or registration of utility model

Ref document number: 5007631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees