JP2013179544A - Photographing device and photography control method and program - Google Patents

Photographing device and photography control method and program Download PDF

Info

Publication number
JP2013179544A
JP2013179544A JP2012043242A JP2012043242A JP2013179544A JP 2013179544 A JP2013179544 A JP 2013179544A JP 2012043242 A JP2012043242 A JP 2012043242A JP 2012043242 A JP2012043242 A JP 2012043242A JP 2013179544 A JP2013179544 A JP 2013179544A
Authority
JP
Japan
Prior art keywords
display
posture
image
detected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012043242A
Other languages
Japanese (ja)
Other versions
JP6010925B2 (en
JP2013179544A5 (en
Inventor
Kazumasa Morichika
和正 森近
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012043242A priority Critical patent/JP6010925B2/en
Publication of JP2013179544A publication Critical patent/JP2013179544A/en
Publication of JP2013179544A5 publication Critical patent/JP2013179544A5/ja
Application granted granted Critical
Publication of JP6010925B2 publication Critical patent/JP6010925B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a photographing device which makes it possible to confirm an azimuth promptly and easily under any condition, and a photography control method and program.SOLUTION: When the attitude of a photographing device body 1A is detected and then a different attitude is detected, the meridian which is a detected azimuth and segments 30b and 30c of a parallel of latitude are shown on a display unit 4 in mutually different display forms, while different kinds of images for the azimuth are shown one on top of another on the same display unit 4. For example, when the photographing device body 1A is changed to a downward attitude, a map image and the azimuth corresponding to the current position are changed to a sideway attitude, and an actually photographed image and the azimuth are changed to an upward attitude, a star scenery image of the sky and the azimuth corresponding to the current position are respectively shown on the display unit at the same time. Therefore, this makes it possible to confirm an azimuth promptly and easily under any condition.

Description

この発明は、撮影装置、撮影制御方法及びプログラムに関する。   The present invention relates to a photographing apparatus, a photographing control method, and a program.

従来、方位計は様々な目的で使用されている。
例えば、地図帳と共に携帯し、旅行などに行った場合に、地図帳の上に方位計を乗せ、どちらの方向に目的地があるのか、どの方向に自分が歩行しているのかを調べたりする場合などに使用されている。
ところで、近年、撮影装置として、GPSユニット及び方位計を備え、モニタ(表示部)に現在位置を含む地図画像と方位とを合わせて表示する撮影装置が知られている(例えば、特許文献1)。
このような撮影装置を携帯すれば、別途地図帳や方位計を個別に持ち歩くことなく、現在位置や目的地の方角、進行方向を調べることができる。
Conventionally, compass has been used for various purposes.
For example, when you travel with a map book and go on a trip, you can place an azimuth meter on the map book to find out in which direction your destination is and in which direction you are walking. It is used for cases.
By the way, in recent years, an imaging apparatus that includes a GPS unit and an azimuth meter and displays a map image including a current position and an orientation on a monitor (display unit) is known as an imaging apparatus (for example, Patent Document 1). .
If such an imaging device is carried, it is possible to check the current position, the direction of the destination, and the traveling direction without separately carrying a map book and an azimuth meter.

特許第4264099号公報Japanese Patent No. 4264099

しかし、上記特許文献1に記載の発明のように、地図画像と方位を表示するだけでは不十分な場合がある。
例えば、オリエンテーリングなどで実際の景色の中で方位を直感的に知りたい場合があり、この場合、上記撮影装置を使用するときには、地図画像と方位とを表示するだけなので、実際の景色の中で方位を直感的に確認することができない。
すなわち、上記撮影装置によって実際の景色の中で方位を確認するためには、まず、地図画像上で方位を確認した上で、この地図画像上の方位を参酌して実際の景色の中で方位を見つけなければならず、方位の確認が間接的になるので、不便である。
However, as in the invention described in Patent Document 1, it may not be sufficient to display only the map image and the direction.
For example, in some cases, you may want to know the orientation intuitively in the actual scenery, such as orienteering. In this case, when using the above camera, only the map image and orientation are displayed. The direction cannot be checked intuitively.
That is, in order to confirm the orientation in the actual scenery by the above-mentioned photographing device, first confirm the orientation on the map image, and then consider the orientation on the map image and consider the orientation in the actual scenery. This is inconvenient because the confirmation of the direction becomes indirect.

また、方位計は、例えば敷地や家屋の方位を調べたりするのにも使用されている。具体的には、敷地や家屋の方位や、隣接地又は隣接家屋の方角を調べたりする場合にも使用される。この場合にも同様な問題が生じる。
さらに、家屋の中の窓や玄関の方位などを調べたりする場合には、地図画像には家屋の内部までは詳細に表示されないため、家屋の中の物の方位を簡単には調べることはできないという問題が生じる。
The compass is also used to check the orientation of a site or a house, for example. Specifically, it is also used when examining the direction of a site or a house and the direction of an adjacent land or an adjacent house. In this case, the same problem occurs.
In addition, when examining the orientation of windows and entrances in a house, the map image does not display the details of the interior of the house, so the orientation of objects in the house cannot be easily examined. The problem arises.

この発明の目的は、いかなる状況のもとでも、方位を迅速かつ容易に確認することができる撮影装置、撮影制御方法及びプログラムを提供することにある。   An object of the present invention is to provide a photographing apparatus, a photographing control method, and a program capable of quickly and easily confirming an azimuth under any circumstances.

上記目的を達成するため、本発明の撮影装置は、
撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置において、
前記撮影装置本体の姿勢を検出する姿勢検出手段と、
この姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御手段と、
を備えていることを特徴とする。
In order to achieve the above object, the photographing apparatus of the present invention provides:
In an imaging device comprising an imaging device body, a display unit, an imaging unit and an orientation detection unit,
Posture detecting means for detecting the posture of the photographing apparatus body;
A display control means for causing the display unit to display the azimuths detected by the azimuth detection unit in different display forms according to the different postures when a different posture is detected by the posture detection unit;
It is characterized by having.

本発明によれば、いかなる状況のもとでも、方位を迅速かつ容易に確認することができる。   According to the present invention, it is possible to quickly and easily confirm the orientation under any circumstances.

本発明に係る撮影装置の一例としてのデジタルカメラの一実施例の外観を示す図であり、図1(A)は正面図、図1(B)は背面図、図1(C)は上面図である。1A and 1B are external views of an embodiment of a digital camera as an example of a photographing apparatus according to the present invention. FIG. 1A is a front view, FIG. 1B is a rear view, and FIG. It is. 図1のデジタルカメラの回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the digital camera of FIG. 撮影装置本体の姿勢の検出方法を説明するための図である。It is a figure for demonstrating the detection method of the attitude | position of an imaging device main body. 方位表示モードの際の表示変更処理を示すフローチャートである。It is a flowchart which shows the display change process in the direction display mode. 下向き姿勢の場合に表示部に表示された地図画像等を示す図である。It is a figure which shows the map image etc. which were displayed on the display part in the downward attitude | position. 横向き姿勢の場合に表示部に表示された風景画像等を示す図である。It is a figure which shows the landscape image etc. which were displayed on the display part in the case of a horizontal orientation. 上向き姿勢の場合に表示部に表示された天空画像等を示す図である。It is a figure which shows the sky image etc. which were displayed on the display part in the upward attitude | position. 俯瞰等距離線を作成する手法を説明するための図である。It is a figure for demonstrating the method of creating a bird's-eye equidistant line.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明に係る撮影装置の一例としてのデジタルカメラの一実施例の外観を示す図であり、図1(A)は正面図、図1(B)は背面図、図1(C)は上面図である。
このデジタルカメラ1は、図1(A)に示すように撮影装置本体1Aの正面側に撮像レンズ2を有している。一方、デジタルカメラ1の背面には、図1(B)に示すように、モードダイアル3、表示部4、カーソルキー5、SETキー6等が設けられている。また、上面には図1(C)に示すように、シャッターキー8及び電源ボタン9が設けられ、側部にはパーソナルコンピュータ(以下、パソコン)やモデム等の外部装置とUSBケーブルに接続する場合に用いるUSB端子接続部7が設けられている。
1A and 1B are views showing the appearance of an embodiment of a digital camera as an example of a photographing apparatus according to the present invention. FIG. 1A is a front view, FIG. 1B is a rear view, and FIG. ) Is a top view.
As shown in FIG. 1A, the digital camera 1 has an imaging lens 2 on the front side of the photographing apparatus main body 1A. On the other hand, a mode dial 3, a display unit 4, a cursor key 5, a SET key 6 and the like are provided on the back of the digital camera 1, as shown in FIG. Further, as shown in FIG. 1C, the shutter key 8 and the power button 9 are provided on the upper surface, and the side portion is connected to an external device such as a personal computer (hereinafter referred to as a personal computer) or a modem and a USB cable. A USB terminal connection unit 7 used for the above is provided.

図2は、このデジタルカメラ1の機能的構成を示すブロック図である。   FIG. 2 is a block diagram showing a functional configuration of the digital camera 1.

このデジタルカメラ1は、装置の全体的な制御を行うCPU(中央演算処理装置)10と、このCPU10に作業用のメモリ空間を提供するRAM(Random Access Memory)11と、このCPU10が実行する制御プログラムや制御データを格納したROM(Read Only Memory)12と、GPS(全地球測位システム)衛星からの送信データを受信するためのGPS受信アンテナ13及びGPS受信部14と、3軸加速度センサ16と、3軸地磁気センサ17と、各種の情報表示や画像表示を行う表示装置18と、各部に動作電圧を供給する電源19と、外部から操作指令を入力する入力装置20と、撮像により画像データを取得する撮像装置21と、各種データを記憶する記憶装置22と、計時を行うタイマ23と、地図データベース24と、を備えている。   The digital camera 1 includes a CPU (Central Processing Unit) 10 that performs overall control of the apparatus, a RAM (Random Access Memory) 11 that provides a working memory space to the CPU 10, and controls executed by the CPU 10. ROM (Read Only Memory) 12 storing programs and control data, a GPS receiving antenna 13 and a GPS receiving unit 14 for receiving transmission data from a GPS (Global Positioning System) satellite, a triaxial acceleration sensor 16, A triaxial geomagnetic sensor 17, a display device 18 for displaying various information and images, a power source 19 for supplying an operating voltage to each unit, an input device 20 for inputting an operation command from the outside, and image data by imaging An imaging device 21 to be acquired, a storage device 22 for storing various data, a timer 23 for measuring time, and a map database 24 are provided. .

ここで、CPU10は、ROM12内の各種プログラムに従って、装置全体を制御すると共に各種演算処理を実行する。   Here, the CPU 10 controls the entire apparatus and executes various arithmetic processes according to various programs in the ROM 12.

RAM11は、CPU10の作業領域となるものである。
ROM12は、例えば、EPROM、EEPROM又はフラッシュメモリ等によって構成され、このROM12には、緯度及び経度に対応付けられた景勝地データや星景色データ等が格納されている。この景勝地データとしては、例えば、景勝地名データ及び景勝地写真データが格納されている。このうち後者の景勝地写真データは、景勝地を予め撮影して得られた写真の画像データである。また、星景色データとしては、星景色の写真その他の画像データ及び星座名データが格納されている。
The RAM 11 is a work area for the CPU 10.
The ROM 12 is constituted by, for example, an EPROM, an EEPROM, a flash memory, or the like, and the ROM 12 stores scenic spot data, starscape data, and the like associated with latitude and longitude. As the scenic spot data, for example, scenic spot name data and scenic spot photograph data are stored. Among these, the latter scenic spot photograph data is image data of a photograph obtained by photographing a scenic spot in advance. Further, as the starry scene data, a starry scenery photograph and other image data and constellation name data are stored.

GPS受信部14は、CPU10からの動作指令に基づいて、GPS受信アンテナ13を介して受信される信号の復調処理を行って、GPS衛星の各種送信データを取得する。そして、GPS受信部14は、このGPS衛星の送信データに基づいて所定の測位演算を行うことで、現在位置を表わす位置データを測位結果として取得する。このGPS受信アンテナ13及びGPS受信部14は、現在位置を取得する位置取得手段としてのGPSユニット15を構成する。   Based on the operation command from the CPU 10, the GPS receiving unit 14 performs a demodulation process on a signal received via the GPS receiving antenna 13, and acquires various transmission data of GPS satellites. And the GPS receiving part 14 acquires the positional data showing a present position as a positioning result by performing predetermined positioning calculation based on the transmission data of this GPS satellite. The GPS receiving antenna 13 and the GPS receiving unit 14 constitute a GPS unit 15 as position acquisition means for acquiring the current position.

3軸加速度センサ16は、3軸方向の加速度をそれぞれ検出し、CPU10に出力するセンサである。この3軸加速度センサ16は、デジタルカメラ1を携帯しているユーザの移動状態(停止状態、歩行状態、走行状態、その他状態)を検出するユーザ状態検出手段として機能すると共に、CPU10と相俟って撮影装置本体1Aの姿勢を検出する姿勢検出手段として機能する。
この3軸加速度センサ16からの加速度データによってCPU10は、撮影装置本体1Aの姿勢を判定する。具体的には、CPU10は、図3に示すように、3軸加速度センサ16からの加速度データに基づいて、撮影装置本体1Aの撮影レンズの光軸Kの向きが水平から上下に45°の範囲内にあるときには横向き姿勢、撮影レンズの光軸Kの向きが水平から上方45°を超えている場合には上向き姿勢、撮影レンズの光軸Kの向きが水平から下方45°を超えている場合には下向き姿勢と判定する。なお、姿勢変更に伴う不要な画面変更を避けるため、一定時間(例えば1秒程度)の不感帯を設けることが好ましい。
The triaxial acceleration sensor 16 is a sensor that detects accelerations in the triaxial directions and outputs them to the CPU 10. The triaxial acceleration sensor 16 functions as user state detection means for detecting the movement state (stop state, walking state, running state, other state) of the user carrying the digital camera 1 and is coupled with the CPU 10. Thus, it functions as a posture detecting means for detecting the posture of the photographing apparatus main body 1A.
Based on the acceleration data from the triaxial acceleration sensor 16, the CPU 10 determines the posture of the photographing apparatus main body 1A. Specifically, as shown in FIG. 3, the CPU 10 determines that the direction of the optical axis K of the photographing lens of the photographing apparatus main body 1 </ b> A is 45 ° from top to bottom based on the acceleration data from the three-axis acceleration sensor 16. When the lens is within the horizontal orientation, when the direction of the optical axis K of the photographic lens is above 45 ° from the horizontal, upward orientation, when the direction of the optical axis K of the photographic lens is above 45 ° from the horizontal Is determined to be a downward posture. In order to avoid an unnecessary screen change accompanying the posture change, it is preferable to provide a dead zone for a certain time (for example, about 1 second).

3軸地磁気センサ17は、例えば、磁気抵抗素子を用いて3軸方向の磁界を検出し、その磁界データをCPU10に出力するセンサである。そして、CPU10は、この磁界データに基づいて、現在地を通る基準方位を検出する。すなわち、CPU10は、ここでは、3軸地磁気センサ17と、ROM12に記憶されている方位検出プログラムと協働して、方位検出手段として機能する。また、CPU10は、この3軸地磁気センサ17からの磁界データと上記3軸加速度センサ16からの加速度データとに基づいて、自律航法測位で相対的な移動方向及び移動量を計測する。すなわち、CPU10は、ここでは、3軸地磁気センサ17及び3軸加速度センサ16と、ROM12に記憶されている自律航法測位プログラムと協働して、自律航法測位手段(位置取得手段)として機能する。   The triaxial geomagnetic sensor 17 is, for example, a sensor that detects a magnetic field in the triaxial direction using a magnetoresistive element and outputs the magnetic field data to the CPU 10. And CPU10 detects the reference azimuth | direction which passes the present location based on this magnetic field data. In other words, the CPU 10 functions as an azimuth detecting means in cooperation with the triaxial geomagnetic sensor 17 and the azimuth detecting program stored in the ROM 12 here. Further, the CPU 10 measures the relative moving direction and moving amount by autonomous navigation positioning based on the magnetic field data from the triaxial geomagnetic sensor 17 and the acceleration data from the triaxial acceleration sensor 16. In other words, the CPU 10 functions as autonomous navigation positioning means (position acquisition means) in cooperation with the autonomous navigation positioning program stored in the ROM 12 and the triaxial geomagnetic sensor 17 and the triaxial acceleration sensor 16 here.

表示装置18は、例えば、表示部4であるLCD(液晶ディスプレイ)とビデオカードとを備える。なお、このデジタルカメラ1は、LCDに代えて、有機ELD(Electro-Luminescent Display)などの他の表示方式の表示部4を備えてもよい。この表示装置18の表示部4は、例えば、撮像装置21により撮影された撮影画像、現在地を含む地図画像、方位、等距離線、景勝地マーク、景勝地名、撮影ポイントマーク、景勝地写真及び星景色画像等を表示部4に表示する。これらの撮影画像、地図画像、方位、等距離線、景勝地マーク、景勝地名、撮影ポイントマーク、景勝地写真及び星景色画像等の表示はCPU10の制御の下で実行される。すなわち、CPU10は、ここでは、ビデオカードと、ROM12に記憶されている表示プログラムと協働して、表示制御手段として機能する。   The display device 18 includes, for example, an LCD (liquid crystal display) that is the display unit 4 and a video card. The digital camera 1 may include a display unit 4 of another display method such as an organic ELD (Electro-Luminescent Display) instead of the LCD. The display unit 4 of the display device 18 includes, for example, a photographed image photographed by the imaging device 21, a map image including the current location, a direction, an equidistant line, a scenic spot mark, a scenic spot name, a photographing point mark, a scenic spot photograph, and a star. A landscape image or the like is displayed on the display unit 4. Display of these photographed images, map images, azimuths, equidistant lines, scenic spot marks, scenic spot names, photographing point marks, scenic spot photographs, starry scenery images, and the like is executed under the control of the CPU 10. In other words, the CPU 10 functions as display control means in cooperation with the video card and the display program stored in the ROM 12 here.

入力装置20は、上記したモードダイアル3、カーソルキー5、SETキー6及びシャッターキー8等によって構成されている。そして、CPU10は、この入力装置20からの入力があったとき、入力内容に応じて、装置全体を制御すると共に各種演算処理を実行する。   The input device 20 includes the mode dial 3, the cursor key 5, the SET key 6, the shutter key 8, and the like described above. When there is an input from the input device 20, the CPU 10 controls the entire device and executes various arithmetic processes according to the input content.

撮像装置21は、撮像部を構成し、撮像レンズ、CCD(Charge Coupled Device)或いはCMOS(Complementary Metal-Oxide Semiconductor)等の光電変換素子、A/D変換部等を備えている。この撮像装置21では、撮像レンズにより取り込まれた光学像を光電変換素子により画像信号に変換し、この画像信号をA/D変換部によりデジタル画像情報(画像データ)に変換し、画像データを取得する。   The imaging device 21 constitutes an imaging unit, and includes an imaging lens, a photoelectric conversion element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), an A / D conversion unit, and the like. In the imaging device 21, an optical image captured by the imaging lens is converted into an image signal by a photoelectric conversion element, and the image signal is converted into digital image information (image data) by an A / D conversion unit to obtain image data. To do.

記憶装置22は、例えばRAMまたは不揮発性メモリなどにより構成される。この記憶装置22は、画像記憶領域221、位置記憶領域222、姿勢記憶領域223、方位記憶領域224を有している。
このうち、画像記憶領域221は、撮像装置21において取得された画像データを記憶するための領域である。この画像データには、撮影地点の位置及び撮影時刻が対応付けられている。
位置記憶領域222は、GPS受信部14によって取得された位置データを順次記憶するための領域である。この位置データには時刻が対応付けられ、移動履歴が検出できるようにされている。
姿勢記憶領域223は、3軸加速度センサ16によって取得された加速度データに基づいてCPU10によって判定された姿勢データを記憶するための領域である。この姿勢データには、当該姿勢データを得た時刻が対応付けられている。
方位記憶領域224は、3軸地磁気センサ17によって取得された磁界データに基づいてCPU10によって算出された方位データを記憶するための領域である。この方位データには、当該方位データを算出した時刻が対応付けられている。
The storage device 22 is configured by, for example, a RAM or a nonvolatile memory. The storage device 22 includes an image storage area 221, a position storage area 222, a posture storage area 223, and an orientation storage area 224.
Among these, the image storage area 221 is an area for storing image data acquired by the imaging device 21. This image data is associated with the position of the shooting point and the shooting time.
The position storage area 222 is an area for sequentially storing position data acquired by the GPS receiver 14. This position data is associated with a time so that a movement history can be detected.
The attitude storage area 223 is an area for storing attitude data determined by the CPU 10 based on acceleration data acquired by the triaxial acceleration sensor 16. The posture data is associated with the time when the posture data is obtained.
The azimuth storage area 224 is an area for storing the azimuth data calculated by the CPU 10 based on the magnetic field data acquired by the triaxial geomagnetic sensor 17. The azimuth data is associated with the time when the azimuth data is calculated.

次に、このデジタルカメラ1のCPU10で方位表示モード時に実行される表示変更処理フローを説明する。
図4は、表示変更処理を示すフローチャートである。この表示変更処理は、入力装置20を通じて方位表示モードが選択された際にCPU10とROM12に記憶されているプログラムとの協働により実行される。
Next, a display change process flow executed in the orientation display mode by the CPU 10 of the digital camera 1 will be described.
FIG. 4 is a flowchart showing the display change process. This display change process is executed in cooperation with the CPU 10 and the program stored in the ROM 12 when the orientation display mode is selected through the input device 20.

この表示変更処理においては、まず、タイマ23に測位間隔がセットされ計時が開始されるとともに、GPS受信部14に測位を指示するコマンドが出力され、GPS測位(GPSユニット15による現在位置の測定)が実施される。
すなわち、GPS受信部14において、GPS受信アンテナ13を介して受信されるGPS衛星からの信号の復調処理が行われることによりGPS衛星の各種送信データが取得され、取得された送信データに基づいて所定の測位演算が行われることにより、現在位置を表わす位置データが取得される(ステップS1)。なお、必要ならば、GPSで初期位置を決定した後、3軸加速度センサ16及び3軸地磁気センサ17から得られる情報で自律位置推定して、現在位置を表す位置データを取得してもよい。これによって取得された位置データはCPU10に出力され、記憶装置22の位置記憶領域222に現在の時刻データと対応付けて記憶される(ステップS1)。
また、3軸地磁気センサ17は3軸方向の磁界データをCPU10に出力する。そして、CPU10は、この磁界データに基づいて、現在地を通る基準方位(子午線及び緯線の方向)を算出(取得)し、その方位データを記憶装置22の方位記憶領域224に記憶させる(ステップS2)。
さらに、3軸加速度センサ16は3軸方向の加速度データをCPU10に出力する。そして、CPU10は、この加速度データに基づいて、現在のデジタルカメラ1の姿勢(横向き姿勢、上向き姿勢、下向き姿勢の別)を判定し(ステップS3)、その姿勢データを記憶装置22の姿勢記憶領域223に記憶させる。
In this display change process, first, a positioning interval is set in the timer 23 and time measurement is started, and a command for instructing positioning is output to the GPS receiving unit 14 to perform GPS positioning (measurement of the current position by the GPS unit 15). Is implemented.
That is, the GPS receiving unit 14 acquires various transmission data of the GPS satellites by performing demodulation processing of signals from the GPS satellites received via the GPS receiving antenna 13, and predetermined based on the acquired transmission data. By performing the positioning calculation, position data representing the current position is acquired (step S1). If necessary, after the initial position is determined by GPS, position data representing the current position may be acquired by performing autonomous position estimation using information obtained from the triaxial acceleration sensor 16 and the triaxial geomagnetic sensor 17. The position data acquired in this way is output to the CPU 10 and stored in the position storage area 222 of the storage device 22 in association with the current time data (step S1).
The triaxial geomagnetic sensor 17 outputs magnetic field data in the triaxial direction to the CPU 10. Then, the CPU 10 calculates (acquires) a reference azimuth (meridian and parallel directions) passing through the current location based on the magnetic field data, and stores the azimuth data in the azimuth storage area 224 of the storage device 22 (step S2). .
Further, the triaxial acceleration sensor 16 outputs triaxial acceleration data to the CPU 10. Then, based on the acceleration data, the CPU 10 determines the current posture of the digital camera 1 (a distinction between a horizontal posture, an upward posture, and a downward posture) (step S3), and the posture data is stored in the posture storage area of the storage device 22. 223 is stored.

そして、CPU10は、デジタルカメラ1の姿勢が下向き姿勢(第1姿勢)である場合(ステップS3でYESの場合)、現在地の位置データに基づいて、現在地及びその周辺の地図データを、地図データベース24に記憶されている地図データを元に生成し、図5に示すように、予め設定してある表示倍率で現在地を含む平面的な地図画像30aを表示部4に表示させる(ステップS4)。
また、CPU10は、方位データに基づいて、現在地を通る子午線及び緯線(基準方位)の方向を指し示す線分30b,30c及び基準方位の表記(実施形態では北の方角を示すN)30dを地図画像30aの中に表示させる。この場合、現在地は表示部4に表示される地図画像30aの中心に表示される。
また、CPU10は、地図画像30aの表示倍率に基づいて、等距離線データを生成し、等距離線30eを表示部4に地図画像30aと合わせて表示させる。この等距離線30eは、現在地からの距離を指し示す線分であり、現在地から等距離にある部分を繋いで得られた円状の線分となっている。そして、線分には、距離を分かり易くするために距離表記(50m、200mの表記)30fが施されている。
なお、ここでは、地図画像を平面的なものとしているが、平面的な地図画像に代えて、所定高さ位置から俯瞰した地図画像(俯瞰地図画像)を生成し、この俯瞰地図画像と方位とを表示部4に表示させてもよい。また、ここでは、子午線の線分30bの延在方向が表示部4の上下方向(図4の上下方向)、緯線の線分30cの延在方向が表示部4の左右方向(図4の左右方向)となるように地図画像30aを表示させているが、姿勢データ及び方位データに基づいて撮影装置本体1Aの所定の面(例えば撮影装置本体1Aの上面)の法線の向きを検出し、表示部4に表示される地図画像上の子午線及び緯線の線分30b,30cの延在方向と実際上の子午線及び緯線の延在方向とが合致するように地図画像30aを表示させてもよい。このようにすれば、表示部4に表示される地図画像30aがより一層利用しやすいものとなる。
Then, when the posture of the digital camera 1 is the downward posture (first posture) (in the case of YES at step S3), the CPU 10 obtains the map data of the current location and its surrounding map data based on the location data of the current location. Is generated based on the map data stored in the map, and as shown in FIG. 5, a planar map image 30a including the current location is displayed on the display unit 4 at a preset display magnification (step S4).
Further, the CPU 10 displays, on the map image 30a, line segments 30b and 30c indicating directions of meridians and latitudes (reference azimuth) passing through the present location and reference azimuth (N indicating the north direction in the embodiment) 30d based on the azimuth data. Is displayed inside. In this case, the current location is displayed at the center of the map image 30 a displayed on the display unit 4.
Further, the CPU 10 generates equidistant line data based on the display magnification of the map image 30a, and causes the display unit 4 to display the equidistant line 30e together with the map image 30a. The equidistant line 30e is a line segment indicating the distance from the current location, and is a circular segment obtained by connecting portions that are equidistant from the current location. The line segment is provided with a distance notation (notation of 50 m, 200 m) 30f for easy understanding of the distance.
Here, the map image is planar, but instead of the planar map image, a map image (bird's-eye view map image) seen from a predetermined height position is generated, and the bird's-eye view map image, direction, and May be displayed on the display unit 4. Here, the extending direction of the meridian line segment 30b is the vertical direction of the display unit 4 (vertical direction in FIG. 4), and the extending direction of the parallel line segment 30c is the horizontal direction of the display unit 4 (left and right in FIG. 4). The map image 30a is displayed in such a manner that the normal direction of a predetermined surface (for example, the upper surface of the imaging apparatus main body 1A) of the imaging apparatus main body 1A is detected based on the attitude data and the orientation data. The map image 30a may be displayed so that the extending direction of the meridian and parallel lines 30b, 30c on the map image displayed on the display unit 4 matches the actual extending direction of the meridian and parallels. . In this way, the map image 30a displayed on the display unit 4 becomes easier to use.

デジタルカメラ1の姿勢が下向き姿勢でない場合(ステップS3でNOの場合)、CPU10は、横向き姿勢(第2姿勢)か否かを判定し(ステップS5)、横向き姿勢の場合(ステップS5でYESの場合)、撮像部16にスルー(ファインダ)画像を所定時間間隔で逐次に取り込ませ、このスルー画像データを記憶装置22の画像記憶領域221に記憶させると共に、図6に示すように、スルー画像(撮影画像)40aを実時間で表示部4に表示させる(ステップS6)。
そして、CPU10は、方位データに基づき現在地を通る子午線及び緯線の線分40b,40cを生成し、この子午線及び緯線の線分40b,40c及び基準方位の表記(実施形態では北の方角を示すN)40dをスルー画像40a上に合わせて表示部4に表示させる(ステップS6)。
この場合の子午線及び緯線の線分40b,40cは、俯瞰によって形成された線分となっている。すなわち、子午線及び緯線の線分40b、40cは、現在地の地表面から所定の高さ位置に視点をおいて、地表面に描かれた仮想の子午線及び緯線を見下ろした場合に得られる線分となっている。このようにすれば、視点の高さで表示する場合に比べて、子午線及び緯線の方向がより見易いものとなる。なお、表示部4の上での現在地は表示部4の下端幅方向中央である。
さらにCPU10は、スルー画像40aの表示倍率及び仰角に基づいて、等距離線データを生成し、等距離線40eを表示部4にスルー画像40aと合わせて表示させる。この場合の仰角は3軸加速度センサ16の加速度データに基づいてCPU10によって算出される。この等距離線40eは、現在地からの距離を指し示す線分であり、現在地から等距離にある部分を繋いで得られた弧状の線分となっている。なお、この等距離線40eも俯瞰の線分となっている。すなわち、図8に示すように、この等距離線40eは、現在地の地表面から所定の高さ位置に視点をおいて地表面の仮想の等距離線を見下ろした場合に得られる線分となっている。この実施形態では、この等距離線40eは、例えば、現在地から10m、50m、200m、2km離れた場所をそれぞれ指し示す弧状の線分として形成されている。そして、各線分には、距離を分かり易くするために距離表記(10m、50m、200m、2kmの表記)40fが施されている。なお、この場合の等距離線40eは、必ずしも正確に距離を指し示すものになっていなくてよく、後述の景勝地までの距離を指示できるものであれば足りる。
When the posture of the digital camera 1 is not a downward posture (NO in step S3), the CPU 10 determines whether or not the posture is the horizontal posture (second posture) (step S5), and in the case of the horizontal posture (YES in step S5). In this case, a through (finder) image is sequentially captured by the imaging unit 16 at predetermined time intervals, and this through image data is stored in the image storage area 221 of the storage device 22 and, as shown in FIG. The photographed image) 40a is displayed on the display unit 4 in real time (step S6).
Then, the CPU 10 generates meridian and parallel lines 40b and 40c passing through the present location based on the azimuth data, and indicates the meridian and parallel lines 40b and 40c and the reference azimuth (N indicating the north direction in the embodiment). 40d is displayed on the display unit 4 in accordance with the through image 40a (step S6).
In this case, meridian and parallel lines 40b and 40c are line segments formed by a bird's-eye view. That is, the meridian and parallel lines 40b and 40c are obtained by looking down at the virtual meridian and parallel drawn on the ground surface with a viewpoint at a predetermined height position from the ground surface of the current location. It has become. In this way, the meridian and parallel directions are easier to see than when displaying at the height of the viewpoint. Note that the current location on the display unit 4 is the center of the display unit 4 in the lower end width direction.
Further, the CPU 10 generates equidistance line data based on the display magnification and the elevation angle of the through image 40a, and causes the display unit 4 to display the equidistance line 40e together with the through image 40a. The elevation angle in this case is calculated by the CPU 10 based on the acceleration data of the triaxial acceleration sensor 16. This equidistant line 40e is a line segment indicating the distance from the current location, and is an arc-shaped line segment obtained by connecting portions that are equidistant from the current location. Note that this equidistant line 40e is also a bird's-eye view line segment. That is, as shown in FIG. 8, the equidistant line 40e is a line segment obtained when looking down the virtual equidistant line on the ground surface with a viewpoint at a predetermined height position from the ground surface of the current location. ing. In this embodiment, this equidistant line 40e is formed, for example, as an arc-shaped line segment that points to a location 10 m, 50 m, 200 m, or 2 km away from the current location. Each line segment is provided with a distance notation (notation of 10 m, 50 m, 200 m, 2 km) 40 f for easy understanding of the distance. Note that the equidistant line 40e in this case does not necessarily indicate the distance accurately, and it is sufficient if it can indicate the distance to a scenic spot to be described later.

さらにまた、CPU10は、ROM12に格納されている景勝地データに基づいて、現在地の近くにある景勝地を検出し、当該景勝地マーク40gと当該景勝地名40hを表示部4に表示させる。この場合の景勝地マーク40gは例えば緑色の菱形マークで形成され、この景勝地マーク40gは、現在地から景勝地までの距離や現在地からの景勝地の方位が分かるように、等距離線40eや子午線及び緯線の線分40b,40cに対応させて表示される。
例えば、景勝地が現在地から北北東の2kmの距離にあるとすれば、スルー画像40a上で北北東の方角で且つ景勝地マーク40gの下端が2kmの線分に重なり合う位置に景勝地マーク40gが表示される。したがって、スルー画像40a上で景勝地マーク40gの表示位置を見れば、景勝地までの距離及び方角がそのスルー画像40a上で、一目で分かることになる。なお、この場合の現在地からの景勝地の距離及び方角は、CPU10が現在地及び景勝地の緯度及び経度に基づいて検出するか、或いはCPU10が地図データに基づいて検出する。
Furthermore, the CPU 10 detects a scenic spot near the current location based on the scenic spot data stored in the ROM 12, and displays the scenic spot mark 40g and the scenic spot name 40h on the display unit 4. The scenic spot mark 40g in this case is formed of, for example, a green rhombus mark, and the scenic spot mark 40g is an equidistant line 40e or meridian so that the distance from the current position to the scenic spot and the orientation of the scenic spot from the current position can be known. And parallel lines 40b and 40c.
For example, if the scenic spot is at a distance of 2 km north-northeast from the current location, the scenic spot mark 40 g is located on the through image 40 a in the north-northeast direction and the bottom of the scenic spot mark 40 g overlaps the 2 km line segment. Is displayed. Therefore, if the display position of the scenic spot mark 40g is seen on the through image 40a, the distance and direction to the scenic spot can be seen at a glance on the through image 40a. In this case, the distance and the direction of the scenic spot from the current location are detected by the CPU 10 based on the latitude and longitude of the current location and the scenic location, or detected by the CPU 10 based on the map data.

またさらに、CPU10は、スルー画像上に、景勝地写真40iと、その景勝地名40jと、その景勝地写真の撮影場所を示す撮影ポイントマーク40kとを表示部4に表示させる。ここで、撮影ポイントマーク40kは、ここでは赤色の菱形マークとなっている。この撮影ポイントマーク40kは、現在地から景勝地までの距離や方角が分かるように、等距離線40eや子午線及び緯線の線分40b,40cに対応させて表示される。これによって、ユーザは、当該撮影ポイントマーク40kの場所に行けば、景勝地写真と同じ写真が得られることを知ることができる。   Furthermore, the CPU 10 causes the display unit 4 to display a scenic spot photo 40i, a scenic spot name 40j, and a shooting point mark 40k indicating the shooting location of the scenic spot photo on the through image. Here, the photographing point mark 40k is a red diamond mark here. The shooting point mark 40k is displayed in correspondence with the equidistant line 40e and meridian and parallel lines 40b and 40c so that the distance and direction from the current location to the scenic spot can be understood. Thus, the user can know that the same photograph as the scenic spot photograph can be obtained by going to the location of the shooting point mark 40k.

デジタルカメラ1の姿勢が横向き姿勢でない場合(ステップS5でNOの場合)、CPU10は、上向き姿勢(第3姿勢)か否かを判定し(ステップS7)、上向き姿勢である場合(ステップS7でYESの場合)、ROM12から現在位置及び現在時刻に対応する天空の星景色データ50aを取り込み、図7に示すように、表示部4に現在位置及び現在時刻に対応する天空の星景色画像50aを表示させる。この場合、基準方位として子午線及び緯線の線分50b,50cと基準方位の表記(実施形態では北の方角を示すN)50dと星座名50eとが表示部4に星景色画像50aと合わせて表示される。この場合、表示部4の中央に現在地の直上の星が位置するように星景色画像50aが表示される。
なお、この場合、CPU10は、表示部4に表示された星景色画像50aでの基準方位と実際の基準方位とが同じ向きとなるように星景色画像50aを表示することが好ましい。このようにすれば、現時点でどの方向にどの星座が見えるのかが容易に分かることになる。
If the posture of the digital camera 1 is not a horizontal posture (NO in step S5), the CPU 10 determines whether it is an upward posture (third posture) (step S7), and if it is an upward posture (YES in step S7). ), The sky star landscape data 50a corresponding to the current position and the current time is fetched from the ROM 12, and the sky star landscape image 50a corresponding to the current position and the current time is displayed on the display unit 4 as shown in FIG. Let In this case, meridian and parallel lines 50b and 50c as reference azimuths, reference azimuth notation (N indicating the north direction in the embodiment) 50d, and constellation name 50e are displayed on the display unit 4 together with the star view image 50a. The In this case, the star view image 50a is displayed so that the star directly above the current location is located in the center of the display unit 4.
In this case, it is preferable that the CPU 10 displays the star view image 50a so that the reference orientation in the star view image 50a displayed on the display unit 4 is the same as the actual reference orientation. In this way, it is easy to know which constellation is visible in which direction at the present time.

デジタルカメラ1の姿勢が上向き姿勢でもない場合(ステップS7でNOの場合)、CPU10は、1秒間待ってステップS1からの処理を実行する(ステップS9,10)。   If the posture of the digital camera 1 is not an upward posture (NO in step S7), the CPU 10 waits 1 second and executes the processing from step S1 (steps S9 and S10).

以上のように構成された撮影装置によれば、次のような効果が得られる。
すなわち、デジタルカメラ1を下向き姿勢にすれば、平面的な地図画像30aと方位とが表示されるので、大局的に地図画像上の現在位置、当該現在位置から見た目的地及び当該現在位置から見た方位をそれぞれ知ることができる。
また、デジタルカメラ1を横向き姿勢にすれば、実際の景色を示す撮影画像であるスルー画像40aと方位とが表示されるので、実際の景色と、当該景色の中での築造物や自然物の方位とを互いに関連付けて、迅速かつ容易に知ることができる。
さらに、デジタルカメラ1を上向き姿勢にすれば、天空の星座景色画像50aと方位とが表示されるので、現在位置から見た、所望とする星座と当該現在位置から見た方位とを迅速かつ容易に発見できることになる。
このようにデジタルカメラ1の姿勢に応じて、表示部4に現れる画像が変化し、変化した画像と当該画像中における方位とを迅速かつ容易に知ることができるので、デジタルカメラ1の使用用途が拡大されることになる。
According to the photographing apparatus configured as described above, the following effects can be obtained.
That is, if the digital camera 1 is in a downward posture, the planar map image 30a and the orientation are displayed, so that the current position on the map image, the destination viewed from the current position, and the current position from the current position are displayed. You can know each direction.
Further, if the digital camera 1 is set to the horizontal orientation, the through image 40a that is a photographed image showing the actual scenery and the orientation are displayed. Therefore, the actual scenery and the orientation of the structure or natural object in the scenery are displayed. Can be quickly and easily known in association with each other.
Further, when the digital camera 1 is set to the upward posture, the sky constellation image 50a and the direction are displayed, so that the desired constellation viewed from the current position and the direction viewed from the current position can be quickly and easily obtained. Will be able to discover.
As described above, the image appearing on the display unit 4 changes according to the attitude of the digital camera 1, and the changed image and the orientation in the image can be quickly and easily known. Will be expanded.

以上、本発明の実施形態を説明したが、本発明は、かかる実施形態には限定されず、その要旨を逸脱しない範囲で、種々の変形が可能である。
まず、撮影装置としてデジタルカメラ1を例に説明したが、携帯電話その他の撮影装置にも本発明は適用可能である。
また、例えば、横向き姿勢の場合に表示部4に表示される撮影画像であるスルー画像その他の画像を保存しておき、後日においても、プリントアウトして楽しめるようにしてもよい。
さらに、上記実施形態では、景勝地に関する画像、撮影ポイントに関する画像をスルー画像40aと共に表示するようにしたが、地図画像30aと共にこれらを表示することも可能である。
As mentioned above, although embodiment of this invention was described, this invention is not limited to this embodiment, A various deformation | transformation is possible in the range which does not deviate from the summary.
First, the digital camera 1 has been described as an example of the photographing apparatus, but the present invention can be applied to a photographing apparatus such as a mobile phone.
Further, for example, a through image or other image that is a captured image displayed on the display unit 4 in the horizontal orientation may be stored, and printed out and enjoyed at a later date.
Furthermore, in the above-described embodiment, the image relating to the scenic spot and the image relating to the shooting point are displayed together with the through image 40a.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置において、
前記撮影装置本体の姿勢を検出する姿勢検出手段と、
この姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御手段と、
を備えていることを特徴とする撮影装置。
<請求項2>
前記姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位に対して種類の異なる画像を重ねて前記表示部に表示させる画像表示制御手段を備えていることを特徴とする請求項1に記載の撮影装置。
<請求項3>
前記種類の異なる画像は、現在位置に対応した地図画像および前記撮像部により撮影された撮影画像であることを特徴とする請求項2に記載の撮影装置。
<請求項4>
前記撮影装置本体の現在位置を取得する位置取得手段をさらに備え、
前記表示制御手段は、前記姿勢検出手段により異なる姿勢のうち、第1の姿勢が検出された際は、前記位置取得手段により取得された現在位置に対応した地図画像と前記方位検出部により検出された方位とを重ねて前記表示部に表示させ、前記第1の姿勢とは異なる第2の姿勢が検出された際は、前記撮像部により撮影された撮影画像と前記方位検出部により検出された方位とを重ねて前記表示部に表示させる画像表示制御手段と、
を備えていることを特徴とする請求項3に記載の撮影装置。
<請求項5>
前記種類の異なる画像は、前記地図画像及び前記撮影画像以外に天空の星景色画像を含むことを特徴とする請求項2に記載の撮影装置。
<請求項6>
前記画像表示制御手段は、前記姿勢検出手段により異なる姿勢のうち、第1の姿勢および第2の姿勢とは異なる第3の姿勢が検出された際は、前記位置取得手段により取得された現在位置に対応した前記天空の星景色画像と前記方位検出部により検出された方位とを重ねて前記表示部に表示させる天空画像表示制御手段を備えていることを特徴とする請求項4に記載の撮影装置。
<請求項7>
前記画像表示制御手段は、前記方位に関連させて、景勝地の位置を示す景勝地マークを表示させるマーク表示制御手段を備えていることを特徴とする請求項4に記載の撮影装置。
<請求項8>
前記画像表示制御手段は、前記方位に関連させて、撮影ポイントの位置を示す撮影ポイントマークを当該撮影ポイントで既に撮影されている写真と共に表示させる写真表示制御手段を備えていることを特徴とする請求項4に記載の撮影装置。
<請求項9>
撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置に用いられる撮影制御方法において、
前記撮影装置本体の姿勢を検出する姿勢検出ステップと、
この姿勢検出ステップにより異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御ステップと、
を備えていることを特徴とする撮影制御方法。
<請求項10>
撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置のコンピュータを、
前記撮影装置本体の姿勢を検出する姿勢検出手段と、
この姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御手段と、
して機能させることを特徴とするプログラム。
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
In an imaging device comprising an imaging device body, a display unit, an imaging unit and an orientation detection unit,
Posture detecting means for detecting the posture of the photographing apparatus body;
A display control means for causing the display unit to display the azimuths detected by the azimuth detection unit in different display forms according to the different postures when a different posture is detected by the posture detection unit;
An imaging apparatus comprising:
<Claim 2>
When different postures are detected by the posture detection unit, image display control means is provided that displays different types of images with respect to the azimuth on the display unit according to the different postures. The photographing apparatus according to claim 1.
<Claim 3>
The imaging apparatus according to claim 2, wherein the different types of images are a map image corresponding to a current position and a captured image captured by the imaging unit.
<Claim 4>
It further comprises a position acquisition means for acquiring a current position of the photographing apparatus body,
The display control means is detected by a map image corresponding to the current position acquired by the position acquisition means and the azimuth detection unit when a first attitude is detected among the different attitudes by the attitude detection means. When the second orientation different from the first orientation is detected, the captured image taken by the imaging unit and the orientation detection unit are detected. Image display control means for superimposing and displaying on the display unit;
The photographing apparatus according to claim 3, comprising:
<Claim 5>
The imaging apparatus according to claim 2, wherein the different types of images include a starry sky image in the sky in addition to the map image and the captured image.
<Claim 6>
The image display control means detects the current position acquired by the position acquisition means when a third attitude different from the first attitude and the second attitude is detected among the different attitudes by the attitude detection means. 5. The photographing according to claim 4, further comprising: a sky image display control unit configured to display the sky star scene image corresponding to the image and the direction detected by the direction detection unit on the display unit. apparatus.
<Claim 7>
5. The photographing apparatus according to claim 4, wherein the image display control means includes mark display control means for displaying a scenic spot mark indicating a scenic spot position in association with the azimuth.
<Claim 8>
The image display control means includes a photographic display control means for displaying a photographic point mark indicating a position of the photographic point together with a photograph already taken at the photographic point in association with the azimuth. The imaging device according to claim 4.
<Claim 9>
In a shooting control method used for a shooting device including a shooting device body, a display unit, an imaging unit, and an orientation detection unit,
A posture detecting step for detecting a posture of the photographing apparatus body;
When a different posture is detected by this posture detection step, a display control step for displaying the directions detected by the direction detection unit on the display unit in different display forms according to the different postures;
An imaging control method comprising:
<Claim 10>
A computer of an imaging device including an imaging device body, a display unit, an imaging unit, and an orientation detection unit,
Posture detecting means for detecting the posture of the photographing apparatus body;
A display control means for causing the display unit to display the azimuths detected by the azimuth detection unit in different display forms according to the different postures when a different posture is detected by the posture detection unit;
A program characterized by making it function.

1 デジタルカメラ
4 表示部
10 CPU
13 GPS受信アンテナ
14 GPS受信部
16 3軸加速度センサ
17 3軸地磁気センサ
18 表示装置
21 撮像装置
1 Digital Camera 4 Display Unit 10 CPU
13 GPS receiving antenna 14 GPS receiving unit 16 Triaxial acceleration sensor 17 Triaxial geomagnetic sensor 18 Display device 21 Imaging device

Claims (10)

撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置において、
前記撮影装置本体の姿勢を検出する姿勢検出手段と、
この姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御手段と、
を備えていることを特徴とする撮影装置。
In an imaging device comprising an imaging device body, a display unit, an imaging unit and an orientation detection unit,
Posture detecting means for detecting the posture of the photographing apparatus body;
A display control means for causing the display unit to display the azimuths detected by the azimuth detection unit in different display forms according to the different postures when a different posture is detected by the posture detection unit;
An imaging apparatus comprising:
前記姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位に対して種類の異なる画像を重ねて前記表示部に表示させる画像表示制御手段を備えていることを特徴とする請求項1に記載の撮影装置。   When different postures are detected by the posture detection unit, image display control means is provided that displays different types of images with respect to the azimuth on the display unit according to the different postures. The photographing apparatus according to claim 1. 前記種類の異なる画像は、現在位置に対応した地図画像および前記撮像部により撮影された撮影画像であることを特徴とする請求項2に記載の撮影装置。   The imaging apparatus according to claim 2, wherein the different types of images are a map image corresponding to a current position and a captured image captured by the imaging unit. 前記撮影装置本体の現在位置を取得する位置取得手段をさらに備え、
前記表示制御手段は、前記姿勢検出手段により異なる姿勢のうち、第1の姿勢が検出された際は、前記位置取得手段により取得された現在位置に対応した地図画像と前記方位検出部により検出された方位とを重ねて前記表示部に表示させ、前記第1の姿勢とは異なる第2の姿勢が検出された際は、前記撮像部により撮影された撮影画像と前記方位検出部により検出された方位とを重ねて前記表示部に表示させる画像表示制御手段と、
を備えていることを特徴とする請求項3に記載の撮影装置。
It further comprises a position acquisition means for acquiring a current position of the photographing apparatus body,
The display control means is detected by a map image corresponding to the current position acquired by the position acquisition means and the azimuth detection unit when a first attitude is detected among the different attitudes by the attitude detection means. When the second orientation different from the first orientation is detected, the captured image taken by the imaging unit and the orientation detection unit are detected. Image display control means for superimposing and displaying on the display unit;
The photographing apparatus according to claim 3, comprising:
前記種類の異なる画像は、前記地図画像及び前記撮影画像以外に天空の星景色画像を含むことを特徴とする請求項2に記載の撮影装置。   The imaging apparatus according to claim 2, wherein the different types of images include a starry sky image in the sky in addition to the map image and the captured image. 前記画像表示制御手段は、前記姿勢検出手段により異なる姿勢のうち、第1の姿勢および第2の姿勢とは異なる第3の姿勢が検出された際は、前記位置取得手段により取得された現在位置に対応した前記天空の星景色画像と前記方位検出部により検出された方位とを重ねて前記表示部に表示させる天空画像表示制御手段を備えていることを特徴とする請求項4に記載の撮影装置。   The image display control means detects the current position acquired by the position acquisition means when a third attitude different from the first attitude and the second attitude is detected among the different attitudes by the attitude detection means. 5. The photographing according to claim 4, further comprising: a sky image display control unit configured to display the sky star scene image corresponding to the image and the direction detected by the direction detection unit on the display unit. apparatus. 前記画像表示制御手段は、前記方位に関連させて、景勝地の位置を示す景勝地マークを表示させるマーク表示制御手段を備えていることを特徴とする請求項4に記載の撮影装置。   5. The photographing apparatus according to claim 4, wherein the image display control means includes mark display control means for displaying a scenic spot mark indicating a scenic spot position in association with the azimuth. 前記画像表示制御手段は、前記方位に関連させて、撮影ポイントの位置を示す撮影ポイントマークを当該撮影ポイントで既に撮影されている写真と共に表示させる写真表示制御手段を備えていることを特徴とする請求項4に記載の撮影装置。   The image display control means includes a photographic display control means for displaying a photographic point mark indicating a position of the photographic point together with a photograph already taken at the photographic point in association with the azimuth. The imaging device according to claim 4. 撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置に用いられる撮影制御方法において、
前記撮影装置本体の姿勢を検出する姿勢検出ステップと、
この姿勢検出ステップにより異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御ステップと、
を備えていることを特徴とする撮影制御方法。
In a shooting control method used for a shooting device including a shooting device body, a display unit, an imaging unit, and an orientation detection unit,
A posture detecting step for detecting a posture of the photographing apparatus body;
When a different posture is detected by this posture detection step, a display control step for displaying the directions detected by the direction detection unit on the display unit in different display forms according to the different postures;
An imaging control method comprising:
撮影装置本体、表示部、撮像部及び方位検出部を備えている撮影装置のコンピュータを、
前記撮影装置本体の姿勢を検出する姿勢検出手段と、
この姿勢検出手段により異なる姿勢が検出された際、当該異なる姿勢に応じて、前記方位検出部により検出された方位を互いに異なる表示形態で前記表示部に表示させる表示制御手段と、
として機能させることを特徴とするプログラム。
A computer of an imaging device including an imaging device body, a display unit, an imaging unit, and an orientation detection unit,
Posture detecting means for detecting the posture of the photographing apparatus body;
A display control means for causing the display unit to display the azimuths detected by the azimuth detection unit in different display forms according to the different postures when a different posture is detected by the posture detection unit;
A program characterized by functioning as
JP2012043242A 2012-02-29 2012-02-29 Imaging apparatus, imaging control method, and program Expired - Fee Related JP6010925B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012043242A JP6010925B2 (en) 2012-02-29 2012-02-29 Imaging apparatus, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012043242A JP6010925B2 (en) 2012-02-29 2012-02-29 Imaging apparatus, imaging control method, and program

Publications (3)

Publication Number Publication Date
JP2013179544A true JP2013179544A (en) 2013-09-09
JP2013179544A5 JP2013179544A5 (en) 2015-03-26
JP6010925B2 JP6010925B2 (en) 2016-10-19

Family

ID=49270801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012043242A Expired - Fee Related JP6010925B2 (en) 2012-02-29 2012-02-29 Imaging apparatus, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP6010925B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016529766A (en) * 2014-05-27 2016-09-23 小米科技有限責任公司Xiaomi Inc. Direction measuring method, apparatus, terminal, program, and storage medium
KR20190098070A (en) 2018-02-13 2019-08-21 도쿄엘렉트론가부시키가이샤 Film forming system and method for forming film on substrate
JP2020031283A (en) * 2018-08-20 2020-02-27 Zホールディングス株式会社 Display control program, display control method, and terminal device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305452A (en) * 1999-04-21 2000-11-02 Sony Corp Digital map device and display method of digital map
JP2001188014A (en) * 1999-12-28 2001-07-10 Sony Corp Geography guide setting device, geography guide using device, geography guide system and recording medium
JP2003110902A (en) * 2001-09-27 2003-04-11 Fuji Photo Film Co Ltd Device, method and program for photographing image
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system
JP2008085488A (en) * 2006-09-26 2008-04-10 Sky Kk Portable equipment having camera
JP2011135165A (en) * 2009-12-22 2011-07-07 Sony Corp Imaging device, method of processing orientation information, and program
JP2011175031A (en) * 2010-02-23 2011-09-08 Seiko Epson Corp Image forming apparatus
JP2013038734A (en) * 2011-08-11 2013-02-21 Nikon Corp Image recorder

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305452A (en) * 1999-04-21 2000-11-02 Sony Corp Digital map device and display method of digital map
JP2001188014A (en) * 1999-12-28 2001-07-10 Sony Corp Geography guide setting device, geography guide using device, geography guide system and recording medium
JP2003110902A (en) * 2001-09-27 2003-04-11 Fuji Photo Film Co Ltd Device, method and program for photographing image
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system
JP2008085488A (en) * 2006-09-26 2008-04-10 Sky Kk Portable equipment having camera
JP2011135165A (en) * 2009-12-22 2011-07-07 Sony Corp Imaging device, method of processing orientation information, and program
JP2011175031A (en) * 2010-02-23 2011-09-08 Seiko Epson Corp Image forming apparatus
JP2013038734A (en) * 2011-08-11 2013-02-21 Nikon Corp Image recorder

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016529766A (en) * 2014-05-27 2016-09-23 小米科技有限責任公司Xiaomi Inc. Direction measuring method, apparatus, terminal, program, and storage medium
KR20190098070A (en) 2018-02-13 2019-08-21 도쿄엘렉트론가부시키가이샤 Film forming system and method for forming film on substrate
KR20210008550A (en) 2018-02-13 2021-01-22 도쿄엘렉트론가부시키가이샤 Film forming system and method for forming film on substrate
JP2020031283A (en) * 2018-08-20 2020-02-27 Zホールディングス株式会社 Display control program, display control method, and terminal device
JP7068966B2 (en) 2018-08-20 2022-05-17 ヤフー株式会社 Display control program, display control method and terminal device

Also Published As

Publication number Publication date
JP6010925B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
US9080881B2 (en) Methods and apparatus for providing navigational information associated with locations of objects
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
JP2007017406A (en) Geographic data collection device
US11796682B2 (en) Methods for geospatial positioning and portable positioning devices thereof
KR100822814B1 (en) Method for overlapping real-time landscape image and gis data
CN102575933A (en) System that generates map image integration database and program that generates map image integration database
KR100968837B1 (en) Portable camera system provides information about captured objects
JP4969053B2 (en) Portable terminal device and display method
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
JP6010925B2 (en) Imaging apparatus, imaging control method, and program
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
JP6064269B2 (en) Information processing apparatus, information processing method, and program
JP5886241B2 (en) Portable imaging device
JP2009036726A (en) Method and system for displaying search path
JP2009124254A (en) Photographing device
JP5817012B2 (en) Information processing apparatus, information processing method, and program
Verhoeven et al. Positioning in time and space: Cost-effective exterior orientation for airborne archaeological photographs
JP6329219B2 (en) Operation terminal and moving body
US8903163B2 (en) Using gravity measurements within a photogrammetric adjustment
JP2012244562A (en) Digital camera
JP6680499B2 (en) Route guidance device, route guidance system, route guidance method, and route guidance program
JP2013093788A (en) Imaging apparatus, imaging method and program
JP6826215B2 (en) Mobile device
JP6474859B2 (en) Portable terminal, control program, and control method
JP5634925B2 (en) Maintenance information display device, maintenance information display method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6010925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees