JP5558233B2 - Imaging apparatus and direction setting method - Google Patents

Imaging apparatus and direction setting method Download PDF

Info

Publication number
JP5558233B2
JP5558233B2 JP2010153135A JP2010153135A JP5558233B2 JP 5558233 B2 JP5558233 B2 JP 5558233B2 JP 2010153135 A JP2010153135 A JP 2010153135A JP 2010153135 A JP2010153135 A JP 2010153135A JP 5558233 B2 JP5558233 B2 JP 5558233B2
Authority
JP
Japan
Prior art keywords
unit
image
orientation
azimuth
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010153135A
Other languages
Japanese (ja)
Other versions
JP2012015960A5 (en
JP2012015960A (en
Inventor
和隆 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010153135A priority Critical patent/JP5558233B2/en
Publication of JP2012015960A publication Critical patent/JP2012015960A/en
Publication of JP2012015960A5 publication Critical patent/JP2012015960A5/en
Application granted granted Critical
Publication of JP5558233B2 publication Critical patent/JP5558233B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Description

本発明は、被写体を撮像して電子的な画像データを生成する撮像装置に関する。   The present invention relates to an imaging apparatus that images a subject and generates electronic image data.

近年、デジタルカメラ等の撮像装置は、地図等を撮影した画像を表示モニタで表示し、この表示画像を用いて行先案内を行うナビゲーション装置として利用されることもある。たとえば、印刷物の地図を撮影した画像データに対応する画像に対してGPS(Global Positioning System)で測定した絶対的な位置を二箇所入力し、画像の縮尺または縮尺に基づいて距離の目盛りを表示モニタに表示することで、ユーザに目的地までの距離を表示しながら案内を行うことができる技術が知られている(特許文献1参照)。   In recent years, an imaging device such as a digital camera is sometimes used as a navigation device that displays an image of a map or the like on a display monitor and performs destination guidance using the display image. For example, two absolute positions measured by GPS (Global Positioning System) are input to an image corresponding to image data obtained by photographing a map of a printed material, and a distance scale is displayed based on the scale of the image or display monitor A technique is known that allows guidance to be displayed while displaying the distance to the destination to the user (see Patent Document 1).

特開2009−193083号公報JP 2009-193083 A

ところで、従来のデジタルカメラでは、ユーザが地図や地図案内板等を撮影した場合であっても、撮影した画像データに方位情報を対応付けて情報を管理することができなかった。このため、ユーザは、表示モニタに表示される画像から正確な方位を知ることができず、表示モニタに表示される画像を見ながら目的地に行くことが困難であった。   By the way, with a conventional digital camera, even when a user has photographed a map, a map guide board, or the like, information cannot be managed by associating azimuth information with photographed image data. For this reason, the user cannot know the correct orientation from the image displayed on the display monitor, and it is difficult to go to the destination while viewing the image displayed on the display monitor.

本発明は、上記に鑑みてなされたものであって、撮影した画像データに方位情報を対応付けて管理することを可能にする撮像装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an imaging apparatus that enables management by associating azimuth information with captured image data.

上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する表示部と、前記撮像部が生成する前記画像データを記憶する記憶部とを備えた撮像装置であって、前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、記入力部における外部からの物体が接触した軌跡に応じて、記画像内で基準となる基準方位を設定する方位設定部と、前記方位設定部が設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御部と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes a lens unit that collects light from a visual field region, and an electronic image using the light collected by the lens unit. An imaging apparatus comprising: an imaging unit that generates data; a display unit that displays an image corresponding to the image data generated by the imaging unit; and a storage unit that stores the image data generated by the imaging unit. Te, wherein provided in the display portion of the display screen, depending on the locus of contact the object from the outside at the input and, entering-force unit that receives an input signal corresponding to the contact position of the object from the outside, before A direction setting unit for setting a reference direction as a reference in the recorded image, and a control for storing the reference direction set by the direction setting unit in the storage unit as direction information included in header information of the image data And It is characterized in.

また、本発明に係る撮像装置は、上記発明において、当該撮像装置を水平状態にした際の当該撮像装置で予め指定される指定方位を検出する方位検出部と、前記方位検出部が検出した前記指定方位が前記基準方位に一致しているか否かを判定する方位判定部と、を備え、前記制御部は、前記方位判定部の判定結果に応じて、前記表示部が表示する前記画像を、前記表示部の表示画面の中心を通過し、該表示画面と直交する軸を中心軸として回転させて、前記基準方位を前記指定方位に一致させる制御を行うことを特徴とする。   The imaging apparatus according to the present invention is the imaging apparatus according to the above invention, wherein the orientation detection unit detects a designated orientation specified in advance by the imaging device when the imaging device is in a horizontal state, and the orientation detection unit detects the orientation An orientation determination unit that determines whether or not a designated orientation matches the reference orientation, and the control unit displays the image displayed by the display unit according to a determination result of the orientation determination unit, Control is performed to pass the center of the display screen of the display unit and rotate about an axis orthogonal to the display screen as a central axis so that the reference orientation coincides with the designated orientation.

また、本発明にかかる撮像装置は、上記発明において、視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データを記憶する記憶部とを備えた撮像装置であって、該撮像装置で予め指定される指定方位を検出する方位検出部と、前記方位検出部が検出した前記指定方位と前記撮像部が生成する前記画像データに対応する画像とを表示する表示部と、前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、前記入力部が外部からの物体の接触位置に応じた信号の入力を受けたときに前記表示部が表示している前記指定方位を、記画像内で基準となる基準方位として設定する方位設定部と、前記方位設定部が設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御部と、を備えたことを特徴とする。 The imaging device according to the present invention is the above-described invention, wherein the lens unit that collects light from the visual field region, the imaging unit that generates electronic image data using the light collected by the lens unit, an imaging apparatus that includes a storage unit that stores the image data which the imaging unit is generated, the direction detection unit which detects a specified direction to be specified in advance in this imaging device, the direction detection unit detects A display unit for displaying the designated orientation and an image corresponding to the image data generated by the imaging unit, and a display screen provided on the display unit for inputting a signal according to the contact position of an object from the outside input and, the designated orientation in which the display portion is displayed when receiving the input signal by the input section in accordance with the contact position of the object from the outside, the reference azimuth as a reference in the prior Symbol image accepting Set the direction setting as Characterized by comprising a control unit which performs control to store in the storage unit to said reference orientation in which the orientation setting unit has set as the direction information included in the header information of the image data.

また、本発明に係る撮像装置は、上記発明において、前記方位検出部が検出した前記指定方位が前記基準方位に一致しているか否かを判定する方位判定部を備え、前記制御部は、前記方位判定部の判定結果に応じて、前記表示部が表示する前記画像を、前記表示部の表示画面の中心を通過し、該表示画面と直交する軸を中心軸として回転させて、前記基準方位を前記指定方位に一致させる制御を行うことを特徴とする。   The imaging apparatus according to the present invention further includes an orientation determination unit that determines whether or not the designated orientation detected by the orientation detection unit matches the reference orientation in the invention described above, According to the determination result of the azimuth determination unit, the image displayed by the display unit passes through the center of the display screen of the display unit and is rotated about an axis orthogonal to the display screen as the central axis, and the reference azimuth Is controlled to match the designated orientation.

また、本発明に係る撮像装置は、上記発明において、前記方位判定部は、所定の時間間隔で前記指定方位が前記基準方位に一致しているか否かを判定することを特徴とする。   Moreover, the imaging device according to the present invention is characterized in that, in the above invention, the azimuth determining unit determines whether or not the designated azimuth matches the reference azimuth at a predetermined time interval.

また、本発明に係る撮像装置は、上記発明において、前記方位判定部の判定結果に応じて、前記撮像部が生成する前記画像データに対応する画像を前記表示部の表示画面より小さくした縮小画像を生成する画像縮小部を備え、前記制御部は、前記縮小画像を前記表示部に表示させる制御を行うことを特徴とする。   The image pickup apparatus according to the present invention is the reduced image in which the image corresponding to the image data generated by the image pickup unit is smaller than the display screen of the display unit according to the determination result of the orientation determination unit. The control unit performs control to display the reduced image on the display unit.

また、本発明にかかる撮像装置は、上記発明において、前記画像は、地図画像であり、前記基準方位は、前記地図画像内で方位合わせをする際に基準となる方位であることを特徴とする
また、本発明にかかる方位設定方法は、視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する表示部と、前記撮像部が生成する前記画像データを記憶する記憶部と、前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、を備えた撮像装置が実行する撮像方法であって、前記入力部における外部からの物体が接触した軌跡に応じて、前記画像内で基準となる基準方位を設定する方位設定ステップと、前記方位設定ステップで設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御ステップと、を含むことを特徴とする。
また、本発明にかかる方位設定方法は、視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する表示部と、前記撮像部が生成した前記画像データを記憶する記憶部と、前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、を備えた撮像装置が実行する方位設定方法であって、当該撮像装置で予め指定される指定方位を検出する方位検出ステップと、前記方位検出ステップで検出した前記指定方位を前記表示部に表示させる表示ステップと、前記入力部が外部からの物体の接触位置に応じた信号の入力を受けたときに前記表示部が表示している前記指定方位を、前記画像内で基準となる基準方位として設定する方位設定ステップと、前記方位設定ステップで設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御ステップと、を含むことを特徴とする。
In the imaging device according to the present invention, in the above invention, the image is a map image, and the reference azimuth is a azimuth serving as a reference when the orientation is aligned in the map image. .
The azimuth setting method according to the present invention includes a lens unit that collects light from a visual field region, an imaging unit that generates electronic image data using light collected by the lens unit, and the imaging unit. A display unit that displays an image corresponding to the image data generated by the image capturing unit, a storage unit that stores the image data generated by the imaging unit, and a display screen of the display unit. An image pickup method executed by an image pickup apparatus including an input unit that receives an input of a signal according to a position, and serves as a reference in the image according to a trajectory of contact of an external object in the input unit An azimuth setting step for setting a reference azimuth; a control step for performing control for storing the reference azimuth set in the azimuth setting step in the storage unit as azimuth information included in header information of the image data; Characterized in that it contains.
The azimuth setting method according to the present invention includes a lens unit that collects light from a visual field region, an imaging unit that generates electronic image data using light collected by the lens unit, and the imaging unit. A display unit that displays an image corresponding to the image data generated by the image capturing unit, a storage unit that stores the image data generated by the imaging unit, and a display screen of the display unit. An orientation setting method executed by an imaging apparatus including an input unit that receives an input of a signal according to a position, wherein the orientation detection step detects a designated orientation specified in advance by the imaging apparatus, and the orientation detection step A display step of displaying the designated orientation detected in step S3 on the display unit, and the designated orientation displayed on the display unit when the input unit receives an input of a signal corresponding to the contact position of an object from the outside. The Control for performing control for storing the reference orientation set in the orientation setting step in the storage unit as orientation information included in header information of the image data, and an orientation setting step for setting the reference orientation as a reference in the image And a step.

本発明に係る撮像装置によれば、方位設定部が表示部によって表示されている画像に対し、入力部における外部からの物体が接触した軌跡に応じて画像内で基準となる基準方位を設定し、制御部が方位設定部によって設定された基準方位を画像データのヘッダ情報に方位情報として記憶部に記憶させる制御を行う。これにより、ユーザは、撮影した画像データに方位情報を対応付けて管理することができるという効果を奏する。   According to the imaging apparatus according to the present invention, the orientation setting unit sets a reference orientation to be a reference in the image according to a trajectory in which an object from the outside is in contact with the image displayed on the display unit. The control unit performs control to store the reference direction set by the direction setting unit in the storage unit as the direction information in the header information of the image data. Accordingly, the user can manage the captured image data in association with the azimuth information.

図1は、本発明の一実施の形態に係る撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to an embodiment of the present invention. 図2は、本発明の一実施の形態に係る撮像装置の背面側の構成を示す斜視図である。FIG. 2 is a perspective view showing the configuration of the back side of the imaging apparatus according to the embodiment of the present invention. 図3は、本発明の一実施の形態に係る撮像装置が行う処理の概要を示すフローチャートである。FIG. 3 is a flowchart showing an outline of processing performed by the imaging apparatus according to the embodiment of the present invention. 図4は、本発明の一実施の形態に係る撮像装置の地図撮影モードで地図案内板を撮影する際の状況を示す図である。FIG. 4 is a diagram illustrating a situation when the map guide plate is photographed in the map photographing mode of the imaging apparatus according to the embodiment of the present invention. 図5は、本発明の一実施の形態に係る撮像装置が地図撮影モードで地図案内板を撮影する際に表示部が表示する画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed on the display unit when the imaging apparatus according to the embodiment of the present invention captures a map guide board in the map capturing mode. 図6は、本発明の一実施の形態に係る撮像装置が地図撮影モードで地図案内板を撮影する際に表示部が表示する画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image displayed on the display unit when the imaging apparatus according to the embodiment of the present invention captures a map guide board in the map capturing mode. 図7は、本発明の一実施の形態に係る撮像装置の画像ファイル生成部が生成する画像ファイルのデータ構造を示す図である。FIG. 7 is a diagram illustrating a data structure of an image file generated by the image file generation unit of the imaging apparatus according to the embodiment of the present invention. 図8は、本発明の一実施の形態に係る撮像装置が行う再生表示処理の概要を示すフローチャートである。FIG. 8 is a flowchart showing an outline of the reproduction display process performed by the imaging apparatus according to the embodiment of the present invention. 図9は、本発明の一実施の形態に係る撮像装置の表示部が表示するアイコンの一例を示す図である。FIG. 9 is a diagram illustrating an example of icons displayed on the display unit of the imaging apparatus according to the embodiment of the present invention. 図10は、本発明の一実施の形態に係る撮像装置の表示部が表示するアイコンの一例を示す図である。FIG. 10 is a diagram illustrating an example of icons displayed on the display unit of the imaging apparatus according to the embodiment of the present invention. 図11は、本発明の一実施の形態に係る撮像装置でユーザによってタッチパネルがタッチされた軌跡に応じて方位設定部が設定する基準方位を説明する図である。FIG. 11 is a diagram illustrating the reference orientation set by the orientation setting unit in accordance with the locus of touching the touch panel by the user in the imaging apparatus according to an embodiment of the present invention. 図12は、本発明の一実施の形態に係る撮像装置の方位設定部が設定する基準方位を説明する図である。FIG. 12 is a diagram for explaining the reference orientation set by the orientation setting unit of the imaging apparatus according to the embodiment of the present invention. 図13は、本発明の一実施の形態に係る撮像装置のシステムコントローラが表示部によって表示される画像を回転させて基準方位を指定方位に一致させる状況を示す図である。FIG. 13 is a diagram illustrating a situation in which the system controller of the imaging apparatus according to the embodiment of the present invention rotates the image displayed by the display unit so that the reference orientation matches the designated orientation. 図14は、本発明の一実施の形態に係る変形例において撮像装置の方位設定部が設定する基準方位を説明する図である。FIG. 14 is a diagram illustrating the reference azimuth set by the azimuth setting unit of the imaging apparatus in the modification according to the embodiment of the present invention.

以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. In the description of the drawings, the same parts are denoted by the same reference numerals.

図1は、本実施の形態に係る撮像装置の構成を示すブロック図である。図2は、本実施の形態に係る撮像装置のユーザに面する側(背面側)の構成を示す図である。図1および図2に示すように、撮像装置1は、レンズ部2と、レンズ駆動機構3と、絞り駆動機構4と、シャッタ駆動機構5と、撮像素子6と、信号処理部7と、手ブレ検出部8と、姿勢検出部9と、方位検出部10と、音声入出力部11と、操作入力部12と、表示部13と、タッチパネル14と、記録媒体インタフェース15と、不揮発性メモリ16と、揮発性メモリ17と、GPS受信部18と、システムコントローラ19と、を備える。   FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus according to the present embodiment. FIG. 2 is a diagram illustrating a configuration of a side (back side) facing the user of the imaging apparatus according to the present embodiment. As shown in FIGS. 1 and 2, the imaging device 1 includes a lens unit 2, a lens driving mechanism 3, an aperture driving mechanism 4, a shutter driving mechanism 5, an imaging element 6, a signal processing unit 7, Shake detection unit 8, posture detection unit 9, orientation detection unit 10, voice input / output unit 11, operation input unit 12, display unit 13, touch panel 14, recording medium interface 15, and nonvolatile memory 16 And a volatile memory 17, a GPS receiver 18, and a system controller 19.

レンズ部2は、フォーカスレンズ及びズームレンズ等によって構成され、所定の視野領域から光を集光する。レンズ部2は、ズームレンズが光軸Q上を移動することによって画角を変化させる光学ズーム機能を有する。   The lens unit 2 includes a focus lens, a zoom lens, and the like, and collects light from a predetermined visual field region. The lens unit 2 has an optical zoom function that changes the angle of view when the zoom lens moves on the optical axis Q.

レンズ駆動機構3は、DCモータ等によって構成され、レンズ部2のフォーカスレンズやズームレンズを光軸Q上で移動させることによってレンズ部2の焦点位置や焦点距離の変更を行う。   The lens driving mechanism 3 is constituted by a DC motor or the like, and changes the focal position and focal length of the lens unit 2 by moving the focus lens and zoom lens of the lens unit 2 on the optical axis Q.

絞り駆動機構4は、絞り4a及びステッピングモータ等によって構成され、絞り4aを駆動することによってレンズ部2が集光した光の入射量を調整する。   The diaphragm drive mechanism 4 is configured by a diaphragm 4a, a stepping motor, and the like, and adjusts the incident amount of light condensed by the lens unit 2 by driving the diaphragm 4a.

シャッタ駆動機構5は、シャッタ5a及びステッピングモータ等によって構成され、シャッタ5aを駆動することによって撮像素子6の状態を露光状態または遮光状態に設定する。   The shutter drive mechanism 5 includes a shutter 5a, a stepping motor, and the like, and drives the shutter 5a to set the state of the image sensor 6 to an exposure state or a light shielding state.

撮像素子6は、レンズ部2が集光した光を受光して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現され、変換した電気信号を信号処理部7に出力する。   The image sensor 6 is realized by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like that receives the light collected by the lens unit 2 and converts it into an electrical signal (analog signal). The signal is output to the signal processing unit 7.

信号処理部7は、撮像素子6から出力される電気信号に増幅等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データに変換し、システムコントローラ19を介して揮発性メモリ17に出力する。なお、撮像素子6および信号処理部7を含む構成は、レンズ部2が集光した光を用いて電子的な画像データを連続的に生成する撮像部として機能する。   The signal processing unit 7 performs signal processing such as amplification on the electrical signal output from the image sensor 6, and then converts the digital signal into digital image data by performing A / D conversion. Output to the memory 17. Note that the configuration including the imaging element 6 and the signal processing unit 7 functions as an imaging unit that continuously generates electronic image data using the light collected by the lens unit 2.

手ブレ検出部8は、ジャイロセンサによって構成され、撮像装置1の角速度を検出することにより、ユーザの手ブレによる画像のブレ状態を検出する。具体的には、手ブレ検出部8は、レンズ部2の光軸Qと平行な方向をZ軸方向とし、Z軸方向に垂直な平面(撮像素子6の撮像面)をXY平面としたときのX軸、Y軸およびZ軸の各軸回りの角速度を個別のジャイロセンサで検出することによって、ユーザの手ブレを検出する。   The camera shake detection unit 8 is configured by a gyro sensor, and detects the blurring state of the image due to the camera shake of the user by detecting the angular velocity of the imaging device 1. Specifically, the camera shake detection unit 8 sets the direction parallel to the optical axis Q of the lens unit 2 as the Z-axis direction and the plane perpendicular to the Z-axis direction (the imaging surface of the imaging device 6) as the XY plane. The camera shake of the user is detected by detecting the angular velocities around the X-axis, Y-axis, and Z-axis with individual gyro sensors.

姿勢検出部9は、加速度センサによって構成され、撮像装置1の加速度を検出することにより、撮像装置1の姿勢状態を検出する。具体的には、姿勢検出部9は、撮像装置1の重力方向と直交する面である水平面を基準としたときの撮像装置1の姿勢を検出する。   The posture detection unit 9 includes an acceleration sensor, and detects the posture state of the imaging device 1 by detecting the acceleration of the imaging device 1. Specifically, the posture detection unit 9 detects the posture of the imaging device 1 with respect to a horizontal plane that is a plane orthogonal to the gravity direction of the imaging device 1.

方位検出部10は、磁気方位センサによって構成され、撮像装置1で予め設定される指定方位を検出する。具体的には、図2に示すように、方位検出部10は、表示部13を水平状態にした際の地磁気の垂直方向と水平方向の成分を検出することにより、撮像装置1の指定方向、たとえば北を検出する。   The azimuth detecting unit 10 includes a magnetic azimuth sensor, and detects a designated azimuth set in advance by the imaging device 1. Specifically, as shown in FIG. 2, the azimuth detection unit 10 detects the specified direction of the imaging apparatus 1 by detecting the vertical and horizontal components of the geomagnetism when the display unit 13 is in the horizontal state. For example, north is detected.

音声入出力部11は、マイクやスピーカ等によって構成され、たとえば音声情報の取得または出力を行う。   The voice input / output unit 11 includes a microphone, a speaker, and the like, and acquires or outputs voice information, for example.

操作入力部12は、図2に示すように、撮像装置1の電源状態をオン状態またはオフ状態に切換える電源スイッチ12aと、静止画撮影の指示を与えるレリーズ信号を入力するレリーズスイッチ12bと、撮像装置1の各種撮影モードを切換えるモード切換スイッチ12cと、撮像装置1の各種設定を行う操作スイッチ12dと、レンズ部2のズーム操作を行うズームスイッチ12eとを有する。   As shown in FIG. 2, the operation input unit 12 includes a power switch 12 a that switches the power state of the imaging apparatus 1 to an on state or an off state, a release switch 12 b that inputs a release signal that gives a still image shooting instruction, It has a mode switch 12c for switching various shooting modes of the apparatus 1, an operation switch 12d for performing various settings of the imaging apparatus 1, and a zoom switch 12e for performing a zoom operation of the lens unit 2.

表示部13は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現される。表示部13は、撮像素子6が生成する画像データに対応する画像を表示する。表示部13は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。   The display part 13 is implement | achieved using the display panel which consists of a liquid crystal or organic EL (Electro Luminescence). The display unit 13 displays an image corresponding to the image data generated by the image sensor 6. The display unit 13 appropriately displays operation information of the imaging device 1 and information related to shooting.

タッチパネル14は、表示部13の表示画面上に重ねて設けられる(図2を参照)。タッチパネル14は、ユーザが表示部13で表示される情報に基づいて接触(タッチ)した位置を検出し、この接触位置に応じた操作信号の入力を受け付ける。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。本実施の形態では、いずれの方式のタッチパネルであっても適用可能である。なお、本実施の形態では、タッチパネル14が入力部として機能する。   The touch panel 14 is provided on the display screen of the display unit 13 (see FIG. 2). The touch panel 14 detects a position touched by the user based on information displayed on the display unit 13, and accepts an input of an operation signal corresponding to the contact position. In general, the touch panel includes a resistance film method, a capacitance method, an optical method, and the like. In the present embodiment, any type of touch panel is applicable. In the present embodiment, the touch panel 14 functions as an input unit.

記録媒体インタフェース15は、撮像装置1の外部から装着される記録媒体のメモリカード15aに対して画像データ等の情報を記憶する一方、メモリカード15aが記憶する情報を読み出す。   The recording medium interface 15 stores information such as image data in the memory card 15a of the recording medium loaded from the outside of the imaging apparatus 1, and reads information stored in the memory card 15a.

不揮発性メモリ16は、フラッシュメモリ等によって実現される。不揮発性メモリ16は、撮像装置1を動作させるための各種プログラムを記憶したプログラムコード16aと、プログラムの実行中に使用される各種データ等を記憶した制御パラメータ16bと、少なくとも文字および地図記号に対してパターンマッチング等を行うための地図記号情報メモリ16cとを有する。   The nonvolatile memory 16 is realized by a flash memory or the like. The non-volatile memory 16 has a program code 16a storing various programs for operating the imaging device 1, a control parameter 16b storing various data used during the execution of the program, and at least characters and map symbols. And a map symbol information memory 16c for performing pattern matching and the like.

揮発性メモリ17は、SDRAM(Synchronous Dynamic Random Access Memory)によって実現される。揮発性メモリ17は、信号処理部7から出力される画像データやシステムコントローラ19による処理中の情報が一時的に記録されるワークエリア17aを有する。具体的には、揮発性メモリ17は、撮像素子6が1フレーム(例えば1/30秒)毎に出力する画像データに対応する画像(ライブビュー画像)やレリーズスイッチ12bが操作された際に撮像素子6が出力する画像データに対応する画像等を一時的に記憶する。   The volatile memory 17 is realized by an SDRAM (Synchronous Dynamic Random Access Memory). The volatile memory 17 has a work area 17a in which image data output from the signal processing unit 7 and information being processed by the system controller 19 are temporarily recorded. Specifically, the volatile memory 17 captures an image (live view image) corresponding to image data output by the image sensor 6 every frame (for example, 1/30 seconds) or when the release switch 12b is operated. An image or the like corresponding to the image data output from the element 6 is temporarily stored.

GPS受信部18は、地上の物体の位置を測位する測定手段であるGPS(Global Positioning System)を構成する複数のGPS衛星から送信されてくる衛星の軌道情報を受信する。   The GPS receiver 18 receives satellite orbit information transmitted from a plurality of GPS satellites constituting a GPS (Global Positioning System) which is a measuring means for measuring the position of an object on the ground.

システムコントローラ19は、CPU(Central Processing Unit)等によって実現され、操作入力部12からの操作信号等に応じて不揮発性メモリ16からプログラムを読み出して実行し、撮像装置1を構成する各部に対する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。システムコントローラ19は、画像処理部19aと、圧縮・伸長部19bと、AF制御部19cと、AE制御部19dと、タイマカウンタ19eと、顔検出部19fと、地図情報検出部19gと、方位設定部19hと、ヘッダ情報生成部19iと、画像ファイル生成部19jと、方位判定部19kと、縮小画像生成部19lとを有する。   The system controller 19 is realized by a CPU (Central Processing Unit) or the like, and reads out and executes a program from the nonvolatile memory 16 in response to an operation signal from the operation input unit 12 and the like. Data transfer and the like are performed to comprehensively control the operation of the imaging apparatus 1. The system controller 19 includes an image processing unit 19a, a compression / decompression unit 19b, an AF control unit 19c, an AE control unit 19d, a timer counter 19e, a face detection unit 19f, a map information detection unit 19g, and an orientation setting. A unit 19h, a header information generation unit 19i, an image file generation unit 19j, an orientation determination unit 19k, and a reduced image generation unit 19l.

画像処理部19aは、信号処理部7から出力された画像データに対して各種の画像処理を施し、揮発性メモリ17に出力する。具体的には、画像処理部19aは、信号処理部7から出力される画像データに対してエッジ強調、カラーバランス(RGB)、色補正およびγ補正等の処理を施す。   The image processing unit 19 a performs various image processing on the image data output from the signal processing unit 7 and outputs the processed image data to the volatile memory 17. Specifically, the image processing unit 19a performs processing such as edge enhancement, color balance (RGB), color correction, and γ correction on the image data output from the signal processing unit 7.

圧縮・伸長部19bは、揮発性メモリ17のワークエリア17aに記憶された画像データをメモリカード15aに記憶させる場合またはメモリカード15aに記録されている画像データを表示部13に表示させる場合に、JPEG(Joint Photographic Experts Group)圧縮方式等に基づいて画像データの圧縮処理や伸長処理を行う。   The compression / decompression unit 19b stores the image data stored in the work area 17a of the volatile memory 17 in the memory card 15a or displays the image data recorded in the memory card 15a on the display unit 13. Based on the JPEG (Joint Photographic Experts Group) compression method, image data compression processing and decompression processing are performed.

AF制御部19cは、信号処理部7から出力される画像データに基づいて、自動焦点調整を行う。たとえば、AF制御部19cは、画像データのコントラストに基づいて、レンズ駆動機構3を駆動し、撮影する被写体像の鮮鋭度が最大となるようにレンズ部2を光軸Q上で移動させる。   The AF control unit 19 c performs automatic focus adjustment based on the image data output from the signal processing unit 7. For example, the AF control unit 19c drives the lens driving mechanism 3 based on the contrast of the image data, and moves the lens unit 2 on the optical axis Q so that the sharpness of the subject image to be photographed is maximized.

AE制御部19dは、信号処理部7から出力される画像データに基づいて、静止画撮影を行う際の条件、たとえば絞り4aの設定値、シャッタ速度等を決定することで自動露出を行う。   Based on the image data output from the signal processing unit 7, the AE control unit 19d performs automatic exposure by determining conditions for performing still image shooting, such as a set value of the aperture 4a, a shutter speed, and the like.

タイマカウンタ19eは、撮像装置1の動作の基準となる時間信号を生成する。これにより、システムコントローラ19は、画像データの取得間隔、撮像素子6の露光時間等を設定することができる。   The timer counter 19e generates a time signal that serves as a reference for the operation of the imaging apparatus 1. Thereby, the system controller 19 can set the acquisition interval of image data, the exposure time of the image sensor 6, and the like.

顔検出部19fは、信号処理部7が出力する画像データに対応する画像に含まれる被写体の顔をパターンマッチング等で検出する。なお、本実施の形態では、顔検出部19fは、人物の顔を検出するようにしているが、たとえば犬や猫等の動物の顔であってもよい。   The face detection unit 19f detects the face of the subject included in the image corresponding to the image data output from the signal processing unit 7 by pattern matching or the like. In the present embodiment, the face detection unit 19f detects the face of a person, but may be the face of an animal such as a dog or a cat.

地図情報検出部19gは、撮像素子6が生成した画像データに対応する画像に対し、少なくとも文字および地図記号を含む地図情報を検出する。具体的には、地図情報検出部19gは、OCR(Optical Character Reader)等によって構成され、不揮発性メモリ16の地図記号情報メモリ16cに記憶された地図記号情報を用いて、撮像素子6が生成する画像データに対応する画像に含まれる地図情報を検出する。   The map information detection unit 19g detects map information including at least characters and a map symbol for an image corresponding to the image data generated by the image sensor 6. Specifically, the map information detection unit 19g is configured by an OCR (Optical Character Reader) or the like, and is generated by the imaging device 6 using the map symbol information stored in the map symbol information memory 16c of the nonvolatile memory 16. Map information included in an image corresponding to image data is detected.

方位設定部19hは、表示部13が表示している画像に対し、タッチパネル14における外部からの物体が接触した軌跡に応じて、表示部13を水平状態にした際に画像内で基準となる基準方位を設定する。具体的には、方位設定部19hは、ユーザがタッチパネル14に接触した軌跡を検出し、この軌跡に応じて画像内で基準となる基準方位を設定する。なお、方位設定部19hは、ユーザがタッチパネル14に接触した位置を検出し、この位置に応じて画像内で基準となる基準方位を設定してもよい。   The azimuth setting unit 19h is a reference that is used as a reference in the image when the display unit 13 is placed in a horizontal state in accordance with the trajectory of an external object on the touch panel 14 in contact with the image displayed on the display unit 13. Set the direction. Specifically, the azimuth setting unit 19h detects a trajectory where the user touches the touch panel 14, and sets a reference azimuth serving as a reference in the image according to the trajectory. The azimuth setting unit 19h may detect a position where the user touches the touch panel 14, and may set a reference azimuth serving as a reference in the image according to the position.

ヘッダ情報生成部19iは、方位設定部19hが設定した基準方位を撮影した画像データのヘッダ情報として生成する。ヘッダ情報生成部19iは、地図情報検出部19gが検出した地図情報やGPS受信部18が受信した情報等を画像データのヘッダ情報に付加して生成する。   The header information generation unit 19i generates the header information of the image data obtained by photographing the reference direction set by the direction setting unit 19h. The header information generating unit 19i generates the map information detected by the map information detecting unit 19g, the information received by the GPS receiving unit 18, and the like by adding the information to the header information of the image data.

画像ファイル生成部19lは、撮像素子6が生成した画像データに、ヘッダ情報生成部19iが生成したヘッダ情報を対応付けた画像ファイルを生成する。   The image file generation unit 19l generates an image file in which the header information generated by the header information generation unit 19i is associated with the image data generated by the imaging element 6.

方位判定部19kは、方位検出部10で検出した指定方位が方位設定部19hによって設定された基準方位に一致しているか否かを判定する。   The direction determination unit 19k determines whether or not the designated direction detected by the direction detection unit 10 matches the reference direction set by the direction setting unit 19h.

縮小画像生成部19iは、撮像素子6が生成した画像データに対応する画像をトリミングすることによって縮小画像を生成する。   The reduced image generation unit 19i generates a reduced image by trimming an image corresponding to the image data generated by the imaging element 6.

上述した各部を有するシステムコントローラ19は、方位設定部19hが設定した基準方位を画像データにおけるヘッダ情報の方位情報としてメモリカード15aに記憶させる制御を行う。さらに、システムコントローラ19は、方位判定部19kの判定結果に応じて表示部13が表示する画像を、表示部13の表示画面の中心を通過し、この表示画面と直交する軸を中心軸として回転させて、方位設定部19hが設定した基準方位を方位検出部10が検出した方位に一致させる制御を行う。なお、本実施の形態では、システムコントローラ19が制御部として機能する。   The system controller 19 having the above-described units performs control to store the reference direction set by the direction setting unit 19h in the memory card 15a as the direction information of the header information in the image data. Further, the system controller 19 rotates the image displayed on the display unit 13 according to the determination result of the azimuth determining unit 19k, passing through the center of the display screen of the display unit 13 and having an axis orthogonal to the display screen as a central axis. Thus, control is performed to match the reference azimuth set by the azimuth setting unit 19h with the azimuth detected by the azimuth detection unit 10. In the present embodiment, the system controller 19 functions as a control unit.

以上の構成を有する撮像装置1が行う処理について説明する。図3は、撮像装置1が行う処理の概要を示すフローチャートである。   Processing performed by the imaging apparatus 1 having the above configuration will be described. FIG. 3 is a flowchart illustrating an outline of processing performed by the imaging apparatus 1.

図3において、まず、システムコントローラ19は、撮像装置1の電源がオンになっているか否かを判断する(ステップS101)。撮像装置1の電源がオンになっている場合(ステップS101:Yes)、撮像装置1はステップS102に移行する。一方、撮像装置1の電源がオンになっていない場合(ステップS101:No)、撮像装置1は本処理を終了する。   In FIG. 3, first, the system controller 19 determines whether or not the power supply of the imaging apparatus 1 is turned on (step S101). When the power supply of the imaging device 1 is on (step S101: Yes), the imaging device 1 proceeds to step S102. On the other hand, when the power of the imaging apparatus 1 is not turned on (step S101: No), the imaging apparatus 1 ends this process.

続いて、システムコントローラ19は、撮像装置1が地図撮影モードに設定されているか否かを判断する(ステップS102)。具体的には、システムコントローラ19は、撮像装置1が被写体として地図や文字等を撮影する際に適したカラーバランス(RGB)や露出等が調整された地図撮影モードに設定されているか否かを判断する。撮像装置1が地図撮影モードに設定されている場合(ステップS102:Yes)、撮像装置1は後述するステップS103に移行する。一方、撮像装置1が地図撮影モードに設定されていない場合(ステップS102:No)、撮像装置1は後述するステップS113に移行する。   Subsequently, the system controller 19 determines whether or not the imaging device 1 is set to the map photographing mode (step S102). Specifically, the system controller 19 determines whether or not the image capturing apparatus 1 is set to a map photographing mode in which color balance (RGB), exposure, and the like suitable for photographing a map or a character as a subject are adjusted. to decide. When the imaging device 1 is set to the map shooting mode (step S102: Yes), the imaging device 1 proceeds to step S103 described later. On the other hand, when the imaging device 1 is not set to the map photographing mode (step S102: No), the imaging device 1 proceeds to step S113 described later.

まず、撮像装置1が地図撮影モードに設定されている場合(ステップS102:Yes)について説明する。この場合、システムコントローラ19は、GPS受信部18を介して衛星から受信した衛星の軌道情報に基づいて、撮像装置1の位置情報を検出する(ステップS103)。   First, the case where the imaging device 1 is set to the map shooting mode (step S102: Yes) will be described. In this case, the system controller 19 detects the position information of the imaging device 1 based on the satellite orbit information received from the satellite via the GPS receiver 18 (step S103).

続いて、方位検出部10は、撮像装置1の方位を検出する(ステップS104)。具体的には、方位検出部10は、撮像装置1の表示部13の画面を水平状態にした場合において、画面の中心から画面内の垂直方向に伸びる方向を基準(0度)として右回りにみたときに、北までのズレ(θ度)を検出することによって、その時点の撮像装置1の方位を検出する。   Subsequently, the orientation detection unit 10 detects the orientation of the imaging device 1 (step S104). Specifically, when the screen of the display unit 13 of the imaging device 1 is in a horizontal state, the direction detection unit 10 rotates clockwise with a direction extending from the center of the screen in the vertical direction in the screen as a reference (0 degree). When viewed, by detecting a deviation (θ degrees) to the north, the orientation of the imaging device 1 at that time is detected.

その後、表示部13は、撮像素子6が一定の微小な時間間隔で連続的に生成する画像データに対応するライブビュー画像(スルー画像)を表示する(ステップS105)。   Thereafter, the display unit 13 displays a live view image (through image) corresponding to the image data continuously generated by the imaging element 6 at a constant minute time interval (step S105).

図4は、撮像装置1の地図撮影モードで地図案内板を撮影する際の状況を示す図である。図5は、撮像装置1が地図撮影モードで地図案内板を撮影する際に表示部13が表示する画像の一例を示す図である。図5において、表示部13が時系列に沿って順次表示するライブビュー画像のうち代表的な1枚の画像W1を示す。図4および図5に示すように、ユーザは、たとえば図5の画像W1のようなライブビュー画像を見ながら地図案内板O1を撮影する際の構図を決定する。   FIG. 4 is a diagram illustrating a situation when the map guide board is photographed in the map photographing mode of the imaging apparatus 1. FIG. 5 is a diagram illustrating an example of an image displayed on the display unit 13 when the imaging apparatus 1 captures a map guide board in the map capturing mode. FIG. 5 shows one representative image W1 among the live view images that the display unit 13 sequentially displays in time series. As shown in FIGS. 4 and 5, the user determines a composition for photographing the map guide board O1 while viewing a live view image such as an image W1 in FIG.

ステップS106において、地図情報検出部19gは、撮像素子6が生成する画像データに対応する画像に対し、少なくとも文字および地図記号を含む地図情報を検出する。具体的には、図5に示す画像の場合、地図情報検出部19gは、画像W1の中央付近に含まれる文字や地図記号、たとえば文字として「第1小」を検出するとともに地図記号として「文」を検出する。   In step S106, the map information detection unit 19g detects map information including at least characters and a map symbol with respect to an image corresponding to the image data generated by the imaging device 6. Specifically, in the case of the image shown in FIG. 5, the map information detection unit 19g detects characters and map symbols included near the center of the image W1, for example, “first small” as characters and “text” as the map symbol. ”Is detected.

続いて、システムコントローラ19は、地図情報検出部19gが画像内で検出した地図情報を表示部13に強調表示させる(ステップS107)。   Subsequently, the system controller 19 highlights the map information detected in the image by the map information detection unit 19g on the display unit 13 (step S107).

図6は、撮像装置1が地図撮影モードで地図案内板を撮影する際に表示部13が表示する画像の一例を示す図である。図6に示す画像W2のように、システムコントローラ19は、地図情報検出部19gが検出した地図記号、たとえば文字列「第1小」と地図記号「文」とを矩形状の枠で囲むように枠B1,B2を表示部13に表示させる。これにより、ユーザは、表示部13に表示されるライブビュー画像を見ながら、リアルタイムに画像内から文字や地図記号等を検出することができるか否かを判断することができる。なお、図6においては、画像内の文字や地図記号の全てを矩形状の枠で表示させているが、矩形状の枠で表示する文字や地図記号の数に制限を設けてもよい。さらに、システムコントローラ19は、地図情報検出部19gが検出した地図記号を矩形状の枠で表示部13に表示させているが、たとえば円等でもよく、適宜変更することが可能である。   FIG. 6 is a diagram illustrating an example of an image displayed on the display unit 13 when the imaging apparatus 1 captures a map guide board in the map capturing mode. As shown in the image W2 in FIG. 6, the system controller 19 surrounds the map symbol detected by the map information detection unit 19g, for example, the character string “first small” and the map symbol “sentence” with a rectangular frame. Frames B1 and B2 are displayed on the display unit 13. Thereby, the user can determine whether a character, a map symbol, or the like can be detected from the image in real time while viewing the live view image displayed on the display unit 13. In FIG. 6, all characters and map symbols in the image are displayed in a rectangular frame, but the number of characters and map symbols displayed in a rectangular frame may be limited. Furthermore, although the system controller 19 displays the map symbol detected by the map information detection unit 19g on the display unit 13 with a rectangular frame, it may be a circle or the like, and can be changed as appropriate.

ステップS108において、システムコントローラ19は、ユーザによってレリーズスイッチ12bが操作(全押)されて撮影を指示するレリーズ信号が入力されたか否かを判断する。撮影を指示するレリーズ信号が入力されていない場合(ステップS108:No)、撮像装置1はステップS106に戻り、撮影を指示するレリーズ信号が入力されるまで、一定の時間間隔、たとえば1秒毎にこの処理を繰り返す。一方、撮影を指示するレリーズ信号が入力された場合(ステップS108:Yes)、撮像装置1はステップS109に移行する。   In step S108, the system controller 19 determines whether or not the release switch 12b is operated (fully pressed) by the user and a release signal instructing photographing is input. When the release signal instructing shooting is not input (step S108: No), the imaging apparatus 1 returns to step S106, and until a release signal instructing shooting is input, for example, every one second. This process is repeated. On the other hand, when a release signal instructing photographing is input (step S108: Yes), the imaging device 1 proceeds to step S109.

続いて、システムコントローラ19は、被写体に対して撮影を行い、撮像素子6によって生成された画像データを揮発性メモリ17のワークエリア17aに一時的に記憶させる(ステップS109)。   Subsequently, the system controller 19 shoots the subject, and temporarily stores the image data generated by the image sensor 6 in the work area 17a of the volatile memory 17 (step S109).

その後、ヘッダ情報生成部19iは、地図情報検出部19gが画像内から検出した地図情報の位置を、画像の中心を座標の原点とする座標系で見たときの座標点に対応付けて他の情報も含むヘッダ情報を生成する(ステップS110)。   Thereafter, the header information generating unit 19i associates the position of the map information detected from the image by the map information detecting unit 19g with the coordinate point when viewed in the coordinate system with the center of the image as the origin of the coordinate, Header information including information is generated (step S110).

続いて、画像ファイル生成部19jは、揮発性メモリ17のワークエリア17aに一時的に記憶された画像データに、ヘッダ情報生成部19iが生成したヘッダ情報を付加して画像ファイルを生成し(ステップS111)、撮像装置1は後述するステップS112に移行する。   Subsequently, the image file generation unit 19j generates an image file by adding the header information generated by the header information generation unit 19i to the image data temporarily stored in the work area 17a of the volatile memory 17 (Step S1). (S111), the imaging apparatus 1 proceeds to step S112 to be described later.

ここで、図3に示すステップS111で画像ファイル生成部19jが生成する画像ファイルのデータ構造について説明する。図7は、画像ファイル生成部19jが生成する画像ファイルのデータ構造を示す図である。図7に示すように、画像ファイルF1は、画像データを生成した際のヘッダ情報H1および画像データD1から構成される。なお、本実施の形態では、画像データとして地図案内板O1(図4を参照)を撮影した地図画像を例に説明するが、たとえば被写体として人物や風景等の画像データであってもよい。   Here, the data structure of the image file generated by the image file generation unit 19j in step S111 shown in FIG. 3 will be described. FIG. 7 is a diagram illustrating a data structure of an image file generated by the image file generation unit 19j. As shown in FIG. 7, the image file F1 includes header information H1 and image data D1 when image data is generated. In the present embodiment, a map image obtained by photographing the map guide board O1 (see FIG. 4) will be described as an example of image data. However, for example, image data such as a person or a landscape may be used as a subject.

ヘッダ情報H1は、撮影時刻H11と、撮影条件H12と、撮影モードH13と、位置情報H14と、方位情報H15と、方位検出情報H16と、縮尺マーク検出情報H17と、文字記号検出情報H18とを有する。なお、ヘッダ情報H1は、上述した以外の撮影に関する情報を有してもよい。   The header information H1 includes shooting time H11, shooting conditions H12, shooting mode H13, position information H14, azimuth information H15, azimuth detection information H16, scale mark detection information H17, and character / symbol detection information H18. Have. Note that the header information H1 may include information related to shooting other than those described above.

撮影条件H12には、撮像装置1の撮影に関する条件、たとえば露出条件、Tv値、Av値およびカラーバランス等が記載されている。撮影モードH13には、撮像装置1の撮影モードに関する情報が記載されている。位置情報H14には、撮像装置1の位置情報が記載されている。この位置情報H14は、システムコントローラ19がGPS受信部18を介して衛星から受信した衛星の軌道情報に基づいて検出した撮像装置1の位置が記載されている。方位情報H15には、方位検出部10が検出した方位情報が記載されている。   The shooting condition H12 describes conditions related to shooting by the imaging apparatus 1, such as exposure conditions, Tv value, Av value, color balance, and the like. In the shooting mode H13, information related to the shooting mode of the imaging apparatus 1 is described. In the position information H14, position information of the imaging device 1 is described. The position information H14 describes the position of the imaging device 1 detected by the system controller 19 based on the satellite orbit information received from the satellite via the GPS receiver 18. The azimuth information detected by the azimuth detector 10 is written in the azimuth information H15.

方位検出情報H16には、方位検出情報の有無H161と、方位マークの検出位置H162と、画像上の方位マークの方向H163とが記載されている。検出位置H162には、画像データD1に対応する画像の中心を原点とし、画像の垂直方向の位置と水平方向の位置とを成分とする座標系で見たときの座標が記載されている。方向H163には、撮像装置1の表示部13の画面を水平状態にした場合において、画面の中心から画面内の垂直方向に伸びる方向を基準(0度)として右回りにみたときに、方位検出部10が検出した指定方位と方位マークの指定方位(北)との差(θ)が記載されている。   The direction detection information H16 describes the presence / absence H161 of the direction detection information, the detection position H162 of the direction mark, and the direction H163 of the direction mark on the image. The detection position H162 describes the coordinates when viewed in a coordinate system in which the center of the image corresponding to the image data D1 is the origin and the vertical position and horizontal position of the image are components. In the direction H163, when the screen of the display unit 13 of the imaging apparatus 1 is in a horizontal state, the direction is detected when viewed clockwise from a direction extending from the center of the screen in the vertical direction in the screen as a reference (0 degree). A difference (θ) between the designated orientation detected by the unit 10 and the designated orientation (north) of the orientation mark is described.

縮尺マーク検出情報H17には、縮尺マーク検出の有無H171と、縮尺マークの検出位置H172と、画像上の縮尺マークの長さH173とが記載されている。検出位置H172には、地図情報検出部19gが画像データから縮尺マークを検出した座標点が記載されている。長さH173には、画像上における縮尺マークの長さと、画像の縮尺比率とが記載されている。   The scale mark detection information H17 describes whether or not a scale mark is detected H171, a scale mark detection position H172, and a scale mark length H173 on the image. In the detection position H172, the coordinate point at which the map information detection unit 19g detects the scale mark from the image data is described. The length H173 describes the length of the scale mark on the image and the scale ratio of the image.

文字記号検出情報H18には、少なくとも文字記号検出の有無H181と、文字記号を検出した数H182と、文字の検出位置H183と、検出した文字H184とが記載されている。検出位置H183には、地図情報検出部19gが画像データD1から文字記号を検出した座標点が記載されている。文字H184には、地図情報検出部19gが画像データD1から検出した文字記号の内容が記載されている。文字記号検出情報H18には、地図情報検出部19gによって検出された文字記号が全て記載されている。   The character symbol detection information H18 includes at least a character symbol detection presence / absence H181, a character symbol detection number H182, a character detection position H183, and a detected character H184. In the detection position H183, the coordinate point where the map information detection unit 19g detects the character symbol from the image data D1 is described. In the character H184, the content of the character symbol detected from the image data D1 by the map information detection unit 19g is described. In the character symbol detection information H18, all character symbols detected by the map information detection unit 19g are described.

ここで、図3に戻り、ステップS112以降の処理について説明する。ステップS112において、システムコントローラ19は、画像ファイル生成部19jが生成した画像ファイルを圧縮・伸長部19bで圧縮等の処理を施してメモリカード15aに記憶させ(ステップS112)、撮像装置1はステップS101に戻る。   Here, returning to FIG. 3, the processing after step S112 will be described. In step S112, the system controller 19 performs processing such as compression on the image file generated by the image file generation unit 19j by the compression / decompression unit 19b and stores it in the memory card 15a (step S112), and the imaging apparatus 1 performs step S101. Return to.

つぎに、ステップS102において、撮像装置1が地図撮影モードに設定されていない場合(ステップS102:No)について説明する。この場合、システムコントローラ19は、メモリカード15aに記憶された画像データを再生する再生表示処理(ステップS113)を実行し、撮像装置1はステップS101に戻る。   Next, a case where the imaging device 1 is not set to the map shooting mode in step S102 (step S102: No) will be described. In this case, the system controller 19 executes a reproduction display process (step S113) for reproducing the image data stored in the memory card 15a, and the imaging apparatus 1 returns to step S101.

つぎに、ステップS113の再生表示処理について説明する。図8は、図3に示す再生表示処理の概要を示すフローチャートである。図8において、まず、システムコントローラ19は、メモリカード15aに記憶された複数の画像(サムネイル画像)をまとめて表示した画像選択画面を表示部13に表示させる(ステップS201)。   Next, the reproduction display process in step S113 will be described. FIG. 8 is a flowchart showing an overview of the reproduction display process shown in FIG. In FIG. 8, first, the system controller 19 causes the display unit 13 to display an image selection screen in which a plurality of images (thumbnail images) stored in the memory card 15a are displayed together (step S201).

続いて、システムコントローラ19は、ユーザによって表示部13が表示する画像選択画面の中から画像が選択されたか否かを判断する(ステップS202)。ユーザによって画像選択画面の中から画像が選択された場合(ステップS202:Yes)、撮像装置1はステップS203に移行する。一方、ユーザによって画像選択画面の中から画像が選択されない場合(ステップS202:No)、撮像装置1は後述するステップS222に移行する。   Subsequently, the system controller 19 determines whether an image is selected from the image selection screen displayed on the display unit 13 by the user (step S202). When an image is selected from the image selection screen by the user (step S202: Yes), the imaging device 1 proceeds to step S203. On the other hand, when an image is not selected from the image selection screen by the user (step S202: No), the imaging apparatus 1 proceeds to step S222 described later.

まず、ユーザによって画像選択画面の中から画像が選択された場合(ステップS202:Yes)について説明する。この場合、システムコントローラ19は、ユーザによって選択された画像を表示部13に全画面表示させ(ステップS203)、撮像装置1はステップS204に移行する。   First, a case where an image is selected from the image selection screen by the user (step S202: Yes) will be described. In this case, the system controller 19 causes the display unit 13 to display the image selected by the user on the full screen (step S203), and the imaging apparatus 1 proceeds to step S204.

続いて、システムコントローラ19は、表示部13によって表示されている画像が地図モードで撮影された画像であるか否かを判断する(ステップS204)。具体的には、システムコントローラ19は、現在表示している画像の画像ファイルに含まれるヘッダ情報に記載された撮影モード情報に基づいて、表示部13によって表示されている画像が地図モードで撮影された画像であるか否かを判断する。表示部13によって表示されている画像が地図モードで撮影された画像である場合(ステップS204:Yes)、撮像装置1はステップS205に移行する。一方、表示部13によって表示されている画像が地図モードで撮影された画像でない場合(ステップS204:No)、撮像装置1は後述するステップS227に移行する。   Subsequently, the system controller 19 determines whether or not the image displayed by the display unit 13 is an image taken in the map mode (step S204). Specifically, the system controller 19 captures the image displayed by the display unit 13 in the map mode based on the capture mode information described in the header information included in the image file of the currently displayed image. It is determined whether the image is an image. When the image displayed by the display unit 13 is an image captured in the map mode (step S204: Yes), the imaging device 1 proceeds to step S205. On the other hand, when the image displayed by the display unit 13 is not an image captured in the map mode (step S204: No), the imaging device 1 proceeds to step S227 described later.

まず、表示部13によって表示されている画像が地図モードで撮影された画像である場合(ステップS204:Yes)について説明する。この場合、システムコントローラ19は、現在表示している画像の画像ファイルに含まれるヘッダ情報に方位情報が記載されているか否かを判断する(ステップS205)。現在表示している画像の画像ファイルに含まれるヘッダ情報に方位情報が記載されている場合(ステップS205:Yes)、撮像装置1は後述するステップS217に移行する。一方、現在表示している画像の画像ファイルに含まれるヘッダ情報に方位情報が記載されていない場合(ステップS205:No)、撮像装置1は後述するステップS206に移行する。   First, a case where the image displayed by the display unit 13 is an image taken in the map mode (step S204: Yes) will be described. In this case, the system controller 19 determines whether or not the orientation information is described in the header information included in the image file of the currently displayed image (step S205). When the orientation information is described in the header information included in the image file of the currently displayed image (step S205: Yes), the imaging apparatus 1 proceeds to step S217 described later. On the other hand, when the orientation information is not described in the header information included in the image file of the currently displayed image (step S205: No), the imaging apparatus 1 proceeds to step S206 described later.

まず、現在表示している画像の画像ファイルに含まれるヘッダ情報に方位情報が記載されていない場合(ステップS205:No)について説明する。この場合、システムコントローラ19は、表示部13が表示する画像上に表示部13の表示画面を水平にする旨のアイコンを表示部13に表示させる(ステップS206)。具体的には、図9に示すように、システムコントローラ19は、表示部13が表示する画像W1上にアイコンA1を表示部13に表示させる。アイコンA1は、ユーザに表示部13を水平状態に指示するためのアイコンである。なお、本実施の形態では、システムコントローラ19は、表示部13にアイコンA1を表示させているが、たとえば音声入出力部11による音声等で報知するようにしてもよい。   First, a case where the orientation information is not described in the header information included in the image file of the currently displayed image (step S205: No) will be described. In this case, the system controller 19 causes the display unit 13 to display an icon indicating that the display screen of the display unit 13 is horizontal on the image displayed by the display unit 13 (step S206). Specifically, as illustrated in FIG. 9, the system controller 19 causes the display unit 13 to display an icon A1 on an image W1 displayed on the display unit 13. The icon A1 is an icon for instructing the display unit 13 in a horizontal state to the user. In the present embodiment, the system controller 19 displays the icon A1 on the display unit 13. However, the system controller 19 may notify the user by, for example, a voice by the voice input / output unit 11.

続いて、システムコントローラ19は、姿勢検出部9の検出結果に応じて撮像装置1が水平状態になったか否かを判断する(ステップS207)。撮像装置1が水平状態になっていない場合(ステップS207:No)、撮像装置1はステップS206に戻る。一方、撮像装置1が水平状態になった場合(ステップS207:Yes)、撮像装置1はステップS208に移行する。   Subsequently, the system controller 19 determines whether or not the imaging apparatus 1 is in a horizontal state according to the detection result of the posture detection unit 9 (step S207). When the imaging device 1 is not in a horizontal state (step S207: No), the imaging device 1 returns to step S206. On the other hand, when the imaging device 1 is in a horizontal state (step S207: Yes), the imaging device 1 proceeds to step S208.

その後、システムコントローラ19は、表示部13が表示する画像上に画像の方位を設定する旨のアイコンを表示部13に表示させる(ステップS208)。具体的には、図10に示すように、システムコントローラ19は、表示部13が表示する画像W1上に画像の方位を設定する旨のアイコンA2,A3を表示部13に表示させる。アイコンA2は、ユーザによる方位設定のためのアイコンである。アイコンA3は、方位検出部10による方位設定のためのアイコンである。   Thereafter, the system controller 19 causes the display unit 13 to display an icon for setting the image orientation on the image displayed by the display unit 13 (step S208). Specifically, as shown in FIG. 10, the system controller 19 causes the display unit 13 to display icons A <b> 2 and A <b> 3 for setting the image orientation on the image W <b> 1 displayed on the display unit 13. The icon A2 is an icon for setting the direction by the user. The icon A3 is an icon for setting the direction by the direction detection unit 10.

続いて、システムコントローラ19は、ユーザによる方位設定のアイコンが選択されたか否かを判断する(ステップS209)。具体的には、システムコントローラ19は、タッチパネル14の外部からの接触位置に応じた信号の入力により、アイコンA2(図10を参照)が選択されたか否かを判断する。アイコンA2が選択された場合(ステップS209:Yes)、撮像装置1はステップS210に移行する。一方、アイコンA2が選択されていない場合(ステップS209:No)、撮像装置1は後述するステップS213に移行する。   Subsequently, the system controller 19 determines whether an orientation setting icon by the user has been selected (step S209). Specifically, the system controller 19 determines whether or not the icon A <b> 2 (see FIG. 10) is selected by inputting a signal corresponding to the contact position from the outside of the touch panel 14. When the icon A2 is selected (step S209: Yes), the imaging device 1 proceeds to step S210. On the other hand, when the icon A2 is not selected (step S209: No), the imaging device 1 proceeds to step S213 described later.

まず、アイコンA2が選択された場合(ステップS209:Yes)について説明する。この場合、システムコントローラ19は、タッチパネル14の外部からの物体の接触位置に応じた信号が入力されたか否かを判断する。外部からの物体の接触位置に応じた信号が入力されていない場合(ステップS210:No)、システムコントローラ19は、この判断を繰り返す。一方、外部からの物体の接触位置に応じた信号が入力された場合(ステップS210:Yes)、撮像装置1はステップS211に移行する。   First, the case where the icon A2 is selected (step S209: Yes) will be described. In this case, the system controller 19 determines whether or not a signal corresponding to the contact position of the object from the outside of the touch panel 14 is input. When the signal according to the contact position of the object from the outside is not input (step S210: No), the system controller 19 repeats this determination. On the other hand, when the signal according to the contact position of the object from the outside is input (step S210: Yes), the imaging device 1 proceeds to step S211.

続いて、方位設定部19hは、タッチパネル14における外部からの物体が接触した軌跡に応じて、表示部13が表示する画像内で基準となる基準方位を設定する(ステップS211)。   Subsequently, the azimuth setting unit 19h sets a reference azimuth serving as a reference in the image displayed on the display unit 13 in accordance with the trajectory of an external object touching the touch panel 14 (step S211).

図11に示すように、ユーザが右手の人差し指でタッチパネル14に接触しながら表示部13が表示する画像W1上の上側から下側に向けて移動させた場合(図11(a))、方位設定部19hは、ユーザが人差し指でタッチパネル14に接触した軌跡、たとえばユーザが人差し指でタッチパネル14に最初に接触した始点とユーザがタッチパネル14から人差し指を離した終点とを結ぶ直線に応じて、画像内で基準となる基準方位b1として設定する(図11(b))。図11の場合、方位設定部19hは、画像の中心から画面下側に延びる垂直方向を基準方位b1(北)として設定する。   As shown in FIG. 11, when the user moves from the upper side to the lower side on the image W1 displayed on the display unit 13 while touching the touch panel 14 with the index finger of the right hand (FIG. 11 (a)), the orientation setting is performed. The unit 19h is used in the image in accordance with a trajectory where the user touches the touch panel 14 with the index finger, for example, a straight line connecting a starting point where the user first touches the touch panel 14 with the index finger and an end point where the user releases the index finger from the touch panel 14. It is set as a reference orientation b1 as a reference (FIG. 11B). In the case of FIG. 11, the azimuth setting unit 19h sets the vertical direction extending from the center of the image to the lower side of the screen as the reference azimuth b1 (north).

ステップS212において、システムコントローラ19は、方位設定部19hが設定した基準方位を表示部13が現在表示している画像データにおけるヘッダ情報の方位情報として記憶させる(ステップS212)。具体的には、システムコントローラ19は、ヘッダ情報H1の方向H163(図7を参照)に方位設定部19hが設定した基準方位を方位情報として記憶させる。これにより、システムコントローラ19は、画像データのヘッダ情報に方位情報を対応付けてメモリカード15aに記憶させることができる。   In step S212, the system controller 19 stores the reference azimuth set by the azimuth setting unit 19h as the azimuth information of the header information in the image data currently displayed on the display unit 13 (step S212). Specifically, the system controller 19 stores the reference orientation set by the orientation setting unit 19h in the direction H163 (see FIG. 7) of the header information H1 as orientation information. As a result, the system controller 19 can store the azimuth information in association with the header information of the image data in the memory card 15a.

つぎに、アイコンA2が選択されていない場合(ステップS209:No)について説明する。この場合、システムコントローラ19は、ユーザによってアイコンA3が選択されたか否かを判断する(ステップS213)。ユーザによってアイコンA3が選択されていない場合(ステップS213:No)、撮像装置1はステップS208に戻る。一方、ユーザによってアイコンA3が選択された場合(ステップS213:Yes)、撮像装置1はステップS214に移行する。   Next, a case where the icon A2 is not selected (step S209: No) will be described. In this case, the system controller 19 determines whether or not the icon A3 is selected by the user (step S213). When the icon A3 is not selected by the user (step S213: No), the imaging device 1 returns to step S208. On the other hand, when the icon A3 is selected by the user (step S213: Yes), the imaging device 1 proceeds to step S214.

続いて、システムコントローラ19は、方位検出部10が検出した指定方位を表示部13に表示させる(ステップS214)。   Subsequently, the system controller 19 displays the designated direction detected by the direction detection unit 10 on the display unit 13 (step S214).

その後、システムコントローラ19は、タッチパネル14の外部からの物体の接触位置に応じた信号が入力されたか否かを判断する(ステップS215)。具体的には、システムコントローラ19は、ユーザがタッチパネル14をタッチしたか否かを判断する。タッチパネル14の外部からの物体の接触位置に応じた信号が入力されていない場合(ステップS215:No)、撮像装置1はステップS214に戻る。一方、タッチパネル14の外部からの物体の接触位置に応じた信号が入力された場合(ステップS215:Yes)、撮像装置1はステップS216に移行する。   Thereafter, the system controller 19 determines whether or not a signal corresponding to the contact position of the object from the outside of the touch panel 14 has been input (step S215). Specifically, the system controller 19 determines whether or not the user has touched the touch panel 14. When the signal according to the contact position of the object from the outside of the touch panel 14 is not input (step S215: No), the imaging device 1 returns to step S214. On the other hand, when the signal according to the contact position of the object from the outside of the touch panel 14 is input (step S215: Yes), the imaging device 1 proceeds to step S216.

続いて、方位設定部19hは、表示部13が現在画像上で表示している指定方向を画像で基準となる基準方位として設定し(ステップS216)、撮像装置1は212に移行する。   Subsequently, the azimuth setting unit 19h sets the designated direction currently displayed on the image by the display unit 13 as a reference azimuth as a reference in the image (step S216), and the imaging apparatus 1 proceeds to 212.

図12は、方位設定部19hが設定する基準方位を説明する図である。図12に示すように、まず、システムコントローラ19は、方位検出部10が検出した指定方位R1を表示部13に表示させる(図12(a))。続いて、ユーザは、表示部13が表示する指定方位R1に応じて撮像装置1を水平状態に維持したまま所定の方向、たとえば右回りに回転(180度)させることにより、画像W1内の方位マークが示す北に方位検出部10が検出する指定方位R1を一致させる(図12(b))。その後、方位設定部19hは、ユーザが右手の人差し指でタッチパネル14にタッチした際(図12(b))に表示部13が現在表示している指定方位R1を基準方位b2として設定する(図12(c))。これにより、ユーザは、地図情報検出部19gが方位マークを検出することができなくとも、手動で撮像装置1を動かすことにより基準方位を設定することができる。   FIG. 12 is a diagram illustrating the reference azimuth set by the azimuth setting unit 19h. As shown in FIG. 12, first, the system controller 19 displays the designated direction R1 detected by the direction detection unit 10 on the display unit 13 (FIG. 12A). Subsequently, the user rotates the imaging apparatus 1 in a predetermined direction, for example, clockwise (180 degrees) while maintaining the horizontal state in accordance with the designated orientation R1 displayed on the display unit 13, thereby causing the orientation in the image W1. The designated direction R1 detected by the direction detection unit 10 is made to coincide with the north indicated by the mark (FIG. 12B). Thereafter, the orientation setting unit 19h sets the designated orientation R1 currently displayed on the display unit 13 as the reference orientation b2 when the user touches the touch panel 14 with the index finger of the right hand (FIG. 12B) (FIG. 12). (C)). Thereby, even if the map information detection unit 19g cannot detect the orientation mark, the user can set the reference orientation by manually moving the imaging device 1.

ここで、図8に戻り、ステップS212に続く処理について説明する。ステップS217において、システムコントローラ19は、表示部を水平にする旨のアイコンA1(図9を参照)を表示部13に表示させ、撮像装置1はステップS217に移行する。   Here, returning to FIG. 8, the processing following step S212 will be described. In step S217, the system controller 19 causes the display unit 13 to display an icon A1 (see FIG. 9) indicating that the display unit is horizontal, and the imaging apparatus 1 proceeds to step S217.

続いて、システムコントローラ19は、姿勢検出部9の検出結果に応じて撮像装置1が水平状態になったか否かを判断する(ステップS218)。撮像装置1が水平状態になっていない場合(ステップS218:No)、撮像装置1はステップS217に戻る。一方、撮像装置1が水平状態になった場合(ステップS218:Yes)、撮像装置1はステップS219に移行する。   Subsequently, the system controller 19 determines whether or not the imaging apparatus 1 is in a horizontal state according to the detection result of the posture detection unit 9 (step S218). When the imaging device 1 is not in a horizontal state (step S218: No), the imaging device 1 returns to step S217. On the other hand, when the imaging device 1 is in a horizontal state (step S218: Yes), the imaging device 1 proceeds to step S219.

その後、方位検出部10は、撮像装置1を水平状態にした際の撮像装置1の指定方位を検出する(ステップS219)。   Thereafter, the azimuth detecting unit 10 detects the designated azimuth of the imaging device 1 when the imaging device 1 is set in a horizontal state (step S219).

続いて、方位判定部19kは、方位検出部10が検出した指定方位が基準方位に一致しているか否かを判定する(ステップS220)。指定方位が基準方位に一致している場合(ステップS220:Yes)、撮像装置1はステップS221に移行する。一方、指定方位が基準方位に一致していない場合(ステップS220:No)、撮像装置1は後述するステップS223に移行する。   Subsequently, the orientation determination unit 19k determines whether or not the designated orientation detected by the orientation detection unit 10 matches the reference orientation (step S220). When the designated azimuth matches the reference azimuth (step S220: Yes), the imaging device 1 proceeds to step S221. On the other hand, when the designated orientation does not match the reference orientation (step S220: No), the imaging apparatus 1 proceeds to step S223 described later.

まず、指定方位が基準方位に一致している場合(ステップS220:Yes)について説明する。この場合、システムコントローラ19は、ユーザによって操作スイッチ12dが操作され、表示部13が現在表示している画像を変更させる指示信号が入力されたか否かを判断する(ステップS221)。画像を変更させる指示信号が入力されていない場合(ステップS221:No)、撮像装置1はステップS219に戻り、方位判定部19kに指定方位が基準方位に一致しているか否かを所定の時間間隔、たとえば3秒間隔で判定させる。一方、画像を変更させる指示信号が入力された場合(ステップS221:Yes)、撮像装置1はステップS222に移行する。   First, the case where the designated orientation matches the reference orientation (step S220: Yes) will be described. In this case, the system controller 19 determines whether or not the operation switch 12d is operated by the user and an instruction signal for changing the image currently displayed on the display unit 13 is input (step S221). When the instruction signal for changing the image is not input (step S221: No), the imaging apparatus 1 returns to step S219, and the azimuth determination unit 19k determines whether or not the designated azimuth matches the reference azimuth. For example, the determination is made at intervals of 3 seconds. On the other hand, when the instruction signal for changing the image is input (step S221: Yes), the imaging apparatus 1 proceeds to step S222.

続いて、システムコントローラ19は、ユーザによってモード切換スイッチ12cが操作され、画像再生を終了する終了指示信号が入力されたか否かを判断する(ステップS222)。画像再生を終了する終了指示信号が入力されてない場合(ステップS222:No)、撮像装置1はステップS201に戻る。一方、画像再生を終了する終了指示信号が入力された場合(ステップS222:Yes)、撮像装置1は図3に示すメインルーチンに戻る。   Subsequently, the system controller 19 determines whether or not the mode changeover switch 12c is operated by the user and an end instruction signal for ending the image reproduction is input (step S222). When the end instruction signal for ending the image reproduction is not input (step S222: No), the imaging apparatus 1 returns to step S201. On the other hand, when the end instruction signal for ending the image reproduction is input (step S222: Yes), the imaging apparatus 1 returns to the main routine shown in FIG.

つぎに、指定方位が基準方位に一致していない場合(ステップS220:No)について説明する。この場合、システムコントローラ19は、表示部13が表示する画像を、表示部13の表示画面の中心を通過し、この表示画面と直交する軸を中心軸として回転させて、方位設定部19hが設定した基準方位を方位検出部10が検出した指定方位に一致させる(ステップS223)。   Next, a case where the designated orientation does not match the reference orientation (step S220: No) will be described. In this case, the system controller 19 passes the center of the display screen of the display unit 13 through the center of the display screen of the display unit 13, rotates the axis orthogonal to the display screen as the central axis, and the direction setting unit 19h sets the image. The determined reference azimuth is matched with the designated azimuth detected by the azimuth detecting unit 10 (step S223).

続いて、システムコントローラ19は、姿勢検出部9の検出結果に応じて、撮像装置1が回転しているか否かを判断する(ステップS224)。具体的には、システムコントローラ19は、ユーザによって撮像装置1が回転させられることによって生じる加速度を姿勢検出部9が検出しているか否かを判断する。システムコントローラ19によって撮像装置1が回転していないと判断された場合(ステップS224:No)、撮像装置1は後述するステップS226に移行する。一方、システムコントローラ19によって撮像装置1が回転していると判断された場合(ステップS224:Yes)、撮像装置1はステップS225に移行する。   Subsequently, the system controller 19 determines whether or not the imaging device 1 is rotating according to the detection result of the posture detection unit 9 (step S224). Specifically, the system controller 19 determines whether or not the posture detection unit 9 detects an acceleration that is generated when the imaging device 1 is rotated by the user. When the system controller 19 determines that the imaging device 1 is not rotating (step S224: No), the imaging device 1 proceeds to step S226 described later. On the other hand, when the system controller 19 determines that the imaging device 1 is rotating (step S224: Yes), the imaging device 1 proceeds to step S225.

ステップS225において、システムコントローラ19は、姿勢検出部9の検出結果に応じて、撮像装置1の回転が停止したか否かを判断する。システムコントローラ19が撮像装置1の回転が停止していないと判断した場合(ステップS225:No)、システムコントローラ19は、この判断処理を続ける。一方、システムコントローラ19が撮像装置1の回転が停止したと判断した場合(ステップS225:Yes)、撮像装置1はステップS226に移行する。   In step S225, the system controller 19 determines whether or not the rotation of the imaging device 1 has stopped according to the detection result of the posture detection unit 9. When the system controller 19 determines that the rotation of the imaging device 1 has not stopped (step S225: No), the system controller 19 continues this determination process. On the other hand, when the system controller 19 determines that the rotation of the imaging device 1 has stopped (step S225: Yes), the imaging device 1 proceeds to step S226.

続いて、システムコントローラ19は、撮像装置1の回転に応じて、表示部13が表示する画像を全画面表示または縮小して表示部13に表示させ(ステップS226)、撮像装置1はステップS221に移行する。   Subsequently, the system controller 19 displays the image displayed on the display unit 13 on the full screen or reduced and displays the image on the display unit 13 in accordance with the rotation of the imaging device 1 (step S226), and the imaging device 1 proceeds to step S221. Transition.

図13は、システムコントローラ19が表示部13によって表示される画像を回転させて画像の基準方位を指定方位に一致させる状況を示す図である。図13に示すように、システムコントローラ19は、方位設定部19hによって設定された基準方位b1と方位検出部10が検出した指定方位R1とが異なっているため(図13(a))、基準方位b1が指定方位R1に一致するまで画像を回転させる(図13(b))。この場合、システムコントローラ19は、表示部13の表示画面の縦と横との比率が異なるため、画像W1をそのまま大きさで、たとえば右回りに90度回転させると表示部13の表示画面から画像W1がはみ出す。このため、システムコントローラ19は、画像W1が回転することにより表示部13の表示画面からはみ出す場合、縮小画像生成部19lに縮小画像W3を生成させ、この縮小画像W3を回転させて基準方位b1と指定方位R1とを一致させる。さらに、システムコントローラ19は、ユーザが撮像装置1を水平状態に維持したまま、撮像装置1を左回りに回転させた場合、縮小画像W3に変えて表示部13の画面に一致する元の画像W1を表示部13に全画面表示させる(図13(c))。これにより、ユーザが撮像装置1を保持しながら移動しても、システムコントローラ19が方位判定部19kの判定結果に応じて表示部13が表示する画像を回転させるので、ユーザが画像内の方位を間違うことがなく目的地までたどり着くことができる。なお、図13では、システムコントローラ19は、表示部13が表示する画像を回転することにより、方位設定部19hが設定した基準方位を方位検出部10が検出した指定方位に一致させていたが、画像内の方位マークの北に方位検出部19が検出した指定方位を一致させてもよい。   FIG. 13 is a diagram illustrating a situation in which the system controller 19 rotates the image displayed by the display unit 13 so that the reference orientation of the image matches the designated orientation. As shown in FIG. 13, the system controller 19 differs from the reference orientation b1 set by the orientation setting unit 19h and the designated orientation R1 detected by the orientation detection unit 10 (FIG. 13 (a)). The image is rotated until b1 matches the designated orientation R1 (FIG. 13B). In this case, since the ratio between the length and the width of the display screen of the display unit 13 is different, the system controller 19 keeps the size of the image W1 as it is, for example, by rotating it 90 degrees clockwise, the image is displayed from the display screen of the display unit 13. W1 protrudes. Therefore, the system controller 19 causes the reduced image generation unit 19l to generate a reduced image W3 when the image W1 is rotated so as to protrude from the display screen of the display unit 13, and rotates the reduced image W3 to obtain the reference orientation b1. The designated orientation R1 is matched. Further, when the user rotates the imaging device 1 counterclockwise while the imaging device 1 is maintained in a horizontal state, the system controller 19 changes the reduced image W3 to the original image W1 that matches the screen of the display unit 13. Is displayed on the display unit 13 on the full screen (FIG. 13C). Thus, even if the user moves while holding the imaging device 1, the system controller 19 rotates the image displayed on the display unit 13 in accordance with the determination result of the azimuth determining unit 19k. You can get to your destination without making a mistake. In FIG. 13, the system controller 19 rotates the image displayed on the display unit 13 to match the reference direction set by the direction setting unit 19 h with the designated direction detected by the direction detection unit 10. The designated direction detected by the direction detection unit 19 may be made to coincide with the north of the direction mark in the image.

ここで、ステップS204において、表示部13が表示する画像が地図モードで撮影された画像でない場合(ステップS204:No)について説明する。この場合、システムコントローラ19は、表示部13が表示する画像が所定時間表示されたか否かを判断する(ステップS227)。表示部13が表示する画像が所定時間表示されていない場合(ステップS227:No)、システムコントローラ19はこの判断を繰り返す。一方、表示部13が表示する画像が所定時間表示されている場合(ステップS227:Yes)、撮像装置1はステップS222に移行する。   Here, a case where the image displayed on the display unit 13 is not an image photographed in the map mode in step S204 (step S204: No) will be described. In this case, the system controller 19 determines whether or not the image displayed on the display unit 13 has been displayed for a predetermined time (step S227). When the image displayed on the display unit 13 is not displayed for a predetermined time (step S227: No), the system controller 19 repeats this determination. On the other hand, when the image displayed on the display unit 13 is displayed for a predetermined time (step S227: Yes), the imaging device 1 proceeds to step S222.

以上説明した本実施の形態では、方位設定部19hが表示部13によって表示されている画像に対し、タッチパネル14における外部からの物体が接触した軌跡に応じて画像内で基準となる基準方位を設定し、システムコントローラ19が方位設定部19hによって設定された基準方位を画像データのヘッダ情報に方位情報としてメモリカード15aに記憶させる制御を行う。これにより、ユーザは、撮影した画像データに方位情報を対応付けて管理することができる。さらに、システムコントローラ19が方位判定部19kの判定結果に応じて表示部13が表示する画像を表示部13の表示画面の中心を通り、この表示画面と直交する軸を中心軸として回転させて、方位設定部19hが設定した基準方位を方位検出部10が検出した指定方位に一致させる制御を行う。この結果、ユーザは、表示部13に表示される画像を見ながら目的地に向かう途中で画像の方位を見失うことがない。   In the present embodiment described above, the azimuth setting unit 19h sets a reference azimuth serving as a reference in the image according to the trajectory of an object touched from the outside on the touch panel 14 with respect to the image displayed by the display unit 13. Then, the system controller 19 performs control to store the reference orientation set by the orientation setting unit 19h in the memory card 15a as orientation information in the header information of the image data. Accordingly, the user can manage the captured image data in association with the orientation information. Furthermore, the system controller 19 rotates the image displayed on the display unit 13 according to the determination result of the azimuth determining unit 19k through the center of the display screen of the display unit 13 and the axis orthogonal to the display screen as a central axis, Control to match the reference azimuth set by the azimuth setting unit 19h with the designated azimuth detected by the azimuth detection unit 10 is performed. As a result, the user does not lose sight of the image orientation on the way to the destination while viewing the image displayed on the display unit 13.

また、本実施の形態によれば、ユーザが地図案内板O1を撮影し、表示部13が撮影した画像を表示するので、ユーザが事前に地図等の印刷物を用意する必要がない。さらに、インターネット等を介して地図データを取得する必要がないので、地図データの取得にかかる料金が発生することがない。   Moreover, according to this Embodiment, since a user image | photographs the map guidance board O1 and the image which the display part 13 image | photographed is displayed, it is not necessary for a user to prepare printed materials, such as a map, in advance. Furthermore, since there is no need to acquire map data via the Internet or the like, there is no charge for acquiring map data.

また、本実施の形態では、方位設定部19hは、タッチパネル14における外部からの物体の接触位置に応じて画像内で基準となる基準方位を設定することも可能である。たとえば、図14に示すように、ユーザは、基準方位を設定するための始点P1と終点P2の2箇所を人差し指でタッチパネル14に接触させることにより、画像内で基準となる基準方位を設定する(図14(a))。その後、方位設定部19hは、ユーザが接触した接触順の早い方から遅い方(P1→P2)を向いたベクトルb3によって、基準方位を設定する(図14(b))。   In the present embodiment, the azimuth setting unit 19h can also set a reference azimuth serving as a reference in the image according to the contact position of an object from the outside on the touch panel 14. For example, as shown in FIG. 14, the user sets a reference azimuth as a reference in the image by bringing the touch panel 14 into contact with the touch panel 14 at two points of a start point P1 and an end point P2 for setting the reference azimuth ( FIG. 14 (a)). Thereafter, the azimuth setting unit 19h sets a reference azimuth by a vector b3 that is directed from the earliest contact order of the user to the later contact (P1 → P2) (FIG. 14B).

また、上述した本実施の形態では、方位設定部19hは、タッチパネル14における外部からの物体が接触した軌跡に応じて基準方位を設定していたが、たとえば、操作スイッチ12dの操作内容に応じて基準方位を設定してもよい。   In the above-described embodiment, the azimuth setting unit 19h sets the reference azimuth according to the trajectory of the touch panel 14 touched by an external object. For example, according to the operation content of the operation switch 12d. A reference orientation may be set.

また、上述した本実施の形態では、方位設定部19hは、メモリカード15aに記憶された画像データを再生する再生表示処理の際に基準方位を設定していたが、たとえば、被写体を撮影した直後に、表示部13に表示される画像に対して基準方位を設定してもよい。   In the above-described embodiment, the azimuth setting unit 19h sets the reference azimuth during the reproduction display process for reproducing the image data stored in the memory card 15a. In addition, a reference orientation may be set for the image displayed on the display unit 13.

また、上述した本実施の形態では、方位設定部19hは、地図画像に対して基準方位を設定していたが、人物や風景等を被写体として撮影した画像に対して基準方位を設定してもよい。   In the above-described embodiment, the azimuth setting unit 19h sets the reference azimuth for the map image. However, the azimuth setting unit 19h may set the reference azimuth for an image obtained by shooting a person or a landscape as a subject. Good.

また、上述した本実施の形態では、地図情報検出部19gが画像内に含まれる地図情報として文字および記号を検出していたが、地図情報として道や建物を検出してもよい。   Moreover, in this Embodiment mentioned above, although the map information detection part 19g detected the character and the symbol as map information contained in an image, you may detect a road and a building as map information.

また、上述した本実施の形態では、ヘッダ情報生成部19iは、地図情報検出部19gが画像内から検出した地図情報の位置を、画像の中心を座標の原点とする座標系で見たときの座標点に対応付けてヘッダ情報を生成しているが、たとえば撮影者による操作スイッチ12dの操作内容に応じて画像内における座標の原点を設定してもよい。   Further, in the above-described embodiment, the header information generation unit 19i is the position of the map information detected from the image by the map information detection unit 19g in the coordinate system with the center of the image as the coordinate origin. Although the header information is generated in association with the coordinate point, for example, the origin of the coordinate in the image may be set according to the operation content of the operation switch 12d by the photographer.

また、上述した本実施の形態では、被写体として地図案内板O1を撮影していたが、たとえば電車の時刻表、印刷物の地図、名刺あるいは本等であってもよい。   In the above-described embodiment, the map guide plate O1 is photographed as a subject. However, for example, a train timetable, a printed map, a business card, a book, or the like may be used.

また、上述した本実施の形態では、システムコントローラ19は、撮像素子6によって生成された画像に対して本処理を行っていたが、たとえば他の撮像装置やインターネットを介して取得した画像を用いて行ってもよい。具体的には、他の撮像装置で撮影された画像を記憶したメモリカード15aを記録媒体インタフェース15に挿入して表示部13に表示させることで本処理を行うようにしてもよい。   In the above-described embodiment, the system controller 19 performs the main process on the image generated by the image sensor 6. For example, the system controller 19 uses an image acquired via another imaging device or the Internet. You may go. Specifically, the present processing may be performed by inserting a memory card 15 a storing an image captured by another imaging device into the recording medium interface 15 and displaying it on the display unit 13.

また、上述した本実施の形態では、地図撮影モードで撮影した画像に対して本処理を行っていたが、たとえば通常の静止画撮影モードで撮影した画像に対して行ってもよい。   Further, in the present embodiment described above, this processing is performed on an image photographed in the map photographing mode. However, for example, it may be performed on an image photographed in a normal still image photographing mode.

また、上述した本実施の形態では、撮影装置1をデジタルカメラとして説明していたが、たとえば、デジタル一眼レフカメラ、デジタルビデオカメラまたはカメラ付き携帯電話等の撮影機能および表示機能を備えた各種電子機器に適用することができる。   In the above-described embodiment, the photographing apparatus 1 has been described as a digital camera. For example, various electronic devices having a photographing function and a display function such as a digital single-lens reflex camera, a digital video camera, or a camera-equipped mobile phone. It can be applied to equipment.

1 撮像装置
2 レンズ部
3 レンズ駆動機構
4 絞り駆動機構
4a 絞り
5 シャッタ駆動機構
5a シャッタ
6 撮像素子
7 信号処理部
8 手ブレ検出部
9 姿勢検出部
10 方位検出部
11 音声入出力部
12 操作入力部
12a 電源スイッチ
12b レリーズスイッチ
12c モード切換スイッチ
12d 操作スイッチ
12e ズームスイッチ
13 表示部
14 タッチパネル
15 記録媒体インタフェース
15a メモリカード
16 不揮発性メモリ
16a プログラムコード
16b 制御パラメータ
16c 地図記号情報メモリ
17 揮発性メモリ
17a ワークエリア
18 GPS受信部
19,20 システムコントローラ
19a 画像処理部
19b 圧縮・伸長部
19c AF制御部
19d AE制御部
19e タイマカウンタ
19f 顔検出部
19g 地図情報検出部
19h 方位設定部
19i ヘッダ情報生成部
19j 画像ファイル生成部
19k 方位判定部
19l 縮小画像生成部
Q 光軸
O1 地図案内板
F1 画像ファイル
H1 ヘッダ情報
D1 画像データ
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Lens part 3 Lens drive mechanism 4 Aperture drive mechanism 4a Aperture 5 Shutter drive mechanism 5a Shutter 6 Image sensor 7 Signal processing part 8 Camera shake detection part 9 Posture detection part 10 Orientation detection part 11 Voice input / output part 12 Operation input Unit 12a Power switch 12b Release switch 12c Mode change switch 12d Operation switch 12e Zoom switch 13 Display unit 14 Touch panel 15 Recording medium interface 15a Memory card 16 Non-volatile memory 16a Program code 16b Control parameter 16c Map symbol information memory 17 Volatile memory 17a Workpiece Area 18 GPS receiving unit 19, 20 System controller 19a Image processing unit 19b Compression / decompression unit 19c AF control unit 19d AE control unit 19e Timer counter 19f Face detection unit 9g map information detecting unit 19h azimuth setting unit 19i header information generating unit 19j image file generation unit 19k azimuth direction determination unit 19l reduced image generation unit Q optical axis O1 map guide plate F1 image file H1 header information D1 image data

Claims (9)

視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する表示部と、前記撮像部が生成する前記画像データを記憶する記憶部とを備えた撮像装置であって、
前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、
前記入力部における外部からの物体が接触した軌跡に応じて、前記画像内で基準となる基準方位を設定する方位設定部と、
前記方位設定部が設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御部と、
を備え
前記制御部は、前記方位設定部が前記基準方位を設定する場合において、前記表示部を水平に指示する旨の情報を前記表示部に表示させることを特徴とする撮像装置。
A lens unit that collects light from the field of view; an imaging unit that generates electronic image data using light collected by the lens unit; and an image corresponding to the image data generated by the imaging unit. An imaging apparatus comprising: a display unit for displaying; and a storage unit for storing the image data generated by the imaging unit,
An input unit that is provided on a display screen of the display unit and receives an input of a signal according to a contact position of an object from outside;
An azimuth setting unit that sets a reference azimuth serving as a reference in the image in accordance with a trajectory in contact with an external object in the input unit;
A control unit that performs control to store the reference azimuth set by the azimuth setting unit in the storage unit as azimuth information included in header information of the image data;
Equipped with a,
The control unit causes the display unit to display information indicating that the display unit is horizontally designated when the azimuth setting unit sets the reference azimuth .
当該撮像装置を水平状態にした際の当該撮像装置で予め指定される指定方位を検出する方位検出部と、
前記方位検出部が検出した前記指定方位が前記基準方位に一致しているか否かを判定する方位判定部と、
を備え、
前記制御部は、前記方位判定部の判定結果に応じて、前記表示部が表示する前記画像を、前記表示部の表示画面の中心を通過し、該表示画面と直交する軸を中心軸として回転させて、前記基準方位を前記指定方位に一致させる制御を行うことを特徴とする請求項1に記載の撮像装置。
An azimuth detecting unit that detects a designated azimuth designated in advance in the imaging device when the imaging device is in a horizontal state;
An orientation determination unit that determines whether or not the designated orientation detected by the orientation detection unit matches the reference orientation;
With
The control unit rotates the image displayed by the display unit around the axis orthogonal to the display screen passing through the center of the display screen of the display unit according to the determination result of the azimuth determining unit. The image pickup apparatus according to claim 1, wherein control is performed to match the reference azimuth with the designated azimuth.
視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データを記憶する記憶部とを備えた撮像装置であって、
当該撮像装置で予め指定される指定方位を検出する方位検出部と、
前記方位検出部が検出した前記指定方位と前記撮像部が生成する前記画像データに対応する画像とを表示する表示部と、
前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、
前記入力部が外部からの物体の接触位置に応じた信号の入力を受けたときに前記表示部が表示している前記指定方位を、前記画像内で基準となる基準方位として設定する方位設定部と、
前記方位設定部が設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御部と、
を備え
前記制御部は、前記方位設定部が前記基準方位を設定する場合において、前記表示部を水平に指示する旨の情報を前記表示部に表示させることを特徴とする撮像装置。
A lens unit that collects light from the field of view, an imaging unit that generates electronic image data using light collected by the lens unit, and a storage unit that stores the image data generated by the imaging unit An imaging device comprising:
An azimuth detecting unit for detecting a designated azimuth designated in advance by the imaging device;
A display unit that displays the designated orientation detected by the orientation detection unit and an image corresponding to the image data generated by the imaging unit;
An input unit that is provided on a display screen of the display unit and receives an input of a signal according to a contact position of an object from outside;
An azimuth setting unit that sets the designated azimuth displayed by the display unit as a reference azimuth as a reference in the image when the input unit receives an input of a signal corresponding to the contact position of an object from the outside. When,
A control unit that performs control to store the reference azimuth set by the azimuth setting unit in the storage unit as azimuth information included in header information of the image data;
Equipped with a,
The control unit causes the display unit to display information indicating that the display unit is horizontally designated when the azimuth setting unit sets the reference azimuth .
前記方位検出部が検出した前記指定方位が前記基準方位に一致しているか否かを判定する方位判定部を備え、
前記制御部は、前記方位判定部の判定結果に応じて、前記表示部が表示する前記画像を、前記表示部の表示画面の中心を通過し、該表示画面と直交する軸を中心軸として回転させて、前記基準方位を前記指定方位に一致させる制御を行うことを特徴とする請求項3に記載の撮像装置。
An orientation determination unit that determines whether the specified orientation detected by the orientation detection unit matches the reference orientation;
The control unit rotates the image displayed by the display unit around the axis orthogonal to the display screen passing through the center of the display screen of the display unit according to the determination result of the azimuth determining unit. The image pickup apparatus according to claim 3, wherein control is performed to match the reference azimuth with the designated azimuth.
前記方位判定部は、所定の時間間隔で前記指定方位が前記基準方位に一致しているか否かを判定することを特徴とする請求項2または4に記載の撮像装置。   5. The imaging apparatus according to claim 2, wherein the orientation determination unit determines whether or not the designated orientation matches the reference orientation at a predetermined time interval. 前記方位判定部の判定結果に応じて、前記撮像部が生成する前記画像データに対応する画像を前記表示部の表示画面より小さくした縮小画像を生成する画像縮小部を備え、
前記制御部は、前記縮小画像を前記表示部に表示させる制御を行うことを特徴とする請求項5に記載の撮像装置。
An image reduction unit that generates a reduced image in which an image corresponding to the image data generated by the imaging unit is smaller than a display screen of the display unit according to a determination result of the orientation determination unit;
The imaging apparatus according to claim 5, wherein the control unit performs control to display the reduced image on the display unit.
前記画像は、地図画像であり、
前記基準方位は、前記地図画像内で方位合わせをする際に基準となる方位であることを特徴とする請求項1〜6のいずれか一つに記載の撮像装置。
The image is a map image;
The imaging apparatus according to claim 1, wherein the reference orientation is an orientation that serves as a reference when the orientation is aligned in the map image.
視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する表示部と、前記撮像部が生成する前記画像データを記憶する記憶部と、前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、を備えた撮像装置が実行する方位設定方法であって、
前記表示部を水平に指示する旨の情報を前記表示部に表示させる表示ステップと、
前記入力部における外部からの物体が接触した軌跡に応じて、前記画像内で基準となる基準方位を設定する方位設定ステップと、
前記方位設定ステップで設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御ステップと、
を含むことを特徴とする方位設定方法。
A lens unit that collects light from the field of view; an imaging unit that generates electronic image data using light collected by the lens unit; and an image corresponding to the image data generated by the imaging unit. A display unit for displaying, a storage unit for storing the image data generated by the imaging unit, and an input unit that is provided on the display screen of the display unit and receives an input of a signal corresponding to the contact position of an object from the outside And an orientation setting method executed by an imaging apparatus comprising:
A display step of causing the display unit to display information indicating that the display unit is indicated horizontally;
An orientation setting step for setting a reference orientation as a reference in the image according to a trajectory in contact with an object from the outside in the input unit;
A control step for performing control to store the reference orientation set in the orientation setting step in the storage unit as orientation information included in header information of the image data;
The direction setting method characterized by including.
視野領域からの光を集光するレンズ部と、前記レンズ部が集光した光を用いて電子的な画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する表示部と、前記撮像部が生成した前記画像データを記憶する記憶部と、前記表示部の表示画面上に設けられ、外部からの物体の接触位置に応じた信号の入力を受け付ける入力部と、を備えた撮像装置に実行させる方位設定方法であって、
前記表示部を水平に指示する旨の情報を前記表示部に表示させる第1表示ステップと、
当該撮像装置で予め指定される指定方位を検出する方位検出ステップと、
前記方位検出ステップで検出した前記指定方位を前記表示部に表示させる第2表示ステップと、
前記入力部が外部からの物体の接触位置に応じた信号の入力を受けたときに前記表示部が表示している前記指定方位を、前記画像内で基準となる基準方位として設定する方位設定ステップと、
前記方位設定ステップで設定した前記基準方位を前記画像データのヘッダ情報に含まれる方位情報として前記記憶部に記憶させる制御を行う制御ステップと、
を含むことを特徴とする方位設定方法。
A lens unit that collects light from the field of view; an imaging unit that generates electronic image data using light collected by the lens unit; and an image corresponding to the image data generated by the imaging unit. A display unit for displaying, a storage unit for storing the image data generated by the imaging unit, and an input unit that is provided on the display screen of the display unit and receives an input of a signal corresponding to the contact position of an object from the outside And an orientation setting method to be executed by an imaging device comprising:
A first display step of causing the display unit to display information indicating that the display unit is indicated horizontally;
An azimuth detection step for detecting a designated azimuth designated in advance by the imaging apparatus;
A second display step for causing the display unit to display the designated direction detected in the direction detection step;
An orientation setting step for setting the designated orientation displayed on the display unit as a reference orientation in the image when the input unit receives an input of a signal corresponding to the contact position of an object from the outside. When,
A control step for performing control to store the reference orientation set in the orientation setting step in the storage unit as orientation information included in header information of the image data;
The direction setting method characterized by including.
JP2010153135A 2010-07-05 2010-07-05 Imaging apparatus and direction setting method Expired - Fee Related JP5558233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010153135A JP5558233B2 (en) 2010-07-05 2010-07-05 Imaging apparatus and direction setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010153135A JP5558233B2 (en) 2010-07-05 2010-07-05 Imaging apparatus and direction setting method

Publications (3)

Publication Number Publication Date
JP2012015960A JP2012015960A (en) 2012-01-19
JP2012015960A5 JP2012015960A5 (en) 2013-07-25
JP5558233B2 true JP5558233B2 (en) 2014-07-23

Family

ID=45601826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010153135A Expired - Fee Related JP5558233B2 (en) 2010-07-05 2010-07-05 Imaging apparatus and direction setting method

Country Status (1)

Country Link
JP (1) JP5558233B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6537189B2 (en) * 2016-03-24 2019-07-03 株式会社ゼンリンデータコム Map display device and map display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0791970A (en) * 1993-09-28 1995-04-07 Matsushita Electric Ind Co Ltd Portable type navigation apparatus
JP2005106953A (en) * 2003-09-29 2005-04-21 Sharp Corp Electronic map generating system, electronic map generating method, electronic map generating program, and recording medium with the program recorded thereon
US8453060B2 (en) * 2006-08-25 2013-05-28 Microsoft Corporation Panoramic ring user interface
JP2008199145A (en) * 2007-02-09 2008-08-28 Nikon Corp Electronic equipment
JP4768650B2 (en) * 2007-03-13 2011-09-07 株式会社リコー Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2012015960A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
US9215375B2 (en) Photographing apparatus, image display apparatus, and display control method of image display apparatus
CN105594191B (en) Imaging device, image processing device, and image processing method
US7693405B2 (en) Image pickup device, method of controlling image pickup device, and recording medium
EP2518993B1 (en) Image capturing device, azimuth information processing method, and program
RU2532257C2 (en) Image forming apparatus, method and programme for controlling image display
JP6518409B2 (en) Imaging apparatus and imaging method
US9628749B2 (en) Pre-setting the foreground view of a photograph via a camera
JP2009267792A (en) Imaging apparatus
US20140063320A1 (en) Image capture methods and systems with positioning and angling assistance
JP2008145662A (en) Imaging apparatus and adjusting method thereof
WO2015093083A1 (en) Image pickup apparatus and image pickup apparatus control method
JP2014074838A (en) Imaging device
JP2013131905A (en) Imaging device
JP5558233B2 (en) Imaging apparatus and direction setting method
JP2019012201A (en) Image pick-up device, image pick-up program, and image pick-up method
JP2011188054A (en) Image photographing device capable of using position information, image photographing method, and program
JP2003280080A (en) Photographing device
JP2014120815A (en) Information processing apparatus, imaging device, information processing method, program, and storage medium
JP5141222B2 (en) Imaging apparatus, imaging control method, and program
JP5742301B2 (en) Image projection apparatus, digital camera and optical apparatus
JP2012008222A (en) Display device
JP6057142B2 (en) Imaging apparatus, control method thereof, and program
JP2012227717A (en) Display device, display program, and display method
JP5737961B2 (en) Imaging device
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140604

R151 Written notification of patent or utility model registration

Ref document number: 5558233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees