JP2016029862A - Portable device and map image display method - Google Patents

Portable device and map image display method Download PDF

Info

Publication number
JP2016029862A
JP2016029862A JP2015236903A JP2015236903A JP2016029862A JP 2016029862 A JP2016029862 A JP 2016029862A JP 2015236903 A JP2015236903 A JP 2015236903A JP 2015236903 A JP2015236903 A JP 2015236903A JP 2016029862 A JP2016029862 A JP 2016029862A
Authority
JP
Japan
Prior art keywords
map image
display
unit
image
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015236903A
Other languages
Japanese (ja)
Inventor
裕純 荒井
Hirosumi Arai
裕純 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015236903A priority Critical patent/JP2016029862A/en
Publication of JP2016029862A publication Critical patent/JP2016029862A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a portable device which allows a user to easily switch the display range of a map image even while holding the portable device in his or her hand.SOLUTION: When it is determined from an output from an acceleration detection unit 25 that a camera 1 is held sideways during display of a through image, it is determined from an output from the acceleration detection unit 25 whether acceleration in a direction parallel to the present orientation of the camera 1 has occurred or not. If it is determined that an acceleration in a direction parallel to the present orientation of the camera 1 has occurred, a map image of a predetermined range distant with respect to the present orientation of the camera 1 is displayed.SELECTED DRAWING: Figure 10

Description

本発明は、撮像画像と地図画像とを表示可能な携帯機器及び地図画像表示方法に関する。   The present invention relates to a portable device capable of displaying a captured image and a map image and a map image display method.

近年、デジタルカメラ等の携帯機器において、地図画像を表示できるようにしたものが提案されている。例えば、特許文献1において提案されている携帯機器は、GPS(Global Positioning System)モジュール等の位置検出部が搭載されており、位置検出部で検出された現在位置の周辺の地図画像を表示させるように構成されている。また、特許文献1において提案されている携帯機器は、電子ファインダ表示(スルー画表示等ともいう)も可能であり、電子ファインダ画像と地図画像との表示切り替えをスムーズに行うことができるように、携帯機器の姿勢変化に応じて電子ファインダ画像と地図画像との表示切り替えを行うように構成されている。   In recent years, a portable device such as a digital camera that can display a map image has been proposed. For example, the portable device proposed in Patent Document 1 includes a position detection unit such as a GPS (Global Positioning System) module, and displays a map image around the current position detected by the position detection unit. It is configured. In addition, the portable device proposed in Patent Document 1 can also display an electronic viewfinder (also referred to as a through image display), so that display switching between an electronic viewfinder image and a map image can be performed smoothly. The display is switched between the electronic viewfinder image and the map image in accordance with the change in posture of the mobile device.

特許第4264099号公報Japanese Patent No. 4264099

ここで、特許文献1では、携帯機器の現在位置の周辺の地図画像を表示させるようにしている。しかしながら、特許文献1では、地図画像の表示範囲を切り替える際の操作性の向上については特に言及がない。例えば、地図画像の表示範囲を切り替えるための操作として、従来では、タッチパネル上での指のスライド操作に応じて地図画像の表示範囲を切り替える手法等が知られている。このような手法を特許文献1に適用した場合には、ユーザが、携帯機器を持ちながら地図画像の表示範囲の切り替えの操作を行うことになる。この場合、特に、携帯機器を両手で持った状態での操作は困難である。   Here, in Patent Document 1, a map image around the current position of the mobile device is displayed. However, Patent Literature 1 does not particularly mention improvement in operability when switching the display range of the map image. For example, conventionally, as an operation for switching the display range of the map image, a method of switching the display range of the map image according to a finger slide operation on the touch panel is known. When such a method is applied to Patent Document 1, the user performs an operation of switching the display range of the map image while holding the portable device. In this case, it is particularly difficult to operate the portable device with both hands.

本発明は、前記の事情に鑑みてなされたもので、携帯機器を持ちながらであっても容易に地図画像の表示範囲を切り替えることが可能な携帯機器及び地図画像表示方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a mobile device and a map image display method capable of easily switching the display range of a map image even while holding the mobile device. And

前記の目的を達成するために、本発明の一態様の携帯機器は、地図画像を所定形状に整形して、表示部に表示された撮像画像に合成表示する携帯機器であって、当該携帯機器の方位を検出する方位検出部と、当該携帯機器に発生した加速度を検出する加速度検出部と、を備え、前記加速度検出部によって前記方位検出部によって検出された方位と平行な方向の加速度が検出された場合に、前記表示部に表示されている所定形状に整形された地図画像よりもさらに遠方の地図画像を前記所定形状内に表示することを特徴とする。   In order to achieve the above object, a portable device according to one aspect of the present invention is a portable device that shapes a map image into a predetermined shape and displays the resultant image combined with a captured image displayed on a display unit. An azimuth detecting unit that detects the azimuth of the sensor and an acceleration detecting unit that detects acceleration generated in the portable device, and the acceleration detecting unit detects acceleration in a direction parallel to the azimuth detected by the azimuth detecting unit. In this case, a map image farther than the map image shaped into the predetermined shape displayed on the display unit is displayed in the predetermined shape.

前記の目的を達成するために、本発明の一態様の地図画像表示方法は、撮影画像に地図画像を合成して表示部に表示する携帯機器の地図画像表示方法において、前記携帯機器の加速度を検出する検出ステップと、前記検出した第1の加速度に基づいて、前記携帯機器が地表に対して平行な方向の撮影姿勢であるかを判定する第1の判定ステップと、前記携帯機器が地表に対して平行な方向の撮影姿勢である場合に、更に、前記地表に対して平行な方向に移動したことを示す第2の加速度が検出されたか否かを判定する第2の判定ステップと、前記地表に対して平行な方向に移動したことを示す第2の加速度が検出された場合に、前記表示部の前記撮影画像に重ねて表示されている地図画像を、当該地図画像よりも遠方の地図画像に変更する地図画像変更ステップと、を有することを特徴とする。   In order to achieve the above object, a map image display method according to an aspect of the present invention includes a map image display method for a mobile device that combines a captured image with a map image and displays the map image on a display unit. A detecting step for detecting, a first determining step for determining whether the portable device is in a photographing posture in a direction parallel to the ground surface based on the detected first acceleration, and the portable device on the ground surface. A second determination step for determining whether or not a second acceleration indicating movement in a direction parallel to the ground surface is detected when the photographing posture is in a direction parallel to the surface; When a second acceleration indicating movement in a direction parallel to the ground surface is detected, a map image that is displayed superimposed on the captured image of the display unit is displayed as a map farther than the map image. Place to change to image And having an image changing step.

本発明によれば、携帯機器を持ちながらであっても容易に地図画像の表示範囲を切り替えることが可能な携帯機器及び地図画像表示方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it has a portable apparatus, the portable apparatus and map image display method which can switch the display range of a map image easily can be provided.

本発明の一実施形態に係る携帯機器の一例としてのデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera as an example of the portable apparatus which concerns on one Embodiment of this invention. 撮像画像と地図画像の向きの関係を示した図である。It is the figure which showed the relationship between the direction of a captured image and a map image. ユーザがデジタルカメラを構えているときの様子を示した図である。It is the figure which showed the mode when the user is holding the digital camera. 地図画像の例を示す図である。It is a figure which shows the example of a map image. 本発明の一実施形態におけるスルー画表示中の地図画像の表示例を示す図である。It is a figure which shows the example of a display of the map image in the through image display in one Embodiment of this invention. 地図画像を表示させるための操作について示した図である。It is the figure shown about operation for displaying a map image. 地図画像の拡大表示について示した図である。It is the figure shown about the enlarged display of a map image. 地図画像の重ね表示から拡大表示への切り替え操作について示した図である。It is the figure shown about switching operation from the overlapping display of a map image to an enlarged display. 拡大表示から地図画像の重ね表示への切り替え操作について示した図である。It is the figure shown about switching operation from the enlarged display to the overlapping display of a map image. 本発明の一実施形態に係るデジタルカメラの撮影モードの制御について示すフローチャートである。It is a flowchart shown about control of the imaging | photography mode of the digital camera which concerns on one Embodiment of this invention. 地図画像データの取得処理について説明するための図である。It is a figure for demonstrating the acquisition process of map image data. 地図表示モードの制御について示すフローチャートである。It is a flowchart shown about control of map display mode. 地図表示モード中の地図画像の表示範囲の切り替え操作について示した図である。It is the figure shown about switching operation of the display range of the map image in map display mode. 再生モードの制御について示すフローチャートである。It is a flowchart shown about control of reproduction | regeneration mode. 再生モード中の地図画像の表示操作について示した図である。It is the figure shown about the display operation of the map image in reproduction | regeneration mode. 高度情報を有する地図画像データの例を示す図である。It is a figure which shows the example of the map image data which has altitude information. 高度情報を考慮した地図画像データの取得処理の例を示した図である。It is the figure which showed the example of the acquisition process of the map image data in consideration of altitude information.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る携帯機器の一例としてのデジタルカメラの構成を示す図である。本実施形態に係るデジタルカメラ(以下、カメラという)1は、制御部11と、データ記録部12と、ボタン操作部13と、タッチパネル14と、撮像部15と、記憶部16と、表示駆動部17と、表示部18と、画像処理部19と、圧縮伸長部20と、記録・再生部21と、画像記録部22と、方位検出部23と、位置検出部24と、加速度検出部25と、を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a digital camera as an example of a portable device according to an embodiment of the present invention. A digital camera (hereinafter referred to as a camera) 1 according to the present embodiment includes a control unit 11, a data recording unit 12, a button operation unit 13, a touch panel 14, an imaging unit 15, a storage unit 16, and a display driving unit. 17, display unit 18, image processing unit 19, compression / decompression unit 20, recording / playback unit 21, image recording unit 22, orientation detection unit 23, position detection unit 24, and acceleration detection unit 25. ,have.

制御部11は、例えばCPU(Central Processing Unit)で構成されており、カメラ1の動作を統括的に制御する。この制御部11は、GUI(Graphical User Interface)制御部11a、機能実行部11b、表示制御部11c、地図画像取得部11d、及び操作検出部11eとしての機能を有している。GUI制御部11aとしての機能は、データ記録部12のGUIデータ記録部12aに記録されているGUI表示データを受け取り、GUI表示データを表示駆動部17に出力して表示部18にGUI画面を表示させる機能である。機能実行部11bとしての機能は、操作検出部11eの機能によって検出されたボタン操作部13又はタッチパネル14の操作に応じてカメラ1の動作を実行する機能である。表示制御部11cとしての機能は、画像記録部22に記録されている撮像画像データや地図データ記録部12cに記録されている地図画像データ等に基づく各種の画像を表示部18に表示させるための制御を行う機能である。地図画像取得部11dとしての機能は、方位検出部23、位置検出部24等の出力に基づき、所定範囲の地図画像データを地図データ記録部12cから取得する機能である。操作検出部11eとしての機能は、ボタン操作部13又はタッチパネル14からの操作信号を検出することにより、ボタン操作部13又はタッチパネル14の操作を検出する機能である。   The control unit 11 is composed of, for example, a CPU (Central Processing Unit), and comprehensively controls the operation of the camera 1. The control unit 11 has functions as a GUI (Graphical User Interface) control unit 11a, a function execution unit 11b, a display control unit 11c, a map image acquisition unit 11d, and an operation detection unit 11e. The function as the GUI control unit 11a receives GUI display data recorded in the GUI data recording unit 12a of the data recording unit 12, outputs the GUI display data to the display driving unit 17, and displays the GUI screen on the display unit 18. It is a function to let you. The function as the function execution unit 11b is a function for executing the operation of the camera 1 in accordance with the operation of the button operation unit 13 or the touch panel 14 detected by the function of the operation detection unit 11e. The function as the display control unit 11c is to display various images based on captured image data recorded in the image recording unit 22, map image data recorded in the map data recording unit 12c, and the like on the display unit 18. This function performs control. The function as the map image acquisition unit 11d is a function of acquiring a predetermined range of map image data from the map data recording unit 12c based on outputs from the azimuth detection unit 23, the position detection unit 24, and the like. The function as the operation detection unit 11 e is a function of detecting an operation of the button operation unit 13 or the touch panel 14 by detecting an operation signal from the button operation unit 13 or the touch panel 14.

また、制御部11は、バスライン30を介して、撮像部15と、記憶部16と、表示駆動部17と、画像処理部19と、圧縮伸長部20と、記録・再生部21と、方位検出部23と、位置検出部24と、加速度検出部25とに接続されている。   Further, the control unit 11 is connected to the imaging unit 15, the storage unit 16, the display driving unit 17, the image processing unit 19, the compression / decompression unit 20, the recording / reproducing unit 21, and the orientation via the bus line 30. The detector 23, the position detector 24, and the acceleration detector 25 are connected.

データ記録部12は、例えばフラッシュメモリ等の電気的に書き換えが可能な不揮発性メモリで構成されている。このデータ記録部12は、GUIデータ記録部12a、プログラム記録部12b、及び地図データ記録部12cとしての記録領域を有している。GUIデータ記録部12aは、GUI表示データを記録しておくための記録領域である。GUI表示データは、表示部18の表示画面上での操作を行うためのGUI画面を表示部18に表示させるために必要となる情報である。このGUI表示データは、アイコンデータ等から構成されている。プログラム記録部12bは、機能実行部11bによって実行されるカメラ1の制御プログラムや制御プログラムの実行に必要な制御パラメータを記録しておくための記録領域である。地図データ記録部12cは、地図画像データを記録しておくための記録領域である。ここで、地図画像データは、位置(緯度・経度)情報と対応付けがなされている。   The data recording unit 12 is configured by an electrically rewritable nonvolatile memory such as a flash memory. The data recording unit 12 has recording areas as a GUI data recording unit 12a, a program recording unit 12b, and a map data recording unit 12c. The GUI data recording unit 12a is a recording area for recording GUI display data. The GUI display data is information necessary for causing the display unit 18 to display a GUI screen for performing an operation on the display screen of the display unit 18. This GUI display data is composed of icon data and the like. The program recording unit 12b is a recording area for recording a control program for the camera 1 executed by the function execution unit 11b and control parameters necessary for executing the control program. The map data recording unit 12c is a recording area for recording map image data. Here, the map image data is associated with position (latitude / longitude) information.

ボタン操作部13は、レリーズボタン、電源ボタン、ズームボタン、モードボタン、十字ボタン、決定ボタン等の、押圧操作によって操作される操作部材である。各ボタンは、押圧操作によって信号を出力する。ここで、レリーズボタンは、ユーザが撮影タイミングを指示するためのボタンである。電源ボタンは、カメラ1の電源のオン又はオフを指示するためのボタンである。ズームボタンは、ズーミングの指示をするために用いられるボタンである。モードボタンは、カメラ1の動作モードを変更するために用いられるボタンである。十字ボタンは、例えばGUI画面内での項目の選択に用いられるボタンである。決定ボタンは、例えばGUI画面内での項目の決定に用いられるボタンである。上述の各種のボタンは、必ずしもボタン式の操作部として構成する必要はない。   The button operation unit 13 is an operation member that is operated by a pressing operation such as a release button, a power button, a zoom button, a mode button, a cross button, and a determination button. Each button outputs a signal by a pressing operation. Here, the release button is a button for the user to instruct the photographing timing. The power button is a button for instructing to turn on or off the power of the camera 1. The zoom button is a button used for instructing zooming. The mode button is a button used to change the operation mode of the camera 1. The cross button is, for example, a button used for selecting an item on the GUI screen. The determination button is a button used for determining an item on the GUI screen, for example. The various buttons described above are not necessarily configured as a button-type operation unit.

接触検出部の一例として機能するタッチパネル14は、例えば表示部18の表示画面の上に重ねて配置されている。このタッチパネル14は、指等の接触があると、その接触位置から信号を出力する。このタッチパネル14により、GUI画面上に表示されているアイコンへの接触操作を検出する。   The touch panel 14 that functions as an example of the contact detection unit is disposed, for example, on the display screen of the display unit 18. The touch panel 14 outputs a signal from the contact position when a finger touches. This touch panel 14 detects a touch operation on an icon displayed on the GUI screen.

撮像部15は、カメラ部と撮像処理部とを有している。
カメラ部は、被写体像を撮像するためのものであり、撮像光学系、撮像素子、絞り、シャッタ、AF機構、AF駆動回路、ズーム機構、ズーム駆動回路等を有している。撮像光学系は、フォーカスレンズやズームレンズ等の複数のレンズを有し、被写体像を集光して撮像素子に結像させる。撮像素子は、例えばCCDセンサやCMOSセンサ等の2次元固体撮像素子であり、撮像光学系を通して入射する被写体像を光電変換し、アナログ電気信号として出力する。絞りは、例えば撮像光学系内に配置されており、絞り込まれることによって、撮像光学系を通して撮像素子に入射する光束を制限する。シャッタは、例えば撮像素子の受光面に対して進退自在に構成されており、撮像素子の受光面を遮光状態又は露出状態とする。AF機構は、フォーカスレンズを駆動させるための機能である。フォーカスレンズを駆動することにより、撮像光学系の焦点位置が調整される。AF駆動回路は、AF機構を駆動するための駆動回路である。ズーム機構は、ズームレンズを駆動させるための機能である。ズームレンズを駆動することにより、撮像光学系の画角が調整される。ズーム駆動回路は、ズーム機構を駆動するための駆動回路である。
The imaging unit 15 includes a camera unit and an imaging processing unit.
The camera unit is for capturing a subject image, and includes an imaging optical system, an imaging element, an aperture, a shutter, an AF mechanism, an AF drive circuit, a zoom mechanism, a zoom drive circuit, and the like. The imaging optical system has a plurality of lenses such as a focus lens and a zoom lens, and collects a subject image and forms it on an imaging device. The imaging device is a two-dimensional solid-state imaging device such as a CCD sensor or a CMOS sensor, and photoelectrically converts a subject image incident through the imaging optical system and outputs it as an analog electrical signal. The diaphragm is disposed in, for example, the imaging optical system, and restricts the light beam incident on the imaging element through the imaging optical system by being narrowed down. For example, the shutter is configured to be movable back and forth with respect to the light receiving surface of the image sensor, and the light receiving surface of the image sensor is in a light shielding state or an exposed state. The AF mechanism is a function for driving the focus lens. By driving the focus lens, the focal position of the imaging optical system is adjusted. The AF drive circuit is a drive circuit for driving the AF mechanism. The zoom mechanism is a function for driving the zoom lens. By driving the zoom lens, the angle of view of the imaging optical system is adjusted. The zoom drive circuit is a drive circuit for driving the zoom mechanism.

撮像処理部は、撮像素子駆動回路、アナログ処理回路、A/D変換回路等を有している。撮像素子駆動回路は、撮像素子の駆動をするとともに、撮像素子からのアナログ電気信号を読み出す。アナログ処理回路は、撮像素子から出力されるアナログ電気信号に対してAGC(Auto Gain Control)処理やCDS(Correlated Double Sampling)処理等のアナログ信号処理を施す。AGC処理は、撮像素子からのアナログ電気信号を所定のゲインで増幅する処理である。CDS処理は、アナログ電気信号に含まれている暗電流ノイズ等を除去する処理である。また、A/D変換回路は、アナログ処理回路でアナログ処理されたアナログ電気信号を、デジタル電気信号に変換して出力する。   The imaging processing unit includes an imaging element driving circuit, an analog processing circuit, an A / D conversion circuit, and the like. The image sensor driving circuit drives the image sensor and reads an analog electric signal from the image sensor. The analog processing circuit performs analog signal processing such as AGC (Auto Gain Control) processing and CDS (Correlated Double Sampling) processing on the analog electric signal output from the image sensor. The AGC process is a process of amplifying an analog electric signal from the image sensor with a predetermined gain. The CDS process is a process for removing dark current noise and the like included in an analog electric signal. The A / D conversion circuit converts the analog electric signal analog-processed by the analog processing circuit into a digital electric signal and outputs the digital electric signal.

記憶部16は、例えばSDRAMで構成されている。この記憶部16は、制御部11等において各種処理を実行する際のワーキングエリアとして利用される。また、記憶部16は、撮像部15で得られたデジタル電気信号(RAWデータ等と呼ばれる)や、画像処理部19における処理によって得られた撮像画像データ等の各種のデータを一時的に記憶しておくためにも利用される。   The storage unit 16 is configured by, for example, SDRAM. The storage unit 16 is used as a working area when the control unit 11 or the like executes various processes. The storage unit 16 temporarily stores various data such as digital electrical signals (referred to as RAW data) obtained by the imaging unit 15 and captured image data obtained by processing in the image processing unit 19. Also used to keep.

表示駆動部17は、D/A変換回路等を有している。D/A変換回路は、制御部11から受け取った撮像画像データや地図画像データ等を、表示部18の表示画面のサイズに合わせてリサイズし、リサイズした撮像画像データや地図画像データ等を表示部18に出力して表示部18に画像を表示させる。   The display driving unit 17 has a D / A conversion circuit and the like. The D / A conversion circuit resizes the captured image data, map image data, and the like received from the control unit 11 according to the size of the display screen of the display unit 18, and displays the resized captured image data, map image data, and the like on the display unit. 18 to display an image on the display unit 18.

表示部18は、表示駆動部17に接続されており、例えばLCD(Liquid Crystal Display)やELD(Electroluminescence Display)等の表示部である。この表示部18は、例えばカメラ1の本体背面に露出配置されており、表示駆動部17から入力された画像データに基づいて撮像画像、地図画像、スルー画像等の各種の画像を表示する。また、表示部18は、表示駆動部17から入力されたGUI表示データに基づいてGUI画面を表示することも行う。   The display unit 18 is connected to the display driving unit 17 and is a display unit such as an LCD (Liquid Crystal Display) or an ELD (Electroluminescence Display). For example, the display unit 18 is exposed on the back of the main body of the camera 1 and displays various images such as a captured image, a map image, and a through image based on the image data input from the display driving unit 17. The display unit 18 also displays a GUI screen based on the GUI display data input from the display driving unit 17.

画像処理部19は、撮像部15から出力されたデジタル電気信号に対して画像処理を施して撮像画像データを得る。この画像処理としては、画素補間処理、色補正処理、ガンマ処理等がある。画素補間処理は、複数の隣接する画素のデータを加算したり、複数の隣接する画素のデータから新たな画素のデータを作成したりする処理である。色補正処理は、画像の色を表示や記録に適したものに補正する処理である。ガンマ処理は、画像の階調を表示や記録に適したものに補正する処理である。この画像処理部19は、記録時(撮影時)には記録用の画像処理を施し、スルー画表示時には表示用の簡易な画像処理を施す。   The image processing unit 19 performs image processing on the digital electrical signal output from the imaging unit 15 to obtain captured image data. Examples of the image processing include pixel interpolation processing, color correction processing, and gamma processing. The pixel interpolation process is a process of adding data of a plurality of adjacent pixels or creating new pixel data from a plurality of adjacent pixel data. The color correction process is a process for correcting the color of an image to be suitable for display or recording. The gamma processing is processing for correcting the gradation of an image to be suitable for display and recording. The image processing unit 19 performs image processing for recording at the time of recording (at the time of shooting), and performs simple image processing for display when displaying a through image.

圧縮伸長部20は、記録時(撮影時)には、画像処理部19によって得られた撮像画像データに対して例えば周知のJPEG方式に基づく圧縮処理を施す。また、圧縮伸長部20は、再生時には、画像記録部22に記録されている圧縮済みの撮像画像データに対して周知のJPEG方式に基づく伸長処理を施す。   The compression / decompression unit 20 performs a compression process based on, for example, a well-known JPEG method on the captured image data obtained by the image processing unit 19 during recording (at the time of shooting). The compression / decompression unit 20 performs decompression processing based on a well-known JPEG method on the compressed captured image data recorded in the image recording unit 22 during reproduction.

記録・再生部21は、画像記録部22への画像ファイルの書き込みや画像記録部22からの画像ファイルの読み出しを行うためのものであり、画像記録部22の種類に応じたものが用いられる。また、記録・再生部21は、画像記録部22に記録された一部の画像ファイルの削除や画像記録部22の記録状態の初期化(画像ファイルの全削除)も実行する。   The recording / reproducing unit 21 is used for writing an image file to the image recording unit 22 and reading an image file from the image recording unit 22, and a unit corresponding to the type of the image recording unit 22 is used. The recording / playback unit 21 also deletes some image files recorded in the image recording unit 22 and initializes the recording state of the image recording unit 22 (all deletion of image files).

画像記録部22は、画像ファイルを記録するための記録媒体である。この画像記録部22は、例えばSDカード(登録商標)やコンパクトフラッシュ(登録商標)カード等のカメラ本体に着脱自在な記録媒体や、HDD(Hard Disc Drive)等のカメラ本体に内蔵される記録媒体である。   The image recording unit 22 is a recording medium for recording an image file. The image recording unit 22 is, for example, a recording medium that is detachable from the camera body such as an SD card (registered trademark) or a compact flash (registered trademark) card, or a recording medium that is built into the camera body such as an HDD (Hard Disc Drive). It is.

方位検出部23は、カメラ1の現在の方位(例えば北を基準とした方位)を検出する。この方位検出部23は、例えば電子コンパスで構成されている。方位検出部23によって検出される方位から、撮像光学系の向きを検出することも可能である。   The azimuth detecting unit 23 detects the current azimuth of the camera 1 (for example, an azimuth based on the north). The azimuth detecting unit 23 is constituted by an electronic compass, for example. It is also possible to detect the orientation of the imaging optical system from the orientation detected by the orientation detection unit 23.

位置検出部24は、カメラ1の現在位置(例えば緯度及び経度)を検出する。この位置検出部24は、例えばGPSモジュールであって、図示しない複数のGPS衛星からの信号を受けてカメラ1の現在位置を検出する。   The position detection unit 24 detects the current position (for example, latitude and longitude) of the camera 1. The position detector 24 is, for example, a GPS module, and detects the current position of the camera 1 by receiving signals from a plurality of GPS satellites (not shown).

加速度検出部25は、カメラ1に発生している加速度を検出する。この加速度検出部25は、例えば図2に示すようにしてカメラ1の本体に設定された3軸方向の加速度をそれぞれ検出する3個の加速度検出部を有している。図2の例は、ユーザがカメラ1を横位置で構えたときに、地表に対して平行であって撮像光学系の光軸に対して垂直な方向をX軸に、地表に対して垂直な方向をY軸に、地表に対して平行であって撮像光学系の光軸に対しても平行な方向をZ軸に設定している。また、X軸の正方向は、カメラ1を正面から見た場合の左手方向とし、Y軸の正方向は、カメラ1を正面から見た場合の天空方向とし、Z軸の正方向は、カメラ1の正面に向かう方向としている。   The acceleration detection unit 25 detects the acceleration generated in the camera 1. The acceleration detection unit 25 includes three acceleration detection units that respectively detect triaxial accelerations set in the main body of the camera 1 as shown in FIG. In the example of FIG. 2, when the user holds the camera 1 in the horizontal position, the direction parallel to the ground surface and perpendicular to the optical axis of the imaging optical system is taken as the X axis and perpendicular to the ground surface. The direction is set to the Y axis, and the direction parallel to the ground surface and parallel to the optical axis of the imaging optical system is set to the Z axis. The positive direction of the X axis is the left hand direction when the camera 1 is viewed from the front, the positive direction of the Y axis is the sky direction when the camera 1 is viewed from the front, and the positive direction of the Z axis is the camera direction. The direction toward the front of 1.

ここで、加速度検出部25を構成する何れの加速度検出部によって重力が検出されるかによって、カメラ1の姿勢を検出することもできる。この場合、加速度検出部25は、姿勢検出部としても機能する。加速度の検出と姿勢の検出とを別個の加速度検出部によって行っても良いし、角速度検出部等を用いて姿勢の検出を行うようにしても良い。   Here, the posture of the camera 1 can also be detected depending on which of the acceleration detection units constituting the acceleration detection unit 25 detects gravity. In this case, the acceleration detection unit 25 also functions as a posture detection unit. Acceleration detection and posture detection may be performed by separate acceleration detection units, or posture detection may be performed using an angular velocity detection unit or the like.

次に、本実施形態に係る携帯機器の動作について説明する。撮像画像の記録時に、ユーザ100は、図3に示すようにしてカメラ1を構えつつ、被写体(例えば建物)200に向ける。このとき、被写体200を含む地表に対して垂直な平面内の画像が、撮像画像として取得される。一方、地図データ記録部12cに記録されている地図画像データが、図4に示すような、上空から俯瞰して見た地図を示す画像データであるとする。この場合、撮像画像の向きと地図画像の向きとが、図2に示すように互いに直交する関係となる。   Next, the operation of the mobile device according to the present embodiment will be described. At the time of recording a captured image, the user 100 faces the subject (for example, a building) 200 while holding the camera 1 as shown in FIG. At this time, an image in a plane perpendicular to the ground surface including the subject 200 is acquired as a captured image. On the other hand, it is assumed that the map image data recorded in the map data recording unit 12c is image data indicating a map viewed from above as shown in FIG. In this case, the orientation of the captured image and the orientation of the map image are orthogonal to each other as shown in FIG.

例えば、図3のようにしてカメラ1を構えている状態でスルー画表示が行われるとする。スルー画表示では、図5(a)に示すような、撮像部15を介して得られるスルー画表示用の撮像画像(以下、スルー画像という)181が、表示部18に逐次表示される。このようなスルー画表示によって表示部18をファインダとして利用可能である。   For example, it is assumed that through image display is performed with the camera 1 held as shown in FIG. In the live view display, a live view display captured image (hereinafter referred to as a live view image) 181 obtained via the image pickup unit 15 as shown in FIG. 5A is sequentially displayed on the display unit 18. With such a through image display, the display unit 18 can be used as a finder.

本実施形態では、図6に示すようにしてカメラ1を前方に動かす(Z軸方向の加速度を加える操作をする)ことにより、スルー画表示中の地図画像表示を行う。ここで、スルー画表示中においては、カメラ1が向いている方向に何があるのかを特定できたほうが良い。このため、本実施形態では、例えば、位置検出部24によって検出されたカメラ1の現在の位置から、方位検出部23によって検出されたカメラ1の現在の方位と平行な方向の所定の範囲の地図画像を表示させることとする。ここで、図4に示したような地図画像を表示部18にそのまま表示させてしまうと、表示部18の表示面が地表に対して垂直になっていることから、地図画像の方向が実際の風景と対応しなくなる。したがって、本実施形態では、図5(b)に示すようにして地図画像を台形状に整形してからスルー画像に重畳させる。この台形状は、カメラ1の現在位置から見て遠い側の辺(以下、上辺という)の幅が、カメラ1の現在位置から見て近い側の辺(以下、下辺という)の幅よりも短くなっている台形状である。また、地図画像の向きは、図5(b)に示すように、地図画像の上辺が、表示部18の上側となるようにする。さらに、地図画像とともに地図画像内の地名を表す指標、地図画像の縮尺を表す指標、現在地を示す指標等を表示させるようにしても良い。   In the present embodiment, as shown in FIG. 6, the map 1 is displayed while the through image is displayed by moving the camera 1 forward (operation for applying acceleration in the Z-axis direction). Here, during live view display, it is better to be able to identify what is in the direction in which the camera 1 is facing. Therefore, in the present embodiment, for example, a map of a predetermined range in a direction parallel to the current azimuth of the camera 1 detected by the azimuth detection unit 23 from the current position of the camera 1 detected by the position detection unit 24. An image is displayed. Here, if the map image as shown in FIG. 4 is displayed on the display unit 18 as it is, the display surface of the display unit 18 is perpendicular to the ground surface. Does not correspond to the landscape. Therefore, in this embodiment, the map image is shaped into a trapezoid as shown in FIG. In this trapezoidal shape, the width of the side far from the current position of the camera 1 (hereinafter referred to as the upper side) is shorter than the width of the side closer to the current position of the camera 1 (hereinafter referred to as the lower side). It is a trapezoid shape. Further, the orientation of the map image is such that the upper side of the map image is on the upper side of the display unit 18 as shown in FIG. Furthermore, an index indicating a place name in the map image, an index indicating the scale of the map image, an index indicating the current location, and the like may be displayed together with the map image.

図5(b)にして地図画像182を重畳することにより、スルー画像と地図画像との関係が、図2で示した関係と対応する。このため、ユーザがスルー画像と地図画像との関係を把握し易くなる。また、地図画像を表示させるための操作を、図6に示すようなカメラ1を前方に動かす操作とすることにより、表示部18の表示面を地表に対して垂直な状態としたままで操作を行うことが可能である。このため、ユーザは、カメラ1を両手で構えた状態でかつスルー画像を見ながら地図画像の表示操作を行うことが可能である。   By superimposing the map image 182 as shown in FIG. 5B, the relationship between the through image and the map image corresponds to the relationship shown in FIG. For this reason, it becomes easy for the user to grasp the relationship between the through image and the map image. Further, the operation for displaying the map image is an operation for moving the camera 1 forward as shown in FIG. 6, so that the operation can be performed while the display surface of the display unit 18 is in a state perpendicular to the ground surface. Is possible. For this reason, the user can perform a map image display operation while holding the camera 1 with both hands and viewing the through image.

また、本実施形態では、図5(b)に示したようにして地図画像182が表示された後、再度、カメラ1を前方に動かすことにより、地図画像の表示範囲の切り替えを行う。このとき、図5(c)に示すようにして、現在の表示範囲よりも遠方の所定範囲の地図画像182aをスルー画像181に重畳させる。この地図画像の表示範囲の切り替え操作も、ユーザがカメラ1を両手で構えた状態でかつスルー画像を見ながら行うことが可能である。   In the present embodiment, after the map image 182 is displayed as shown in FIG. 5B, the display range of the map image is switched by moving the camera 1 forward again. At this time, as shown in FIG. 5C, a map image 182a in a predetermined range far from the current display range is superimposed on the through image 181. The switching operation of the display range of the map image can also be performed while the user holds the camera 1 with both hands and watching the through image.

図5(b)又は図5(c)で示した表示がなされている状態では、ユーザは、スルー画画像と地図画像の両方を同時に見ることが可能である。さらに、図5(b)又は図5(c)の表示がなされている状態でユーザが所定の操作を行った場合には、図7に示すようにして地図画像182を拡大して表示させる。この表示を行うための所定の操作としては、例えば、図8(a)に示すような地図画像182の下部にタッチする操作、図8(b)に示すようなカメラ1を下に向ける操作等が考えられる。図8(a)及び図8(b)で示した以外の操作としても良い。図7に示したような拡大表示では、図5(b)又は図5(c)の表示に比べて地図画像の表示面積を広くすることができる。   In the state where the display shown in FIG. 5B or FIG. 5C is made, the user can view both the through image and the map image at the same time. Further, when the user performs a predetermined operation while the display of FIG. 5B or 5C is being performed, the map image 182 is enlarged and displayed as shown in FIG. As a predetermined operation for performing this display, for example, an operation of touching the lower part of the map image 182 as shown in FIG. 8A, an operation of turning the camera 1 downward as shown in FIG. Can be considered. Operations other than those shown in FIGS. 8A and 8B may be performed. In the enlarged display as shown in FIG. 7, the display area of the map image can be widened as compared with the display in FIG. 5B or 5 </ b> C.

また、図7で示す拡大表示中に図8と逆の操作がなされた場合には、図5(b)又は図5(c)で示した表示に戻す。即ち、図9(a)に示すような地図画像182の上部にタッチする操作、図9(b)に示すようなカメラ1を上に向ける操作が行われた場合には表示を戻すようにする。この他、図9(c)に示すようにして、地図画像182を画面外に移動させるように指をスライドさせるような操作を受けて図5の表示に戻すようにしても良い。なお、図9で示した操作が行われた場合には、図5(b)又は図5(c)の表示に戻すのではなく、図5(a)で示したスルー画表示に戻すようにしても良い。   Further, when an operation reverse to that in FIG. 8 is performed during the enlarged display shown in FIG. 7, the display is returned to the display shown in FIG. 5B or 5C. That is, the display is returned when an operation of touching the upper portion of the map image 182 as shown in FIG. 9A or an operation of turning the camera 1 upward as shown in FIG. 9B is performed. . In addition, as shown in FIG. 9C, the display may be returned to the display of FIG. 5 in response to an operation of sliding a finger so as to move the map image 182 to the outside of the screen. When the operation shown in FIG. 9 is performed, the display is not returned to the display of FIG. 5B or 5C, but the display of the through image shown in FIG. May be.

以下、上述した地図画像表示の詳細についてさらに説明する。図10は、カメラ1の制御部11において実行される撮影モードの制御について示すフローチャートである。カメラ1の電源がオンされると、制御部11は、プログラム記録部12bに記録された制御プログラムを読み出して図10の制御を開始する。この後、方位検出部23と、位置検出部24と、加速度検出部25の動作をそれぞれ開始させる。   Hereinafter, the details of the map image display described above will be further described. FIG. 10 is a flowchart illustrating the shooting mode control executed by the control unit 11 of the camera 1. When the power of the camera 1 is turned on, the control unit 11 reads the control program recorded in the program recording unit 12b and starts the control in FIG. Thereafter, the operations of the azimuth detecting unit 23, the position detecting unit 24, and the acceleration detecting unit 25 are started.

図10において、まず、制御部11は、カメラ1の動作モードが撮影モードであるか否かを判定する(ステップS101)。本実施形態に係るカメラ1は、動作モードとして、撮影モード、再生モード、地図表示モードを少なくとも有している。撮影モードは、記録用の撮像画像を得るための動作モードである。再生モードは、画像記録部22に記録された撮像画像を再生するための動作モードである。地図表示モードは、図7で示したような拡大された地図画像を表示するための動作モードである。これらの動作モードの切り替えは、例えばユーザによるモードボタンの操作によって行われる。   In FIG. 10, the control unit 11 first determines whether or not the operation mode of the camera 1 is a shooting mode (step S101). The camera 1 according to the present embodiment has at least a shooting mode, a playback mode, and a map display mode as operation modes. The shooting mode is an operation mode for obtaining a captured image for recording. The reproduction mode is an operation mode for reproducing the captured image recorded in the image recording unit 22. The map display mode is an operation mode for displaying an enlarged map image as shown in FIG. Switching between these operation modes is performed, for example, by a user operating a mode button.

ステップS101において、動作モードが撮影モードであると判定した場合、制御部11は、撮像部15によるスルー画表示用の撮像を開始させる(ステップS102)。そして、制御部11は、スルー画表示を行う(ステップS103)。スルー画表示に際し、制御部11は、画像処理部19により、撮像部15を介して得られたスルー画表示用のデジタル電気信号に対してスルー画表示用の画像処理を施し、この画像処理によって得られたスルー画像データを表示駆動部17に出力する。これを受けて、表示駆動部17は、図5(a)に示すようなスルー画像を表示部18に表示させる。   When it is determined in step S101 that the operation mode is the shooting mode, the control unit 11 starts imaging for displaying a through image by the imaging unit 15 (step S102). And the control part 11 performs a through image display (step S103). When displaying a through image, the control unit 11 causes the image processing unit 19 to perform an image process for displaying the through image on the digital electric signal for displaying the through image obtained via the imaging unit 15, The obtained through image data is output to the display driving unit 17. In response to this, the display driving unit 17 causes the display unit 18 to display a through image as shown in FIG.

スルー画表示の後、制御部11は、地図画像が表示中であるか否かを判定する(ステップS104)。ステップS104において、地図画像が表示中でないと判定した場合、制御部11は、Y軸方向の加速度を検出する加速度検出部25の出力が、重力加速度(約9.8m/s2)を示しているか否かを判定する(ステップS105)。   After the through image display, the control unit 11 determines whether or not a map image is being displayed (step S104). If it is determined in step S104 that the map image is not being displayed, the control unit 11 indicates that the output of the acceleration detection unit 25 that detects acceleration in the Y-axis direction indicates gravitational acceleration (about 9.8 m / s2). It is determined whether or not (step S105).

ステップS105において、Y軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していると判定した場合、即ちカメラ1が図3のようにして構えられており、表示部18の表示面がユーザのほうを向いていると考えられる場合に、制御部11は、画像処理部19で得られたスルー画像データの中央部に顔画像が存在していないか否かを判定する(ステップS106)。ステップS106においては、例えば、スルー画像データの中央部から顏の特徴量が検出されない場合には顔画像が存在していないと判定する。この他、簡易的な手法として、例えばスルー画像データの中央部に略円形の輪郭が抽出されない場合には、顔画像が存在しないと判定するようにしても良い。なお、ステップS106の判定を行うのは、地図画像の表示が主に風景撮影の際に用いられると考えられるためである。用途によらずに地図画像を表示させる場合には、ステップS106の判定を省略する。   If it is determined in step S105 that the output of the acceleration detection unit 25 that detects acceleration in the Y-axis direction indicates gravitational acceleration, that is, the camera 1 is held as shown in FIG. When it is considered that the face is facing the user, the control unit 11 determines whether or not a face image is present in the central portion of the through image data obtained by the image processing unit 19 (step). S106). In step S106, for example, when the feature amount of the eyelid is not detected from the central portion of the through image data, it is determined that no face image exists. In addition, as a simple method, for example, when a substantially circular outline is not extracted at the center of the through image data, it may be determined that no face image exists. Note that the determination in step S106 is performed because it is considered that the display of the map image is mainly used for landscape photography. When displaying a map image regardless of the application, the determination in step S106 is omitted.

ステップS106において、スルー画像データの中央部に顏画像が存在していない、即ち風景撮影がなされていると判定した場合に、制御部11は、Z軸方向の加速度が発生したか否かを判定する(ステップS107)。ステップS107においては、例えばZ軸方向の加速度を検出する加速度検出部25の出力が所定の値以上となった場合に、Z軸方向の加速度が発生したと判定する。この加速度の閾値は、例えば制御パラメータとしてプログラム記録部12bに予め記録されている。   If it is determined in step S106 that there is no haze image at the center of the through image data, that is, that landscape photography is being performed, the control unit 11 determines whether acceleration in the Z-axis direction has occurred. (Step S107). In step S107, it is determined that acceleration in the Z-axis direction has occurred, for example, when the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction is equal to or greater than a predetermined value. The acceleration threshold is recorded in advance in the program recording unit 12b as a control parameter, for example.

ステップS105においてY軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していないと判定した場合、ステップS106においてスルー画像データの中央部に顏画像が存在していると判定した場合、又はステップS107においてZ軸方向の加速度を検出する加速度検出部25の出力が所定の値以上となっていないと判定した場合に、制御部11は、処理をステップS115に移行させる。   When it is determined in step S105 that the output of the acceleration detection unit 25 that detects acceleration in the Y-axis direction does not indicate gravitational acceleration, it is determined in step S106 that there is a cocoon image at the center of the through image data Or when it determines with the output of the acceleration detection part 25 which detects the acceleration of a Z-axis direction not having become more than predetermined value in step S107, the control part 11 transfers a process to step S115.

ステップS107において、Z軸方向の加速度を検出する加速度検出部25の出力が所定の値以上となったと判定した場合、即ち図6で示したような前方へのカメラ1の動きが検出された場合に、制御部11は、地図データ記録部12cから地図画像データを取得する(ステップS108)。   When it is determined in step S107 that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction has become equal to or greater than a predetermined value, that is, when the forward movement of the camera 1 as shown in FIG. 6 is detected. In addition, the control unit 11 acquires map image data from the map data recording unit 12c (step S108).

ここで、ステップS108における地図画像データの取得処理について説明する。まず、第1の例として、カメラ1の画角を考慮して地図画像データを取得する。例えば、地図上の図11(a)の位置にカメラ1が存在しており、図11(a)で示す方位にカメラ1の撮像光学系が向いているとすると、図11(a)の画角φによって規定される範囲内の撮像画像が取得される。第1の例では、この画角φに対応した範囲の地図画像を表示させる。例えば、図11(a)に示すように、カメラ1の現在位置を含んでカメラ1の現在の方位と直交する方向の辺を下辺とし、この下辺からカメラ1の現在の方位と平行な方向に所定距離L(例えば1km)の整数倍だけ離れた辺を上辺とする矩形の範囲であって、上辺の長さが画角φと対応している範囲の地図画像データを取得する。より詳しく説明すると、第1の例では、カメラ1の現在位置を含み、カメラ1の現在の方位と平行な方向の幅が(n×L)(n=1、2、…)であり、カメラ1の現在の方位と直交する方向の幅が(2×n×Ltan(φ/2))である矩形の範囲の地図画像データを取得する。nの値は、初期値を1とし、Z軸の正方向の加速度がカメラ1に加えられる毎に1ずつ増加させる。この場合、ステップS108の処理では、図11(a)の地図範囲1で示す地図画像データが取得され、その後のステップS111においてZ軸の正方向の加速度が再び検出されたときには、図11(a)の地図範囲2で示す地図画像データが取得される。このような第1の例では、現在位置から撮影可能なランドマークを知ることができる地図画像を表示させることが可能である。
なお、上述の地図画像データの取得処理によって、該当する地図画像データを取得できない場合も考えられる。このような場合には、該当する地図画像データが存在していない旨をユーザに警告することが望ましい。この際、制御部11は、例えば表示部18に警告表示を行う。この他、音声再生部を持たせれば、音声によって警告をしても良い。
Here, the map image data acquisition process in step S108 will be described. First, as a first example, map image data is acquired in consideration of the angle of view of the camera 1. For example, if the camera 1 exists at the position of FIG. 11A on the map and the imaging optical system of the camera 1 is oriented in the direction shown in FIG. 11A, the image of FIG. A captured image within a range defined by the angle φ is acquired. In the first example, a map image in a range corresponding to this angle of view φ is displayed. For example, as shown in FIG. 11A, the side in the direction perpendicular to the current direction of the camera 1 including the current position of the camera 1 is set as the lower side, and the direction from the lower side is parallel to the current direction of the camera 1. Map image data is acquired in a rectangular range having an upper side that is a side separated by an integral multiple of a predetermined distance L (for example, 1 km), the length of the upper side corresponding to the angle of view φ. More specifically, in the first example, the width in the direction parallel to the current direction of the camera 1 including the current position of the camera 1 is (n × L) (n = 1, 2,...) The map image data in a rectangular range in which the width in the direction orthogonal to the current azimuth of 1 is (2 × n × Ltan (φ / 2)) is acquired. The value of n is set to 1 as an initial value, and is incremented by 1 every time the acceleration in the positive direction of the Z axis is applied to the camera 1. In this case, in the process of step S108, the map image data indicated by the map range 1 in FIG. 11A is acquired, and when acceleration in the positive direction of the Z axis is detected again in step S111, FIG. The map image data indicated by the map range 2 in FIG. In such a first example, it is possible to display a map image in which landmarks that can be photographed can be known from the current position.
Note that there may be a case where the corresponding map image data cannot be acquired by the above-described map image data acquisition process. In such a case, it is desirable to warn the user that the corresponding map image data does not exist. At this time, the control unit 11 displays a warning on the display unit 18, for example. In addition, if an audio playback unit is provided, a warning may be given by voice.

また、第2の例として、カメラ1の画角を考慮せずに地図画像データを取得するようにしても良い。第2の例では、図11(b)に示すように、カメラ1の現在位置を含んでカメラ1の方位と直交する方向の所定幅Wの辺を下辺とし、この下辺からカメラ1の現在の方位と平行な方向に所定距離L(例えば地図画像上での1km)の整数倍だけ離れた所定幅Wの辺を上辺とする矩形の範囲の地図画像データを取得する。より詳しく説明すると、第2の例では、カメラ1の現在位置を含み、カメラ1の現在の方位と平行な方向の幅が(n×L)(n=1、2、…)であり、カメラ1の方位と直交する方向の辺の幅がWである矩形の範囲の地図画像データを取得する。nの値は、初期値を1とし、Z軸の正方向の加速度がカメラ1に加えられる毎に1ずつ増加させる。この場合、ステップS108の処理では、図11(b)の地図範囲1で示す地図画像データが取得され、その後のステップS111においてZ軸の正方向の加速度が再び検出されたときには、図11(b)の地図範囲2で示す地図画像データが取得される。このような第2の例では、カメラ1の向いているほうに何があるかを知ることができる地図画像を表示させることが可能である。また、第2の例では、第1の例に比べて地図画像データの範囲の演算を簡略化することが可能である。   As a second example, map image data may be acquired without considering the angle of view of the camera 1. In the second example, as shown in FIG. 11B, a side having a predetermined width W in a direction orthogonal to the azimuth of the camera 1 including the current position of the camera 1 is set as a lower side, and the current of the camera 1 is determined from the lower side. Map image data of a rectangular range having a side with a predetermined width W separated by an integral multiple of a predetermined distance L (for example, 1 km on the map image) in a direction parallel to the azimuth is acquired. More specifically, in the second example, the width in the direction including the current position of the camera 1 and parallel to the current direction of the camera 1 is (n × L) (n = 1, 2,...) Map image data in a rectangular range in which the width of the side in the direction orthogonal to the direction of 1 is W is acquired. The value of n is set to 1 as an initial value, and is incremented by 1 every time the acceleration in the positive direction of the Z axis is applied to the camera 1. In this case, in the process of step S108, map image data indicated by the map range 1 in FIG. 11B is acquired, and when acceleration in the positive direction of the Z axis is detected again in step S111, FIG. The map image data indicated by the map range 2 in FIG. In such a second example, it is possible to display a map image that can tell what the camera 1 is facing. Further, in the second example, the calculation of the range of the map image data can be simplified as compared with the first example.

ここで、第1の例及び第2の例では、カメラ1が前方に動かされる毎にLずつ遠方の地図画像データを取得するようにしている。これに対し、Lを可変としても良い。例えば、Z軸の正方向の加速度の大きさに応じてLを設定したり、撮像光学系の焦点距離、即ちズームレンズのズーム状態に応じてLを設定したりしても良い。さらには、これらを組み合わせてLを変化させるようにしても良い。   Here, in the first example and the second example, the distant map image data is acquired by L each time the camera 1 is moved forward. On the other hand, L may be variable. For example, L may be set according to the magnitude of acceleration in the positive direction of the Z axis, or L may be set according to the focal length of the imaging optical system, that is, the zoom state of the zoom lens. Furthermore, L may be changed by combining these.

例えば、加速度の大きさに応じてLを設定する場合、Lと加速度の大きさとの関係を定義しておく。例えば、L=(αZ/α0)×L0と定義しておく。この式のαZは、Z軸方向の加速度である。また、α0は、所定の加速度の大きさであって、例えば重力加速度や加速度検出部25で検出可能な最大加速度である。また、L0は所定値(例えば地図画像上での1km)である。このようにして加速度に応じてLを可変とすることにより、例えば遠方の地図画像を表示させるために何回もカメラ1を動かす必要がなくなる。   For example, when L is set according to the magnitude of acceleration, the relationship between L and the magnitude of acceleration is defined. For example, L = (αZ / α0) × L0 is defined. ΑZ in this equation is the acceleration in the Z-axis direction. Α0 is a predetermined acceleration magnitude, for example, a gravitational acceleration or a maximum acceleration that can be detected by the acceleration detecting unit 25. L0 is a predetermined value (for example, 1 km on the map image). By making L variable according to the acceleration in this way, for example, it is not necessary to move the camera 1 many times in order to display a distant map image.

また、ズーム状態に応じてLを設定する場合には、Lとズーム位置との関係を定義しておく。この関係は、例えばテーブルとして地図データ記録部12cに記憶させておく。なお、このテーブルは、ズームレンズが望遠側にある場合のLよりもズームレンズが広角側にある場合のLのほうが短くなるように設定しておく。   When L is set according to the zoom state, the relationship between L and the zoom position is defined. This relationship is stored in the map data recording unit 12c as a table, for example. This table is set so that L when the zoom lens is on the wide-angle side is shorter than L when the zoom lens is on the telephoto side.

以下、図10の説明に戻る。地図画像データを取得した後、制御部11は、取得した地図画像データに基づく地図画像をスルー画像に重ねて表示させる(ステップS109)。その後、制御部11は、処理をステップS115に移行させる。ここで、ステップS109において、制御部11は、地図画像データを表示駆動部17に入力する。表示駆動部17は、入力された地図画像データを表示部18の表示画面の大きさに合わせてリサイズするとともに台形状に整形し、台形状に整形した地図画像データをスルー画像データに重ねて表示部18に表示させる。ここで、台形状地図画像データの高さは、例えばもとの1/2とする。また、上辺と下辺の長さの比は、例えば1:2とする。これらの値は一例であって適宜変更可能である。   Returning to the description of FIG. After acquiring the map image data, the control unit 11 displays a map image based on the acquired map image data on the through image (step S109). Thereafter, the control unit 11 shifts the process to step S115. Here, in step S <b> 109, the control unit 11 inputs the map image data to the display driving unit 17. The display driving unit 17 resizes the input map image data in accordance with the size of the display screen of the display unit 18 and shapes it into a trapezoidal shape, and displays the map image data shaped in a trapezoidal shape on the through image data. This is displayed on the unit 18. Here, the height of the trapezoidal map image data is, for example, 1/2 of the original. Further, the ratio of the length of the upper side and the lower side is, for example, 1: 2. These values are examples and can be changed as appropriate.

また、ステップS104において、地図画像が表示中であると判定した場合、制御部11は、制御部11は、Z軸方向の加速度が再び発生したか否かを判定する(ステップS110)。   If it is determined in step S104 that the map image is being displayed, the control unit 11 determines whether or not acceleration in the Z-axis direction has occurred again (step S110).

ステップS110において、Z軸方向の加速度が再び発生したと判定した場合、制御部11は、現在のカメラ1の方位と平行な方向のさらに遠方の地図画像をスルー画像に重ねて表示させる(ステップS111)。その後、制御部11は、処理をステップS115に移行させる。ステップS111の処理は、ステップS108及びS109の処理に準じたものであり、nの値に1を加えた範囲の地図画像データを新たに取得して表示部18に表示させる点が異なる。   If it is determined in step S110 that the acceleration in the Z-axis direction has occurred again, the control unit 11 displays a map image farther in the direction parallel to the current orientation of the camera 1 on the through image (step S111). ). Thereafter, the control unit 11 shifts the process to step S115. The process of step S111 is similar to the processes of steps S108 and S109, and is different in that map image data in a range obtained by adding 1 to the value of n is newly acquired and displayed on the display unit 18.

また、ステップS110において、Z軸方向の加速度が再び発生していないと判定した場合、制御部11は、タッチパネル14の出力から、ユーザによって表示部18に表示中の地図画像の下部へのタッチ操作がなされたか否かを判定するとともに、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示しているか否かを判定する(ステップS112)。   If it is determined in step S110 that acceleration in the Z-axis direction has not occurred again, the control unit 11 performs a touch operation on the lower part of the map image displayed on the display unit 18 by the user from the output of the touch panel 14. And whether or not the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction indicates gravitational acceleration (step S112).

ステップS112において、ユーザによる地図画像の下部へのタッチ操作がなされたと判定した場合、又はZ軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していると判定した場合、即ちカメラ1の姿勢が下向き(撮像光学系が地表を向いている状態)に変化したと考えられる場合に、制御部11は、後述する地図表示モードの制御を実行する。   If it is determined in step S112 that the user has performed a touch operation on the lower part of the map image, or if it is determined that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction indicates gravitational acceleration, that is, the camera When it is considered that the posture of 1 has changed downward (a state in which the imaging optical system faces the ground surface), the control unit 11 performs control of a map display mode to be described later.

ステップS112において、ユーザによる地図画像へのタッチ操作がなされていないと判定し、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していないと判定した場合、制御部11は、Z軸方向の加速度を検出する加速度検出部25の出力が負の重力加速度を示しているか否かを判定する(ステップS113)。Z軸方向の加速度を検出する加速度検出部25の出力が負の重力加速度を示している状態とは、カメラ1の姿勢が上向きになってカメラ1の背面側に重力がかかっている状態を示している。   If it is determined in step S112 that the user has not performed a touch operation on the map image, and it is determined that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction does not indicate gravitational acceleration, the control unit 11 Then, it is determined whether or not the output of the acceleration detector 25 that detects the acceleration in the Z-axis direction indicates negative gravitational acceleration (step S113). The state in which the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction indicates negative gravitational acceleration indicates a state in which the posture of the camera 1 is upward and gravity is applied to the back side of the camera 1. ing.

ステップS113において、Z軸方向の加速度を検出する加速度検出部25の出力が負の重力加速度を示していないと判定した場合、制御部11は、処理をステップS115に移行させる。また、ステップS113において、Z軸方向の加速度を検出する加速度検出部25の出力が負の重力加速度を示していると判定した場合、即ちカメラ1の姿勢が上向きに変化したと考えられる場合に、制御部11は、地図画像の表示を終了させるように表示駆動部17に指示する(ステップS114)。その後、制御部11は、処理をステップS101に戻す。   When determining in step S113 that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction does not indicate negative gravitational acceleration, the control unit 11 shifts the processing to step S115. In Step S113, when it is determined that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction indicates negative gravitational acceleration, that is, when it is considered that the posture of the camera 1 has changed upward. The control unit 11 instructs the display driving unit 17 to end the display of the map image (step S114). Then, the control part 11 returns a process to step S101.

また、ステップS105、S106、107、S113においてNoであると判定した場合、又はステップS109、S111の後、制御部11は、ユーザによって撮影実行の指示がなされたか、即ちユーザによってレリーズボタンが押されたか否かを判定する(ステップS115)。
ステップS115において、撮影実行の指示がなされていないと判定した場合に、制御部11は、処理をステップS101に戻す。また、ステップS115において、撮影実行の指示がなされたと判定した場合に、制御部11は、撮影動作及び記録動作を実行する(ステップS116)。撮影動作において、制御部11は、AF駆動回路を制御してAF機構を駆動させることにより、フォーカスレンズを駆動して撮像光学系の焦点位置を調整する。その後、制御部11は、絞りやシャッタを駆動しつつ、撮像部15による撮像を開始させる。続いて、制御部11は、撮像部15を介して得られた記録用のデジタル電気信号に対し、画像処理部19により、記録用の画像処理を施す。そして、制御部11は、画像処理によって得られた撮像画像データを、圧縮伸長部20により圧縮する。その後、制御部11は、圧縮した撮像画像データにヘッダ情報を追加して画像ファイルを生成し、生成した画像ファイルを記録・再生部21を介して画像記録部22に記録させる。ここで、ヘッダ情報としては、絞りやシャッタの値やズーム状態等の他、ファイル名、撮影日時情報、撮影場所の経度情報K及び緯度情報I等を記録する。
In addition, when it is determined No in Steps S105, S106, 107, and S113, or after Steps S109 and S111, the control unit 11 has instructed execution of shooting by the user, that is, the user has pressed the release button. It is determined whether or not (step S115).
If it is determined in step S115 that an instruction to perform shooting has not been given, the control unit 11 returns the process to step S101. If it is determined in step S115 that an instruction to perform shooting has been issued, the control unit 11 performs a shooting operation and a recording operation (step S116). In the photographing operation, the control unit 11 controls the AF driving circuit to drive the AF mechanism, thereby driving the focus lens to adjust the focal position of the imaging optical system. Thereafter, the control unit 11 starts imaging by the imaging unit 15 while driving the aperture and the shutter. Subsequently, the control unit 11 performs image processing for recording on the digital digital signal for recording obtained via the imaging unit 15 by the image processing unit 19. Then, the control unit 11 compresses the captured image data obtained by the image processing by the compression / decompression unit 20. Thereafter, the control unit 11 adds header information to the compressed captured image data to generate an image file, and causes the image recording unit 22 to record the generated image file via the recording / playback unit 21. Here, as header information, a file name, shooting date / time information, shooting location longitude information K, latitude information I, and the like are recorded in addition to an aperture value, a shutter value, a zoom state, and the like.

ここで、記録動作の際に、撮影動作の直前にスルー画像データに重畳されていた地図画像データを、画像ファイルと併せて画像記録部22に記録させるようにしても良い。この場合には、撮像画像データと地図画像データとを単一のファイルに記録しても良いし、別々のファイルに記録しても良い。また、地図画像データは、台形状に整形した後のものを記録しても良いし、台形状に整形する前のものを記録しても良い。   Here, during the recording operation, the map image data superimposed on the through image data immediately before the photographing operation may be recorded in the image recording unit 22 together with the image file. In this case, the captured image data and the map image data may be recorded in a single file, or may be recorded in separate files. Further, the map image data may be recorded after being shaped into a trapezoid, or may be recorded before being shaped into a trapezoid.

また、ステップS101において、動作モードが撮影モードでないと判定した場合、制御部11は、動作モードが再生モードであるか否かを判定する(ステップS117)。ステップS117において、動作モードが再生モードであると判定した場合、制御部11は、後述する再生モードの処理を実行する。また、ステップS117において、動作モードが再生モードでないと判定した場合、即ち動作モードが地図表示モードである場合に、制御部11は、地図データ記録部12cから地図画像データを取得する(ステップS118)。その後、制御部11は、後述する地図表示モードの処理を実行する。ここで、ステップS118の処理は、ステップS108と同様の処理で良いため、説明を省略する。   If it is determined in step S101 that the operation mode is not the shooting mode, the control unit 11 determines whether or not the operation mode is the reproduction mode (step S117). If it is determined in step S117 that the operation mode is the reproduction mode, the control unit 11 performs a reproduction mode process described later. If it is determined in step S117 that the operation mode is not the playback mode, that is, if the operation mode is the map display mode, the control unit 11 acquires map image data from the map data recording unit 12c (step S118). . Then, the control part 11 performs the process of the map display mode mentioned later. Here, since the process of step S118 may be the same as that of step S108, description thereof is omitted.

図12は、地図表示モードの制御について示すフローチャートである。地図表示モードにおいて、制御部11は、表示部18におけるスルー画表示を中止させる。その後、制御部11は、表示部18に表示させている地図画像を、図7に示すようにして表示部18の全面に表示させる(ステップS201)。全面表示の際には、地図画像データを台形状に補正する必要はない。   FIG. 12 is a flowchart showing the control of the map display mode. In the map display mode, the control unit 11 stops the through image display on the display unit 18. Then, the control part 11 displays the map image currently displayed on the display part 18 on the whole surface of the display part 18 as shown in FIG. 7 (step S201). It is not necessary to correct the map image data into a trapezoidal shape for full-screen display.

地図画像を全面表示した後、制御部11は、Z軸方向の加速度を検出する加速度検出部25の出力が、重力加速度を示しているか否かを判定する(ステップS202)。ステップS202において、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していないと判定した場合、例えばカメラ1が横向きで構えられていると考えられる場合に、制御部11は、モードボタンが操作されたか否かを判定する(ステップS203)。ステップS203において、モードボタンが操作されていないと判定した場合に、制御部11は、処理をステップS201に戻す。また、ステップS203において、モードボタンが操作されたと判定した場合に、制御部11は、処理をステップS101に戻す。   After displaying the map image on the entire surface, the control unit 11 determines whether or not the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction indicates gravitational acceleration (step S202). In step S202, when it is determined that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction does not indicate gravitational acceleration, for example, when it is considered that the camera 1 is held sideways, the control unit 11 Then, it is determined whether or not the mode button has been operated (step S203). If it is determined in step S203 that the mode button has not been operated, the control unit 11 returns the process to step S201. If it is determined in step S203 that the mode button has been operated, the control unit 11 returns the process to step S101.

また、ステップS202において、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していると判定した場合、即ちカメラ1が下向きで構えられており、表示部18の表示面が上面を向いていると考えられる場合に、制御部11は、Y軸方向の加速度を検出する加速度検出部25の出力が重量加速度を示しているか否かを判定する(ステップS204)。   If it is determined in step S202 that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction indicates gravitational acceleration, that is, the camera 1 is held downward, and the display surface of the display unit 18 is When it is thought that it is facing the upper surface, the control part 11 determines whether the output of the acceleration detection part 25 which detects the acceleration of a Y-axis direction has shown weight acceleration (step S204).

ステップS204において、Y軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していないと判定した場合、即ちカメラ1の姿勢が下向きのままであると考えられる場合に、制御部11は、タッチパネル14の出力から、ユーザによって地図画像の上部へのタッチ操作がなされたか否かを判定する(ステップS205)。   In step S204, when it is determined that the output of the acceleration detection unit 25 that detects acceleration in the Y-axis direction does not indicate gravitational acceleration, that is, when it is considered that the posture of the camera 1 remains downward, the control unit 11 Determines from the output of the touch panel 14 whether or not the user has touched the top of the map image (step S205).

ステップS204においてY軸方向の加速度を検出する加速度検出部25の出力が重力加速度を示していると判定した場合、即ちカメラ1の姿勢が下向きから横向きに変化したと考えられる場合、又はユーザによって地図画像の上部へのタッチ操作がなされたと判定した場合に、制御部11は、処理をステップS115に移行させる。この場合には、図7で示した表示から図5(b)又は図5(c)で示した表示に戻る。   When it is determined in step S204 that the output of the acceleration detection unit 25 that detects acceleration in the Y-axis direction indicates gravitational acceleration, that is, when it is considered that the posture of the camera 1 has changed from the downward direction to the horizontal direction, or by the user When determining that the touch operation on the upper part of the image has been performed, the control unit 11 shifts the processing to step S115. In this case, the display shown in FIG. 7 returns to the display shown in FIG. 5B or 5C.

ステップS205において、ユーザによって地図画像の上部へのタッチ操作がなされていないと判定した場合に、制御部11は、Y軸方向の加速度が発生したか否かを判定する(ステップS206)。ステップS206においては、例えばY軸方向の加速度を検出する加速度検出部25の出力が所定の値以上となった場合に、Y軸方向の加速度が発生したと判定する。この加速度の閾値は、例えば制御パラメータとしてプログラム記録部12bに予め記録されている。   If it is determined in step S205 that the user has not performed a touch operation on the upper part of the map image, the control unit 11 determines whether or not acceleration in the Y-axis direction has occurred (step S206). In step S206, for example, when the output of the acceleration detection unit 25 that detects acceleration in the Y-axis direction is equal to or greater than a predetermined value, it is determined that acceleration in the Y-axis direction has occurred. The acceleration threshold is recorded in advance in the program recording unit 12b as a control parameter, for example.

ステップS206においてY軸方向の加速度が発生していないと判定した場合に、制御部11は、処理をステップS201に戻す。この場合、地図画像の拡大表示が継続される。また、ステップS206において、Y軸方向の加速度が発生したと判定した場合、即ち図13で示したように、カメラ1が下向きの状態で前方への加速度が加えられたと考えられる場合に、制御部11は、方位検出部23の出力から、現在のカメラ1の方位を検出する(ステップS207)。続いて、制御部11は、現在のカメラ1の方位と平行な方向のさらに遠方の地図画像を表示させる(ステップS208)。その後、制御部11は、処理をステップS201に戻す。   When determining in step S206 that acceleration in the Y-axis direction has not occurred, the control unit 11 returns the process to step S201. In this case, the enlarged display of the map image is continued. When it is determined in step S206 that acceleration in the Y-axis direction has occurred, that is, when it is considered that forward acceleration is applied with the camera 1 facing downward as shown in FIG. 11 detects the current orientation of the camera 1 from the output of the orientation detector 23 (step S207). Subsequently, the control unit 11 displays a further distant map image in a direction parallel to the current orientation of the camera 1 (step S208). Then, the control part 11 returns a process to step S201.

図14は、再生モードの制御について示すフローチャートである。再生モードにおいて、制御部11は、表示駆動部17を制御して、画像記録部22に記録されている画像ファイルの一覧を表示部18に表示させる(ステップS301)。その後、制御部11は、ユーザにより、一覧表示された画像ファイルの何れかが選択されたか否かを判定する(ステップS302)。   FIG. 14 is a flowchart showing the control of the playback mode. In the playback mode, the control unit 11 controls the display driving unit 17 to display a list of image files recorded in the image recording unit 22 on the display unit 18 (step S301). Thereafter, the control unit 11 determines whether any of the image files displayed as a list has been selected by the user (step S302).

ステップS302において、画像ファイルの何れかが選択されたと判定した場合に、制御部11は、選択された画像ファイルを再生する(ステップS303)。この際、制御部11は、記録・再生部21を介して画像ファイルを読み出し、読み出した画像ファイルを圧縮伸長部20に入力して撮像画像データを伸張する。その後、制御部11は、伸長した撮像画像データを表示駆動部17に入力し、表示部18に拡大画像を表示させる。   If it is determined in step S302 that any of the image files has been selected, the control unit 11 reproduces the selected image file (step S303). At this time, the control unit 11 reads an image file via the recording / playback unit 21 and inputs the read image file to the compression / decompression unit 20 to decompress the captured image data. Thereafter, the control unit 11 inputs the expanded captured image data to the display driving unit 17 and causes the display unit 18 to display an enlarged image.

画像ファイルの再生後、制御部11は、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度から増加したか否かを判定する(ステップS304)。   After reproducing the image file, the control unit 11 determines whether or not the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction has increased from the gravitational acceleration (step S304).

ステップS304において、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度から増加していないと判定した場合に、制御部11は、処理をステップS302に戻す。また、ステップS304において、Z軸方向の加速度を検出する加速度検出部25の出力が重力加速度から増加したと判定した場合、即ち図15に示すようにカメラ1が下向きの状態で下方への加速度が加えられたと考えられる場合に、制御部11は、選択されている画像ファイルのヘッダ情報から、撮影時において、撮像画像が得られた位置を示す経度情報K及び緯度情報Iを取得する(ステップS305)。そして、制御部11は、取得した経度情報K及び緯度情報Iを含む地図画像データを、地図データ記録部12cから検索する(ステップS306)。   When determining in step S304 that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction has not increased from the gravitational acceleration, the control unit 11 returns the process to step S302. If it is determined in step S304 that the output of the acceleration detection unit 25 that detects acceleration in the Z-axis direction has increased from the gravitational acceleration, that is, as shown in FIG. When it is considered that the information has been added, the control unit 11 acquires, from the header information of the selected image file, longitude information K and latitude information I indicating the position where the captured image is obtained at the time of shooting (step S305). ). Then, the control unit 11 searches the map data recording unit 12c for map image data including the acquired longitude information K and latitude information I (step S306).

地図画像データの検索の後、制御部11は、該当する地図画像データが存在しているか否かを判定する(ステップS307)。ステップS307において、該当する地図画像データが存在していると判定した場合に、制御部11は、該当する地図画像データを地図データ記録部12cから読み出し、読み出した地図画像データに基づく地図画像を現在再生中の撮像画像に重ねて表示させる(ステップS308)。この際、例えば再生中の撮像画像と地図画像の何れか一方を縮小して表示させる。   After retrieving the map image data, the control unit 11 determines whether or not the corresponding map image data exists (step S307). If it is determined in step S307 that the corresponding map image data exists, the control unit 11 reads the corresponding map image data from the map data recording unit 12c, and displays a map image based on the read map image data at present. The image is displayed so as to overlap the captured image being reproduced (step S308). At this time, for example, one of the captured image and the map image being reproduced is reduced and displayed.

地図画像の表示後、制御部11は、画像ファイルの再生を終了させるか否かを判定する(ステップS309)。画像ファイルの再生を終了させるか否かの判定は、例えば画像ファイルの終了を指示するための所定のボタンが操作されたか否かを判定することで行う。ステップS309において、画像ファイルの再生を終了させないと判定した場合に、制御部11は、処理をステップS308に戻す。また、ステップS309において、画像ファイルの再生を終了させると判定した場合に、制御部11は、処理をステップS302に戻す。   After displaying the map image, the control unit 11 determines whether or not to end the reproduction of the image file (step S309). Whether or not to end the reproduction of the image file is determined, for example, by determining whether or not a predetermined button for instructing the end of the image file is operated. If it is determined in step S309 that the reproduction of the image file is not terminated, the control unit 11 returns the process to step S308. If it is determined in step S309 that the reproduction of the image file is to be terminated, the control unit 11 returns the process to step S302.

また、ステップS307において、該当する地図画像データが存在していないと判定した場合に、制御部11は、該当する地図画像データが存在していない旨をユーザに警告する(ステップS310)。この際、制御部11は、例えば表示部18に警告表示を行う。この他、音声再生部を持たせれば、音声によって警告をしても良い。   If it is determined in step S307 that the corresponding map image data does not exist, the control unit 11 warns the user that the corresponding map image data does not exist (step S310). At this time, the control unit 11 displays a warning on the display unit 18, for example. In addition, if an audio playback unit is provided, a warning may be given by voice.

また、ステップS302において、画像ファイルが選択されていないと判定した場合に、制御部11は、モードボタンが操作されたか否かを判定する(ステップS311)。ステップS311において、モードボタンが操作されていないと判定した場合に、制御部11は、処理をステップS301に戻す。また、ステップS311において、モードボタンが操作されたと判定した場合に、制御部11は、処理をステップS101に戻す。   If it is determined in step S302 that no image file has been selected, the control unit 11 determines whether or not the mode button has been operated (step S311). In step S311, when it determines with the mode button not being operated, the control part 11 returns a process to step S301. If it is determined in step S311 that the mode button has been operated, the control unit 11 returns the process to step S101.

以上説明したように、本実施形態によれば、カメラ1の現在の方位と平行な方向の加速度(動き)に応じて地図画像の表示を開始させたり、地図画像の表示範囲を切り替えたりするようにしている。これにより、ユーザは、カメラ1を両手で構えながらでも容易に、地図画像の表示に関する操作を行うことが可能である。   As described above, according to the present embodiment, the display of the map image is started or the display range of the map image is switched in accordance with the acceleration (movement) in the direction parallel to the current orientation of the camera 1. I have to. Accordingly, the user can easily perform operations related to the display of the map image while holding the camera 1 with both hands.

また、本実施形態では、カメラ1が構えられている、即ち表示部18の表示面がユーザのほうを向いている場合には、地図画像を台形状に補正してからスルー画像に重ねて表示させるようにしている。これにより、地図画像を見たユーザに奥行感を感じさせ、また、撮像画像(スルー画像)と地図画像との関係が把握し易くなる。また、カメラ1が下向きで構えられている、即ち表示部18の表示面が上を向いている場合には、地図画像を全面表示させるようにしている。図4に示したような地図画像の場合、表示部18の表示面が上を向いている場合には地図画像と実際の風景とが対応するので両者の関係が把握し易くなる。   Further, in the present embodiment, when the camera 1 is set, that is, when the display surface of the display unit 18 faces the user, the map image is corrected to a trapezoidal shape and then displayed on the through image. I try to let them. This makes the user who has seen the map image feel a sense of depth, and makes it easier to grasp the relationship between the captured image (through image) and the map image. Further, when the camera 1 is held downward, that is, when the display surface of the display unit 18 faces upward, the map image is displayed on the entire surface. In the case of the map image as shown in FIG. 4, when the display surface of the display unit 18 faces upward, the map image and the actual landscape correspond to each other, so that the relationship between the two can be easily grasped.

以下、本実施形態の変形例について説明する。
図10の例では、カメラ1の電源オンとともに、方位検出部23と、位置検出部24と、加速度検出部25の動作をそれぞれ開始させるようにようしている。これに対し、例えば特定のボタンが操作されている間だけ、方位検出部23と、位置検出部24と、加速度検出部25を動作させるようにようしても良い。例えば、レリーズボタンは、2段押し式のボタンで構成されることがあり、この場合、レリーズボタンの1段目の押圧を受けてAF等を実行してレリーズボタンの1段目の押圧がされている間はフォーカスレンズのフォーカスを維持する所謂フォーカスロック機能をカメラ1に持たせることが可能である。フォーカスロックがされている間、方位検出部23と、位置検出部24と、加速度検出部25を動作させるようにすることで、撮影時において最も地図画像が必要とされるタイミングで方位検出部23と、位置検出部24と、加速度検出部25を動作させることにより、これらを常に動作させる場合に比べて消費電力の低減を図ることが可能である。
Hereinafter, modifications of the present embodiment will be described.
In the example of FIG. 10, the operation of the azimuth detecting unit 23, the position detecting unit 24, and the acceleration detecting unit 25 is started when the camera 1 is turned on. On the other hand, for example, the direction detection unit 23, the position detection unit 24, and the acceleration detection unit 25 may be operated only while a specific button is operated. For example, the release button may be composed of a two-stage push button. In this case, the first button of the release button is pressed by executing AF or the like upon receiving the first press of the release button. During this time, the camera 1 can be provided with a so-called focus lock function for maintaining the focus of the focus lens. While the focus is locked, the azimuth detection unit 23, the position detection unit 24, and the acceleration detection unit 25 are operated, so that the azimuth detection unit 23 is at the timing when the map image is most needed at the time of photographing. And by operating the position detection part 24 and the acceleration detection part 25, it is possible to aim at reduction of power consumption compared with the case where these are always operated.

また、ステップS108における地図画像データの取得に際しては、撮像光学系の水平画角に応じた範囲の地図画像データを抽出するようにしている。しかしながら、実際には垂直方向にも画角が存在するので、カメラ1の仰角によっては、図11(a)で示した水平画角φ内であっても撮像できないランドマークが存在する可能性がある。したがって、地図画像データが3次元情報(緯度・経度・高度)を有している場合には、カメラ1の画角だけでなく、カメラ1の仰角に応じた範囲の地図画像データを取得するようにすることが望ましい。なお、3次元情報を有する地図画像データとは、例えば図16に示すようなランドマークの高さが等高線によって示されている地図画像データである。   In addition, when acquiring the map image data in step S108, the map image data in a range corresponding to the horizontal angle of view of the imaging optical system is extracted. However, since the angle of view actually exists in the vertical direction, depending on the elevation angle of the camera 1, there may be a landmark that cannot be imaged even within the horizontal angle of view φ shown in FIG. is there. Therefore, when the map image data has three-dimensional information (latitude / longitude / altitude), not only the angle of view of the camera 1 but also the range of map image data corresponding to the elevation angle of the camera 1 is acquired. It is desirable to make it. Note that the map image data having three-dimensional information is map image data in which the heights of landmarks as shown in FIG. 16 are indicated by contour lines, for example.

例えば、ユーザ100が、図17(a)に示すように、地表に対する仰角θでカメラ1を構えたとする。このとき、カメラ1の光軸は、図17(b)に示すように、地表に対してθだけ傾いた状態となる。したがって、高度Hの方向で見た場合のカメラ1の撮影可能な範囲は、光軸を中心として垂直画角φの範囲となる。距離L1だけ離れたランドマークの高さが、垂直画角φによって規定される高さよりも低い場合には、そのランドマークを撮影することができない。実際には、ユーザ100の身長H1を考慮した範囲が、高度Hの方向で見た場合の撮影可能な範囲となる。身長H1は、固定値(例えば1.5m)としてもそれほど大きな誤差とはならない。また、仰角θは、加速度検出部125の出力から検出することが可能である。図17(b)に示す関係から撮影することができないと判定されたランドマークを、図17(c)に示すようにして除去する。例えば、高度Hが、H<H1+L1tan(θ−φ/2)となるランドマークを取得した地図画像データから除去して表示させる。これにより、より正確にカメラ1の向いている方向で撮影可能なランドマークを、地図画像上で認識することが可能である。   For example, it is assumed that the user 100 holds the camera 1 at an elevation angle θ with respect to the ground surface as shown in FIG. At this time, the optical axis of the camera 1 is inclined by θ with respect to the ground surface, as shown in FIG. Therefore, the range that can be captured by the camera 1 when viewed in the direction of the altitude H is the range of the vertical angle of view φ around the optical axis. When the height of the landmark separated by the distance L1 is lower than the height defined by the vertical angle of view φ, the landmark cannot be photographed. Actually, the range in which the height H1 of the user 100 is taken into consideration is the range where photographing is possible when viewed in the direction of altitude H. Even if the height H1 is a fixed value (for example, 1.5 m), it does not cause a large error. Further, the elevation angle θ can be detected from the output of the acceleration detection unit 125. The landmarks determined not to be photographed from the relationship shown in FIG. 17B are removed as shown in FIG. For example, the altitude H is removed from the acquired map image data and displayed as a landmark where H <H1 + L1 tan (θ−φ / 2). As a result, landmarks that can be photographed in the direction in which the camera 1 is directed more accurately can be recognized on the map image.

また、上述の実施形態では、携帯機器としてのカメラ1が横向きで構えられている状態で前方に動かされた場合に地図画像の表示開始や表示範囲の切り替えを行うようにしている。実際には、カメラ1は縦向きで構えられる場合もあり、カメラ1が縦向きで構えられていた場合には、Y軸方向の加速度を検出する加速度検出部の出力が重力加速度とならずに、X軸方向の加速度を検出する加速度検出部の出力が重力加速度となる。しかしながら、カメラ1が縦向きで構えられた場合であっても表示部18の表示面はユーザのほうを向くので、カメラ1が横向きで構えられた場合と同様の制御を行うことが可能である。この場合には、図10のステップS105において、Y軸方向の加速度のみで判定を行うのではなく、Y軸方向とX軸方向の何れかで重力加速度が検出された場合にステップS105をステップS106に分岐するようにする。   In the above-described embodiment, when the camera 1 as a portable device is moved forward while being held sideways, the display of the map image is started and the display range is switched. Actually, the camera 1 may be held vertically, and when the camera 1 is held vertically, the output of the acceleration detection unit that detects acceleration in the Y-axis direction does not become gravitational acceleration. The output of the acceleration detector that detects the acceleration in the X-axis direction is the gravitational acceleration. However, even when the camera 1 is held vertically, the display surface of the display unit 18 faces the user, so that the same control as when the camera 1 is held horizontally can be performed. . In this case, in step S105 in FIG. 10, the determination is not made only with the acceleration in the Y-axis direction, but when the gravitational acceleration is detected in either the Y-axis direction or the X-axis direction, step S105 is performed. To branch to.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
例えば、上述した実施形態では、携帯機器としてデジタルカメラを例示しているが、本実施形態の技術は、撮影画像と地図画像を表示可能な種々の携帯機器、例えば携帯電話機等にも適用可能である。
また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
Although the present invention has been described based on the above embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.
For example, in the above-described embodiment, a digital camera is exemplified as the mobile device. However, the technology of the present embodiment can be applied to various mobile devices that can display captured images and map images, such as mobile phones. is there.
Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.
Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

1…デジタルカメラ、11…制御部、11a…GUI制御部、11b…機能実行部、11c…表示制御部、11d…地図画像取得部、11e…操作検出部、12…データ記録部、12a…GUIデータ記録部、12b…プログラム記録部、12c…地図データ記録部、13…ボタン操作部、14…タッチパネル、15…撮像部、16…記憶部、17…表示駆動部、18…表示部、19…画像処理部、20…圧縮伸長部、21…記録・再生部、22…画像記録部、23…方位検出部、24…位置検出部、25…加速度検出部、30…バスライン   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 11 ... Control part, 11a ... GUI control part, 11b ... Function execution part, 11c ... Display control part, 11d ... Map image acquisition part, 11e ... Operation detection part, 12 ... Data recording part, 12a ... GUI Data recording unit, 12b ... Program recording unit, 12c ... Map data recording unit, 13 ... Button operation unit, 14 ... Touch panel, 15 ... Imaging unit, 16 ... Storage unit, 17 ... Display drive unit, 18 ... Display unit, 19 ... Image processing unit, 20 ... compression / decompression unit, 21 ... recording / reproducing unit, 22 ... image recording unit, 23 ... direction detecting unit, 24 ... position detecting unit, 25 ... acceleration detecting unit, 30 ... bus line

Claims (7)

地図画像を所定形状に整形して、表示部に表示された撮像画像に合成表示する携帯機器であって、
当該携帯機器の方位を検出する方位検出部と、
当該携帯機器に発生した加速度を検出する加速度検出部と、を備え、
前記加速度検出部によって前記方位検出部によって検出された方位と平行な方向の加速度が検出された場合に、前記表示部に表示されている所定形状に整形された地図画像よりもさらに遠方の地図画像を前記所定形状内に表示することを特徴とする携帯機器。
A mobile device that shapes a map image into a predetermined shape and displays a composite image on a captured image displayed on a display unit,
An orientation detection unit for detecting the orientation of the mobile device;
An acceleration detection unit for detecting acceleration generated in the portable device,
When an acceleration in a direction parallel to the azimuth detected by the azimuth detection unit is detected by the acceleration detection unit, a map image farther than the map image shaped into a predetermined shape displayed on the display unit Is displayed in the predetermined shape.
更に、ユーザによって所定の操作が行われた際に、前記所定形状内に表示されている地図画像を拡大表示させる表示制御部を具備していることを特徴とする請求項1に記載の携帯機器。   The mobile device according to claim 1, further comprising a display control unit that enlarges and displays a map image displayed in the predetermined shape when a predetermined operation is performed by a user. . 更に、前記表示部の表示面への接触を検出する接触検出部をさらに具備し、
前記所定形状内に表示されている地図画像の拡大表示は、前記接触検出部の所定の位置への接触が検出された際に行われることを特徴とする請求項2に記載の携帯機器。
Furthermore, it further comprises a contact detection unit for detecting contact with the display surface of the display unit,
The portable device according to claim 2, wherein the enlarged display of the map image displayed in the predetermined shape is performed when a contact to a predetermined position of the contact detection unit is detected.
前記所定形状に整形された地図画像は、台形形状をしていることを特徴とする請求項1乃至3の何れか1項に記載の携帯機器。   The mobile device according to claim 1, wherein the map image shaped into the predetermined shape has a trapezoidal shape. 撮影画像に地図画像を合成して表示部に表示する携帯機器の地図画像表示方法において、
前記携帯機器の加速度を検出する検出ステップと、
前記検出した第1の加速度に基づいて、前記携帯機器が地表に対して平行な方向の撮影姿勢であるかを判定する第1の判定ステップと、
前記携帯機器が地表に対して平行な方向の撮影姿勢である場合に、更に、前記地表に対して平行な方向に移動したことを示す第2の加速度が検出されたか否かを判定する第2の判定ステップと、
前記地表に対して平行な方向に移動したことを示す第2の加速度が検出された場合に、前記表示部の前記撮影画像に重ねて表示されている地図画像を、当該地図画像よりも遠方の地図画像に変更する地図画像変更ステップと、
を有することを特徴とする携帯機器の地図画像表示方法。
In a map image display method of a mobile device that combines a captured image with a map image and displays the map image on a display unit,
A detection step of detecting acceleration of the portable device;
A first determination step of determining whether the portable device is in a photographing posture in a direction parallel to the ground surface based on the detected first acceleration;
When the mobile device is in a photographing posture in a direction parallel to the ground surface, a second determination is made as to whether or not a second acceleration indicating that the mobile device has moved in a direction parallel to the ground surface is detected. A determination step of
When a second acceleration indicating movement in a direction parallel to the ground surface is detected, a map image displayed superimposed on the captured image of the display unit is distant from the map image. A map image changing step for changing to a map image;
A map image display method for a portable device, comprising:
前記地図画像変更ステップは、前記表示部の前記撮影画像に前記遠方の地図画像を重ねて表示する際、当該遠方の地図画像に奥行き感を感じさせる画像補正を行う画像補正ステップを含む、
ことを特徴とする請求項5に記載の携帯機器の地図画像表示方法。
The map image changing step includes an image correction step of performing image correction for making the distant map image feel a sense of depth when displaying the distant map image superimposed on the captured image of the display unit,
The map image display method for a mobile device according to claim 5.
前記第2の判定ステップで、地表に対して平行な方向に移動したことを示す第2の加速度が検出されなかった場合に、前記表示部の表示を地図画像のみとするとともに当該地図画像に対して前記地図画像変更ステップを行わない地図画像表示ステップ移行することを特徴とする請求項5に記載の携帯機器の地図画像表示方法。   In the second determination step, when the second acceleration indicating that the robot has moved in a direction parallel to the ground surface is not detected, only the map image is displayed on the display unit and the map image is displayed. 6. The map image display method for a mobile device according to claim 5, wherein the map image display step without performing the map image change step is performed.
JP2015236903A 2015-12-03 2015-12-03 Portable device and map image display method Pending JP2016029862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015236903A JP2016029862A (en) 2015-12-03 2015-12-03 Portable device and map image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236903A JP2016029862A (en) 2015-12-03 2015-12-03 Portable device and map image display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011186078A Division JP5851766B2 (en) 2011-08-29 2011-08-29 Portable device

Publications (1)

Publication Number Publication Date
JP2016029862A true JP2016029862A (en) 2016-03-03

Family

ID=55435538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236903A Pending JP2016029862A (en) 2015-12-03 2015-12-03 Portable device and map image display method

Country Status (1)

Country Link
JP (1) JP2016029862A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311625A (en) * 1996-05-22 1997-12-02 Sony Corp Display device, map display device, display method, and map display method
JP2013048361A (en) * 2011-08-29 2013-03-07 Olympus Imaging Corp Portable device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311625A (en) * 1996-05-22 1997-12-02 Sony Corp Display device, map display device, display method, and map display method
JP2013048361A (en) * 2011-08-29 2013-03-07 Olympus Imaging Corp Portable device

Similar Documents

Publication Publication Date Title
JP5851766B2 (en) Portable device
JP5550989B2 (en) Imaging apparatus, control method thereof, and program
JP6328255B2 (en) Multi-imaging device, multi-imaging method, program, and recording medium
KR101783059B1 (en) Image processing device, and control method and computer readable medium
US9204051B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
US20130040700A1 (en) Image capture device and image capture method
US20170111574A1 (en) Imaging apparatus and imaging method
KR101998903B1 (en) Server, client terminal, system, and program
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP5007631B2 (en) Electronic camera
JP5387723B2 (en) Image display device, image display method, and image display program
JP5003358B2 (en) Display device, electronic camera, and control program
JP2012205038A (en) Image display device and image display method
JP5034880B2 (en) Electronic camera, image display device
JP2009116795A (en) Information search device, electronic camera and information search method
JP5024181B2 (en) Imaging apparatus, image display method, and image display program
JP5869046B2 (en) Imaging apparatus, control method thereof, and program
JP5088051B2 (en) Electronic camera and program
JP2016029862A (en) Portable device and map image display method
JP5737961B2 (en) Imaging device
JP5934844B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2012227717A (en) Display device, display program, and display method
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP6121004B2 (en) Imaging apparatus, control method thereof, and program
JP6242091B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321