JP2007274245A - Imaging apparatus, method, and program - Google Patents

Imaging apparatus, method, and program Download PDF

Info

Publication number
JP2007274245A
JP2007274245A JP2006096101A JP2006096101A JP2007274245A JP 2007274245 A JP2007274245 A JP 2007274245A JP 2006096101 A JP2006096101 A JP 2006096101A JP 2006096101 A JP2006096101 A JP 2006096101A JP 2007274245 A JP2007274245 A JP 2007274245A
Authority
JP
Japan
Prior art keywords
subject
image
information
current location
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006096101A
Other languages
Japanese (ja)
Inventor
Yosuke Inoue
陽介 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2006096101A priority Critical patent/JP2007274245A/en
Publication of JP2007274245A publication Critical patent/JP2007274245A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus, method, and program capable of displaying the image of a subject at an accurate position by correcting measurement error for the subject position, when displaying the image of a subject that has been taken on a pre-stored map, realizing reliable customization for improved entertainment property, having such convenience as can specify a place based on an actual taken image. <P>SOLUTION: An image storage 44 stores a photo image 7 of a subject that is acquired with an image acquiring part 30, a photo 9 of its icon, and an image information 11 of the subject (including a positional information of the subject that is calculated with a subject position information calculating part 43), corresponded to each other. An input acceptor 46 accepts user's instruction from a display unit 4 of a touch panel, about the information stored in the image storage 44, to move and delete the photo 9. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ナビゲーションシステムにユーザの撮影画像を取り込んで表示させる技術に係り、特に、撮影画像をナビゲーションシステムの表示画面に表示する際、表示画面上での移動又は削除が可能な撮影装置、方法及びプログラムに関するものである。   The present invention relates to a technique for capturing and displaying a captured image of a user on a navigation system, and in particular, an imaging apparatus and method capable of moving or deleting on a display screen when displaying the captured image on a display screen of the navigation system. And programs.

近年、デジタル技術の進歩は著しく、デジタルカメラなどの撮影装置によって撮影された施設などの撮影画像を、ナビゲーションシステムに取り込み、地図と共に表示することが可能な撮影装置が知られている。例えば、特許文献1記載の技術は、予め記憶されている地図上の、被写体が位置すると想定される位置に、撮影画像を適当な大きさに圧縮して添付し、実際の被写体の画像をそのまま表示するようになっている。このような技術によれば、ナビゲーションシステムのユーザ自身が容易にカスタマイズ化することができる。しかも、ユーザが撮影した実際の画像から、目的地や経由地などの場所を特定できるため、利便性も向上する。   2. Description of the Related Art In recent years, digital technology has been remarkably advanced, and a photographing apparatus capable of capturing a photographed image of a facility photographed by a photographing apparatus such as a digital camera into a navigation system and displaying it together with a map is known. For example, in the technique described in Patent Document 1, a photographed image is compressed to an appropriate size and attached to a position where a subject is supposed to be located on a map stored in advance, and an actual subject image is left as it is. It is supposed to be displayed. According to such a technique, the user of the navigation system can easily customize it. In addition, since a place such as a destination or a waypoint can be specified from an actual image taken by the user, convenience is improved.

なお、撮影を行った場所に関しては、撮影装置に組み込んだGPS受信機を利用して現在地を検出、記憶することが可能である。そのため、撮影した場所や時刻などの属性情報を、撮影した被写体の画像データと共に記録しておき、これを利用して画像データのデータベース化を行うようにしたデジタル画像の管理技術も考えられている(特許文献2)。   As for the place where the image was taken, the current location can be detected and stored using a GPS receiver incorporated in the image taking apparatus. For this reason, a digital image management technique is also conceivable in which attribute information such as a shooting location and time is recorded together with image data of a shot subject, and this is used to create a database of image data. (Patent Document 2).

ただし、撮影場所となった現在地を特定したとしても、撮影対象である被写体の実際の位置情報を記憶しておかなければ、後でユーザが被写体の画像を見たときに、被写体がどこに位置するのか、正確に思い出せず、ナビゲーションシステムの地図上に添付できない場合がある。また、撮影場所から被写体までの距離を大まかに覚えていたとしても、撮影方向がずれていると、ナビゲーションシステムの地図上に添付する際、被写体の位置は大きく異なることになってしまう。   However, even if the current location as the shooting location is specified, if the actual position information of the subject that is the shooting target is not stored, the location of the subject is later when the user looks at the image of the subject later. It may not be possible to remember exactly and cannot be attached on the map of the navigation system. Even if the distance from the shooting location to the subject is roughly remembered, if the shooting direction is deviated, the position of the subject will be greatly different when attached to the map of the navigation system.

そこで、撮影した被写体の位置情報を被写体の画像と対応づけて記憶する撮像装置が特許文献3に提案されている。特許文献3の技術では、被写体を撮影した際の撮影位置を求めると同時に、被写体から撮影装置までの距離や撮影方向を測定して被写体の位置情報を割り出すようになっている。
特開2000−65588号公報 特開2000−2325580号公報 特開2002−344789号公報
Therefore, Patent Document 3 proposes an imaging apparatus that stores positional information of a photographed subject in association with a subject image. In the technique of Patent Document 3, the position of the subject is determined by measuring the distance from the subject to the photographing device and the photographing direction at the same time as obtaining the photographing position when photographing the subject.
JP 2000-65588 A Japanese Unexamined Patent Publication No. 2000-2325580 JP 2002-344789 A

ところで、現時点でのナビゲーションシステムでは、GPS受信による現在地の位置検出精度には限界がある。このため、撮影位置の現在地情報に基づいて算出する被写体の位置情報に関しても、多少狂うことは避けられない。すなわち、ユーザ自身が撮影した被写体をナビゲーションシステムの地図上に表示させる従来技術においては、被写体の位置測定に誤差が生じるため、実際とは異なる不正確な位置に被写体が表示されるといった不具合が生じた。   By the way, in the current navigation system, there is a limit to the position detection accuracy of the current location by GPS reception. For this reason, it is inevitable that the position information of the subject calculated based on the current position information of the shooting position will be somewhat out of order. That is, in the conventional technique for displaying the subject photographed by the user on the map of the navigation system, an error occurs in the measurement of the subject position, so that the subject is displayed at an incorrect position different from the actual situation. It was.

本発明は、以上の課題を解消するために提案されたものであり、その目的は、被写体の撮影画像を予め記憶した地図上に表示する場合に、被写体位置の測定誤差を修正することにより被写体の画像を正確な位置に表示することができ、信頼性の高いカスタマイズ化を実現してエンターテイメント性を高めると同時に、実際の撮影画像から場所を特定できるといった利便性を併せ持つ撮影装置、方法及びプログラムを提供することにある。   The present invention has been proposed in order to solve the above-described problems. The object of the present invention is to correct an object position measurement error by correcting an object position measurement error when a captured image of an object is displayed on a previously stored map. Device, method, and program capable of displaying an image of the user at an accurate position, realizing highly reliable customization to enhance entertainment properties, and at the same time being able to specify a location from an actual captured image Is to provide.

上述した目的を達成するために、請求項1の発明は、被写体の画像を取得する画像取得手段と、地図情報を記憶する地図情報記憶手段を有する撮影装置であって、前記撮影装置の現在地の情報を取得する現在地取得手段と、前記撮影装置が向いている被写体への撮影方向を判断する撮影方向判断手段と、被写体から前記現在地までの撮影距離を算出する撮影距離算出手段と、前記現在地取得手段にて取得された現在地の情報と前記撮影方向判断手段にて判断された撮影方向と前記撮影距離算出手段にて算出された撮影距離によって被写体の位置情報を算出する被写体位置情報算出手段と、前記画像取得手段にて取得された被写体の画像と前記被写体位置情報算出手段にて算出された被写体の位置情報とを対応付けて記憶する画像記憶手段と、前記地図情報記憶手段に記憶されている地図と前記画像記憶手段に記憶されている被写体の画像を表示する表示手段と、前記画像記憶手段に記憶されている情報をユーザが変更可能な入力受付手段、を備えたことを特徴としている。   In order to achieve the above-described object, the invention of claim 1 is an imaging apparatus having an image acquisition means for acquiring an image of a subject and a map information storage means for storing map information, wherein the current location of the imaging apparatus is Current location acquisition means for acquiring information, shooting direction determination means for determining the shooting direction of the subject facing the shooting device, shooting distance calculation means for calculating a shooting distance from the subject to the current location, and the current location acquisition Subject position information calculating means for calculating subject position information based on the current location information acquired by the means, the shooting direction determined by the shooting direction determining means, and the shooting distance calculated by the shooting distance calculating means; Image storage means for storing the subject image acquired by the image acquisition means and the subject position information calculated by the subject position information calculation means in association with each other; A display means for displaying a map stored in the map information storage means, an image of the subject stored in the image storage means, and an input receiving means for allowing the user to change the information stored in the image storage means It is characterized by having.

請求項5の発明は、請求項1の発明を方法として捉えたものであり、前記撮影装置により被写体の画像を取得する画像取得ステップと、地図情報を記憶する地図情報記憶ステップを含んだ撮影方法であって、現在地の情報を取得する現在地取得ステップと、被写体への撮影方向を判断する撮影方向判断ステップと、被写体から前記現在地までの撮影距離を算出する撮影距離算出ステップと、前記現在地取得ステップで取得した現在地の情報と前記撮影方向判断ステップで判断した撮影方向と前記撮影距離算出ステップで算出した撮影距離によって被写体の位置情報を算出する被写体の位置情報算出ステップと、前記画像取得ステップで取得した被写体の画像を前記被写体位置情報算出ステップで算出した被写体の位置情報と対応付けて記憶する画像記憶ステップと、前記地図情報記憶ステップで記憶した地図と前記画像記憶ステップで記憶した被写体の画像を表示する表示ステップと、前記画像記憶ステップで記憶した情報をユーザが変更可能な入力受付ステップ、を含んだことを特徴としている。   The invention of claim 5 captures the invention of claim 1 as a method, and an imaging method including an image acquisition step of acquiring an image of a subject by the imaging device and a map information storage step of storing map information A current location acquisition step of acquiring current location information, a shooting direction determination step of determining a shooting direction to the subject, a shooting distance calculation step of calculating a shooting distance from the subject to the current location, and the current location acquisition step The subject position information calculation step for calculating subject position information based on the current location information acquired in step S1, the shooting direction determined in the shooting direction determination step, and the shooting distance calculated in the shooting distance calculation step, and acquired in the image acquisition step. The subject image is stored in association with the subject position information calculated in the subject position information calculation step. An image storage step, a display step for displaying the map stored in the map information storage step and the image of the subject stored in the image storage step, and an input reception step in which the user can change the information stored in the image storage step; It is characterized by including.

請求項6の発明は、請求項1、5の発明をプログラムの観点から捉えたものであり、コンピュータを利用して、前記撮影装置により被写体の画像を取得する画像取得機能と、地図情報を記憶する地図情報記憶機能をコンピュータに実現させる撮影プログラムであって、現在地の情報を取得する現在地取得機能と、被写体への撮影方向を判断する撮影方向判断機能と、被写体から前記現在地までの撮影距離を算出する撮影距離算出機能と、前記現在地取得機能にて取得された現在地の情報と前記撮影方向判断機能にて判断された撮影方向と前記撮影距離算出機能にて算出された撮影距離によって被写体の位置情報を算出する被写体位置情報算出機能と、前記画像取得機能にて取得された被写体の画像を前記被写体位置情報算出機能にて算出された被写体の位置情報と対応付けて記憶する画像記憶機能と、前記地図情報記憶機能に記憶されている地図と前記画像記憶機能にて記憶されている被写体の画像を表示する表示機能と、前記画像記憶機能に記憶されている情報をユーザが変更可能な入力受付機能、をコンピュータに実現させることを特徴としている。   The invention of claim 6 captures the inventions of claims 1 and 5 from the viewpoint of a program, and stores an image acquisition function for acquiring an image of a subject by the photographing apparatus using a computer and map information. A shooting program for causing a computer to perform a map information storage function, a current location acquisition function for acquiring current location information, a shooting direction determination function for determining a shooting direction to a subject, and a shooting distance from a subject to the current location. The position of the subject based on the shooting distance calculation function to be calculated, the current position information acquired by the current position acquisition function, the shooting direction determined by the shooting direction determination function, and the shooting distance calculated by the shooting distance calculation function The subject position information calculation function for calculating information and the subject image acquired by the image acquisition function are calculated by the subject position information calculation function. An image storage function for storing in association with the position information of the subject, a map stored in the map information storage function, a display function for displaying an image of the subject stored in the image storage function, and the image storage The present invention is characterized in that a computer realizes an input reception function that allows a user to change information stored in the function.

以上の構成を有する請求項1、5、6の発明においては、地図情報記憶手段に記憶された地図上に被写体の撮影画像を表示する場合に、ユーザが入力受付手段にて画像記憶手段に記憶された情報を変更するだけで、画像の位置を簡単に修正することが可能である。   In the first, fifth, and sixth aspects of the invention having the above-described configuration, when the photographed image of the subject is displayed on the map stored in the map information storage unit, the user stores it in the image storage unit by the input reception unit. It is possible to easily correct the position of the image simply by changing the information.

請求項2の発明は、請求項1に記載の撮影装置において、前記入力受付手段は、前記被写体位置情報算出手段にて算出された被写体の位置情報を変更するように構成されたことを特徴としている。また、請求項3の発明は、請求項2に記載の撮影装置において、前記入力受付手段は、前記表示手段で表示した被写体の画像をユーザがタッチして選択し、選択した被写体の画像を変更したい位置までなぞって移動させることにより、被写体の位置情報を変更するように構成したことを特徴とするものである。   According to a second aspect of the present invention, in the photographing apparatus according to the first aspect, the input receiving unit is configured to change the position information of the subject calculated by the subject position information calculating unit. Yes. Further, the invention of claim 3 is the imaging apparatus according to claim 2, wherein the input receiving means touches and selects a subject image displayed on the display means, and changes the selected subject image. It is characterized in that the position information of the subject is changed by tracing and moving to the desired position.

これら請求項2、3の発明においては、地図上に表示された画像の位置が実際の位置と異なっていたとしても、入力受付手段にて被写体の位置情報を変更することで、画像の位置を迅速且つ容易に修正可能である。特に、請求項3の発明では、ドラッグアンドドロップの要領で被写体の画像を移動させることができるので、優れた作業性を発揮することができる。   In the second and third aspects of the invention, even if the position of the image displayed on the map is different from the actual position, the position of the image is changed by changing the position information of the subject by the input receiving means. It can be corrected quickly and easily. In particular, in the invention of claim 3, since the image of the subject can be moved in the manner of drag and drop, excellent workability can be exhibited.

請求項4の発明は、請求項1〜3のいずれか1項に記載の撮影装置において、前記入力受付手段は、前記画像記憶手段に記憶された被写体の画像及びその画像に対応付けて記憶されている被写体の位置情報を削除するように構成されたことを特徴としている。   According to a fourth aspect of the present invention, in the photographing apparatus according to any one of the first to third aspects, the input receiving unit is stored in association with the subject image stored in the image storage unit and the image thereof. It is characterized in that it is configured to delete the position information of the subject.

以上の構成を有する請求項4の発明では、入力受付手段にて被写体の画像及び位置情報を削除できるため、編集作業を簡単に行うことができる。   In the invention of claim 4 having the above configuration, the image of the subject and the position information can be deleted by the input receiving means, so that the editing operation can be easily performed.

以上述べたように、本発明の撮影装置、方法及びプログラムによれば、被写体の撮影画像を予め記憶した地図上に表示する場合に、被写体位置の測定誤差を簡単に修正して、被写体の画像を正確な位置に表示することが可能であり、信頼性の高いカスタマイズ化を実現してエンターテイメント性を高めると同時に、実際の撮影画像から場所を特定できるといった利便性を確保することができる。   As described above, according to the photographing apparatus, method, and program of the present invention, when a photographed image of a subject is displayed on a pre-stored map, the measurement error of the subject position is easily corrected, and the subject image Can be displayed at an accurate position, and highly reliable customization can be realized to improve entertainment properties, and at the same time, it is possible to ensure the convenience of specifying a location from an actual captured image.

[構成]
続いて、本発明を実施するための最良の形態(以下、実施形態と呼ぶ)について、図面を参照して具体的に説明する。図1では本実施形態の概念図を示している。この図1に示すように、本実施形態に係る撮影装置1は、車載用ナビゲーションシステムに組み込まれており、車両2に対し着脱可能となっている。すなわち、ユーザが撮影装置1を車外に持ち出して被写体となる施設などの写真を撮影し、撮影した写真の画像データをそのままナビゲーションシステムの地図上に添付、取り込むようにしたものである。
[Constitution]
Next, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be specifically described with reference to the drawings. FIG. 1 shows a conceptual diagram of this embodiment. As shown in FIG. 1, the photographing apparatus 1 according to the present embodiment is incorporated in an in-vehicle navigation system and is detachable from the vehicle 2. That is, the user takes the photographing apparatus 1 out of the vehicle and takes a picture of a facility or the like as a subject, and attaches and takes in the image data of the photographed picture as it is on the map of the navigation system.

本実施形態は、周辺装置を備えたコンピュータをプログラムで制御することで実現できるが、この場合のハードウェアやプログラムの実現態様は各種変更可能である。また、本実施形態に係る撮影装置1は、通常のデジタルカメラと同様、各種の編集作業を実施するようになっており、オートフォーカス機能やズーム機能といった基本的なスペックは適宜選択自由である。   Although the present embodiment can be realized by controlling a computer including a peripheral device with a program, the implementation modes of the hardware and the program in this case can be variously changed. In addition, the photographing apparatus 1 according to the present embodiment performs various editing operations as in a normal digital camera, and basic specifications such as an autofocus function and a zoom function can be selected as appropriate.

また、本発明は撮影装置への適用に加えて、撮影方法及びプログラム、そのプログラムを記録したコンピュータ読取可能な記録媒体としても把握可能である。前記プログラムは撮影装置に組み込まれたCPUや各種チップセットといった物理的な処理装置を活用することでこの発明の作用効果を実現するものである。   In addition to being applied to the photographing apparatus, the present invention can be grasped as a photographing method and program, and a computer-readable recording medium on which the program is recorded. The program realizes the effects of the present invention by utilizing a physical processing device such as a CPU and various chip sets incorporated in the photographing apparatus.

次に、図2〜図4の正面図を用いて本実施形態の概要について説明する。図2及び図3では、撮影装置1が車両2に装着されてナビゲーション機能を果たす場合の正面図、図4は撮影装置1にて撮影された画像のみが表示されている場合の正面図である。これらの図に示すように、撮影装置1の本体部分は横長のパネル状部材から構成され、正面部分の左右縁部及び下縁部には各種の操作スイッチ3が配置されており、正面部分の全面に近い大きさで横長の表示部4が設けられている。   Next, an outline of the present embodiment will be described with reference to front views of FIGS. 2 and 3 are front views when the photographing apparatus 1 is mounted on the vehicle 2 and performs a navigation function, and FIG. 4 is a front view when only an image photographed by the photographing apparatus 1 is displayed. . As shown in these drawings, the main body portion of the photographing apparatus 1 is composed of a horizontally long panel-like member, and various operation switches 3 are arranged on the left and right edge portions and the lower edge portion of the front portion. A horizontally long display unit 4 having a size close to the entire surface is provided.

表示部4は、液晶モニタからなり、その表面がユーザの指で動作するタッチパネルとなっている。つまり、表示部4は、撮影画像の表示やナビゲーションシステムにおける地図の表示を行う出力部12であると同時に、ユーザのタッチ操作を入力するための入力部13の役割を兼ねている(なお、出力部12、入力部13は後述する図6のブロック図に図示している。また、出力部12はナビゲーションシステムにおける誘導案内等の音声出力を行う機能も有している)。   The display unit 4 includes a liquid crystal monitor, and the surface thereof is a touch panel that operates with a user's finger. That is, the display unit 4 is an output unit 12 that displays a captured image and a map in the navigation system, and also serves as an input unit 13 for inputting a user's touch operation (output is also provided). The unit 12 and the input unit 13 are illustrated in the block diagram of Fig. 6 to be described later, and the output unit 12 also has a function of performing voice output such as guidance guidance in the navigation system).

また、撮影装置1の上縁部左端部には映像を取り込むための撮影レンズ5が設けられている。さらに、図5(図2の点線で囲まれた部分の拡大側面図)に示すように、撮影装置1の側縁部には2方向カメラ切替スイッチ6がスライド自在に設けられており、このスイッチ6のスライド操作により撮影レンズ5の撮影方向を180度切替えるように構成されている。すなわち、一般的なカメラ付き携帯電話と同じく、撮影装置1を持っているユーザ側と、その反対側である撮影装置1を被写体に向けた側とに、撮影方向を切替可能に設定されている。   A photographing lens 5 for capturing an image is provided at the left end of the upper edge of the photographing device 1. Further, as shown in FIG. 5 (enlarged side view of a portion surrounded by a dotted line in FIG. 2), a two-way camera changeover switch 6 is slidably provided on a side edge of the photographing apparatus 1, and this switch 6 is configured to switch the photographing direction of the photographing lens 5 by 180 degrees. That is, as with a general camera-equipped mobile phone, the shooting direction is set to be switchable between the user holding the shooting device 1 and the opposite side of the shooting device 1 facing the subject. .

図2及び図3にて示したナビゲーション機能時では、表示部4には予め記憶されているナビゲーション用のマップ8が表示されると共に、このマップ8上に、撮影装置1にて撮影されたフォト画像7のアイコンであるフォト9が複数表示される。これらフォト9は被写体の位置を割り出して自動的にマップ8上に添付、表示されるようになっている。なお、被写体位置の割り出しに関しては、後段のメインCPU及びその周辺回路40にて詳述する。   In the navigation function shown in FIGS. 2 and 3, a navigation map 8 stored in advance is displayed on the display unit 4, and a photo taken by the photographing apparatus 1 is displayed on the map 8. A plurality of photos 9 that are icons of the image 7 are displayed. These photos 9 are automatically attached and displayed on the map 8 by determining the position of the subject. The determination of the subject position will be described in detail in the main CPU and its peripheral circuit 40 in the subsequent stage.

図2では表示部4の全画面にマップ8が表示された状態を示しているが、この画面において、ユーザ操作により矢印で示したカーソル10にてフォト9を選択すると、表示部4は左右に2分割されて、右画面には選択されたマップ8及びフォト9が表示され、左画面にフォト9の元画像であるフォト画像7及び被写体の画像情報11が表示されるようになっている(図3参照)。この被写体の画像情報11には被写体の位置情報が包含される。   FIG. 2 shows a state in which the map 8 is displayed on the entire screen of the display unit 4. On this screen, when the photo 9 is selected by the cursor 10 indicated by the arrow by the user operation, the display unit 4 is moved left and right. The map is divided into two, and the selected map 8 and photo 9 are displayed on the right screen, and the photo image 7 that is the original image of the photo 9 and the image information 11 of the subject are displayed on the left screen ( (See FIG. 3). The subject image information 11 includes subject position information.

次に、図6のブロック図を用いて、本実施形態の構成を機能の観点から説明する。すなわち、本実施形態は、絶対位置・方位検出部21と、相対方位検出部22と、ナビゲーションシステムにおいて利用される地図情報記憶部23と、被写体の撮影画像を取得するための画像取得部30と、本装置全体の制御回路であるメインCPU及びその周辺回路40を有している。また、図6中の符号19は、I/O制御回路やドライバから構成されるユーザインタフェースであって、ユーザインタフェース19を介して、出力部12及び入力部13と、メインCPU及びその周辺回路40とが接続されている。   Next, the configuration of the present embodiment will be described from the viewpoint of functions with reference to the block diagram of FIG. That is, this embodiment includes an absolute position / orientation detection unit 21, a relative orientation detection unit 22, a map information storage unit 23 used in the navigation system, and an image acquisition unit 30 for acquiring a captured image of the subject. The main CPU which is a control circuit of the entire apparatus and its peripheral circuit 40 are included. Reference numeral 19 in FIG. 6 denotes a user interface including an I / O control circuit and a driver. The user interface 19 allows the output unit 12 and the input unit 13 to be connected to the main CPU and its peripheral circuit 40. And are connected.

絶対位置・方位検出部21は、複数のGPS衛星から送られてくるGPS電波をアンテナやレシーバなどで同時に受信して軌道からの距離を測定することにより、撮影装置1の現在地について地表での絶対的な位置座標や方位を計算する部分である。相対方位検出部22は、ジャイロセンサなどを使って撮影装置1が向いている撮影方向を検出する部分である。なお、撮影方向は水平方向だけではなく、撮影装置1の仰角も含めて撮影方向を検出するようになっている。   The absolute position / orientation detecting unit 21 receives GPS radio waves transmitted from a plurality of GPS satellites simultaneously with an antenna, a receiver, or the like, and measures the distance from the orbit, so that the current location of the photographing apparatus 1 is absolute on the ground surface. This is the part that calculates the typical position coordinates and direction. The relative azimuth detecting unit 22 is a part that detects a photographing direction in which the photographing apparatus 1 is directed using a gyro sensor or the like. Note that the photographing direction is detected not only in the horizontal direction but also in the elevation direction of the photographing apparatus 1.

画像取得部30は、ユーザが被写体を撮影することでそのフォト画像7が取得すると共に、そのアイコンであるフォト9(共に図2及び図3に図示)を取得する部分であって、撮影部31、この撮影部31を制御する撮影制御部32、被写体から撮影装置1までの撮影距離を測定する測距部33、被写体の輝度を測定する測光センサ34を有している。このうち、撮影部31は、撮影及び結像を行う部分であって、図2及び図3に図示した撮影レンズ5や2方向カメラ切替スイッチ6に加えて、絞りやシャッタ、被写体の画像が結像するCCD(図示せず)などを含んでいる。   The image acquisition unit 30 is a part that acquires the photo image 7 when the user shoots the subject, and also acquires the photo 9 (both shown in FIGS. 2 and 3) as an icon thereof. A photographing control unit 32 for controlling the photographing unit 31, a distance measuring unit 33 for measuring a photographing distance from the subject to the photographing apparatus 1, and a photometric sensor 34 for measuring the luminance of the subject. Of these, the photographing unit 31 is a part that performs photographing and image formation, and in addition to the photographing lens 5 and the two-way camera change-over switch 6 shown in FIGS. It includes a CCD (not shown) for imaging.

撮影制御部32は、測距部33にて測定された測距データと、測光センサ34にて測定された測光データを取り込み、ユーザから指示されたズーム倍率などの撮像情報に基づいて、ステッピングモータなどによってレンズやフォーカスを駆動制御し、撮影レンズ5のズーム倍率とピントを調整し、さらには絞り値とシャッタスピードを制御する部分である。   The imaging control unit 32 takes in the distance measurement data measured by the distance measurement unit 33 and the photometry data measured by the photometry sensor 34, and based on the imaging information such as the zoom magnification instructed by the user, the stepping motor The lens and focus are driven and controlled by adjusting the zoom magnification and focus of the photographing lens 5, and further the aperture value and shutter speed are controlled.

メインCPU及びその周辺回路40は、現在地取得部41、撮影方向判断部42、被写体位置情報算出部43、画像記憶部44、表示制御部45、入力受付部46からなる。なお、本実施形態はナビゲーションシステムに一体的に組み込まれているためナビゲーション機能を有しており、メインCPU及びその周辺回路40にはナビゲーション機能を果たす機能部として、目的地設定部や経路計算部や経路案内部などが設けられるが、従来のナビゲーションシステムと同様であるため、ここでは説明を省略する。   The main CPU and its peripheral circuit 40 include a current location acquisition unit 41, a shooting direction determination unit 42, a subject position information calculation unit 43, an image storage unit 44, a display control unit 45, and an input reception unit 46. Since the present embodiment is integrated into the navigation system and has a navigation function, the main CPU and its peripheral circuit 40 have a destination setting unit and a route calculation unit as functional units that perform the navigation function. However, since it is the same as a conventional navigation system, description thereof is omitted here.

メインCPU及びその周辺回路40において、現在地取得部41は、絶対位置・方位検出部21の検出結果に基づいて撮影装置1の現在地情報を取得する部分である。撮影方向判断部42は相対方位検出部22の検出結果に基づいて撮影装置1の撮影方向を判断する部分である。   In the main CPU and its peripheral circuit 40, the current position acquisition unit 41 is a part that acquires the current position information of the photographing apparatus 1 based on the detection result of the absolute position / orientation detection unit 21. The shooting direction determination unit 42 is a part that determines the shooting direction of the shooting apparatus 1 based on the detection result of the relative direction detection unit 22.

被写体位置情報算出部43は、現在地取得部41が取得した撮影装置1の現在地情報と、撮影方向判断部42の判断した撮影方向と、前記測距部33にて算出された測距データに基づいて、撮影対象である被写体の位置情報である経度や緯度さらには高度を算出する部分である。   The subject position information calculation unit 43 is based on the current location information of the imaging device 1 acquired by the current location acquisition unit 41, the shooting direction determined by the shooting direction determination unit 42, and the distance measurement data calculated by the distance measurement unit 33. Thus, it is a part for calculating longitude, latitude, and altitude, which are position information of the subject to be imaged.

画像記憶部44は、前記画像取得部30にて取得された被写体のフォト画像7と、そのアイコンであるフォト9(共に図2及び図3参照)を取り込み、これらのデータと、被写体の画像情報11とを、相互に対応付けて記憶する部分である。なお、被写体の画像情報11には、被写体位置情報算出部43にて算出された被写体の位置情報は勿論、撮影時の時間やユーザ入力による文字情報などが含まれている。さらに、画像記憶部44は、現在地取得部41が取得した撮影装置1の現在地情報も併せて、前記の情報と対応付けて記憶するようになっている。   The image storage unit 44 takes in the photo image 7 of the subject acquired by the image acquisition unit 30 and the photo 9 as an icon thereof (see both FIG. 2 and FIG. 3), and these data and the image information of the subject 11 are stored in association with each other. Note that the subject image information 11 includes not only the subject position information calculated by the subject position information calculation unit 43 but also the time at the time of photographing, character information by user input, and the like. Further, the image storage unit 44 stores the current location information of the photographing apparatus 1 acquired by the current location acquisition unit 41 in association with the information.

表示制御部45は、地図データ記憶部23に記憶された地図データを呼び出して表示部4にマップ8を表示すると共に、前記画像記憶部44に記憶された被写体のフォト画像7、フォト9及びその画像情報11を呼び出し、これらを表示部4に表示する部分である。フォト画像7、マップ8、フォト9及び画像情報11の表示例としては、既に述べたように、表示部4の全画面に表示されたマップ8上に複数のフォト9を表示したり(図2参照)、表示部4を左右に2分割して右画面にマップ8及びフォト9を表示し、左画面にフォト9の元画像であるフォト画像7及び画像情報11を表示するようになっている(図3参照)。   The display control unit 45 calls the map data stored in the map data storage unit 23 and displays the map 8 on the display unit 4, and the photo images 7 and 9 of the subject stored in the image storage unit 44 and the image This is a part for calling the image information 11 and displaying them on the display unit 4. As a display example of the photo image 7, the map 8, the photo 9 and the image information 11, as described above, a plurality of photos 9 are displayed on the map 8 displayed on the entire screen of the display unit 4 (FIG. 2). The display unit 4 is divided into left and right parts, a map 8 and a photo 9 are displayed on the right screen, and a photo image 7 and image information 11 that are original images of the photo 9 are displayed on the left screen. (See FIG. 3).

入力受付部46は、本実施形態の特徴的な部分であって、画像記憶部44に記憶された情報に関して、タッチパネルである表示部4からユーザの入力指令を受け付けて、フォト9の移動及び削除する編集作業を行うように構成されている。ここで、入力受付部46について、図7及び図8を用いて詳しく説明する。   The input receiving unit 46 is a characteristic part of the present embodiment. Regarding the information stored in the image storage unit 44, the input receiving unit 46 receives a user input command from the display unit 4 that is a touch panel, and moves and deletes the photo 9 It is configured to perform editing work. Here, the input receiving unit 46 will be described in detail with reference to FIGS. 7 and 8.

すなわち、ユーザ操作により入力受付部46が「編集モード」を受け付けると、図7に示すように、表示部4の左下隅には「編集モード」という表示がなされ、その下に「移動」と「削除」という表示が出る。これら「移動」及び「削除」の表示部分を表示された操作を行うための入力領域となっている。   That is, when the input accepting unit 46 accepts the “editing mode” by a user operation, as shown in FIG. 7, “editing mode” is displayed in the lower left corner of the display unit 4, and “moving” and “ “Delete” appears. These “move” and “delete” display portions serve as input areas for performing displayed operations.

ユーザが表示部4上のフォト9をタッチすることにより、編集作業の対象となるフォト9を選択し、次に「移動」部分または「削除」部分に触れて選択することで、表示部4の表示画面は図7から図8に移行する。この時、表示部4の左下隅の「編集モード」の表示部分は、「決定」と「キャンセル」と「終了」という表示に変わる。これら「決定」、「キャンセル」及び「終了」の表示部分も、表示された操作を行うための入力領域である。   The user touches the photo 9 on the display unit 4 to select the photo 9 to be edited, and then touches and selects the “move” portion or the “delete” portion, so that the display unit 4 The display screen shifts from FIG. 7 to FIG. At this time, the display portion of “edit mode” in the lower left corner of the display unit 4 is changed to the display of “decision”, “cancel”, and “end”. The display portions of “decide”, “cancel”, and “end” are also input areas for performing displayed operations.

図7に示した状態で、ユーザが表示部4上の「移動」部分をタッチした場合、フォト9の移動作業が可能な状態となり、ユーザが選択したフォト9に触れたまま変更したい位置までなぞり、実際の位置(図7の点線にて示した枠部分)まで移動させることで、フォト9の表示位置を変更できるようになっている。また、図7に示した状態で、「編集モード」の下の「削除」部分をユーザがタッチした場合には、フォト9の削除作業が可能な状態となり、ユーザが選択したフォト9は削除候補となる。   In the state shown in FIG. 7, when the user touches the “move” portion on the display unit 4, the photo 9 can be moved, and the user touches the photo 9 selected by the user and traces to the position to be changed. The display position of the photo 9 can be changed by moving to the actual position (the frame portion indicated by the dotted line in FIG. 7). In the state shown in FIG. 7, when the user touches the “delete” portion under “edit mode”, the photo 9 can be deleted, and the photo 9 selected by the user is a deletion candidate. It becomes.

図8に示した状態では、表示部4の左下隅の「編集モード」の表示部分は、「決定」と「キャンセル」と「終了」という表示に変わっているが、ここで、ユーザが表示部4上の「決定」部分をタッチすると、移動作業の場合には入力受付部46はフォト9の移動処理を確定させ、削除作業の場合には入力受付部46はフォト9の削除処理を確定させることになる。   In the state shown in FIG. 8, the display portion of “edit mode” in the lower left corner of the display unit 4 is changed to the display of “decision”, “cancel”, and “end”. 4 is touched, the input receiving unit 46 determines the moving process of the photo 9 in the case of the moving work, and the input receiving unit 46 determines the deleting process of the photo 9 in the case of the deleting work. It will be.

また、ユーザが表示部4上の「キャンセル」部分をタッチすると、移動作業の場合には入力受付部46はフォト9の位置をなぞる前の元の位置(図8の斜線を有する枠部分)まで戻す。一方、削除作業の場合にはフォト9の削除候補を解消する。さらに、ユーザが表示部4上の「終了」部分をタッチすると、入力受付部46における「編集モード」が終了するようになっている。この時、画像記憶部44は、変更された被写体の位置情報を更新記憶するようになっている。   Further, when the user touches the “cancel” portion on the display unit 4, in the case of moving work, the input receiving unit 46 reaches the original position before tracing the position of the photo 9 (the frame portion having the oblique lines in FIG. 8). return. On the other hand, in the case of the deletion work, the deletion candidate of the photo 9 is canceled. Further, when the user touches the “end” portion on the display unit 4, the “editing mode” in the input receiving unit 46 is ended. At this time, the image storage unit 44 updates and stores the changed subject position information.

[作用]
次に、本実施形態の作用について、図9のフローチャートを用いて説明する。図9はフォト9の位置変更及び削除を含む編集作業を実施する場合のフローチャートである。まずSTEP1にて、ユーザ操作により画像の編集モードとしたかどうかを確認し、編集モードがオンであれば(STEP1のYes)、入力受付部46が編集モードを受け付けて待機状態となりSTEP2に移る。ユーザが編集モードをオンとしなければ(STEP1のNo)、終了となる。
[Action]
Next, the effect | action of this embodiment is demonstrated using the flowchart of FIG. FIG. 9 is a flowchart in a case where editing work including position change and deletion of the photo 9 is performed. First, in STEP 1, it is confirmed whether or not the image editing mode has been set by a user operation. If the editing mode is on (YES in STEP 1), the input receiving unit 46 receives the editing mode and enters a standby state, and proceeds to STEP 2. If the user does not turn on the edit mode (NO in STEP 1), the process ends.

STEP2では、表示部4に表示されたマップ8上のフォト9をユーザがタッチしたかどうかを確かめる。ユーザがフォト9をタッチしない場合には(STEP2のNo)、STEP1に戻る。一方、ユーザフォト9をタッチした場合には(STEP2のYes)、STEP3にてユーザが表示部4上の「移動」をタッチしたかどうかを確かめる。ユーザが表示部4上の「移動」をタッチしていなければ(STEP3のNo)、STEP4に移行する。STEP4ではユーザが表示部4上の「削除」をタッチしたかどうかを確かめる。   In STEP 2, it is confirmed whether or not the user has touched the photo 9 on the map 8 displayed on the display unit 4. When the user does not touch the photo 9 (NO in STEP 2), the process returns to STEP 1. On the other hand, when the user photo 9 is touched (YES in STEP 2), it is confirmed in STEP 3 whether or not the user has touched “move” on the display unit 4. If the user has not touched “move” on the display unit 4 (NO in STEP 3), the process proceeds to STEP 4. In STEP 4, it is confirmed whether or not the user has touched “delete” on the display unit 4.

ユーザが表示部4上の「移動」をタッチした場合(STEP3のYes)、フォト9の位置修正作業に移り、ユーザが選択したフォト9に触れたまま変更したい位置までなぞって移動させる(STEP5)。また、STEP4において、ユーザが表示部4上の「削除」をタッチした場合は(STEP4のYes)、フォト9の削除作業に移る。なお、ユーザが表示部4上の「削除」をタッチしない場合には(STEP4のNo)、終了する。   When the user touches “Move” on the display unit 4 (STEP 3 Yes), the process moves to the position of the photo 9 and moves to the position to be changed while touching the photo 9 selected by the user (STEP 5). . In STEP 4, when the user touches “Delete” on the display unit 4 (Yes in STEP 4), the process proceeds to the deletion of the photo 9. If the user does not touch “delete” on the display unit 4 (NO in STEP 4), the process ends.

STEP6においては、ユーザが表示部4上の「決定」をタッチしたかどうかを確かめ、タッチがあれば(STEP6のYes)、入力受付部46はフォト9の表示位置の修正処理あるいはフォト9の削除処理を確定させる(STEP7)。また、ユーザが表示部4上の「決定」をタッチしなければ(STEP6のNo)、STEP8に移る。   In STEP 6, it is confirmed whether or not the user has touched “Determination” on the display unit 4. If there is a touch (Yes in STEP 6), the input receiving unit 46 corrects the display position of the photo 9 or deletes the photo 9. The process is finalized (STEP 7). If the user does not touch “OK” on the display unit 4 (NO in STEP 6), the process proceeds to STEP 8.

STEP8ではユーザが表示部4上の「キャンセル」をタッチしたかどうかを確認し、「キャンセル」にタッチすれば(STEP8のYes)、STEP3に戻り、入力受付部46はフォト9の位置をなぞる前の位置まで戻すか、あるいは削除候補を解消する。なお、ユーザが表示部4上の「キャンセル」をタッチしない場合には(STEP8のNo)、編集作業が終了となる。   In STEP 8, it is confirmed whether or not the user has touched “Cancel” on the display unit 4. If “Cancel” is touched (Yes in STEP 8), the process returns to STEP 3 and the input receiving unit 46 does not trace the position of the photo 9. Return to the position of or cancel deletion candidates. If the user does not touch “Cancel” on the display unit 4 (NO in STEP 8), the editing operation is terminated.

[効果]
以上のような本実施形態によれば、表示部4にマップ8とフォト9を表示する場合に、ユーザが表示部4上のフォト9に触れることで作業対象を見ながら選択可能であり、しかも、「移動」や「削除」と表示された入力領域に触れるだけで、フォト9位置の修正及び削除といった編集作業を実施することができる。
[effect]
According to the present embodiment as described above, when the map 8 and the photo 9 are displayed on the display unit 4, the user can select while viewing the work target by touching the photo 9 on the display unit 4. Editing operations such as correction and deletion of the position of the photo 9 can be performed by simply touching the input area where “move” or “delete” is displayed.

したがって、マップ8に表示されたフォト9の位置が実際の位置と異なっていた場合に、その位置の修正及び削除が簡単である。特に、フォト9の位置を移動させる場合には、ドラッグアンドドロップの要領でフォト9を移動させることができるので、優れた作業性を発揮することができる。   Therefore, when the position of the photo 9 displayed on the map 8 is different from the actual position, it is easy to correct and delete the position. In particular, when the position of the photo 9 is moved, the photo 9 can be moved in a drag-and-drop manner, so that excellent workability can be exhibited.

これにより、実際に撮影したフォト画像7に基づいたフォト9を正確な位置に表示することができる。したがって、フォト9を目安として目的地や中継地となる場所を的確に特定することが可能となり、ナビゲーションシステムにおける地図データの情報量が豊富となってカスタマイズ化及び利便性の向上を図ることができる。   Thereby, the photo 9 based on the actually taken photo image 7 can be displayed at an accurate position. Therefore, it is possible to accurately specify the destination or relay location using Photo 9 as a guideline, and the amount of map data in the navigation system is abundant, so that customization and convenience can be improved. .

[他の実施形態]
なお、本発明は上記実施形態に限定されるものではなく、画像取得手段となるデジタルカメラなどの構成は適宜変更可能であり、ナビゲーションシステムに組み込まれる地図情報の記憶手段は、CDやDVD等のディスクを始め、携帯用のメモリーカードを利用することも可能である。
[Other Embodiments]
Note that the present invention is not limited to the above-described embodiment, and the configuration of a digital camera or the like serving as an image acquisition unit can be changed as appropriate, and the map information storage unit incorporated in the navigation system is a CD or DVD. It is also possible to use portable memory cards such as discs.

また、本発明は、車載用のナビゲーションシステムに組み込んでいるので、撮影して地図上に取り入れた被写体を目的地や中継地として、そこまでの経路探索を行うようにしても良い。また、取り込んでいるフォト9に誘導経路上の自車位置が近づいた場合に、自動的に表示部4に表示させるような設定としても良い。さらには、車載用のナビゲーションシステムに限らず、GPS機能を搭載したモバイルツールに適用することも可能である。   In addition, since the present invention is incorporated in an in-vehicle navigation system, a route search to that point may be performed using a subject photographed and taken on a map as a destination or a relay point. Moreover, it is good also as a setting which displays on the display part 4 automatically, when the own vehicle position on a guidance route approaches the photo 9 currently taken in. Furthermore, the present invention can be applied not only to the vehicle-mounted navigation system but also to a mobile tool equipped with a GPS function.

本発明に係る実施の形態の概念図。The conceptual diagram of embodiment which concerns on this invention. 本実施形態の正面図。The front view of this embodiment. 本実施形態の正面図。The front view of this embodiment. 本実施形態の正面図。The front view of this embodiment. 図2の点線で囲まれた部分の拡大側面図Enlarged side view of the portion surrounded by the dotted line in FIG. 本実施形態の機能ブロック図。The functional block diagram of this embodiment. 本実施形態の要部の説明図。Explanatory drawing of the principal part of this embodiment. 本実施形態の要部の説明図。Explanatory drawing of the principal part of this embodiment. 本実施形態における編集作業のフローチャート。The flowchart of the edit operation | work in this embodiment.

符号の説明Explanation of symbols

1…撮影装置
2…車両
3…操作スイッチ
4…表示部
5…撮影レンズ
6…2方向カメラ切替スイッチ
7…フォト画像
8…マップ
9…フォト
11…被写体の画像情報
12…出力部
13…入力部
19…ユーザインタフェース部
21…絶対位置・方位検出部
22…方向検出部
23…地図情報記憶部
30…画像取得部
31…撮影部
32…撮影制御部
33…測距部
34…測光センサ
40…メインCPU及びその周辺回路
41…現在地取得部
42…撮影方向判断部
43…被写体位置情報算出部
44…画像記憶部
45…表示制御部
46…入力受付部
DESCRIPTION OF SYMBOLS 1 ... Imaging device 2 ... Vehicle 3 ... Operation switch 4 ... Display part 5 ... Shooting lens 6 ... Two-way camera change-over switch 7 ... Photo image 8 ... Map 9 ... Photo 11 ... Image information 12 of object ... Output part 13 ... Input part DESCRIPTION OF SYMBOLS 19 ... User interface part 21 ... Absolute position / orientation detection part 22 ... Direction detection part 23 ... Map information storage part 30 ... Image acquisition part 31 ... Shooting part 32 ... Shooting control part 33 ... Distance measuring part 34 ... Photometric sensor 40 ... Main CPU and its peripheral circuit 41 ... current location acquisition unit 42 ... photographing direction determination unit 43 ... subject position information calculation unit 44 ... image storage unit 45 ... display control unit 46 ... input reception unit

Claims (6)

被写体の画像を取得する画像取得手段と、地図情報を記憶する地図情報記憶手段を有する撮影装置であって、
前記撮影装置の現在地の情報を取得する現在地取得手段と、
前記撮影装置が向いている被写体への撮影方向を判断する撮影方向判断手段と、
被写体から前記現在地までの撮影距離を算出する撮影距離算出手段と、
前記現在地取得手段にて取得された現在地の情報と前記撮影方向判断手段にて判断された撮影方向と前記撮影距離算出手段にて算出された撮影距離によって被写体の位置情報を算出する被写体位置情報算出手段と、
前記画像取得手段にて取得された被写体の画像と前記被写体位置情報算出手段にて算出された被写体の位置情報とを対応付けて記憶する画像記憶手段と、
前記地図情報記憶手段に記憶されている地図と前記画像記憶手段に記憶されている被写体の画像を表示する表示手段と、
前記画像記憶手段に記憶されている情報をユーザが変更可能な入力受付手段、
を備えたことを特徴とする撮影装置。
An imaging device having image acquisition means for acquiring an image of a subject and map information storage means for storing map information,
Current location acquisition means for acquiring current location information of the imaging device;
Shooting direction determining means for determining a shooting direction to a subject to which the shooting apparatus is facing;
Shooting distance calculating means for calculating a shooting distance from a subject to the current location;
Subject position information calculation for calculating subject position information based on the current location information acquired by the current location acquisition unit, the shooting direction determined by the shooting direction determination unit, and the shooting distance calculated by the shooting distance calculation unit. Means,
Image storage means for storing the subject image acquired by the image acquisition means and the subject position information calculated by the subject position information calculation means in association with each other;
Display means for displaying a map stored in the map information storage means and an image of a subject stored in the image storage means;
Input accepting means by which a user can change the information stored in the image storage means;
An imaging apparatus comprising:
前記入力受付手段は、前記被写体位置情報算出手段にて算出された被写体の位置情報を変更するように構成されたことを特徴とする請求項1に記載の撮影装置。   The photographing apparatus according to claim 1, wherein the input receiving unit is configured to change the position information of the subject calculated by the subject position information calculating unit. 前記入力受付手段は、前記表示手段で表示した被写体の画像をユーザがタッチして選択し、選択した被写体の画像を変更したい位置までなぞって移動させることにより、被写体の位置情報を変更するように構成されたことを特徴とする請求項2に記載の撮影装置。   The input receiving means changes the position information of the subject by touching and selecting the image of the subject displayed on the display means by the user and moving the selected subject image to the position where the user wants to change. The imaging apparatus according to claim 2, wherein the imaging apparatus is configured. 前記入力受付手段は、前記画像記憶手段に記憶された被写体の画像及びその画像に対応付けて記憶されている被写体の位置情報を削除するように構成されたことを特徴とする請求項1〜3のいずれか1項に記載の撮影装置。   The said input reception means is comprised so that the positional information on the to-be-photographed object memorize | stored in association with the image of the to-be-photographed object memorize | stored in the said image storage means may be deleted. The imaging device according to any one of the above. コンピュータを利用することにより、被写体の画像を取得する画像取得ステップと、地図情報を記憶する地図情報記憶ステップを含んだ撮影方法であって、
現在地の情報を取得する現在地取得ステップと、
被写体への撮影方向を判断する撮影方向判断ステップと、
被写体から前記現在地までの撮影距離を算出する撮影距離算出ステップと、
前記現在地取得ステップで取得した現在地の情報と前記撮影方向判断ステップで判断した撮影方向と前記撮影距離算出ステップで算出した撮影距離によって被写体の位置情報を算出する被写体の位置情報算出ステップと、
前記画像取得ステップで取得した被写体の画像を前記被写体位置情報算出ステップで算出した被写体の位置情報と対応付けて記憶する画像記憶ステップと、
前記地図情報記憶ステップで記憶した地図と前記画像記憶ステップで記憶した被写体の画像を表示する表示ステップと、
前記画像記憶ステップで記憶した情報をユーザが変更可能な入力受付ステップ、を含んだことを特徴とする撮影方法。
An imaging method including an image acquisition step of acquiring an image of a subject by using a computer, and a map information storage step of storing map information,
A current location acquisition step for acquiring current location information;
A shooting direction determination step for determining a shooting direction to the subject;
A shooting distance calculating step for calculating a shooting distance from a subject to the current location;
Subject position information calculation step for calculating subject position information based on the current location information acquired in the current location acquisition step, the shooting direction determined in the shooting direction determination step, and the shooting distance calculated in the shooting distance calculation step;
An image storage step of storing the subject image acquired in the image acquisition step in association with the subject position information calculated in the subject position information calculation step;
A display step for displaying the map stored in the map information storage step and the image of the subject stored in the image storage step;
An imaging method, comprising: an input receiving step in which a user can change the information stored in the image storage step.
コンピュータを利用して、被写体の画像を取得する画像取得機能と、地図情報を記憶する地図情報記憶機能をコンピュータに実現させる撮影プログラムであって、
現在地の情報を取得する現在地取得機能と、
被写体への撮影方向を判断する撮影方向判断機能と、
被写体から前記現在地までの撮影距離を算出する撮影距離算出機能と、
前記現在地取得機能にて取得された現在地の情報と前記撮影方向判断機能にて判断された撮影方向と前記撮影距離算出機能にて算出された撮影距離によって被写体の位置情報を算出する被写体位置情報算出機能と、
前記画像取得機能にて取得された被写体の画像を前記被写体位置情報算出機能にて算出された被写体の位置情報と対応付けて記憶する画像記憶機能と、
前記地図情報記憶機能に記憶されている地図と前記画像記憶機能にて記憶されている被写体の画像を表示する表示機能と、
前記画像記憶機能に記憶されている情報をユーザが変更可能な入力受付機能、をコンピュータに実現させることを特徴とする撮影プログラム。
An imaging program for realizing an image acquisition function for acquiring an image of a subject using a computer and a map information storage function for storing map information,
Current location acquisition function to acquire current location information,
A shooting direction determination function for determining the shooting direction to the subject;
A shooting distance calculation function for calculating a shooting distance from a subject to the current location;
Subject position information calculation for calculating subject position information based on the current location information acquired by the current location acquisition function, the shooting direction determined by the shooting direction determination function, and the shooting distance calculated by the shooting distance calculation function Function and
An image storage function for storing the subject image acquired by the image acquisition function in association with the subject position information calculated by the subject position information calculation function;
A display function for displaying a map stored in the map information storage function and an image of a subject stored in the image storage function;
An imaging program for causing a computer to realize an input reception function that allows a user to change information stored in the image storage function.
JP2006096101A 2006-03-30 2006-03-30 Imaging apparatus, method, and program Pending JP2007274245A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006096101A JP2007274245A (en) 2006-03-30 2006-03-30 Imaging apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006096101A JP2007274245A (en) 2006-03-30 2006-03-30 Imaging apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2007274245A true JP2007274245A (en) 2007-10-18

Family

ID=38676597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006096101A Pending JP2007274245A (en) 2006-03-30 2006-03-30 Imaging apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2007274245A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010163114A (en) * 2009-01-19 2010-07-29 Hitachi Ltd Portable navigation device with camera
JP2014216868A (en) * 2013-04-25 2014-11-17 京セラ株式会社 Communication terminal and information transmission method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010163114A (en) * 2009-01-19 2010-07-29 Hitachi Ltd Portable navigation device with camera
JP2014216868A (en) * 2013-04-25 2014-11-17 京セラ株式会社 Communication terminal and information transmission method

Similar Documents

Publication Publication Date Title
US11367158B2 (en) Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
JP4380550B2 (en) In-vehicle imaging device
US9204051B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
JP4864295B2 (en) Image display system, image display apparatus, and program
US8860801B2 (en) Electronic device and image pickup apparatus
US8756009B2 (en) Portable apparatus
JP2013042250A (en) Imaging apparatus and imaging method
US20170111574A1 (en) Imaging apparatus and imaging method
JP2002094870A (en) Camera device, display device, image pickup range display method and image pickup range memory method
JP6471986B2 (en) Portable electronic device and program for photography and management
JP2009222921A (en) Image display device, photographing device and image display method
KR101998903B1 (en) Server, client terminal, system, and program
JP5812509B2 (en) Map display device, map display method and program
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP4468794B2 (en) Display control apparatus, camera, and display control method
JP2007274245A (en) Imaging apparatus, method, and program
JP2007166084A (en) Camera and display method of camera
JP5967400B2 (en) Imaging apparatus, imaging method, and program
JP2017046106A (en) Imaging apparatus, imaging method, and imaging program
JP2011188054A (en) Image photographing device capable of using position information, image photographing method, and program
JP5115375B2 (en) Image display device and electronic camera
JP6521121B2 (en) Display device, display system, and display program
JP2012227717A (en) Display device, display program, and display method
JP2008051739A (en) Navigation system
JP2010112810A (en) Navigation apparatus, method for the same and program for the same