JP2009193468A - Virtual scenery display device - Google Patents

Virtual scenery display device Download PDF

Info

Publication number
JP2009193468A
JP2009193468A JP2008035219A JP2008035219A JP2009193468A JP 2009193468 A JP2009193468 A JP 2009193468A JP 2008035219 A JP2008035219 A JP 2008035219A JP 2008035219 A JP2008035219 A JP 2008035219A JP 2009193468 A JP2009193468 A JP 2009193468A
Authority
JP
Japan
Prior art keywords
image
unit
landscape
control unit
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008035219A
Other languages
Japanese (ja)
Other versions
JP2009193468A5 (en
JP5058842B2 (en
Inventor
Takako Hanai
孝子 花井
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2008035219A priority Critical patent/JP5058842B2/en
Priority to US12/364,574 priority patent/US8717411B2/en
Priority to CN 200910006169 priority patent/CN101505376B/en
Publication of JP2009193468A publication Critical patent/JP2009193468A/en
Publication of JP2009193468A5 publication Critical patent/JP2009193468A5/ja
Application granted granted Critical
Publication of JP5058842B2 publication Critical patent/JP5058842B2/en
Priority to US14/175,854 priority patent/US9412204B2/en
Priority to US15/228,927 priority patent/US9807354B2/en
Priority to US15/723,935 priority patent/US10027931B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a virtual scenery display device for reproducing a situation on a shooting date as well as scenery and the like which were not obtained at the time of photography. <P>SOLUTION: When a memory playback request is made in a camera 100, a photographic image is transmitted to a server 200 by the camera 100. On the basis of a shooting date and shooting position of the photographic image, a 2D map image and a 3D map image are selected from a period map DB 204. An image of the scenery which is assumed to be viewed by a subject at the shooting position at the time of shooting is created by a virtual scenery creating part 206. One image file is generated from a series of images created by the virtual scenery creating part 206 and displayed on a display part 107 of the camera 100. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮影された撮影位置情報付きの画像から、撮影時に被写体が見ていた風景の画像を補足して表示する仮想風景表示装置に関する。   The present invention relates to a virtual landscape display device that supplements and displays a landscape image viewed by a subject from a captured image with shooting position information.

近年、グーグル(登録商標)マップのように、3次元(3D)画像によって地図表示を行うサービスが各種提案されている。また、現実画像にCG画像を重畳して表示できるシステムも各種提案されている。例えば、特許文献1においては、現実画像とCG画像を合成することにより、ゴルフ中継等において、中継している映像中に写っている風景における起伏を視覚的に表示できるようにしている。
特開2000−128298号公報
In recent years, various services for displaying a map using a three-dimensional (3D) image such as a Google (registered trademark) map have been proposed. Various systems that can display a CG image superimposed on a real image have also been proposed. For example, in Patent Document 1, by combining a real image and a CG image, undulations in a landscape that is reflected in a relayed video can be visually displayed in a golf relay or the like.
JP 2000-128298 A

個人向けのカメラ撮影において、ユーザが自身で撮影した写真をアルバム等で見て、その撮影当時を追体験することが行われることがある。ここで、一般的には、ユーザが自身で撮影した写真に関しては記憶が残りやすく、撮影していない写真に関する記憶は残りにくいと考えられる。したがって、当時に撮影していなかった風景等に関する追体験を行うことは困難であると考えられる。   In personal camera photography, there are cases where a user takes a picture taken by himself / herself in an album or the like and relives the time of photography. Here, in general, it is considered that the memory about the photograph taken by the user himself is likely to remain, and the memory regarding the photograph which has not been photographed is difficult to remain. Therefore, it is considered difficult to have a re-experience about scenery that was not taken at that time.

本発明は、上記の事情に鑑みてなされたもので、撮影当時に撮影されなかった風景をも想起することができる仮想風景表示装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a virtual landscape display device that can recall a landscape that was not photographed at the time of photographing.

上記の目的を達成するために、本発明の第1の形態の仮想風景表示装置は、撮影位置情報が付加された画像を入力するための入力部と、地図データと入力された前記画像に付加されている撮影位置情報とに基づき、入力された前記画像中の被写体が見ている方向と相対する方向に存在する風景の画像を仮想的に作成して表示する仮想風景作成部とを具備することを特徴とする。   In order to achieve the above object, a virtual landscape display device according to a first aspect of the present invention includes an input unit for inputting an image to which shooting position information is added, and map data and an input to the input image. A virtual landscape creation unit that virtually creates and displays an image of a landscape that exists in a direction opposite to the direction in which the subject in the input image is viewed based on the captured shooting position information. It is characterized by that.

本発明によれば、撮影当時に撮影されなかった風景をも想起することができる仮想風景表示装置を提供することができる。   According to the present invention, it is possible to provide a virtual landscape display device that can recall a landscape that was not photographed at the time of photographing.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る仮想風景表示装置を含む、仮想風景表示システムの構成を示す図である。図1に示す仮想風景表示システムは、カメラ100と、サーバ200とが通信回線300を介して通信自在に接続されて構成されている。ここで、通信回線300はインターネット回線等の汎用の通信回線である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a virtual landscape display system including a virtual landscape display device according to an embodiment of the present invention. The virtual landscape display system shown in FIG. 1 is configured such that a camera 100 and a server 200 are communicably connected via a communication line 300. Here, the communication line 300 is a general-purpose communication line such as an Internet line.

カメラ100は、制御部101と、操作入力部102と、撮像部103と、位置検出部104と、時計部105と、記録部106と、表示部107と、通信部108とを有している。   The camera 100 includes a control unit 101, an operation input unit 102, an imaging unit 103, a position detection unit 104, a clock unit 105, a recording unit 106, a display unit 107, and a communication unit 108. .

制御部101は、カメラ100の全体の動作を制御する。この制御部101は、ユーザによる操作入力部102の操作状態に従って各種の処理を制御する。操作入力部102は、カメラ100の電源をオンオフするための電源スイッチ、カメラ100の撮影実行の指示を与えるためのレリーズボタン、ズーム操作を実行するためのズームボタン、画像の通常再生指示を与えるための再生ボタン、画像の思い出再生(詳細は後述)指示を与えるための思い出再生ボタン、カメラ100における各種選択操作を行うための十字キー、カメラ100における各種決定操作を行うためのOKボタン等、ユーザがカメラ100の操作を行うための各種の操作部材を含んで構成されている。   The control unit 101 controls the overall operation of the camera 100. The control unit 101 controls various processes according to the operation state of the operation input unit 102 by the user. The operation input unit 102 is a power switch for turning on / off the power of the camera 100, a release button for giving an instruction to execute shooting of the camera 100, a zoom button for executing a zoom operation, and an instruction for normal playback of an image. A user's playback button, a memory playback button for giving a memory playback instruction (details will be described later), a cross key for performing various selection operations on the camera 100, an OK button for performing various determination operations on the camera 100, etc. Are configured to include various operation members for operating the camera 100.

撮像部103は、制御部101の制御の下で被写体を撮影して画像を取得する。位置検出部104は、例えばGPS等で構成され、撮影時のカメラ100の位置(緯度・経度)を検出する。時計部105は、撮影日時を検出する。   The imaging unit 103 captures an image by capturing a subject under the control of the control unit 101. The position detection unit 104 is configured by, for example, a GPS or the like, and detects the position (latitude / longitude) of the camera 100 during shooting. The clock unit 105 detects the shooting date and time.

ここで、位置検出部104や時計部105は必ずしもカメラ100に内蔵する必要はない。例えば、GPS内蔵の腕時計や専用のナビゲーション装置をユーザに携帯させることで、これらによって検出される位置情報や時間情報をカメラ100において取得するようにしても良い。   Here, the position detection unit 104 and the clock unit 105 are not necessarily built in the camera 100. For example, the camera 100 may acquire position information and time information detected by a GPS wristwatch or a dedicated navigation device carried by the user.

記録部106は、例えばカメラ100に対して着脱自在に構成されたメモリカードであり、撮像部103を介して取得された画像を、位置検出部104で検出された撮影位置及び時計部105で検出された撮影日時と関連付けて記録する。表示部107は、制御部101の下で記録部106に記録された画像等の各種画像を表示する。   The recording unit 106 is, for example, a memory card configured to be detachable from the camera 100, and an image acquired via the imaging unit 103 is detected by the shooting position detected by the position detection unit 104 and the clock unit 105. Recorded in association with the shooting date and time. The display unit 107 displays various images such as images recorded in the recording unit 106 under the control unit 101.

通信部108は、制御部101の制御の下、サーバ200との通信に係る各種処理を行う。   The communication unit 108 performs various processes related to communication with the server 200 under the control of the control unit 101.

サーバ200は、制御部201と、操作入力部202と、画像記録部203と、年代別地図データベース(DB)204と、撮影者画像DB205と、仮想風景作成部206と、通信部207とを有している。サーバ200は、様々な地方の地図画像を記録できるように巨大なデータベースを有し、インターネット上の様々なサイトの情報も利用できるようにインターネットに接続されていることが望ましいが、カメラ100にサーバ200の機能を持たせるようにしても良い。   The server 200 includes a control unit 201, an operation input unit 202, an image recording unit 203, an age-specific map database (DB) 204, a photographer image DB 205, a virtual landscape creation unit 206, and a communication unit 207. is doing. The server 200 has a huge database so that various local map images can be recorded, and is preferably connected to the Internet so that information on various sites on the Internet can be used. 200 functions may be provided.

制御部201は、サーバ200における各種処理を制御する。この制御部201は、操作入力部202が操作された場合には、その操作内容に従った処理も行う。操作入力部202は、サーバ200の操作を行うための各種の操作部材を含んで構成されている。ここで、図1においては、操作入力部202をサーバ200に設けているが、操作入力部202は、サーバ200にネットワーク接続されたPC等であっても良い。   The control unit 201 controls various processes in the server 200. When the operation input unit 202 is operated, the control unit 201 also performs processing according to the operation content. The operation input unit 202 includes various operation members for operating the server 200. Here, although the operation input unit 202 is provided in the server 200 in FIG. 1, the operation input unit 202 may be a PC connected to the server 200 via a network.

画像記録部203は、カメラ100から通信回線300を介して送信された画像を記録する。画像記録部203は、カメラ100の記録部106に比して大容量の記録容量を有するハードディスク等から構成されている。ここで、本実施形態における画像記録部203は、位置年代記録部203aとしての記録領域を有している。位置年代記録部203aは、画像記録部203に記録されている各画像の撮影位置と撮影日時(撮影年代)とを関連付けて記録しておくための記録領域である。   The image recording unit 203 records an image transmitted from the camera 100 via the communication line 300. The image recording unit 203 includes a hard disk having a larger recording capacity than the recording unit 106 of the camera 100. Here, the image recording unit 203 in the present embodiment has a recording area as the position age recording unit 203a. The position age recording unit 203a is a recording area for recording the shooting position of each image recorded in the image recording unit 203 and the shooting date and time (shooting age) in association with each other.

年代別地図DB204は、撮影年代毎の2D及び3D地図画像を記録したデータベースである。ここで、年代別地図DB204は、画像記録部203とは別の記録媒体内に構築しても良いし、画像記録部203内に構築しても良い。   The age-specific map DB 204 is a database that records 2D and 3D map images for each shooting age. Here, the age-specific map DB 204 may be constructed in a recording medium different from the image recording unit 203 or may be constructed in the image recording unit 203.

撮影者画像DB205は、ユーザ(撮影者)の画像を記録したデータベースである。この撮影者画像DB205に記録される撮影者の画像は、撮影者が自身で登録した実写画像、若しくはサーバ200に予め登録されている撮影者の分身としてのキャラクタ画像であるアバターである。ユーザは、後述する思い出再生の際に作成される仮想風景画像に合成する自身の画像を実写画像とするかアバターとするかを操作入力部202又はカメラ100の操作入力部102によって選択することが可能である。   The photographer image DB 205 is a database in which images of users (photographers) are recorded. The photographer's image recorded in the photographer image DB 205 is an avatar that is a photographed image registered by the photographer himself or a character image as a part of the photographer registered in advance in the server 200. The user can use the operation input unit 202 or the operation input unit 102 of the camera 100 to select whether the image to be synthesized with a virtual landscape image created at the time of replaying memories, which will be described later, is a live-action image or an avatar. Is possible.

仮想風景作成部206は、思い出再生の際に入力される画像に写っている被写体が見ている風景の画像(仮想風景画像)を作成し、さらに、必要に応じて仮想風景画像に入力された画像のユーザ(撮影者)の画像を合成する。仮想風景作成部206は、方向検出部2061と、画像合成部2062とを有している。方向検出部2061は、同方向検出部2061aと反対方向検出部2061bとを有している。同方向検出部2061aは、入力された画像の撮影位置情報と、入力された画像に写っている風景とから、撮影方向を検出する。反対方向検出部2061bは、同方向検出部2061aによって検出された撮影方向と相対する方向(180度の回転方向)を検出する。画像合成部2062は、反対方向検出部2061bによって検出された方向に存在する風景の画像を仮想風景画像として年代別地図DB204から取得し、必要に応じて、取得した風景の画像に、入力された画像の撮影者の画像を合成する。即ち、画像合成部2062によって取得される仮想風景画像は、入力された画像の撮影当時に被写体が見ていた方向、即ち撮影者が存在していた方向に写っていたと考えられる風景の画像に相当する。   The virtual landscape creation unit 206 creates a landscape image (virtual landscape image) viewed by the subject in the image that is input at the time of memory playback, and is further input to the virtual landscape image as necessary. The image of the user (photographer) of the image is synthesized. The virtual landscape creation unit 206 includes a direction detection unit 2061 and an image composition unit 2062. The direction detection unit 2061 includes a same direction detection unit 2061a and an opposite direction detection unit 2061b. The same direction detection unit 2061a detects the shooting direction from the shooting position information of the input image and the landscape shown in the input image. The opposite direction detection unit 2061b detects a direction (180-degree rotation direction) opposite to the photographing direction detected by the same direction detection unit 2061a. The image composition unit 2062 acquires a landscape image existing in the direction detected by the opposite direction detection unit 2061b as a virtual landscape image from the chronological map DB 204, and is input to the acquired landscape image as necessary. Synthesize the image of the photographer. That is, the virtual landscape image acquired by the image composition unit 2062 corresponds to an image of a landscape that is considered to be reflected in the direction in which the subject was looking at the time of shooting the input image, that is, the direction in which the photographer was present. To do.

通信部207は、制御部201の制御の下、カメラ100との通信に係る各種処理を行う。   The communication unit 207 performs various processes related to communication with the camera 100 under the control of the control unit 201.

以下、図1に示す仮想風景表示システムの動作の概略について説明する。図2は、仮想風景表示システムの動作の概略について示す図である。   The outline of the operation of the virtual landscape display system shown in FIG. 1 will be described below. FIG. 2 is a diagram showing an outline of the operation of the virtual landscape display system.

本実施形態においては、撮影がなされると、撮影位置と撮影日時とが関連付けられた状態で画像が記録部106に記録される。   In this embodiment, when shooting is performed, an image is recorded in the recording unit 106 in a state where the shooting position and the shooting date and time are associated with each other.

そして、ユーザの操作入力部102の操作により、カメラ100の動作モードが思い出画像再生モードに設定され、その後に、カメラ100の記録部106に記録されている画像が選択されると、選択された画像がサーバ200に送信される。図2の例では、12時20分に緯度A、経度Bの位置で撮影された画像401が選択された例を示している。   Then, the operation mode of the camera 100 is set to the memory image reproduction mode by the operation of the operation input unit 102 by the user, and when the image recorded in the recording unit 106 of the camera 100 is selected after that, the selected mode is selected. An image is transmitted to the server 200. In the example of FIG. 2, an example is shown in which an image 401 captured at a position of latitude A and longitude B at 12:20 is selected.

画像401がサーバ200において受信されると、年代別地図DB204から画像401の撮影位置を含む2D地図画像402及び3D地図画像が取得される。その後、仮想風景作成部206の同方向検出部2061aにおいて、画像401に写っている風景から画像401の撮影方向が特定される。画像401の撮影方向の特定後、反対方向検出部2061bによって撮影方向と相対する方向(撮影方向の180度回転方向)が特定される。この方向が、画像401の撮影当時に被写体が見ていたと考えられる方向となる。   When the image 401 is received by the server 200, the 2D map image 402 and the 3D map image including the shooting position of the image 401 are acquired from the age-specific map DB 204. Thereafter, in the same direction detection unit 2061a of the virtual landscape creation unit 206, the shooting direction of the image 401 is specified from the landscape shown in the image 401. After specifying the shooting direction of the image 401, the opposite direction detection unit 2061b specifies a direction opposite to the shooting direction (180-degree rotation direction of the shooting direction). This direction is the direction in which the subject is thought to have been looking at the time of shooting the image 401.

反対方向検出部2061bによって撮影方向と相対する方向が特定されると、画像合成部2062によって、被写体が見ていたと考えられる画像が仮想風景画像として、年代別地図DB204の3D地図画像をもとに作成される。さらに、作成された仮想風景画像403に必要に応じて撮影者の画像404が合成される。   When the direction opposite to the shooting direction is specified by the opposite direction detection unit 2061b, the image composition unit 2062 uses the 3D map image in the chronological map DB 204 as a virtual landscape image as an image considered to be viewed by the subject. Created. Further, the photographer's image 404 is combined with the created virtual landscape image 403 as necessary.

以上のようにして仮想風景画像を作成することにより、実際には画像401しか撮影してなくとも、その撮影位置で見ることのできた他の画像をも鑑賞することが可能である。   By creating a virtual landscape image as described above, it is possible to view other images that can be viewed at the shooting position even if only the image 401 is actually shot.

以下、図1の仮想風景表示システムの具体的な動作について説明する。
図3は、図1に示す仮想風景表示システムにおけるカメラ100の動作を示すフローチャートである。ユーザによる操作入力部102の電源スイッチの操作によってカメラ100の電源がオンされることで図3の処理が開始される。
Hereinafter, a specific operation of the virtual landscape display system of FIG. 1 will be described.
FIG. 3 is a flowchart showing the operation of the camera 100 in the virtual landscape display system shown in FIG. The process of FIG. 3 is started when the power of the camera 100 is turned on by the operation of the power switch of the operation input unit 102 by the user.

電源のオン後、制御部101は、撮像部103を動作させ、撮像部103を介して得られる画像を表示部107にリアルタイム表示させるスルー画表示を行う(ステップS1)。スルー画表示の後、制御部101は、ユーザによる操作入力部102のレリーズボタンの操作によって画像撮影指示がなされたかを判定する(ステップS2)。   After the power is turned on, the control unit 101 operates the imaging unit 103 to perform a through image display in which an image obtained via the imaging unit 103 is displayed on the display unit 107 in real time (step S1). After the through image display, the control unit 101 determines whether an image shooting instruction is given by the user operating the release button of the operation input unit 102 (step S2).

ステップS2の判定において、画像撮影指示がなされた場合に、制御部101は、被写体の撮影を実行する(ステップS3)。即ち、制御部101は、撮像部103を動作させて被写体の画像を取得し、この取得した被写体の画像に対し、種々の画像処理を施す。その後、制御部101は、撮影実行時に時計部105において検出された撮影日時情報を取得するとともに(ステップS4)、撮影実行時に位置検出部104において検出された撮影位置情報を取得する(ステップS5)。次に、制御部101は、撮影によって得られた画像と撮影日時情報及び撮影位置情報とを関連付けて記録部106に記録する(ステップS6)。   If it is determined in step S2 that an image shooting instruction has been issued, the control unit 101 performs shooting of the subject (step S3). That is, the control unit 101 operates the imaging unit 103 to acquire a subject image, and performs various image processing on the acquired subject image. Thereafter, the control unit 101 acquires the shooting date / time information detected by the clock unit 105 when the shooting is performed (step S4), and acquires the shooting position information detected by the position detection unit 104 when the shooting is executed (step S5). . Next, the control unit 101 records the image obtained by shooting, shooting date / time information, and shooting position information in the recording unit 106 in association with each other (step S6).

また、ステップS2の判定において、画像撮影指示がなされていない場合に、制御部101は、ユーザによる操作入力部102の再生ボタンの操作によって通常の画像再生指示がなされたかを判定する(ステップS7)。ステップS7の判定において、通常の画像再生指示がなされた場合に、制御部101は、通常の画像の再生に関する処理を行う(ステップS8)。即ち、制御部101は、記録部106に記録されている画像のサムネイル画像を表示部107に表示させ、ユーザによって選択されたサムネイル画像に対応した画像を表示部107に表示させる。なお、サーバ200の画像記録部203に記録されている画像をカメラ100で再生できるようにしても良い。この場合には、カメラ100からサーバ200に対して画像の再生要求がなされる。これを受けてサーバ200に記録されている画像のサムネイル画像が表示部107に表示される。何れかのサムネイル画像がユーザによって選択された場合、そのサムネイル画像に対応した画像がサーバ200からカメラ100に送信され、この送信された画像が表示部107に表示される。   Further, in the determination in step S2, if no image shooting instruction has been issued, the control unit 101 determines whether a normal image reproduction instruction has been made by the user operating the reproduction button of the operation input unit 102 (step S7). . In the determination in step S7, when a normal image reproduction instruction is given, the control unit 101 performs processing related to normal image reproduction (step S8). That is, the control unit 101 causes the display unit 107 to display a thumbnail image of the image recorded in the recording unit 106 and causes the display unit 107 to display an image corresponding to the thumbnail image selected by the user. The image recorded in the image recording unit 203 of the server 200 may be played back by the camera 100. In this case, an image reproduction request is made from the camera 100 to the server 200. In response to this, a thumbnail image of an image recorded in the server 200 is displayed on the display unit 107. When any thumbnail image is selected by the user, an image corresponding to the thumbnail image is transmitted from the server 200 to the camera 100, and the transmitted image is displayed on the display unit 107.

また、ステップS7の判定において、通常の画像再生指示がなされていない場合に、制御部101は、ユーザによる操作入力部102の思い出再生ボタンの操作によって思い出再生指示がなされたかを判定する(ステップS9)。ステップS9の判定において、思い出再生指示がなされていない場合に、制御部101は、ユーザによる操作入力部102の操作により画像送信指示がなされたかを判定する(ステップS10)。ステップS10の判定において、画像送信指示がなされていない場合に、処理がステップS1に戻り、制御部101は、スルー画表示を再び行う。一方、ステップS10の判定において、画像送信指示がなされた場合に、制御部101は画像送信に関する処理を行う(ステップS11)。即ち、制御部101は、記録部106に記録されている画像のサムネイル画像を表示部107に表示させ、ユーザによって選択されたサムネイル画像に対応した画像をサーバ200に送信する。   Further, in the determination in step S7, when a normal image reproduction instruction has not been given, the control unit 101 determines whether or not a memory reproduction instruction has been given by the operation of the memory reproduction button of the operation input unit 102 by the user (step S9). ). If it is determined in step S9 that no memory playback instruction has been issued, the control unit 101 determines whether an image transmission instruction has been given by an operation of the operation input unit 102 by the user (step S10). If it is determined in step S10 that no image transmission instruction has been issued, the process returns to step S1, and the control unit 101 performs the through image display again. On the other hand, when an image transmission instruction is given in the determination in step S10, the control unit 101 performs processing related to image transmission (step S11). That is, the control unit 101 causes the display unit 107 to display a thumbnail image of the image recorded in the recording unit 106 and transmits an image corresponding to the thumbnail image selected by the user to the server 200.

また、ステップS9の判定において、思い出再生指示がなされた場合に、制御部101は思い出再生に係る処理を実行する。まず、制御部101は、記録部106に記録されている画像のサムネイル画像を表示部107に表示させる(ステップS12)。次に、制御部101は、ユーザによる操作入力部102の操作によってサムネイル画像中の何れかの画像が選択されるのを待つ(ステップS13)。   In the determination of step S9, when a memory playback instruction is given, the control unit 101 executes a process related to memory playback. First, the control unit 101 causes the display unit 107 to display thumbnail images of images recorded in the recording unit 106 (step S12). Next, the control unit 101 waits for any image in the thumbnail image to be selected by the operation of the operation input unit 102 by the user (step S13).

ステップS13において画像の選択がなされた後、制御部101は、撮影者の画像の設定の入力を待つ(ステップS14)。この設定は、後述する思い出再生モードにおいて仮想風景画像に、撮影者画像を合成するか、また合成する場合にはどのような画像を合成するか等の設定である。この撮影者画像の設定についての処理は後述する。   After the image is selected in step S13, the control unit 101 waits for input of the photographer's image setting (step S14). This setting is a setting such as whether to synthesize a photographer image with a virtual landscape image in a memory reproduction mode described later, and what kind of image to synthesize. The process for setting the photographer image will be described later.

その後、制御部101は、ユーザによる操作入力部102の操作によって決定指示がなされたかを判定する(ステップS15)。ステップS15の判定において、決定指示がなされていない場合には、処理がステップS13に戻って、制御部101は画像の選択及び撮影者画像の設定入力の変更を待つ。一方、ステップS15の判定において、決定指示がなされた場合に、制御部101は、ユーザによって選択された画像をサーバ200に送信し、サーバ200に対して思い出再生要求を送信する。この際、ステップS14で設定された撮影者画像の設定情報もサーバ200に送信する(ステップS16)。この後、後述するサーバ200の処理において、思い出再生用の画像ファイルが生成される。   Thereafter, the control unit 101 determines whether a determination instruction has been given by the operation of the operation input unit 102 by the user (step S15). If it is determined in step S15 that no determination instruction has been given, the process returns to step S13, and the control unit 101 waits for selection of an image and change in setting input of a photographer image. On the other hand, when a determination instruction is given in the determination in step S <b> 15, the control unit 101 transmits the image selected by the user to the server 200 and transmits a memory playback request to the server 200. At this time, the setting information of the photographer image set in step S14 is also transmitted to the server 200 (step S16). Thereafter, in the process of the server 200 described later, an image file for replaying memories is generated.

その後、制御部101は、サーバ200において生成された思い出再生用の画像ファイルを受信したかを判定する(ステップS17)。ステップS17において、サーバ200から画像ファイルを受信するまで待機する。ステップS17の判定において、サーバ200から画像ファイルが受信された場合に、制御部101は、ユーザにその旨を通知する。ユーザによって思い出画像ファイルの再生指示がなされたかを判定する(ステップS18)。ステップS18の判定において、思い出画像ファイルの再生指示がなされた場合に、制御部101は、サーバ200から送信された画像ファイルに基づき、撮影時に被写体が見ていたと考えられる風景画像を表示部107に表示させる思い出再生処理を行う(ステップS19)。この思い出再生処理については後述する。また、ステップS18の判定において、思い出画像ファイルの再生指示がなされなかった場合に、制御部101は、ステップS19の処理をスキップする。   Thereafter, the control unit 101 determines whether an image file for replaying a memory generated in the server 200 has been received (step S17). In step S17, the process waits until an image file is received from the server 200. If it is determined in step S17 that an image file has been received from the server 200, the control unit 101 notifies the user to that effect. It is determined whether or not the user has instructed playback of the memory image file (step S18). If it is determined in step S18 that the memory image file is instructed to be reproduced, the control unit 101 displays, on the display unit 107, a landscape image that is considered to be viewed by the subject at the time of shooting based on the image file transmitted from the server 200. The memory reproduction process to be displayed is performed (step S19). This memory reproduction process will be described later. Also, in the determination in step S18, if no instruction to reproduce the memory image file is given, the control unit 101 skips the process in step S19.

ステップS18又はステップS19の後、制御部101は、ユーザの操作入力部102の操作により画像ファイルの記録指示がなされたかを判定する(ステップS20)。ステップS20の判定において、画像ファイルの記録指示がなされた場合に、制御部101は画像ファイルを記録部106に記録する(ステップS21)。また、ステップS20の判定において、思い出画像ファイルの記録指示がなされなかった場合に、制御部101は、ステップS21の処理をスキップする。   After step S18 or step S19, the control unit 101 determines whether an instruction to record an image file has been given by the user's operation on the operation input unit 102 (step S20). If it is determined in step S20 that an image file recording instruction has been issued, the control unit 101 records the image file in the recording unit 106 (step S21). Also, in the determination in step S20, when no memory image file recording instruction is given, the control unit 101 skips the process in step S21.

図4は、図1に示す仮想風景表示システムにおけるサーバ200の動作を示すフローチャートである。制御部201は、思い出再生要求がなされていない状態でカメラ100からの画像を受信したかを判定する(ステップS31)。ステップS31の判定において、画像を受信した場合に、制御部201は、受信した画像を画像記録部203に記録する(ステップS32)。その後、制御部201は、カメラ100からの画像の受信が終了したかを判定する(ステップS33)。ステップS33の判定において、画像の受信が終了していない場合に、処理がステップS31に戻り、制御部201は、カメラ100からの次の画像の受信を待つ。   FIG. 4 is a flowchart showing the operation of the server 200 in the virtual landscape display system shown in FIG. The control unit 201 determines whether an image from the camera 100 has been received in a state where no memory playback request has been made (step S31). If it is determined in step S31 that an image has been received, the control unit 201 records the received image in the image recording unit 203 (step S32). Thereafter, the control unit 201 determines whether or not reception of an image from the camera 100 has been completed (step S33). If it is determined in step S33 that image reception has not ended, the process returns to step S31, and the control unit 201 waits for reception of the next image from the camera 100.

また、ステップS31の判定において、画像の受信がない場合に、制御部201は、カメラ100から画像とともに思い出再生要求がなされたかを判定する(ステップS34)。ステップS34の判定において、思い出再生要求がなされていない場合に、制御部201は、カメラ100から通常の画像の再生要求がなされたかを判定する(ステップS35)。ステップS35の判定において、通常の画像の再生要求がなされた場合に、制御部201はユーザによって選択された画像をカメラ100に転送する。これにより、カメラ100の表示部107において画像再生が行われる(ステップS36)。   Further, in the determination in step S31, when no image is received, the control unit 201 determines whether a memory playback request is made from the camera 100 together with the image (step S34). If the memory playback request is not made in the determination in step S34, the control unit 201 determines whether a normal image playback request is made from the camera 100 (step S35). In the determination in step S <b> 35, when a normal image reproduction request is made, the control unit 201 transfers the image selected by the user to the camera 100. Thereby, image reproduction is performed on the display unit 107 of the camera 100 (step S36).

また、ステップS34の判定において、思い出再生要求がなされた場合に、制御部201はカメラ100から送られてきた画像を取得する(ステップS37)。次に、制御部201は、カメラ100から送られてきた撮影者画像の設定情報に基づいて撮影者画像を取得する(ステップS38)。即ち、カメラ100から撮影者を示す画像が送られてきた場合には、その画像を撮影者画像として取得する。また、サーバ200の撮影者画像DB205に記録されている画像を合成するように要求されている場合には、その画像を撮影者画像として取得する。   In the determination in step S34, when a memory playback request is made, the control unit 201 acquires an image sent from the camera 100 (step S37). Next, the control unit 201 acquires a photographer image based on the photographer image setting information sent from the camera 100 (step S38). That is, when an image showing a photographer is sent from the camera 100, the image is acquired as a photographer image. Further, when it is requested to synthesize an image recorded in the photographer image DB 205 of the server 200, the image is acquired as a photographer image.

その後、制御部201は、取得した画像に付加されている撮影日時と撮影位置の情報に基づき、年代別地図DB204から、カメラ100から送られてきた画像の撮影日時と同年代で且つその画像の撮影位置を含む2D地図画像及び3D地図画像を選択し(ステップS39)、選択した2D地図画像及び3D地図画像を仮想風景作成部206に送る。その後、仮想風景作成部206の同方向検出部2061aは、カメラ100から送られてきた画像に写っている風景から、カメラ100から送られてきた画像の撮影方向を検出する(ステップS40)。即ち、同方向検出部2061aは、撮影者が撮影位置に立ったときに見えるはずの画像(撮影位置を中心として360度回転方向に沿って存在する風景画像)を3D地図画像から選択する。そして、仮想風景各選択した画像とカメラ100から送られてきた画像とのマッチング処理を行い、マッチング処理によって最も一致度の高いと判定される風景画像が存在する方向を撮影方向として検出する。例えば、図2の位置402aに存在する風景画像との一致度が高いと判定される場合には、撮影方向は矢印Cで示すものとなる。撮影方向の検出後、仮想風景作成部206の反対方向検出部2061bは、撮影方向の反対方向(撮影方向に対して180度回転方向。図2の例では矢印Dの方向)を検出する(ステップS41)。   Thereafter, the control unit 201 is based on the shooting date and time information added to the acquired image and the shooting date of the image at the same age as the shooting date and time of the image sent from the camera 100 from the chronological map DB 204. The 2D map image and 3D map image including the position are selected (step S39), and the selected 2D map image and 3D map image are sent to the virtual landscape creation unit 206. Thereafter, the same direction detection unit 2061a of the virtual landscape creation unit 206 detects the shooting direction of the image sent from the camera 100 from the landscape shown in the image sent from the camera 100 (step S40). That is, the same direction detection unit 2061a selects, from the 3D map image, an image that should be visible when the photographer stands at the shooting position (a landscape image that exists along the 360-degree rotation direction with the shooting position as the center). Then, matching processing between each image selected from the virtual landscape and the image sent from the camera 100 is performed, and a direction in which a landscape image determined to have the highest degree of coincidence by the matching processing is detected as a shooting direction. For example, when it is determined that the degree of coincidence with the landscape image existing at the position 402a in FIG. 2 is high, the shooting direction is indicated by an arrow C. After detection of the shooting direction, the opposite direction detection unit 2061b of the virtual landscape creation unit 206 detects the opposite direction of the shooting direction (rotation direction 180 degrees with respect to the shooting direction; the direction of arrow D in the example of FIG. 2) (step S1). S41).

反対方向の検出終了後、制御部201は、撮影者画像の設定情報に基づき、撮影者画像を合成するように設定されているかを判定する(ステップS42)。ステップS42の判定において、撮影者画像を合成するように設定されている場合に、制御部201は、撮影位置の周囲360度の位置に対応した風景画像を仮想風景画像として選択し、選択した仮想風景画像の中で、ステップS41で検出された反対方向に対応した位置(図2の例では位置402b)に対応した仮想風景画像を選択し、選択した仮想風景画像を画像合成部2062に送る。画像合成部2062は、送られてきた仮想風景画像にステップS38で取得した撮影者画像を合成する。このような画像の合成の後、制御部201は、合成がなされた仮想風景画像を含む撮影位置周辺の仮想風景画像を1つの画像ファイルとする(ステップS43)。一方、ステップS42の判定において、撮影者画像を合成するように設定されていない場合に、制御部201は、撮影位置の周囲360度の位置に対応した風景画像を仮想風景画像として選択し、選択した各仮想風景画像とステップS38で取得した撮影者画像とを1つの画像ファイルとする(ステップS44)。また、ここで作成される思い出画像ファイルには、ステップS41で検出された反対方向の情報も含めておく。このようにして、仮想風景画像と撮影者画像とを合成せずに画像ファイルに記録しておくことにより、カメラ100においても合成を行うことが可能となる。   After the detection of the opposite direction is completed, the control unit 201 determines whether or not the setting is made to synthesize the photographer image based on the setting information of the photographer image (step S42). In the determination of step S42, when it is set to synthesize the photographer image, the control unit 201 selects a landscape image corresponding to a 360 ° position around the shooting position as a virtual landscape image, and selects the selected virtual image. Among the landscape images, a virtual landscape image corresponding to the position (position 402b in the example of FIG. 2) corresponding to the opposite direction detected in step S41 is selected, and the selected virtual landscape image is sent to the image composition unit 2062. The image composition unit 2062 composes the photographer image acquired in step S38 with the sent virtual landscape image. After such image synthesis, the control unit 201 sets a virtual landscape image around the shooting position including the synthesized virtual landscape image as one image file (step S43). On the other hand, if it is determined in step S42 that the photographer image is not set to be synthesized, the control unit 201 selects a landscape image corresponding to a 360 ° position around the shooting position as a virtual landscape image, and selects it. Each virtual landscape image and the photographer image acquired in step S38 are set as one image file (step S44). In addition, the memory image file created here includes information in the opposite direction detected in step S41. In this way, the virtual landscape image and the photographer image are recorded in the image file without being combined, so that the camera 100 can also perform the combination.

図5は、図3のステップS14における撮影者画像の設定処理について示すフローチャートである。ユーザ(撮影者)は、サーバ200の撮影者画像DB205に記録されている画像の中から所望の撮影者画像を選択することができる。なお、撮影者画像の設定は、サーバ200にネットワーク接続されたPC上から行うことも可能である。   FIG. 5 is a flowchart showing the photographer image setting process in step S14 of FIG. A user (photographer) can select a desired photographer image from images recorded in the photographer image DB 205 of the server 200. The photographer image can also be set from a PC connected to the server 200 via a network.

撮影者画像の設定の際に、制御部101は、サーバ200からアバターの候補画像を受信し、受信した候補画像のサムネイル画像を図6(a)の参照符号107aに示すようにして表示させる。そして、ユーザによるアバター候補の選択を待つ(ステップS51)。この際、制御部101は、ユーザによりアバターの候補が選択されたかを判定し(ステップS52)、選択がなされるまでステップS51〜S52の処理を繰り返す。ステップS51では、アバターの性別やスタイル等のアバターの外形を選択することが可能である。即ち、ユーザは、操作入力部102の十字キー102aとOKボタン102bとを操作してカーソル107bを移動させ、表示部107に表示された何れかのサムネイル画像を選択することにより、所望の外形のアバターを選択することが可能である。   When setting the photographer image, the control unit 101 receives the candidate image of the avatar from the server 200 and displays the received thumbnail image of the candidate image as indicated by reference numeral 107a in FIG. And it waits for selection of the avatar candidate by a user (step S51). At this time, the control unit 101 determines whether an avatar candidate has been selected by the user (step S52), and repeats the processes of steps S51 to S52 until selection is made. In step S51, it is possible to select the outer shape of the avatar such as the sex and style of the avatar. That is, the user operates the cross key 102a and the OK button 102b of the operation input unit 102 to move the cursor 107b, and selects one of the thumbnail images displayed on the display unit 107. An avatar can be selected.

ステップS52の判定において、アバターの候補が選択された場合に、制御部101は、サーバ200から、選択された外形に対応したアバターの候補画像を受信し、受信した候補画像のサムネイル画像を図6(b)の参照符号107cに示すようにして表示させる。そして、ユーザによるアバター候補の選択を待つ(ステップS53)。この際、制御部101は、ユーザによりアバターの候補が選択されたかを判定し(ステップS54)、選択がなされるまでステップS53〜S54の処理を繰り返す。ステップS53では、アバターのポーズを選択することが可能である。即ち、ユーザは、操作入力部102の十字キー102aとOKボタン102bとを操作してカーソル107bを移動させ、表示部107に表示された何れかのサムネイル画像を選択することにより、ステップS51で選択された外形に対応した所望のポーズのアバターを選択することが可能である。   When the avatar candidate is selected in the determination of step S52, the control unit 101 receives a candidate image of the avatar corresponding to the selected outline from the server 200, and displays the thumbnail image of the received candidate image as shown in FIG. It is displayed as indicated by reference numeral 107c in (b). And it waits for selection of the avatar candidate by a user (step S53). At this time, the control unit 101 determines whether an avatar candidate has been selected by the user (step S54), and repeats the processing of steps S53 to S54 until selection is made. In step S53, the avatar pose can be selected. That is, the user moves the cursor 107b by operating the cross key 102a and the OK button 102b of the operation input unit 102, and selects one of the thumbnail images displayed on the display unit 107, thereby selecting in step S51. It is possible to select an avatar having a desired pose corresponding to the formed outer shape.

ステップS54の判定において、アバターの候補が選択された場合に、制御部101は、選択されたポーズに基づいてアバターの候補画像を作成し、作成したアバターの候補画像をユーザへの確認用の画像として表示部107に表示させる(ステップS55)。その後、制御部101は、ユーザによってOK操作がなされたかを判定する(ステップS56)。OK操作は、ユーザによるOKボタン102bの操作である。ステップS56の判定において、OK操作がなされていない場合には、処理がステップS53に戻り、制御部101は、アバター候補の選択を再び待つ。   In the determination of step S54, when an avatar candidate is selected, the control unit 101 creates an avatar candidate image based on the selected pose, and confirms the created avatar candidate image to the user. Is displayed on the display unit 107 (step S55). Thereafter, the control unit 101 determines whether an OK operation has been performed by the user (step S56). The OK operation is an operation of the OK button 102b by the user. If it is determined in step S56 that an OK operation has not been performed, the process returns to step S53, and the control unit 101 waits for selection of an avatar candidate again.

また、ステップS56の判定において、ユーザによってOK操作がなされた場合に、制御部101は、サーバ200と通信してサーバ200の撮影者画像DB205に撮影者であるユーザを示す実写画像(撮影者が自身で登録した画像)が記録されているかを判定する(ステップS57)。ステップS57の判定において、実写画像が記録されていない場合に、制御部101は、図5の処理を終了させる。一方、ステップS57の判定において、実写画像が記録されている場合に、制御部101は、サーバ200から実写画像を受信し、受信した実写画像のサムネイル画像を図6(c)の参照符号107dに示すようにして表示させる。そして、ユーザによる実写画像の選択を待つ(ステップS58)。この際、制御部101は、ユーザによりアバターの候補となる実写画像が選択されたかを判定し(ステップS59)、選択がなされるまでステップS58〜S59の処理を繰り返す。   In the determination of step S56, when the user performs an OK operation, the control unit 101 communicates with the server 200 and the photographer image DB 205 of the server 200 displays a live-action image indicating the user who is the photographer. It is determined whether an image registered by itself is recorded (step S57). If it is determined in step S57 that no real image is recorded, the control unit 101 ends the process of FIG. On the other hand, when the photographed image is recorded in the determination of step S57, the control unit 101 receives the photographed image from the server 200, and the received thumbnail image of the photographed image is represented by reference numeral 107d in FIG. Display as shown. Then, it waits for the user to select a live-action image (step S58). At this time, the control unit 101 determines whether or not a live-action image that is a candidate for an avatar has been selected by the user (step S59), and repeats the processing of steps S58 to S59 until selection is made.

ステップS59の判定において、アバターの候補となる実写画像が選択された場合に、制御部101は、選択された実写画像における顔部の画像をステップS55で作成されたアバター候補の顔部に合成する(ステップS60)。その後、制御部101は、図5の処理を終了させる。   In the determination in step S59, when a live-action image that is a candidate for an avatar is selected, the control unit 101 combines the face image in the selected live-action image with the face portion of the avatar candidate created in step S55. (Step S60). Thereafter, the control unit 101 ends the process of FIG.

以上のようにして合成されたアバターの画像は、図3のステップS16の思い出再生要求の際に、サーバ200に送信される。このアバターの画像は、思い出画像ファイルの作成時に必要に応じて仮想風景画像に合成される。これにより、ユーザ(撮影者)が自身の画像を撮影していなくとも、自身を示す画像を作成することができる。このような画像を仮想風景画像に合成することにより、ユーザは、自身が写っている画像を撮影していなくとも、撮影当時に被写体が見ていた風景を含む、その当時に撮影しなかった風景の画像を鑑賞することができる。これにより、ユーザは、撮影当時の状況を想起できる。   The avatar image synthesized as described above is transmitted to the server 200 at the time of the memory reproduction request in step S16 of FIG. The avatar image is combined with a virtual landscape image as necessary when the memory image file is created. Thereby, even if the user (photographer) does not shoot his / her own image, an image showing the user can be created. By synthesizing such an image with a virtual landscape image, even if the user did not shoot an image of himself / herself, the landscape that the subject was viewing at the time of shooting, including those that were not taken at that time, was captured. You can appreciate the images. Thereby, the user can recall the situation at the time of shooting.

図7は、カメラ100による思い出再生時の処理について示すフローチャートである。ここで、本実施形態においては、思い出再生時にも、仮想風景画像と撮影者画像とを合成することができるようになされている。   FIG. 7 is a flowchart showing the process during memory playback by the camera 100. Here, in the present embodiment, the virtual landscape image and the photographer image can be combined even during the memory reproduction.

思い出画像ファイルが受信され、ユーザによって思い出再生の指示がなされた後、制御部101は、思い出画像ファイル内に撮影者画像が含まれているか(サーバ200において撮影者画像の合成がなされていないか)を判定する(ステップS71)。ステップS71の判定において、思い出画像ファイル内に撮影者画像が含まれている場合に、制御部101は、ユーザ操作によって撮影者画像を仮想風景画像に合成するように指示されたかを判定する(ステップS72)。ステップS72の判定において、撮影者画像を合成するように指示された場合に、制御部101は、図8(a)に示すような撮影者画像を、図8(b)に示すような撮影方向の反対方向に対応した仮想風景画像に合成する(ステップS73)。   After the memory image file is received and the user gives an instruction to play back the memory, the control unit 101 determines whether the photographer image is included in the memory image file (whether the photographer image is not synthesized in the server 200). ) Is determined (step S71). If it is determined in step S71 that the photographer image is included in the memory image file, the control unit 101 determines whether a user operation instructs to synthesize the photographer image with the virtual landscape image (step S71). S72). When it is instructed to synthesize the photographer image in the determination in step S72, the control unit 101 displays the photographer image as shown in FIG. 8A in the shooting direction as shown in FIG. Are combined with a virtual landscape image corresponding to the opposite direction (step S73).

ステップS71、S72、又はS73の後、制御部101は、仮想風景画像を表示部107に表示させることで思い出再生を実行する(ステップS74)。思い出再生の際、制御部101は、ユーザによってOK操作がなされたかを判定する(ステップS75)。ステップS75の判定において、OK操作がなされた場合に、制御部101は、図7の処理を終了させる。その後、図8(d)に示すようにして作成された仮想風景画像501aを含む思い出画像ファイルが、ユーザ操作に従って記録部106に記録される。   After step S71, S72, or S73, the control unit 101 displays a virtual landscape image on the display unit 107 to execute memory reproduction (step S74). During memory playback, the control unit 101 determines whether an OK operation has been performed by the user (step S75). In the determination of step S75, when an OK operation is performed, the control unit 101 ends the process of FIG. Thereafter, the memory image file including the virtual landscape image 501a created as shown in FIG. 8D is recorded in the recording unit 106 in accordance with the user operation.

一方、ステップS75の判定において、OK操作がなされていない場合に、制御部101は、ユーザによって十字キー102aの左右キーの操作がなされたかを判定する(ステップS76)。ステップS76の判定において、十字キー102aの操作がなされた場合に、制御部101は、十字キー102aの操作方向に従って画像ファイル中の別の仮想風景画像を選択し、選択した仮想風景画像に、再度、撮影者画像を合成することにより、撮影者画像の合成位置の変更を行う(ステップS77)。ユーザは、十字キー102aの左右キーの操作によって図8(c)の矢印E方向(撮影位置を中心とした360度回転方向)に沿って仮想風景画像を選択することができる。例えば、図8(c)の状態で右キーが押された場合には、仮想風景画像501の右隣の仮想風景画像が選択され、選択された仮想風景画像の中心位置に撮影者画像502が合成される。また、図8(c)の状態で左キーが押された場合には、仮想風景画像501の左隣の仮想風景画像が選択され、選択された仮想風景画像の中心位置に撮影者画像502が合成される。   On the other hand, if it is determined in step S75 that an OK operation has not been performed, the control unit 101 determines whether the left and right keys of the cross key 102a have been operated by the user (step S76). In the determination in step S76, when the operation of the cross key 102a is performed, the control unit 101 selects another virtual landscape image in the image file according to the operation direction of the cross key 102a, and the selected virtual landscape image is again displayed. Then, the composition position of the photographer image is changed by compositing the photographer image (step S77). The user can select a virtual landscape image along the direction of arrow E in FIG. 8C (360 ° rotation direction around the shooting position) by operating the left and right keys of the cross key 102a. For example, when the right key is pressed in the state of FIG. 8C, the virtual landscape image adjacent to the right of the virtual landscape image 501 is selected, and the photographer image 502 is displayed at the center position of the selected virtual landscape image. Synthesized. When the left key is pressed in the state of FIG. 8C, the virtual landscape image adjacent to the left of the virtual landscape image 501 is selected, and the photographer image 502 is displayed at the center position of the selected virtual landscape image. Synthesized.

ステップS76又はS77の後、制御部101は、ユーザによってズーム操作がなされたかを判定する(ステップS78)。ステップS78の判定において、ズーム操作がなされた場合に、制御部101は、ズームボタンの操作方向に従って撮影者画像を拡大又は縮小し、拡大又は縮小後の撮影者画像を仮想風景画像に、再度合成することにより、撮影者画像の表示範囲の変更を行う(ステップS79)。ユーザは、ズームボタンの操作によって図8(c)の矢印F方向に撮影画像の拡大又は縮小を行うことができる。例えば、ズームボタンのワイド側が押された場合には、撮影者画像を拡大する。また、ズームボタンのテレ側が押された場合には、撮影者画像を縮小する。   After step S76 or S77, the control unit 101 determines whether a zoom operation has been performed by the user (step S78). When the zoom operation is performed in the determination in step S78, the control unit 101 enlarges or reduces the photographer image according to the operation direction of the zoom button, and again synthesizes the enlarged or reduced photographer image with the virtual landscape image. Thus, the display range of the photographer image is changed (step S79). The user can enlarge or reduce the captured image in the direction of arrow F in FIG. 8C by operating the zoom button. For example, when the wide side of the zoom button is pressed, the photographer image is enlarged. Further, when the tele side of the zoom button is pressed, the photographer image is reduced.

以上説明したように、本実施形態によれば、撮影時にユーザによって撮影されていなかった風景等の画像を3D地図画像から作成することにより、撮影時に被写体が見ていたはずの風景等を撮影後に鑑賞して思い出を想起することが可能となる。   As described above, according to the present embodiment, an image of a landscape that has not been photographed by the user at the time of photographing is created from the 3D map image, so that the scenery that the subject should have seen at the time of photographing is photographed. Appreciate and recall memories.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上述の実施形態では、カメラ100とサーバ200とで構成されるシステムについて説明しているが、カメラ100の代わりにPCや携帯電話機等を用いても良い。即ち、少なくとも画像の表示機能を備える機器であれば、カメラ100の代わりに用いることが可能である。   For example, in the above-described embodiment, a system including the camera 100 and the server 200 has been described, but a PC, a mobile phone, or the like may be used instead of the camera 100. That is, any device having at least an image display function can be used instead of the camera 100.

また、仮想風景画像は、3D地図画像の他に、衛星写真や航空写真等を利用して作成するようにしても良い。   In addition to the 3D map image, the virtual landscape image may be created using a satellite photograph or an aerial photograph.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係る仮想風景表示装置を含む、仮想風景表示システムの構成を示す図である。It is a figure which shows the structure of the virtual scenery display system containing the virtual scenery display apparatus which concerns on one Embodiment of this invention. 仮想風景表示システムの動作の概略について示す図である。It is a figure shown about the outline | summary of operation | movement of a virtual scenery display system. 図1に示す仮想風景表示システムにおけるカメラの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera in the virtual landscape display system shown in FIG. 図1に示す仮想風景表示システムにおけるサーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the server in the virtual scenery display system shown in FIG. 撮影者画像の設定処理について示すフローチャートである。It is a flowchart shown about the setting process of a photographer image. 撮影者画像の設定処理の際の表示部の表示例を示すフローチャートである。It is a flowchart which shows the example of a display of the display part in the case of a photographer image setting process. 思い出再生時の処理について示すフローチャートである。It is a flowchart shown about the process at the time of memory reproduction. 思い出再生時の画像合成処理について説明するための図である。It is a figure for demonstrating the image composition process at the time of memory reproduction.

符号の説明Explanation of symbols

100…カメラ、101…制御部、102…操作入力部、103…撮像部、104…位置検出部、105…時計部、106…記録部、107…表示部、108…通信部、200…サーバ、201…制御部、202…操作入力部、203…画像記録部、203a…位置年代記録部、204…年代別地図データベース(DB)、205…撮影者画像DB、206…仮想風景作成部、207…通信部、300…通信回線   DESCRIPTION OF SYMBOLS 100 ... Camera 101 ... Control part 102 ... Operation input part 103 ... Imaging part 104 ... Position detection part 105 ... Clock part 106 ... Recording part 107 ... Display part 108 ... Communication part 200 ... Server, DESCRIPTION OF SYMBOLS 201 ... Control part, 202 ... Operation input part, 203 ... Image recording part, 203a ... Position age recording part, 204 ... Map database (DB) according to age, 205 ... Photographer image DB, 206 ... Virtual landscape creation part, 207 ... Communication unit, 300 ... communication line

Claims (3)

撮影位置情報が付加された画像を入力するための入力部と、
地図データと入力された前記画像に付加されている撮影位置情報とに基づき、入力された前記画像中の被写体が見ている方向と相対する方向に存在する風景の画像を仮想的に作成して表示する仮想風景作成部と、
を具備することを特徴とする仮想風景表示装置。
An input unit for inputting an image with shooting position information added thereto;
Based on map data and shooting position information added to the input image, a virtual image of a landscape existing in a direction opposite to the direction in which the subject in the input image is viewed is created. A virtual landscape creation section to be displayed;
A virtual landscape display device comprising:
前記仮想風景作成部は、
前記地図データ上での方向を検出する方向検出部と、
前記検出された方向に従って前記画像中の被写体が見ている方向と相対する方向に対応した風景の画像を作成し、該作成した風景の画像を、入力された前記画像の撮影者を示す画像に合成する画像合成部と、
を含むことを特徴とする請求項1に記載の仮想風景表示装置。
The virtual landscape creation unit
A direction detection unit for detecting a direction on the map data;
According to the detected direction, a landscape image corresponding to a direction opposite to the direction in which the subject in the image is viewed is created, and the created landscape image is converted into an image indicating the photographer of the input image. An image composition unit to be composed;
The virtual landscape display device according to claim 1, comprising:
前記方向検出部は、
前記撮影位置情報と入力された前記画像に写っている風景の画像とに基づき、入力された前記画像の撮影方向を検出する同方向検出部と、
前記同方向検出部によって検出された撮影方向と相対する方向を、前記画像中の被写体が見ている方向と相対する方向として検出する反対方向検出部と、
を含むことを特徴とする請求項2に記載の仮想風景表示装置。
The direction detector
Based on the shooting position information and a landscape image in the input image, a same direction detection unit that detects a shooting direction of the input image;
An opposite direction detection unit that detects a direction opposite to the photographing direction detected by the same direction detection unit as a direction opposite to a direction in which the subject in the image is viewed;
The virtual landscape display device according to claim 2, comprising:
JP2008035219A 2008-02-05 2008-02-15 Virtual landscape display device Expired - Fee Related JP5058842B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008035219A JP5058842B2 (en) 2008-02-15 2008-02-15 Virtual landscape display device
US12/364,574 US8717411B2 (en) 2008-02-05 2009-02-03 Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program
CN 200910006169 CN101505376B (en) 2008-02-05 2009-02-05 Virtual image generating apparatus and virtual image generating method
US14/175,854 US9412204B2 (en) 2008-02-05 2014-02-07 Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program
US15/228,927 US9807354B2 (en) 2008-02-05 2016-08-04 Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program
US15/723,935 US10027931B2 (en) 2008-02-05 2017-10-03 Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008035219A JP5058842B2 (en) 2008-02-15 2008-02-15 Virtual landscape display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012169044A Division JP5409852B2 (en) 2012-07-31 2012-07-31 Virtual landscape display device and virtual landscape display method

Publications (3)

Publication Number Publication Date
JP2009193468A true JP2009193468A (en) 2009-08-27
JP2009193468A5 JP2009193468A5 (en) 2011-03-17
JP5058842B2 JP5058842B2 (en) 2012-10-24

Family

ID=41075402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008035219A Expired - Fee Related JP5058842B2 (en) 2008-02-05 2008-02-15 Virtual landscape display device

Country Status (1)

Country Link
JP (1) JP5058842B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135246A1 (en) * 2017-01-23 2018-07-26 株式会社Nttドコモ Information processing system and information processing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057320A (en) * 1998-08-07 2000-02-25 Nippon Lsi Card Co Ltd Management system for image data linked to position data, image management method using the system and image display method
JP2002251396A (en) * 2001-02-21 2002-09-06 Mapnet Co Ltd Geographical space guide device
JP2005064681A (en) * 2003-08-08 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Image pick-up/display device, image pick-up/display system, video image forming method, program of the method and recording medium having the program recorded thereon
JP2005094741A (en) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd Image pickup device and image synthesizing method
JP2005122100A (en) * 2003-06-02 2005-05-12 Fuji Photo Film Co Ltd Image displaying system, image displaying apparatus, and program
JP2005128298A (en) * 2003-10-24 2005-05-19 Micronet Co Ltd Undulation expression system and method during live telecast
JP2006309722A (en) * 2005-03-31 2006-11-09 National Institute Of Information & Communication Technology Photograph search/browsing system and program, using three-dimensional model, and three-dimensional model display/operation system and program, using photograph
JP2007286909A (en) * 2006-04-17 2007-11-01 National Institute Of Information & Communication Technology Photograph archive generation device and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057320A (en) * 1998-08-07 2000-02-25 Nippon Lsi Card Co Ltd Management system for image data linked to position data, image management method using the system and image display method
JP2002251396A (en) * 2001-02-21 2002-09-06 Mapnet Co Ltd Geographical space guide device
JP2005122100A (en) * 2003-06-02 2005-05-12 Fuji Photo Film Co Ltd Image displaying system, image displaying apparatus, and program
JP2005064681A (en) * 2003-08-08 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Image pick-up/display device, image pick-up/display system, video image forming method, program of the method and recording medium having the program recorded thereon
JP2005094741A (en) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd Image pickup device and image synthesizing method
JP2005128298A (en) * 2003-10-24 2005-05-19 Micronet Co Ltd Undulation expression system and method during live telecast
JP2006309722A (en) * 2005-03-31 2006-11-09 National Institute Of Information & Communication Technology Photograph search/browsing system and program, using three-dimensional model, and three-dimensional model display/operation system and program, using photograph
JP2007286909A (en) * 2006-04-17 2007-11-01 National Institute Of Information & Communication Technology Photograph archive generation device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018135246A1 (en) * 2017-01-23 2018-07-26 株式会社Nttドコモ Information processing system and information processing device
JPWO2018135246A1 (en) * 2017-01-23 2019-11-07 株式会社Nttドコモ Information processing system and information processing apparatus

Also Published As

Publication number Publication date
JP5058842B2 (en) 2012-10-24

Similar Documents

Publication Publication Date Title
US10027931B2 (en) Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program
JP4965475B2 (en) Virtual moving display device
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
JPH10243273A (en) Image display method for digital camera
JP2005229291A (en) Image recording apparatus and imaging apparatus, and image file storage method
JP2003125361A (en) Information processing device, information processing method, information processing program, and information processing system
JP2009230635A (en) Image data generating device, image data generating method and image data generating program
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP5401103B2 (en) Video information management apparatus and method
JP5058842B2 (en) Virtual landscape display device
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP4889554B2 (en) Camera, content creation method, and program
CN114554112A (en) Video recording method, device, terminal and storage medium
JP2014212439A (en) Display control device, control method, and program
JP5088051B2 (en) Electronic camera and program
JP7362696B2 (en) Imaging device
JP6249771B2 (en) Image processing apparatus, image processing method, and program
JP5874887B2 (en) Image processing apparatus, image processing system, and image processing method
JP4169940B2 (en) Digital camera
JP4168803B2 (en) Image output device
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP2017108203A (en) Imaging apparatus, imaging support method and program
JP5298214B2 (en) Virtual moving display device
JP5690376B2 (en) Image file creation device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5058842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees