JP5409852B2 - Virtual landscape display device and virtual landscape display method - Google Patents

Virtual landscape display device and virtual landscape display method Download PDF

Info

Publication number
JP5409852B2
JP5409852B2 JP2012169044A JP2012169044A JP5409852B2 JP 5409852 B2 JP5409852 B2 JP 5409852B2 JP 2012169044 A JP2012169044 A JP 2012169044A JP 2012169044 A JP2012169044 A JP 2012169044A JP 5409852 B2 JP5409852 B2 JP 5409852B2
Authority
JP
Japan
Prior art keywords
image
unit
virtual landscape
shooting
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012169044A
Other languages
Japanese (ja)
Other versions
JP2012230714A (en
Inventor
孝子 花井
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2012169044A priority Critical patent/JP5409852B2/en
Publication of JP2012230714A publication Critical patent/JP2012230714A/en
Application granted granted Critical
Publication of JP5409852B2 publication Critical patent/JP5409852B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、撮影された撮影位置情報付きの画像から、撮影時に被写体が見ていた風景の画像を補足して表示する仮想風景表示装置及び仮想風景表示方法に関する。 The present invention relates to a virtual landscape display device and a virtual landscape display method for supplementing and displaying a landscape image viewed by a subject from a captured image with shooting position information.

近年、グーグル(登録商標)マップのように、3次元(3D)画像によって地図表示を
行うサービスが各種提案されている。また、現実画像にCG画像を重畳して表示できるシ
ステムも各種提案されている。例えば、特許文献1においては、現実画像とCG画像を合
成することにより、ゴルフ中継等において、中継している映像中に写っている風景におけ
る起伏を視覚的に表示できるようにしている。
特開2000−128298号公報
In recent years, various services for displaying a map using a three-dimensional (3D) image such as a Google (registered trademark) map have been proposed. Various systems that can display a CG image superimposed on a real image have also been proposed. For example, in Patent Document 1, by combining a real image and a CG image, undulations in a landscape that is reflected in a relayed video can be visually displayed in a golf relay or the like.
JP 2000-128298 A

個人向けのカメラ撮影において、ユーザが自身で撮影した写真をアルバム等で見て、そ
の撮影当時を追体験することが行われることがある。ここで、一般的には、ユーザが自身
で撮影した写真に関しては記憶が残りやすく、撮影していない写真に関する記憶は残りに
くいと考えられる。したがって、当時に撮影していなかった風景等に関する追体験を行う
ことは困難であると考えられる。
In personal camera photography, there are cases where a user takes a picture taken by himself / herself in an album or the like and relives the time of photography. Here, in general, it is considered that the memory about the photograph taken by the user himself is likely to remain, and the memory regarding the photograph which has not been photographed is difficult to remain. Therefore, it is considered difficult to have a re-experience about scenery that was not taken at that time.

本発明は、上記の事情に鑑みてなされたもので、撮影当時に撮影されなかった風景をも想起することができる仮想風景表示装置及び仮想風景表示方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a virtual landscape display device and a virtual landscape display method capable of recalling a landscape that was not captured at the time of shooting.

上記の目的を達成するために、本発明の第1の態様の仮想風景表示装置は、撮影位置情報と撮影日時情報を関連づけた撮影画像を記録する記録部と、通信部と、上記記録部に記録した撮影画像と、上記撮影時に記録部に記録されていなかった画像とを上記通信部を介して表示する表示部とを具備する仮想風景表示装置において、上記記録されていない画像を表示する時に、上記通信部から上記記録された撮影画像を外部機器に上記通信部を介して送信し、該外部機器が上記送信された撮影画像の撮影位置情報と撮影時刻情報を利用して検索した地図画像に基づいて作成した、撮影時に被写体が見ていたはずの仮想風景画像を表示する制御部とを具備することを特徴とする。
上記の目的を達成するために、本発明の第2の態様の仮想風景表示装置は、撮影位置情報と撮影日時情報を関連づけた撮影画像を記録する記録部と、通信部と、上記記録部に記録した撮影画像と、上記撮影時に記録部に記録されていなかった画像とを上記通信部を介して表示する表示部とを具備する仮想風景表示装置による仮想風景表示方法において、上記記録されていない画像を表示する時に、上記通信部から上記記録された撮影画像を外部機器に上記通信部を介して送信し、上記外部機器が上記送信された撮影画像の撮影位置情報と撮影時刻情報を利用して検索した地図画像に基づいて作成した、撮影時に被写体が見ていたはずの仮想風景画像を表示することを特徴とする。
In order to achieve the above object, a virtual landscape display device according to a first aspect of the present invention includes a recording unit that records a captured image in which shooting position information and shooting date / time information are associated, a communication unit, and the recording unit. When displaying a non-recorded image in a virtual landscape display device comprising a display unit for displaying a recorded photographed image and an image not recorded in the recording unit at the time of photographing via the communication unit , map the recorded captured image from the communication unit transmits via the communication unit to the external device, the external device is searched by using the photographing position information and the shooting time information of the captured image transmitted over SL And a control unit that displays a virtual landscape image that the subject should have seen at the time of photographing, created based on the image .
In order to achieve the above object, a virtual landscape display device according to a second aspect of the present invention includes a recording unit that records a captured image in which shooting position information and shooting date / time information are associated, a communication unit, and the recording unit. In a virtual landscape display method using a virtual landscape display device comprising a display unit that displays a recorded photographed image and an image that has not been recorded in the recording unit at the time of photographing via the communication unit, the virtual landscape display method is not recorded. When displaying an image, the communication unit transmits the recorded photographed image to an external device via the communication unit, and the external device uses the photographing position information and the photographing time information of the transmitted photographed image. The virtual landscape image that the subject should have seen at the time of shooting is displayed based on the map image retrieved in this manner.

本発明によれば、撮影当時に撮影されなかった風景をも想起することができる仮想風景表示装置及び仮想風景表示方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the virtual landscape display apparatus and virtual landscape display method which can recall the scenery which was not image | photographed at the time of imaging | photography can be provided.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る仮想風景表示装置を含む、仮想風景表示システムの
構成を示す図である。図1に示す仮想風景表示システムは、カメラ100と、サーバ20
0とが通信回線300を介して通信自在に接続されて構成されている。ここで、通信回線
300はインターネット回線等の汎用の通信回線である。
FIG. 1 is a diagram showing a configuration of a virtual landscape display system including a virtual landscape display device according to an embodiment of the present invention. A virtual landscape display system shown in FIG. 1 includes a camera 100 and a server 20.
0 is communicably connected via a communication line 300. Here, the communication line 300 is a general-purpose communication line such as an Internet line.

カメラ100は、制御部101と、操作入力部102と、撮像部103と、位置検出部
104と、時計部105と、記録部106と、表示部107と、通信部108とを有して
いる。
The camera 100 includes a control unit 101, an operation input unit 102, an imaging unit 103, a position detection unit 104, a clock unit 105, a recording unit 106, a display unit 107, and a communication unit 108. .

制御部101は、カメラ100の全体の動作を制御する。この制御部101は、ユーザ
による操作入力部102の操作状態に従って各種の処理を制御する。操作入力部102は
、カメラ100の電源をオンオフするための電源スイッチ、カメラ100の撮影実行の指
示を与えるためのレリーズボタン、ズーム操作を実行するためのズームボタン、画像の通
常再生指示を与えるための再生ボタン、画像の思い出再生(詳細は後述)指示を与えるた
めの思い出再生ボタン、カメラ100における各種選択操作を行うための十字キー、カメ
ラ100における各種決定操作を行うためのOKボタン等、ユーザがカメラ100の操作
を行うための各種の操作部材を含んで構成されている。
The control unit 101 controls the overall operation of the camera 100. The control unit 101 controls various processes according to the operation state of the operation input unit 102 by the user. The operation input unit 102 is a power switch for turning on / off the power of the camera 100, a release button for giving an instruction to execute shooting of the camera 100, a zoom button for executing a zoom operation, and an instruction for normal playback of an image. A user's playback button, a memory playback button for giving a memory playback instruction (details will be described later), a cross key for performing various selection operations on the camera 100, an OK button for performing various determination operations on the camera 100, etc. Are configured to include various operation members for operating the camera 100.

撮像部103は、制御部101の制御の下で被写体を撮影して画像を取得する。位置検
出部104は、例えばGPS等で構成され、撮影時のカメラ100の位置(緯度・経度)
を検出する。時計部105は、撮影日時を検出する。
The imaging unit 103 captures an image by capturing a subject under the control of the control unit 101. The position detection unit 104 is configured by, for example, GPS, and the position (latitude / longitude) of the camera 100 at the time of shooting.
Is detected. The clock unit 105 detects the shooting date and time.

ここで、位置検出部104や時計部105は必ずしもカメラ100に内蔵する必要はな
い。例えば、GPS内蔵の腕時計や専用のナビゲーション装置をユーザに携帯させること
で、これらによって検出される位置情報や時間情報をカメラ100において取得するよう
にしても良い。
Here, the position detection unit 104 and the clock unit 105 are not necessarily built in the camera 100. For example, the camera 100 may acquire position information and time information detected by a GPS wristwatch or a dedicated navigation device carried by the user.

記録部106は、例えばカメラ100に対して着脱自在に構成されたメモリカードであ
り、撮像部103を介して取得された画像を、位置検出部104で検出された撮影位置及
び時計部105で検出された撮影日時と関連付けて記録する。表示部107は、制御部1
01の下で記録部106に記録された画像等の各種画像を表示する。
The recording unit 106 is, for example, a memory card configured to be detachable from the camera 100, and an image acquired via the imaging unit 103 is detected by the shooting position detected by the position detection unit 104 and the clock unit 105. Recorded in association with the shooting date and time. The display unit 107 is the control unit 1
Various images such as images recorded in the recording unit 106 are displayed under 01.

通信部108は、制御部101の制御の下、サーバ200との通信に係る各種処理を行
う。
The communication unit 108 performs various processes related to communication with the server 200 under the control of the control unit 101.

サーバ200は、制御部201と、操作入力部202と、画像記録部203と、年代別
地図データベース(DB)204と、撮影者画像DB205と、仮想風景作成部206と
、通信部207とを有している。サーバ200は、様々な地方の地図画像を記録できるよ
うに巨大なデータベースを有し、インターネット上の様々なサイトの情報も利用できるよ
うにインターネットに接続されていることが望ましいが、カメラ100にサーバ200の
機能を持たせるようにしても良い。
The server 200 includes a control unit 201, an operation input unit 202, an image recording unit 203, an age-specific map database (DB) 204, a photographer image DB 205, a virtual landscape creation unit 206, and a communication unit 207. doing. The server 200 has a huge database so that various local map images can be recorded, and is preferably connected to the Internet so that information on various sites on the Internet can be used. 200 functions may be provided.

制御部201は、サーバ200における各種処理を制御する。この制御部201は、操
作入力部202が操作された場合には、その操作内容に従った処理も行う。操作入力部2
02は、サーバ200の操作を行うための各種の操作部材を含んで構成されている。ここ
で、図1においては、操作入力部202をサーバ200に設けているが、操作入力部20
2は、サーバ200にネットワーク接続されたPC等であっても良い。
The control unit 201 controls various processes in the server 200. When the operation input unit 202 is operated, the control unit 201 also performs processing according to the operation content. Operation input unit 2
02 includes various operation members for operating the server 200. Here, in FIG. 1, the operation input unit 202 is provided in the server 200, but the operation input unit 20
2 may be a PC connected to the server 200 via a network.

画像記録部203は、カメラ100から通信回線300を介して送信された画像を記録
する。画像記録部203は、カメラ100の記録部106に比して大容量の記録容量を有
するハードディスク等から構成されている。ここで、本実施形態における画像記録部20
3は、位置年代記録部203aとしての記録領域を有している。位置年代記録部203a
は、画像記録部203に記録されている各画像の撮影位置と撮影日時(撮影年代)とを関
連付けて記録しておくための記録領域である。
The image recording unit 203 records an image transmitted from the camera 100 via the communication line 300. The image recording unit 203 includes a hard disk having a larger recording capacity than the recording unit 106 of the camera 100. Here, the image recording unit 20 in the present embodiment.
3 has a recording area as the position age recording section 203a. Position dating unit 203a
Is a recording area for associating and recording the shooting position of each image recorded in the image recording unit 203 and the shooting date and time (shooting age).

年代別地図DB204は、撮影年代毎の2D及び3D地図画像を記録したデータベース
である。ここで、年代別地図DB204は、画像記録部203とは別の記録媒体内に構築
しても良いし、画像記録部203内に構築しても良い。
The age-specific map DB 204 is a database that records 2D and 3D map images for each shooting age. Here, the age-specific map DB 204 may be constructed in a recording medium different from the image recording unit 203 or may be constructed in the image recording unit 203.

撮影者画像DB205は、ユーザ(撮影者)の画像を記録したデータベースである。こ
の撮影者画像DB205に記録される撮影者の画像は、撮影者が自身で登録した実写画像、若しくはサーバ200に予め登録されている撮影者の分身としてのキャラクタ画像であるアバターである。ユーザは、後述する思い出再生の際に作成される仮想風景画像に合成する自身の画像を実写画像とするかアバターとするかを操作入力部202又はカメラ100の操作入力部102によって選択することが可能である。
The photographer image DB 205 is a database in which images of users (photographers) are recorded. The photographer's image recorded in the photographer image DB 205 is an avatar that is a photographed image registered by the photographer himself or a character image as a part of the photographer registered in advance in the server 200. The user can use the operation input unit 202 or the operation input unit 102 of the camera 100 to select whether the image to be synthesized with a virtual landscape image created at the time of replaying memories, which will be described later, to be a real image or an avatar. Is possible.

仮想風景作成部206は、思い出再生の際に入力される画像に写っている被写体が見て
いる風景の画像(仮想風景画像)を作成し、さらに、必要に応じて仮想風景画像に入力された画像のユーザ(撮影者)の画像を合成する。仮想風景作成部206は、方向検出部2
061と、画像合成部2062とを有している。方向検出部2061は、同方向検出部2
061aと反対方向検出部2061bとを有している。同方向検出部2061aは、入力
された画像の撮影位置情報と、入力された画像に写っている風景とから、撮影方向を検出
する。反対方向検出部2061bは、同方向検出部2061aによって検出された撮影方
向と相対する方向(180度の回転方向)を検出する。画像合成部2062は、反対方向
検出部2061bによって検出された方向に存在する風景の画像を仮想風景画像として年
代別地図DB204から取得し、必要に応じて、取得した風景の画像に、入力された画像
の撮影者の画像を合成する。即ち、画像合成部2062によって取得される仮想風景画像
は、入力された画像の撮影当時に被写体が見ていた方向、即ち撮影者が存在していた方向
に写っていたと考えられる風景の画像に相当する。
The virtual landscape creation unit 206 creates a landscape image (virtual landscape image) viewed by the subject in the image that is input at the time of memory playback, and is further input to the virtual landscape image as necessary. The image of the user (photographer) of the image is synthesized. The virtual landscape creation unit 206 includes a direction detection unit 2
061 and an image composition unit 2062. The direction detection unit 2061 is the same direction detection unit 2
061a and an opposite direction detection unit 2061b. The same direction detection unit 2061a detects the shooting direction from the shooting position information of the input image and the landscape shown in the input image. The opposite direction detection unit 2061b detects a direction (180-degree rotation direction) opposite to the photographing direction detected by the same direction detection unit 2061a. The image composition unit 2062 acquires a landscape image existing in the direction detected by the opposite direction detection unit 2061b as a virtual landscape image from the chronological map DB 204, and is input to the acquired landscape image as necessary. Synthesize the image of the photographer. That is, the virtual landscape image acquired by the image composition unit 2062 corresponds to an image of a landscape that is considered to be reflected in the direction in which the subject was looking at the time of shooting the input image, that is, the direction in which the photographer was present. To do.

通信部207は、制御部201の制御の下、カメラ100との通信に係る各種処理を行
う。
The communication unit 207 performs various processes related to communication with the camera 100 under the control of the control unit 201.

以下、図1に示す仮想風景表示システムの動作の概略について説明する。図2は、仮想
風景表示システムの動作の概略について示す図である。
The outline of the operation of the virtual landscape display system shown in FIG. 1 will be described below. FIG. 2 is a diagram showing an outline of the operation of the virtual landscape display system.

本実施形態においては、撮影がなされると、撮影位置と撮影日時とが関連付けられた状
態で画像が記録部106に記録される。
In this embodiment, when shooting is performed, an image is recorded in the recording unit 106 in a state where the shooting position and the shooting date and time are associated with each other.

そして、ユーザの操作入力部102の操作により、カメラ100の動作モードが思い出
画像再生モードに設定され、その後に、カメラ100の記録部106に記録されている画
像が選択されると、選択された画像がサーバ200に送信される。図2の例では、12時
20分に緯度A、経度Bの位置で撮影された画像401が選択された例を示している。
Then, the operation mode of the camera 100 is set to the memory image reproduction mode by the operation of the operation input unit 102 by the user, and when the image recorded in the recording unit 106 of the camera 100 is selected after that, the selected mode is selected. An image is transmitted to the server 200. In the example of FIG. 2, an example is shown in which an image 401 captured at a position of latitude A and longitude B at 12:20 is selected.

画像401がサーバ200において受信されると、年代別地図DB204から画像40
1の撮影位置を含む2D地図画像402及び3D地図画像が取得される。その後、仮想風
景作成部206の同方向検出部2061aにおいて、画像401に写っている風景から画
像401の撮影方向が特定される。画像401の撮影方向の特定後、反対方向検出部20
61bによって撮影方向と相対する方向(撮影方向の180度回転方向)が特定される。
この方向が、画像401の撮影当時に被写体が見ていたと考えられる方向となる。
When the image 401 is received by the server 200, the image 40 is retrieved from the chronological map DB 204.
A 2D map image 402 and a 3D map image including one shooting position are acquired. Thereafter, in the same direction detection unit 2061a of the virtual landscape creation unit 206, the shooting direction of the image 401 is specified from the landscape shown in the image 401. After specifying the shooting direction of the image 401, the opposite direction detection unit 20
The direction opposite to the shooting direction (180-degree rotation direction of the shooting direction) is specified by 61b.
This direction is the direction in which the subject is thought to have been looking at the time of shooting the image 401.

反対方向検出部2061bによって撮影方向と相対する方向が特定されると、画像合成
部2062によって、被写体が見ていたと考えられる画像が仮想風景画像として、年代別
地図DB204の3D地図画像をもとに作成される。さらに、作成された仮想風景画像4
03に必要に応じて撮影者の画像404が合成される。
When the direction opposite to the shooting direction is specified by the opposite direction detection unit 2061b, the image composition unit 2062 uses the 3D map image in the chronological map DB 204 as a virtual landscape image as an image considered to be viewed by the subject. Created. Furthermore, the created virtual landscape image 4
03, a photographer's image 404 is synthesized as necessary.

以上のようにして仮想風景画像を作成することにより、実際には画像401しか撮影し
てなくとも、その撮影位置で見ることのできた他の画像をも鑑賞することが可能である。
By creating a virtual landscape image as described above, it is possible to view other images that can be viewed at the shooting position even if only the image 401 is actually shot.

以下、図1の仮想風景表示システムの具体的な動作について説明する。   Hereinafter, a specific operation of the virtual landscape display system of FIG. 1 will be described.

図3は、図1に示す仮想風景表示システムにおけるカメラ100の動作を示すフローチ
ャートである。ユーザによる操作入力部102の電源スイッチの操作によってカメラ10
0の電源がオンされることで図3の処理が開始される。
FIG. 3 is a flowchart showing the operation of the camera 100 in the virtual landscape display system shown in FIG. When the user operates the power switch of the operation input unit 102, the camera 10
The processing of FIG. 3 is started by turning on the power of 0.

電源のオン後、制御部101は、撮像部103を動作させ、撮像部103を介して得ら
れる画像を表示部107にリアルタイム表示させるスルー画表示を行う(ステップS1)
。スルー画表示の後、制御部101は、ユーザによる操作入力部102のレリーズボタン
の操作によって画像撮影指示がなされたかを判定する(ステップS2)。
After the power is turned on, the control unit 101 operates the imaging unit 103 to perform a through image display in which an image obtained via the imaging unit 103 is displayed on the display unit 107 in real time (step S1).
. After the through image display, the control unit 101 determines whether an image shooting instruction is given by the user operating the release button of the operation input unit 102 (step S2).

ステップS2の判定において、画像撮影指示がなされた場合に、制御部101は、被写
体の撮影を実行する(ステップS3)。即ち、制御部101は、撮像部103を動作させ
て被写体の画像を取得し、この取得した被写体の画像に対し、種々の画像処理を施す。そ
の後、制御部101は、撮影実行時に時計部105において検出された撮影日時情報を取
得するとともに(ステップS4)、撮影実行時に位置検出部104において検出された撮
影位置情報を取得する(ステップS5)。次に、制御部101は、撮影によって得られた
画像と撮影日時情報及び撮影位置情報とを関連付けて記録部106に記録する(ステップ
S6)。
If it is determined in step S2 that an image shooting instruction has been issued, the control unit 101 performs shooting of the subject (step S3). That is, the control unit 101 operates the imaging unit 103 to acquire a subject image, and performs various image processing on the acquired subject image. Thereafter, the control unit 101 acquires the shooting date / time information detected by the clock unit 105 when the shooting is performed (step S4), and acquires the shooting position information detected by the position detection unit 104 when the shooting is executed (step S5). . Next, the control unit 101 records the image obtained by shooting, shooting date / time information, and shooting position information in the recording unit 106 in association with each other (step S6).

また、ステップS2の判定において、画像撮影指示がなされていない場合に、制御部1
01は、ユーザによる操作入力部102の再生ボタンの操作によって通常の画像再生指示
がなされたかを判定する(ステップS7)。ステップS7の判定において、通常の画像再
生指示がなされた場合に、制御部101は、通常の画像の再生に関する処理を行う(ステ
ップS8)。即ち、制御部101は、記録部106に記録されている画像のサムネイル画
像を表示部107に表示させ、ユーザによって選択されたサムネイル画像に対応した画像
を表示部107に表示させる。なお、サーバ200の画像記録部203に記録されている
画像をカメラ100で再生できるようにしても良い。この場合には、カメラ100からサ
ーバ200に対して画像の再生要求がなされる。これを受けてサーバ200に記録されて
いる画像のサムネイル画像が表示部107に表示される。何れかのサムネイル画像がユー
ザによって選択された場合、そのサムネイル画像に対応した画像がサーバ200からカメ
ラ100に送信され、この送信された画像が表示部107に表示される。
Further, in the determination in step S2, if no image shooting instruction is given, the control unit 1
01 determines whether a normal image reproduction instruction has been made by the user operating the reproduction button of the operation input unit 102 (step S7). In the determination in step S7, when a normal image reproduction instruction is given, the control unit 101 performs processing related to normal image reproduction (step S8). That is, the control unit 101 causes the display unit 107 to display a thumbnail image of the image recorded in the recording unit 106 and causes the display unit 107 to display an image corresponding to the thumbnail image selected by the user. The image recorded in the image recording unit 203 of the server 200 may be played back by the camera 100. In this case, an image reproduction request is made from the camera 100 to the server 200. In response to this, a thumbnail image of an image recorded in the server 200 is displayed on the display unit 107. When any thumbnail image is selected by the user, an image corresponding to the thumbnail image is transmitted from the server 200 to the camera 100, and the transmitted image is displayed on the display unit 107.

また、ステップS7の判定において、通常の画像再生指示がなされていない場合に、制
御部101は、ユーザによる操作入力部102の思い出再生ボタンの操作によって思い出
再生指示がなされたかを判定する(ステップS9)。ステップS9の判定において、思い
出再生指示がなされていない場合に、制御部101は、ユーザによる操作入力部102の
操作により画像送信指示がなされたかを判定する(ステップS10)。ステップS10の
判定において、画像送信指示がなされていない場合に、処理がステップS1に戻り、制御
部101は、スルー画表示を再び行う。一方、ステップS10の判定において、画像送信
指示がなされた場合に、制御部101は画像送信に関する処理を行う(ステップS11)
。即ち、制御部101は、記録部106に記録されている画像のサムネイル画像を表示部
107に表示させ、ユーザによって選択されたサムネイル画像に対応した画像をサーバ2
00に送信する。
Further, in the determination in step S7, when a normal image reproduction instruction has not been given, the control unit 101 determines whether or not a memory reproduction instruction has been given by the operation of the memory reproduction button of the operation input unit 102 by the user (step S9). ). If it is determined in step S9 that no memory playback instruction has been issued, the control unit 101 determines whether an image transmission instruction has been given by an operation of the operation input unit 102 by the user (step S10). If it is determined in step S10 that no image transmission instruction has been issued, the process returns to step S1, and the control unit 101 performs the through image display again. On the other hand, when an image transmission instruction is given in the determination in step S10, the control unit 101 performs processing related to image transmission (step S11).
. That is, the control unit 101 causes the display unit 107 to display a thumbnail image of the image recorded in the recording unit 106 and displays an image corresponding to the thumbnail image selected by the user on the server 2.
Send to 00.

また、ステップS9の判定において、思い出再生指示がなされた場合に、制御部101
は思い出再生に係る処理を実行する。まず、制御部101は、記録部106に記録されて
いる画像のサムネイル画像を表示部107に表示させる(ステップS12)。次に、制御
部101は、ユーザによる操作入力部102の操作によってサムネイル画像中の何れかの
画像が選択されるのを待つ(ステップS13)。
In the determination of step S9, when a memory playback instruction is given, the control unit 101
Executes a process related to the memory reproduction. First, the control unit 101 causes the display unit 107 to display thumbnail images of images recorded in the recording unit 106 (step S12). Next, the control unit 101 waits for any image in the thumbnail image to be selected by the operation of the operation input unit 102 by the user (step S13).

ステップS13において画像の選択がなされた後、制御部101は、撮影者の画像の設
定の入力を待つ(ステップS14)。この設定は、後述する思い出再生モードにおいて仮
想風景画像に、撮影者画像を合成するか、また合成する場合にはどのような画像を合成するか等の設定である。この撮影者画像の設定についての処理は後述する。
After the image is selected in step S13, the control unit 101 waits for input of the photographer's image setting (step S14). This setting is a setting such as whether to synthesize a photographer image with a virtual landscape image in a memory reproduction mode described later, and what kind of image to synthesize. The process for setting the photographer image will be described later.

その後、制御部101は、ユーザによる操作入力部102の操作によって決定指示がなされたかを判定する(ステップS15)。ステップS15の判定において、決定指示がなされていない場合には、処理がステップS13に戻って、制御部101は画像の選択及び
撮影者画像の設定入力の変更を待つ。一方、ステップS15の判定において、決定指示が
なされた場合に、制御部101は、ユーザによって選択された画像をサーバ200に送信
し、サーバ200に対して思い出再生要求を送信する。この際、ステップS14で設定さ
れた撮影者画像の設定情報もサーバ200に送信する(ステップS16)。この後、後述
するサーバ200の処理において、思い出再生用の画像ファイルが生成される。
Thereafter, the control unit 101 determines whether a determination instruction has been given by the operation of the operation input unit 102 by the user (step S15). If it is determined in step S15 that no determination instruction has been given, the process returns to step S13, and the control unit 101 waits for selection of an image and change in setting input of a photographer image. On the other hand, when a determination instruction is given in the determination in step S <b> 15, the control unit 101 transmits the image selected by the user to the server 200 and transmits a memory playback request to the server 200. At this time, the setting information of the photographer image set in step S14 is also transmitted to the server 200 (step S16). Thereafter, in the process of the server 200 described later, an image file for replaying memories is generated.

その後、制御部101は、サーバ200において生成された思い出再生用の画像ファイ
ルを受信したかを判定する(ステップS17)。ステップS17において、サーバ200
から画像ファイルを受信するまで待機する。ステップS17の判定において、サーバ20
0から画像ファイルが受信された場合に、制御部101は、ユーザにその旨を通知する。
ユーザによって思い出画像ファイルの再生指示がなされたかを判定する(ステップS18
)。ステップS18の判定において、思い出画像ファイルの再生指示がなされた場合に、
制御部101は、サーバ200から送信された画像ファイルに基づき、撮影時に被写体が
見ていたと考えられる風景画像を表示部107に表示させる思い出再生処理を行う(ステ
ップS19)。この思い出再生処理については後述する。また、ステップS18の判定に
おいて、思い出画像ファイルの再生指示がなされなかった場合に、制御部101は、ステ
ップS19の処理をスキップする。
Thereafter, the control unit 101 determines whether an image file for replaying a memory generated in the server 200 has been received (step S17). In step S17, the server 200
Wait until an image file is received from. In the determination in step S17, the server 20
When an image file is received from 0, the control unit 101 notifies the user to that effect.
It is determined whether or not the user has instructed playback of the memory image file (step S18).
). If it is determined in step S18 that a memory image file playback instruction has been issued,
Based on the image file transmitted from the server 200, the control unit 101 performs a memory reproduction process for causing the display unit 107 to display a landscape image that is considered to be viewed by the subject at the time of shooting (step S19). This memory reproduction process will be described later. Also, in the determination in step S18, if no instruction to reproduce the memory image file is given, the control unit 101 skips the process in step S19.

ステップS18又はステップS19の後、制御部101は、ユーザの操作入力部102
の操作により画像ファイルの記録指示がなされたかを判定する(ステップS20)。ステ
ップS20の判定において、画像ファイルの記録指示がなされた場合に、制御部101は
画像ファイルを記録部106に記録する(ステップS21)。また、ステップS20の判
定において、思い出画像ファイルの記録指示がなされなかった場合に、制御部101は、
ステップS21の処理をスキップする。
After step S18 or step S19, the control unit 101 performs a user operation input unit 102.
It is determined whether an instruction to record an image file has been given by the operation (step S20). If it is determined in step S20 that an image file recording instruction has been issued, the control unit 101 records the image file in the recording unit 106 (step S21). Further, in the determination of step S20, when the recording instruction of the memory image file is not made, the control unit 101
The process of step S21 is skipped.

図4は、図1に示す仮想風景表示システムにおけるサーバ200の動作を示すフローチ
ャートである。制御部201は、思い出再生要求がなされていない状態でカメラ100か
らの画像を受信したかを判定する(ステップS31)。ステップS31の判定において、
画像を受信した場合に、制御部201は、受信した画像を画像記録部203に記録する(
ステップS32)。その後、制御部201は、カメラ100からの画像の受信が終了した
かを判定する(ステップS33)。ステップS33の判定において、画像の受信が終了し
ていない場合に、処理がステップS31に戻り、制御部201は、カメラ100からの次
の画像の受信を待つ。
FIG. 4 is a flowchart showing the operation of the server 200 in the virtual landscape display system shown in FIG. The control unit 201 determines whether an image from the camera 100 has been received in a state where no memory playback request has been made (step S31). In the determination of step S31,
When the image is received, the control unit 201 records the received image in the image recording unit 203 (
Step S32). Thereafter, the control unit 201 determines whether or not reception of an image from the camera 100 has been completed (step S33). If it is determined in step S33 that image reception has not ended, the process returns to step S31, and the control unit 201 waits for reception of the next image from the camera 100.

また、ステップS31の判定において、画像の受信がない場合に、制御部201は、カ
メラ100から画像とともに思い出再生要求がなされたかを判定する(ステップS34)
。ステップS34の判定において、思い出再生要求がなされていない場合に、制御部20
1は、カメラ100から通常の画像の再生要求がなされたかを判定する(ステップS35
)。ステップS35の判定において、通常の画像の再生要求がなされた場合に、制御部2
01はユーザによって選択された画像をカメラ100に転送する。これにより、カメラ1
00の表示部107において画像再生が行われる(ステップS36)。
If no image is received in the determination in step S31, the control unit 201 determines whether a memory playback request is made from the camera 100 together with the image (step S34).
. If it is determined in step S34 that no memory playback request is made, the control unit 20
1 determines whether a normal image reproduction request has been made from the camera 100 (step S35).
). If it is determined in step S35 that a normal image reproduction request is made, the control unit 2
01 transfers the image selected by the user to the camera 100. As a result, the camera 1
The image reproduction is performed on the 00 display unit 107 (step S36).

また、ステップS34の判定において、思い出再生要求がなされた場合に、制御部20
1はカメラ100から送られてきた画像を取得する(ステップS37)。次に、制御部2
01は、カメラ100から送られてきた撮影者画像の設定情報に基づいて撮影者画像を取
得する(ステップS38)。即ち、カメラ100から撮影者を示す画像が送られてきた場
合には、その画像を撮影者画像として取得する。また、サーバ200の撮影者画像DB2
05に記録されている画像を合成するように要求されている場合には、その画像を撮影者
画像として取得する。
Further, in the determination of step S34, when a memory playback request is made, the control unit 20
1 acquires an image sent from the camera 100 (step S37). Next, the control unit 2
In 01, a photographer image is acquired based on the photographer image setting information sent from the camera 100 (step S38). That is, when an image showing a photographer is sent from the camera 100, the image is acquired as a photographer image. In addition, the photographer image DB2 of the server 200
If it is requested to synthesize the image recorded in 05, the image is acquired as a photographer image.

その後、制御部201は、取得した画像に付加されている撮影日時と撮影位置の情報に
基づき、年代別地図DB204から、カメラ100から送られてきた画像の撮影日時と同
年代で且つその画像の撮影位置を含む2D地図画像及び3D地図画像を選択し(ステップ
S39)、選択した2D地図画像及び3D地図画像を仮想風景作成部206に送る。その
後、仮想風景作成部206の同方向検出部2061aは、カメラ100から送られてきた
画像に写っている風景から、カメラ100から送られてきた画像の撮影方向を検出する(
ステップS40)。即ち、同方向検出部2061aは、撮影者が撮影位置に立ったときに
見えるはずの画像(撮影位置を中心として360度回転方向に沿って存在する風景画像)
を3D地図画像から選択する。そして、仮想風景各選択した画像とカメラ100から送ら
れてきた画像とのマッチング処理を行い、マッチング処理によって最も一致度の高いと判
定される風景画像が存在する方向を撮影方向として検出する。例えば、図2の位置402
aに存在する風景画像との一致度が高いと判定される場合には、撮影方向は矢印Cで示す
ものとなる。撮影方向の検出後、仮想風景作成部206の反対方向検出部2061bは、
撮影方向の反対方向(撮影方向に対して180度回転方向。図2の例では矢印Dの方向)
を検出する(ステップS41)。
Thereafter, the control unit 201 is based on the shooting date and time information added to the acquired image and the shooting date of the image at the same age as the shooting date and time of the image sent from the camera 100 from the chronological map DB 204. The 2D map image and 3D map image including the position are selected (step S39), and the selected 2D map image and 3D map image are sent to the virtual landscape creation unit 206. Thereafter, the same direction detection unit 2061a of the virtual landscape creation unit 206 detects the shooting direction of the image sent from the camera 100 from the landscape shown in the image sent from the camera 100 (
Step S40). That is, the same direction detection unit 2061a is an image that should be seen when the photographer stands at the shooting position (a landscape image that exists along the 360-degree rotation direction around the shooting position).
Is selected from the 3D map image. Then, matching processing between each image selected from the virtual landscape and the image sent from the camera 100 is performed, and a direction in which a landscape image determined to have the highest degree of coincidence by the matching processing is detected as a shooting direction. For example, position 402 in FIG.
When it is determined that the degree of coincidence with the landscape image existing in a is high, the shooting direction is indicated by an arrow C. After detecting the shooting direction, the opposite direction detection unit 2061b of the virtual landscape creation unit 206
The direction opposite to the shooting direction (180 ° rotation direction with respect to the shooting direction. In the example of FIG. 2, the direction of the arrow D)
Is detected (step S41).

反対方向の検出終了後、制御部201は、撮影者画像の設定情報に基づき、撮影者画像
を合成するように設定されているかを判定する(ステップS42)。ステップS42の判
定において、撮影者画像を合成するように設定されている場合に、制御部201は、撮影
位置の周囲360度の位置に対応した風景画像を仮想風景画像として選択し、選択した仮
想風景画像の中で、ステップS41で検出された反対方向に対応した位置(図2の例では
位置402b)に対応した仮想風景画像を選択し、選択した仮想風景画像を画像合成部2
062に送る。画像合成部2062は、送られてきた仮想風景画像にステップS38で取
得した撮影者画像を合成する。このような画像の合成の後、制御部201は、合成がなさ
れた仮想風景画像を含む撮影位置周辺の仮想風景画像を1つの画像ファイルとする(ステ
ップS43)。一方、ステップS42の判定において、撮影者画像を合成するように設定
されていない場合に、制御部201は、撮影位置の周囲360度の位置に対応した風景画
像を仮想風景画像として選択し、選択した各仮想風景画像とステップS38で取得した撮
影者画像とを1つの画像ファイルとする(ステップS44)。また、ここで作成される思
い出画像ファイルには、ステップS41で検出された反対方向の情報も含めておく。この
ようにして、仮想風景画像と撮影者画像とを合成せずに画像ファイルに記録しておくこと
により、カメラ100においても合成を行うことが可能となる。
After the detection of the opposite direction is completed, the control unit 201 determines whether or not the setting is made to synthesize the photographer image based on the setting information of the photographer image (step S42). In the determination of step S42, when it is set to synthesize the photographer image, the control unit 201 selects a landscape image corresponding to a 360 ° position around the shooting position as a virtual landscape image, and selects the selected virtual image. Among the landscape images, a virtual landscape image corresponding to the position (position 402b in the example of FIG. 2) corresponding to the opposite direction detected in step S41 is selected, and the selected virtual landscape image is selected as the image composition unit 2.
Send to 062. The image composition unit 2062 composes the photographer image acquired in step S38 with the sent virtual landscape image. After such image synthesis, the control unit 201 sets a virtual landscape image around the shooting position including the synthesized virtual landscape image as one image file (step S43). On the other hand, if it is determined in step S42 that the photographer image is not set to be synthesized, the control unit 201 selects a landscape image corresponding to a 360 ° position around the shooting position as a virtual landscape image, and selects it. Each virtual landscape image and the photographer image acquired in step S38 are set as one image file (step S44). In addition, the memory image file created here includes information in the opposite direction detected in step S41. In this way, the virtual landscape image and the photographer image are recorded in the image file without being combined, so that the camera 100 can also perform the combination.

図5は、図3のステップS14における撮影者画像の設定処理について示すフローチャ
ートである。ユーザ(撮影者)は、サーバ200の撮影者画像DB205に記録されてい
る画像の中から所望の撮影者画像を選択することができる。なお、撮影者画像の設定は、
サーバ200にネットワーク接続されたPC上から行うことも可能である。
FIG. 5 is a flowchart showing the photographer image setting process in step S14 of FIG. A user (photographer) can select a desired photographer image from images recorded in the photographer image DB 205 of the server 200. The photographer image settings are
It can also be performed from a PC connected to the server 200 via a network.

撮影者画像の設定の際に、制御部101は、サーバ200からアバターの候補画像を受
信し、受信した候補画像のサムネイル画像を図6(a)の参照符号107aに示すように
して表示させる。そして、ユーザによるアバター候補の選択を待つ(ステップS51)。
この際、制御部101は、ユーザによりアバターの候補が選択されたかを判定し(ステッ
プS52)、選択がなされるまでステップS51〜S52の処理を繰り返す。ステップS
51では、アバターの性別やスタイル等のアバターの外形を選択することが可能である。
即ち、ユーザは、操作入力部102の十字キー102aとOKボタン102bとを操作し
てカーソル107bを移動させ、表示部107に表示された何れかのサムネイル画像を選
択することにより、所望の外形のアバターを選択することが可能である。
When setting the photographer image, the control unit 101 receives the candidate image of the avatar from the server 200 and displays the received thumbnail image of the candidate image as indicated by reference numeral 107a in FIG. And it waits for selection of the avatar candidate by a user (step S51).
At this time, the control unit 101 determines whether an avatar candidate has been selected by the user (step S52), and repeats the processes of steps S51 to S52 until selection is made. Step S
In 51, it is possible to select the avatar outer shape such as the sex and style of the avatar.
That is, the user operates the cross key 102a and the OK button 102b of the operation input unit 102 to move the cursor 107b, and selects one of the thumbnail images displayed on the display unit 107. An avatar can be selected.

ステップS52の判定において、アバターの候補が選択された場合に、制御部101は
、サーバ200から、選択された外形に対応したアバターの候補画像を受信し、受信した
候補画像のサムネイル画像を図6(b)の参照符号107cに示すようにして表示させる
。そして、ユーザによるアバター候補の選択を待つ(ステップS53)。この際、制御部
101は、ユーザによりアバターの候補が選択されたかを判定し(ステップS54)、選
択がなされるまでステップS53〜S54の処理を繰り返す。ステップS53では、アバ
ターのポーズを選択することが可能である。即ち、ユーザは、操作入力部102の十字キ
ー102aとOKボタン102bとを操作してカーソル107bを移動させ、表示部10
7に表示された何れかのサムネイル画像を選択することにより、ステップS51で選択さ
れた外形に対応した所望のポーズのアバターを選択することが可能である。
When the avatar candidate is selected in the determination of step S52, the control unit 101 receives a candidate image of the avatar corresponding to the selected outline from the server 200, and displays the thumbnail image of the received candidate image as shown in FIG. It is displayed as indicated by reference numeral 107c in (b). And it waits for selection of the avatar candidate by a user (step S53). At this time, the control unit 101 determines whether an avatar candidate has been selected by the user (step S54), and repeats the processing of steps S53 to S54 until selection is made. In step S53, the avatar pose can be selected. That is, the user operates the cross key 102a and the OK button 102b of the operation input unit 102 to move the cursor 107b, and the display unit 10
By selecting one of the thumbnail images displayed in 7, it is possible to select an avatar having a desired pose corresponding to the outline selected in step S 51.

ステップS54の判定において、アバターの候補が選択された場合に、制御部101は
、選択されたポーズに基づいてアバターの候補画像を作成し、作成したアバターの候補画
像をユーザへの確認用の画像として表示部107に表示させる(ステップS55)。その
後、制御部101は、ユーザによってOK操作がなされたかを判定する(ステップS56
)。OK操作は、ユーザによるOKボタン102bの操作である。ステップS56の判定
において、OK操作がなされていない場合には、処理がステップS53に戻り、制御部1
01は、アバター候補の選択を再び待つ。
In the determination of step S54, when an avatar candidate is selected, the control unit 101 creates an avatar candidate image based on the selected pose, and confirms the created avatar candidate image to the user. Is displayed on the display unit 107 (step S55). Thereafter, the control unit 101 determines whether an OK operation has been performed by the user (step S56).
). The OK operation is an operation of the OK button 102b by the user. If it is determined in step S56 that an OK operation has not been performed, the process returns to step S53, and the control unit 1
01 again waits for selection of avatar candidates.

また、ステップS56の判定において、ユーザによってOK操作がなされた場合に、制
御部101は、サーバ200と通信してサーバ200の撮影者画像DB205に撮影者で
あるユーザを示す実写画像(撮影者が自身で登録した画像)が記録されているかを判定す
る(ステップS57)。ステップS57の判定において、実写画像が記録されていない場
合に、制御部101は、図5の処理を終了させる。一方、ステップS57の判定において
、実写画像が記録されている場合に、制御部101は、サーバ200から実写画像を受信
し、受信した実写画像のサムネイル画像を図6(c)の参照符号107dに示すようにし
て表示させる。そして、ユーザによる実写画像の選択を待つ(ステップS58)。この際
、制御部101は、ユーザによりアバターの候補となる実写画像が選択されたかを判定し
(ステップS59)、選択がなされるまでステップS58〜S59の処理を繰り返す。
In the determination of step S56, when the user performs an OK operation, the control unit 101 communicates with the server 200 and the photographer image DB 205 of the server 200 displays a live-action image indicating the user who is the photographer. It is determined whether an image registered by itself is recorded (step S57). If it is determined in step S57 that no real image is recorded, the control unit 101 ends the process of FIG. On the other hand, when the photographed image is recorded in the determination of step S57, the control unit 101 receives the photographed image from the server 200, and the received thumbnail image of the photographed image is represented by reference numeral 107d in FIG. Display as shown. Then, it waits for the user to select a live-action image (step S58). At this time, the control unit 101 determines whether or not a live-action image that is a candidate for an avatar has been selected by the user (step S59), and repeats the processing of steps S58 to S59 until selection is made.

ステップS59の判定において、アバターの候補となる実写画像が選択された場合に、
制御部101は、選択された実写画像における顔部の画像をステップS55で作成された
アバター候補の顔部に合成する(ステップS60)。その後、制御部101は、図5の処
理を終了させる。
In the determination of step S59, when a live-action image that is a candidate for an avatar is selected,
The control unit 101 synthesizes the face image in the selected live-action image with the face portion of the avatar candidate created in step S55 (step S60). Thereafter, the control unit 101 ends the process of FIG.

以上のようにして合成されたアバターの画像は、図3のステップS16の思い出再生要
求の際に、サーバ200に送信される。このアバターの画像は、思い出画像ファイルの作
成時に必要に応じて仮想風景画像に合成される。これにより、ユーザ(撮影者)が自身の
画像を撮影していなくとも、自身を示す画像を作成することができる。このような画像を
仮想風景画像に合成することにより、ユーザは、自身が写っている画像を撮影していなく
とも、撮影当時に被写体が見ていた風景を含む、その当時に撮影しなかった風景の画像を
鑑賞することができる。これにより、ユーザは、撮影当時の状況を想起できる。
The avatar image synthesized as described above is transmitted to the server 200 at the time of the memory reproduction request in step S16 of FIG. The avatar image is combined with a virtual landscape image as necessary when the memory image file is created. Thereby, even if the user (photographer) does not shoot his / her own image, an image showing the user can be created. By synthesizing such an image with a virtual landscape image, even if the user did not shoot an image of himself / herself, the landscape that the subject was viewing at the time of shooting, including those that were not taken at that time, was captured. You can appreciate the images. Thereby, the user can recall the situation at the time of shooting.

図7は、カメラ100による思い出再生時の処理について示すフローチャートである。
ここで、本実施形態においては、思い出再生時にも、仮想風景画像と撮影者画像とを合成
することができるようになされている。
FIG. 7 is a flowchart showing the process during memory playback by the camera 100.
Here, in the present embodiment, the virtual landscape image and the photographer image can be combined even during the memory reproduction.

思い出画像ファイルが受信され、ユーザによって思い出再生の指示がなされた後、制御
部101は、思い出画像ファイル内に撮影者画像が含まれているか(サーバ200におい
て撮影者画像の合成がなされていないか)を判定する(ステップS71)。ステップS7
1の判定において、思い出画像ファイル内に撮影者画像が含まれている場合に、制御部1
01は、ユーザ操作によって撮影者画像を仮想風景画像に合成するように指示されたかを
判定する(ステップS72)。ステップS72の判定において、撮影者画像を合成するよ
うに指示された場合に、制御部101は、図8(a)に示すような撮影者画像を、図8(
b)に示すような撮影方向の反対方向に対応した仮想風景画像に合成する(ステップS7
3)。
After the memory image file is received and the user gives an instruction to play back the memory, the control unit 101 determines whether the photographer image is included in the memory image file (whether the photographer image is not synthesized in the server 200). ) Is determined (step S71). Step S7
If the photographer image is included in the memory image file in the determination of 1, the control unit 1
In 01, it is determined whether a photographer's image is instructed to be combined with a virtual landscape image by a user operation (step S72). When it is instructed to synthesize the photographer image in the determination of step S72, the control unit 101 converts the photographer image as shown in FIG.
A virtual landscape image corresponding to the opposite direction of the shooting direction as shown in b) is synthesized (step S7).
3).

ステップS71、S72、又はS73の後、制御部101は、仮想風景画像を表示部1
07に表示させることで思い出再生を実行する(ステップS74)。思い出再生の際、制
御部101は、ユーザによってOK操作がなされたかを判定する(ステップS75)。ス
テップS75の判定において、OK操作がなされた場合に、制御部101は、図7の処理
を終了させる。その後、図8(d)に示すようにして作成された仮想風景画像501aを
含む思い出画像ファイルが、ユーザ操作に従って記録部106に記録される。
After step S71, S72, or S73, the control unit 101 displays the virtual landscape image on the display unit 1.
Reproduction of memories is executed by displaying in 07 (step S74). During memory playback, the control unit 101 determines whether an OK operation has been performed by the user (step S75). In the determination of step S75, when an OK operation is performed, the control unit 101 ends the process of FIG. Thereafter, the memory image file including the virtual landscape image 501a created as shown in FIG. 8D is recorded in the recording unit 106 in accordance with the user operation.

一方、ステップS75の判定において、OK操作がなされていない場合に、制御部10
1は、ユーザによって十字キー102aの左右キーの操作がなされたかを判定する(ステ
ップS76)。ステップS76の判定において、十字キー102aの操作がなされた場合
に、制御部101は、十字キー102aの操作方向に従って画像ファイル中の別の仮想風
景画像を選択し、選択した仮想風景画像に、再度、撮影者画像を合成することにより、撮
影者画像の合成位置の変更を行う(ステップS77)。ユーザは、十字キー102aの左
右キーの操作によって図8(c)の矢印E方向(撮影位置を中心とした360度回転方向
)に沿って仮想風景画像を選択することができる。例えば、図8(c)の状態で右キーが
押された場合には、仮想風景画像501の右隣の仮想風景画像が選択され、選択された仮
想風景画像の中心位置に撮影者画像502が合成される。また、図8(c)の状態で左キ
ーが押された場合には、仮想風景画像501の左隣の仮想風景画像が選択され、選択され
た仮想風景画像の中心位置に撮影者画像502が合成される。
On the other hand, if it is determined in step S75 that no OK operation has been performed, the control unit 10
1 determines whether the user has operated the left and right keys of the cross key 102a (step S76). In the determination in step S76, when the operation of the cross key 102a is performed, the control unit 101 selects another virtual landscape image in the image file according to the operation direction of the cross key 102a, and the selected virtual landscape image is again displayed. Then, the composition position of the photographer image is changed by compositing the photographer image (step S77). The user can select a virtual landscape image along the direction of arrow E in FIG. 8C (360 ° rotation direction around the shooting position) by operating the left and right keys of the cross key 102a. For example, when the right key is pressed in the state of FIG. 8C, the virtual landscape image adjacent to the right of the virtual landscape image 501 is selected, and the photographer image 502 is displayed at the center position of the selected virtual landscape image. Synthesized. When the left key is pressed in the state of FIG. 8C, the virtual landscape image adjacent to the left of the virtual landscape image 501 is selected, and the photographer image 502 is displayed at the center position of the selected virtual landscape image. Synthesized.

ステップS76又はS77の後、制御部101は、ユーザによってズーム操作がなされ
たかを判定する(ステップS78)。ステップS78の判定において、ズーム操作がなさ
れた場合に、制御部101は、ズームボタンの操作方向に従って撮影者画像を拡大又は縮
小し、拡大又は縮小後の撮影者画像を仮想風景画像に、再度合成することにより、撮影者
画像の表示範囲の変更を行う(ステップS79)。ユーザは、ズームボタンの操作によっ
て図8(c)の矢印F方向に撮影画像の拡大又は縮小を行うことができる。例えば、ズー
ムボタンのワイド側が押された場合には、撮影者画像を拡大する。また、ズームボタンの
テレ側が押された場合には、撮影者画像を縮小する。
After step S76 or S77, the control unit 101 determines whether a zoom operation has been performed by the user (step S78). When the zoom operation is performed in the determination in step S78, the control unit 101 enlarges or reduces the photographer image according to the operation direction of the zoom button, and again synthesizes the enlarged or reduced photographer image with the virtual landscape image. Thus, the display range of the photographer image is changed (step S79). The user can enlarge or reduce the captured image in the direction of arrow F in FIG. 8C by operating the zoom button. For example, when the wide side of the zoom button is pressed, the photographer image is enlarged. Further, when the tele side of the zoom button is pressed, the photographer image is reduced.

以上説明したように、本実施形態によれば、撮影時にユーザによって撮影されていなか
った風景等の画像を3D地図画像から作成することにより、撮影時に被写体が見ていたは
ずの風景等を撮影後に鑑賞して思い出を想起することが可能となる。
As described above, according to the present embodiment, an image of a landscape that has not been photographed by the user at the time of photographing is created from the 3D map image, so that the scenery that the subject should have seen at the time of photographing is photographed. Appreciate and recall memories.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定される
ものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上述の実施形態では、カメラ100とサーバ200とで構成されるシステムに
ついて説明しているが、カメラ100の代わりにPCや携帯電話機等を用いても良い。即
ち、少なくとも画像の表示機能を備える機器であれば、カメラ100の代わりに用いるこ
とが可能である。
For example, in the above-described embodiment, a system including the camera 100 and the server 200 has been described, but a PC, a mobile phone, or the like may be used instead of the camera 100. That is, any device having at least an image display function can be used instead of the camera 100.

また、仮想風景画像は、3D地図画像の他に、衛星写真や航空写真等を利用して作成す
るようにしても良い。
In addition to the 3D map image, the virtual landscape image may be created using a satellite photograph or an aerial photograph.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構
成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全
構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述
したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出さ
れ得る。
Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係る仮想風景表示装置を含む、仮想風景表示システムの構成を示す図である。It is a figure which shows the structure of the virtual scenery display system containing the virtual scenery display apparatus which concerns on one Embodiment of this invention. 仮想風景表示システムの動作の概略について示す図である。It is a figure shown about the outline | summary of operation | movement of a virtual scenery display system. 図1に示す仮想風景表示システムにおけるカメラの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera in the virtual landscape display system shown in FIG. 図1に示す仮想風景表示システムにおけるサーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the server in the virtual scenery display system shown in FIG. 撮影者画像の設定処理について示すフローチャートである。It is a flowchart shown about the setting process of a photographer image. 撮影者画像の設定処理の際の表示部の表示例を示すフローチャートである。It is a flowchart which shows the example of a display of the display part in the case of a photographer image setting process. 思い出再生時の処理について示すフローチャートである。It is a flowchart shown about the process at the time of memory reproduction. 思い出再生時の画像合成処理について説明するための図である。It is a figure for demonstrating the image composition process at the time of memory reproduction.

100…カメラ、101…制御部、102…操作入力部、103…撮像部、104…位
置検出部、105…時計部、106…記録部、107…表示部、108…通信部、200
…サーバ、201…制御部、202…操作入力部、203…画像記録部、203a…位置
年代記録部、204…年代別地図データベース(DB)、205…撮影者画像DB、20
6…仮想風景作成部、207…通信部、300…通信回線
DESCRIPTION OF SYMBOLS 100 ... Camera 101 ... Control part 102 ... Operation input part 103 ... Imaging part 104 ... Position detection part 105 ... Clock part 106 ... Recording part 107 ... Display part 108 ... Communication part 200
DESCRIPTION OF SYMBOLS ... Server 201 ... Control part 202 ... Operation input part 203 ... Image recording part 203a ... Position age recording part 204 ... Map database (DB) classified by age, 205 ... Photographer image DB, 20
6 ... Virtual landscape creation unit, 207 ... Communication unit, 300 ... Communication line

Claims (4)

撮影位置情報と撮影日時情報を関連づけた撮影画像を記録する記録部と、
通信部と、
上記記録部に記録した撮影画像と、上記撮影時に記録部に記録されていなかった画像とを上記通信部を介して表示する表示部と、
を具備する仮想風景表示装置において、
上記記録されていない画像を表示する時に、上記通信部から上記記録された撮影画像を外部機器に上記通信部を介して送信し、該外部機器が上記送信された撮影画像の撮影位置情報と撮影時刻情報を利用して検索した地図画像に基づいて作成した、撮影時に被写体が見ていたはずの仮想風景画像を表示する制御部と、
を具備することを特徴とする仮想風景表示装置。
A recording unit for recording a photographed image in which photographing position information and photographing date and time information are associated;
A communication department;
A captured image recorded in the recording unit, a display unit and an image that has not been recorded in the recording unit at the time of the photographing is displayed via the communication unit,
In a virtual landscape display device comprising:
When displaying an image that is not the recording, the recorded captured image from the communication unit transmits via the communication unit to the external device, and the photographing position information of the photographed image the external device is transmitted over the Symbol A control unit that displays a virtual landscape image that the subject should have seen at the time of shooting, created based on the map image searched using the shooting time information;
A virtual landscape display device comprising:
上記仮想風景表示装置は、左右操作可能な操作部を有し、
上記仮想風景画像は、上記操作部によって、上記撮影位置情報で示される撮影位置を中心とした360度回転方向に沿って選択された画像であることを特徴とする請求項1に記載の仮想風景表示装置。
The virtual landscape display device has an operation unit that can be operated left and right,
The virtual landscape image according to claim 1, wherein the virtual landscape image is an image selected by the operation unit along a 360-degree rotation direction centered on a shooting position indicated by the shooting position information. Display device.
上記仮想風景画像は、上記外部機器が上記撮影時刻情報で示される撮影日時に基づいた3D地図画像から作成した画像であることを特徴とする請求項2に記載の仮想風景表示装置。 3. The virtual landscape display device according to claim 2, wherein the virtual landscape image is an image created by the external device from a 3D map image based on a shooting date and time indicated by the shooting time information . 撮影位置情報と撮影日時情報を関連づけた撮影画像を記録する記録部と、通信部と、上記記録部に記録した撮影画像と、上記撮影時に記録部に記録されていなかった画像とを上記通信部を介して表示する表示部とを具備する仮想風景表示装置による仮想風景表示方法において、A recording unit that records a photographed image in which photographing position information and photographing date and time information are associated, a communication unit, a photographed image recorded in the recording unit, and an image that has not been recorded in the recording unit at the time of photographing. In a virtual landscape display method by a virtual landscape display device comprising a display unit for displaying via
上記記録されていない画像を表示する時に、上記通信部から上記記録された撮影画像を外部機器に上記通信部を介して送信し、When displaying the unrecorded image, the recorded image is transmitted from the communication unit to an external device via the communication unit,
上記外部機器が上記送信された撮影画像の撮影位置情報と撮影時刻情報を利用して検索した地図画像に基づいて作成した、撮影時に被写体が見ていたはずの仮想風景画像を表示する、Displaying the virtual landscape image that the subject should have seen at the time of shooting, created based on the map image searched by the external device using the shooting position information and shooting time information of the transmitted shot image;
ことを特徴とする仮想風景表示方法。A virtual landscape display method characterized by the above.
JP2012169044A 2012-07-31 2012-07-31 Virtual landscape display device and virtual landscape display method Expired - Fee Related JP5409852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169044A JP5409852B2 (en) 2012-07-31 2012-07-31 Virtual landscape display device and virtual landscape display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169044A JP5409852B2 (en) 2012-07-31 2012-07-31 Virtual landscape display device and virtual landscape display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008035219A Division JP5058842B2 (en) 2008-02-05 2008-02-15 Virtual landscape display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013225988A Division JP5596844B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2012230714A JP2012230714A (en) 2012-11-22
JP5409852B2 true JP5409852B2 (en) 2014-02-05

Family

ID=47432141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169044A Expired - Fee Related JP5409852B2 (en) 2012-07-31 2012-07-31 Virtual landscape display device and virtual landscape display method

Country Status (1)

Country Link
JP (1) JP5409852B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9836650B2 (en) * 2015-02-09 2017-12-05 Empire Technology Development Llc Identification of a photographer based on an image

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245071A (en) * 2001-02-15 2002-08-30 Sony Corp Device and method for managing image, image database unit and storage medium
JP2004139576A (en) * 2002-09-27 2004-05-13 Fuji Photo Film Co Ltd Device, method and program for preparing album
US8562439B2 (en) * 2004-03-11 2013-10-22 Navteq B.V. Geographic area templates for computer games
JP2006309722A (en) * 2005-03-31 2006-11-09 National Institute Of Information & Communication Technology Photograph search/browsing system and program, using three-dimensional model, and three-dimensional model display/operation system and program, using photograph
JP2007017803A (en) * 2005-07-08 2007-01-25 Nikon Corp Information providing system
JP2007189357A (en) * 2006-01-11 2007-07-26 Matsushita Electric Ind Co Ltd Device and method for distributing arbitrary-viewpoint video

Also Published As

Publication number Publication date
JP2012230714A (en) 2012-11-22

Similar Documents

Publication Publication Date Title
US9807354B2 (en) Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program
JP4965475B2 (en) Virtual moving display device
JPH10243273A (en) Image display method for digital camera
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
CN103842936A (en) Recording, editing and combining multiple live video clips and still photographs into a finished composition
JP2007027945A (en) Photographing information presenting system
JP2005229291A (en) Image recording apparatus and imaging apparatus, and image file storage method
JP2009230635A (en) Image data generating device, image data generating method and image data generating program
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP2016081173A (en) Image processor, image processing method, image processing program, image transmitter and use scene analysis method
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP5058842B2 (en) Virtual landscape display device
JP2009211341A (en) Image display method and display apparatus thereof
JP5972302B2 (en) Operator terminal, portable terminal, instruction transmission method, program for operator terminal
JP2008271239A (en) Camera, content creation method, and program
CN114554112A (en) Video recording method, device, terminal and storage medium
JP6249771B2 (en) Image processing apparatus, image processing method, and program
JP5874887B2 (en) Image processing apparatus, image processing system, and image processing method
JP2009060340A (en) Electronic camera and information reproducing device
JP2017108203A (en) Imaging apparatus, imaging support method and program
JP4169940B2 (en) Digital camera
JP6508288B2 (en) SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP5298214B2 (en) Virtual moving display device
JP5690376B2 (en) Image file creation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131105

R150 Certificate of patent or registration of utility model

Ref document number: 5409852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees