JP5363971B2 - Landscape reproduction system - Google Patents

Landscape reproduction system Download PDF

Info

Publication number
JP5363971B2
JP5363971B2 JP2009296977A JP2009296977A JP5363971B2 JP 5363971 B2 JP5363971 B2 JP 5363971B2 JP 2009296977 A JP2009296977 A JP 2009296977A JP 2009296977 A JP2009296977 A JP 2009296977A JP 5363971 B2 JP5363971 B2 JP 5363971B2
Authority
JP
Japan
Prior art keywords
reproduction
terrain
indicating
dimensional shape
shape information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009296977A
Other languages
Japanese (ja)
Other versions
JP2011138258A (en
Inventor
廣美 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2009296977A priority Critical patent/JP5363971B2/en
Publication of JP2011138258A publication Critical patent/JP2011138258A/en
Application granted granted Critical
Publication of JP5363971B2 publication Critical patent/JP5363971B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Instructional Devices (AREA)

Description

本発明は、利用者が携帯端末で指定した地点の過去又は将来の景観を再現するシステムに関する。   The present invention relates to a system for reproducing a past or future landscape at a point designated by a user with a mobile terminal.

特許文献1(「ナビゲーションシステム及びナビゲーション端末」)には、ユーザの位置情報に基づいて、地形及び建物情報を検索し、風景の画像を生成する技術が開示されている。   Patent Document 1 (“navigation system and navigation terminal”) discloses a technique for searching for terrain and building information based on user position information and generating a landscape image.

また、特許文献2(「ゴルフプレーヤのプレー支援方法およびシステム」)には、ゴルフプレーヤ支援のために、地形画像へ風景画像を重畳する技術が開示されている。   Patent Document 2 ("Golf Player Play Support Method and System") discloses a technique for superimposing a landscape image on a terrain image for golf player support.

更に、特許文献3(「携帯機用地図表示装置」)には、ユーザ視点の景観を表示する技術が開示されている。   Furthermore, Patent Document 3 (“Map Display Device for Portable Device”) discloses a technique for displaying a user's viewpoint landscape.

しかし、特許文献1乃至3は、いずれも現在の状況を再現することを目的としており、過去又は未来の状況を再現することを企図していない。   However, Patent Documents 1 to 3 all aim to reproduce the current situation, and do not intend to reproduce the past or future situation.

特許文献4(「タイムスリップ動画像表示システム」)には、撮影済みの過去の画像と現在の画像を並列して表示する技術が開示されている。   Patent Document 4 (“Time Slip Moving Image Display System”) discloses a technique for displaying a captured past image and a current image in parallel.

特許文献4は、単に過去の画像を再生する技術であって、過去の景観を再現するものではない。従って、撮影した動画以外の視点や視線での景観を知ることはできない。   Patent Document 4 is a technique for simply reproducing a past image, and does not reproduce a past landscape. Therefore, it is not possible to know a landscape from a viewpoint or line of sight other than the captured video.

特開2003−132068号公報JP 2003-132068 A 特開2005−034529号公報JP 2005-034529 A 特開2006−349964号公報JP 2006-349964 A 特開2006−093769号公報JP 2006-093769 A

任意の再現時点における景観を、指定された視点と視線方位に従って再現することを課題とする。   It is an object to reproduce a landscape at an arbitrary re-current time according to a specified viewpoint and gaze direction.

本願発明に係る景観再現システムは、
互いにネットワークを介して接続する利用者携帯端末と景観再現サーバからなる景観再現システムであって、
利用者携帯端末は、
(イ)利用者携帯端末の向きを方位として検出する方位取得部と、
(ロ)利用者携帯端末の位置を検出する位置取得部と、
(ハ)景観の再現の基準となる再現時点を受け付ける再現時点受付部と、
(ニ)検出した方位を視線方位とし、検出した位置を視点として、再現時点と、視点と、視線方位を含む再現画像要求を景観再現サーバに送信する再現画像要求送信部を有し、
景観再現サーバは、
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信部と、
(2)物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベースと、
(3)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出部と、
(4)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成部と、
(5)生成した再現画像を利用者携帯端末に返信する再現画像送信部を有し、
利用者携帯端末は、更に
(ホ)再現画像を受信する再現画像受信部と、
(へ)受信した再現画像を表示する再現画像表示部を有することを特徴とする。
The landscape reproduction system according to the present invention is
A landscape reproduction system consisting of a user mobile terminal and a landscape reproduction server connected to each other via a network,
User mobile devices
(A) an orientation acquisition unit that detects the orientation of the user mobile terminal as the orientation;
(B) a position acquisition unit that detects the position of the user portable terminal;
(C) a re-current time reception unit that accepts a re-current time as a standard for landscape reproduction;
(D) The detected azimuth is the viewing direction, the detected position is the viewpoint, the re-current time point, and the reproduction image request transmission unit that transmits the reproduction image request including the viewpoint and the viewing direction to the landscape reproduction server,
The landscape reproduction server
(1) A re-image request receiving unit that receives a re-image request including a re-current time point, a viewpoint, and a line-of-sight direction;
(2) Object three-dimensional shape information database that stores object three-dimensional shape information indicating a three-dimensional shape of an object in association with an existence period indicating a period in which the object exists and a location indicating a position where the object exists. When,
(3) Reproduced object for extracting the object three-dimensional shape information of an object that includes the re-present time of the reconstructed image request in the existence period and the reconstructed object region set based on the viewpoint and the line-of-sight direction includes the location An extractor;
(4) for each extracted object object 3-dimensional shape information, reproduced image generation unit that generates a reproduced image obtained by placing the physical objects indicating the object location of the object in a virtual three-dimensional space indicating the reproduction object region When,
(5) having a reproduction image transmission unit that returns the generated reproduction image to the user portable terminal;
The user portable terminal further includes (e) a reproduction image receiving unit that receives the reproduction image;
(F) It is characterized by having a reproduced image display unit for displaying the received reproduced image.

また、
前記再現画像生成部は、
前記再現画像要求に含まれる視点を仮想カメラの位置として、前記再現画像要求に含まれる視線方位を仮想カメラの撮影方向として、当該仮想カメラで前記再現画像に含まれる前記物体オブジェクトを2次元に投射した2次元投射画像を生成することを特徴とする。
Also,
The reproduced image generation unit
Projecting the viewpoint included in the reproduced image request as the position of the virtual camera, a gaze direction included in the reproduced image request as the imaging direction of the virtual camera, the object object included in the reproduced image in the virtual camera in a two-dimensional A two-dimensional projection image is generated.

また、
景観再現サーバは、更に、
地形の3次元形状を示す地形3次元形状情報を、当該地形が維持されていた期間を示す維持期間と当該地形の地形範囲とに対応付けて記憶する地形3次元形状情報データベースと、
再現画像要求の再現時点を前記維持期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現地形領域に前記地形範囲の少なくとも一部が含まれる地形の地形3次元形状情報を抽出する再現地形抽出部を有し、
前記再現画像生成部は、抽出した地形の地形3次元形状情報に基づいて前記再現地形領域を示す仮想の3次元空間に当該地形を示す地表面の形状を生成し、前記抽出した物体3次元形状情報毎に当該生成した地形を示す地表面上に当該物体を示す物体オブジェクトを配置した再現画像を生成することを特徴とする。
Also,
The landscape reproduction server
A terrain 3D shape information database for storing terrain 3D shape information indicating a 3D shape of the terrain in association with a maintenance period indicating a period during which the terrain was maintained and a terrain range of the terrain ;
The terrain three-dimensional shape information of the terrain including the recurrent time of the reproduction image request in the maintenance period and including at least a part of the terrain range in the reproduction terrain region set based on the viewpoint and the line-of-sight direction is extracted. Has a reproduction terrain extraction part,
The reproduction image generating unit based on the extracted topographical 3-dimensional shape information of the terrain to produce the shape of the ground surface indicating the terrain in a three-dimensional space of the virtual indicating the reproduction terrain area, the extracted object three-dimensional shape For each piece of information, a reproduction image in which an object object indicating the object is arranged on the ground surface indicating the generated terrain is generated.

景観再現サーバは、前記物体が生物である場合に、前記物体3次元形状情報データベースにおいて、当該生物の生息域内における任意の地点を当該物体の所在地に設定することを特徴とする。When the object is a living thing, the landscape reproduction server sets an arbitrary point in the habitat of the living object as the location of the object in the object three-dimensional shape information database.

また、
前記再現時点受付部は、利用者携帯端末の本体回転数又は本体回転角に基づいて、再現時点を指定することを特徴とする。
Also,
The re-current time accepting unit designates the re-current time based on the main body rotation speed or the main body rotation angle of the user portable terminal.

利用者携帯端末とネットワークを介して接続する景観再現サーバであって、以下の要素を有することを特徴とする景観再現サーバ
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信部
(2)物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベース
(3)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出部
(4)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成部
(5)生成した再現画像を利用者携帯端末に返信する再現画像送信部。
A landscape reproduction server connected to a user portable terminal via a network, characterized by having the following elements: (1) Receiving a reproduction image request including the current time, viewpoint, and gaze direction (2) The object 3D shape information indicating the 3D shape of the object is stored in association with the existence period indicating the period in which the object exists and the location indicating the position where the object exists. Object three-dimensional shape information database (3) The object three-dimensional shape of an object including the re-present time of a reproduction image request in the existence period and including the location in a reproduction object region set based on the viewpoint and the line-of-sight direction reproduction object extraction unit for extracting information (4) for each extracted object object 3-dimensional shape information, the object location of the object in a virtual three-dimensional space indicating the reproduction object region Reproduced image generation unit (5) and returns the generated reproduced image in the user portable terminal reproduced image transmitting unit that generates a reproduced image obtained by placing the physical object shown.

本願発明に係る景観再現方法は、
物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベースを有し、利用者携帯端末とネットワークを介して接続する景観再現サーバによる景観再現方法であって、以下の要素を有することを特徴とする景観再現方法
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信工程
(2)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出工程
(3)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成工程
(4)生成した再現画像を利用者携帯端末に返信する再現画像送信工程。
The landscape reproduction method according to the present invention is
An object three-dimensional shape information database for storing object three-dimensional shape information indicating a three-dimensional shape of an object in association with an existence period indicating a period in which the object exists and a location indicating a position where the object exists A landscape reproduction method by a landscape reproduction server connected to a user portable terminal via a network, the landscape reproduction method characterized by having the following elements: (1) Re-present, including viewpoint and gaze direction Reproduced image request receiving step of receiving a reproduced image request (2) An object including the recurrent time of the reproduced image request in the existence period and including the location in a reproduced object region set based on the viewpoint and the viewing direction the object 3-dimensional shape information to reproduce the object extraction step (3) for each extracted object object 3-dimensional shape information to be extracted, and the in a virtual three-dimensional space indicating the reproduction object region It reproduced image transmitting step of returning the reproduced image generating step (4) generated reproduced image to generate a reproduced image obtained by placing the physical objects indicating the object on the location of the body to the user portable terminal.

本願発明に係るプログラムは、
物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベースを有し、利用者携帯端末とネットワークを介して接続する景観再現サーバとなるコンピュータに、以下の手順を実行させるためのプログラム
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信手順
(2)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出手順
(3)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成手順
(4)生成した再現画像を利用者携帯端末に返信する再現画像送信手順。

The program according to the present invention is:
An object three-dimensional shape information database for storing object three-dimensional shape information indicating a three-dimensional shape of an object in association with an existence period indicating a period in which the object exists and a location indicating a position where the object exists , A program for causing a computer to be a landscape reproduction server connected to a user portable terminal via a network to execute the following procedure: (1) Reproduction that receives a reproduction image request including a current time, a viewpoint, and a gaze direction Image request reception procedure (2) Object three-dimensional shape information of an object including the re-present time of a reproduction image request in the existence period and including the location in a reproduction object region set based on the viewpoint and the line-of-sight direction extraction reproducibility object extraction procedure (3) for each extracted object object 3-dimensional shape information of that, the location of the object in a virtual three-dimensional space indicating the reproduction object region Reproduced image transmission procedure that returns a reproduction image reproduced image generation procedure (4) was produced to generate a reproduced image obtained by placing the physical objects indicating the object to the user portable terminal.

物体の3次元形状情報を有効期間(存在期間)と対応付けて記憶し、指定された再現時点に存在した物体の3次元形状を復元し、指定された視点と視線方位での再現画像を生成するので、任意の時間と場所における景観を自在に再現することができる。   Stores the 3D shape information of an object in association with the effective period (existing period), restores the 3D shape of the object that existed at the specified re-current time, and generates a reproduction image at the specified viewpoint and line of sight Therefore, the scenery at any time and place can be freely reproduced.

更に、地形の3次元形状情報を有効期間と対応付けて記憶し、指定された再現時点の地形を復元し、指定された視点と視線方位での再現画像を生成するので、地形を含めた景観を再現することができる。特に、物体の高低まで正確に再現することができる。   Furthermore, the 3D shape information of the terrain is stored in association with the effective period, the specified recurrent terrain is restored, and a reproduction image with the specified viewpoint and line of sight is generated. Can be reproduced. In particular, it is possible to accurately reproduce the height of an object.

再現する領域内の物体及び地形の3次元形状のみを抽出するので、処理時間が短縮される。   Since only the three-dimensional shape of the object and the terrain within the region to be reproduced is extracted, the processing time is shortened.

利用者携帯端末の本体回転数や本体回転角を再現時点の指定に用いるので、体感的なユーザインターフェースを実現することができる。   Since the main body rotation speed and main body rotation angle of the user portable terminal are used again for the current designation, a sensible user interface can be realized.

図1は、景観再現システムのネットワーク概要を示す図である。FIG. 1 is a diagram showing a network overview of a landscape reproduction system. 図2は、利用者携帯端末のハードウェア構成を示す図である。FIG. 2 is a diagram illustrating a hardware configuration of the user portable terminal. 図3は、利用者携帯端末のメイン処理フローを示す図である。FIG. 3 is a diagram showing a main processing flow of the user portable terminal. 図4は、利用者携帯端末のモジュール構成を示す図である。FIG. 4 is a diagram illustrating a module configuration of the user portable terminal. 図5は、再現方向指示受付画面の例を示す図である。FIG. 5 is a diagram illustrating an example of a reproduction direction instruction acceptance screen. 図6は、再現時点受付画面の例を示す図である。FIG. 6 is a diagram illustrating an example of the re-current reception screen. 図7は、景観再現サーバのメイン処理フローを示す図である。FIG. 7 is a diagram illustrating a main processing flow of the landscape reproduction server. 図8は、景観再現サーバのモジュール構成を示す図である。FIG. 8 is a diagram illustrating a module configuration of the landscape reproduction server. 図9は、再現地形抽出処理フローを示す図である。FIG. 9 is a diagram showing a reproduction terrain extraction process flow. 図10は、再現領域の概要を示す図である。FIG. 10 is a diagram showing an outline of the reproduction area. 図11は、再現物体抽出処理フローを示す図である。FIG. 11 is a diagram showing a reproduction object extraction process flow. 図12は、2次元投射画像生成処理フローを示す図である。FIG. 12 is a diagram showing a two-dimensional projection image generation processing flow. 図13は、2次元投射画像生成部の構成を示す図である。FIG. 13 is a diagram illustrating a configuration of the two-dimensional projection image generation unit. 図14は、実施の形態2に係る再現地形抽出処理フローを示す図である。FIG. 14 is a diagram illustrating a reproduction terrain extraction process flow according to the second embodiment. 図15は、実施の形態3に係る再現物体抽出処理フローを示す図である。FIG. 15 is a diagram illustrating a reproduction object extraction processing flow according to the third embodiment. 図16は、実施の形態4に係る景観再現サーバのメイン処理フローを示す図である。FIG. 16 is a diagram illustrating a main processing flow of the landscape reproduction server according to the fourth embodiment. 図17は、実施の形態4に係る2次元投射画像生成処理フローを示す図である。FIG. 17 is a diagram showing a two-dimensional projection image generation processing flow according to the fourth embodiment. 図18は、実施の形態4に係る再現画像の例を示す図である。FIG. 18 is a diagram illustrating an example of a reproduced image according to the fourth embodiment.

本願発明に係る景観再現システムでは、利用者が指定した再現時点における景観を再現する。   In the landscape reproduction system according to the present invention, the landscape at the re-current time designated by the user is reproduced.

実施の形態1.
図1は、景観再現システムのネットワーク概要を示す図である。利用者携帯端末102は、インターネットと携帯電話網を介して景観再現サーバ101にアクセスすることができる。また、利用者携帯端末102は、景観再現サーバ101から受信した画面を表示し、その画面上での操作結果を返信できるブラウザを有している。
Embodiment 1 FIG.
FIG. 1 is a diagram showing a network overview of a landscape reproduction system. The user portable terminal 102 can access the landscape reproduction server 101 via the Internet and a cellular phone network. In addition, the user portable terminal 102 has a browser that can display the screen received from the landscape reproduction server 101 and return the operation result on the screen.

全体の動作概要として、利用者携帯端末102は、再現する景観と時点を特定して、再現画像要求を景観再現サーバ101に送信する。景観再現サーバ101は、再現画像要求を受信すると、その要求に従って景観の画像を再現して返信する。利用者携帯端末102は、返信された再現画像を表示する。   As the overall operation overview, the user portable terminal 102 specifies a scene to be reproduced and a point in time, and transmits a reproduction image request to the scene reproduction server 101. When the landscape reproduction server 101 receives the reproduction image request, the landscape reproduction server 101 reproduces the landscape image according to the request and sends it back. The user portable terminal 102 displays the returned reproduced image.

まず、利用者携帯端末102について説明する。利用者携帯端末102は、例えば携帯電話、携帯情報端末(PDA)、携帯型ノートブックパソコンなどである。図2は、利用者携帯端末のハードウェア構成を示す図である。利用者携帯端末102は、バスを介してメモリ201、演算装置202、無線通信デバイス203、カメラ204、位置検出デバイス205、方位検出デバイス206、及び表示装置207を接続している。   First, the user portable terminal 102 will be described. The user portable terminal 102 is, for example, a mobile phone, a personal digital assistant (PDA), a portable notebook personal computer, or the like. FIG. 2 is a diagram illustrating a hardware configuration of the user portable terminal. The user portable terminal 102 is connected to a memory 201, a computing device 202, a wireless communication device 203, a camera 204, a position detection device 205, an orientation detection device 206, and a display device 207 via a bus.

メモリ201は、プログラムをロードする他、各パラメータ、画像データ、仮想3次元空間データ、及び再現画像等を記憶するために用いられる。演算装置202は、ロードされたプログラムを順次読み出し実行する。無線通信デバイス203は、携帯電話網に接続する際の無線通信に用いられる。カメラ204は、撮像に用いる。位置検出デバイス205は、GPS(全地球測位システム)あるいはPHSの位置特定システムなどにより、利用者携帯端末102の位置(緯度・経度)を特定する。方位検出デバイス206は、利用者携帯端末102の向きを方位として求めるために用いる。通常は、利用者携帯端末102の向きは、カメラ204の撮像方位と一致する。一致しない場合には、利用者携帯端末102の向きに対するカメラ204の撮像方位の角度差を加減算することにより、利用者携帯端末102の向きに基づいてカメラ204の撮像方位を算出することができる。表示装置207は、撮像画像、操作画面、又はブラウザ等を表示するために用いる。   The memory 201 is used for loading each program, storing each parameter, image data, virtual three-dimensional space data, reproduced image, and the like. The arithmetic device 202 sequentially reads and executes the loaded programs. The wireless communication device 203 is used for wireless communication when connecting to a mobile phone network. The camera 204 is used for imaging. The position detection device 205 specifies the position (latitude / longitude) of the user portable terminal 102 by using a GPS (Global Positioning System) or a PHS position specifying system. The direction detection device 206 is used to obtain the direction of the user portable terminal 102 as the direction. Usually, the orientation of the user portable terminal 102 matches the imaging orientation of the camera 204. If they do not match, the imaging orientation of the camera 204 can be calculated based on the orientation of the user portable terminal 102 by adding or subtracting the angle difference of the imaging orientation of the camera 204 with respect to the orientation of the user portable terminal 102. The display device 207 is used to display a captured image, an operation screen, a browser, or the like.

続いて、利用者携帯端末102の処理概要について説明する。図3は、利用者携帯端末のメイン処理フローを示す図である。撮像表示起動処理(S301)で、撮影画像表示状態にする。再現方向指示受付処理(S302)で、再現方向の指示を受け付ける。方位取得処理(S303)で、方位検出デバイス206を用いて方位を検出し、撮像方位を得る。位置取得処理(S304)で、位置検出デバイス205を用いて現在位置を検出する。これらの方位取得処理(S303)と位置取得処理(S304)は、再現方向指示受付処理(S302)の直後に行われることが望ましい。これにより、指示時の利用者携帯端末102の状態における方位と位置を正確に検出することができる。撮像表示停止処理(S305)で、撮影画像表示状態を解除する。再現時点受付処理(S306)で、再現時点を受け付ける。再現画像要求送信処理(S307)で、再現画像要求を景観再現サーバ101に送信し、再現画像受信処理(S308)で、景観再現サーバ101から返信される再現画像を受信する。再現画像表示処理(S309)で、受信した再現画像を表示装置207に表示させる。   Next, an outline of processing of the user portable terminal 102 will be described. FIG. 3 is a diagram showing a main processing flow of the user portable terminal. In the imaging display activation process (S301), the captured image display state is set. In the reproduction direction instruction receiving process (S302), an instruction for the reproduction direction is received. In the azimuth acquisition process (S303), the azimuth detection device 206 is used to detect the azimuth and obtain the imaging azimuth. In the position acquisition process (S304), the current position is detected using the position detection device 205. These azimuth acquisition processing (S303) and position acquisition processing (S304) are preferably performed immediately after the reproduction direction instruction reception processing (S302). Thereby, the azimuth | direction and position in the state of the user portable terminal 102 at the time of instruction | indication can be detected correctly. In the imaging display stop process (S305), the captured image display state is canceled. In the re-current time reception process (S306), the re-current time is received. A reproduction image request is transmitted to the landscape reproduction server 101 in the reproduction image request transmission process (S307), and a reproduction image returned from the landscape reproduction server 101 is received in the reproduction image reception process (S308). In the reproduction image display process (S309), the received reproduction image is displayed on the display device 207.

データフローに従って各処理について詳述する。図4は、利用者携帯端末のモジュール構成を示す図である。利用者携帯端末102は、撮像表示指示部401、撮像制御部402、表示制御部403、再現方向指示受付部404、方位取得部405、位置取得部406、再現時点受付部407、再現画像要求送信部408、再現画像受信部409、及び再現画像表示部410の各モジュールを有している。   Each process will be described in detail according to the data flow. FIG. 4 is a diagram illustrating a module configuration of the user portable terminal. The user portable terminal 102 includes an imaging display instruction unit 401, an imaging control unit 402, a display control unit 403, a reproduction direction instruction reception unit 404, an orientation acquisition unit 405, a position acquisition unit 406, a recurrent time reception unit 407, and a reproduction image request transmission. A module 408, a reproduced image receiving unit 409, and a reproduced image display unit 410.

撮像表示指示部401は、撮像表示起動処理(S301)で、撮像制御部402に対して撮像動作を起動させるコマンドを発行し、更に表示制御部403に対して撮影画像を表示させるコマンドを発行する。これにより、表示制御部403は、撮像制御部402から連続的に撮影画像を取得する。   In the imaging display activation process (S301), the imaging display instruction unit 401 issues a command for starting the imaging operation to the imaging control unit 402, and further issues a command for displaying a captured image to the display control unit 403. . Accordingly, the display control unit 403 continuously acquires captured images from the imaging control unit 402.

再現方向指示受付部404は、再現方向指示受付処理(S302)で、再現方向指示受付画面を表示し、再現方向指示を受け付ける。なお、再現方向指示は、当該指示を行った時の方向と位置を、再現画像の領域を決定する基準とすることを意味している。例えば、利用者携帯端末102の実行ボタンを押下することにより指示する。   The reproduction direction instruction reception unit 404 displays a reproduction direction instruction reception screen and receives a reproduction direction instruction in the reproduction direction instruction reception process (S302). The reproduction direction instruction means that the direction and position when the instruction is given is used as a reference for determining the area of the reproduction image. For example, an instruction is given by pressing an execution button of the user portable terminal 102.

図5は、再現方向指示受付画面の例を示す図である。バック501には、撮影画像が表示される。これにより、利用者は再現画像の方位や位置関係を把握することができる。   FIG. 5 is a diagram illustrating an example of a reproduction direction instruction acceptance screen. A photographed image is displayed on the back 501. Thereby, the user can grasp | ascertain the azimuth | direction and positional relationship of a reproduction image.

方位取得部405は、方位取得処理(S303)で、方位検出デバイス206を用いて利用者携帯端末102の向きを方位として検出する。通常は、利用者携帯端末102の向きは、カメラ204の撮像方位と一致するので、検出した方位を撮像方位とする。一致しない場合には、利用者携帯端末102の向きに対するカメラ204の設置方位の角度差により、利用者携帯端末102の向きを補正して撮像方位を算出する。   The direction acquisition unit 405 detects the direction of the user portable terminal 102 as the direction using the direction detection device 206 in the direction acquisition process (S303). Normally, since the orientation of the user portable terminal 102 matches the imaging orientation of the camera 204, the detected orientation is set as the imaging orientation. If they do not match, the imaging orientation is calculated by correcting the orientation of the user portable terminal 102 based on the angular difference of the installation orientation of the camera 204 with respect to the orientation of the user portable terminal 102.

位置取得部406は、位置取得処理(S304)で、位置検出デバイス205を用いて利用者携帯端末102の現在位置(緯度・経度)を取得する。   In the position acquisition process (S304), the position acquisition unit 406 acquires the current position (latitude / longitude) of the user portable terminal 102 using the position detection device 205.

撮像表示指示部401は、撮像表示停止処理(S305)で、撮像制御部402に対して撮像動作を停止させるコマンドを発行し、更に表示制御部403に対して撮像画像の表示を停止させるコマンドを発行する。これにより撮影画像表示状態が解除される。   In the imaging display stop process (S305), the imaging display instruction unit 401 issues a command to stop the imaging operation to the imaging control unit 402, and further issues a command to stop the display of the captured image to the display control unit 403. Issue. This cancels the captured image display state.

再現時点受付部407は、再現時点受付処理(S306)で、再現時点受付画面を表示し、再現時点を受け付ける。図6は、再現時点受付画面の例を示す図である。例えば、テンキーより数字入力を受け付ける。スクロールやプルダウンにより年、月、日を選択するように構成することもできる。   The re-current time reception unit 407 displays a re-current time reception screen in the re-current time reception processing (S306) and receives the re-current time. FIG. 6 is a diagram illustrating an example of the re-current reception screen. For example, numeric input is accepted from a numeric keypad. It can also be configured to select the year, month, and day by scrolling or pull-down.

再現画像要求送信部408は、再現画像要求送信処理(S307)で、再現時点と視点と視線方位を含む再現画像要求を生成し、その再現画像要求を景観再現サーバ101へ送信する。その際、再現時点受付部407で受け付けた再現時間の他に、位置取得部406で取得した現在位置を視点位置(緯度・経度)として、方位取得部405で取得した撮像方位を視線方位として、再現画像要求に含める。   The reproduction image request transmission unit 408 generates a reproduction image request including the re-current time, the viewpoint, and the line-of-sight direction in the reproduction image request transmission process (S307), and transmits the reproduction image request to the landscape reproduction server 101. At that time, in addition to the reproduction time received by the re-current reception unit 407, the current position acquired by the position acquisition unit 406 is used as the viewpoint position (latitude / longitude), and the imaging direction acquired by the direction acquisition unit 405 is used as the line-of-sight direction. Include in replay image request.

再現画像受信処理(S308)と再現画像表示処理(S309)については、後述する。   The reproduced image reception process (S308) and the reproduced image display process (S309) will be described later.

次に、景観再現サーバ101の動作について説明する。図7は、景観再現サーバのメイン処理フローを示す図である。再現画像要求受信処理(S701)で、再現画像要求を受信する。再現地形抽出処理(S702)で、再現する地形3次元形状情報を抽出し、再現物体抽出処理(S703)で、再現する物体3次元形状情報を抽出する。2次元投射画像生成処理(S704)で、再現する地形3次元形状情報と物体物体3次元形状情報から2次元投射画像を生成し、再現画像送信処理(S705)で、生成した2次元投射画像を再現画像として、利用者携帯端末102に返信する。   Next, the operation of the landscape reproduction server 101 will be described. FIG. 7 is a diagram illustrating a main processing flow of the landscape reproduction server. In reproduction image request reception processing (S701), a reproduction image request is received. In the reproduction terrain extraction process (S702), the three-dimensional shape information to be reproduced is extracted, and in the reproduction object extraction process (S703), the three-dimensional shape information to be reproduced is extracted. In the two-dimensional projection image generation process (S704), a two-dimensional projection image is generated from the three-dimensional shape information to be reproduced and the three-dimensional shape information of the object, and the two-dimensional projection image generated in the reproduction image transmission process (S705). It returns to the user portable terminal 102 as a reproduction image.

データフローに従って、各処理について詳述する。図8は、景観再現サーバのモジュール構成を示す図である。景観再現サーバ101は、再現画像要求受信部801、再現画像要求記憶部802、地形3次元形状情報データベース803、再現地形抽出部804、再現地形3次元形状情報記憶部805、物体3次元形状情報データベース806、再現物体抽出部807、再現物体3次元形状情報記憶部808、2次元投射画像生成部809、再現画像記憶部810、及び再現画像送信部811の各モジュールを有している。   Each process will be described in detail according to the data flow. FIG. 8 is a diagram illustrating a module configuration of the landscape reproduction server. The landscape reproduction server 101 includes a reproduction image request receiving unit 801, a reproduction image request storage unit 802, a terrain three-dimensional shape information database 803, a reproduction terrain extraction unit 804, a reproduction terrain three-dimensional shape information storage unit 805, and an object three-dimensional shape information database. 806, a reproduced object extraction unit 807, a reproduced object three-dimensional shape information storage unit 808, a two-dimensional projection image generation unit 809, a reproduction image storage unit 810, and a reproduction image transmission unit 811.

地形3次元形状情報データベース803は、地形情報単位毎に有効期間と地形範囲に対応付けて、地形3次元形状情報を記憶している。地形情報単位は、国土全体の地形情報を分割して管理する単位である。例えば、所定サイズの地形地図に相当する単位である。有効期間は、その地形情報の有効な時期的な範囲である。この有効期間中は、その地形が維持されていたことを示している。地形範囲は、その地形情報単位で表される地理的な範囲である。例えば、矩形の緯度範囲と経度範囲で示される。地形3次元形状情報は、地形(つまり、地表面)を3次元空間に復元可能な情報である。例えば、地表面全体の多数の地点における緯度、経度、標高の3次元情報を有している。あるいは、メッシュ上に連続するベクトルにより地表面を表すベクトル情報群を有している。   The terrain 3D shape information database 803 stores terrain 3D shape information in association with the effective period and the terrain range for each terrain information unit. The terrain information unit is a unit for dividing and managing the terrain information of the entire country. For example, a unit corresponding to a terrain map of a predetermined size. The effective period is a valid time range of the topographic information. This indicates that the terrain was maintained during this validity period. The terrain range is a geographical range represented by the terrain information unit. For example, it is indicated by a rectangular latitude range and longitude range. The topographic three-dimensional shape information is information that can restore the topography (that is, the ground surface) to a three-dimensional space. For example, it has three-dimensional information of latitude, longitude, and altitude at many points on the entire ground surface. Or it has the vector information group which represents the ground surface by the vector which continues on a mesh.

物体3次元形状情報データベース806は、物体毎に有効期間と所在地に対応付けて、物体3次元形状情報を記憶している。物体には、例えばビル、家屋、倉庫、橋梁やダムなどの建築物の他、恐竜や動物などの生物なども含まれる。有効期間は、その物体が有効な時期的な範囲である。この有効期間中は、その物体が存在していたことを示している。つまり、存在期間ということもできる。所在地は、物体が存在した位置(緯度・経度)である。物体3次元形状情報は、物体の形態(少なくとも外形)を3次元空間に復元可能な情報である。例えば、物体の設計図面情報や生体情報を有し、あるいは境界面を定義するベクトル情報を有している。また、物体3次元形状情報は、方位も定義されている。なお、前記物体が(所在地を一意に特定することが困難である)生物である場合に、当該所在地は当該生物の生息域内における任意の地点を予め設定するように構成されてもよい。   The object three-dimensional shape information database 806 stores object three-dimensional shape information in association with an effective period and a location for each object. Objects include, for example, buildings, houses, warehouses, buildings such as bridges and dams, and creatures such as dinosaurs and animals. The effective period is a time range in which the object is effective. It indicates that the object was present during this effective period. In other words, it can also be called the existence period. The location is the position (latitude / longitude) where the object exists. The object three-dimensional shape information is information that can restore the form (at least the outer shape) of the object to a three-dimensional space. For example, it has design drawing information and biological information of an object, or vector information that defines a boundary surface. In the object three-dimensional shape information, the direction is also defined. When the object is an organism (it is difficult to uniquely identify the location), the location may be configured to set an arbitrary point in the habitat of the organism in advance.

再現画像要求受信部801は、再現画像要求受信処理(S701)で、再現時点と視点と視線方位を含む再現画像要求を受信し、受信した再現画像要求を再現画像要求記憶部802に記憶させる。   The reproduced image request receiving unit 801 receives a reproduced image request including the recurrent time, the viewpoint, and the line-of-sight direction in the reproduced image request receiving process (S701), and stores the received reproduced image request in the reproduced image request storage unit 802.

再現地形抽出部804は、再現地形抽出処理(S702)で、地形3次元形状情報データベース803から再現に必要な地形情報を抽出する。図9は、再現地形抽出処理フローを示す図である。まず、再現地形領域を設定する(S901)。再現地形領域は、仮想の3次元空間に展開する地形の地理範囲である。   The reproduced terrain extraction unit 804 extracts terrain information necessary for reproduction from the terrain three-dimensional shape information database 803 in the reproduced terrain extraction process (S702). FIG. 9 is a diagram showing a reproduction terrain extraction process flow. First, a reproduction terrain area is set (S901). The reproduced terrain region is a geographical range of terrain developed in a virtual three-dimensional space.

再現地形領域について、平面図を用いて説明する。図10は、再現領域の概要を示す図である。1001は、視点を示している。1002は、視線方位を示している。1003と1004は、視野境界線である。視野境界線は、視野方位から視野角θだけ両側に開いた線である。1005は、再現地形領域の視点寄りの境界線(手前境界線)である。この例では、視点1001から所定近距離の曲線である。1007は、再現地形領域の視点と反対側の境界線(遠方境界線)である。この例では、視点1001から所定遠距離の曲線である。再現地形領域は、これらの右方視界境界線1003と左方視界境界線1004と再現地形領域の手前境界線1005と再現地形領域の遠方境界線1007により囲まれた領域である。従って、1014の丘陵は再現地形領域に含まれるが、1013の丘陵は含まれない。尚、1008〜1012は、物体を示している。1013と1014は、丘陵を示している。   The reproduced landform area will be described using a plan view. FIG. 10 is a diagram showing an outline of the reproduction area. Reference numeral 1001 denotes a viewpoint. Reference numeral 1002 denotes a viewing direction. Reference numerals 1003 and 1004 denote visual field boundary lines. The visual field boundary line is a line opened on both sides by the visual field angle θ from the visual field orientation. Reference numeral 1005 denotes a boundary line (front boundary line) closer to the viewpoint of the reproduced terrain area. In this example, the curve is a predetermined short distance from the viewpoint 1001. Reference numeral 1007 denotes a boundary line (distant boundary line) opposite to the viewpoint of the reproduced terrain area. In this example, the curve is a predetermined long distance from the viewpoint 1001. The reproduced terrain area is an area surrounded by the right visual field boundary line 1003, the left visual field boundary line 1004, the near boundary line 1005 of the reproduced terrain area, and the far boundary line 1007 of the reproduced terrain area. Accordingly, 1014 hills are included in the reconstructed terrain area, but 1013 hills are not included. Reference numerals 1008 to 1012 denote objects. Reference numerals 1013 and 1014 denote hills.

S901では、視点を中心に所定の視野角を左右に回転させることにより、右方視界境界線1003と左方視界境界線1004を求め、更に視点から所定近距離の曲線(円弧)と所定遠距離の曲線(円弧)を求めることにより、再現地形領域を定める。   In step S901, a right viewing boundary line 1003 and a left viewing boundary line 1004 are obtained by rotating a predetermined viewing angle left and right around the viewpoint, and further, a predetermined short distance curve (arc) and a predetermined long distance from the viewpoint. The terrain area to be reproduced is determined by obtaining the curve (arc).

続いて、地形情報単位毎に以下の処理を繰り返す(S902)。地形3次元形状情報データベース803から、当該地形情報単位の有効期間と地形範囲を読み込み(S903)、再現画像要求記憶部802から再現時点を読み取り、有効期間が時期として再現時点を含むかを判定する(S904)。再現時点を含まない場合には、当該地形情報単位についての処理を終了し、S907に移行する。再現時点を含む場合には、更に地形範囲の一部又は全部が再現地形領域に含まれるかを判定する(S905)。つまり、地形範囲と再現地形領域が、少なくとも一部が重複するかを判定する。再現地形領域に含まれない場合には、当該地形情報単位についての処理を終了し、S907に移行する。再現地形領域に含まれる場合には、当該地形情報単位の地形3次元形状情報を再現地形3次元形状情報として再現地形3次元形状情報記憶部805に記憶させる(S906)。すべての地形情報単位について処理した時点で終了する(S907)。なお、本実施例においては全ての地形情報を対象としているが、対象となる地形情報を利用者携帯端末の位置情報に基づいて予め限定するように構成してもよい。   Subsequently, the following processing is repeated for each terrain information unit (S902). The effective period and terrain range of the terrain information unit are read from the terrain three-dimensional shape information database 803 (S903), the re-current time is read from the reproduction image request storage unit 802, and it is determined whether the effective period includes the re-current time as the time. (S904). If the current time is not included, the processing for the terrain information unit is terminated, and the process proceeds to S907. When the recurrent time is included, it is further determined whether a part or all of the terrain range is included in the reproduced terrain region (S905). That is, it is determined whether at least a part of the terrain range and the reproduced terrain region overlap. If it is not included in the reproduced terrain area, the processing for the terrain information unit is terminated, and the process proceeds to S907. If it is included in the reproduced terrain area, the terrain 3D shape information of the terrain information unit is stored in the reproduced terrain 3D shape information storage unit 805 as reproduced terrain 3D shape information (S906). The process ends when all the terrain information units are processed (S907). In the present embodiment, all terrain information is targeted, but the terrain information to be targeted may be limited in advance based on the position information of the user portable terminal.

再現物体抽出部807は、再現物体抽出処理(S703)で、物体3次元形状情報データベース806から再現に必要な物体の形状情報を抽出する。   The reproduced object extraction unit 807 extracts object shape information necessary for reproduction from the object three-dimensional shape information database 806 in the reproduced object extraction process (S703).

図11は、再現物体抽出処理フローを示す図である。再現物体領域を設定する(S1101)。再現物体領域は、仮想の3次元空間に物体を展開する地理範囲である。つまり、仮想の3次元空間に展開すべき再現対象の物体を所在地で特定する所在地の範囲条件である。   FIG. 11 is a diagram showing a reproduction object extraction process flow. A reproduction object region is set (S1101). The reproduced object area is a geographical area where an object is developed in a virtual three-dimensional space. That is, it is a location range condition that specifies an object to be reproduced to be developed in a virtual three-dimensional space by location.

再現物体領域について図10を用いて説明する。1005は、再現物体領域の視点寄りの手前境界線でもある。この例では、視点1001から所定近距離の曲線である。1006は、再現物体領域の視点と反対側の遠方境界線である。この例では、視点1001から所定遠距離の曲線である。再現物体領域は、右方視界境界線1003と左方視界境界線1004と再現物体領域の手前境界線1005と再現物体領域の遠方境界線1006により囲まれた領域である。従って、1010と1011の物体は再現物体領域に含まれるが、他の物体は含まれない。この例では、再現地形領域の手前境界線と再現物体領域の手前境界線が一致するが、両手前境界線1005は、別であっても構わない。また、再現地形領域の遠方境界線1007と再現物体領域の遠方境界線1006が別であるが、両遠方境界線は、一致しても構わない。   The reproduced object area will be described with reference to FIG. Reference numeral 1005 denotes a near boundary line closer to the viewpoint of the reproduced object region. In this example, the curve is a predetermined short distance from the viewpoint 1001. Reference numeral 1006 denotes a far boundary line opposite to the viewpoint of the reproduced object region. In this example, the curve is a predetermined long distance from the viewpoint 1001. The reproduced object area is an area surrounded by the right visual field boundary line 1003, the left visual field boundary line 1004, the front boundary line 1005 of the reproduced object area, and the far boundary line 1006 of the reproduced object area. Accordingly, the objects 1010 and 1011 are included in the reproduction object region, but other objects are not included. In this example, the near boundary line of the reproduction topography area and the near boundary line of the reproduction object area coincide with each other, but the both boundary lines 1005 may be different. Further, although the far boundary line 1007 of the reproduction topography region and the far boundary line 1006 of the reproduction object region are different, the far boundary lines may be coincident.

そして、物体毎に以下の処理を繰り返す(S1102)。物体3次元形状情報データベース806から、当該物体の有効期間と所在地を読み込み(S1103)、再現画像要求記憶部802から再現時点を読み取り、有効期間が時期として再現時点を含むかを判定する(S1104)。再現時点を含まない場合には、当該物体についての処理を終了し、S1107に移行する。再現時点を含む場合には、更に所在地が再現物体領域に含まれるかを判定する(S1105)。再現物体領域に含まれない場合は、当該物体についての処理を終了し、S1107に移行する。再現物体領域に含まれる場合には、当該物体の物体3次元形状情報を再現物体3次元形状情報として、所在地と対応付けて再現物体3次元形状情報記憶部808に記憶させる(S1106)。すべての物体について処理した時点で終了する(S1107)。なお、本実施例においては全ての物体を対象としているが、対象となる物体を利用者携帯端末の位置情報に基づいて予め限定するように構成してもよい。   Then, the following processing is repeated for each object (S1102). The effective period and location of the object are read from the object three-dimensional shape information database 806 (S1103), the re-current time is read from the reproduction image request storage unit 802, and it is determined whether the effective period includes the re-current time (S1104). . If the current time is not included, the process for the object is terminated, and the process proceeds to S1107. If the recurrent time is included, it is further determined whether the location is included in the reproduced object area (S1105). If it is not included in the reproduced object area, the process for the object is terminated, and the process proceeds to S1107. If it is included in the reproduced object area, the object three-dimensional shape information of the object is stored in the reproduced object three-dimensional shape information storage unit 808 as reproduced object three-dimensional shape information in association with the location (S1106). The process ends when all the objects have been processed (S1107). Although all objects are targeted in the present embodiment, the object to be targeted may be limited in advance based on the position information of the user portable terminal.

2次元投射画像生成部809は、2次元投射画像生成処理(S704)で、再現地形3次元形状情報記憶部805と再現物体3次元形状情報記憶部808の情報に基づいて、再現画像となる2次元投射画像を生成する。この処理は、3次元コンピュータグラフィックスの手法による行われる。つまり、仮想の3次元空間上の形状情報から、それらを平面上に投射した2次元画像を生成する。仮想の3次元空間は、2次元投射画像生成部809内の記憶領域を用いて論理的に構成される。   The two-dimensional projection image generation unit 809 is a two-dimensional projection image generation process (S704), and becomes a reproduction image based on information in the reproduction landform three-dimensional shape information storage unit 805 and reproduction object three-dimensional shape information storage unit 808. A three-dimensional projection image is generated. This process is performed by a three-dimensional computer graphics technique. That is, a two-dimensional image obtained by projecting them on a plane is generated from shape information in a virtual three-dimensional space. The virtual three-dimensional space is logically configured using a storage area in the two-dimensional projection image generation unit 809.

図12は、2次元投射画像生成処理フローを示す図である。また、図13は、2次元投射画像生成部の構成を示す図である。地形モデリング部1301の地形モデリング処理(S1201)で、仮想の3次元空間に地表面の形状を生成する。再現地形3次元形状情に含まれる各地点の緯度・経度・標高から地上面をポリゴンの集合で定義する。ポリゴンは、三角形や四角形といった多角形であり、連続するポリゴンにより地表面を表現する。ポリゴンによらず、自由曲面によって面を定義することも有効である。形状を定義する他、材質、色、反射率など所定の設定値を設定する。このように、仮想の3次元空間に生成された地表面の形状を地形オブジェクト(地形モデル)という。地形オブジェクトは、地形オブジェクト記憶部1302に記憶される。   FIG. 12 is a diagram showing a two-dimensional projection image generation processing flow. FIG. 13 is a diagram illustrating a configuration of a two-dimensional projection image generation unit. In the terrain modeling process (S1201) of the terrain modeling unit 1301, the shape of the ground surface is generated in a virtual three-dimensional space. The ground surface is defined by a set of polygons based on the latitude, longitude, and altitude of each point included in the reproduced terrain 3D shape information. The polygon is a polygon such as a triangle or a quadrangle, and the ground surface is expressed by a continuous polygon. It is also effective to define a surface by a free-form surface regardless of the polygon. In addition to defining the shape, predetermined set values such as material, color, and reflectance are set. Thus, the shape of the ground surface generated in the virtual three-dimensional space is called a terrain object (terrain model). The terrain object is stored in the terrain object storage unit 1302.

次に、物体モデリング部1303の物体モデリング処理(S1202)で、仮想の3次元空間に物体の形状を生成する。再現物体3次元形状情に含まれる物体の設計図面情報、生体情報、や境界面を定義するベクトル情報などに基づいて、物体表面をポリゴンの集合で定義する。ポリゴンは、三角形や四角形といった多角形であり、連続するポリゴンにより物体表面を表現する。ポリゴンによらず、自由曲面によって面を定義することも有効である。形状の定義の他、材質、色、反射率など所定の設定値を設定する。このように、仮想の3次元空間に生成された物体表面の形状を物体オブジェクト(物体モデル)という。物体オブジェクトは、物体オブジェクト記憶部1304に記憶される。   Next, an object modeling process (S1202) of the object modeling unit 1303 generates an object shape in a virtual three-dimensional space. The object surface is defined as a set of polygons based on the design drawing information of the object included in the reproduced object three-dimensional shape information, biological information, vector information defining the boundary surface, and the like. The polygon is a polygon such as a triangle or a quadrangle, and the object surface is expressed by a continuous polygon. It is also effective to define a surface by a free-form surface regardless of the polygon. In addition to the shape definition, predetermined setting values such as material, color, and reflectance are set. Thus, the shape of the object surface generated in the virtual three-dimensional space is referred to as an object object (object model). The object object is stored in the object object storage unit 1304.

次に、シーンレイアウト設定部1305のシーンレイアウト設定処理(S1203)で、生成したオブジェクト群のレイアウト(配置)を行う。レイアウトは、緯度・経度・標高の絶対的位置と方位を基準とする。地形オブジェクト記憶部1302から地形オブジェクトを読み込み、物体オブジェクト記憶部1304から読み込んだ各物体オブジェクトの所在地に相当する地点の地形オブジェクトの地表面に、当該物体オブジェクトを、方位を合わせて配置することにより、地形オブジェクトと物体オブジェクトを合成する。更に、所定の位置に光源を設定し、視点の地表面から所定高さ分上の位置にカメラ(仮想カメラ)を設定する。例えば、視点(緯度・経度)の地表面(標高)から150cm程度(人の目の高さに相当)上方にカメラ位置を定める。また、視線方位の略水平方向にカメラの撮影方向を設定する。光源は、例えば太陽の位置に相当するように設定する。この手順により、仮想的な舞台となるシーン情報を得る。生成したシーンは、シーン記憶部1306に記憶される。   Next, in the scene layout setting process (S1203) of the scene layout setting unit 1305, the generated object group is laid out (arranged). The layout is based on the absolute position and orientation of latitude, longitude, and altitude. By reading the terrain object from the terrain object storage unit 1302 and arranging the object object on the ground surface of the terrain object at the location corresponding to the location of each object object read from the object object storage unit 1304, the orientation is aligned, Combining terrain objects and object objects. Furthermore, a light source is set at a predetermined position, and a camera (virtual camera) is set at a position a predetermined height above the ground surface of the viewpoint. For example, the camera position is determined approximately 150 cm (corresponding to the height of the human eye) from the ground surface (elevation) of the viewpoint (latitude / longitude). In addition, the shooting direction of the camera is set substantially in the horizontal direction of the line-of-sight direction. The light source is set so as to correspond to the position of the sun, for example. By this procedure, scene information that is a virtual stage is obtained. The generated scene is stored in the scene storage unit 1306.

レンダリング部1307のレンダリング処理(S1204)で、シーン記憶部1306からシーンを読み出して、仮想的なカメラに写されるはずの画像を生成する。つまり、オブジェクトの形状や位置、光の当り具合などについて周知手段により計算し、最終的な2次元への投射画像を生成する。2次元投射画像は、再現画像として再現画像記憶部810に記憶される。   In the rendering process (S1204) of the rendering unit 1307, the scene is read from the scene storage unit 1306, and an image that should be copied to the virtual camera is generated. That is, the shape and position of the object, the degree of light hitting, and the like are calculated by known means, and a final two-dimensional projection image is generated. The two-dimensional projection image is stored in the reproduction image storage unit 810 as a reproduction image.

最後に再現画像送信部811は、再現画像送信処理(S705)で、生成した再現画像を再現画像記憶部810から読み出して、利用者携帯端末102に送信する。   Finally, the reproduction image transmission unit 811 reads out the generated reproduction image from the reproduction image storage unit 810 and transmits it to the user portable terminal 102 in the reproduction image transmission process (S705).

そして、利用者携帯端末102側では、図4の再現画像受信部409が、再現画像受信処理(S308)で、再現画像を受信し、再現画像表示部410が、再現画像表示処理(S309)で、受信した再現画像を表示装置207に表示させる。   On the user portable terminal 102 side, the reproduced image receiving unit 409 in FIG. 4 receives the reproduced image in the reproduced image receiving process (S308), and the reproduced image display unit 410 in the reproduced image display process (S309). The received reproduced image is displayed on the display device 207.

実施の形態2.
実施の形態1では、再現地形抽出処理において、再現地形領域の判定を行ったが、再現地形領域の判定を省略することもできる。
Embodiment 2. FIG.
In the first embodiment, the reproduced terrain area is determined in the reproduced terrain extraction process, but the determination of the reproduced terrain area may be omitted.

図14は、実施の形態2に係る再現地形抽出処理フローを示す図である。この例では、図9のS901での再現地形領域の設定と、S905での地形範囲が再現地形領域を含むかの判定を行なわない。また、S903に相当するS1402で地形3次元形状情報データベース803から地形範囲を読み取ることも要しない。   FIG. 14 is a diagram illustrating a reproduction terrain extraction process flow according to the second embodiment. In this example, the setting of the reproduced terrain area in S901 in FIG. 9 and the determination of whether the terrain area in S905 includes the reproduced terrain area are not performed. Further, it is not necessary to read the terrain range from the terrain three-dimensional shape information database 803 in S1402 corresponding to S903.

例えば、3次元空間として再現できる対象地形自体が狭い場合には、地形を展開する領域を限定する効果は小さい。   For example, when the target terrain itself that can be reproduced as a three-dimensional space is narrow, the effect of limiting the region where the terrain is developed is small.

実施の形態3.
実施の形態1では、再現物体抽出処理において、再現物体領域の判定を行ったが、再現物体領域の判定を省略することもできる。
Embodiment 3 FIG.
In the first embodiment, the reproduction object area is determined in the reproduction object extraction process. However, the determination of the reproduction object area may be omitted.

図15は、実施の形態3に係る再現物体抽出処理フローを示す図である。この例では、図11のS1101での再現物体領域の設定と、S1105での所在地が再現物体領域を含むかの判定を行なわない。   FIG. 15 is a diagram illustrating a reproduction object extraction processing flow according to the third embodiment. In this example, the setting of the reproduced object area in S1101 of FIG. 11 and the determination of whether the location in S1105 includes the reproduced object area are not performed.

例えば、3次元空間として再現できる対象物体が限られている場合には、物体を領域で限定する効果は小さい。   For example, when the target objects that can be reproduced as a three-dimensional space are limited, the effect of limiting the objects by area is small.

実施の形態4.
前述の実施の形態では、地形及び物体を再現する例を示したが、物体のみを再現し、地形は再現しない形態も考えられる。
Embodiment 4 FIG.
In the above-described embodiment, an example in which the terrain and the object are reproduced is shown. However, a form in which only the object is reproduced and the terrain is not reproduced is also conceivable.

図16は、実施の形態4に係る景観再現サーバのメイン処理フローを示す図である。この例では、図7の再現地形抽出処理(S702)を省いている。   FIG. 16 is a diagram illustrating a main processing flow of the landscape reproduction server according to the fourth embodiment. In this example, the reproduction landform extraction process (S702) of FIG. 7 is omitted.

図17は、実施の形態4に係る2次元投射画像生成処理フローを示す図である。この例では、図12の地形モデリング処理(S1201)を省いている。また、シーンレイアウト設定処理(S1702)では、物体オブジェクトを基準面(一定高さ)に配置し、仮想カメラも基準面から所定の高さの位置に設定する。   FIG. 17 is a diagram showing a two-dimensional projection image generation processing flow according to the fourth embodiment. In this example, the terrain modeling process (S1201) of FIG. 12 is omitted. In the scene layout setting process (S1702), the object is placed on the reference plane (fixed height), and the virtual camera is also set at a predetermined height from the reference plane.

図18は、実施の形態4に係る再現画像の例を示す図である。地形の起伏が少ない平坦地、例えば市街地などでは、地形を省略しても景観の再現における現実との差異は小さい。   FIG. 18 is a diagram illustrating an example of a reproduced image according to the fourth embodiment. On flat terrain where there are few terrain terrains, such as urban areas, even if the terrain is omitted, the difference from the reality in the reproduction of the landscape is small.

実施の形態5.
上述の例では、再現時点受付部407において利用者携帯端末102のテンキー等より数字入力を受け付ける例を示したが、方位検出デバイス206及び傾き検出デバイス208により利用者携帯端末102の本体回転数や本体回転角を検出し、その回転数や回転角度によって、年、月、日を指示することもできる。
Embodiment 5 FIG.
In the above example, the re-current time reception unit 407 receives a numeric input from the numeric keypad or the like of the user portable terminal 102, but the orientation detection device 206 and the inclination detection device 208 can detect the number of rotations of the main body of the user portable terminal 102. The main body rotation angle can be detected, and the year, month, and day can be indicated by the number of rotations and the rotation angle.

例えば、回転数や回転各度に所定期間(例えば10年、1年、1月、1日など)を乗ずることにより、再現する年、月、日の数を算出することが有効である。   For example, it is effective to calculate the number of years, months, and days to be reproduced by multiplying the number of rotations and each rotation by a predetermined period (for example, 10 years, 1 year, January, 1 day, etc.).

上述の例では、過去を再現時点としたが、未来を再現時点とすることも考えられる。例えば、地形の変化が予測できる場合や物体の建造計画が明確な場合には特に有効である。   In the above example, the past is set as the current time again, but the future may be set as the current time again. For example, it is particularly effective when a change in terrain can be predicted or when an object construction plan is clear.

再現時点を年月日で特定したが、年月のみ、あるいは年だけでもよい。また年号や、時代名で特定することも有効である。   The re-current time is specified by date, but only the year or year may be used. It is also effective to specify the year and name.

景観再現サーバ101と利用者携帯端末102は、コンピュータであり、各要素はプログラムにより処理を実行することができる。また、プログラムを記憶媒体に記憶させ、記憶媒体からコンピュータに読み取られるようにすることができる。   The landscape reproduction server 101 and the user portable terminal 102 are computers, and each element can execute processing by a program. Further, the program can be stored in a storage medium so that the computer can read the program from the storage medium.

101 景観再現サーバ
102 利用者携帯端末
201 メモリ
202 演算装置
203 無線通信デバイス
204 カメラ
205 位置検出デバイス
206 方位検出デバイス
207 表示装置
208 傾き検出デバイス
401 撮像表示指示部
402 撮像制御部
403 表示制御部
404 再現方向指示受付部
405 方位取得部
406 位置取得部
407 再現時点受付部
408 再現画像要求送信部
409 再現画像受信部
410 再現画像表示部
801 再現画像要求受信部
802 再現画像要求記憶部
803 地形3次元形状情報データベース
804 再現地形抽出部
805 再現地形3次元形状情報記憶部
806 物体3次元形状情報データベース
807 再現物体抽出部
808 再現物体3次元形状情報記憶部
809 2次元投射画像生成部
810 再現画像記憶部
811 再現画像送信部
1001 視点
1002 視線方位
1003 右方視界境界線
1004 左方視界境界線
1005 手前境界線
1006 再現物体領域の遠方境界線
1007 再現地形領域の遠方境界線
1008〜1012 物体
1013、1014 丘陵
1301 地形モデリング部
1302 地形オブジェクト記憶部
1303 物体モデリング部
1304 物体オブジェクト記憶部
1305 シーンレイアウト設定部
1306 シーン記憶部
1307 レンダリング部


DESCRIPTION OF SYMBOLS 101 Landscape reproduction server 102 User portable terminal 201 Memory 202 Arithmetic apparatus 203 Wireless communication device 204 Camera 205 Position detection device 206 Direction detection device 207 Display apparatus 208 Tilt detection device 401 Imaging display instruction part 402 Imaging control part 403 Display control part 404 Reproduction Direction instruction reception unit 405 Orientation acquisition unit 406 Position acquisition unit 407 Re-current time reception unit 408 Reproduction image request transmission unit 409 Reproduction image reception unit 410 Reproduction image display unit 801 Reproduction image request reception unit 802 Reproduction image request storage unit 803 Topographic three-dimensional shape Information database 804 Reproduction terrain extraction unit 805 Reproduction terrain 3D shape information storage unit 806 Object 3D shape information database 807 Reproduction object extraction unit 808 Reproduction object 3D shape information storage unit 809 2D projection image generation unit 810 Reproduction image storage unit 11 Reproduced Image Transmission Unit 1001 Viewpoint 1002 Gaze Direction 1003 Right View Boundary Line 1004 Left View Boundary Line 1005 Near Boundary Line 1006 Reproduced Object Area Far Boundary Line 1007 Reproduced Terrain Area Far Boundary Lines 1008 to 1012 Objects 1013 and 1014 Hill 1301 Terrain modeling unit 1302 Terrain object storage unit 1303 Object modeling unit 1304 Object object storage unit 1305 Scene layout setting unit 1306 Scene storage unit 1307 Rendering unit


Claims (8)

互いにネットワークを介して接続する利用者携帯端末と景観再現サーバからなる景観再現システムであって、
利用者携帯端末は、
(イ)利用者携帯端末の向きを方位として検出する方位取得部と、
(ロ)利用者携帯端末の位置を検出する位置取得部と、
(ハ)景観の再現の基準となる再現時点を受け付ける再現時点受付部と、
(ニ)検出した方位を視線方位とし、検出した位置を視点として、再現時点と、視点と、視線方位を含む再現画像要求を景観再現サーバに送信する再現画像要求送信部を有し、
景観再現サーバは、
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信部と、
(2)物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベースと、
(3)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出部と、
(4)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成部と、
(5)生成した再現画像を利用者携帯端末に返信する再現画像送信部を有し、
利用者携帯端末は、更に
(ホ)再現画像を受信する再現画像受信部と、
(へ)受信した再現画像を表示する再現画像表示部を有することを特徴とする景観再現システム。
A landscape reproduction system consisting of a user mobile terminal and a landscape reproduction server connected to each other via a network,
User mobile devices
(A) an orientation acquisition unit that detects the orientation of the user mobile terminal as the orientation;
(B) a position acquisition unit that detects the position of the user portable terminal;
(C) a re-current time reception unit that accepts a re-current time as a standard for landscape reproduction;
(D) The detected azimuth is the viewing direction, the detected position is the viewpoint, the re-current time point, and the reproduction image request transmission unit that transmits the reproduction image request including the viewpoint and the viewing direction to the landscape reproduction server,
The landscape reproduction server
(1) A re-image request receiving unit that receives a re-image request including a re-current time point, a viewpoint, and a line-of-sight direction;
(2) Object three-dimensional shape information database that stores object three-dimensional shape information indicating a three-dimensional shape of an object in association with an existence period indicating a period in which the object exists and a location indicating a position where the object exists. When,
(3) Reproduced object for extracting the object three-dimensional shape information of an object that includes the re-present time of the reconstructed image request in the existence period and the reconstructed object region set based on the viewpoint and the line-of-sight direction includes the location An extractor;
(4) for each extracted object object 3-dimensional shape information, reproduced image generation unit that generates a reproduced image obtained by placing the physical objects indicating the object location of the object in a virtual three-dimensional space indicating the reproduction object region When,
(5) having a reproduction image transmission unit that returns the generated reproduction image to the user portable terminal;
The user portable terminal further includes (e) a reproduction image receiving unit that receives the reproduction image;
(F) A landscape reproduction system having a reproduction image display unit for displaying a received reproduction image.
前記再現画像生成部は、
前記再現画像要求に含まれる視点を仮想カメラの位置として、前記再現画像要求に含まれる視線方位を仮想カメラの撮影方向として、当該仮想カメラで前記再現画像に含まれる前記物体オブジェクトを2次元に投射した2次元投射画像を生成することを特徴とする請求項1に記載の景観再現システム。
The reproduced image generation unit
Projecting the viewpoint included in the reproduced image request as the position of the virtual camera, a gaze direction included in the reproduced image request as the imaging direction of the virtual camera, the object object included in the reproduced image in the virtual camera in a two-dimensional The landscape reproduction system according to claim 1, wherein the two-dimensional projection image is generated.
景観再現サーバは、更に、
地形の3次元形状を示す地形3次元形状情報を、当該地形が維持されていた期間を示す維持期間と当該地形の地形範囲とに対応付けて記憶する地形3次元形状情報データベースと、
再現画像要求の再現時点を前記維持期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現地形領域に前記地形範囲の少なくとも一部が含まれる地形の地形3次元形状情報を抽出する再現地形抽出部を有し、
前記再現画像生成部は、抽出した地形の地形3次元形状情報に基づいて前記再現地形領域を示す仮想の3次元空間に当該地形を示す地表面の形状を生成し、前記抽出した物体3次元形状情報毎に当該生成した地形を示す地表面上に当該物体を示す物体オブジェクトを配置した再現画像を生成することを特徴とする請求項1又は2に記載の景観再現システム。
The landscape reproduction server
A terrain 3D shape information database for storing terrain 3D shape information indicating a 3D shape of the terrain in association with a maintenance period indicating a period during which the terrain was maintained and a terrain range of the terrain ;
The terrain three-dimensional shape information of the terrain including the recurrent time of the reproduction image request in the maintenance period and including at least a part of the terrain range in the reproduction terrain region set based on the viewpoint and the line-of-sight direction is extracted. Has a reproduction terrain extraction part,
The reproduction image generating unit based on the extracted topographical 3-dimensional shape information of the terrain to produce the shape of the ground surface indicating the terrain in a three-dimensional space of the virtual indicating the reproduction terrain area, the extracted object three-dimensional shape The landscape reproduction system according to claim 1 or 2, wherein a reproduction image in which an object object indicating the object is arranged on the ground surface indicating the generated terrain is generated for each piece of information.
景観再現サーバは、前記物体が生物である場合に、前記物体3次元形状情報データベースにおいて、当該生物の生息域内における任意の地点を当該物体の所在地に設定することを特徴とする請求項1及至3のいずれか一項に記載の景観再現システム。The landscape reproduction server, when the object is a living thing, sets an arbitrary point in the habitat of the living object as the location of the object in the object three-dimensional shape information database. The landscape reproduction system according to any one of the above. 前記再現時点受付部は、利用者携帯端末の本体回転数又は本体回転角に基づいて、再現時点を指定することを特徴とする請求項1乃至のいずれか一項に記載の景観再現システム。 The landscape reproduction system according to any one of claims 1 to 4 , wherein the re-current time reception unit specifies a re-current time based on a main body rotation speed or a main body rotation angle of a user portable terminal. 利用者携帯端末とネットワークを介して接続する景観再現サーバであって、以下の要素を有することを特徴とする景観再現サーバ
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信部(2)物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベース
(3)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出部
(4)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成部
(5)生成した再現画像を利用者携帯端末に返信する再現画像送信部。
A landscape reproduction server connected to a user portable terminal via a network, characterized by having the following elements: (1) Receiving a reproduction image request including the current time, viewpoint, and gaze direction (2) The object 3D shape information indicating the 3D shape of the object is stored in association with the existence period indicating the period in which the object exists and the location indicating the position where the object exists. Object three-dimensional shape information database (3) The object three-dimensional shape of an object including the re-present time of a reproduction image request in the existence period and including the location in a reproduction object region set based on the viewpoint and the line-of-sight direction reproduction object extraction unit for extracting information (4) for each extracted object object 3-dimensional shape information, the object location of the object in a virtual three-dimensional space indicating the reproduction object region Reproduced image generation unit (5) and returns the generated reproduced image in the user portable terminal reproduced image transmitting unit that generates a reproduced image obtained by placing the physical object shown.
物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベースを有し、利用者携帯端末とネットワークを介して接続する景観再現サーバによる景観再現方法であって、以下の要素を有することを特徴とする景観再現方法
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信工程
(2)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出工程
(3)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成工程
(4)生成した再現画像を利用者携帯端末に返信する再現画像送信工程。
An object three-dimensional shape information database for storing object three-dimensional shape information indicating a three-dimensional shape of an object in association with an existence period indicating a period in which the object exists and a location indicating a position where the object exists A landscape reproduction method by a landscape reproduction server connected to a user portable terminal via a network, the landscape reproduction method characterized by having the following elements: (1) Re-present, including viewpoint and gaze direction Reproduced image request receiving step of receiving a reproduced image request (2) An object including the recurrent time of the reproduced image request in the existence period and including the location in a reproduced object region set based on the viewpoint and the viewing direction the object 3-dimensional shape information to reproduce the object extraction step (3) for each extracted object object 3-dimensional shape information to be extracted, and the in a virtual three-dimensional space indicating the reproduction object region It reproduced image transmitting step of returning the reproduced image generating step (4) generated reproduced image to generate a reproduced image obtained by placing the physical objects indicating the object on the location of the body to the user portable terminal.
物体の3次元形状を示す物体3次元形状情報を、当該物体が存在した期間を示す存在期間と当該物体が存在した位置を示す所在地とに対応付けて記憶する物体3次元形状情報データベースを有し、利用者携帯端末とネットワークを介して接続する景観再現サーバとなるコンピュータに、以下の手順を実行させるためのプログラム
(1)再現時点と、視点と、視線方位を含む再現画像要求を受信する再現画像要求受信手順
(2)再現画像要求の再現時点を前記存在期間に含み、且つ前記視点及び前記視線方位に基づいて設定される再現物体領域に前記所在地が含まれる物体の物体3次元形状情報を抽出する再現物体抽出手順
(3)抽出した物体の物体3次元形状情報毎に前記再現物体領域を示す仮想の3次元空間における当該物体の所在地に当該物体を示す物体オブジェクトを配置した再現画像を生成する再現画像生成手順
(4)生成した再現画像を利用者携帯端末に返信する再現画像送信手順。
An object three-dimensional shape information database for storing object three-dimensional shape information indicating a three-dimensional shape of an object in association with an existence period indicating a period in which the object exists and a location indicating a position where the object exists , A program for causing a computer to be a landscape reproduction server connected to a user portable terminal via a network to execute the following procedure: (1) Reproduction that receives a reproduction image request including a current time, a viewpoint, and a gaze direction Image request reception procedure (2) Object three-dimensional shape information of an object including the re-present time of a reproduction image request in the existence period and including the location in a reproduction object region set based on the viewpoint and the line-of-sight direction extraction reproducibility object extraction procedure (3) for each extracted object object 3-dimensional shape information of that, the location of the object in a virtual three-dimensional space indicating the reproduction object region Reproduced image transmission procedure that returns a reproduction image reproduced image generation procedure (4) was produced to generate a reproduced image obtained by placing the physical objects indicating the object to the user portable terminal.
JP2009296977A 2009-12-28 2009-12-28 Landscape reproduction system Active JP5363971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009296977A JP5363971B2 (en) 2009-12-28 2009-12-28 Landscape reproduction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009296977A JP5363971B2 (en) 2009-12-28 2009-12-28 Landscape reproduction system

Publications (2)

Publication Number Publication Date
JP2011138258A JP2011138258A (en) 2011-07-14
JP5363971B2 true JP5363971B2 (en) 2013-12-11

Family

ID=44349648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009296977A Active JP5363971B2 (en) 2009-12-28 2009-12-28 Landscape reproduction system

Country Status (1)

Country Link
JP (1) JP5363971B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6390992B1 (en) * 2017-06-02 2018-09-19 秀敏 櫻井 Street viewer system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246319A (en) * 2012-05-25 2013-12-09 Fuji Television Network Inc Image display device and image display method
JP6665402B2 (en) * 2014-12-24 2020-03-13 凸版印刷株式会社 Content display terminal, content providing system, content providing method, and content display program
JP6614649B2 (en) * 2015-09-16 2019-12-04 国立大学法人金沢大学 Design and production system
JP6064269B2 (en) * 2015-09-28 2017-01-25 国土交通省国土技術政策総合研究所長 Information processing apparatus, information processing method, and program
JP2017215664A (en) * 2016-05-30 2017-12-07 サン電子株式会社 Terminal device
JP2018206396A (en) * 2018-06-18 2018-12-27 秀敏 櫻井 Street viewer system
JP2020098635A (en) * 2020-02-14 2020-06-25 凸版印刷株式会社 Content display terminal, method for providing content, and content display program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4187324B2 (en) * 1998-10-01 2008-11-26 松下電器産業株式会社 Car navigation system
JP2002082773A (en) * 2001-08-22 2002-03-22 Sony Corp Input device and its method
JP3877204B2 (en) * 2002-04-05 2007-02-07 松下電器産業株式会社 External image acquisition system and apparatus used therefor
JP4047061B2 (en) * 2002-05-09 2008-02-13 株式会社ゼンリン Data structure of a map database that stores multiple records in time series
JP3992629B2 (en) * 2003-02-17 2007-10-17 株式会社ソニー・コンピュータエンタテインメント Image generation system, image generation apparatus, and image generation method
JP2005147674A (en) * 2003-11-11 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Landscape recording navigation system
KR100621401B1 (en) * 2004-03-31 2006-09-08 삼성전자주식회사 Mobile communication device for searching data by using rotation degree and method thereof
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system
JP5093667B2 (en) * 2007-06-12 2012-12-12 独立行政法人情報通信研究機構 Navigation system, navigation method, and navigation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6390992B1 (en) * 2017-06-02 2018-09-19 秀敏 櫻井 Street viewer system
WO2018220856A1 (en) * 2017-06-02 2018-12-06 秀敏 櫻井 Street viewer system

Also Published As

Publication number Publication date
JP2011138258A (en) 2011-07-14

Similar Documents

Publication Publication Date Title
JP5363971B2 (en) Landscape reproduction system
US11854149B2 (en) Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US9118970B2 (en) System and method for embedding and viewing media files within a virtual and augmented reality scene
AU2011332885B2 (en) Guided navigation through geo-located panoramas
CN105046752B (en) Method for describing virtual information in the view of true environment
US8902288B1 (en) Photo-image-based 3D modeling system on a mobile device
CN102388406B (en) Portable electronic device recording is used to produce three-dimensional model
JP4963105B2 (en) Method and apparatus for storing images
TW201205499A (en) Extracting and mapping three dimensional features from geo-referenced images
Unal et al. Distant augmented reality: Bringing a new dimension to user experience using drones
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
US20220180562A1 (en) Augmented or virtual reality calibration and alignment system and method
Kasperi et al. Occlusion in outdoor augmented reality using geospatial building data
Fukuda et al. Improvement of registration accuracy of a handheld augmented reality system for urban landscape simulation
JP6665402B2 (en) Content display terminal, content providing system, content providing method, and content display program
JP5616622B2 (en) Augmented reality providing method and augmented reality providing system
JP2010231741A (en) Electronic tag generating and displaying system, electronic tag generating and displaying device, and method thereof
CN117029815A (en) Scene positioning method and related equipment based on space Internet
Střelák Augmented reality tourist guide
CN113888709A (en) Electronic sand table generation method and device and non-transient storage medium
JP2011022662A (en) Portable telephone terminal and information processing system
US20220375175A1 (en) System For Improving The Precision and Accuracy of Augmented Reality
JP2011164701A (en) Object display control device and object display control method
US20140316905A1 (en) System and method for three-dimensional advertising
JP2020098635A (en) Content display terminal, method for providing content, and content display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130906

R150 Certificate of patent or registration of utility model

Ref document number: 5363971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250