JP5616198B2 - Method and apparatus for generating appearance display image of same feature having different level of detail - Google Patents

Method and apparatus for generating appearance display image of same feature having different level of detail Download PDF

Info

Publication number
JP5616198B2
JP5616198B2 JP2010255575A JP2010255575A JP5616198B2 JP 5616198 B2 JP5616198 B2 JP 5616198B2 JP 2010255575 A JP2010255575 A JP 2010255575A JP 2010255575 A JP2010255575 A JP 2010255575A JP 5616198 B2 JP5616198 B2 JP 5616198B2
Authority
JP
Japan
Prior art keywords
detail
model
level
feature
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010255575A
Other languages
Japanese (ja)
Other versions
JP2012108632A (en
Inventor
隆伯 林
隆伯 林
隆行 川上
隆行 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Precision Co Ltd
Original Assignee
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Precision Co Ltd filed Critical Mitsubishi Precision Co Ltd
Priority to JP2010255575A priority Critical patent/JP5616198B2/en
Publication of JP2012108632A publication Critical patent/JP2012108632A/en
Application granted granted Critical
Publication of JP5616198B2 publication Critical patent/JP5616198B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、コンピュータを用いて三次元都市モデルを作成する際に、三次元モデルを構成し異なる詳細度を持つ同一地物の外観表示用画像を生成する方法及びその装置に関するものである。   The present invention relates to a method and an apparatus for generating an appearance display image of the same feature having a different level of detail when forming a three-dimensional city model using a computer.

三次元都市モデルとは、(i)建物や地形などを表した三次元座標値を持つポリゴン、(ii)そのポリゴンに貼り付けるテクスチャ、(iii)道路中心線や信号の制御情報など都市機能を形成する様々な情報、の3つの要素からなりたつデータを意味する。この三次元都市モデルは、仮想都市または実在都市を模擬したものであるから、ドライビングシミュレータや洪水シミュレータなどシミュレーション分野で利用するために作成される。
そして、コンピュータのモニタ画面上に表示するための各モデルは、これを見る仮想の視点までの距離に応じて複数の異なる詳細度を切り替えて表示され、そのための三次元データを持つ。詳細度は、視点又はカメラが地物から見る距離が近いほど高く、遠いほど低い。
三次元データは上述のように建物や地形などのポリゴンとその表面画像のテクスチャからなるが、各モデルのポリゴンには、複数の異なる詳細度をした三次元データを持つ。
このとき、異なる詳細度をした三次元データのテクスチャをポリゴン毎に予め備えておくことは、きわめて煩雑で手間のかかることであると予想される。そこで、詳細度が低いモデルデータに詳細度が高いモデルデータに用いたテクスチャを貼り付けるようにすれば、全ての詳細度について全てのポリゴンに貼り付けるテクスチャを作る手間が省けることになろう。しかし、詳細度が高いモデルデータは凹凸が複雑な部分も表示できるようにしなければ現実に近い模擬をすることができず、そのような複雑な部分毎に異なるテクスチャファイルを使用することとなり、そのようなテクスチャファイルを編集してまとめることに大変な手間がかかる。
A three-dimensional city model includes (i) a polygon having a three-dimensional coordinate value representing a building, topography, etc., (ii) a texture to be pasted on the polygon, and (iii) a road center line and signal control information. It means data consisting of three elements: various information to be formed. Since this three-dimensional city model simulates a virtual city or a real city, it is created for use in a simulation field such as a driving simulator or a flood simulator.
Each model to be displayed on the monitor screen of the computer is displayed by switching a plurality of different levels of detail according to the distance to the virtual viewpoint for viewing the model, and has three-dimensional data for that purpose. The level of detail is higher as the distance of the viewpoint or the camera viewed from the feature is shorter, and the detail is lower.
As described above, the three-dimensional data is composed of polygons such as buildings and terrain and the texture of the surface image thereof. Each model polygon has three-dimensional data having a plurality of different levels of detail.
At this time, it is expected that it is extremely complicated and time-consuming to prepare textures of three-dimensional data with different levels of detail in advance for each polygon. Therefore, if the texture used for the model data with the high degree of detail is pasted on the model data with the low degree of detail, it is possible to save the trouble of creating the texture to be attached to all the polygons for all the details. However, model data with a high degree of detail cannot be simulated near reality unless it is possible to display even complex parts, and a different texture file is used for each such complex part. It takes a lot of work to edit and organize such texture files.

解決しようとする課題は、異なる詳細度を持つ同一地物の外観表示用画像の生成を効率的に行うことにある。   The problem to be solved is to efficiently generate appearance display images of the same feature having different levels of detail.

上記課題を解決するため請求項1に係る異なる詳細度を持つ同一地物の外観表示用画像の生成方法は、一つの対象地物のうち最も詳細度が高い外観表示用画像を持つ三次元モデルを仮想空間内に配置する第1の過程と、前記三次元モデルを撮影するように配置される仮想空間内のカメラを、当該三次元モデルを撮影するとき前記三次元モデルの詳細度が切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数N回に分けて撮影する第2の過程と、前記第2の過程で撮影した三次元モデルを撮影した時点の詳細度の外観表示用画像により前記N回レンダリングする第3の過程と、前の過程でレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、前の過程で得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返す第4の過程とからなることを特徴とするものである。   In order to solve the above-mentioned problem, the method for generating an appearance display image of the same feature having different levels of detail according to claim 1 is a three-dimensional model having an appearance display image with the highest level of detail among one target feature. A first process of arranging the three-dimensional model in the virtual space and immediately before the level of detail of the three-dimensional model is switched when photographing the three-dimensional model of the camera in the virtual space arranged to photograph the three-dimensional model. A second step of photographing the entire circumference of the three-dimensional model in a plurality of N times with an angle of view within a range in which the three-dimensional model of the feature is contained, and a tertiary image taken in the second step. The third process of rendering N times with the appearance display image with the level of detail at the time when the original model was photographed, and the level of detail of the 3D model is switched from the distance rendered in the previous process to a lower level of detail. Cut off The distance to the point immediately before switching is taken, and the entire circumference of the 3D model is photographed in multiple times with the angle of view within the range in which the 3D model of the feature is contained, and the image of the feature obtained in the previous process is taken. It is characterized by comprising a fourth process in which rendering using the texture of the three-dimensional model is repeated to a predetermined low level of detail.

上記課題を解決するため請求項2に係る異なる詳細度を持つ同一地物の外観表示用画像の生成装置は、地物について最も詳細度が高いテクスチャデータとしての外観表示用画像を格納(表面画像の電子データを記録)するテクスチャデータ格納部と、
写真撮影した地物をもとにその地物を模擬した幾何情報データである三次元モデルを格納する三次元モデルデータ格納部と、
仮想空間内に配置された前記三次元モデルを仮想空間内に配置された仮想のカメラにより所定の距離・位置・姿勢・画角で撮影して三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせ数Nを決定するカメラパラメータ編集手段と、
前記カメラパラメータ編集手段により決定されたパラメータにしたがって三次元モデルデータ格納部から読み出した三次元モデルを前記テクスチャデータ格納部から読み出したテクスチャでレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして詳細度とともに前記テクスチャデータ格納部に格納する画像生成手段とからなることを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成装置であって、前記カメラパラメータ編集手段は、前記画像生成手段によりレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、仮想のカメラは、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、前記画像生成手段は、テクスチャデータ格納部から読み出した得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返すことを特徴とするものである。
In order to solve the above problem, an apparatus for generating an appearance display image of the same feature having different levels of detail according to claim 2 stores an appearance display image as texture data having the highest level of detail for the feature (surface image) A texture data storage unit for recording electronic data),
A 3D model data storage unit for storing a 3D model which is geometric information data simulating the feature based on the photographed feature;
Parameters for rendering the entire perimeter of the 3D model by shooting the 3D model placed in the virtual space with a virtual camera placed in the virtual space at a predetermined distance, position, orientation, and angle of view. Camera parameter editing means for determining the number N of combinations;
The 3D model read from the 3D model data storage unit is rendered with the texture read from the texture data storage unit according to the parameters determined by the camera parameter editing means, and an image is generated. An image for displaying the appearance of the same feature having different levels of detail, comprising image generation means for storing in the texture data storage unit together with the level of detail as texture data of the level of detail of the 3D model lower than that of the 3D model The camera parameter editing means is separated from the distance rendered by the image generation means to a distance immediately before the level of detail of the three-dimensional model is switched to a lower level and further switched to a level of lower detail. , The range in which the 3D model of the feature fits The entire circumference of the three-dimensional model is photographed in a plurality of times at an angle of view, and the image generation means renders using the obtained feature image read from the texture data storage unit as the texture of the three-dimensional model It is characterized by repeating this to a predetermined low level of detail .

請求項1に係る異なる詳細度を持つ同一地物の外観表示用画像の生成方法によると、仮想空間内のカメラを、三次元モデルを撮影するとき三次元モデルの詳細度が切り替わる直前の距離まで離し、撮影した時点の詳細度の外観表示用画像によりN回レンダリングするから、詳細度が異なる毎に外観表示用画像を効率よく生成することができる。   According to the method for generating an appearance display image of the same feature having different levels of detail according to claim 1, up to a distance immediately before the level of detail of the three-dimensional model is switched when the camera in the virtual space captures the three-dimensional model. Since it is rendered N times by the appearance display image having the detail level at the time of shooting, the appearance display image can be efficiently generated every time the detail level is different.

請求項2に係る異なる詳細度を持つ同一地物の外観表示用画像の生成装置によると、画像生成手段において、カメラパラメータ編集手段により決定されたパラメータにしたがって三次元モデルデータ格納部から読み出した三次元モデルをレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして前記テクスチャデータ格納部に格納するから、詳細度が異なる毎に外観表示用画像を効率よく生成することができる。   According to the apparatus for generating an appearance display image of the same feature having different levels of detail according to claim 2, the tertiary read out from the 3D model data storage unit according to the parameter determined by the camera parameter editing unit in the image generation unit The original model is rendered to generate an image, and the generated image is stored in the texture data storage unit as texture data of a three-dimensional model having a lower level of detail than the current three-dimensional model. A display image can be generated efficiently.

地物の外観表示用画像の生成方法を説明するフロー図である。It is a flowchart explaining the production | generation method of the image for a feature appearance display. 地物の外観表示用画像の生成装置を説明する機能ブロック図である。It is a functional block diagram explaining the production | generation apparatus of the external appearance display image of a feature. 地物の外観表示用画像を説明する図である。It is a figure explaining the image for appearance display of a feature. 詳細度が異なるテクスチャの貼り付けを説明する図である。It is a figure explaining the pasting of the texture from which a detail degree differs.

地物の外観表示用画像の生成を、コンピュータが備える機能により実現する。   Generation of the appearance display image of the feature is realized by a function of the computer.

図1は、本発明方法の実施例を説明するフロー図である。図2は本発明装置の実施例の機能ブロック図であり、図2において、101はテクスチャデータ格納部、102はモデルデータ格納部、103はカメラパラメータ編集手段、104は画像生成手段である。   FIG. 1 is a flowchart illustrating an embodiment of the method of the present invention. FIG. 2 is a functional block diagram of an embodiment of the apparatus of the present invention. In FIG. 2, 101 is a texture data storage unit, 102 is a model data storage unit, 103 is camera parameter editing means, and 104 is image generation means.

テクスチャデータ格納部101は、所定数の地物について最も詳細度が高いテクスチャデータとしての各外観表示用画像の電子データを格納する。テクスチャデータは、予め各地物について本システムに用いることが予定される最も詳細度が高くなるような距離から写真撮影しその画像から得たテクスチャである。三次元モデルデータ格納部102は、写真撮影した地物をもとにその地物を模擬した幾何情報データである三次元モデルを格納する。三次元モデルデータは、前もって地物について、最も詳細度が高くなる位置において撮影写真に写された実在の地物を電子的に模擬した幾何情報データ(ポリゴン)であり、その地物の位置が緯度経度、高さ、向きなどの三次元座標値を含む。カメラパラメータ編集手段103は、三次元モデルデータ格納部102から読み出して仮想空間内に配置された所定の三次元モデルを仮想空間内に配置された仮想のカメラにより所定の距離・位置・姿勢・画角で撮影して三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせ数Nを決定する。画像生成手段104は、前記カメラパラメータ編集手段103により決定されたパラメータにしたがって三次元モデルデータ格納部102から読み出した三次元モデルを前記テクスチャデータ格納部101から読み出したテクスチャによりレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして詳細度とともに前記テクスチャデータ格納部102に格納する。   The texture data storage unit 101 stores electronic data of each appearance display image as texture data having the highest degree of detail for a predetermined number of features. The texture data is a texture obtained from a photograph taken from a distance at which the level of detail that is planned to be used in this system for each feature is highest. The three-dimensional model data storage unit 102 stores a three-dimensional model that is geometric information data simulating the feature based on the photographed feature. The 3D model data is geometric information data (polygons) that electronically simulates real features that have been captured in the photograph at the position where the level of detail is the highest in advance. Includes three-dimensional coordinate values such as latitude, longitude, height, and orientation. The camera parameter editing unit 103 reads a predetermined three-dimensional model read from the three-dimensional model data storage unit 102 and arranged in the virtual space with a predetermined distance, position, orientation, and image by a virtual camera arranged in the virtual space. The number N of combinations of parameters for photographing at the corner and rendering the entire periphery of the three-dimensional model is determined. The image generation unit 104 generates an image by rendering the 3D model read from the 3D model data storage unit 102 with the texture read from the texture data storage unit 101 in accordance with the parameters determined by the camera parameter editing unit 103 At the same time, the generated image is stored in the texture data storage unit 102 together with the degree of detail as texture data of a three-dimensional model having a degree of detail lower than that of the current three-dimensional model.

三次元モデルデータ格納部102から、所定の地物の三次元モデルを読み出し、仮想空間内に配置する(図1のP101)。このときの三次元モデルデータは当該地物のうち最も詳細度が高いものとして格納されている。前記P101における配置とともに、当該三次元モデルにはテクスチャをどのように貼り付けるかという情報も含まれていて、三次元テクスチャデータ格納部101から、当該所定の地物の三次元モデルのテクスチャとしての外観表示用画像も同時に読み出す。このテクスチャは当該三次元モデルに対応して最も詳細度が高いテクスチャである。
ここで、カメラパラメータ編集手段103は、読み出した三次元モデルの幅・高さなどの大きさに合わせてレンダリングに必要なカメラの位置・姿勢・画角等のパラメータの組み合わせを決定する。これらのパラメータの組み合わせの総数Nは、三次元モデルの全周囲が十分レンダリングされるだけの数が用意される。仮想空間内の仮想のカメラは、前記三次元モデルを撮影するとき前記最も詳細度が高い外観表示用画像を持つ三次元モデルの詳細度が切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数N回に分けて撮影する(図1のP102)。この数Nは三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせにより決定される。レンダリング回数の最大値は、カメラの方向と直角な面すなわちモデルの面の数と同一となる。レンダリングする際の画角はモデル形状によって変化する。
三次元モデルの詳細度と距離の関係は、図3のように、モデルとカメラの距離に従って表示する三次元データの詳細度を切り替えるため、モデルとカメラの距離が近いほど詳細な三次元データを表示し、距離が遠いほど詳細度が低い三次元データを表示する。もし常に詳細度が高い三次元データを表示したとしても、距離が遠いときは図示しないモニタ上では小さく表示され、詳細部分が人間の目には判別できなくなるため、描画処理が無駄になってしまう。本発明はこれを避けるためである。
詳細度が低いデータはポリゴン数が少ないデータ、詳細度が高いデータはポリゴン数が多いデータである。このとき詳細度が高いデータは、1枚にまとめたテクスチャを用いずに、部分毎に異なるテクスチャ(外観表示用画像)を用いていることがある。その理由として、
A.凹凸が複雑なため、全てのポリゴンのテクスチャを1枚にまとめて用いるより、複数のテクスチャをポリゴン毎に用いる方が容易である。
B.異なる地物で、部分的に同じテクスチャを共有したい。
ここで、詳細度が低いデータも作りたい場合、詳細度が高いデータで複数のテクスチャを用いていると、そのテクスチャをそのまま詳細度が低いデータ用として流用することができない。理由は、ポリゴンの頂点毎にテクスチャ座標を割り当てる通常のテクスチャマッピング手法の場合、ポリゴンの頂点以外にはテクスチャ座標を割り当てることができないからである。例えば、詳細度が低いデータには頂点が4点あるとして、ここに詳細度が高いデータ使用している2枚のテクスチャを貼り付けたいとき、図4に説明するように正しく貼り付けるためには全8頂点(5ポリゴン)が必要なので、詳細度が低いデータにはそれら2枚のテクスチャは完全に重なった状態で貼り付けることしかできない。
したがって、詳細度が高いデータ用のテクスチャを詳細度が低いデータに貼り付けたい場合は、それらのテクスチャを編集し、新たに詳細度が低いデータ用のテクスチャを作成する必要があるが、これを地物ごとに手作業で行うのは煩雑であるため、詳細度が高いデータ及びそれに用いるテクスチャを用いて、詳細度が低いデータ用のテクスチャを手作業なしに生成しようとする。
画像生成手段104は、前記カメラパラメータ編集手段103により決定されたパラメータにしたがって三次元モデルデータ格納部102から読み出した地物の最も詳細度が高い三次元モデルを前記テクスチャデータ格納部101から読み出した最も詳細度が高いテクスチャ(M1)でレンダリングして画像を生成する(図1のP103)。この全周囲について生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータ(M2)として詳細度とともに前記テクスチャデータ格納部101に格納する。
より低い詳細度が低い三次元モデル及びテクスチャが必要なときは、カメラパラメータ編集手段103は、例えば、P103過程においてレンダリングした三次元モデルの詳細度から詳細度が切りわりさらに詳細度が低く切り替わる直前の距離まで離しその位置における位置・姿勢・画角等のパラメータの組み合わせを決定する。仮想空間内の仮想のカメラは、前記決定したパラメータにおける状態で前記三次元モデルの全周を複数N回に分けて撮影する。このとき撮影した画像はテクスチャ(M3)として詳細度とともにテクスチャデータ格納部101に格納される。画像生成手段104は、前記カメラパラメータ編集手段103により撮影した三次元モデルに前記テクスチャデータ格納部101から読み出したテクスチャ(M2)を貼り付けてレンダリングして画像を生成する。以下、同様にして詳細度切りえて必要な詳細度の低さまで順次繰り返す(図1のP104)。
このようにして、異なる詳細度のデータが作られ、距離に応じて最適な詳細度のデータを表示することができる。このとき、詳細度が低いデータに詳細度が高いデータのテクスチャを貼り付ける。三次元データの詳細度が低くなっていたとしても、詳細度が高いデータの外観にできるだけ近く作ることが好ましいため、詳細度が低いデータにそのまま詳細度が高いデータのテクスチャを貼り付けるから、外観はかなり近いものが得られる。
A three-dimensional model of a predetermined feature is read from the three-dimensional model data storage unit 102 and arranged in the virtual space (P101 in FIG. 1). The three-dimensional model data at this time is stored as the highest level of detail among the features. Along with the arrangement in P101, the 3D model also includes information on how to paste the texture. From the 3D texture data storage unit 101, the texture of the 3D model of the predetermined feature is stored. The appearance display image is also read at the same time. This texture has the highest level of detail corresponding to the 3D model.
Here, the camera parameter editing unit 103 determines a combination of parameters such as the camera position, orientation, and angle of view necessary for rendering in accordance with the size, such as width and height, of the read three-dimensional model. The total number N of combinations of these parameters is prepared so that the entire periphery of the three-dimensional model is sufficiently rendered. The virtual camera in the virtual space is separated to the distance immediately before the level of detail of the 3D model having the highest level of detail display image when the 3D model is photographed, and the 3D model of the feature The entire circumference of the three-dimensional model is photographed N times a plurality of times at an angle of view within a range (P102 in FIG. 1). This number N is determined by a combination of parameters for rendering the entire perimeter of the 3D model. The maximum number of renderings is the same as the number of surfaces perpendicular to the camera direction, that is, the model surfaces. The angle of view when rendering varies depending on the model shape.
As shown in Fig. 3, the relationship between the level of detail and the distance of the 3D model switches the level of detail of the 3D data to be displayed according to the distance between the model and the camera. Display three-dimensional data with a lower level of detail as the distance increases. Even if three-dimensional data with a high degree of detail is always displayed, if the distance is long, it will be displayed small on a monitor (not shown), and the details will be indistinguishable to the human eye, rendering processing will be wasted. . The present invention is to avoid this.
Data with a low degree of detail is data with a small number of polygons, and data with a high degree of detail is data with a large number of polygons. At this time, data with a high degree of detail may use different textures (appearance display images) for each part without using the textures combined into one sheet. The reason is
A. Since the unevenness is complicated, it is easier to use a plurality of textures for each polygon than to use all the polygonal textures together.
B. I want to share the same texture partially on different features.
Here, when it is desired to create data with a low level of detail, if a plurality of textures are used with data with a high level of detail, the texture cannot be used as it is for data with a low level of detail. The reason is that in the case of a normal texture mapping method in which texture coordinates are assigned for each vertex of a polygon, texture coordinates cannot be assigned to other than the vertex of the polygon. For example, if the data with low level of detail has 4 vertices and you want to paste two textures that use data with high level of detail here, as shown in FIG. Since all 8 vertices (5 polygons) are required, it is only possible to paste the two textures in a state where they are completely overlapped on data with a low level of detail.
Therefore, if you want to paste a texture for data with a high level of detail to data with a low level of detail, you need to edit those textures and create a new texture for the data with a low level of detail. Since it is cumbersome to perform manually for each feature, a texture for data having a low level of detail is generated without a manual operation using data having a high level of detail and a texture used therefor.
The image generation unit 104 reads the 3D model having the highest detail level of the feature read from the 3D model data storage unit 102 from the texture data storage unit 101 in accordance with the parameters determined by the camera parameter editing unit 103. most detailed level to produce an image by rendering a high texture (M1) (P103 in Fig. 1). The image generated for the entire periphery is stored in the texture data storage unit 101 together with the level of detail as texture data (M2) of a level of detail three-dimensional model lower than that of the current three-dimensional model.
When a lower level of detail is require lower three-dimensional models and textures, camera parameter editing unit 103, for example, switched low degree of detail is cut exchange despite further details of the level of detail of the three-dimensional model rendered in P103 process The distance to the immediately preceding distance is separated and the combination of parameters such as position, posture, and angle of view at that position is determined. The virtual camera in the virtual space shoots the entire circumference of the three-dimensional model in a plurality of N times in a state with the determined parameters. The image taken at this time is stored in the texture data storage unit 101 together with the detail level as a texture (M3). The image generation unit 104 generates an image by pasting and rendering the texture (M2) read from the texture data storage unit 101 on the three-dimensional model photographed by the camera parameter editing unit 103. Hereinafter, the same way sequentially repeated to as low as Ete necessary details of replacement cut verbosity (P104 in Fig. 1).
In this way, data with different levels of detail is created, and data with the optimal level of detail can be displayed according to the distance. At this time, a texture of data having a high degree of detail is pasted on data having a low degree of detail. Even if the level of detail of the three-dimensional data is low, it is preferable to make it as close as possible to the appearance of data with a high level of detail. Can get quite close.

101 テクスチャデータ格納部
102 三次元モデルデータ格納部
103 カメラパラメータ編集手段、
104 画像生成手段


101 texture data storage unit 102 three-dimensional model data storage unit 103 camera parameter editing means,
104 Image generation means


Claims (2)

一つの対象地物のうち最も詳細度が高い外観表示用画像を持つ三次元モデルを仮想空間内に配置する第1の過程と、
前記三次元モデルを撮影するように配置される仮想空間内のカメラを、当該三次元モデルを撮影するとき前記三次元モデルの詳細度が切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数N回に分けて撮影する第2の過程と、
前記第2の過程で撮影した三次元モデルを撮影したときの詳細度の外観表示用画像により三次元モデルを前記N回レンダリングする第3の過程と、
前の過程でレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、前の過程で得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返す第4の過程とからなることを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成方法。
A first process of arranging a three-dimensional model having an appearance display image with the highest level of detail among one target feature in a virtual space;
The camera in the virtual space arranged to photograph the three-dimensional model is separated to a distance immediately before the detail level of the three-dimensional model is switched when photographing the three-dimensional model, and the three-dimensional model of the feature is A second process of photographing the entire circumference of the three-dimensional model by dividing it into a plurality of N times with an angle of view within a range of fit;
A third step of rendering the three-dimensional model N times with an appearance display image having a degree of detail when the three-dimensional model taken in the second step is taken;
The level of detail of the 3D model is switched from the distance rendered in the previous process to a distance just before the level of detail switches to a lower level, and the angle of view of the 3D model is within the range of the 3D model of the feature. It consists of a fourth process in which the entire circumference is shot in multiple times, and rendering using the image of the feature obtained in the previous process as the texture of the 3D model is repeated to a predetermined low level of detail. A method for generating an appearance display image of the same feature having different levels of detail.
地物について最も詳細度が高いテクスチャデータとしての外観表示用画像を格納(表面画像の電子データを記録)するテクスチャデータ格納部と、
写真撮影した地物をもとにその地物を模擬した幾何情報データである三次元モデルを格納する三次元モデルデータ格納部と、
仮想空間内に配置された前記三次元モデルを仮想空間内に配置された仮想のカメラにより所定の距離・位置・姿勢・画角で撮影して三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせ数Nを決定するカメラパラメータ編集手段と、
前記カメラパラメータ編集手段により決定されたパラメータにしたがって三次元モデルデータ格納部から読み出した三次元モデルを前記テクスチャデータ格納部から読み出したテクスチャでレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして詳細度とともに前記テクスチャデータ格納部に格納する画像生成手段とからなることを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成装置であって、
前記カメラパラメータ編集手段は、前記画像生成手段によりレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、
仮想のカメラは、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、
前記画像生成手段は、テクスチャデータ格納部から読み出した得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返すことを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成装置。
A texture data storage unit for storing an appearance display image as texture data having the highest degree of detail for a feature (recording electronic data of a surface image);
A 3D model data storage unit for storing a 3D model which is geometric information data simulating the feature based on the photographed feature;
Parameters for rendering the entire perimeter of the 3D model by shooting the 3D model placed in the virtual space with a virtual camera placed in the virtual space at a predetermined distance, position, orientation, and angle of view. Camera parameter editing means for determining the number N of combinations;
The 3D model read from the 3D model data storage unit is rendered with the texture read from the texture data storage unit according to the parameters determined by the camera parameter editing means, and an image is generated. An image for displaying the appearance of the same feature having different levels of detail, comprising image generation means for storing in the texture data storage unit together with the level of detail as texture data of the level of detail of the 3D model lower than that of the 3D model A generator of
The camera parameter editing means is separated from the distance rendered by the image generating means to a distance immediately before the level of detail of the 3D model is switched to be lower and further level of detail is switched to be lower,
The virtual camera shoots the entire circumference of the three-dimensional model in multiple times at an angle of view within a range where the three-dimensional model of the feature fits,
The image generating means repeats rendering using the obtained feature image read out from the texture data storage unit as a texture of the three-dimensional model to a predetermined low level of detail, and has the same level of detail An apparatus for generating an appearance display image of a feature.
JP2010255575A 2010-11-16 2010-11-16 Method and apparatus for generating appearance display image of same feature having different level of detail Expired - Fee Related JP5616198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010255575A JP5616198B2 (en) 2010-11-16 2010-11-16 Method and apparatus for generating appearance display image of same feature having different level of detail

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010255575A JP5616198B2 (en) 2010-11-16 2010-11-16 Method and apparatus for generating appearance display image of same feature having different level of detail

Publications (2)

Publication Number Publication Date
JP2012108632A JP2012108632A (en) 2012-06-07
JP5616198B2 true JP5616198B2 (en) 2014-10-29

Family

ID=46494195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010255575A Expired - Fee Related JP5616198B2 (en) 2010-11-16 2010-11-16 Method and apparatus for generating appearance display image of same feature having different level of detail

Country Status (1)

Country Link
JP (1) JP5616198B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6087301B2 (en) * 2014-02-13 2017-03-01 株式会社ジオ技術研究所 3D map display system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298162A (en) * 2001-03-29 2002-10-11 Mitsubishi Electric Corp Three-dimensional view display device and three- dimensional view generating device
JP4606898B2 (en) * 2005-02-15 2011-01-05 三菱電機株式会社 Information generation device and search device
US7733350B2 (en) * 2006-06-30 2010-06-08 Microsoft Corporation Anisometric texture synthesis
JP4980153B2 (en) * 2007-06-21 2012-07-18 株式会社ソニー・コンピュータエンタテインメント Image display device and image display method
JP4980863B2 (en) * 2007-12-03 2012-07-18 三菱プレシジョン株式会社 3D city model creation method, creation program, recording medium recording creation program, and creation management server
JP2009157053A (en) * 2007-12-26 2009-07-16 Aisin Aw Co Ltd Three-dimensional map display navigation device, three-dimensional map display system, and three-dimensional map display program

Also Published As

Publication number Publication date
JP2012108632A (en) 2012-06-07

Similar Documents

Publication Publication Date Title
CN109658365B (en) Image processing method, device, system and storage medium
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
EP3534336B1 (en) Panoramic image generating method and apparatus
CN101872492A (en) Multi-angle map implementation method of three-dimensional simulation city
CN108305309B (en) Facial expression generation method and device based on three-dimensional animation
CN106485772B (en) Panorama switching method and system
EP3533218B1 (en) Simulating depth of field
CN101477701B (en) Built-in real tri-dimension rendering process oriented to AutoCAD and 3DS MAX
EP3649621B1 (en) 3d modelling for 3d printing of objects having zero-thickness parts
CN110689626A (en) Game model rendering method and device
Brosz et al. Single camera flexible projection
CN101477700A (en) Real tri-dimension display method oriented to Google Earth and Sketch Up
JP2007280157A (en) Three-dimensional terrain model production system
DE602006007113D1 (en) PLAYING 3D COMPUTER GRAPHICS USING 2D COMPUTER GRAPHICS CAPABILITIES
JP4996922B2 (en) 3D visualization
JP2014067372A (en) Motion parallax reproduction program and device and three-dimensional model generation program and device therefor
JP2008117113A (en) Image forming device and method, and image forming program
KR101299191B1 (en) Apparatus and method for projection image into three-dimensional model
CN116664752B (en) Method, system and storage medium for realizing panoramic display based on patterned illumination
EP0789893A1 (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically
JP5616198B2 (en) Method and apparatus for generating appearance display image of same feature having different level of detail
CN103530869B (en) For mating the system and method that moving mass controls
JP4447896B2 (en) Image processing apparatus and method
JP2006040053A (en) Image processing method and program
JP2012048529A (en) Method for generating external appearance display image of planimetric feature and device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140625

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140911

R150 Certificate of patent or registration of utility model

Ref document number: 5616198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees