JP5616198B2 - Method and apparatus for generating appearance display image of same feature having different level of detail - Google Patents
Method and apparatus for generating appearance display image of same feature having different level of detail Download PDFInfo
- Publication number
- JP5616198B2 JP5616198B2 JP2010255575A JP2010255575A JP5616198B2 JP 5616198 B2 JP5616198 B2 JP 5616198B2 JP 2010255575 A JP2010255575 A JP 2010255575A JP 2010255575 A JP2010255575 A JP 2010255575A JP 5616198 B2 JP5616198 B2 JP 5616198B2
- Authority
- JP
- Japan
- Prior art keywords
- detail
- model
- level
- feature
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、コンピュータを用いて三次元都市モデルを作成する際に、三次元モデルを構成し異なる詳細度を持つ同一地物の外観表示用画像を生成する方法及びその装置に関するものである。 The present invention relates to a method and an apparatus for generating an appearance display image of the same feature having a different level of detail when forming a three-dimensional city model using a computer.
三次元都市モデルとは、(i)建物や地形などを表した三次元座標値を持つポリゴン、(ii)そのポリゴンに貼り付けるテクスチャ、(iii)道路中心線や信号の制御情報など都市機能を形成する様々な情報、の3つの要素からなりたつデータを意味する。この三次元都市モデルは、仮想都市または実在都市を模擬したものであるから、ドライビングシミュレータや洪水シミュレータなどシミュレーション分野で利用するために作成される。
そして、コンピュータのモニタ画面上に表示するための各モデルは、これを見る仮想の視点までの距離に応じて複数の異なる詳細度を切り替えて表示され、そのための三次元データを持つ。詳細度は、視点又はカメラが地物から見る距離が近いほど高く、遠いほど低い。
三次元データは上述のように建物や地形などのポリゴンとその表面画像のテクスチャからなるが、各モデルのポリゴンには、複数の異なる詳細度をした三次元データを持つ。
このとき、異なる詳細度をした三次元データのテクスチャをポリゴン毎に予め備えておくことは、きわめて煩雑で手間のかかることであると予想される。そこで、詳細度が低いモデルデータに詳細度が高いモデルデータに用いたテクスチャを貼り付けるようにすれば、全ての詳細度について全てのポリゴンに貼り付けるテクスチャを作る手間が省けることになろう。しかし、詳細度が高いモデルデータは凹凸が複雑な部分も表示できるようにしなければ現実に近い模擬をすることができず、そのような複雑な部分毎に異なるテクスチャファイルを使用することとなり、そのようなテクスチャファイルを編集してまとめることに大変な手間がかかる。
A three-dimensional city model includes (i) a polygon having a three-dimensional coordinate value representing a building, topography, etc., (ii) a texture to be pasted on the polygon, and (iii) a road center line and signal control information. It means data consisting of three elements: various information to be formed. Since this three-dimensional city model simulates a virtual city or a real city, it is created for use in a simulation field such as a driving simulator or a flood simulator.
Each model to be displayed on the monitor screen of the computer is displayed by switching a plurality of different levels of detail according to the distance to the virtual viewpoint for viewing the model, and has three-dimensional data for that purpose. The level of detail is higher as the distance of the viewpoint or the camera viewed from the feature is shorter, and the detail is lower.
As described above, the three-dimensional data is composed of polygons such as buildings and terrain and the texture of the surface image thereof. Each model polygon has three-dimensional data having a plurality of different levels of detail.
At this time, it is expected that it is extremely complicated and time-consuming to prepare textures of three-dimensional data with different levels of detail in advance for each polygon. Therefore, if the texture used for the model data with the high degree of detail is pasted on the model data with the low degree of detail, it is possible to save the trouble of creating the texture to be attached to all the polygons for all the details. However, model data with a high degree of detail cannot be simulated near reality unless it is possible to display even complex parts, and a different texture file is used for each such complex part. It takes a lot of work to edit and organize such texture files.
解決しようとする課題は、異なる詳細度を持つ同一地物の外観表示用画像の生成を効率的に行うことにある。 The problem to be solved is to efficiently generate appearance display images of the same feature having different levels of detail.
上記課題を解決するため請求項1に係る異なる詳細度を持つ同一地物の外観表示用画像の生成方法は、一つの対象地物のうち最も詳細度が高い外観表示用画像を持つ三次元モデルを仮想空間内に配置する第1の過程と、前記三次元モデルを撮影するように配置される仮想空間内のカメラを、当該三次元モデルを撮影するとき前記三次元モデルの詳細度が切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数N回に分けて撮影する第2の過程と、前記第2の過程で撮影した三次元モデルを撮影した時点の詳細度の外観表示用画像により前記N回レンダリングする第3の過程と、前の過程でレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、前の過程で得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返す第4の過程とからなることを特徴とするものである。 In order to solve the above-mentioned problem, the method for generating an appearance display image of the same feature having different levels of detail according to claim 1 is a three-dimensional model having an appearance display image with the highest level of detail among one target feature. A first process of arranging the three-dimensional model in the virtual space and immediately before the level of detail of the three-dimensional model is switched when photographing the three-dimensional model of the camera in the virtual space arranged to photograph the three-dimensional model. A second step of photographing the entire circumference of the three-dimensional model in a plurality of N times with an angle of view within a range in which the three-dimensional model of the feature is contained, and a tertiary image taken in the second step. The third process of rendering N times with the appearance display image with the level of detail at the time when the original model was photographed, and the level of detail of the 3D model is switched from the distance rendered in the previous process to a lower level of detail. Cut off The distance to the point immediately before switching is taken, and the entire circumference of the 3D model is photographed in multiple times with the angle of view within the range in which the 3D model of the feature is contained, and the image of the feature obtained in the previous process is taken. It is characterized by comprising a fourth process in which rendering using the texture of the three-dimensional model is repeated to a predetermined low level of detail.
上記課題を解決するため請求項2に係る異なる詳細度を持つ同一地物の外観表示用画像の生成装置は、地物について最も詳細度が高いテクスチャデータとしての外観表示用画像を格納(表面画像の電子データを記録)するテクスチャデータ格納部と、
写真撮影した地物をもとにその地物を模擬した幾何情報データである三次元モデルを格納する三次元モデルデータ格納部と、
仮想空間内に配置された前記三次元モデルを仮想空間内に配置された仮想のカメラにより所定の距離・位置・姿勢・画角で撮影して三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせ数Nを決定するカメラパラメータ編集手段と、
前記カメラパラメータ編集手段により決定されたパラメータにしたがって三次元モデルデータ格納部から読み出した三次元モデルを前記テクスチャデータ格納部から読み出したテクスチャでレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして詳細度とともに前記テクスチャデータ格納部に格納する画像生成手段とからなることを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成装置であって、前記カメラパラメータ編集手段は、前記画像生成手段によりレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、仮想のカメラは、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、前記画像生成手段は、テクスチャデータ格納部から読み出した得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返すことを特徴とするものである。
In order to solve the above problem, an apparatus for generating an appearance display image of the same feature having different levels of detail according to claim 2 stores an appearance display image as texture data having the highest level of detail for the feature (surface image) A texture data storage unit for recording electronic data),
A 3D model data storage unit for storing a 3D model which is geometric information data simulating the feature based on the photographed feature;
Parameters for rendering the entire perimeter of the 3D model by shooting the 3D model placed in the virtual space with a virtual camera placed in the virtual space at a predetermined distance, position, orientation, and angle of view. Camera parameter editing means for determining the number N of combinations;
The 3D model read from the 3D model data storage unit is rendered with the texture read from the texture data storage unit according to the parameters determined by the camera parameter editing means, and an image is generated. An image for displaying the appearance of the same feature having different levels of detail, comprising image generation means for storing in the texture data storage unit together with the level of detail as texture data of the level of detail of the 3D model lower than that of the 3D model The camera parameter editing means is separated from the distance rendered by the image generation means to a distance immediately before the level of detail of the three-dimensional model is switched to a lower level and further switched to a level of lower detail. , The range in which the 3D model of the feature fits The entire circumference of the three-dimensional model is photographed in a plurality of times at an angle of view, and the image generation means renders using the obtained feature image read from the texture data storage unit as the texture of the three-dimensional model It is characterized by repeating this to a predetermined low level of detail .
請求項1に係る異なる詳細度を持つ同一地物の外観表示用画像の生成方法によると、仮想空間内のカメラを、三次元モデルを撮影するとき三次元モデルの詳細度が切り替わる直前の距離まで離し、撮影した時点の詳細度の外観表示用画像によりN回レンダリングするから、詳細度が異なる毎に外観表示用画像を効率よく生成することができる。 According to the method for generating an appearance display image of the same feature having different levels of detail according to claim 1, up to a distance immediately before the level of detail of the three-dimensional model is switched when the camera in the virtual space captures the three-dimensional model. Since it is rendered N times by the appearance display image having the detail level at the time of shooting, the appearance display image can be efficiently generated every time the detail level is different.
請求項2に係る異なる詳細度を持つ同一地物の外観表示用画像の生成装置によると、画像生成手段において、カメラパラメータ編集手段により決定されたパラメータにしたがって三次元モデルデータ格納部から読み出した三次元モデルをレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして前記テクスチャデータ格納部に格納するから、詳細度が異なる毎に外観表示用画像を効率よく生成することができる。 According to the apparatus for generating an appearance display image of the same feature having different levels of detail according to claim 2, the tertiary read out from the 3D model data storage unit according to the parameter determined by the camera parameter editing unit in the image generation unit The original model is rendered to generate an image, and the generated image is stored in the texture data storage unit as texture data of a three-dimensional model having a lower level of detail than the current three-dimensional model. A display image can be generated efficiently.
地物の外観表示用画像の生成を、コンピュータが備える機能により実現する。 Generation of the appearance display image of the feature is realized by a function of the computer.
図1は、本発明方法の実施例を説明するフロー図である。図2は本発明装置の実施例の機能ブロック図であり、図2において、101はテクスチャデータ格納部、102はモデルデータ格納部、103はカメラパラメータ編集手段、104は画像生成手段である。 FIG. 1 is a flowchart illustrating an embodiment of the method of the present invention. FIG. 2 is a functional block diagram of an embodiment of the apparatus of the present invention. In FIG. 2, 101 is a texture data storage unit, 102 is a model data storage unit, 103 is camera parameter editing means, and 104 is image generation means.
テクスチャデータ格納部101は、所定数の地物について最も詳細度が高いテクスチャデータとしての各外観表示用画像の電子データを格納する。テクスチャデータは、予め各地物について本システムに用いることが予定される最も詳細度が高くなるような距離から写真撮影しその画像から得たテクスチャである。三次元モデルデータ格納部102は、写真撮影した地物をもとにその地物を模擬した幾何情報データである三次元モデルを格納する。三次元モデルデータは、前もって地物について、最も詳細度が高くなる位置において撮影写真に写された実在の地物を電子的に模擬した幾何情報データ(ポリゴン)であり、その地物の位置が緯度経度、高さ、向きなどの三次元座標値を含む。カメラパラメータ編集手段103は、三次元モデルデータ格納部102から読み出して仮想空間内に配置された所定の三次元モデルを仮想空間内に配置された仮想のカメラにより所定の距離・位置・姿勢・画角で撮影して三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせ数Nを決定する。画像生成手段104は、前記カメラパラメータ編集手段103により決定されたパラメータにしたがって三次元モデルデータ格納部102から読み出した三次元モデルを前記テクスチャデータ格納部101から読み出したテクスチャによりレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして詳細度とともに前記テクスチャデータ格納部102に格納する。
The texture
三次元モデルデータ格納部102から、所定の地物の三次元モデルを読み出し、仮想空間内に配置する(図1のP101)。このときの三次元モデルデータは当該地物のうち最も詳細度が高いものとして格納されている。前記P101における配置とともに、当該三次元モデルにはテクスチャをどのように貼り付けるかという情報も含まれていて、三次元テクスチャデータ格納部101から、当該所定の地物の三次元モデルのテクスチャとしての外観表示用画像も同時に読み出す。このテクスチャは当該三次元モデルに対応して最も詳細度が高いテクスチャである。
ここで、カメラパラメータ編集手段103は、読み出した三次元モデルの幅・高さなどの大きさに合わせてレンダリングに必要なカメラの位置・姿勢・画角等のパラメータの組み合わせを決定する。これらのパラメータの組み合わせの総数Nは、三次元モデルの全周囲が十分レンダリングされるだけの数が用意される。仮想空間内の仮想のカメラは、前記三次元モデルを撮影するとき前記最も詳細度が高い外観表示用画像を持つ三次元モデルの詳細度が切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数N回に分けて撮影する(図1のP102)。この数Nは三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせにより決定される。レンダリング回数の最大値は、カメラの方向と直角な面すなわちモデルの面の数と同一となる。レンダリングする際の画角はモデル形状によって変化する。
三次元モデルの詳細度と距離の関係は、図3のように、モデルとカメラの距離に従って表示する三次元データの詳細度を切り替えるため、モデルとカメラの距離が近いほど詳細な三次元データを表示し、距離が遠いほど詳細度が低い三次元データを表示する。もし常に詳細度が高い三次元データを表示したとしても、距離が遠いときは図示しないモニタ上では小さく表示され、詳細部分が人間の目には判別できなくなるため、描画処理が無駄になってしまう。本発明はこれを避けるためである。
詳細度が低いデータはポリゴン数が少ないデータ、詳細度が高いデータはポリゴン数が多いデータである。このとき詳細度が高いデータは、1枚にまとめたテクスチャを用いずに、部分毎に異なるテクスチャ(外観表示用画像)を用いていることがある。その理由として、
A.凹凸が複雑なため、全てのポリゴンのテクスチャを1枚にまとめて用いるより、複数のテクスチャをポリゴン毎に用いる方が容易である。
B.異なる地物で、部分的に同じテクスチャを共有したい。
ここで、詳細度が低いデータも作りたい場合、詳細度が高いデータで複数のテクスチャを用いていると、そのテクスチャをそのまま詳細度が低いデータ用として流用することができない。理由は、ポリゴンの頂点毎にテクスチャ座標を割り当てる通常のテクスチャマッピング手法の場合、ポリゴンの頂点以外にはテクスチャ座標を割り当てることができないからである。例えば、詳細度が低いデータには頂点が4点あるとして、ここに詳細度が高いデータ使用している2枚のテクスチャを貼り付けたいとき、図4に説明するように正しく貼り付けるためには全8頂点(5ポリゴン)が必要なので、詳細度が低いデータにはそれら2枚のテクスチャは完全に重なった状態で貼り付けることしかできない。
したがって、詳細度が高いデータ用のテクスチャを詳細度が低いデータに貼り付けたい場合は、それらのテクスチャを編集し、新たに詳細度が低いデータ用のテクスチャを作成する必要があるが、これを地物ごとに手作業で行うのは煩雑であるため、詳細度が高いデータ及びそれに用いるテクスチャを用いて、詳細度が低いデータ用のテクスチャを手作業なしに生成しようとする。
画像生成手段104は、前記カメラパラメータ編集手段103により決定されたパラメータにしたがって三次元モデルデータ格納部102から読み出した地物の最も詳細度が高い三次元モデルを前記テクスチャデータ格納部101から読み出した最も詳細度が高いテクスチャ(M1)でレンダリングして画像を生成する(図1のP103)。この全周囲について生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータ(M2)として詳細度とともに前記テクスチャデータ格納部101に格納する。
より低い詳細度が低い三次元モデル及びテクスチャが必要なときは、カメラパラメータ編集手段103は、例えば、P103過程においてレンダリングした三次元モデルの詳細度から詳細度が切り替わりさらに詳細度が低く切り替わる直前の距離まで離しその位置における位置・姿勢・画角等のパラメータの組み合わせを決定する。仮想空間内の仮想のカメラは、前記決定したパラメータにおける状態で前記三次元モデルの全周を複数N回に分けて撮影する。このとき撮影した画像はテクスチャ(M3)として詳細度とともにテクスチャデータ格納部101に格納される。画像生成手段104は、前記カメラパラメータ編集手段103により撮影した三次元モデルに前記テクスチャデータ格納部101から読み出したテクスチャ(M2)を貼り付けてレンダリングして画像を生成する。以下、同様にして詳細度を切り替えて必要な詳細度の低さまで順次繰り返す(図1のP104)。
このようにして、異なる詳細度のデータが作られ、距離に応じて最適な詳細度のデータを表示することができる。このとき、詳細度が低いデータに詳細度が高いデータのテクスチャを貼り付ける。三次元データの詳細度が低くなっていたとしても、詳細度が高いデータの外観にできるだけ近く作ることが好ましいため、詳細度が低いデータにそのまま詳細度が高いデータのテクスチャを貼り付けるから、外観はかなり近いものが得られる。
A three-dimensional model of a predetermined feature is read from the three-dimensional model
Here, the camera
As shown in Fig. 3, the relationship between the level of detail and the distance of the 3D model switches the level of detail of the 3D data to be displayed according to the distance between the model and the camera. Display three-dimensional data with a lower level of detail as the distance increases. Even if three-dimensional data with a high degree of detail is always displayed, if the distance is long, it will be displayed small on a monitor (not shown), and the details will be indistinguishable to the human eye, rendering processing will be wasted. . The present invention is to avoid this.
Data with a low degree of detail is data with a small number of polygons, and data with a high degree of detail is data with a large number of polygons. At this time, data with a high degree of detail may use different textures (appearance display images) for each part without using the textures combined into one sheet. The reason is
A. Since the unevenness is complicated, it is easier to use a plurality of textures for each polygon than to use all the polygonal textures together.
B. I want to share the same texture partially on different features.
Here, when it is desired to create data with a low level of detail, if a plurality of textures are used with data with a high level of detail, the texture cannot be used as it is for data with a low level of detail. The reason is that in the case of a normal texture mapping method in which texture coordinates are assigned for each vertex of a polygon, texture coordinates cannot be assigned to other than the vertex of the polygon. For example, if the data with low level of detail has 4 vertices and you want to paste two textures that use data with high level of detail here, as shown in FIG. Since all 8 vertices (5 polygons) are required, it is only possible to paste the two textures in a state where they are completely overlapped on data with a low level of detail.
Therefore, if you want to paste a texture for data with a high level of detail to data with a low level of detail, you need to edit those textures and create a new texture for the data with a low level of detail. Since it is cumbersome to perform manually for each feature, a texture for data having a low level of detail is generated without a manual operation using data having a high level of detail and a texture used therefor.
The
When a lower level of detail is require lower three-dimensional models and textures, camera
In this way, data with different levels of detail is created, and data with the optimal level of detail can be displayed according to the distance. At this time, a texture of data having a high degree of detail is pasted on data having a low degree of detail. Even if the level of detail of the three-dimensional data is low, it is preferable to make it as close as possible to the appearance of data with a high level of detail. Can get quite close.
101 テクスチャデータ格納部
102 三次元モデルデータ格納部
103 カメラパラメータ編集手段、
104 画像生成手段
101 texture
104 Image generation means
Claims (2)
前記三次元モデルを撮影するように配置される仮想空間内のカメラを、当該三次元モデルを撮影するとき前記三次元モデルの詳細度が切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数N回に分けて撮影する第2の過程と、
前記第2の過程で撮影した三次元モデルを撮影したときの詳細度の外観表示用画像により三次元モデルを前記N回レンダリングする第3の過程と、
前の過程でレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、前の過程で得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返す第4の過程とからなることを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成方法。 A first process of arranging a three-dimensional model having an appearance display image with the highest level of detail among one target feature in a virtual space;
The camera in the virtual space arranged to photograph the three-dimensional model is separated to a distance immediately before the detail level of the three-dimensional model is switched when photographing the three-dimensional model, and the three-dimensional model of the feature is A second process of photographing the entire circumference of the three-dimensional model by dividing it into a plurality of N times with an angle of view within a range of fit;
A third step of rendering the three-dimensional model N times with an appearance display image having a degree of detail when the three-dimensional model taken in the second step is taken;
The level of detail of the 3D model is switched from the distance rendered in the previous process to a distance just before the level of detail switches to a lower level, and the angle of view of the 3D model is within the range of the 3D model of the feature. It consists of a fourth process in which the entire circumference is shot in multiple times, and rendering using the image of the feature obtained in the previous process as the texture of the 3D model is repeated to a predetermined low level of detail. A method for generating an appearance display image of the same feature having different levels of detail.
写真撮影した地物をもとにその地物を模擬した幾何情報データである三次元モデルを格納する三次元モデルデータ格納部と、
仮想空間内に配置された前記三次元モデルを仮想空間内に配置された仮想のカメラにより所定の距離・位置・姿勢・画角で撮影して三次元モデルの全周囲をレンダリングするためのパラメータの組み合わせ数Nを決定するカメラパラメータ編集手段と、
前記カメラパラメータ編集手段により決定されたパラメータにしたがって三次元モデルデータ格納部から読み出した三次元モデルを前記テクスチャデータ格納部から読み出したテクスチャでレンダリングして画像を生成するとともに当該生成した画像を現在の三次元モデルより低い詳細度の三次元モデルのテクスチャデータとして詳細度とともに前記テクスチャデータ格納部に格納する画像生成手段とからなることを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成装置であって、
前記カメラパラメータ編集手段は、前記画像生成手段によりレンダリングした距離から三次元モデルの詳細度がより低く切り替わりさらに詳細度がより低く切り替わる直前の距離まで離し、
仮想のカメラは、当該地物の三次元モデルが収まる範囲の画角で前記三次元モデルの全周を複数回に分けて撮影するようにし、
前記画像生成手段は、テクスチャデータ格納部から読み出した得た地物の画像を三次元モデルのテクスチャとして用いてレンダリングすることを所定の低い詳細度まで繰り返すことを特徴とする異なる詳細度を持つ同一地物の外観表示用画像の生成装置。
A texture data storage unit for storing an appearance display image as texture data having the highest degree of detail for a feature (recording electronic data of a surface image);
A 3D model data storage unit for storing a 3D model which is geometric information data simulating the feature based on the photographed feature;
Parameters for rendering the entire perimeter of the 3D model by shooting the 3D model placed in the virtual space with a virtual camera placed in the virtual space at a predetermined distance, position, orientation, and angle of view. Camera parameter editing means for determining the number N of combinations;
The 3D model read from the 3D model data storage unit is rendered with the texture read from the texture data storage unit according to the parameters determined by the camera parameter editing means, and an image is generated. An image for displaying the appearance of the same feature having different levels of detail, comprising image generation means for storing in the texture data storage unit together with the level of detail as texture data of the level of detail of the 3D model lower than that of the 3D model A generator of
The camera parameter editing means is separated from the distance rendered by the image generating means to a distance immediately before the level of detail of the 3D model is switched to be lower and further level of detail is switched to be lower,
The virtual camera shoots the entire circumference of the three-dimensional model in multiple times at an angle of view within a range where the three-dimensional model of the feature fits,
The image generating means repeats rendering using the obtained feature image read out from the texture data storage unit as a texture of the three-dimensional model to a predetermined low level of detail, and has the same level of detail An apparatus for generating an appearance display image of a feature.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010255575A JP5616198B2 (en) | 2010-11-16 | 2010-11-16 | Method and apparatus for generating appearance display image of same feature having different level of detail |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010255575A JP5616198B2 (en) | 2010-11-16 | 2010-11-16 | Method and apparatus for generating appearance display image of same feature having different level of detail |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012108632A JP2012108632A (en) | 2012-06-07 |
JP5616198B2 true JP5616198B2 (en) | 2014-10-29 |
Family
ID=46494195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010255575A Expired - Fee Related JP5616198B2 (en) | 2010-11-16 | 2010-11-16 | Method and apparatus for generating appearance display image of same feature having different level of detail |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5616198B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6087301B2 (en) * | 2014-02-13 | 2017-03-01 | 株式会社ジオ技術研究所 | 3D map display system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002298162A (en) * | 2001-03-29 | 2002-10-11 | Mitsubishi Electric Corp | Three-dimensional view display device and three- dimensional view generating device |
JP4606898B2 (en) * | 2005-02-15 | 2011-01-05 | 三菱電機株式会社 | Information generation device and search device |
US7733350B2 (en) * | 2006-06-30 | 2010-06-08 | Microsoft Corporation | Anisometric texture synthesis |
JP4980153B2 (en) * | 2007-06-21 | 2012-07-18 | 株式会社ソニー・コンピュータエンタテインメント | Image display device and image display method |
JP4980863B2 (en) * | 2007-12-03 | 2012-07-18 | 三菱プレシジョン株式会社 | 3D city model creation method, creation program, recording medium recording creation program, and creation management server |
JP2009157053A (en) * | 2007-12-26 | 2009-07-16 | Aisin Aw Co Ltd | Three-dimensional map display navigation device, three-dimensional map display system, and three-dimensional map display program |
-
2010
- 2010-11-16 JP JP2010255575A patent/JP5616198B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012108632A (en) | 2012-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109658365B (en) | Image processing method, device, system and storage medium | |
US5694533A (en) | 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism | |
EP3534336B1 (en) | Panoramic image generating method and apparatus | |
CN101872492A (en) | Multi-angle map implementation method of three-dimensional simulation city | |
CN108305309B (en) | Facial expression generation method and device based on three-dimensional animation | |
CN106485772B (en) | Panorama switching method and system | |
EP3533218B1 (en) | Simulating depth of field | |
CN101477701B (en) | Built-in real tri-dimension rendering process oriented to AutoCAD and 3DS MAX | |
EP3649621B1 (en) | 3d modelling for 3d printing of objects having zero-thickness parts | |
CN110689626A (en) | Game model rendering method and device | |
Brosz et al. | Single camera flexible projection | |
CN101477700A (en) | Real tri-dimension display method oriented to Google Earth and Sketch Up | |
JP2007280157A (en) | Three-dimensional terrain model production system | |
DE602006007113D1 (en) | PLAYING 3D COMPUTER GRAPHICS USING 2D COMPUTER GRAPHICS CAPABILITIES | |
JP4996922B2 (en) | 3D visualization | |
JP2014067372A (en) | Motion parallax reproduction program and device and three-dimensional model generation program and device therefor | |
JP2008117113A (en) | Image forming device and method, and image forming program | |
KR101299191B1 (en) | Apparatus and method for projection image into three-dimensional model | |
CN116664752B (en) | Method, system and storage medium for realizing panoramic display based on patterned illumination | |
EP0789893A1 (en) | Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically | |
JP5616198B2 (en) | Method and apparatus for generating appearance display image of same feature having different level of detail | |
CN103530869B (en) | For mating the system and method that moving mass controls | |
JP4447896B2 (en) | Image processing apparatus and method | |
JP2006040053A (en) | Image processing method and program | |
JP2012048529A (en) | Method for generating external appearance display image of planimetric feature and device therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140625 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5616198 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |