WO2012114387A1 - 地図描画装置 - Google Patents

地図描画装置 Download PDF

Info

Publication number
WO2012114387A1
WO2012114387A1 PCT/JP2011/001107 JP2011001107W WO2012114387A1 WO 2012114387 A1 WO2012114387 A1 WO 2012114387A1 JP 2011001107 W JP2011001107 W JP 2011001107W WO 2012114387 A1 WO2012114387 A1 WO 2012114387A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture
polygon
unit
map
relief
Prior art date
Application number
PCT/JP2011/001107
Other languages
English (en)
French (fr)
Inventor
誠 大津留
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2013500674A priority Critical patent/JP5599503B2/ja
Priority to US13/979,902 priority patent/US20130300738A1/en
Priority to DE112011104959T priority patent/DE112011104959T5/de
Priority to PCT/JP2011/001107 priority patent/WO2012114387A1/ja
Priority to CN2011800683351A priority patent/CN103384897A/zh
Publication of WO2012114387A1 publication Critical patent/WO2012114387A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Definitions

  • the present invention relates to a map drawing apparatus for drawing a map expressed by three-dimensional topographic relief.
  • a 3D terrain relief display function for expressing a map with 3D terrain relief is known.
  • texture mapping is used in which image data such as aerial photographs is mapped as texture to terrain undulation data constructed with three-dimensional polygons.
  • the map data held in the car navigation system is divided into rectangles called parcels, and map data is stored in parcel units. And when drawing a map, generally a process is performed per parcel. Therefore, when applying texture mapping to a car navigation system, a method of creating a three-dimensional terrain relief polygon and texture in parcel units is conceivable.
  • Patent Document 1 cuts out an image within a drawing range from image data of a block divided by a rectangle and maps it to a 3D terrain undulation polygon. The technique which draws by this is disclosed.
  • Patent Document 1 described above discloses a technique for extracting an image within a drawing range from image data created in advance in units of blocks and mapping the image to a three-dimensional terrain relief polygon as a texture. No method is mentioned.
  • image data including the outside of the drawing range must be read into the memory, which causes a problem that the processing speed is reduced and the memory usage is increased.
  • the present invention has been made to solve the above problem, and provides a map drawing apparatus capable of creating a suitable texture and improving the processing speed and reducing the amount of memory used. For the purpose.
  • the map drawing device includes a texture creating unit that creates a texture, a 3D terrain undulating polygon creating unit that creates a 3D terrain undulating polygon, and a 3D terrain undulating polygon created from the texture created by the texture creating unit.
  • a texture generator, a coordinate converter for converting map data, which is vector data expressed in the map coordinate system, to a pixel coordinate system of the texture, and a map data converted into a pixel coordinate system by the coordinate converter To map to the 3D terrain relief polygon created by the 3D terrain relief polygon creation unit by drawing It has a texture rendering unit to create a texture.
  • map drawing device only one texture having an appropriate size can be created for the drawing range, and the processing speed and the memory usage can be reduced when drawing the map. It is possible to provide a map drawing device that can be used.
  • Embodiment 1 FIG. In the first embodiment described below, the present invention is applied to a map drawing apparatus included in a car navigation system.
  • FIG. 1 is a block diagram showing the configuration of the map drawing apparatus according to the first embodiment.
  • the map drawing apparatus includes a map database 1, a control unit 2, a map data acquisition unit 3, a texture creation unit 4, a 3D terrain relief polygon creation unit 8, and a drawing unit 11.
  • the map database 1 stores map data.
  • the map data stored in the map database 1 is read by the map data acquisition unit 3.
  • the control unit 2 determines parameters necessary for map drawing, such as a drawing range and a display scale, according to an input from the outside.
  • the parameters determined by the control unit 2 are sent to the map data acquisition unit 3.
  • the map data acquisition unit 3 acquires the map data within the drawing range indicated by the parameter sent from the control unit 2 from the map database 1.
  • the map data acquired by the map data acquisition unit 3 is sent to the texture creation unit 4 and the 3D terrain relief polygon creation unit 8.
  • the texture creation unit 4 creates a texture based on the map data from the map data acquisition unit 3 and sends the texture to the drawing unit 11. More specifically, the texture creation unit 4 includes a texture generation unit 5, a coordinate conversion unit 6, and a texture drawing unit 7.
  • the texture generation unit 5 generates only one texture for the drawing range on a graphics memory (not shown).
  • the texture generated by the texture generation unit 5 is sent to the texture drawing unit 7.
  • the coordinate conversion unit 6 converts the map data sent from the map data acquisition unit 3 into a pixel coordinate system in the texture that can be drawn on the texture.
  • the map data in the pixel coordinate system obtained by the conversion by the coordinate conversion unit 6 is sent to the texture drawing unit 7.
  • the texture drawing unit 7 draws the pixel coordinate system map data sent from the coordinate conversion unit 6 on the texture generated by the texture generation unit 5 by two-dimensional drawing.
  • the texture obtained by drawing with the texture drawing unit 7 is sent to the drawing unit 11.
  • the 3D terrain relief polygon creation unit 8 creates a 3D terrain relief polygon based on the map data from the map data acquisition unit 3 and sends it to the drawing unit 11. More specifically, the 3D terrain relief polygon creating unit 8 includes a 3D polygon creating unit 9 and a texture coordinate setting unit 10.
  • the 3D polygon creation unit 9 creates a 3D polygon based on the map data from the map data acquisition unit 3.
  • the three-dimensional polygon created by the three-dimensional polygon creation unit 9 is sent to the texture coordinate setting unit 10.
  • the texture coordinate setting unit 10 sets texture coordinates at each vertex of the 3D polygon sent from the 3D polygon creation unit 9 to create a 3D terrain relief polygon.
  • the three-dimensional terrain relief polygon created by the texture coordinate setting unit 10 is sent to the drawing unit 11.
  • the drawing unit 11 performs 3D terrain relief drawing using the texture sent from the texture creation unit 4 and the 3D terrain relief polygon sent from the 3D terrain relief polygon creation unit 8.
  • control unit 2 determines parameters necessary for map drawing, such as a drawing range and a display scale, in accordance with an external input, and sends the parameters to the map data acquisition unit 3.
  • the map data acquisition unit 3 acquires necessary map data from the map database 1 according to the parameters sent from the control unit 2 and sends them to the texture creation unit 4.
  • the map data acquired from the map database 1 is divided into rectangles called parcels as shown in FIG. 2, and the map database 1 stores map data in parcel units.
  • the texture creation unit 4 draws data to be displayed on the terrain, such as road data and background data, from the map data sent from the map data acquisition unit 3, thereby rendering the 3D terrain relief polygon Create a texture to map to.
  • a texture creation process for creating a texture will be described with reference to the flowchart shown in FIG.
  • a texture of an arbitrary size is generated (step ST11). That is, the texture generating unit 5 generates a texture of an arbitrary size on a graphics memory (not shown). At this time, if a texture is generated for each parcel included in the drawing range, an unnecessary texture outside the drawing range is generated as shown in FIG. Therefore, in the texture creation process, only one texture is generated for the drawing range.
  • a texture for mapping to the three-dimensional terrain relief polygon is created by two-dimensionally rendering map data such as road data and background data on the texture generated in step ST11.
  • map coordinate system a coordinate system normalized in the map area
  • the texture expressed in the pixel coordinate system is the coordinate system. Different. Therefore, in order to perform two-dimensional drawing, it is necessary to convert the coordinate system. For the transformation of the coordinate system, it is necessary to determine the affine transformation scaling parameter in accordance with the texture resolution and the three-dimensional drawing parameters.
  • an enlargement / reduction parameter used for conversion from the map coordinate system to the pixel coordinate system is obtained (step ST12).
  • the coordinate conversion unit 6 calculates the enlargement / reduction parameter ratio by the following equation (1).
  • TW is the width of the texture to be assigned in one screen
  • distance is the distance between a1 and a2 calculated by the following equation (2) representing conversion from two-dimensional coordinates to three-dimensional coordinates.
  • d1 is a screen lower left pixel coordinate
  • d2 is a screen lower right pixel coordinate
  • Vp is a viewport matrix
  • P is a projection matrix
  • V is a view matrix
  • W is a world matrix.
  • the distance on the world coordinate system is equal to the distance on the map coordinate system.
  • the above equation (2) is obtained by the inverse transformation of the following equation (3) representing the conversion process from the three-dimensional coordinates to the device coordinates on the screen.
  • the map data in the map coordinate system is converted to the pixel coordinate system (step ST13). That is, the coordinate conversion unit 6 converts the map data in the map coordinate system into the pixel coordinate system by performing affine transformation using the enlargement / reduction parameter obtained in step ST12. At this time, map data of different parcels can be drawn at appropriate positions in the texture by appropriately setting parallel translation parameters for affine transformation for each parcel.
  • the texture drawing unit 7 creates a texture according to the texture resolution and the three-dimensional drawing parameters by two-dimensionally drawing the map data converted into the pixel coordinate system in step ST13, and the three-dimensional terrain relief polygon creating unit Send to 8.
  • the texture creation process ends.
  • the 3D terrain relief polygon creating unit 8 performs a 3D terrain relief polygon creating process for creating a 3D terrain relief polygon from the map data.
  • the three-dimensional landform relief polygon creation processing will be described with reference to the flowchart shown in FIG.
  • a 3D polygon is created for each parcel (step ST21). That is, the three-dimensional polygon creation unit 9 creates a three-dimensional polygon for each parcel based on the map data from the map data acquisition unit 3 and sends it to the texture coordinate setting unit 10.
  • the coordinate system of the three-dimensional polygon created here is a map coordinate system.
  • texture coordinates are set at the vertices of the three-dimensional polygon (step ST22). That is, in order to correctly map the texture sent from the texture creation unit 4 to the three-dimensional terrain relief polygon, the texture coordinate setting unit 10 uses the texture coordinates calculated using the following equation (4) as the three-dimensional terrain relief. Set to the vertex of the polygon.
  • (ltx, lty) is the coordinates at the upper left of the drawing range
  • (rbx, rby) is the coordinates at the lower right of the drawing range
  • (x, y) is the three-dimensional topographic relief for calculating the texture coordinates. Polygon coordinates.
  • the texture creation unit 4 performs the texture creation process, and then the 3D landform relief polygon creation unit 8 performs the 3D landform relief polygon creation process. It can also be configured such that the texture creation process is performed after the creation process.
  • the drawing unit 11 maps the texture created by the texture creation unit 4 to the 3D topographic relief polygon created by the three-dimensional landform relief polygon creation unit 8 and draws the 3D by three-dimensional drawing. Draw terrain relief.
  • texture is created by coordinate-converting map data such as roads and backgrounds with appropriate scale parameters and drawing two-dimensionally, By mapping to the terrain relief polygon, it is possible to realize 3D terrain relief display according to the texture resolution and 3D drawing parameters.
  • the texture only within the drawing range is created, the amount of use of the graphics memory can be minimized. As shown in FIG. 5, in the case where the parcel size and the drawing range are substantially equal, the memory usage can be reduced by 50% or more on average.
  • any component of the embodiment can be modified or any component of the embodiment can be omitted within the scope of the invention.
  • the present invention can be used, for example, when performing 3D terrain relief display in a car navigation system.
  • 1 map database 1 map database, 2 control unit, 3 map data acquisition unit, 4 texture creation unit, 5 texture generation unit, 6 coordinate conversion unit, 7 texture drawing unit, 8 3D terrain relief polygon creation unit, 9 3D polygon creation unit, 10 Texture coordinate setting part, 11 Drawing part.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Image Generation (AREA)

Abstract

 テクスチャを作成するテクスチャ作成部4と、3次元地形起伏ポリゴンを作成する3次元地形起伏ポリゴン作成部8と、テクスチャ作成部で作成されたテクスチャを3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングして3次元描画することにより3次元地図起伏描画を行う描画部11とを備え、テクスチャ作成部は、描画範囲に対して1枚のみのテクスチャを生成するテクスチャ生成部5と、地図座標系で表現されたベクタデータである地図データを、テクスチャのピクセル座標系に変換する座標変換部6と、座標変換部でピクセル座標系に変換された地図データを2次元描画することにより、3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングするためのテクスチャを作成するテクスチャ描画部7を備えている。

Description

地図描画装置
 この発明は、3次元地形起伏で表現された地図を描画する地図描画装置に関する。
 カーナビゲーションシステムの機能の1つとして、地図を3次元地形起伏で表現する3次元地形起伏表示機能が知られている。この3次元地形起伏表示機能を実現する方法として、一般に、3次元ポリゴンで構築された地形起伏データに、航空写真などの画像データをテクスチャとしてマッピングするテクスチャマッピングが用いられている。
 カーナビゲーションシステムで保持されている地図データは、パーセルと呼ばれる矩形に分割されており、パーセル単位で地図データが格納されている。そして、地図を描画する際は、一般に、パーセル単位で処理が行われる。そのため、テクスチャマッピングをカーナビゲーションシステムに適用する場合、パーセル単位で3次元地形起伏ポリゴンとテクスチャを作成する方法が考えられる。
 このようなテクスチャマッピングを用いた3次元地形起伏表示を実現するために、特許文献1は、矩形で区切られたブロックの画像データから描画範囲内の画像を切り出して3次元地形起伏ポリゴンにマッピングすることにより描画を行う技術を開示している。
特開2006-11760号公報
 しかしながら、上述した特許文献1には、あらかじめブロック単位で作成された画像データから描画範囲内の画像を切り出して、3次元地形起伏ポリゴンにテクスチャとしてマッピングする技術は開示されているが、テクスチャの作成方法には言及されていない。また、画像の切り出し処理を行うためには、一度描画範囲外を含む画像データをメモリ上に読み込まなければならず、処理速度の低下とメモリ使用量の増加を招くという問題がある。
 この発明は、上記問題を解決するためになされたものであり、好適なテクスチャを作成することができ、しかも、処理速度の向上およびメモリ使用量の削減を図ることができる地図描画装置を提供することを目的とする。
 この発明に係る地図描画装置は、テクスチャを作成するテクスチャ作成部と、3次元地形起伏ポリゴンを作成する3次元地形起伏ポリゴン作成部と、テクスチャ作成部で作成されたテクスチャを3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングして3次元描画することにより3次元地図起伏描画を行う描画部とを備え、テクスチャ作成部は、描画範囲に対して1枚のみのテクスチャを生成するテクスチャ生成部と、地図座標系で表現されたベクタデータである地図データを、テクスチャのピクセル座標系に変換する座標変換部と、座標変換部でピクセル座標系に変換された地図データを2次元描画することにより、3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングするためのテクスチャを作成するテクスチャ描画部を備えている。
 この発明に係る地図描画装置によれば、描画範囲に対して1枚のみの適切なサイズのテクスチャを作成することができるとともに、地図を描画する際の処理速度の向上およびメモリ使用量の削減を図ることができる地図描画装置を提供できる。
この発明の実施の形態1に係る地図描画装置の構成を示すブロック図である。 この発明の実施の形態1に係る地図描画装置における描画範囲とテクスチャの関係を説明するための図である。 この発明の実施の形態1に係る地図描画装置におけるテクスチャ作成処理を示すフローチャートである。 この発明の実施の形態1に係る地図描画装置における3次元地形起伏ポリゴン作成処理を示すフローチャートである。 この発明の実施の形態1に係る地図描画装置において行われる3次元地形起伏ポリゴンにテクスチャ座標を設定する処理を説明するための図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 以下に説明する実施の形態1は、この発明をカーナビゲーションシステムに含まれる地図描画装置に適用したものである。
 図1は、実施の形態1に係る地図描画装置の構成を示すブロック図である。この地図描画装置は、地図データベース1、制御部2、地図データ取得部3、テクスチャ作成部4、3次元地形起伏ポリゴン作成部8および描画部11を備えている。
 地図データベース1は、地図データを記憶している。この地図データベース1に記憶されている地図データは、地図データ取得部3によって読み出される。
 制御部2は、外部からの入力に応じて、描画範囲および表示縮尺などといった地図描画に必要なパラメータを決定する。この制御部2で決定されたパラメータは、地図データ取得部3に送られる。
 地図データ取得部3は、制御部2から送られてきたパラメータで示される描画範囲内の地図データを地図データベース1から取得する。この地図データ取得部3によって取得された地図データは、テクスチャ作成部4および3次元地形起伏ポリゴン作成部8に送られる。
 テクスチャ作成部4は、地図データ取得部3からの地図データに基づきテクスチャを作成し、描画部11に送る。さらに詳細に説明すると、テクスチャ作成部4は、テクスチャ生成部5、座標変換部6およびテクスチャ描画部7を備えている。
 テクスチャ生成部5は、図示しないグラフィックスメモリ上に、描画範囲に対して1枚のみのテクスチャを生成する。このテクスチャ生成部5で生成されたテクスチャは、テクスチャ描画部7に送られる。
 座標変換部6は、地図データ取得部3から送られてきた地図データを、テクスチャに描画可能なテクスチャ内のピクセル座標系に変換する。この座標変換部6で変換することにより得られたピクセル座標系の地図データは、テクスチャ描画部7に送られる。
 テクスチャ描画部7は、座標変換部6から送られてきたピクセル座標系の地図データを2次元描画により、テクスチャ生成部5で生成されたテクスチャに描画する。このテクスチャ描画部7で描画することにより得られたテクスチャは、描画部11に送られる。
 3次元地形起伏ポリゴン作成部8は、地図データ取得部3からの地図データに基づき3次元地形起伏ポリゴンを作成し、描画部11に送る。さらに詳細に説明すると、3次元地形起伏ポリゴン作成部8は、3次元ポリゴン作成部9およびテクスチャ座標設定部10を備えている。
 3次元ポリゴン作成部9は、地図データ取得部3からの地図データに基づき3次元ポリゴンを作成する。この3次元ポリゴン作成部9で作成された3次元ポリゴンは、テクスチャ座標設定部10に送られる。
 テクスチャ座標設定部10は、3次元ポリゴン作成部9から送られてきた3次元ポリゴンの各頂点にテクスチャ座標を設定し、3次元地形起伏ポリゴンを作成する。このテクスチャ座標設定部10で作成された3次元地形起伏ポリゴンは、描画部11に送られる。
 描画部11は、テクスチャ作成部4から送られてきたテクスチャと3次元地形起伏ポリゴン作成部8から送られてきた3次元地形起伏ポリゴンとを用いて3次元地形起伏描画を行う。
 次に、上記のように構成される実施の形態1に係る地図描画装置の動作を説明する。まず、制御部2は、外部からの入力に応じて、描画範囲および表示縮尺などといった地図描画に必要なパラメータを決定し、地図データ取得部3に送る。
 次いで、地図データ取得部3は、制御部2から送られてきたパラメータに従って、必要な地図データを地図データベース1から取得し、テクスチャ作成部4に送る。なお、地図データベース1から取得される地図データは、図2に示すように、パーセルと呼ばれる矩形に分割されており、地図データベース1には、パーセル単位で地図データが格納されているものとする。
 次いで、テクスチャ作成部4は、地図データ取得部3から送られてきた地図データのうち、道路データおよび背景データなどといった地形上に表示すべきデータを2次元描画することにより、3次元地形起伏ポリゴンにマッピングするためのテクスチャを作成する。ここで、テクスチャを作成するためのテクスチャ作成処理について、図3に示すフローチャートを参照しながら説明する。
 テクスチャ作成処理では、まず、任意サイズのテクスチャが生成される(ステップST11)。すなわち、テクスチャ生成部5は、図示しないグラフィックスメモリ上に、任意サイズのテクスチャを生成する。この際、描画範囲に含まれるパーセル毎にテクスチャを生成すると、図2に示すように、描画範囲外の不要なテクスチャが生成されるので、グラフィックスメモリ使用量が増加する。そこで、テクスチャ作成処理では、描画範囲に対して1枚のみのテクスチャが生成される。
 次いで、ステップST11で生成されたテクスチャに、道路データおよび背景データなどの地図データを2次元描画することにより、3次元地形起伏ポリゴンにマッピングするためのテクスチャが作成されるが、道路データおよび背景データなどは、緯度・経度および地図領域内で正規化された座標系(以下、「地図座標系」という)で表現されたベクタデータであるため、ピクセル座標系で表現されるテクスチャとは座標系が異なる。したがって、2次元描画するためには、座標系の変換を行う必要がある。この座標系の変換のために、テクスチャの解像度および3次元描画パラメータに応じて、アフィン変換の拡大縮小パラメータを決定する必要がある。
 そこで、地図座標系からピクセル座標系へ変換する際に使用する拡大縮小パラメータが求められる(ステップST12)。具体的には、座標変換部6は、下記(1)式により、拡大縮小パラメータratioを算出する。
Figure JPOXMLDOC01-appb-I000001
ここで、TWは1画面内に割り当てるテクスチャの幅であり、distanceは2次元座標から3次元座標への変換を表す下記(2)式で算出されるa1とa2の間の距離である。
Figure JPOXMLDOC01-appb-I000002
 ここで、d1は画面左下ピクセル座標、d2は画面右下ピクセル座標、Vpはビューポートマトリックス、Pはプロジェクションマトリックス、Vはビューマトリックス、Wはワールドマトリックスである。なお、ワールド座標系上での距離は地図座標系での距離に等しい。また、上記(2)式は、3次元座標から画面上のデバイス座標への変換処理を表す下記(3)式の逆変換により求められる。
Figure JPOXMLDOC01-appb-I000003
 このように、テクスチャの解像度および3次元描画パラメータに応じた座標変換の比率を算出することにより、常に適切なテクスチャを作成できる。
 なお、上記拡大縮小パラメータとしては、あらかじめオフラインで、特定のテクスチャの解像度および3次元描画パラメータに応じたものを算出しておき、必要に応じて使用するように構成することもできる。
 次いで、地図座標系の地図データがピクセル座標系に変換される(ステップST13)。すなわち、座標変換部6は、ステップST12で求めた拡大縮小パラメータを用いてアフィン変換を行うことにより、地図座標系の地図データをピクセル座標系に変換する。この際、パーセル毎にアフィン変換の平行移動パラメータを適切に設定することにより、異なるパーセルの地図データを、テクスチャ内の適切な位置に描画することができる。
 次いで、ピクセル座標系に変換された後の地図データがテクスチャに描画される(ステップST14)。すなわち、テクスチャ描画部7は、ステップST13でピクセル座標系に変換された地図データを2次元描画することにより、テクスチャ解像度および3次元描画パラメータに応じたテクスチャを作成し、3次元地形起伏ポリゴン作成部8に送る。以上により、テクスチャ作成処理は終了する。
 次いで、3次元地形起伏ポリゴン作成部8は、地図データから3次元地形起伏ポリゴンを作成する3次元地形起伏ポリゴン作成処理を行う。ここで、3次元地形起伏ポリゴン作成処理について、図4に示すフローチャートを参照しながら説明する。
 3次元地形起伏ポリゴン作成処理では、まず、パーセル毎に3次元ポリゴンが作成される(ステップST21)。すなわち、3次元ポリゴン作成部9は、地図データ取得部3からの地図データに基づきパーセル毎に3次元ポリゴンを作成し、テクスチャ座標設定部10に送る。ここで作成される3次元ポリゴンの座標系は、地図座標系である。
 次いで、3次元ポリゴンの頂点にテクスチャ座標が設定される(ステップST22)。すなわち、テクスチャ座標設定部10は、テクスチャ作成部4から送られてきたテクスチャを3次元地形起伏ポリゴンに正しくマッピングするために、下記(4)式を用いて算出したテクスチャ座標を、3次元地形起伏ポリゴンの頂点に設定する。
Figure JPOXMLDOC01-appb-I000004
 ここで、図5に示すように、(ltx,lty)は描画範囲左上の座標、(rbx,rby)は描画範囲右下の座標、(x,y)はテクスチャ座標を算出する3次元地形起伏ポリゴン座標である。以上により、3次元地形起伏ポリゴン作成処理は終了する。
 なお、上述した例では、テクスチャ作成部4においてテクスチャ作成処理が行われた後に3次元地形起伏ポリゴン作成部8において3次元地形起伏ポリゴン作成処理が行われるように構成したが、3次元地形起伏ポリゴン作成処理が行われ後にテクスチャ作成処理を行うように構成することもできる。
 最後に、描画部11は、3次元地形起伏ポリゴン作成部8で作成された3次元地形起伏ポリゴンに、テクスチャ作成部4で作成されたテクスチャをマッピングして、3次元描画することにより、3次元地形起伏描画を行う。
 以上説明したように、実施の形態1に係る地図描画装置によれば、道路および背景などの地図データを適切な拡大縮尺パラメータにより座標変換して2次元描画することによりテクスチャを作成し、3次元地形起伏ポリゴンにマッピングすることにより、テクスチャ解像度および3次元描画パラメータに応じた3次元地形起伏表示を実現できる。また、描画範囲内のみのテクスチャが作成されるので、グラフィックスメモリの使用量を最小限に抑えることができる。なお、図5に示すように、パーセルのサイズと描画範囲がほぼ等しいようなケースでは、平均で50%以上のメモリ使用量削減が可能である。
 なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
 この発明は、例えば、カーナビゲーションシステムにおいて3次元地形起伏表示を行う場合に利用できる。
 1 地図データベース、2 制御部、3 地図データ取得部、4 テクスチャ作成部、5 テクスチャ生成部、6 座標変換部、7 テクスチャ描画部、8 3次元地形起伏ポリゴン作成部、9 3次元ポリゴン作成部、10 テクスチャ座標設定部、11 描画部。

Claims (3)

  1.  テクスチャを作成するテクスチャ作成部と、
     3次元地形起伏ポリゴンを作成する3次元地形起伏ポリゴン作成部と、
     前記テクスチャ作成部で作成されたテクスチャを、前記3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングして3次元描画することにより3次元地図起伏描画を行う描画部を備え、
     前記テクスチャ作成部は、
     描画範囲に対して1枚のみのテクスチャを生成するテクスチャ生成部と、
     地図座標系で表現されたベクタデータである地図データを、テクスチャのピクセル座標系に変換する座標変換部と、
     前記座標変換部でピクセル座標系に変換された地図データを2次元描画することにより、前記3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングするためのテクスチャを作成するテクスチャ描画部
    とを備えた地図描画装置。
  2.  テクスチャを作成するテクスチャ作成部と、
     3次元地形起伏ポリゴンを作成する3次元地形起伏ポリゴン作成部と、
     前記テクスチャ作成部で作成されたテクスチャを前記3次元地形起伏ポリゴン作成部で作成された3次元地形起伏ポリゴンにマッピングして3次元描画することにより3次元地図起伏描画を行う描画部を備え、
     前記3次元地形起伏ポリゴン作成部は、
     地図データに基づき3次元ポリゴンを作成する3次元ポリゴン作成部と、
     前記3次元ポリゴン作成部からの3次元ポリゴンの各頂点にテクスチャ座標を設定して3次元地形起伏ポリゴンを作成するテクスチャ座標設定部
    とを備えた地図描画装置。
  3.  3次元地形起伏ポリゴン作成部は、
     地図データに基づき3次元ポリゴンを作成する3次元ポリゴン作成部と、
     前記3次元ポリゴン作成部からの3次元ポリゴンの各頂点にテクスチャ座標を設定して3次元地形起伏ポリゴンを作成するテクスチャ座標設定部
    を備えたことを特徴とする請求項1記載の地図描画装置。
PCT/JP2011/001107 2011-02-25 2011-02-25 地図描画装置 WO2012114387A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013500674A JP5599503B2 (ja) 2011-02-25 2011-02-25 地図描画装置
US13/979,902 US20130300738A1 (en) 2011-02-25 2011-02-25 Map rendering device
DE112011104959T DE112011104959T5 (de) 2011-02-25 2011-02-25 Kartenwiedergabevorrichtung
PCT/JP2011/001107 WO2012114387A1 (ja) 2011-02-25 2011-02-25 地図描画装置
CN2011800683351A CN103384897A (zh) 2011-02-25 2011-02-25 地图描绘装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/001107 WO2012114387A1 (ja) 2011-02-25 2011-02-25 地図描画装置

Publications (1)

Publication Number Publication Date
WO2012114387A1 true WO2012114387A1 (ja) 2012-08-30

Family

ID=46720210

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/001107 WO2012114387A1 (ja) 2011-02-25 2011-02-25 地図描画装置

Country Status (5)

Country Link
US (1) US20130300738A1 (ja)
JP (1) JP5599503B2 (ja)
CN (1) CN103384897A (ja)
DE (1) DE112011104959T5 (ja)
WO (1) WO2012114387A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740256A (zh) * 2014-12-09 2016-07-06 高德信息技术有限公司 一种三维地图的生成方法及装置
CN106815359B (zh) * 2017-01-22 2020-06-09 山东鲁能软件技术有限公司 基于移动gis平台的一种矢量地图立体边的生成方法
CN110956673A (zh) * 2018-09-26 2020-04-03 北京高德云图科技有限公司 一种地图绘制方法及装置
CN111915711A (zh) * 2020-08-04 2020-11-10 北京吉威空间信息股份有限公司 支持虚拟vr的三调地类图斑立体图像获取方法及装置
CN112614221A (zh) * 2020-12-29 2021-04-06 北京百度网讯科技有限公司 高精地图渲染方法、装置、电子设备及自动驾驶车辆
CN117333631B (zh) * 2023-11-29 2024-03-12 航天宏图信息技术股份有限公司 基于Threejs+Geoserver的三维地形渲染方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230767A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd 情報表示方法
JP2002140732A (ja) * 2000-11-02 2002-05-17 Kddi Corp 画像の重ね合わせに用いるサーバ及び該サーバを有するシステム
JP2006011760A (ja) * 2004-06-25 2006-01-12 Joho Kankyo Design Kk 三次元地形表示システム
JP2009217000A (ja) * 2008-03-11 2009-09-24 Fujitsu Microelectronics Ltd 描画処理装置、描画処理プログラムおよび描画処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456288B1 (en) * 1998-03-31 2002-09-24 Computer Associates Think, Inc. Method and apparatus for building a real time graphic scene database having increased resolution and improved rendering speed
JP4786842B2 (ja) * 2000-10-06 2011-10-05 パナソニック株式会社 地図表示装置、地図表示方法、及び前記地図表示装置において用いられるコンピュータプログラム
US6828978B2 (en) * 2002-02-28 2004-12-07 David B. Buehler Bucket-sorting graphical rendering apparatus and method
JP2003030687A (ja) * 2002-04-22 2003-01-31 Hitachi Ltd 地図表示装置
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
JP2009099098A (ja) * 2007-10-19 2009-05-07 Toshiba Corp コンピュータグラフィックス描画装置及び描画方法
CN102132324A (zh) * 2009-06-24 2011-07-20 松下电器产业株式会社 图形描绘装置、图形描绘方法、图形描绘程序、记录图形描绘程序的记录介质、集成电路

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230767A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd 情報表示方法
JP2002140732A (ja) * 2000-11-02 2002-05-17 Kddi Corp 画像の重ね合わせに用いるサーバ及び該サーバを有するシステム
JP2006011760A (ja) * 2004-06-25 2006-01-12 Joho Kankyo Design Kk 三次元地形表示システム
JP2009217000A (ja) * 2008-03-11 2009-09-24 Fujitsu Microelectronics Ltd 描画処理装置、描画処理プログラムおよび描画処理方法

Also Published As

Publication number Publication date
CN103384897A (zh) 2013-11-06
JPWO2012114387A1 (ja) 2014-07-07
US20130300738A1 (en) 2013-11-14
DE112011104959T5 (de) 2013-11-14
JP5599503B2 (ja) 2014-10-01

Similar Documents

Publication Publication Date Title
JP5599503B2 (ja) 地図描画装置
JP6580800B2 (ja) 加速されたライトフィールドディスプレイ
JP6863693B2 (ja) グラフィックス処理システムおよび方法
JP5562439B2 (ja) 空間データ処理方法及び装置
CN104517313A (zh) 基于屏幕空间的环境光遮蔽的方法
JP6223916B2 (ja) 情報処理装置、方法及びプログラム
JP2012098951A (ja) 図形描画処理装置、図形描画処理方法、及びコンピュータプログラム
KR20130023005A (ko) 3차원 폰트 엔진을 위한 장치 및 방법
JPWO2016092588A1 (ja) 描画装置、および描画方法
JP2004138581A (ja) 地図表示装置および地図表示方法
CN111145298B (zh) 顾及线宽一致性的矢量地图栅栏虚线符号绘制方法
CN111127589B (zh) 顾及线宽一致性的矢量地图圆形虚线符号绘制方法
CN111145302B (zh) 顾及线宽一致性的矢量地图方形虚线符号绘制方法
JP5921753B2 (ja) 地図描画装置
CN111127297A (zh) 顾及线宽一致性的矢量地图实线符号绘制方法
Schoedon et al. Interactive Web-based Visualization for Accessibility Mapping of Transportation Networks.
CN111145300B (zh) 顾及线宽一致性的矢量地图尖角形虚线符号绘制方法
JP5383906B2 (ja) 画像描画装置および画像描画方法
KR100663024B1 (ko) 고도별 상이한 이미지 표현 방법
JP6247456B2 (ja) ナビゲーション装置および地図描画方法
CN111145299B (zh) 顾及线宽一致性的矢量地图实线符号拐角绘制方法
JP5388707B2 (ja) 描画処理装置及び描画処理方法
KR100917887B1 (ko) 라인 가속 기능을 지원하는 그래픽 처리 방법 및 장치
JP2011186930A (ja) 描画制御装置、描画制御方法、そのコンピュータ・プログラムおよびそのプログラムを記録した記録媒体
Miyazaki et al. Creating the displacement mapped low-level mesh and its application for CG software

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11859255

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013500674

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13979902

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112011104959

Country of ref document: DE

Ref document number: 1120111049595

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11859255

Country of ref document: EP

Kind code of ref document: A1