WO2005098760A1 - 描画方法、描画プログラム、および描画装置 - Google Patents

描画方法、描画プログラム、および描画装置 Download PDF

Info

Publication number
WO2005098760A1
WO2005098760A1 PCT/JP2005/004492 JP2005004492W WO2005098760A1 WO 2005098760 A1 WO2005098760 A1 WO 2005098760A1 JP 2005004492 W JP2005004492 W JP 2005004492W WO 2005098760 A1 WO2005098760 A1 WO 2005098760A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
viewpoint coordinates
drawn
viewpoint
input
Prior art date
Application number
PCT/JP2005/004492
Other languages
English (en)
French (fr)
Inventor
Reiji Matsumoto
Hajime Adachi
Shunichi Kumagai
Takuya Hirose
Masayoshi Suzuki
Original Assignee
Pioneer Corporation
Pioneer System Technologies Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation, Pioneer System Technologies Corporation filed Critical Pioneer Corporation
Priority to EP05726661A priority Critical patent/EP1732043A4/en
Priority to JP2006511943A priority patent/JP4388064B2/ja
Priority to US10/594,320 priority patent/US7633500B2/en
Publication of WO2005098760A1 publication Critical patent/WO2005098760A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a drawing method, a drawing program, and a drawing device.
  • the use of the present invention is not limited to the above-described drawing method, drawing program, and drawing apparatus. Background art
  • a map search device capable of displaying a map three-dimensionally by processing with a small calculation load.
  • the map retrieval device reads, from the map storage device, map data near the current position of the vehicle calculated by the position calculation device or map data in a range of a map to be displayed specified by the input device.
  • the arithmetic processing unit performs perspective transformation of the four vertices of the read map data based on the viewpoint and gazing point coordinates input from the input device, maps the map data to the transformed coordinates, and further performs clipping.
  • the map after the mapping is displayed on the output device (for example, see Patent Document 1 below).
  • Patent Document 1 JP-A-9138136
  • the drawing method according to the first aspect of the present invention is a drawing method, comprising the steps of: inputting an arbitrary viewpoint coordinate in a three-dimensional coordinate system; and viewing one object from the viewpoint coordinates input in the input step.
  • a second drawing step of drawing an image of the other object so as to overlap the image of the one object. .
  • a drawing program according to the invention of claim 7 causes a computer to execute the drawing method according to any one of claims 115.
  • a drawing apparatus is a drawing device, comprising: an input unit that receives an input of an arbitrary viewpoint coordinate in a three-dimensional coordinate system; and an object that is viewed from the viewpoint coordinates input by the input unit.
  • a first drawing unit that draws an image of the one object in the case where the first object is drawn, and depth information of the image of the one object drawn by the first drawing unit is set to the viewpoint coordinates more than the one object.
  • Changing means for changing the near position force to information on the distance to the viewpoint coordinate; and, based on the depth information changed by the changing means, changing the viewpoint coordinate force to another object different from the one object.
  • Second drawing means for drawing an image of the other object in the case of overlapping with the image of the one object. Characterized in that
  • FIG. 1 is a block diagram showing a hardware configuration of a drawing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a functional configuration of a drawing apparatus according to an embodiment of the present invention.
  • FIG. 3 schematically shows information stored in the map information database shown in Fig. 2.
  • FIG. 1 A first figure.
  • FIG. 4 is a perspective view showing an object generated by the generation unit.
  • FIG. 5 is a flowchart of a drawing processing procedure according to the first embodiment.
  • FIG. 6 is a flowchart showing a specific processing procedure of the tunnel drawing processing according to the first embodiment.
  • FIG. 7 is an explanatory diagram (part 1) showing the drawing contents in the tunnel drawing processing.
  • FIG. 8 is an explanatory view (2) of the drawing content in the tunnel drawing process.
  • Fig. 9 is an explanatory view (3) of the drawing content in the tunnel drawing process.
  • FIG. 10 is a flowchart of a tunnel drawing process according to the second embodiment.
  • FIG. 11 is an explanatory view (part 1) showing the drawing contents in the tunnel drawing processing.
  • FIG. 12 is an explanatory view (2) of the drawing content in the tunnel drawing process.
  • FIG. 13 is an explanatory view (3) of the drawing content in the tunnel drawing process.
  • FIG. 14 is an explanatory view (No. 4) showing drawing contents in tunnel drawing processing.
  • FIG. 15 is an explanatory diagram showing another example of the drawing content in the tunnel drawing process. Explanation of symbols
  • a drawing method, a drawing program, and a drawing device according to an embodiment of the present invention is to be able to improve safe driving by drawing a simple and realistic image.
  • a drawing method, a drawing program, and a drawing device that are useful in the embodiment of the present invention are, for example, a drawing method, a drawing program, and a drawing device using a Z-buffer method as an example of a hidden surface elimination method.
  • FIG. 1 is a block diagram illustrating a hardware configuration of a drawing apparatus according to an embodiment of the present invention.
  • the drawing apparatus includes a CPU 101, a ROM 102, a RAM 103, an HDD (hard disk drive) 104, an HD (node disk) 105, a CDZDVD drive 106, and an example of a removable recording medium.
  • CDZDVD 107 video Z audio IZF (interface) 108, display 109, speaker (headphone) 110, input I / F (interface) 111, remote controller 112, input key 113, communication IZF (Interface) 114, GPS (Global Positioning System) receiver 115, angular velocity sensor 116, mileage sensor 117, tilt sensor 118, graphics memory 119, and graphics processor 130.
  • the components 101 to 119 and 130 are connected by a bus 100.
  • the CPU 101 controls the entire drawing apparatus.
  • the ROM 102 stores programs such as a boot program.
  • the RAM 103 is used as a work area of the CPU 101.
  • the HDD 104 controls the data read Z write to the HD 105 according to the control of the CPU 101.
  • the HD 105 stores data written under the control of the HDD 104.
  • the CDZDVD drive 106 controls read / write of data to / from the CDZDVD 107 under the control of the CPU 101.
  • the CDZDVD 107 is a removable recording medium from which data recorded under the control of the CDZDVD drive 106 is read.
  • a writable recording medium can be used.
  • the removable recording medium may be a CDZDVD107, a CD-ROM (CD-R, CD-RW), an MO, a memory card, or the like.
  • the video Z audio IZF 108 is connected to a display 109 for video display and a headphone (speaker) 110 for audio output.
  • the display 109 displays icons, cursors, menus, windows, or various data such as characters and images.
  • a CRT a CRT
  • a TFT liquid crystal display a plasma display, or the like can be employed.
  • the input IZF 111 inputs data transmitted from a remote controller 112 provided with a plurality of keys for inputting characters, numerical values, various instructions, and the like, and input keys (including a keyboard and a mouse) 113. I do.
  • a remote controller 112 provided with a plurality of keys for inputting characters, numerical values, various instructions, and the like, and input keys (including a keyboard and a mouse) 113. I do.
  • an output IZF can be provided as necessary, and a scanner for optically reading characters and images and a printer for printing characters and images can be connected via the output IZF.
  • the communication IZF 114 is connected to a network wirelessly or via a communication cable, and functions as an interface between the network and the CPU 101.
  • the network includes a LAN, a WAN, a public line network, a mobile phone network, and the like.
  • the communication IZF 114 inputs various data output from the GPS receiver 115, the angular velocity sensor 116, the mileage sensor 117, and the inclination sensor 118.
  • the GPS receiver 115 receives a radio wave from a GPS satellite and obtains a geometric position with respect to the GPS satellite, and can measure anywhere on the earth.
  • the radio wave is a carrier wave of 1,575.42 MHz, and is transmitted using the L1 radio wave carrying the CZA (Coarse and Access) code and navigation message.
  • the navigation message has a bit rate of 50 bps, and the code length is 300 bits for the subframe.
  • the angular velocity sensor 116 detects the angular velocity at the time of rotation of the own vehicle, and outputs angular velocity data and relative azimuth data.
  • the mileage sensor 117 calculates the number of pulses per one rotation of the wheel by counting the number of pulses of a pulse signal of a predetermined cycle output with the rotation of the wheel, and travels based on the number of pulses per rotation. Output distance data.
  • the inclination sensor 118 detects the inclination angle of the road surface and outputs inclination angle data.
  • the graphics memory 119 includes a frame buffer 120 and a Z buffer 121.
  • the frame buffer 120 stores the color data of the drawn image for each pixel.
  • the Z buffer 121 stores a Z value indicating the depth of the drawn image for each pixel.
  • the graphics memory 119 may be configured by providing a graphics area inside the RAM 103 described above. Also, the graphics processor 130 controls graphics-related processing, for example, drawing and display of map information.
  • FIG. 2 is a block diagram showing a functional configuration of a drawing apparatus 200 according to an embodiment of the present invention.
  • the drawing device 200 includes a map information database 201, an input unit 203, an extraction unit 204, a generation unit 205, a drawing unit 206, a change unit 207, a storage unit 202, a detection unit 208, It has.
  • the map information database 201 stores map information.
  • FIG. 3 is an explanatory diagram schematically showing information stored in the map information database 201 shown in FIG.
  • a map information database 201 uses a three-dimensional coordinate system including an X axis, a Y axis, and a Z axis.
  • the ground object 301 is, for example, mesh data in which a plurality of triangular polygons are combined, and each vertex of the polygon has a coordinate value using a three-dimensional coordinate system.
  • the map information database 201 also stores road network data 311 using the two-dimensional coordinate system of the X axis and the Y axis.
  • the road network data 311 is, specifically, data in which a plurality of links are connected by nodes.
  • Each link has road width information such as the number of lanes and tunnel information for identifying whether the road is inside a tunnel.
  • each node has height information in the z-axis direction and tunnel information for identifying a tip position, a halfway position, a terminal position, and the like of the tunnel.
  • a link indicated by a solid line (for example, link 321) is road data drawn on the ground object 301, and a link 322 indicated by a dotted line corresponds to the tunnel information described above.
  • Road data in a tunnel having One node 331 of the link 322 has height information in the Z-axis direction and tunnel information for identifying that one end of the tunnel is open.
  • the other node 332 of the link 322 has height information in the Z-axis direction and tunnel information for identifying that the other end of the tunnel is open.
  • the functions of the map information database 201 are realized by a recording medium such as the ROM 102, the RAM 103, the HD 105, and the CDZDVD 107 shown in FIG.
  • the storage unit 202 stores color information (color data) and depth information (Z value) of the image drawn by the drawing unit 206 for each pixel.
  • the function of the storage unit 202 is realized by, for example, the graphic memory 119 shown in FIG.
  • the input unit 203 inputs arbitrary viewpoint coordinates in the above-described three-dimensional coordinate system. Specifically, the user inputs the viewpoint coordinates using the remote controller 112 and the input keys 113 shown in FIG. Further, the current position information can be obtained using the GPS receiver 115, the angular velocity sensor 116, the mileage sensor 117, and the inclination sensor 118 shown in FIG. 1, and the viewpoint coordinates can be obtained from the obtained current position information card.
  • the extraction unit 204 extracts map information existing in the field of view having a viewpoint coordinate power from the map information database 201 based on the viewpoint coordinates input by the input unit 203. Specifically, a frustum representing the field of view of the viewpoint coordinate force is set, and an object included in a coordinate position in the frustum is extracted.
  • the generating unit 205 generates various objects based on the map information extracted by the extracting unit 204. Specifically, for example, when a link or a node having tunnel information is extracted by the extraction unit 204, a tubular object corresponding to the length and width of the link is generated. Further, a front end object that covers the front end opening of the cylindrical object and a rear end opening object that covers the rear end opening are generated. Here, an object generated by the generation unit 205 will be described.
  • FIG. 4 is a perspective view showing an object generated by the generation unit 205.
  • the length L in the longitudinal direction of the cylindrical object 400 is the length of the tunnel to be generated, that is, the length of the link 322 corresponding to the road data in the tunnel shown in FIG. Yes, it is.
  • the width W of the tubular object 400 corresponds to the road width information of the link 322 corresponding to the road data in the tunnel.
  • the bottom surface 401 inside the tubular object 400 is drawn with a road texture.
  • the tip opening 411 of the tubular object 400 corresponds to the entrance of the tunnel.
  • a lid-shaped tip surface object 421 that covers the tip opening 411 is generated in the tip opening 411.
  • the tip surface object 421 is an object having only a shape, that is, a colorless (transparent) object.
  • the rear end opening 412 of the tubular object 400 corresponds to the exit of the tunnel.
  • a lid-shaped rear end surface object 422 that covers the rear end opening 412 is generated. If other objects viewed from the exit of the tunnel are not drawn, the rear end object 422 is colored, and if drawn, it is set to colorless.
  • the drawing unit 206 includes a first drawing unit 211 and a fourth drawing unit 214.
  • the first drawing unit 211 draws an image related to the one object when the viewpoint coordinate force input by the input unit 203 also looks at one object.
  • one object is, for example, the cylindrical object 400 generated by the generating unit 205
  • an image in which the opening 411 and the inner peripheral wall surfaces 401 to 403 of the cylindrical object 400 can be drawn can be drawn. More specifically, by recording the color data of this image in the frame buffer shown in FIG. 1, an image is drawn in which the opening of the cylindrical object 400 and the inner peripheral wall surfaces 401 to 403 can be seen.
  • the second drawing unit 212 executes another object when seeing another object different from the one object from the viewpoint coordinates. Is drawn so as to overlap the image related to one object. More specifically, if one object is a cylindrical object 400 and the other object is a ground object 301 extracted from the map information The image of the cylindrical object 400 seen from the viewpoint and the image of the ground object 301 seen from the viewpoint coordinates are drawn so as to overlap.
  • the depth information changed by the changing unit 207 is used for the image of the cylindrical object 400.
  • distance information to the coordinate position of the ground object in the 3D coordinate system is used.
  • the Z value is the depth information of the image of the cylindrical object 400 recorded in the Z buffer shown in FIG. 1 and the depth information of the drawing image of the ground object 301 viewed from the viewpoint coordinates. By comparing with the Z value, the drawing image of the overlapping portion can be selected.
  • the third drawing unit 213 draws an image relating to a transparent object having a transparent color that is located closer to the viewpoint coordinates than one object. Specifically, when one object is a cylindrical object 400 and a transparent object is a transparent (colorless) distal surface object 421 that covers the distal opening 411 of the cylindrical object 400, an image of the cylindrical object 400 is drawn. After that, before the other object, the ground object 301, is drawn, the image of the front end object 421 is drawn.
  • the image information of the distal end object 421 includes only the Z value, which is the depth information that the color information does not have, the overlapping portion between the image of the cylindrical object 400 and the image of the distal end object 421 The drawing state of the image of the cylindrical object 400 is maintained, and only the Z value is rewritten.
  • the fourth drawing unit 214 draws an image of one object and an object located behind the other object in view of the viewpoint coordinate force. Specifically, when one object is a cylindrical object 400 and another object is a ground object 301, an image of another ground object located behind the object is drawn. After drawing by the fourth drawing unit 214, by clearing the Z value of the drawn image, the drawn image can be depth information at infinity.
  • the changing unit 207 converts the depth information of the image of one object drawn by the first drawing unit 211 closer to the viewpoint coordinates than the one object, and the distance from the position to the viewpoint coordinates. Change to information about Specifically, if one object is a cylindrical object 400, for example, the depth information of the image of the cylindrical object 400 The depth information is changed to a position between the mark and the tip opening of the cylindrical object 400. More specifically, the changing unit 207 changes the depth information of the image of the tubular object 400 to the depth information of the image of the transparent object.
  • the detecting unit 208 detects whether the viewpoint coordinates are inside the tubular object 400, that is, inside the tunnel. Specifically, detection is performed using the XY coordinate values of the viewpoint coordinates, the XY coordinate values of the link 322 corresponding to the tunnel, and the height information of the nodes 331 and 332. For example, if the XY coordinate value of the viewpoint coordinates matches the XY coordinate value of the link 322 and the Z coordinate value of the viewpoint coordinates is smaller than the height information of the nodes 331 and 332 connecting the link 322, the viewpoint coordinates Can be detected as coordinates in the tunnel. Also, since the XY coordinate value of the link is expanded according to the width information of the link, even if the viewpoint coordinate is the XY coordinate value within the expanded range, it can be detected as the coordinate in the tunnel.
  • the input unit 203, the extraction unit 204, the generation unit 205, the drawing unit 206, the change unit 207, and the detection unit 208 described above are, for example, the ROM 102, the RAM 103, and the HD 105 shown in FIG.
  • the function is realized by causing the CPU 101 or the graphics processor 130 to execute a program recorded on a recording medium such as the CDZDVD 107, or by the input I / F 111.
  • FIG. 5 is a flowchart illustrating a drawing processing procedure according to the first embodiment.
  • the viewpoint coordinates are input (step S501: Yes)
  • the map information existing in the view frustum representing the field of view from the viewpoint coordinates that is, the ground object 301 and the road network data 311 are extracted.
  • step S 503 it is detected whether or not the road network data 311 in the frustum includes tunnel information (step S 503). If tunnel information is included (step S503: No), normal drawing processing is performed (step S504). Specifically, an image of each object whose viewpoint coordinate force is also visible is drawn, and the Z value of the image of each object is compared by using a hidden surface elimination method such as a Z-buffer method, thereby performing pseudo three-dimensional drawing.
  • a hidden surface elimination method such as a Z-buffer method
  • step S503 if tunnel information is included (step S503: Yes), the viewpoint coordinates are It is detected whether the coordinates are within the file (step S505). Then, when it is detected that the viewpoint coordinates are in the tunnel (step S505: Yes), the process proceeds to step S504. On the other hand, if it is determined that the viewpoint coordinates are not coordinates in the tunnel (step S505: No), tunnel drawing processing is performed (step S506). Here, a specific processing procedure of the tunnel drawing processing (step S506) will be described.
  • FIG. 6 is a flowchart showing a specific processing procedure of the tunnel drawing processing.
  • This tunnel drawing processing procedure is a processing procedure when an object viewed from the exit of the tunnel is not drawn.
  • FIG. 7 to FIG. 9 are explanatory diagrams showing drawing contents in the tunnel drawing processing.
  • a cylindrical object 400, a front end object 421, and a rear end surface object 422 from which the inner peripheral wall surfaces 401-403 can be seen from the viewpoint coordinates are generated (step S 601).
  • the front end object 421 is colorless, and the rear end object 422 is colored, for example, black.
  • the viewpoint coordinate force also calculates the distance to the tubular object 400, the viewpoint coordinate calculates the distance to the front end object 421, and the viewpoint coordinate force calculates the distance to the rear end surface object 422 (step S602).
  • the cylindrical object 400 viewed from the viewpoint coordinates that is, the image of the inner peripheral wall surfaces 401 to 403 and the image of the rear end surface object 422 are drawn (step S603).
  • the color data of the images of the inner peripheral wall surfaces 401 to 403 and the image of the rear end surface object 422 are recorded in the frame buffer 120 shown in FIG.
  • FIG. 7 is an explanatory diagram showing the drawing contents in step S603.
  • a cylindrical object 400 composed of a bottom surface 401, a side wall surface 402, and a ceiling surface 403 exists in a viewing frustum 700 representing a field of view viewed from viewpoint coordinates V.
  • the rear end face object 422 is located at the rear end opening 412 of the tubular object 400.
  • a road object 701 is formed in front of the tip opening 411.
  • the drawing image at this stage is indicated by reference numeral 710 in the figure.
  • the drawing image 710 includes a drawing image 711 of the bottom surface 401, a drawing image 712 of the side wall surface 402, a drawing image 713 of the ceiling surface 403 (hereinafter referred to as an “inner wall image 711—713”), and a drawing image of the rear end surface object 422. (Hereinafter, refer to ⁇ Rear end face image )) And a drawing image 715 of the road object 701.
  • step S604 depth information of the inner peripheral wall image 711—713 and the rear end face image 714 is recorded (step S604). Records a value corresponding to the distance from the viewpoint coordinates V calculated in step S602 to each point of the tubular object 400 in the Z buffer 121 for each pixel of the inner peripheral wall surface images 711-713. Further, a value corresponding to the distance from the viewpoint coordinates V to the rear end face object 422 is recorded in the Z buffer 121 for each rear end face image 714.
  • step S605 a colorless image of the tip surface object 421 is drawn. Specifically, since the front end surface object 421 is colorless, the value of the frame buffer 120 does not change, and the inner peripheral wall surface images 711-713 and the rear end surface image 714 remain drawn.
  • the drawing contents in step S605 will be described.
  • FIG. 8 is an explanatory diagram showing the drawing contents in step S605.
  • a distal end surface object 421 is arranged at a distal end opening 411 of a cylindrical object 400. Since the front end surface object 421 is colorless, the value of the frame buffer 120 of the inner peripheral wall surface image 711 — 713 and the rear end surface image 714 overlapping with the drawing range of the front end surface object 421 is not updated, and the inner peripheral wall surface image 711 is not updated. — Drawing of 713 and rear end face image 714 is maintained. On the other hand, by the drawing in step S605, the depth information (Z value) of the inner peripheral wall surface image 711—713 and the rear end surface image 714 is changed from the value recorded in step S604 to the viewpoint coordinate V force to the front end object 421. The value is updated to a value corresponding to the distance (step S606).
  • step S607 the distance to the ground object 301, which also looks at the viewpoint coordinate V force, is calculated (step S607). Then, an image of the ground object 301 that also looks at the viewpoint coordinates V is drawn (step S608). In this drawing, the Z value that is the depth information updated in step S606 is compared with a value corresponding to the distance calculated in step S607.
  • the drawing content in step S605 will be described.
  • FIG. 9 is an explanatory diagram showing the drawing contents in step S608.
  • a ground object 301 is arranged so as to overlap with a cylindrical object 400.
  • the hem data 301a, 301b of the ground object 301 Is arranged inside the cylindrical object 400. Since the hem data 301a on the tip opening 411 side is located behind the tip surface object 421 when viewed from the viewpoint coordinate V force, the image in which the hem data 301a on the tip opening 411 side is also viewed from the viewpoint coordinate V force is the tip surface. The hidden surface is eliminated by the Z value of the transparent drawing image of the object 421.
  • the skirt data 301b on the rear end opening 412 side is located behind the front end object 421 when viewed from the viewpoint coordinate V force
  • the skirt data 301b on the front end opening 411 side is also viewed from the viewpoint coordinate V force.
  • the hidden image is erased by the Z value of the transparent drawing image of the front end object 421.
  • the skirt data 301b corresponds to the back of the polygon of the ground object 301 in view of the viewpoint coordinate V force, it is not drawn even by the knock face force ring process.
  • the ground object 301c outside the cylindrical object 400 is drawn as a drawing image 716.
  • the Z value of the internal image 711—714 of the tubular object 400 representing the tunnel is replaced with the Z value of the colorless tip surface object 421. Then, by drawing the ground object 301 behind the tip end object 421, the internal image 711—714 of the tubular object 400 is maintained while the drawing state of the internal image 711—714 of the tubular object 400 is maintained. Images of overlapping ground objects (foot data 301a, 301b) can be hidden-surface removed. As a result, it is possible to draw as if a tunnel was formed in the ground object 301, and it is possible to intuitively recognize that the actual scenery and the drawn image are the same.
  • FIG. 10 is a flowchart of a tunnel drawing process procedure according to the second embodiment.
  • This tunnel drawing processing procedure is a specific drawing processing in step S506 shown in FIG.
  • FIGS. 11 and 14 are explanatory diagrams showing the contents of the drawing in this tunnel drawing process. Note that the drawing processing procedure shown in FIG. 5 is also applied to the second embodiment, and a description thereof will be omitted.
  • the near surface N1 is moved to the exit position of the tunnel (step S1001).
  • the near surface after the movement is the near surface N2
  • the viewpoint coordinates An image of the ground object 341 and an image of the road object 342 in the viewing frustum 1100A in which the V force is also visible are drawn (step S1002).
  • the drawing image at this stage is indicated by reference numeral 1100 in the figure. Clear the depth information of the drawn images 1111 and 1112 (step S100
  • the ground object 341 and the road object 342 can be regarded as objects located at infinity, also in view of the viewpoint coordinate V force.
  • the near surface N2 is returned to the original position to be a near surface N1 (step S1).
  • a cylindrical object 400, a colorless front end object 421, and a colorless rear end surface object 422 existing in the viewing frustum 1100B indicating the field of view from the viewpoint coordinates V are generated (step S1005).
  • the distance from the viewpoint coordinate V to the cylindrical object 400, the distance from the viewpoint coordinate V force to the front end object 421, and the distance from the viewpoint coordinate V force to the rear end surface object 422 are calculated (step S1006).
  • the image of the cylindrical object 400 viewed from the viewpoint coordinates V that is, the inner peripheral wall surface images 711-713 is drawn (step S1007).
  • the color data of the inner peripheral wall images 711-713 is recorded in the frame buffer.
  • step S1008 depth information of the inner peripheral wall images 711-713 is recorded. Specifically, a value corresponding to the distance from the viewpoint coordinates V calculated in step S1006 to each point of the tubular object 400 is recorded in the Z buffer for each pixel of the inner peripheral wall surface image 711-713.
  • a colorless image of the front end object 421 and an image of the rear end object 422 are drawn (step S1009). Specifically, since the front end object 421 and the rear end surface object 422 are colorless, the value of the frame buffer 120 does not change, and the inner peripheral wall surface images 711-713 remain drawn. On the other hand, by this drawing, the depth information (Z value) is updated from the value recorded in step S1008 to a value corresponding to the distance from the viewpoint coordinates V to the tip surface object 421 (step S1010). .
  • the viewpoint coordinate V force also calculates the distance to the ground object 301 (step S1011). Then, as shown in FIG. 14, an image 716 of the ground object 301 is drawn (step S1012). In this drawing, the Z value serving as the depth information updated in step S1010 is compared with a value corresponding to the distance calculated in step S1011.
  • the ground object 301 is arranged so as to overlap the cylindrical object 400. Is done. Inside the cylindrical object 400, skirt data 301a and 30 lb of the ground object 301 are arranged. Since the hem data 301a on the tip opening 411 side is located behind the tip surface object 421 in view of the viewpoint coordinate V force, the image in which the hem data 301a on the tip opening 411 side is also seen in the viewpoint coordinate V force is the tip surface object 421. The hidden surface is removed according to the Z value of the transparent drawing image.
  • the skirt data 301b on the rear end opening 412 side is located behind the front end object 421 when viewed from the viewpoint coordinate V force, so the skirt data 301b on the front end opening 411 side is also viewed from the viewpoint coordinate V force.
  • the hidden image is erased by the Z value of the transparent drawing image of the front end object 421.
  • the skirt data 301b corresponds to the back of the polygon of the ground object 301 in view of the viewpoint coordinate V force, it is not drawn even by the knock face force ring process.
  • the ground object 301c outside the cylindrical object 400 is drawn as a drawing image 716.
  • the images 1111 and 1112 of the ground object 341 and the road object 342 behind the tunnel exit are drawn first, and the internal image of the cylindrical object 400 is drawn.
  • the image of the ground object (hem data 301a, 301b) overlapping with the internal image 711—713 of the cylindrical object 400 is maintained while the drawing state of the internal image 711—713 of the cylindrical object 400 is maintained. Can be erased.
  • the images 1111 and 1112 of the ground object 341 and the road object 342 behind the tunnel exit are also drawn, a more realistic drawn image can be obtained.
  • the skirt data 301a, 301b of the ground object 301 is the force at which the skirt data 301 is located inside the cylindrical object 400. As shown in FIG. Alternatively, it may be positioned before the tip opening 411 of the cylindrical object 400. In this case, when viewed from the viewpoint coordinates V, the colorless tip object Before drawing the ground object 301, the tip surface object 421 is drawn before the ground object 301 is drawn. As a result, the image of the skirt data 301a just before the front end opening 411 can be erased with the transparent image of the front end object 421.
  • a colorless rear end face object 422 is formed before the skirt data 301b, and the rear end face object 422 is drawn before the ground object 301 is drawn.
  • the image of the skirt data 301b behind the rear end opening 412 can be erased with the transparent image of the rear end object 422.
  • the drawing method, the drawing program, and the drawing apparatus 200 which are effective in the embodiment of the present invention, since the ground data is used to form the tunnel data, The amount can be reduced, and a realistic drawing that matches the scenery viewed can be realized by simple and high-speed processing.
  • the drawing method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by reading out the recording medium power by the computer.
  • This program may be a transmission medium that can be distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 地盤オブジェクト(301)は、筒状オブジェクト(400)と重なるように配置される。筒状オブジェクト(400)内部には、地盤オブジェクト(301)の裾データ(301a、301b)が配置される。先端開口(411)側の裾データ(301a)は、先端面オブジェクト(421)よりも視点座標Vから見て後方に位置するため、先端開口(411)側の裾データ(301a)を視点座標Vから見た画像は、先端面オブジェクト(421)の透明描画画像のZ値によって陰面消去される。

Description

明 細 書
描画方法、描画プログラム、および描画装置
技術分野
[0001] この発明は、描画方法、描画プログラム、および描画装置に関する。ただし、この発 明の利用は、上述した描画方法、描画プログラム、および描画装置に限られない。 背景技術
[0002] 従来から、計算負荷の小さい処理で地図を三次元的に表示することができる地図 検索装置が開示されている。この地図検索装置は、位置算出装置によって算出され た車両の現在位置付近の地図データ、または入力装置によって指定された表示する 地図の範囲の地図データを、地図記憶装置から読み出す。そして、演算処理装置は 、読み出された地図データの四頂点を、入力装置から入力された視点および注視点 座標に基づいて透視変換し、変換した座標に地図データをマッピングし、さらにクリツ ビングを行った後、出力装置においてマッピング後の地図を表示させる(たとえば、下 記特許文献 1を参照。)。
[0003] 特許文献 1 :特開平 9 138136号公報
発明の開示
発明が解決しょうとする課題
[0004] しカゝしながら、上述した特許文献 1の従来技術では、地盤の起伏を表現した地盤ォ ブジェクトを用いて鳥瞰図を描画して ヽただけであり、地盤に形成されて!ヽるトンネル の内部を描画していな力つた。このため、運転手の視点から、上述したトンネルが形 成されて ヽな 、地盤オブジェクトを描画した場合、道路が地盤に衝突するような描画 画像となる。したがって、運転手が実際に目視した正面の風景と描画画像とが異なつ てしまい、運転者に不安や誤解を与えるという安全運転上の問題が一例として挙げら れる。
[0005] 一方、地盤オブジェクトにあら力じめトンネルデータを構築すると、データ量が膨大 となって大容量メモリが必要となり、装置が高価になるという問題が一例として挙げら れる。 課題を解決するための手段
[0006] 請求項 1の発明にかかる描画方法は、 3次元座標系内の任意の視点座標を入力す る入力工程と、前記入力工程によって入力された視点座標から一のオブジェクトを見 た場合の当該一のオブジェクトに関する画像を描画する第 1の描画工程と、前記第 1 の描画工程によって描画された一のオブジェクトに関する画像の奥行き情報を、前記 一のオブジェクトよりも前記視点座標に近い位置力 前記視点座標までの距離に関 する情報に変更する変更工程と、前記変更工程によって変更された奥行き情報に基 づ 、て、前記視点座標から前記一のオブジェクトとは異なる他のオブジェクトを見た 場合の当該他のオブジェクトに関する画像を、前記一のオブジェクトに関する画像と 重なるように描画する第 2の描画工程と、を含んだことを特徴とする。
[0007] また、請求項 7の発明に力かる描画プログラムは、請求項 1一 5のいずれか一つに 記載の描画方法を、コンピュータに実行させることを特徴とする。
[0008] また、請求項 8の発明に力かる描画装置は、 3次元座標系内の任意の視点座標の 入力を受け付ける入力手段と、前記入力手段によって入力された視点座標から一の オブジェクトを見た場合の当該一のオブジェクトに関する画像を描画する第 1の描画 手段と、前記第 1の描画手段によって描画された一のオブジェクトに関する画像の奥 行き情報を、前記一のオブジェクトよりも前記視点座標に近い位置力も前記視点座 標までの距離に関する情報に変更する変更手段と、前記変更手段によって変更され た奥行き情報に基づ 、て、前記視点座標力も前記一のオブジェクトとは異なる他の オブジェクトを見た場合の当該他のオブジェクトに関する画像を、前記一のオブジェ タトに関する画像と重なるように描画する第 2の描画手段と、を備えることを特徴とする
図面の簡単な説明
[0009] [図 1]図 1は、この発明の実施の形態に力かる描画装置のハードウェア構成を示すブ ロック図である。
[図 2]図 2は、この発明の実施の形態に力かる描画装置の機能的構成を示すブロック 図である。
[図 3]図 3は、図 2に示した地図情報データベースに記憶されている情報を模式的に
o
示した説明図である。
[図〇 4]図 4は、生成部によって生成されたオブジェクトを示す斜視図である。
[図 5]図 5は、実施例 1にかかる描画処理手順を示すフローチャートである。
[図 6]図 6は、実施例 1にかかるトンネル描画処理の具体的な処理手順を示すフロー チャートである。
[図 7]図 7は、トンネル描画処理における描画内容を示す説明図(その 1)である。
[図 8]図 8は、トンネル描画処理における描画内容を示す説明図(その 2)である。
[図 9]図 9は、トンネル描画処理における描画内容を示す説明図(その 3)である。
[図 10]図 10は、実施例 2にかかるトンネル描画処理手順を示すフローチャートである
[図 11]図 11は、トンネル描画処理における描画内容を示す説明図(その 1)である。
[図 12]図 12は、トンネル描画処理における描画内容を示す説明図(その 2)である。
[図 13]図 13は、トンネル描画処理における描画内容を示す説明図(その 3)である。
[図 14]図 14は、トンネル描画処理における描画内容を示す説明図(その 4)である。
[図 15]図 15は、トンネル描画処理における描画内容の他の例を示す説明図である。 符号の説明
描画装置
201 地図情報データベース
202 L | P¾
203 入力部
204 抽出部
205 生成部
206 描画部
207 変更部
208 検出部
400 筒状オブジェクト
発明を実施するための最良の形態
011] 以下に添付図面を参照して、この発明の実施の形態に力かる描画方法、描画プロ グラム、および描画装置の好適な実施の形態を詳細に説明する。この発明の実施の 形態に力かる描画方法、描画プログラム、および描画装置は、簡易かつリアルな画像 を描画することにより安全運転の向上を図ることができることを目的の一つとしている 。また、この発明の実施の形態に力かる描画方法、描画プログラム、および描画装置 は、たとえば、陰面消去法の一例として Zバッファ法を用いた描画方法、描画プロダラ ム、および描画装置である。
[0012] (実施の形態)
(描画装置のハードウェア構成)
まず、この発明の実施の形態に力かる描画装置のハードウェア構成について説明 する。図 1は、この発明の実施の形態に力かる描画装置のハードウェア構成を示すブ ロック図である。
[0013] 図 1において、描画装置は、 CPU101と、 ROM102と、 RAM103と、 HDD (ハー ドディスクドライブ) 104と、 HD (ノヽードディスク) 105と、 CDZDVDドライブ 106と、 着脱可能な記録媒体の一例としての CDZDVD107と、映像 Z音声 IZF (インター フェース) 108と、ディスプレイ 109と、スピーカ(ヘッドホン) 110と、入力 I/F (インタ 一フェース) 111と、リモコン 112と、入力キー 113と、通信 IZF (インターフェース) 11 4と、 GPS (Global Positioning System)レシーバ 115と、角速度センサ 116と、 走行距離センサ 117と、傾斜センサ 118と、グラフィックスメモリ 119と、グラフィックス プロセッサ 130とを備えている。また、各構成部 101— 119, 130はバス 100によって それぞれ接続されている。
[0014] ここで、 CPU101は、描画装置の全体の制御を司る。 ROM102は、ブートプログラ ムなどのプログラムを記憶している。 RAM103は、 CPU101のワークエリアとして使 用される。 HDD104は、 CPU101の制御にしたがって HD105に対するデータのリ ード Zライトを制御する。 HD105は、 HDD104の制御で書き込まれたデータを記憶 する。
[0015] CDZDVDドライブ 106は、 CPU101の制御にしたがって CDZDVD107に対す るデータのリード Zライトを制御する。 CDZDVD107は、 CDZDVDドライブ 106の 制御にしたがって記録されたデータの読み出される着脱自在な記録媒体である。 C DZDVD107として、書き込み可能な記録媒体を利用することもできる。また、この着 脱可能な記録媒体として、 CDZDVD107のほ力、 CD— ROM (CD— R、 CD-RW) 、 MO、メモリーカードなどであってもよい。
[0016] また、映像 Z音声 IZF108は、映像表示用のディスプレイ 109および音声出力用 にヘッドホン (スピーカ) 110と接続される。ディスプレイ 109には、アイコン、カーソル 、メニュー、ウィンドウ、あるいは文字や画像等の各種データが表示される。このディ スプレイ 109は、たとえば、 CRT, TFT液晶ディスプレイ、プラズマディスプレイなどを 採用することができる。
[0017] また、入力 IZF111は、文字、数値、各種指示等の入力のための複数のキーを備 えたリモコン 112や入力キー(キーボード、マウスを含む) 113から送信されてくるデ ータを入力する。また、不図示であるが必要に応じて出力 IZFを設け、この出力 IZF を介して文字や画像を光学的に読み取るスキャナや、文字や画像を印刷するプリン タを接続することができる。
[0018] また、通信 IZF114は、無線、あるいは通信ケーブルを介してネットワークに接続さ れ、このネットワークと CPU101とのインターフェースとして機能する。ネットワークは、 LAN, WAN,公衆回線網や携帯電話網等がある。通信 IZF114は、 GPSレシ一 バ 115、角速度センサ 116、走行距離センサ 117および傾斜センサ 118から出力さ れる各種データを入力する。
[0019] また、 GPSレシーバ 115は、 GPS衛星からの電波を受信し、 GPS衛星との幾何学 的位置を求めるものであり、地球上どこでも計測可能である。電波としては、 1, 575. 42MHzの搬送波で、 CZA (Coarse and Access)コードおよび航法メッセージが 乗っている L1電波を用いておこなわれる。 CZAコードはビット率 1. 023Mbpsで、コ ードの長さは 1023bit= 1msである。
[0020] また、航法メッセージはビット率 50bpsで、コードの長さは、サブフレームが 300bit
=6sであり、メインフレームが 1500bit= 30sであり、 5サブフレームが 1メインフレー ムであり、 25メインフレームが 1マスターフレームである。すなわち、 GPS衛星からの 電波を受信して GPS測位データを出力するとともに、自車の進行方向の絶対方位デ ータを出力する。 [0021] 角速度センサ 116は、自車の回転時の角速度を検出し、角速度データと相対方位 データとを出力する。走行距離センサ 117は、車輪の回転に伴って出力される所定 周期のパルス信号のパルス数をカウントすることによって車輪一回転当たりのパルス 数を算出し、その一回転当たりのノ ルス数に基づく走行距離データを出力する。傾 斜センサ 118は、路面の傾斜角度を検出し、傾斜角データを出力する。
[0022] また、グラフィックスメモリ 119は、フレームバッファ 120と Zバッファ 121を備えている 。フレームバッファ 120は、描画画像の色データを画素ごとに記憶する。 Zバッファ 12 1は描画画像の奥行きを示す Z値を画素ごとに記憶する。このグラフィックスメモリ 119 は、上述した RAM103の内部にグラフィック用の領域を設けることによって構成する こととしてもよい。また、グラフィックスプロセッサ 130は、グラフィック関連の処理、たと えば地図情報の描画と表示制御を司る。
[0023] (描画装置の機能的構成)
つぎに、この発明の実施の形態に力かる描画装置の機能的構成について説明する 。図 2は、この発明の実施の形態に力かる描画装置 200の機能的構成を示すブロッ ク図である。図 2において、描画装置 200は、地図情報データベース 201と、入力部 203と、抽出部 204と、生成部 205と、描画部 206と、変更部 207と、記憶部 202と、 検出部 208と、を備えている。
[0024] 地図情報データベース 201は、地図情報を記憶する。図 3は、図 2に示した地図情 報データベース 201に記憶されている情報を模式的に示した説明図である。図 3に おいて、地図情報データベース 201には、 X軸、 Y軸、 Z軸からなる 3次元座標系を用 V、て地盤の起伏形状を立体的にあらわした地盤オブジェクト 301が記憶されて 、る。 この地盤オブジェクト 301は、具体的には、たとえば 3角形状の複数のポリゴンが結合 されたメッシュデータであり、ポリゴンの各頂点は 3次元座標系を用いた座標値を有し ている。
[0025] 地図情報データベース 201には、この X軸および Y軸の 2次元座標系を用いた道 路ネットワークデータ 311も記憶されている。道路ネットワークデータ 311は、具体的 には、複数のリンクをノードによって結合したデータである。各リンクは車線数などの 道幅情報やトンネル内の道路であるかどうかを識別するトンネル情報を有している。 また、各ノードは、 z軸方向である高さ情報や、トンネルの先端位置、中途位置、終端 位置などを識別するトンネル情報を有して 、る。
[0026] 図 3の道路ネットワークデータ 311中、実線で示したリンク (たとえば、リンク 321)は 、地盤オブジェクト 301上に描画される道路データであり、点線で示したリンク 322は 、上述したトンネル情報を有するトンネル内の道路データである。また、リンク 322の 一方のノード 331は、 Z軸方向の高さ情報とトンネルの一端開口であることを識別する トンネル情報を有する。同様に、リンク 322の他方のノード 332は、 Z軸方向の高さ情 報とトンネルの他端開口であることを識別するトンネル情報を有する。
[0027] この地図情報データベース 201は、具体的には、たとえば、図 1に示した ROM102 、 RAM103、 HD105、 CDZDVD107などの記録媒体によってその機能を実現す る。また、図 2において、記憶部 202は、描画部 206によって描画された画像の色情 報 (色データ)と奥行き情報 (Z値)とを画素ごとに記憶する。この記憶部 202は、具体 的には、たとえば、図 1に示したグラフィックメモリ 119によってその機能を実現する。
[0028] また、図 2において、入力部 203は、上述した 3次元座標系内の任意の視点座標を 入力する。具体的には、ユーザが、図 1に示したリモコン 112や入力キー 113を用い て、視点座標を入力する。また、図 1に示した GPSレシーバ 115、角速度センサ 116 、走行距離センサ 117、傾斜センサ 118を用いて現在位置情報を取得し、この取得 した現在位置情報カゝら視点座標を得ることができる。
[0029] 抽出部 204は、入力部 203によって入力された視点座標に基づいて、地図情報デ ータベース 201から、視点座標力もの視界内に存在する地図情報を抽出する。具体 的には、視点座標力ゝらの視界をあらわす視錐台を設定し、この視錐台内の座標位置 に含まれるオブジェクトを抽出する。
[0030] 生成部 205は、抽出部 204によって抽出された地図情報に基づいて、各種ォブジ ェクトを生成する。具体的には、たとえば、抽出部 204によってトンネル情報を有する リンクやノードが抽出された場合、そのリンクの長さおよび幅に相当する筒状オブジェ タトを生成する。また、この筒状オブジェクトの先端開口を覆う先端面オブジェクトや、 後端開口を覆う後端開口オブジェクトを生成する。ここで、生成部 205によって生成さ れるオブジェクトについて説明する。 [0031] 図 4は、生成部 205によって生成されたオブジェクトを示す斜視図である。図 4にお いて、筒状オブジェクト 400の長手方向の長さ Lは、生成するトンネルの長さ、すなわ ち、図 3に示した、トンネル内の道路データに相当するリンク 322の長さに対応してい る。また、筒状オブジェクト 400の幅 Wは、トンネル内の道路データに相当するリンク 3 22が有する上記道幅情報に対応している。
[0032] また、筒状オブジェクト 400内部の底面 401は、道路のテクスチャが描かれている。
また、側壁面 402および天井面 403には、実際のトンネル内部の側壁および天井面 を描いたテクスチャが描かれている。また、筒状オブジェクト 400の先端開口 411は、 トンネルの入り口に相当する。またこの先端開口 411には、この先端開口 411を覆う 蓋状の先端面オブジェクト 421が生成される。この先端面オブジェクト 421は形状の みのオブジェクト、すなわち、無色 (透明)である。
[0033] また、筒状オブジェクト 400の後端開口 412は、トンネルの出口に相当する。この後 端開口 412には、この後端開口 412を覆う蓋状の後端面オブジェクト 422が生成され る。トンネルの出口カゝら見た他のオブジェクトを描画しない場合は、後端面ォブジェク ト 422を有色とし、描画する場合は無色に設定する。
[0034] また、図 2において、描画部 206は、第 1の描画部 211—第 4の描画部 214を有す る。第 1の描画部 211は、入力部 203によって入力された視点座標力も一のオブジェ タトを見た場合の当該一のオブジェクトに関する画像を描画する。ここで、一のォブジ ェクトを、たとえば、生成部 205によって生成された筒状オブジェクト 400とすると、筒 状オブジェクト 400の開口 411および内周壁面 401— 403が見える画像を描画する ことができる。より具体的には、この画像の色データを図 1に示したフレームバッファに 記録することによって筒状オブジェクト 400の開口および内周壁面 401— 403が見え る画像描画する。
[0035] 第 2の描画部 212は、後述する変更部 207によって変更された奥行き情報に基づ V、て、視点座標から一のオブジェクトとは異なる他のオブジェクトを見た場合の他のォ ブジェクトに関する画像を、一のオブジェクトに関する画像と重なるように描画する。 具体的には、一のオブジェクトを筒状オブジェクト 400であり、他のオブジェクトを地図 情報データベース 201から抽出された地盤オブジェクト 301である場合、視点座標か ら見た筒状オブジェクト 400の画像と、視点座標カゝら見た地盤オブジェクト 301の画 像とが重なるように描画する。
[0036] 重なる部分の画像にっ 、ては、筒状オブジェクト 400の画像にっ 、ては変更部 20 7によって変更された奥行き情報を用いる。また、地盤オブジェクト 301の画像につい ては、視点座標カゝら地盤オブジェクトの 3次元座標系内の座標位置までの距離情報 を用いる。より具体的には、図 1に示した Zバッファに記録されている筒状オブジェクト 400の画像の奥行き情報となる Z値と、視点座標から見た地盤オブジェクト 301の描 画画像の奥行き情報となる Z値とを比較することによって重複部分の描画画像を選択 することができる。
[0037] 第 3の描画部 213は、一のオブジェクトよりも視点座標に近い位置に存在する透明 色の透明オブジェクトに関する画像を描画する。具体的には、一のオブジェクトを筒 状オブジェクト 400とし、透明オブジェクトを筒状オブジェクト 400の先端開口 411を 覆う透明(無色)の先端面オブジェクト 421とした場合、筒状オブジェクト 400の画像 が描画された後、他のオブジェクトである地盤オブジェクト 301が描画される前に、先 端面オブジェクト 421の画像を描画する。より具体的には、先端面オブジェクト 421の 画像情報には、色情報はなぐ奥行き情報である Z値のみであるため、筒状オブジェ タト 400の画像と先端面オブジェクト 421の画像との重複部分では、筒状オブジェクト 400の画像の描画状態が維持され、 Z値のみ書き換えられる。
[0038] また、第 4の描画部 214は、視点座標力も見て一のオブジェクトおよび他のオブジェ タトよりも後方に位置するオブジェクトに関する画像を描画する。具体的には、一のォ ブジエタトが筒状オブジェクト 400であり、他のオブジェクトが地盤オブジェクト 301で ある場合、この後方に位置する他の地盤オブジェクトの画像を描画する。この第 4の 描画部 214による描画の後、描画された画像の Z値をクリアすることにより、この描画 画像を無限遠の奥行き情報とすることができる。
[0039] また、変更部 207は、第 1の描画部 211によって描画された一のオブジェクトに関す る画像の奥行き情報を、一のオブジェクトよりも視点座標に近 、位置から視点座標ま での距離に関する情報に変更する。具体的には、一のオブジェクトを筒状オブジェク ト 400とすると、たとえば、この筒状オブジェクト 400の画像の奥行き情報を、視点座 標と筒状オブジェクト 400の先端開口との間の位置における奥行き情報に変更する。 より具体的には、変更部 207は、筒状オブジェクト 400の画像の奥行き情報を、透明 オブジェクトの画像の奥行き情報に変更する。
[0040] また、検出部 208は、視点座標が筒状オブジェクト 400内部、すなわち、トンネル内 部の座標であるかどうかを検出する。具体的には、視点座標の XY座標値と、トンネ ルに相当するリンク 322の XY座標値などやノード 331、 332の高さ情報とを用いて検 出する。たとえば、視点座標の XY座標値が、リンク 322の XY座標値に一致し、かつ 、そのリンク 322を接続するノード 331、 332の高さ情報よりも視点座標の Z座標値が 小さければ、視点座標はトンネル内の座標であると検出することができる。また、リンク の XY座標値は、リンクの幅情報によって広がるため、視点座標がその広がった範囲 内の XY座標値である場合も、トンネル内の座標であると検出することができる。
[0041] なお、上述した入力部 203、抽出部 204、生成部 205、描画部 206、変更部 207、 検出部 208は、具体的には、たとえば、図 1に示した ROM102、 RAM103、 HD10 5、 CDZDVD107などの記録媒体に記録されたプログラムを CPU101またはグラフ イツタスプロセッサ 130に実行させることによって、または入力 I/F111によって、その 機能を実現する。
実施例 1
[0042] つぎに、実施例 1にかかる描画処理手順について説明する。図 5は、実施例 1にか 力る描画処理手順を示すフローチャートである。図 5において、まず、視点座標が入 力された場合 (ステップ S501: Yes)、この視点座標からの視界をあらわす視錐台内 に存在する地図情報、すなわち、地盤オブジェクト 301と道路ネットワークデータ 311 を、地図情報データベース 201から抽出する(ステップ S502)。
[0043] つぎに、この視錘台内の道路ネットワークデータ 311にトンネル情報が含まれてい るかどうかを検出する (ステップ S 503)。トンネル情報が含まれて 、な 、場合 (ステツ プ S503 : No)、通常の描画処理をおこなう(ステップ S504)。具体的には、視点座標 力も見える各オブジェクトの画像を描画し、 Zバッファ法などの陰面消去法を用いて各 オブジェクトの画像の Z値を比較することにより、擬似的に立体描画する。
[0044] 一方、トンネル情報が含まれて 、る場合 (ステップ S503: Yes)、視点座標がトンネ ル内の座標であるかどうかを検出する(ステップ S505)。そして、視点座標がトンネル 内の座標であると検出された場合 (ステップ S505 : Yes)、ステップ S504に移行する 。一方、視点座標がトンネル内の座標でないと判定された場合 (ステップ S505 : No) 、トンネル描画処理をおこなう(ステップ S506)。ここで、このトンネル描画処理 (ステツ プ S506)の具体的な処理手順につ!、て説明する。
[0045] 図 6は、トンネル描画処理の具体的な処理手順を示すフローチャートである。このト ンネル描画処理手順は、トンネルの出口カゝら見たオブジェクトを描画しない場合の処 理手順である。また、図 7—図 9は、このトンネル描画処理における描画内容を示す 説明図である。
[0046] まず、視点座標から内周壁面 401— 403が見える筒状オブジェクト 400と先端面ォ ブジェクト 421と後端面オブジェクト 422を生成する (ステップ S601)。ここでは、先端 面オブジェクト 421は無色であり、後端面オブジェクト 422は有色、たとえば黒色とす る。
[0047] つぎに、視点座標力も筒状オブジェクト 400までの距離、視点座標から先端面ォブ ジェタト 421までの距離、視点座標力も後端面オブジェクト 422までの距離を算出す る (ステップ S602)。そして、視点座標から見た筒状オブジェクト 400、すなわち、内 周壁面 401— 403の画像および後端面オブジェクト 422の画像を描画する(ステップ S603)。具体的には、内周壁面 401— 403の画像および後端面オブジェクト 422の 画像の色データを、図 1に示したフレームバッファ 120に記録する。
[0048] また、このステップ S603における描画範囲について説明する。図 7は、ステップ S6 03における描画内容を示す説明図である。図 7において、視点座標 Vから見た視界 をあらわす視錐台 700内に、底面 401、側壁面 402、天井面 403によって構成される 筒状オブジェクト 400が存在する。また、後端面オブジェクト 422は筒状オブジェクト 4 00の後端開口 412に位置している。さらに、先端開口 411から手前には道路ォブジ ェクト 701が形成されている。
[0049] この段階での描画画像を図中符号 710に示す。描画画像 710には、底面 401の描 画画像 711、側壁面 402の描画画像 712、天井面 403の描画画像 713 (以下、「内 周壁面画像 711— 713」)、後端面オブジェクト 422の描画画像 (以下、「後端面画像 」)714、および道路オブジェクト 701の描画画像 715が含まれている。
[0050] また、この内周壁面画像 711— 713および後端面画像 714の描画にともない、内 周壁面画像 711— 713および後端面画像 714の奥行き情報を記録する (ステップ S 604) o具体的には、ステップ S602で算出した視点座標 Vから筒状オブジェクト 400 の各点までの距離に応じた値を、内周壁面画像 711— 713の画素ごとに Zバッファ 1 21に記録する。また、視点座標 Vから後端面オブジェクト 422までの距離に応じた値 を、後端面画像 714ごとに Zバッファ 121に記録する。
[0051] つぎに、無色である先端面オブジェクト 421の画像を描画する (ステップ S605)。具 体的には、先端面オブジェクト 421は無色であるため、フレームバッファ 120の値に は変ィ匕はなく、内周壁面画像 711— 713および後端面画像 714が描画されたままで ある。このステップ S605における描画内容について説明する。図 8は、ステップ S60 5における描画内容を示す説明図である。
[0052] 図 8において、筒状オブジェクト 400の先端開口 411に、先端面オブジェクト 421が 配置される。先端面オブジェクト 421は無色であるため、先端面オブジェクト 421の描 画範囲と重複する内周壁面画像 711— 713および後端面画像 714のフレームバッフ ァ 120の値は更新されず、内周壁面画像 711— 713および後端面画像 714の描画 が維持される。一方、このステップ S605の描画により、内周壁面画像 711— 713およ び後端面画像 714の奥行き情報 (Z値)が、ステップ S604で記録された値から、視点 座標 V力も先端面オブジェクト 421までの距離に応じた値に更新される (ステップ S60 6)。
[0053] つぎに、視点座標 V力も見た地盤オブジェクト 301までの距離を算出する (ステップ S607)。そして、視点座標 V力も見た地盤オブジェクト 301の画像を描画する (ステツ プ S608)。この描画では、ステップ S606で更新された奥行き情報となる Z値と、ステ ップ S607で算出された距離に応じた値とを比較する。このステップ S605における描 画内容について説明する。図 9は、ステップ S608における描画内容を示す説明図で ある。
[0054] 図 9において、地盤オブジェクト 301は、筒状オブジェクト 400と重なるように配置さ れる。筒状オブジェクト 400内部には、地盤オブジェクト 301の裾データ 301a、 301b が配置される。先端開口 411側の裾データ 301aは、先端面オブジェクト 421よりも視 点座標 V力 見て後方に位置するため、先端開口 411側の裾データ 301aを視点座 標 V力も見た画像は、先端面オブジェクト 421の透明描画画像の Z値によって陰面消 去される。
[0055] 同様に、後端開口 412側の裾データ 301bは、先端面オブジェクト 421よりも視点座 標 V力 見て後方に位置するため、先端開口 411側の裾データ 301bを視点座標 V 力も見た画像は、先端面オブジェクト 421の透明描画画像の Z値によって陰面消去さ れる。また、この裾データ 301bは、視点座標 V力も見て地盤オブジェクト 301のポリゴ ンの背面に相当するため、ノ ックフェース力リング処理によっても描画されない。一方 、筒状オブジェクト 400外部の地盤オブジェクト 301cは,描画画像 716として描画さ れる。
[0056] このように、この実施例 1に力かるトンネル描画処理によれば、トンネルをあらわす筒 状オブジェクト 400の内部画像 711— 714の Z値を、無色の先端面オブジェクト 421 の Z値に置き換え、その後に先端面オブジェクト 421よりも後方の地盤オブジェクト 30 1を描画することにより、筒状オブジェクト 400の内部画像 711— 714の描画状態を 維持したまま、筒状オブジェクト 400の内部画像 711— 714と重なる地盤オブジェクト (裾データ 301a、 301b)の画像を陰面消去することができる。これにより、地盤ォブ ジェタト 301に擬似的にトンネルが形成されたように描画することができ、実際の風景 と描画画像とを直感的に同一であると認識させることができる。
実施例 2
[0057] つぎに、実施例 2にかかるトンネル描画処理手順について説明する。図 10は、実施 例 2に力かるトンネル描画処理手順を示すフローチャートである。このトンネル描画処 理手順は、図 5に示したステップ S506の具体的な描画処理である。また、図 11一図 14は、このトンネル描画処理における描画内容を示す説明図である。なお、図 5に示 した描画処理手順は、この実施例 2においても適用されるため、その説明は省略する
[0058] まず、図 11に示すように、視点座標 Vを固定したまま、近面 N1をトンネルの出口位 置まで移動する (ステップ S 1001)。ここで、移動後の近面を近面 N2とし、視点座標 V力も見える視錐台 1100A内の地盤オブジェクト 341の画像および道路オブジェクト 342の画像を描画する (ステップ S 1002)。この段階での描画画像を図中符号 1100 に示す。この描画された画像 1111、 1112の奥行き情報をクリアする(ステップ S100
3)。これにより、この地盤オブジェクト 341および道路オブジェクト 342を、視点座標 V 力も見て無限遠に位置するオブジェクトとみなすことができる。
[0059] つぎに、図 12に示すように、近面 N2を元の位置に戻して近面 N1とし (ステップ S1
004)、視点座標 Vからの視界を示す視錐台 1100B内に存在する筒状オブジェクト 4 00と無色の先端面オブジェクト 421と無色の後端面オブジェクト 422とを生成する (ス テツプ S1005)。そして、視点座標 Vから筒状オブジェクト 400までの距離、視点座標 V力も先端面オブジェクト 421までの距離、視点座標 V力も後端面オブジェクト 422ま での距離を算出する (ステップ S 1006)。この後、視点座標 Vから見た筒状オブジェク ト 400の画像、すなわち、内周壁面画像 711— 713を描画する(ステップ S1007)。 具体的には、内周壁面画像 711— 713の色データをフレームバッファに記録する。
[0060] また、この内周壁面画像 711— 713の描画にともない、内周壁面画像 711— 713 の奥行き情報を記録する (ステップ S1008)。具体的には、ステップ S1006で算出し た視点座標 Vから筒状オブジェクト 400の各点までの距離に応じた値を、内周壁面 画像 711-713の画素ごとに Zバッファに記録する。
[0061] つぎに、図 13に示すように、無色である先端面オブジェクト 421の画像および後端 面オブジェクト 422の画像を描画する(ステップ S1009)。具体的には、先端面ォブ ジェタト 421および後端面オブジェクト 422は無色であるため、フレームバッファ 120 の値には変化はなく、内周壁面画像 711— 713が描画されたままである。一方、この 描画により、奥行き情報 (Z値)が、ステップ S 1008で記録された値から、視点座標 V カゝら先端面オブジェクト 421までの距離に応じた値に更新される (ステップ S 1010)。
[0062] つぎに、視点座標 V力も地盤オブジェクト 301までの距離を算出する (ステップ S10 11)。そして、図 14に示すように、地盤オブジェクト 301の画像 716を描画する(ステ ップ S1012)。この描画では、ステップ S 1010で更新された奥行き情報となる Z値と、 ステップ S1011で算出された距離に応じた値とを比較する。
[0063] 図 14において、地盤オブジェクト 301は、筒状オブジェクト 400と重なるように配置 される。筒状オブジェクト 400内部には、地盤オブジェクト 301の裾データ 301a、 30 lbが配置される。先端開口 411側の裾データ 301aは、先端面オブジェクト 421よりも 視点座標 V力も見て後方に位置するため、先端開口 411側の裾データ 301aを視点 座標 V力も見た画像は、先端面オブジェクト 421の透明描画画像の Z値によって陰面 消去される。
[0064] 同様に、後端開口 412側の裾データ 301bは、先端面オブジェクト 421よりも視点座 標 V力 見て後方に位置するため、先端開口 411側の裾データ 301bを視点座標 V 力も見た画像は、先端面オブジェクト 421の透明描画画像の Z値によって陰面消去さ れる。また、この裾データ 301bは、視点座標 V力も見て地盤オブジェクト 301のポリゴ ンの背面に相当するため、ノ ックフェース力リング処理によっても描画されない。一方 、筒状オブジェクト 400外部の地盤オブジェクト 301cは,描画画像 716として描画さ れる。
[0065] このように、この実施例 2に力かるトンネル描画処理によれば、トンネル出口後方の 地盤オブジェクト 341および道路オブジェクト 342の画像 1111、 1112を先に描画し 、筒状オブジェクト 400の内部画像 711— 713の Z値を、無色の先端面オブジェクト 4 21の Z値に置き換え、その後に先端面オブジェクト 421よりも後方の地盤オブジェクト 301を描画する。
[0066] これにより、筒状オブジェクト 400の内部画像 711— 713の描画状態を維持したま ま、筒状オブジェクト 400の内部画像 711— 713と重なる地盤オブジェクト (裾データ 301a, 301b)の画像を陰面消去することができる。これにより、地盤オブジェクト 301 に擬似的にトンネルが形成されたように描画することができ、実際の風景と描画画像 とを直感的に同一であると認識させることができる。特に、トンネル出口後方の地盤ォ ブジェクト 341および道路オブジェクト 342の画像 1111、 1112も描画されるため、よ りリアルな描画画像を得ることができる。
[0067] また、上述した実施例 1および 2では、地盤オブジェクト 301の裾データ 301a、 301 bが筒状オブジェクト 400の内部に位置している力 図 15に示すように、視点座標 V から見て、筒状オブジェクト 400の先端開口 411よりも手前に位置することとしてもよ い。この場合、視点座標 Vから見て、裾データ 301aの手前に無色の先端面オブジェ タト 421を形成し、この地盤オブジェクト 301を描画する前に、先端面オブジェクト 42 1を描画する。これにより、先端開口 411手前の裾データ 301aの画像を、先端面ォ ブジェクト 421の透明画像によって陰面消去することができる。
[0068] また同様に、視点座標 Vから見て、裾データ 301bの手前に無色の後端面オブジェ タト 422を形成し、この地盤オブジェクト 301を描画する前に、後端面オブジェクト 42 2を描画する。これにより、後端開口 412後方の裾データ 301bの画像を、後端面ォ ブジェクト 422の透明画像によって陰面消去することができる。
[0069] 以上説明したように、この発明の実施の形態に力かる描画方法、描画プログラム、 および描画装置 200によれば、トンネルデータが形成されて ヽな 、地盤オブジェクト を用いているため、計算量を抑制することができ、目視した風景に即したリアルな描 画を、簡易かつ高速処理によって実現することができる。
[0070] なお、本実施の形態で説明した描画方法は、予め用意されたプログラムをパーソナ ル 'コンピュータやワークステーション等のコンピュータで実行することにより実現する ことができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータに よって記録媒体力も読み出されることによって実行される。またこのプログラムは、イン ターネット等のネットワークを介して配布することが可能な伝送媒体であってもよい。

Claims

請求の範囲
[1] 3次元座標系内の任意の視点座標を入力する入力工程と、
前記入力工程によって入力された視点座標から一のオブジェクトを見た場合の当 該一のオブジェクト〖こ関する画像を描画する第 1の描画工程と、
前記第 1の描画工程によって描画された一のオブジェクトに関する画像の奥行き情 報を、前記一のオブジェクトよりも前記視点座標に近 、位置から前記視点座標までの 距離に関する情報に変更する変更工程と、
前記変更工程によって変更された奥行き情報に基づいて、前記視点座標から前記 一のオブジェクトとは異なる他のオブジェクトを見た場合の当該他のオブジェクトに関 する画像を、前記一のオブジェクトに関する画像と重なるように描画する第 2の描画 工程と、
を含んだことを特徴とする描画方法。
[2] さらに、前記一のオブジェクトよりも前記視点座標に近い位置に存在する透明色の 透明オブジェクトに関する画像を描画する第 3の描画工程を含み、
前記変更工程は、
前記第 1の描画工程によって描画された一のオブジェクトに関する画像の奥行き情 報を、前記第 3の描画工程によって描画された透明オブジェクトに関する画像の奥行 き情報に変更することを特徴とする請求項 1に記載の描画方法。
[3] 前記第 2の描画工程は、
前記他のオブジェクトが前記視点座標から見て前記透明オブジェクトの後方に位置 する場合、前記他のオブジェクトに関する画像のうち、前記透明オブジェクトに関する 画像と重なる部分の画像を描画しな ヽことを特徴とする請求項 1に記載の描画方法。
[4] 前記一のオブジェクトは、前記視点座標に近!、先端の開口および内周壁面が前記 視点座標から見える筒状オブジェクトであることを特徴とする請求項 1に記載の描画 方法。
[5] 前記一のオブジェクトは、さらに、後端の開口が前記視点座標力も見える筒状ォブ ジェタトであり、
前記第 1の描画工程は、 前記視点座標力 見て前記一のオブジェクトおよび前記他のオブジェクトよりも後 方に位置するオブジェクトに関する画像を描画する第 4の描画工程を含み、 前記第 4の描画工程によって描画されたオブジェクトに関する画像と重なるように、 前記筒状オブジェクトに関する画像を描画することを特徴とする請求項 4に記載の描 画方法。
[6] さらに、前記入力工程によって入力された視点座標が、前記筒状オブジェクト内部 の座標であるかどうかを検出する検出工程を含み、
前記第 1の描画工程は、前記検出工程によって検出された検出結果に基づいて、 前記筒状オブジェクトに関する画像を描画することを特徴とする請求項 4または 5に 記載の描画方法。
[7] 請求項 1一 5のいずれか一つに記載の描画方法を、コンピュータに実行させること を特徴とする描画プログラム。
[8] 3次元座標系内の任意の視点座標の入力を受け付ける入力手段と、
前記入力手段によって入力された視点座標から一のオブジェクトを見た場合の当 該一のオブジェクトに関する画像を描画する第 1の描画手段と、
前記第 1の描画手段によって描画された一のオブジェクトに関する画像の奥行き情 報を、前記一のオブジェクトよりも前記視点座標に近 、位置から前記視点座標までの 距離に関する情報に変更する変更手段と、
前記変更手段によって変更された奥行き情報に基づいて、前記視点座標から前記 一のオブジェクトとは異なる他のオブジェクトを見た場合の当該他のオブジェクトに関 する画像を、前記一のオブジェクトに関する画像と重なるように描画する第 2の描画 手段と、
を備えることを特徴とする描画装置。
PCT/JP2005/004492 2004-03-31 2005-03-15 描画方法、描画プログラム、および描画装置 WO2005098760A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05726661A EP1732043A4 (en) 2004-03-31 2005-03-15 TRACING METHOD, TRACING PROGRAM, AND TRACING EQUIPMENT
JP2006511943A JP4388064B2 (ja) 2004-03-31 2005-03-15 トンネル画像描画方法、トンネル画像描画プログラム、およびトンネル画像描画装置
US10/594,320 US7633500B2 (en) 2004-03-31 2005-03-15 Plotting method, plotting program, and plotting equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004108249 2004-03-31
JP2004-108249 2004-03-31

Publications (1)

Publication Number Publication Date
WO2005098760A1 true WO2005098760A1 (ja) 2005-10-20

Family

ID=35125292

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/004492 WO2005098760A1 (ja) 2004-03-31 2005-03-15 描画方法、描画プログラム、および描画装置

Country Status (5)

Country Link
US (1) US7633500B2 (ja)
EP (1) EP1732043A4 (ja)
JP (1) JP4388064B2 (ja)
CN (1) CN1942903A (ja)
WO (1) WO2005098760A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8130222B1 (en) * 2004-10-19 2012-03-06 Rockwell Collins Simulation And Training Solutions Llc System and method for resolving visual priority among coincident primitives
JP4397372B2 (ja) * 2005-12-28 2010-01-13 トヨタ自動車株式会社 3次元形状データの作成方法、3次元形状データの作成装置、及び、3次元形状データの作成プログラム
JP4738550B2 (ja) * 2009-02-16 2011-08-03 三菱電機株式会社 地図情報処理装置
DE112009004047B4 (de) * 2009-02-17 2015-02-12 Mitsubishi Electric Corp. Karteninformations -Verarbeitungsvorrichtung
WO2012060114A1 (ja) * 2010-11-01 2012-05-10 三菱電機株式会社 描画装置及び描画方法
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970481A (ja) * 1995-09-05 1997-03-18 Namco Ltd 三次元ゲーム装置及び画像合成方法
JP2002222431A (ja) * 2001-01-29 2002-08-09 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2003216967A (ja) * 2002-01-25 2003-07-31 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3266236B2 (ja) 1995-09-11 2002-03-18 松下電器産業株式会社 車載用ナビゲーション装置
JPH09161096A (ja) * 1995-12-06 1997-06-20 Matsushita Electric Ind Co Ltd 3次元画像表示制御装置
US5877768A (en) * 1996-06-19 1999-03-02 Object Technology Licensing Corp. Method and system using a sorting table to order 2D shapes and 2D projections of 3D shapes for rendering a composite drawing
JP2938845B1 (ja) 1998-03-13 1999-08-25 三菱電機株式会社 3次元cg実写映像融合装置
JP3668019B2 (ja) * 1998-10-27 2005-07-06 株式会社ソニー・コンピュータエンタテインメント 記録媒体、画像処理装置および画像処理方法
GB2354416B (en) * 1999-09-17 2004-04-21 Technologies Limit Imagination Depth based blending for 3D graphics systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970481A (ja) * 1995-09-05 1997-03-18 Namco Ltd 三次元ゲーム装置及び画像合成方法
JP2002222431A (ja) * 2001-01-29 2002-08-09 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2003216967A (ja) * 2002-01-25 2003-07-31 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1732043A4 *

Also Published As

Publication number Publication date
CN1942903A (zh) 2007-04-04
US7633500B2 (en) 2009-12-15
JPWO2005098760A1 (ja) 2008-02-28
EP1732043A1 (en) 2006-12-13
US20070176928A1 (en) 2007-08-02
EP1732043A4 (en) 2010-02-10
JP4388064B2 (ja) 2009-12-24

Similar Documents

Publication Publication Date Title
JP4628356B2 (ja) 地図生成装置、ナビゲーション装置、地図生成方法、地図生成プログラムおよび記録媒体
KR100520708B1 (ko) 3차원 지도의 표시방법
JP2009157053A (ja) 立体地図表示ナビゲーション装置、立体地図表示システム及び立体地図表示プログラム
WO2006092853A1 (ja) 地図表示装置および地図表示方法
JPH08339162A (ja) 地図描画方法
JP3266236B2 (ja) 車載用ナビゲーション装置
JP3568357B2 (ja) ナビゲーション装置における地図情報表示装置及び地図情報表示方法並びにナビゲーション装置における地図情報表示制御プログラムが記録されたコンピュータ読み取り可能な記録媒体
JP4388064B2 (ja) トンネル画像描画方法、トンネル画像描画プログラム、およびトンネル画像描画装置
JP2002098538A (ja) ナビゲーション装置および擬似三次元地図情報表示方法
JP2007026201A (ja) 画像処理装置、道路画像描画方法および道路画像描画プログラム
JP4947376B2 (ja) 3次元データ処理装置、3次元画像生成装置、ナビゲーション装置及び3次元データ処理プログラム
EP1839950A2 (en) On-vehicle stereoscopic display device
JP3501032B2 (ja) 地図表示方法及び地図表示装置
JP2610998B2 (ja) 自動車ナビゲーションシステムの描画方法
JP3360425B2 (ja) 車両用ナビゲーション装置
WO2008053533A1 (fr) Dispositif, procédé, programme d'affichage de carte et support d'enregistrement
JP4468076B2 (ja) 地図表示装置
KR101020505B1 (ko) 3차원 자차마크 표시 장치 및 그 방법
JP2008107223A (ja) 経路誘導装置、経路誘導方法、経路誘導プログラムおよび記録媒体
JP2007057809A (ja) 地図表示装置
JP3514607B2 (ja) 地図表示制御装置及び地図表示制御用プログラムを記録した記録媒体
WO2006095689A1 (ja) 運転支援装置、運転支援方法および運転支援プログラム
JPH1183503A (ja) ナビゲーション装置
JPH08189838A (ja) ナビゲーション装置
JP2005241332A (ja) 立体地図描画装置及び方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006511943

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2005726661

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2005726661

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580010877.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWE Wipo information: entry into national phase

Ref document number: 10594320

Country of ref document: US

Ref document number: 2007176928

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2005726661

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10594320

Country of ref document: US