WO2011121788A1 - ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体 - Google Patents

ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体 Download PDF

Info

Publication number
WO2011121788A1
WO2011121788A1 PCT/JP2010/055971 JP2010055971W WO2011121788A1 WO 2011121788 A1 WO2011121788 A1 WO 2011121788A1 JP 2010055971 W JP2010055971 W JP 2010055971W WO 2011121788 A1 WO2011121788 A1 WO 2011121788A1
Authority
WO
WIPO (PCT)
Prior art keywords
route
information
display image
road
current position
Prior art date
Application number
PCT/JP2010/055971
Other languages
English (en)
French (fr)
Inventor
智博 廣瀬
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2011540998A priority Critical patent/JPWO2011121788A1/ja
Priority to PCT/JP2010/055971 priority patent/WO2011121788A1/ja
Publication of WO2011121788A1 publication Critical patent/WO2011121788A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself

Definitions

  • the present invention relates to a navigation device, an information display device, a navigation method, a navigation program, and a recording medium that display a route to a destination.
  • the use of the present invention is not limited to the above-described navigation device, information display device, navigation method, navigation program, and recording medium.
  • Patent Document 1 since the guidance display is continuously displayed on the road surface, when there is an obstacle such as a preceding vehicle or a building, the obstacle display overlaps with the guidance display. As a result, there was a problem that the route guidance was rather difficult to understand. In particular, when a guidance display is projected on the front window, information to be confirmed by the driver, such as the vehicle ahead, becomes invisible (or difficult to see), which may hinder safe driving. there were.
  • Patent Document 2 In the above-described prior art (Patent Document 2), only the arrow is used for guidance display, and the arrow is superimposed on the actual scene at a position away from the road surface. There was a problem that it was difficult for the driver to know at which intersection to make a straight, right or left turn.
  • the navigation device acquires current position information acquisition means for acquiring information related to the current position of the mobile body and route information to the destination. Based on route information acquisition means, storage means for storing road information on roads, information on the current position, the route information, and road information, a continuous route display image along the route And a generation unit that generates a route display image (hereinafter referred to as “aerial route guidance display image”) displayed at a predetermined height from the road surface, and an imaging unit that captures an image including a road corresponding to the route.
  • the navigation device includes a current position information acquisition unit that acquires information about a current position of a moving body, a route information acquisition unit that acquires route information to a destination, road information about a road, Is a band-shaped route display image continuous along the route based on the information on the current position, the route information, and the road information, and has a predetermined height from the road surface.
  • Generating means for generating a route display image hereinafter referred to as “upper route guidance display image” displayed on the screen, and projecting means for projecting the upper route guidance display image generated by the generation means onto the corresponding window of the moving body And.
  • the information display apparatus is a current position information acquisition means for acquiring information relating to the current position of the own apparatus, a route information acquisition means for acquiring route information to the destination, and road information relating to the road. Based on the information on the current position, the route information, and the road information, a band-like route display image that is continuous along the route and has a predetermined height from the road surface.
  • a generating means for generating a route display image (hereinafter referred to as “aerial route guidance display image”), and a video acquisition means for acquiring the video from an imaging means for capturing a video including a road corresponding to the route;
  • the display screen is controlled, and the sky route guidance display image generated by the generating unit is displayed on the video acquired by the video acquiring unit. Characterized by comprising a shows means.
  • a navigation method is a navigation method in a navigation device, wherein a current position information acquisition step for acquiring information relating to a current position of a mobile body, and route information for acquiring route information to a destination. Based on the acquisition step, the information on the current position, the route information, and the road information on the road stored in advance, it is a belt-like route display image continuous along the route and has a predetermined height from the road surface.
  • a generating step of generating a route display image (hereinafter referred to as “aerial route guidance display image”), and a forward image acquiring step of acquiring the image from an imaging unit that captures an image including a road corresponding to the route And a sky route plan generated by the generation step on the video acquired by the video acquisition step. Characterized in that it includes a display processing step of displaying superimposed display image.
  • a navigation method is a navigation method in a navigation device, wherein a current position information acquisition step for acquiring information relating to a current position of a mobile body, and route information for acquiring route information to a destination. Based on the acquisition step, the information on the current position, the route information, and the road information on the road stored in advance, it is a belt-like route display image continuous along the route and has a predetermined height from the road surface.
  • a generation process for generating a route display image hereinafter referred to as “over-the-air route guidance display image” to be displayed, and a projection for projecting the over-the-air route guidance display image generated in the generation step onto the corresponding window of the moving object And a process.
  • a navigation program according to the invention of claim 14 causes a computer to execute the navigation method of claim 12 or 13.
  • a recording medium according to a fifteenth aspect of the present invention is readable by a computer that records the navigation program according to the fourteenth aspect.
  • FIG. 1 is a block diagram of a functional configuration of the navigation device according to the first embodiment.
  • FIG. 2 is a flowchart of a navigation process performed by the navigation device according to the first embodiment.
  • FIG. 3 is a block diagram of a functional configuration of the navigation device according to the second embodiment.
  • FIG. 4 is a flowchart of a navigation process performed by the navigation device according to the second embodiment.
  • FIG. 5 is a block diagram of a functional configuration of the information display apparatus according to the third embodiment.
  • FIG. 6 is a block diagram illustrating a hardware configuration of the navigation device.
  • FIG. 7 is a block diagram illustrating a functional configuration of the generation unit of the navigation device.
  • FIG. 8 is a flowchart illustrating a processing procedure of the generation unit of the navigation device.
  • FIG. 1 is a block diagram of a functional configuration of the navigation device according to the first embodiment.
  • FIG. 2 is a flowchart of a navigation process performed by the navigation device according to the first embodiment.
  • FIG. 9 is an explanatory diagram showing map data (node information, link information) at intersections of crossroads.
  • FIG. 10A is an explanatory diagram of the contents of the placement process in the placement processing unit of the generation unit.
  • FIG. 10B is an explanatory diagram of the contents of the placement process in the placement processing unit of the generation unit.
  • FIG. 11A is an explanatory diagram of the contents of the placement process in the placement processing unit of the generation unit.
  • FIG. 11B is an explanatory diagram of the contents of the placement processing in the placement processing unit of the generation unit.
  • FIG. 12A is an explanatory diagram of the contents of the movement process in the movement processing unit of the generation unit.
  • FIG. 12B is an explanatory diagram of the contents of the movement process in the movement processing unit of the generation unit.
  • FIG. 13A is an explanatory diagram of the contents of setting processing in the setting processing unit of the generation unit.
  • FIG. 13B is an explanatory diagram of the contents of setting processing in the setting processing unit of the generation unit.
  • FIG. 14 is an explanatory diagram showing a state rendered by the rendering processing unit of the generation unit.
  • FIG. 15 is an explanatory diagram showing a state in which an aerial route guidance display image is superimposed on the front video.
  • FIG. 16 is an explanatory diagram illustrating a state in which a guidance display image that is not an over-the-air route guidance display image is displayed over the front video.
  • FIG. 17 is an explanatory diagram showing another state in which a guidance display image that is not an over-the-air route guidance display image is displayed over the front video.
  • FIG. 18 is an explanatory diagram showing another state in which a guidance display image that is not an over-the-air route guidance display image is displayed over the front video.
  • FIG. 19 is an explanatory diagram showing another state in which the sky route guidance display image is displayed superimposed on the front video.
  • FIG. 20 is an explanatory diagram showing another state in which the sky route guidance display image is displayed superimposed on the front video.
  • FIG. 21 is an explanatory diagram showing another state in which the sky route guidance display image is displayed superimposed on the front video.
  • FIG. 22 is an explanatory diagram showing another state in which the sky route guidance display image is superimposed on the front video.
  • FIG. 23 is an explanatory diagram showing another state in which the sky route guidance display image is displayed superimposed on the front video.
  • FIG. 24 is an explanatory diagram showing a state in which the sky route guidance display image is projected on the front window.
  • FIG. 1 is a block diagram of a functional configuration of the navigation device according to the first embodiment.
  • the navigation device 100 according to the first embodiment includes a current position information acquisition unit 101, a route information acquisition unit 102, a storage unit 103, a generation unit 104, a video acquisition unit 105, and a display unit 106.
  • the current position information acquisition unit 101 acquires information related to the current position of the vehicle.
  • the information related to the current position of the host vehicle may include information such as the speed of the host vehicle and the traveling direction in addition to the latitude and longitude information.
  • Information about the current position of the host vehicle can be acquired by, for example, a GPS unit 617 and various sensors 618 described later.
  • the route information acquisition unit 102 acquires route information to the set destination.
  • the route information may be registered in advance, may be acquired by being received by communication means, or may be acquired by input of an operator (driver or passenger). At that time, only information on the destination is input from the operator, a route is searched based on the current position of the vehicle and the input destination, and the determined route is acquired as route information. Good.
  • the storage unit 103 stores so-called road information (map information), specifically, link information including the shape of the road and node information indicating an intersection, for example.
  • the map information may further include traffic lights, sign information, building information (for example, building shape and height), and the like.
  • the link information may include information on road width information and inclination.
  • the storage unit 103 may be provided in the navigation device 100, or an external server accessible by communication may realize the function of the storage unit 103.
  • the generation unit 104 includes information on the current position acquired by the current position information acquisition unit 101, route information acquired by the route information acquisition unit 102, only link information stored in the storage unit 103, or node information and Based on the link information, an aerial route guidance display image that is a band-like route display image continuous along the route and displayed at a predetermined height from the road surface is generated. A specific method for generating the sky route guidance display image will be described later.
  • the video acquisition unit 105 acquires the video from the imaging unit 110 that captures a video (particularly a front video, but not limited to the front video) on the route of the moving body (own vehicle).
  • the imaging unit 110 may be included in the navigation device 100.
  • the display unit 106 controls the display screen to display the sky route guidance display image generated by the generation unit 104 on the video acquired by the video acquisition unit 105.
  • FIG. 2 is a flowchart showing a procedure of navigation processing by the navigation device.
  • the navigation device 100 first acquires information on the current position of the vehicle by the current position information acquisition unit 101 (step S201), and the route information to the destination by the route information acquisition unit 102. Is acquired (step S202).
  • the navigation device 100 acquires road information (node information / link information) stored in the storage unit 103 (step S203).
  • the navigation apparatus 100 is based on the current position information, route information, and link information (when there is no node (intersection) near the front of the current location), or the current position information, route information, and node information / link. Based on the information (when there is a node (intersection) near the front of the current location), an sky route guidance display image is generated (step S204).
  • the navigation device 100 acquires a front image of the traveling direction of the own vehicle (step S205). Then, the navigation device 100 displays the generated sky route guidance display image so as to overlap the front video (step S206).
  • step S207: No the navigation device 100 waits for the current position to be changed by traveling of the host vehicle (step S207: No), and when the current position is changed (step S207: Yes), it arrives at the destination. It is determined whether or not it has been done (step S208). If the destination has not yet been reached (step S208: No), the process returns to step S201, and the processes in steps S201 to S207 are repeated. In step S208, when it arrives at the destination (step S208: Yes), a series of processing is ended.
  • the operator can recognize the route to the destination by looking at the sky route guidance display image displayed together with the front image on the display screen while traveling.
  • the navigation device 100 may be configured as a single device with each component unit integrated, or each component unit may be a single device and the function of the navigation device 100 may be realized by a plurality of devices. Good.
  • FIG. 3 is a block diagram of a functional configuration of the navigation device according to the second embodiment.
  • the navigation device 300 according to the second embodiment includes a current position information acquisition unit 301, a route information acquisition unit 302, a storage unit 303, a generation unit 304, and a projection unit 305.
  • the current position information acquisition unit 301, the route information acquisition unit 302, and the storage unit 303 have the same configuration as the current position information acquisition unit 101, the route information acquisition unit 102, and the storage unit 103 in the first embodiment. The description is omitted.
  • the generation unit 304 includes information on the current position acquired by the current position information acquisition unit 301, route information acquired by the route information acquisition unit 302, and road information (that is, only link information) stored in the storage unit 303. Or a route information display image that is a band-shaped route display image continuous along the route and displayed at a predetermined height from the road surface.
  • the generation unit 304 is different from the generation unit 104 of the first embodiment in a specific method for generating the sky route guidance display image. A specific method for generating the sky route guidance display image will be described later.
  • the difference between the navigation device 300 according to the second embodiment and the navigation device 100 according to the first embodiment is that the navigation device 100 according to the first embodiment includes a video acquisition unit 105 and a display unit 106.
  • the navigation device 300 according to the second embodiment is not provided with the video acquisition unit 105 and the display unit 106 but is provided with a projection unit 305 instead.
  • the projecting unit 305 projects the sky route guidance display image generated by the generating unit 304 onto the corresponding vehicle window.
  • the image is projected onto a window (usually a front window) in which the road corresponding to the route can be seen from inside the vehicle.
  • the sky route guidance display image appears to overlap the actual scenery seen from the window.
  • FIG. 4 is a flowchart showing a procedure of navigation processing by the navigation device.
  • the navigation device 300 first acquires information on the current position of the vehicle by the current position information acquisition unit 301 (step S ⁇ b> 401), and the route information to the destination by the route information acquisition unit 302. Is acquired (step S402). Furthermore, the navigation apparatus 300 acquires road information (node information / link information) stored in the storage unit 303 (step S403).
  • the navigation apparatus 300 is based on present position information and road information (route information and link information) (when there is no node (intersection) in the front vicinity of the present location), or present position information, route information, and node Based on the information and link information (when there is a node (intersection) in the vicinity of the front of the current location), a sky route guidance display image is generated (step S404). And the produced
  • step S406 waits for the current position to be changed by traveling of the host vehicle (step S406: No), and when the current position is changed (step S406: Yes), it arrives at the destination. It is determined whether or not (step S407). If the destination has not yet been reached (step S407: No), the process returns to step S401, and the processes of steps S401 to S406 are repeated. In step S407, when it arrives at the destination (step S407: Yes), a series of processes are complete
  • the navigation device 300 may be configured as a single device with each component unit integrated, or each component unit may be a single device, and the function of the navigation device 300 may be realized by a plurality of devices. Good.
  • the navigation device is mounted on a moving body such as an automobile.
  • the navigation apparatus is not limited to the one mounted on the moving body.
  • FIG. 5 is a block diagram of a functional configuration of the information display apparatus according to the third embodiment.
  • the information display apparatus 500 according to the third embodiment includes a current position information acquisition unit 501, a route information acquisition unit 502, a storage unit 503, a generation unit 504, a front video acquisition unit 505, a display unit 506, and an imaging unit 510. Consists of.
  • the current position information acquisition unit 501 acquires information on the current position of the device itself.
  • the information about the current position of the device itself includes the direction in which the device (particularly the display screen) is facing, the height of the device from the ground, and the device (the operator carrying the device). Information such as moving speed may be included.
  • Information about the current position of the device itself can be acquired by, for example, a GPS unit 617 and various sensors 618 described later.
  • the route information acquisition unit 502 acquires route information to the set destination.
  • the route information may be registered in advance, may be acquired by being received by a communication unit, or may be acquired by input of an operator of the own device. At that time, only information related to the destination is input from the operator, a route is searched based on the current position of the own device and the input destination, and the determined route is acquired as route information. Good.
  • the storage unit 503 stores so-called road information (map information), specifically, link information including, for example, road shape and width information, and node information indicating an intersection.
  • the map information may further include traffic lights, sign information, building information (for example, building shape and height), and the like.
  • the link information may include information related to road inclination.
  • the storage unit 503 may be provided in the information display device 500, or an external server accessible by communication may realize the function of the storage unit 503.
  • the generation unit 504 includes information on the current position acquired by the current position information acquisition unit 501, route information acquired by the route information acquisition unit 502, and road information stored in the storage unit 503 (only link information or Based on the node information and the link information), an empty route guidance display image that is a band-like route display image continuous along the route and displayed at a predetermined height from the road surface is generated. A specific method for generating the sky route guidance display image will be described later.
  • the video acquisition unit 505 acquires the video from the imaging unit 510 that captures a video on the route of the device itself (particularly a front image, but not limited to a front image).
  • the imaging unit 510 is configured to be included in the information display device 500. However, it is only necessary that the imaging unit 510 is connected to the information display device 500 by wire or wireless and the information display device 500 can acquire the captured video.
  • the display unit 506 controls the display screen to display the sky route guidance display image generated by the generation unit 504 so as to overlap the video acquired by the video acquisition unit 505.
  • the information display device 500 may be configured as a single device with each component unit integrated, or each component unit is a single device, and the function of the information display device 500 is realized by a plurality of devices. May be.
  • Information display device 500 may be, for example, a portable information terminal device (more specifically, for example, a mobile phone, a PDA, a mobile personal computer, etc.). Further, the information display device 500 can be mounted on a moving body to provide the navigation device 100 according to the first embodiment.
  • examples of the navigation device 100 according to the first embodiment, the navigation device 300 according to the second embodiment, and the information display device 500 according to the third embodiment will be described.
  • the example of the navigation device 100 according to the first embodiment, the example of the navigation device 300 according to the second embodiment, and the information display device 500 according to the third embodiment are applied to a navigation device mounted on a vehicle. An example will be described.
  • FIG. 6 is a block diagram illustrating a hardware configuration of the navigation device 100, the navigation device 300, and the information display device 500 (hereinafter simply referred to as “navigation device”).
  • the navigation device includes a CPU 601, ROM 602, RAM (memory) 603, magnetic disk drive 604, magnetic disk 605, optical disk drive 606, optical disk 607, audio I / F (interface) 608, microphone 609, speaker 610, input.
  • a device 611, a video I / F 612, a camera 613, a display 614, a projector 615, a communication I / F 616, a GPS unit 617, and various sensors 618 are provided.
  • the constituent units 601 to 618 are connected by a bus 620, respectively.
  • the CPU 601 governs overall control of the navigation device.
  • the ROM 602 records various programs such as a boot program, a communication program, a data display program, and a data analysis program.
  • the RAM 603 is used as a work area for the CPU 601.
  • the magnetic disk drive 604 controls the reading / writing of the data with respect to the magnetic disk 605 according to control of CPU601.
  • the magnetic disk 605 records data written under the control of the magnetic disk drive 604.
  • an HD hard disk
  • FD flexible disk
  • the optical disc drive 606 controls reading / writing of data with respect to the optical disc 607 according to the control of the CPU 601.
  • the optical disc 607 is a detachable recording medium from which data is read according to the control of the optical disc drive 606, and includes, for example, a Blu-ray disc, DVD, CD, and the like.
  • a writable recording medium can be used as the optical disk 607.
  • the removable recording medium may be an MO, a memory card, or the like.
  • map data used for route search / route guidance.
  • the map data includes background data representing features (features) such as buildings, rivers, and the ground surface, and road shape data representing the shape of the road.
  • the map data is displayed on the display screen of the display 614 in two dimensions or three dimensions. Drawn. When the navigation device is guiding the route, the map data and the current location of the vehicle acquired by the GPS unit 617 described later are displayed in an overlapping manner.
  • the voice I / F 608 is connected to a microphone 609 for voice input and a speaker 610 for voice output.
  • the sound received by the microphone 609 is A / D converted in the sound I / F 608.
  • sound is output from the speaker 610. Note that the sound input from the microphone 609 can be recorded on the magnetic disk 605 or the optical disk 607 as sound data.
  • the input device 611 includes a remote controller, a keyboard, a mouse, a touch panel, and the like that are provided with a plurality of keys for inputting characters, numerical values, various instructions, and the like. Further, the input device 611 can connect other information processing terminals such as a digital camera and a mobile phone terminal to input / output data.
  • the video I / F 612 is connected to a camera 613 for video input, a display 614 for video output, and a projector 615 for video output.
  • the video I / F 612 includes, for example, a graphic controller that controls the entire display 614 and the projector 615, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and the like.
  • VRAM Video RAM
  • the display 614 and a control IC for controlling display of the projector 615 are configured.
  • the camera 613 captures images inside and outside the vehicle and outputs them as image data.
  • An image captured by the camera 613 can be recorded on the magnetic disk 605 or the optical disk 607 as image data.
  • the display 614 displays icons, cursors, menus, windows, or various data such as characters and images.
  • a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted.
  • the display 614 can realize the functions of the display screen controlled by the display unit 106 in Embodiment 1 and the display unit 506 in Embodiment 3.
  • the projector 615 displays icons, cursors, menus, windows, or various data such as characters and images.
  • the projector 614 projects various data on the front window using, for example, a CRT or a liquid crystal.
  • the projector 614 is installed on the ceiling or the upper part of the seat in the vehicle.
  • the projector 615 can realize the function of the projection unit 305 of the second embodiment.
  • the communication I / F 616 is connected to the network via wireless and functions as an interface between the navigation device and the CPU 601.
  • the communication I / F 616 is further connected to a communication network such as the Internet via wireless, and also functions as an interface between the communication network and the CPU 601.
  • Communication networks include LANs, WANs, public line networks and mobile phone networks.
  • the GPS unit 617 receives radio waves from GPS satellites, and calculates information indicating the current position of the vehicle (current position of the navigation device).
  • the output information of the GPS unit 617 is used when the current position of the vehicle is calculated by the CPU 601 together with output values of various sensors described later.
  • the information indicating the current location is information for specifying one point on the map data, such as latitude / longitude and altitude.
  • the various sensors 618 are, for example, a gyro sensor, an acceleration sensor, a vehicle speed sensor, and the like, and detect the moving state of the vehicle. Output signals from the various sensors 618 are used for the calculation of the current location by the CPU 601 and the measurement of changes in speed and direction.
  • the current position information acquisition unit 101 includes a GPS unit 617, various sensors 618, a CPU 601 (ROM602, RAM603, magnetic disk 605, optical disk 607, etc.
  • the route information acquisition unit 102 and the storage unit 103 are acquired by the CPU 601, the magnetic disk drive 604 and the magnetic disk 605, or the optical disk drive 606 and the optical disk 607, and the generation unit 104 is acquired by the CPU 601.
  • the unit 105 is captured by the CPU 601, the video I / F 612, the camera 613, or the communication I / F 616
  • the display unit 106 is captured by the CPU 601, the video I / F 612, or the display 614. Parts 110, the camera 613 and the communication I / F616, realizing the respective functions.
  • the current position information acquisition unit 301 includes a GPS unit 617, various sensors 618, a CPU 601 (a program stored in a ROM 602, a RAM 603, a magnetic disk 605, an optical disk 607, and the like.
  • CPU601 executes the route information acquisition unit 302 and the storage unit 303 by the CPU 601, the magnetic disk drive 604 and the magnetic disk 605, or the optical disk drive 606 and the optical disk 607, and the generation unit 304 by the CPU 601.
  • a function 305 is realized by the CPU 601, the video I / F 612, and the projector 615.
  • the current position information acquisition unit 501 is stored in the GPS unit 617, various sensors 618, CPU 601 (ROM 602, RAM 603, magnetic disk 605, optical disk 607, etc.
  • CPU 601 ROM 602, RAM 603, magnetic disk 605, optical disk 607, etc.
  • the route information acquisition unit 502 and the storage unit 503 are processed by the CPU 601, the magnetic disk drive 604 and the magnetic disk 605, or the optical disk drive 606 and the optical disk 607, and the generation unit 504 is processed by the CPU 601.
  • the acquisition unit 505 is the CPU 601, the video I / F 612, the camera 613, or the communication I / F 616
  • the display unit 506 is the CPU 601, the video I / F 612, and the display 614. 0, the camera 613 and the communication I / F616, realizing the respective functions.
  • FIG. 7 is a block diagram illustrating a functional configuration of the generation unit of the navigation device.
  • FIG. 8 is a flowchart showing a processing procedure of the generation unit of the navigation device.
  • the generation unit includes an arrangement processing unit (arrangement unit) 701, a movement processing unit (movement unit) 702, a setting processing unit (setting unit) 703, a rendering processing unit (rendering unit) 704, and an adjustment unit. 705.
  • the arrangement processing unit 701 arranges a band-like object corresponding to a planar road in the space for three-dimensional calculation based only on link information or based on node information and link information (step S801). At that time, based on the route information, only the link information corresponding to the route is extracted, and a portion other than the route is deleted (step S802).
  • the movement processing unit 702 moves the band-like object arranged by the arrangement processing unit 701 by a predetermined amount (predetermined height) in the height direction orthogonal to the plane in the space for three-dimensional calculation (step S803).
  • the setting processing unit 703 determines the viewpoint position, viewpoint direction, and viewpoint height for three-dimensional calculation for the band-like object moved by the movement processing unit 702, the position, direction, and height of the imaging unit, or the operator (driving The viewpoint position, the viewpoint direction, and the viewpoint height of the person or passenger) are set (step S804).
  • the rendering processing unit 704 renders the band-like object viewed from the viewpoint position, viewpoint direction, and viewpoint height set by the setting processing unit 703 as an aerial route guidance display image (step S805).
  • the adjustment unit 705 can adjust a predetermined amount (predetermined height) from the road surface (the ground), and the movement processing unit 702 can adjust the height adjusted by the adjustment unit 705 in the three-dimensional calculation space in step S803. It moves in the height direction perpendicular to the plane.
  • the adjustment unit 705 may perform adjustment according to route information (for example, road inclination, presence / absence of an intersection (node), presence / absence of a traffic light, etc.). Moreover, you may make it adjust to an operator's desired height by the input from an operator.
  • FIG. 9 is an explanatory diagram showing map data (node information, link information) at intersections of a crossroad
  • FIGS. 10-1 to 11-2 are explanatory diagrams showing the contents of arrangement processing in the arrangement processing unit 701 of the generation unit.
  • the map data includes a node 900 indicating an intersection and links 901 to 904 indicating four roads with respect to the node 900.
  • the link has information such as the shape of the road and the width of the road. Based on the information, a link in which a planar road is arranged in the space for three-dimensional calculation is represented from the top, as shown in FIG. It is.
  • the arrangement processing unit 701 arranges the link 901 shown in FIG. 9 as a planar road in a space for three-dimensional calculation in consideration of the shape and width of the road, and sets it as a link 1001. .
  • the arrangement processing unit 701 arranges the links 902 to 904 shown in FIG. 9 as planar roads in the space for three-dimensional calculation to form links (band images) 1002 to 1004.
  • FIG. 10A is a view from the side (viewed from the lower side to the upper side in FIG. 10-1) of what is arranged as a planar road in the space for three-dimensional calculation in FIG. 10-1. .
  • the reference height that is, height 0
  • the reference height can be arbitrarily set, and for example, the ground surface can be used as a reference.
  • FIG. 10A only the link corresponding to the route is extracted from the four links 1001 to 1004 in FIG.
  • FIG. 11A also shows a plan view in which a planar road is arranged in a space for three-dimensional calculation. Since the route reaches from the link 901 in FIG. 9 to the node 900, turns right on the node 900 and reaches the link 902, in FIG. 11-1, the placement processing unit 701 only includes the links 1001 and 1002 in FIG. Is extracted, and links other than the root (links 1003 and 1004) are deleted.
  • the placement processing unit 701 may not place links other than the root (links 1003 and 1004) from the beginning (that is, omitting FIG. 10-1 in the space for three-dimensional calculation and starting from the beginning. 11-1 may be used).
  • FIG. 11-2 is similar to FIG. 10-2, in which the one arranged as a planar road in the space for three-dimensional calculation in FIG. 11-1 is viewed from the side (from the lower side to the upper side of FIG. 11-1). (Point of view). Even at this time, the height of the links 1001 and 1002 (Z-axis direction) is zero.
  • FIGS. 12A and 12B are explanatory diagrams showing the contents of the movement processing in the movement processing unit 702 of the generation unit.
  • the movement processing unit 702 moves the links 1001 and 1002 arranged by the arrangement processing unit 701 upward (Z-axis direction) by a predetermined height (here, about 20 m above the ground). Thereby, the arrangement of the objects (band-like objects) in the space for three-dimensional calculation is completed.
  • FIG. 12-1 is expressed from the viewpoint from the top like FIGS. 10-1 and 11-1, it looks the same as FIG. 11-1 (that is, the movement in the Z-axis direction is not known).
  • FIG. 12-2 is a view from the side (view point from the lower side to the upper side in FIG. 12-1) as in FIGS. 10-2 and 11-2. Compared to FIG. It can be seen that the links 1001 and 1002 are higher than the original height (height 0) by 20 m in the Z-axis direction.
  • FIGS. 13A and 13B are explanatory diagrams illustrating the contents of the setting process in the setting processing unit 703 of the generation unit.
  • the setting processing unit 703 performs the position and height of the imaging unit in which the camera 1301 indicating the viewpoint position and height for three-dimensional calculation is mounted on the own vehicle with respect to the belt-shaped image moved by the movement processing unit 702, or Set the viewpoint position and height of the driver or passenger.
  • FIG. 13-2 shows the viewpoint from the side (the viewpoint from the lower side to the upper side of FIG. 13-1) as in FIGS. 10-2, 11-2, and 12-2. It can be seen that the position is lower than the links 1001 and 1002 in the Z-axis direction (for example, about 1.5 m above the ground) and is almost directly below the link 1001. This indicates that the vehicle is traveling on the road of the link 1001. In addition, it indicates that the camera 1301 is mounted at a predetermined position (for example, the back side of the rearview mirror) of the own vehicle, or that the viewpoint position of the driver or the passenger riding the own vehicle is taken into consideration. .
  • a predetermined position for example, the back side of the rearview mirror
  • FIG. 14 is an explanatory diagram showing a state rendered by the rendering processing unit 704 of the generation unit.
  • FIG. 14 illustrates a state in which the links 1001 and 1002 viewed from the camera 1301 illustrated in FIGS. 13A and 13B are rendered. Since the camera 1301 and the link 1001 have different heights, the link 1001 looks up from below from the camera 1301. When this state is shown in the space for three-dimensional calculation, it is close to an inverted trapezoid as shown in FIG. It becomes a shape.
  • the link 1002 also becomes a band-like image having a width that the camera 1301 looks up from below. Thereby, the generation (drawing) of the band-like image (link) by the generation unit is completed.
  • FIGS. 15 to 24 are explanatory views showing a state in which an aerial route guidance display image is superimposed on the front video and displayed.
  • the band images 1001 and 1002 generated in FIG. 14 indicate route guidance on the front video. Since the route guidance constituted by the belt-like images 1001 and 1002 continuous along the route is displayed above the road surface, even if it is superimposed on the front image, the operator (driver or passenger) However, even if there is an obstacle on the front side in the front image, for example, a car traveling in front, the obstacle is not blocked by the belt-like image, and the user does not mistake the front image.
  • FIG. 16 illustrates a state in which the belt-like image is superimposed on the front image when the movement processing in the movement processing unit 702 of the generation unit is not performed.
  • a band-like image is displayed so as to overlap the road surface of the front image.
  • route guidance when there is no obstacle ahead, it is considered effective as route guidance.
  • FIG. 17 and FIG. In this case, the forward vehicle and the left utility pole, and in the case of FIG. 18, the forward vehicle) are present, so that the belt-like image and the obstacle are overlapped, making it difficult to understand the route guidance.
  • the belt-like image projected on the windshield such as the front vehicle to be confirmed by the driver, may be obstructed, which may hinder safe driving. There is also sex. Therefore, it is better to display in the sky than to display it superimposed on the road surface.
  • FIG. 19 and 20 show a state where the height of movement of the movement processing unit 702 is changed by the adjustment unit 705 of the generation unit.
  • FIG. 19 shows a case where the movement in the Z-axis direction is about 4 m
  • FIG. 20 shows a case where the movement in the Z-axis direction is about 20 m.
  • the signal and the sign which a driver must confirm are blocked. Therefore, it is necessary to adjust the height in the Z direction so as not to block those traffic lights and signs. Signals, signs, etc. that must be confirmed for traffic are referred to as “confirmation objects for traffic”.
  • the adjustment unit 705 changes the height according to the region where the current location of the vehicle exists. Also good.
  • the belt-like image may be expressed only by lines and transmitted without being filled with a predetermined color. (FIG. 21). Further, the belt-like image may be painted intermittently (that is, so as to form a stripe) instead of continuously (FIG. 22). Furthermore, only the both end portions of the belt-like image may be painted intermittently, and the inside may be transmitted without being painted with a predetermined color (FIG. 23).
  • the sky route guidance display image a part of the belt-like image (the sky route guidance display image) is displayed so as to be transparent, or displayed so as to be an intermittent belt-like route display image along the route. It is possible to reduce the portion of the image that is blocked.
  • the belt-like image of FIG. 22 or FIG. 23 it may be displayed so as to be constituted by an animation that moves in the traveling direction of the route.
  • the belt-like image may appear to flow in the traveling direction like a blinking guide light on the runway.
  • FIG. 24 shows a display state of the sky route guidance display image in the navigation device according to the second embodiment.
  • a sky route guidance display image (links 1001 and 1002) is displayed on the front window 2401.
  • more reliable route guidance can be realized by performing continuous route guidance along the route, and continuous route guidance can be superimposed on the actual scenery.
  • continuous route guidance can be superimposed on the actual scenery.
  • the navigation method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer.
  • the program may be a transmission medium that can be distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

 ナビゲーション装置(100)の生成部(104)が、現在位置情報取得部(101)によって取得された現在位置に関する情報と、ルート情報取得部(102)によって取得されたルート情報と、記憶部(103)に記憶されたノード情報、リンク情報と、に基づいて、ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるような上空ルート案内表示画像を生成し、表示部(106)が、映像取得部(105)によって取得された移動体(自車)のルート上の前方映像上に、生成された上空ルート案内表示画像を重ねて表示したり、フロントウインドウに投影したりする。

Description

ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
 この発明は、目的地までのルートを表示するナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体に関する。ただし、この発明の利用は、上述したナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体に限られない。
 従来、ナビゲーション装置などにおいて、実写映像を用いて案内表示をおこなう技術が存在する(たとえば、下記特許文献1参照)。また、矢印などの案内情報を運転の妨げにならないように実風景に重ねて表示する技術が存在する(たとえば、下記特許文献2参照)。このように、実写映像(実風景)に重ねて案内表示をすることによって、運転者により確実に案内情報を伝えることができる。
特開2008-20288号公報 特開2006-162442号公報
 しかしながら、上述した従来技術(特許文献1)では、案内表示を連続的に道路の路面に重ねて表示するため、前方車両や建物などの障害物がある場合に、当該障害物と案内表示が重なってしまい、ルート案内がかえってわかりづらくなるという問題点があった。また、特に、フロントウインドウに対して、案内表示を投影する場合には前方車両など運転者が確認すべき情報が見えなく(または見えづらく)なり、安全運転を阻害する場合があるという問題点があった。
 また、上述した従来技術(特許文献2)では、矢印のみによる案内表示であり、路面から離れた位置に矢印を実風景に重ねて表示するため、実際にどこの交差点を指し示しているのか、すなわちどこの交差点において直進・右折・左折をすればよいのか、運転者にはわかりづらいという問題点があった。
 上述した課題を解決し、目的を達成するため、請求項1の発明にかかるナビゲーション装置は、移動体の現在位置に関する情報を取得する現在位置情報取得手段と、目的地までのルート情報を取得するルート情報取得手段と、道路に関する道路情報を記憶する記憶手段と、前記現在位置に関する情報と、前記ルート情報と、前記道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成手段と、前記ルートに対応する道路を含む映像を撮影する撮像手段から当該映像を取得する映像取得手段と、表示画面を制御して、前記映像取得手段によって取得された映像上に、前記生成手段によって生成された上空ルート案内表示画像を重ねて表示する表示手段と、を備えたことを特徴とする。
 また、請求項3の発明にかかるナビゲーション装置は、移動体の現在位置に関する情報を取得する現在位置情報取得手段と、目的地までのルート情報を取得するルート情報取得手段と、道路に関する道路情報と、を記憶する記憶手段と、前記現在位置に関する情報と、前記ルート情報と、前記道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成手段と、前記生成手段によって生成された上空ルート案内表示画像を対応する前記移動体のウインドウに投影する投影手段と、を備えたことを特徴とする。
 また、請求項10の発明にかかる情報表示装置は、自装置の現在位置に関する情報を取得する現在位置情報取得手段と、目的地までのルート情報を取得するルート情報取得手段と、道路に関する道路情報と、を記憶する記憶手段と、前記現在位置に関する情報と、前記ルート情報と、前記道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成手段と、前記ルートに対応する道路を含む映像を撮影する撮像手段から当該映像を取得する映像取得手段と、表示画面を制御して、前記映像取得手段によって取得された映像上に、前記生成手段によって生成された上空ルート案内表示画像を重ねて表示する表示手段と、を備えたことを特徴とする。
 また、請求項12の発明にかかるナビゲーション方法は、ナビゲーション装置におけるナビゲーション方法であって、移動体の現在位置に関する情報を取得する現在位置情報取得工程と、目的地までのルート情報を取得するルート情報取得工程と、前記現在位置に関する情報と、前記ルート情報と、あらかじめ記憶された道路に関する道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成工程と、前記ルートに対応する道路を含む映像を撮影する撮像手段から当該映像を取得する前方映像取得工程と、前記映像取得工程によって取得された映像上に、前記生成工程によって生成された上空ルート案内表示画像を重ねて表示する表示処理工程と、を含んだことを特徴とする。
 また、請求項13の発明にかかるナビゲーション方法は、ナビゲーション装置におけるナビゲーション方法であって、移動体の現在位置に関する情報を取得する現在位置情報取得工程と、目的地までのルート情報を取得するルート情報取得工程と、前記現在位置に関する情報と、前記ルート情報と、あらかじめ記憶された道路に関する道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成工程と、前記生成工程によって生成された上空ルート案内表示画像を対応する前記移動体のウインドウに投影する投影工程と、を含んだことを特徴とする。
 また、請求項14の発明にかかるナビゲーションプログラムは、請求項12または13に記載のナビゲーション方法をコンピュータに実行させることを特徴とする。
また、請求項15の発明にかかる記録媒体は、請求項14に記載のナビゲーションプログラムを記録したコンピュータに読み取り可能なことを特徴とする。
図1は、実施の形態1にかかるナビゲーション装置の機能的構成を示すブロック図である。 図2は、実施の形態1にかかるナビゲーション装置によるナビゲーション処理の手順を示すフローチャートである。 図3は、実施の形態2にかかるナビゲーション装置の機能的構成を示すブロック図である。 図4は、実施の形態2にかかるナビゲーション装置によるナビゲーション処理の手順を示すフローチャートである。 図5は、実施の形態3にかかる情報表示装置の機能的構成を示すブロック図である。 図6は、ナビゲーション装置のハードウェア構成を示すブロック図である。 図7は、ナビゲーション装置の生成部の機能的構成を示すブロック図である。 図8は、ナビゲーション装置の生成部の処理の手順を示すフローチャートである。 図9は、十字路の交差点の地図データ(ノード情報、リンク情報)を示す説明図である。 図10-1は、生成部の配置処理部における配置処理の内容を示す説明図である。 図10-2は、生成部の配置処理部における配置処理の内容を示す説明図である。 図11-1は、生成部の配置処理部における配置処理の内容を示す説明図である。 図11-2は、生成部の配置処理部における配置処理の内容を示す説明図である。 図12-1は、生成部の移動処理部における移動処理の内容を示す説明図である。 図12-2は、生成部の移動処理部における移動処理の内容を示す説明図である。 図13-1は、生成部の設定処理部における設定処理の内容を示す説明図である。 図13-2は、生成部の設定処理部における設定処理の内容を示す説明図である。 図14は、生成部のレンダリング処理部によってレンダリングされた状態を示す説明図である。 図15は、前方映像上に上空ルート案内表示画像を重ねて表示した状態を示す説明図である。 図16は、前方映像上に上空ルート案内表示画像ではない案内表示画像を重ねて表示した状態を示す説明図である。 図17は、前方映像上に上空ルート案内表示画像ではない案内表示画像を重ねて表示した別の状態を示す説明図である。 図18は、前方映像上に上空ルート案内表示画像ではない案内表示画像を重ねて表示した別の状態を示す説明図である。 図19は、前方映像上に上空ルート案内表示画像を重ねて表示した別の状態を示す説明図である。 図20は、前方映像上に上空ルート案内表示画像を重ねて表示した別の状態を示す説明図である。 図21は、前方映像上に上空ルート案内表示画像を重ねて表示した別の状態を示す説明図である。 図22は、前方映像上に上空ルート案内表示画像を重ねて表示した別の状態を示す説明図である。 図23は、前方映像上に上空ルート案内表示画像を重ねて表示した別の状態を示す説明図である。 図24は、フロントウインドウに上空ルート案内表示画像を投影した状態を示す説明図である。
 以下に添付図面を参照して、この発明にかかるナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体の好適な実施の形態を詳細に説明する。
(実施の形態1)
 実施の形態1にかかるナビゲーション装置100の機能的構成について説明する。図1は、実施の形態1にかかるナビゲーション装置の機能的構成を示すブロック図である。図1において、実施の形態1にかかるナビゲーション装置100は、現在位置情報取得部101、ルート情報取得部102、記憶部103、生成部104、映像取得部105、表示部106によって構成される。
 現在位置情報取得部101は、自車の現在位置に関する情報を取得する。自車の現在位置に関する情報には、緯度経度情報のほか、自車の速度、走行方向などの情報を含んでいてもよい。自車の現在位置に関する情報は、たとえば後述するGPSユニット617や各種センサ618によって取得することができる。
 ルート情報取得部102は、設定された目的地までのルート情報を取得する。ルート情報は、あらかじめ登録されていてもよく、通信手段によって受信することによって取得してもよく、操作者(運転車または同乗者)の入力によって取得するようにしてもよい。その際、操作者からは目的地に関する情報のみが入力され、自車の現在位置と入力された目的地とに基づいてルートを探索し、決定されたルートをルート情報として取得するようにしてもよい。
 記憶部103は、いわゆる道路情報(地図情報)、具体的には、たとえば道路の形状を含むリンク情報と、交差点を示すノード情報と、を記憶する。地図情報には、さらに信号機、標識情報や建物の情報(たとえば建物の形状や高さ)などを含んでいてもよい。リンク情報には、道路の幅情報や傾斜などに関する情報を含んでいてもよい。記憶部103はナビゲーション装置100に備えられていてもよく、また、通信によりアクセス可能な外部のサーバが記憶部103の機能を実現してもよい。
 生成部104は、現在位置情報取得部101によって取得された現在位置に関する情報と、ルート情報取得部102によって取得されたルート情報と、記憶部103に記憶されたリンク情報のみと、またはノード情報およびリンク情報と、に基づいて、ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるような上空ルート案内表示画像を生成する。上空ルート案内表示画像の具体的な生成方法については後述する。
 映像取得部105は、移動体(自車)のルート上の映像(特には前方映像。ただし前方映像には限らない)を撮影する撮像部110から当該映像を取得する。撮像部110は、ナビゲーション装置100が備えていてもよい。表示部106は、表示画面を制御して、映像取得部105によって取得された映像上に、生成部104によって生成された上空ルート案内表示画像を重ねて表示する。
 つぎに、ナビゲーション装置100によるナビゲーション処理の手順について説明する。図2は、ナビゲーション装置によるナビゲーション処理の手順を示すフローチャートである。図2のフローチャートにおいて、ナビゲーション装置100は、まず、現在位置情報取得部101によって、自車の現在位置に関する情報を取得する(ステップS201)とともに、ルート情報取得部102によって、目的地までのルート情報を取得する(ステップS202)。
 そして、ナビゲーション装置100は、記憶部103に記憶されている道路情報(ノード情報・リンク情報)を取得する(ステップS203)。つぎに、ナビゲーション装置100は、現在位置情報とルート情報とリンク情報とに基づいて(現在地の前方近傍にノード(交差点)がない場合)、または、現在位置情報とルート情報と、ノード情報・リンク情報とに基づいて(現在地の前方近傍にノード(交差点)がある場合)、上空ルート案内表示画像を生成する(ステップS204)。
 さらに、ナビゲーション装置100は、自車の進行方向の前方映像を取得する(ステップS205)。そして、ナビゲーション装置100は、生成された上空ルート案内表示画像を前方映像に重ねて表示する(ステップS206)。
 つぎに、ナビゲーション装置100は、自車の走行によって現在位置が変更になるのを待って(ステップS207:No)、現在位置が変更になった場合(ステップS207:Yes)は、目的地に到着したか否か判断する(ステップS208)。ここで、未だ目的地に到着していない場合(ステップS208:No)は、ステップS201へ戻って、ステップS201~S207の各ステップの処理を繰り返しおこなう。ステップS208において、目的地に到着した場合(ステップS208:Yes)は、一連の処理を終了する。
 これによって、自車が目的地に到着するまで、上空ルート案内表示画像が前方映像に重ねて表示され続ける。操作者は、走行しながら、表示画面に前方映像とともに表示された上空ルート案内表示画像を見ることで、目的地までのルートを認識することができる。
 なお、ナビゲーション装置100は、各構成部が一体となって1つの装置として構成されていてもよいし、各構成部を単独の装置とし、複数の装置によってナビゲーション装置100の機能を実現してもよい。
(実施の形態2)
 つぎに、実施の形態2にかかるナビゲーション装置300の機能的構成について説明する。図3は、実施の形態2にかかるナビゲーション装置の機能的構成を示すブロック図である。図3において、実施の形態2にかかるナビゲーション装置300は、現在位置情報取得部301、ルート情報取得部302、記憶部303、生成部304、投影部305によって構成される。
 ここで、現在位置情報取得部301、ルート情報取得部302、記憶部303は、実施の形態1における現在位置情報取得部101、ルート情報取得部102、記憶部103と同一の構成であるので、その説明は省略する。
 生成部304は、現在位置情報取得部301によって取得された現在位置に関する情報と、ルート情報取得部302によって取得されたルート情報と、記憶部303に記憶された道路情報(すなわちリンク情報のみと、またはノード情報およびリンク情報)と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるような上空ルート案内表示画像を生成する。なお、生成部304は、実施の形態1の生成部104とは、上空ルート案内表示画像の具体的な生成方法が異なる。上空ルート案内表示画像の具体的な生成方法については後述する。
 実施の形態2にかかるナビゲーション装置300と、実施の形態1にかかるナビゲーション装置100との相違点は、実施の形態1にかかるナビゲーション装置100が、映像取得部105および表示部106を備えているのに対し、実施の形態2にかかるナビゲーション装置300は、映像取得部105、表示部106を備えておらず、その代わりに、投影部305を備えている点である。
 投影部305は、生成部304によって生成された上空ルート案内表示画像を対応する自車のウインドウに投影する。すなわち、車内からルートに対応する道路が見えるウインドウ(通常はフロントウインドウ)に投影する。これによって、ウインドウから見える実風景に上空ルート案内表示画像が重なって見えるようになる。
 つぎに、ナビゲーション装置300によるナビゲーション処理の手順について説明する。図4は、ナビゲーション装置によるナビゲーション処理の手順を示すフローチャートである。図4のフローチャートにおいて、ナビゲーション装置300は、まず、現在位置情報取得部301によって、自車の現在位置に関する情報を取得する(ステップS401)とともに、ルート情報取得部302によって、目的地までのルート情報を取得する(ステップS402)。さらに、ナビゲーション装置300は、記憶部303に記憶されている道路情報(ノード情報・リンク情報)を取得する(ステップS403)。
 そして、ナビゲーション装置300は、現在位置情報と道路情報(ルート情報とリンク情報)とに基づいて(現在地の前方近傍にノード(交差点)がない場合)、または、現在位置情報とルート情報と、ノード情報・リンク情報とに基づいて(現在地の前方近傍にノード(交差点)がある場合)、上空ルート案内表示画像を生成し(ステップS404)。そして、生成された上空ルート案内表示画像を自車のウインドウに投影する(ステップS405)。
 つぎに、ナビゲーション装置300は、自車の走行によって現在位置が変更になるのを待って(ステップS406:No)、現在位置が変更になった場合(ステップS406:Yes)は、目的地に到着したか否か判断する(ステップS407)。ここで、未だ目的地に到着していない場合(ステップS407:No)は、ステップS401へ戻って、ステップS401~S406の各ステップの処理を繰り返しおこなう。ステップS407において、目的地に到着した場合(ステップS407:Yes)は、一連の処理を終了する。
 これによって、自車が目的地に到着するまで、上空ルート案内表示画像が自車のフロントウインドウに投影され続ける。操作者は、走行しながら、フロントウインドウを通して前方の実風景を見るとともに投影された上空ルート案内表示画像を見ることで、目的地までのルートを認識することができる。
 なお、ナビゲーション装置300は、各構成部が一体となって1つの装置として構成されていてもよいし、各構成部を単独の装置とし、複数の装置によってナビゲーション装置300の機能を実現してもよい。
(実施の形態3)
 実施の形態3にかかる情報表示装置500の機能的構成について説明する。実施の形態1および2では、たとえば自動車などの移動体に搭載されるナビゲーション装置であったのに対し、実施の形態3では、移動体に搭載されるものに限定されない。
 図5は、実施の形態3にかかる情報表示装置の機能的構成を示すブロック図である。図5において、実施の形態3にかかる情報表示装置500は、現在位置情報取得部501、ルート情報取得部502、記憶部503、生成部504、前方映像取得部505、表示部506、撮像部510によって構成される。
 現在位置情報取得部501は、自装置の現在位置に関する情報を取得する。自装置の現在位置に関する情報には、緯度経度情報のほか、自装置(特に表示画面)が向いている方向、自装置の地上からの高さ、自装置(を携帯している操作者)の移動速度などの情報を含んでいてもよい。自装置の現在位置に関する情報は、たとえば後述するGPSユニット617や各種センサ618によって取得することができる。
 ルート情報取得部502は、設定された目的地までのルート情報を取得する。ルート情報は、あらかじめ登録されていてもよく、通信手段によって受信することによって取得してもよく、自装置の操作者の入力によって取得するようにしてもよい。その際、操作者からは目的地に関する情報のみが入力され、自装置の現在位置と入力された目的地とに基づいてルートを探索し、決定されたルートをルート情報として取得するようにしてもよい。
 記憶部503は、いわゆる道路情報(地図情報)、具体的には、たとえば道路の形状および幅情報を含むリンク情報と、交差点を示すノード情報と、を記憶する。地図情報には、さらに信号機、標識情報や建物の情報(たとえば建物の形状や高さ)などを含んでいてもよい。リンク情報には、道路の傾斜などに関する情報を含んでいてもよい。記憶部503は情報表示装置500に備えられていてもよく、また、通信によりアクセス可能な外部のサーバが記憶部503の機能を実現してもよい。
 生成部504は、現在位置情報取得部501によって取得された現在位置に関する情報と、ルート情報取得部502によって取得されたルート情報と、記憶部503に記憶された道路情報(リンク情報のみと、またはノード情報およびリンク情報)と、に基づいて、ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるような上空ルート案内表示画像を生成する。上空ルート案内表示画像の具体的な生成方法については後述する。
 映像取得部505は、自装置のルート上の映像(特に前方画像。ただし前方画像には限らない)を撮影する撮像部510から当該映像を取得する。撮像部510は、情報表示装置500が備えている構成としたが、情報表示装置500と有線または無線によって接続され、撮影された映像を情報表示装置500が取得できればよい。表示部506は、表示画面を制御して、映像取得部505によって取得された映像上に、生成部504によって生成された上空ルート案内表示画像を重ねて表示する。
 なお、情報表示装置500は、各構成部が一体となって1つの装置として構成されていてもよいし、各構成部を単独の装置とし、複数の装置によって情報表示装置500の機能を実現してもよい。
 情報表示装置500による情報表示処理の手順は、図2に示した、実施の形態1にかかるナビゲーション装置によるナビゲーション処理の手順と同様であるので、その説明は省略する。情報表示装置500は、たとえば携帯型情報端末装置(より具体的には、たとえば携帯電話機、PDA、モバイルパソコンなど)であってもよい。また、情報表示装置500を、移動体に搭載することによって実施の形態1にかかるナビゲーション装置100とすることもできる。
 つぎに、上述した実施の形態1にかかるナビゲーション装置100、実施の形態2にかかるナビゲーション装置300、実施の形態3にかかる情報表示装置500の実施例について説明する。以下の実施例では、実施の形態1にかかるナビゲーション装置100の例、実施の形態2にかかるナビゲーション装置300の例、実施の形態3にかかる情報表示装置500を車両に搭載されたナビゲーション装置に適用した例について説明する。
(ナビゲーション装置のハードウェア構成)
 図6は、ナビゲーション装置100、ナビゲーション装置300および情報表示装置500(以下単に「ナビゲーション装置」とする)のハードウェア構成を示すブロック図である。
 図6において、ナビゲーション装置は、CPU601、ROM602、RAM(メモリ)603、磁気ディスクドライブ604、磁気ディスク605、光ディスクドライブ606、光ディスク607、音声I/F(インターフェース)608、マイク609、スピーカ610、入力デバイス611、映像I/F612、カメラ613、ディスプレイ614、プロジェクタ615、通信I/F616、GPSユニット617、各種センサ618を備えている。また、各構成部601~618はバス620によってそれぞれ接続されている。
 CPU601は、ナビゲーション装置の全体の制御を司る。ROM602は、ブートプログラム、通信プログラム、データ表示プログラム、データ解析プログラムなどの各種プログラムを記録している。RAM603は、CPU601のワークエリアとして使用される。
 磁気ディスクドライブ604は、CPU601の制御に従って磁気ディスク605に対するデータの読み取り/書き込みを制御する。磁気ディスク605は、磁気ディスクドライブ604の制御で書き込まれたデータを記録する。磁気ディスク605としては、たとえば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。
 光ディスクドライブ606は、CPU601の制御に従って光ディスク607に対するデータの読み取り/書き込みを制御する。光ディスク607は、光ディスクドライブ606の制御に従ってデータが読み出される着脱自在な記録媒体であり、たとえば、ブルーレイディスク、DVD、CDなどを含む。光ディスク607は、書き込み可能な記録媒体を利用することもできる。また、この着脱可能な記録媒体として、光ディスク607のほか、MO、メモリカードなどであってもよい。
 磁気ディスク605または光ディスク607に記録される情報の一例として、経路探索・経路誘導などに用いる地図データが挙げられる。地図データは、建物、河川、地表面などの地物(フィーチャ)を表す背景データと、道路の形状を表す道路形状データとを有しており、ディスプレイ614の表示画面において2次元または3次元に描画される。ナビゲーション装置が経路誘導中の場合は、地図データと後述するGPSユニット617によって取得された自車の現在地点とが重ねて表示されることとなる。
 音声I/F608は、音声入力用のマイク609および音声出力用のスピーカ610に接続される。マイク609に受音された音声は、音声I/F608内でA/D変換される。また、スピーカ610からは音声が出力される。なお、マイク609から入力された音声は、音声データとして磁気ディスク605あるいは光ディスク607に記録可能である。
 入力デバイス611は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、マウス、タッチパネルなどが挙げられる。さらに、入力デバイス611は、デジタルカメラや携帯電話端末などの他の情報処理端末を接続し、データの入出力をおこなうことができる。
 映像I/F612は、映像入力用のカメラ613、映像出力用のディスプレイ614および映像出力用のプロジェクタ615と接続される。映像I/F612は、具体的には、たとえば、ディスプレイ614およびプロジェクタ615全体の制御をおこなうグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいて、ディスプレイ614、プロジェクタ615を表示制御する制御ICなどによって構成される。
 カメラ613は、車両内外の映像を撮像し、画像データとして出力する。カメラ613で撮像された画像は、画像データとして磁気ディスク605あるいは光ディスク607に記録可能である。
 ディスプレイ614には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。このディスプレイ614は、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。ディスプレイ614によって、実施の形態1の表示部106、実施の形態3の表示部506が制御する表示画面の機能を実現することができる。
 プロジェクタ615には、ディスプレイ614と同様に、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。プロジェクタ614は、たとえばCRTや液晶をもちいて、フロントウインドウに各種データを投影する。プロジェクタ614は、たとえば、車内の天井や座席上部などに設置する。プロジェクタ615によって、実施の形態2の投影部305の機能を実現することができる。
 通信I/F616は、無線を介してネットワークに接続され、ナビゲーション装置とCPU601とのインターフェースとして機能する。通信I/F616は、さらに、無線を介してインターネットなどの通信網に接続され、この通信網とCPU601とのインターフェースとしても機能する。通信網には、LAN、WAN、公衆回線網や携帯電話網などがある。
 GPSユニット617は、GPS衛星からの電波を受信し、車両の現在地点(ナビゲーション装置の現在地点)を示す情報を算出する。GPSユニット617の出力情報は、後述する各種センサの出力値とともに、CPU601による車両の現在地点の算出に際して利用される。現在地点を示す情報は、たとえば緯度・経度、高度などの、地図データ上の1点を特定する情報である。
 各種センサ618は、たとえば、ジャイロセンサや加速度センサ、車速センサなどであり、車両の移動状態を検出する。各種センサ618からの出力信号は、CPU601による現在地点の算出や、速度や方位の変化量の測定に用いられる。
 また、実施の形態1にかかるナビゲーション装置100の構成のうち、現在位置情報取得部101は、GPSユニット617、各種センサ618、CPU601(ROM602、RAM603、磁気ディスク605、光ディスク607などに記憶されたプログラムをCPU601が実行すること)によって、ルート情報取得部102および記憶部103はCPU601、磁気ディスクドライブ604および磁気ディスク605、または、光ディスクドライブ606および光ディスク607によって、生成部104は、CPU601によって、映像取得部105は、CPU601、映像I/F612、カメラ613、または、通信I/F616によって、表示部106は、CPU601、映像I/F612、ディスプレイ614によって、撮像部110は、カメラ613および通信I/F616によって、それぞれの機能を実現する。
 また、実施の形態2にかかるナビゲーション装置300の構成のうち、現在位置情報取得部301は、GPSユニット617、各種センサ618、CPU601(ROM602、RAM603、磁気ディスク605、光ディスク607などに記憶されたプログラムをCPU601が実行すること)によって、ルート情報取得部302および記憶部303はCPU601、磁気ディスクドライブ604および磁気ディスク605、または、光ディスクドライブ606および光ディスク607によって、生成部304は、CPU601によって、投影部305は、CPU601、映像I/F612、プロジェクタ615によって、それぞれの機能を実現する。
 また、実施の形態3にかかる情報表示装置500の構成のうち、現在位置情報取得部501は、GPSユニット617、各種センサ618、CPU601(ROM602、RAM603、磁気ディスク605、光ディスク607などに記憶されたプログラムをCPU601が実行すること)によって、ルート情報取得部502および記憶部503はCPU601、磁気ディスクドライブ604および磁気ディスク605、または、光ディスクドライブ606および光ディスク607によって、生成部504は、CPU601によって、映像取得部505は、CPU601、映像I/F612、カメラ613、または、通信I/F616によって、表示部506は、CPU601、映像I/F612、ディスプレイ614によって、撮像部510は、カメラ613および通信I/F616によって、それぞれの機能を実現する。
 つぎに、ナビゲーション装置の生成部(生成部104、304、504)による上空ルート案内表示画像の生成手順について詳細に説明する。図7は、ナビゲーション装置の生成部の機能的構成を示すブロック図である。また、図8は、ナビゲーション装置の生成部の処理の手順を示すフローチャートである。
 図7において、生成部は、配置処理部(配置部)701と、移動処理部(移動部)702と、設定処理部(設定部)703と、レンダリング処理部(レンダリング部)704と、調整部705から構成される。図8のフローチャートにおいて、配置処理部701は、リンク情報のみに基づいて、またはノード情報およびリンク情報に基づいて、三次元計算用の空間において平面的な道路に対応する帯状オブジェクトを配置する(ステップS801)。その際、ルート情報に基づいて、ルートに該当するリンク情報だけを抽出し、ルート以外の部分を削除する(ステップS802)。
 移動処理部702は、配置処理部701によって配置された帯状オブジェクトを、三次元計算用の空間において平面と直交する高さ方向へ所定量(所定の高さ)だけ移動させる(ステップS803)。設定処理部703は、移動処理部702によって移動された帯状オブジェクトに対して、三次元計算用の視点位置、視点方向および視点高さを撮像部の位置、方向および高さ、または操作者(運転者または同乗者)の視点位置、視点方向および視点高さに設定する(ステップS804)。レンダリング処理部704は、設定処理部703によって設定された視点位置、視点方向および視点高さから見た帯状オブジェクトを上空ルート案内表示画像としてレンダリングする(ステップS805)。
 調整部705は、路面(地上)からの所定量(所定の高さ)を調整可能であり、移動処理部702は、ステップS803において、三次元計算用の空間において調整部705によって調整された高さだけ平面と直交する高さ方向へ移動する。調整部705は、ルート情報(たとえば、道路の傾斜、交差点(ノード)の有無、信号機の有無など)に応じて調整してもよい。また、操作者からの入力によって操作者の所望の高さに調整するようにしてもよい。
 図9は、十字路の交差点の地図データ(ノード情報、リンク情報)を示す説明図であり、図10-1~図11-2は、生成部の配置処理部701における配置処理の内容を示す説明図である。図9において、地図データは、交差点を示すノード900と、ノード900に対して4本の道路を示すリンク901~904で構成されている。リンクには道路の形状や道幅などの情報があり、それらの情報に基づいて三次元計算用の空間に平面的な道路を配置したものを上からの視点で表したのが、図10-1である。
 図10-1において、配置処理部701は、図9に示したリンク901を、道路の形状や道幅を考慮して三次元計算用の空間に平面的な道路として配置して、リンク1001とする。同様に、配置処理部701は、図9に示したリンク902~904を三次元計算用の空間に平面的な道路として配置して、リンク(帯状画像)1002~1004とする。
 図10-1から、リンク1001が道幅の広い通りであり、リンク1002がリンク1001と比べて道幅の狭い道路であることがわかる。なお、配置処理部701は、リンクの道幅に関する情報を考慮しないで、全てのリンクを一定の道幅として配置させてもよい。図10-2は、図10-1において三次元計算用の空間に平面的な道路として配置したものを横からの視点(図10-1の下側から上側の視点)で表したものである。この時点では、各リンク1001~1004の高さ(Z軸方向)は0である。なお、このときの基準となる高さ(すなわち、高さ0)は任意に設定することが可能であり、たとえば、地表面を基準とすることができる。
 図10-1において、4本のリンク1001~1004のうち、ルートに該当するリンクだけを抽出したのが、図11-1である。図11-1も、図10-1と同様に、三次元計算用の空間に平面的な道路を配置したものを上からの視点で表している。ルートが図9におけるリンク901からノード900まで到達し、ノード900を右折してリンク902へ至るものであるので、図11-1では、配置処理部701が図10-1におけるリンク1001および1002だけを抽出し、ルート以外のリンク(リンク1003および1004)を削除した状態を示している。
 配置処理部701は、ルート以外のリンク(リンク1003および1004)を、最初から配置しないようにしてもよい(すなわち、三次元計算用の空間において、図10-1を省略して、最初から図11-1とするようにしてもよい)。
 図11-2は、図10-2と同様に、図11-1において三次元計算用の空間に平面的な道路として配置したものを横からの視点(図11-1の下側から上側の視点)で表したものである。この時点でも、リンク1001、1002の高さ(Z軸方向)は0である。
 図12-1、図12-2は、生成部の移動処理部702における移動処理の内容を示す説明図である。移動処理部702は、配置処理部701によって配置されたリンク1001および1002を所定の高さ(ここでは地上約20m)だけ、上側(Z軸方向)へ移動させる。これによって、三次元計算用の空間におけるオブジェクト(帯状オブジェクト)の配置は終了する。
 図12-1は、図10-1、図11-1と同様に上からの視点で表しているため、図11-1と同様に見える(すなわち、Z軸方向の移動はわからない)。図12-2は、図10-2、図11-2と同様に横からの視点(図12-1の下側から上側の視点)で表したものであり、図11-2と比較すると、リンク1001および1002が、元の高さ(高さ0)よりZ軸方向へ20mだけ高くなっていることがわかる。
 図13-1、図13-2は、生成部の設定処理部703における設定処理の内容を示す説明図である。設定処理部703は、移動処理部702によって移動された帯状画像に対して、三次元計算用の視点位置および高さを示すカメラ1301を自車に搭載された撮像部の位置および高さ、または運転者または同乗者の視点位置および高さに設定する。
 図13-2は、図10-2、図11-2、図12-2と同様に横からの視点(図13-1の下側から上側の視点)で表したものであり、カメラ1301がリンク1001、1002よりもZ軸方向に対して低い位置(たとえば地上約1.5m)であって、リンク1001のほぼ真下にあることがわかる。これは、自車がリンク1001の道路上を走行中であるということを示している。また、カメラ1301が自車の所定の位置(たとえばバックミラーの裏側など)に搭載されているか、あるいは、自車に乗車した運転者または同乗者の視点位置を考慮していることを示している。
 図14は、生成部のレンダリング処理部704によってレンダリングされた状態を示す説明図である。図14は、図13-1、図13-2で示したカメラ1301からリンク1001、1002を見た状態をレンダリングした状態を示している。カメラ1301とリンク1001とは、高さが異なるため、リンク1001はカメラ1301からは下から見上げる状態となり、その状態を三次元計算用の空間に示すと、図14に示すように逆台形に近い形状となる。リンク1002も、カメラ1301が下から見上げる分だけ、幅を持った帯状画像となる。これにより、生成部による帯状画像(リンク)の生成(描画)は完了する。
 図15~24は、前方映像上に上空ルート案内表示画像を重ねて表示した状態を示す説明図である。図14において生成された帯状画像1001、1002が、前方映像上においてルート案内を示すことになる。ルートに沿って連続する帯状画像1001、1002によって構成されるルート案内は、路面よりも上方に表示されるため、前方映像と重ね合わせた場合であっても、操作者(運転者または同乗者)が、前方映像における前側にある障害物、たとえば前方を走行する自動車などが存在してもその帯状画像によって当該障害物が遮られることはなく、ユーザが前方映像を見誤ることがない。
 図16は、生成部の移動処理部702における移動処理をおこなわなかった場合の帯状画像を前方映像と重ね合わせた状態を示している。図16に示すように、前方映像の路面に重なるように帯状画像が表示される。この場合に、図16に示すように、前方に障害物が存在しない場合は、ルート案内としては有効であると考えられるが、図17や図18に示すように前方に障害物(図17の場合は前方車両および左側の電柱、図18の場合は前方車両)が存在するために、帯状画像と当該障害物とが重なってしまい、かえってルート案内がわかりづらくなる。
 特に、後述する図24に示すフロントウインドウに帯状画像を投影する場合に、運転者が確認すべき前方車両などをフロントガラスに投影された帯状画像が遮ってしまい、安全運転上、支障をきたす可能性もある。そこで、路面に重ねて表示するよりも上空に表示するほうがよい。
 図19および図20は、生成部の調整部705によって移動処理部702の移動の高さを変えた場合の状態を示している。図19は、Z軸方向への移動を約4mとした場合であり、図20は、Z軸方向への移動を約20mとした場合である。図19では、ルート案内としては見やすいものの、運転者が確認しなければならない信号機や標識を遮ってしまう。そこで、それらの信号機や標識を遮らないように、Z方向の高さを調整する必要がある。なお、交通に関して確認しなければならない信号機や標識等を「交通に関する確認対象物」という。
 調整の方法としては、地図情報(ノード、リンク情報、標識情報)に基づいて現在地ごとに変更するようにしてもよく、操作者から当該操作者の所望の高さの入力を受け付け、受け付けられた高さに基づいて変更するようにしてもよい。また、国、地域や自治体等の領域ごとに交通に関する確認対象物の高さの規定が異なる場合、調整部705は、自車の現在地点が存在する領域に応じて上記高さを変更してもよい。
 また、帯状画像が前方映像を遮らない方法として、図21~図23に示すように、帯状画像を線のみにて表現し、中を所定の色で塗りつぶすことなく、透過するようにしてもよい(図21)。また、帯状画像を連続的にではなく、断続的に(すなわち縞を構成するように)塗りつぶしてもよい(図22)。さらに、帯状画像の両端部分のみを断続的に塗りつぶし、中を所定の色で塗りつぶすことなく、透過するようにしてもよい(図23)。
 このように帯状画像(上空ルート案内表示画像)の一部が透過しているように表示したり、ルートに沿って断続的な帯状のルート表示画像となるように表示したりすることで、前方映像の遮る部分を少なくすることができる。
 また、図22または図23の帯状画像において、ルートの進行方向へ移動するようなアニメーションにより構成されるように表示するようにしてもよい。すなわち、塗りつぶす部分を定期的に変更させることによって、滑走路の点滅する誘導灯のように、帯状画像が進行方向へ流れているように見せるようにしてもよい。このように表示することによって、より確実なルート案内をすることができる。特に交差点で左折または右折する際に、このような帯状画像を表示することにより、より確実なルートの誘導をすることが可能となる。
 図24は、実施の形態2にかかるナビゲーション装置における上空ルート案内表示画像の表示状態を示したものである。図24において、フロントウインドウ2401には、上空ルート案内表示画像(リンク1001、1002)が表示されている。
 以上説明したように、本実施例によれば、ルートに沿った連続的なルート案内をおこなうことによって、より確実なルート案内を実現することができるとともに、連続したルート案内を実風景に重ねて表示することによって、前方の障害物を遮ることなく、運転者の前方視野を確保し、安全運転に寄与することができる。
 なお、本実施の形態で説明したナビゲーション方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
 100 ナビゲーション装置
 101 現在位置情報取得部
 102 ルート情報取得部
 103 記憶部
 104 生成部
 105 映像取得部
 106 表示部
 300 ナビゲーション装置
 301 現在位置情報取得部
 302 ルート情報取得部
 303 記憶部
 304 生成部
 305 投影部
 500 情報表示装置
 501 現在位置情報取得部
 502 ルート情報取得部
 503 記憶部
 504 生成部
 505 映像取得部
 506 表示部
 510 撮像部

Claims (15)

  1.  移動体の現在位置に関する情報を取得する現在位置情報取得手段と、
     目的地までのルート情報を取得するルート情報取得手段と、
     道路に関する道路情報を記憶する記憶手段と、
     前記現在位置に関する情報と、前記ルート情報と、前記道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成手段と、
     前記ルートに対応する道路を含む映像を撮影する撮像手段から当該映像を取得する映像取得手段と、
     表示画面を制御して、前記映像取得手段によって取得された映像上に、前記生成手段によって生成された上空ルート案内表示画像を重ねて表示する表示手段と、
     を備えたことを特徴とするナビゲーション装置。
  2.  前記生成手段は、
     前記道路情報に基づいて、三次元計算用の空間において前記ルートに対応する帯状オブジェクトを配置する配置手段と、
     前記配置手段によって配置された帯状オブジェクトを、前記三次元計算用の空間において前記平面と直交する高さ方向へ所定距離だけ移動させる移動手段と、
     前記移動手段によって移動された帯状オブジェクトに対して、前記三次元計算用の視点位置、視点方向および視点高さを前記撮像手段の位置、方向および高さに設定する設定手段と、
     前記設定手段によって設定された視点位置および高さから見た帯状オブジェクトを上空ルート案内表示画像としてレンダリングするレンダリング手段と、
     を備えたことを特徴とする請求項1に記載のナビゲーション装置。
  3.  移動体の現在位置に関する情報を取得する現在位置情報取得手段と、
     目的地までのルート情報を取得するルート情報取得手段と、
     道路に関する道路情報と、を記憶する記憶手段と、
     前記現在位置に関する情報と、前記ルート情報と、前記道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成手段と、
     前記生成手段によって生成された上空ルート案内表示画像を対応する前記移動体のウインドウに投影する投影手段と、
     を備えたことを特徴とするナビゲーション装置。
  4.  前記生成手段は、
     前記道路情報に基づいて、三次元計算用の空間において前記ルートに対応する帯状オブジェクトを配置する配置手段と、
     前記配置手段によって配置された帯状オブジェクトを、前記三次元計算用の空間において前記平面と直交する高さ方向へ所定距離だけ移動させる移動手段と、
     前記移動手段によって移動された帯状オブジェクトに対して、前記三次元計算用の視点位置、視点方向および視点高さを前記移動体の運転者または同乗者の視点位置、方向および高さに設定する設定手段と、
     前記設定手段によって設定された視点位置および高さから見た帯状オブジェクトを上空ルート案内表示画像としてレンダリングするレンダリング手段と、
     を備えたことを特徴とする請求項3に記載のナビゲーション装置。
  5.  前記移動手段は、前記帯状オブジェクトを移動させる前記所定距離を、前記設定手段が設定する前記視点高さよりも高い距離とすることを特徴とする請求項2または4に記載のナビゲーション装置。
  6.  前記上空ルート案内表示画像の一部が透過していることを特徴とする請求項1または3に記載のナビゲーション装置。
  7.  前記上空ルート案内表示画像は、前記ルートに沿って断続的な帯状のルート表示画像であることを特徴とする請求項1または3に記載のナビゲーション装置。
  8.  前記上空ルート案内表示画像は、前記ルートの進行方向へ移動するようなアニメーションにより構成されることを特徴とする請求項1または3に記載のナビゲーション装置。
  9.  前記路面から所定の高さを調整可能な調整手段を備え、
    前記調整手段は、交通に関する確認対象物よりも前記所定の高さを高く設定することを特徴とする請求項1または3に記載のナビゲーション装置。
  10.  自装置の現在位置に関する情報を取得する現在位置情報取得手段と、
     目的地までのルート情報を取得するルート情報取得手段と、
     道路に関する道路情報と、を記憶する記憶手段と、
     前記現在位置に関する情報と、前記ルート情報と、前記道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成手段と、
     前記ルートに対応する道路を含む映像を撮影する撮像手段から当該映像を取得する映像取得手段と、
     表示画面を制御して、前記映像取得手段によって取得された映像上に、前記生成手段によって生成された上空ルート案内表示画像を重ねて表示する表示手段と、
     を備えたことを特徴とする情報表示装置。
  11.  前記生成手段は、
     前記道路情報に基づいて、三次元計算用の空間において前記ルートに対応する帯状オブジェクトを配置する配置手段と、
     前記配置手段によって配置された帯状オブジェクトを、前記三次元計算用の空間において前記平面と直交する高さ方向へ所定距離だけ移動させる移動手段と、
     前記移動手段によって移動された帯状オブジェクトに対して、前記三次元計算用の視点位置、視点方向および視点高さを前記撮像手段の位置、方向および高さに設定する設定手段と、
     前記設定手段によって設定された視点位置および高さから見た帯状画像を上空ルート案内表示画像としてレンダリングするレンダリング手段と、
     を備えたことを特徴とする請求項10に記載の情報表示装置。
  12.  ナビゲーション装置におけるナビゲーション方法であって、
     移動体の現在位置に関する情報を取得する現在位置情報取得工程と、
     目的地までのルート情報を取得するルート情報取得工程と、
     前記現在位置に関する情報と、前記ルート情報と、あらかじめ記憶された道路に関する道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成工程と、
     前記ルートに対応する道路を含む映像を撮影する撮像手段から当該映像を取得する前方映像取得工程と、
     前記映像取得工程によって取得された映像上に、前記生成工程によって生成された上空ルート案内表示画像を重ねて表示する表示処理工程と、
     を含んだことを特徴とするナビゲーション方法。
  13.  ナビゲーション装置におけるナビゲーション方法であって、
     移動体の現在位置に関する情報を取得する現在位置情報取得工程と、
     目的地までのルート情報を取得するルート情報取得工程と、
     前記現在位置に関する情報と、前記ルート情報と、あらかじめ記憶された道路に関する道路情報と、に基づいて、前記ルートに沿って連続した帯状のルート表示画像であって路面から所定の高さに表示されるルート表示画像(以下「上空ルート案内表示画像」という)を生成する生成工程と、
     前記生成工程によって生成された上空ルート案内表示画像を対応する前記移動体のウインドウに投影する投影工程と、
     を含んだことを特徴とするナビゲーション方法。
  14.  請求項12または13に記載のナビゲーション方法をコンピュータに実行させることを特徴とするナビゲーションプログラム。
  15.  請求項14に記載のナビゲーションプログラムを記録したことを特徴とするコンピュータに読み取り可能な記録媒体。
PCT/JP2010/055971 2010-03-31 2010-03-31 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体 WO2011121788A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011540998A JPWO2011121788A1 (ja) 2010-03-31 2010-03-31 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
PCT/JP2010/055971 WO2011121788A1 (ja) 2010-03-31 2010-03-31 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/055971 WO2011121788A1 (ja) 2010-03-31 2010-03-31 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体

Publications (1)

Publication Number Publication Date
WO2011121788A1 true WO2011121788A1 (ja) 2011-10-06

Family

ID=44711573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/055971 WO2011121788A1 (ja) 2010-03-31 2010-03-31 ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体

Country Status (2)

Country Link
JP (1) JPWO2011121788A1 (ja)
WO (1) WO2011121788A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002277A (ja) * 2012-06-19 2014-01-09 Zenrin Co Ltd 地図表示装置、地図表示方法および地図表示用プログラム
CN107532912A (zh) * 2015-12-25 2018-01-02 华为技术有限公司 一种导航方法以及导航终端和服务器
JP2019039739A (ja) * 2017-08-24 2019-03-14 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107323548B (zh) * 2017-07-21 2023-05-16 南京信息职业技术学院 自适应调速型履带式车辆限高应急装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344062A (ja) * 2002-05-30 2003-12-03 Alpine Electronics Inc ナビゲーション装置
JP2005201635A (ja) * 2004-01-13 2005-07-28 Denso Corp 車両用ナビゲーションシステム
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2008257092A (ja) * 2007-04-09 2008-10-23 Denso Corp 地図表示制御装置および地図表示制御装置用のプログラム
WO2009084129A1 (ja) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation ナビゲーション装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262492A (ja) * 1994-03-25 1995-10-13 Alpine Electron Inc 車載用ナビゲーション装置
JPH10274537A (ja) * 1997-03-31 1998-10-13 Toyota Motor Corp 車両用案内表示装置
JP4133265B2 (ja) * 2002-11-28 2008-08-13 アルパイン株式会社 ナビゲーション装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344062A (ja) * 2002-05-30 2003-12-03 Alpine Electronics Inc ナビゲーション装置
JP2005201635A (ja) * 2004-01-13 2005-07-28 Denso Corp 車両用ナビゲーションシステム
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2008257092A (ja) * 2007-04-09 2008-10-23 Denso Corp 地図表示制御装置および地図表示制御装置用のプログラム
WO2009084129A1 (ja) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation ナビゲーション装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002277A (ja) * 2012-06-19 2014-01-09 Zenrin Co Ltd 地図表示装置、地図表示方法および地図表示用プログラム
CN107532912A (zh) * 2015-12-25 2018-01-02 华为技术有限公司 一种导航方法以及导航终端和服务器
US11255694B2 (en) 2015-12-25 2022-02-22 Huawei Technologies Co., Ltd. Navigation method, navigation terminal, and server
JP2019039739A (ja) * 2017-08-24 2019-03-14 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP7027725B2 (ja) 2017-08-24 2022-03-02 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2011121788A1 (ja) 2013-07-04

Similar Documents

Publication Publication Date Title
JP6606494B2 (ja) ナビゲーション命令を表示する装置及び方法
JP4895313B2 (ja) ナビゲーション装置およびその方法
WO2013002037A1 (ja) 駐車支援装置
US20090240426A1 (en) Navigation device and navigation method
JP2009020089A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
WO2017056210A1 (ja) 車両用表示装置
JP5735658B2 (ja) 表示装置及び表示方法
JP2009236844A (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラム
JP2015172548A (ja) 表示制御装置、制御方法、プログラム、及び記憶媒体
JP2009236843A (ja) ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
JP4833384B1 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
WO2011121788A1 (ja) ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
JPWO2007142084A1 (ja) ナビゲーション装置
JP2015141155A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2015105903A (ja) ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP5702476B2 (ja) 表示装置、制御方法、プログラム、記憶媒体
JP5438172B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
JP5517176B2 (ja) 画像調整装置、制御方法、プログラム、及び記憶媒体
JPWO2016072019A1 (ja) 表示制御装置
JP2009288179A (ja) 情報案内装置、情報案内方法、情報案内プログラムおよび記録媒体
JP4943257B2 (ja) 情報表示装置、ナビゲーション装置、情報表示方法、情報表示プログラムおよび記録媒体
KR20080019690A (ko) 카메라 정보를 구비하는 내비게이션 기기
WO2014002167A1 (ja) 情報表示装置、情報表示方法、情報表示プログラム及び記録媒体
WO2014049705A1 (ja) 表示制御装置、表示制御方法及びプログラム、並びにサーバ装置
WO2014038044A1 (ja) 表示装置、表示方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2011540998

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10848964

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10848964

Country of ref document: EP

Kind code of ref document: A1